8G显存玩转书生大模型Demo

8G显存玩转书生大模型Demo

环境配置

1
2
3
4
5
6
7
8
9
10
11
12
13
# 创建环境
conda create -n demo python=3.10 -y
# 激活环境
conda activate demo
# 安装 torch
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y
# 安装其他依赖
pip install transformers==4.38
pip install sentencepiece==0.1.99
pip install einops==0.8.0
pip install protobuf==5.27.2
pip install accelerate==0.33.0
pip install streamlit==1.37.0

InternLM2-Chat-1.8B 模型部署

一、用Cli Demo 部署

1.创建demo文件夹,用于存放代码。并创建 cli_demo.py文件

1
2
mkdir -p /root/demo
touch /root/demo/cli_demo.py

其中cli_demo.py 的代码为:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM


model_name_or_path = "/root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b"

tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True, device_map='cuda:0')
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='cuda:0')
model = model.eval()

system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
"""

messages = [(system_prompt, '')]

print("=============Welcome to InternLM chatbot, type 'exit' to exit.=============")

while True:
input_text = input("\nUser >>> ")
input_text = input_text.replace(' ', '')
if input_text == "exit":
break

length = 0
for response, _ in model.stream_chat(tokenizer, input_text, messages):
if response is not None:
print(response[length:], flush=True, end="")
length = len(response)
阅读更多
博客:书生·浦语大模型全链路开源开放体系及其最新发展

博客:书生·浦语大模型全链路开源开放体系及其最新发展

博客:书生·浦语大模型全链路开源开放体系及其最新发展

在现代人工智能技术的迅猛发展浪潮中,书生·浦语大模型全链路开源开放体系以其独特的优势和卓越的性能,在各个领域中不断取得突破性进展。本文将详细介绍该体系的发展历程、最新版本的特征、基于规则、模型和反馈的数据生成方法,以及mind search项目、开源数据提取工具和预训练框架、EXTINA的评测和部署、知识管理工具等各个方面的应用与优化策略。

书生·浦语大模型全链路开源开放体系的历程及最新版本的特征

书生·浦语大模型开源开放体系在多个方面表现出色,包括数据收集整理、模型训练、微调、评测和搜索引擎AI应用的部署等方面。最新版本书生·浦语大模型2.5在推理能力和短期记忆等方面有质的飞跃,并开放了label LLM项目,方便标注数据。此外,视频还介绍了模型的性能天梯和应用前景。

  • 书生浦语大模型开源开放体系

  • InputLM2.5性能飞跃

  • 迭代发展过程中的数据驱动模型性能

基于规则、模型和反馈的数据生成方法,以及如何使用开源项目进行标注和推理

反映模型的数据生成方法在模型优化和训练过程中至关重要,以下是一些关键方法的介绍:

  • 基于模型的反馈数据生成方法:包括相似度对齐和基于反馈的强化训练。

  • 大海捞针实验:介绍模型的推理能力和大海捞针实验,模型在处理稀长背景知识的表现。

  • 问题匹配分块:介绍问题匹配分块的方法,可以用于语言模型的索引和问题理解。

mind search项目

阅读更多