Awesome
雅意大模型
<div align="center"> <img src="./assets/yayi_dark_small.png" alt="YAYI" style="width: 30%; display: block; margin: auto;"> <br>中文 | English
</div>介绍
雅意大模型在百万级人工构造的高质量领域数据上进行指令微调得到,训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域,上百种自然语言指令任务。雅意大模型从预训练初始化权重到领域模型的迭代过程中,我们逐步增强了它的中文基础能力和领域分析能力,并增加了多轮对话和部分插件能力。同时,经过数百名用户内测过程中持续不断的人工反馈优化,我们进一步提升了模型性能和安全性。
通过雅意大模型的开源为促进中文预训练大模型开源社区的发展,贡献自己的一份力量,通过开源,与每一位合作伙伴共建雅意大模型生态。
News: 🔥 雅意大模型已开源基于 LLaMA 2 的中文优化模型版本,探索适用于中文多领域任务的最新实践。
模型地址
模型名称 | 🤗HF模型标识 | 下载地址 |
---|---|---|
YAYI-7B | wenge-research/yayi-7b | 模型下载 |
YAYI-7B-Llama2 | wenge-research/yayi-7b-llama2 | 模型下载 |
YAYI-13B-Llama2 | wenge-research/yayi-13b-llama2 | 模型下载 |
运行方式
环境安装
- 下载本仓库内容至本地/远程服务器
git clone https://github.com/wenge-research/YAYI.git
cd YAYI
- 创建conda环境
conda create --name yayi python=3.8
conda activate yayi
- 安装依赖
pip install -r requirements.txt
其中 torch
和 transformers
版本不建议低于推荐版本。
模型推理
模型权重(7b版本)已在我们的 Huggingface 模型仓库 开源,欢迎下载使用。以下是一个简单调用 yayi-7b
进行下游任务推理的示例代码,可在单张 A100/A800/3090 等GPU运行,使用FP16精度推理时约占用 20GB 显存:
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import torch
yayi_7b_path = "wenge-research/yayi-7b"
tokenizer = AutoTokenizer.from_pretrained(yayi_7b_path)
model = AutoModelForCausalLM.from_pretrained(yayi_7b_path, device_map="auto", torch_dtype=torch.bfloat16)
prompt = "你好"
formatted_prompt = f"<|System|>:\nA chat between a human and an AI assistant named YaYi.\nYaYi is a helpful and harmless language model developed by Beijing Wenge Technology Co.,Ltd.\n\n<|Human|>:\n{prompt}\n\n<|YaYi|>:"
inputs = tokenizer(formatted_prompt, return_tensors="pt").to(model.device)
eos_token_id = tokenizer("<|End|>").input_ids[0]
generation_config = GenerationConfig(
eos_token_id=eos_token_id,
pad_token_id=eos_token_id,
do_sample=True,
max_new_tokens=100,
temperature=0.3,
repetition_penalty=1.1,
no_repeat_ngram_size=0
)
response = model.generate(**inputs, generation_config=generation_config)
print(tokenizer.decode(response[0]))
注意,模型训练时添加了 special token <|End|>
作为结束符,因此上述代码 GenerationConfig
里将 eos_token_id
设置为该结束符对应的 token id。基于 LlaMA2 指令微调模型的推理代码稍有不同,具体请参考我们的 Huggingface 模型仓库 中的对应版本。
模型微调
本项目基于 deepspeed
框架进行模型训练,配置完环境后执行相应脚本即可开始训练。支持指令数据全参数微调、指令数据LoRA微调、多轮对话数据全参数微调、多轮对话数据LoRA微调。
1. 指令数据全参数微调
-
数据格式:参考
data/yayi_train_example.json
,采用 Alpaca 项目的 jsonline 数据格式,每行一条 json 数据,由"instruction"
、"input"
、"output"
三个字段组成。其中"instruction"
和"input"
为指令输入,"output"
为输出答案。 -
运行说明:运行以下命令即可开始全参数微调雅意大模型。该命令支持单机多卡训练,如需配置多机多卡训练,可参考 deepspeed 官方文档。建议使用 4*A100(80G) 以上硬件配置。
deepspeed --num_gpus=8 \ --module training.trainer \ --data-path ./data/yayi_train_example.json \ --input-model ./checkpoints/yayi-7b \ --deepspeed ./config/deepspeed_zero2_bf16.json \ --epochs 2 \ --local-output-dir ./checkpoints \ --per-device-train-batch-size 8 \ --per-device-eval-batch-size 8 \ --logging-steps 1 \ --save-steps 100 \ --save-total-limit 10 \ --eval-steps 100 \ --warmup-steps 100 \ --test-size 400 \ --lr 5e-6 \ --seed 515
2. 指令数据 LoRA 微调
-
数据格式:同上,参考
data/yayi_train_example.json
。 -
运行说明:LoRA 是一种低资源高效微调方法,单卡可训练百亿参数模型。本项目主要基于
peft
实现 LoRA 微调,运行以下命令即可开始 LoRA 微调雅意大模型。使用单卡 A100(80G) 即可完成微调,学习率可调整为较大值。其中,--lora-dim
设置更新矩阵的秩,该值越大,训练的参数量越大;--lora-module-name
设置 LoRA 更新矩阵的模块,可根据模型类型更改。deepspeed --num_gpus=1 \ --module training.trainer_lora \ --data-path ./data/yayi_train_example.json \ --input-model ./checkpoints/yayi-7b \ --deepspeed ./config/deepspeed_zero2_bf16.json \ --epochs 2 \ --local-output-dir ./checkpoints \ --per-device-train-batch-size 8 \ --per-device-eval-batch-size 8 \ --logging-steps 1 \ --save-steps 100 \ --save-total-limit 10 \ --eval-steps 100 \ --warmup-steps 100 \ --test-size 400 \ --lr 5e-4 \ --seed 515 \ --lora-dim 16 \ --lora-module-name query_key_value
3. 多轮对话数据全参数微调
-
数据格式:参考
data/yayi_train_example_multi_rounds.json
,是一个标准 JSON 文件,每条数据由"system"
和"conversations"
组成,其中"system"
为全局角色设定信息,可为空字符串,"conversations"
是由 human 和 yayi 两种角色交替进行的多轮对话内容。 -
运行说明:运行以下命令即可开始全参数微调雅意大模型,对于多轮对话数据,仅计算模型生成回复的loss。该命令支持单机多卡训练,如需配置多机多卡训练,可参考 deepspeed 官方文档。建议使用 4*A100(80G) 以上硬件配置。
deepspeed --num_gpus=8 \ --module training.trainer_multi_rounds \ --data-path ./data/yayi_train_example_multi_rounds.json \ --input-model ./checkpoints/yayi-7b \ --deepspeed ./config/deepspeed_zero2_bf16.json \ --epochs 2 \ --local-output-dir ./checkpoints \ --per-device-train-batch-size 8 \ --per-device-eval-batch-size 8 \ --logging-steps 1 \ --save-steps 100 \ --save-total-limit 10 \ --eval-steps 100 \ --warmup-steps 100 \ --test-size 400 \ --lr 5e-7 \ --seed 515
4. 多轮对话数据 LoRA 微调
- 数据格式:同上,参考
data/yayi_train_example_multi_rounds.json
。 - 运行说明:参考多轮对话数据全参数微调的数据加载方式,以及指令数据 LoRA 微调方式。
训练数据
雅意大模型基于中科闻歌百万级高质量领域指令微调数据集训练而来,我们本次开源 5w 条训练数据集,可在我们的 Huggingface 数据仓库 下载。数据集主要涵盖了金融、安全、舆情、媒体等几大领域,我们为各领域任务大部分指令数据添加了离散 prompt 前缀,以区分各领域数据。此外,训练数据中还包含部分安全增强数据、插件能力数据、多轮对话数据等。
相关协议
局限性
基于当前数据和基础模型训练得到的SFT模型,在效果上仍存在以下问题:
- 在涉及事实性的指令上可能会产生违背事实的错误回答。
- 对于具备危害性的指令无法很好的鉴别,可能会产生危害性言论。
- 在一些涉及逻辑推理、代码生成、科学计算等场景下模型的能力仍有待提高。
免责声明
基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业用途,以及其他会对社会带来危害的用途。请谨慎鉴别和使用雅意大模型生成的内容,请勿将生成的有害内容传播至互联网。若产生不良后果,由传播者自负。
本项目仅可应用于研究目的,项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。详细请参考免责声明。
开源协议
本项目中的代码依照 Apache-2.0 协议开源,数据采用 CC BY-NC 4.0 协议,YAYI 系列模型权重的使用则需要遵循 Model License。
更新日志
- [2023/08/09] 更新LoRA微调代码以及多轮对话格式数据训练代码。
- [2023/07/22] 更新中文领域知识增强的 YAYI-7B-Llama2 和 YAYI-13B-Llama2 模型权重。
- [2023/07/14] 升级模型安全性和拒识能力,新增模型 int8 量化。
- [2023/06/29] 升级和优化中英文多轮对话能力。
- [2023/06/03] 雅意大模型正式对外发布并开源 7B 版本模型权重。
致谢
- 本项目分别使用了 BigScience bloomz-7b1-mt 以及 Meta Llama 2 系列的模型权重作为初始化权重,并进行词表扩展;
- 本项目训练代码参考了 Databricks 的 dolly 项目及 Huggingface transformers 库;
- 本项目分布式训练使用了 Microsoft 的 DeepSpeed 分布式训练工具及 Huggingface transformers 文档中的 ZeRO stage 2 配置文件;