Home

Awesome

<div style="font-size: 1.5rem;"> <a href="./README.md">中文</a> | <a href="./readme_en.md">English</a> </div> </br> <h1 align="center">ChatPiXiu</h1> <div align="center"> <a href="https://github.com/catqaq/ChatPiXiu"> <img src="./docs/imgs/pixiu.png" alt="Logo" height="210"> </a> <p align="center"> <h3>ChatPiXiu: Eat every ChatGPT - Output your own chatbot.</h3> <a href="https://github.com/catqaq/ChatPiXiu/graphs/contributors"> <img alt="GitHub Contributors" src="https://img.shields.io/github/contributors/catqaq/ChatPiXiu" /> </a> <a href="https://github.com/catqaq/ChatPiXiu/issues"> <img alt="Issues" src="https://img.shields.io/github/issues/catqaq/ChatPiXiu?color=0088ff" /> </a> <a href="https://github.com/catqaq/ChatPiXiu/discussions"> <img alt="Issues" src="https://img.shields.io/github/discussions/catqaq/ChatPiXiu?color=0088ff" /> </a> <a href="https://github.com/catqaq/ChatPiXiu/pulls"> <img alt="GitHub pull requests" src="https://img.shields.io/github/issues-pr/catqaq/ChatPiXiu?color=0088ff" /> <a href="https://github.com/catqaq/ChatPiXiu/stargazers"> <img alt="GitHub stars" src="https://img.shields.io/github/stars/catqaq/ChatPiXiu?color=ccf" /> </a> <br/> <em>开源ChatGPT / 全面 / 轻量 / 易用 </em> <br/> <a href="https://zhuanlan.zhihu.com/p/622065348/"><strong>文章解读</strong></a> · <a href="https://zhuanlan.zhihu.com/p/622065348"><strong>视频解读</strong></a> </p> </p> </div>

代码开源,大家放心使用,欢迎贡献! 注意:模型的license取决于模型提供方

最新讯息

OpenNLP计划

我们是谁?

我们是羡鱼智能【xianyu.ai】,主要成员是一群来自老和山下、西湖边上的咸鱼们,塘主叫作羡鱼,想在LLMs时代做点有意义的事!我们的口号是:做OpenNLP和OpenX!希望在CloseAI卷死我们之前退出江湖!

也许有一天,等到GPT-X发布的时候,有人会说NLP不存在了,但是我们想证明有人曾经来过、热爱过!在以ChatGPT/GPT4为代表的LLMs时代,在被CloseAI卷死之前,我们发起了OpenNLP计划,宗旨是OpenNLP for everyone!

ChatPiXiu项目

ChatPiXiu项目为OpenNLP计划的第2个正式的开源项目,旨在Open ChatGPT for everyone!在以ChatGPT/GPT4为代表的LLMs时代,在被OpenAI卷死之前,做一点有意义的事情!未来有一天,等到GPT-X发布的时候,或许有人会说NLP不存在了,但是我们想证明有人曾来过!

1.开发计划

本项目的开发宗旨,打造全面且实用的ChatGPT模型库和文档库。Eat every ChatGPT - Output your own chatbot!

目前我们正在启动V1版本的开发,整体的开发计划如下,主要包括了文档和代码两类任务,数据的部分我们暂时将其分散到了各个子任务中。

V1版本:资料调研+通用最小实现+领域/任务适配

1.1 文档分支

文档分支主要负责项目文档的建设,包括通用技术文档和项目相关文档。

dev_for_docs:文档分支,主要负责资料调研(算力有限,有调查才有训练权):

  1. 【P0】开源ChatGPT调研:持续更新,doing
  2. 【P0】训练技术调研:持续更新,doing
  3. 【P0】数据调研:doing
  4. 【P1】部署技术调研:TODO
  5. 【P2】基础模型调研:目前以LLaMA和GLM为主,doing
  6. 【P3】技术解读/教程:doing

1.2 代码分支

代码分支,负责具体的开发工作,包括数据处理、算法开发、算法评测等,分成通用最小实现和领域/任务适应两种,具体的:

dev_for_chatmini:通用最小实现分支,尽可能支持不同的基础模型和训练方式,提供可比较的实现。

  1. 【P0】ChatGPT最小复现:完整的RLHF复现SFT-RM-PPO,doing
  2. 【P0】适配不同的基座模型
  3. 适配不同的PEFT算法
  4. 【P2】探索新的训练方式
  5. 【P3】探索知识迁移:比如蒸馏

dev_for_chatzhihu:知乎及问答领域适配,主要想解决一些知乎使用过程中的痛点,比如问题冗余、回答太多等等。

  1. 【P0】收集知乎数据收集及处理
    1. SFT数据
    2. RLHF数据:答案打分
    3. 摘要数据:答案/观点汇总、摘要
  2. 【P0】基于知乎数据做SFT
  3. 【P1】基于知乎数据做RLHF
  4. 【P2】输出知乎LoRA
  5. 【P3】和知乎热榜聊天的demo

dev_for_chatzhangsan:法律领域适配,张三犯了什么罪?

  1. 【P0】法律领域数据收集及处理
  2. 法律条文解释
  3. 【P1】罪名判定:张三犯了什么罪?

更多领域,敬请期待!

ChatPiXiu-Eat every ChatGPT - Output your own chatbot!

2.加入我们

OpenNLP计划的其他内容尚在筹备中,暂时只开源了本项目和OpenTextClassification项目。欢迎大家积极参与ChatPiXiu的建设和讨论,一起变得更强!

加入方式:

开源ChatGPT调研

1.开源ChatGTP平替

注:开源类ChatGPT/LLM汇总,持续更新中,欢迎贡献! 现已超过60+!

项目基础模型lang机构数据集license介绍备注
LLaMALLaMAMultimetaCCNet [67%], C4 [15%], GitHub [4.5%], Wikipedia [4.5%], Books [4.5%], ArXiv [2.5%], Stack Exchange[2%].Apache-2.0 license可能是目前开源ChatGPT用的最多的基础模型支持多语言,但以英文为主
stanford_alpaca AlpacaLLaMAengstanfordalpaca_dataApache-2.0 license指令调优的 LLaMA 模型: An Instruction-following LLaMA Model. 让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令样本,SFTFT模型语言以数据为准
ChatLLaMALLaMANebuly+AI-license数据集创建、使用 RLHF 进行高效训练以及推理优化。
Chinese-LLaMA-AlpacaLLaMAmutliymcui-Apache-2.0 licenseChinese LLaMA & Alpaca LLMs; 中文词表扩充
alpaca-loraLLaMAstanfordLLaMA-GPT4 datasetApache-2.0 licenseLoRA
Chinese-alpaca-lora Luotuo-Chinese-LLMLLaMA-LoRA
ChatGLMGLMcn/eng清华1T 标识符的中英双语数据Apache-2.0 license监督微调、反馈自助、人类反馈强化学习PROJECT.md
FastChat VicunaLLaMAengUC Berkeley, CMU, Stanford, UCSD and MBZUAIShareGPT, 70k问答指令数据Apache-2.0 licenseSFT,使用GPT-4作为评判标准,结果显示Vicuna-13B在超过90%的情况下实现了与ChatGPT和Bard相匹敌的能力。
Chinese-VicunaLLaMAcn--Apache-2.0 licenseLoRA
EasyLM Koala考拉LLaMA multiengUC伯克利ChatGPT数据和开源数据(Open Instruction Generalist (OIG)、斯坦福 Alpaca 模型使用的数据集、Anthropic HH、OpenAI WebGPT、OpenAI Summarization)Apache-2.0 licenseSFT/13B/500k条数据
ColossalChatLLaMAColossalAIInstructionWild:104K bilingual datasetsLICENSESFT-RM-RLHF
ChatRWKVRWKVBlinkDL-Apache-2.0 licenseChatRWKV is like ChatGPT but powered by RWKV (100% RNN) language model, and open source.
ChatYuanT5eng/cn元语智能PromptClueLICENSE基于PromptClue进行了监督微调
OpenChatKitGPT-NoX-20BTogether+LAION+Ontocord.aiOIG-43MApache-2.0 license60亿参数的审核模型,对不合适或者是有害的信息进行过滤
BELLEBloom LLamacnLianjiaTech10M-ChatGPT生成的数据Apache-2.0 licenseSFT
PaLM-rlhf-pytorchPaLMlucidrains-MIT licenseRLHFPaLM太大了
dollyv1:GPT-J-6B v2:pythiaengDatabricksThe Pile+databricks-dolly-15kMIT license参考Alpaca; dolly-v2-12b based on pythia-12b
LMFlowLLaMAOptimalScaleAn Extensible Toolkit for Finetuning and Inference of Large Foundation Models. Large Model for All. LLaMA-7B,一张3090耗时 5 个小时
GPTrillion----1.5万亿,多模态
open_flamingoLLaMA CLIPLAIONMultimodal C4MIT license
baize-chatbotLLaMAengproject-baize100k dialogs generated by letting ChatGPT chat with itself.GPL-3.0 licenseLoRA
ChatPiXiumulti羡鱼智能--LoRA筹备阶段
stackllamaLLaMAHugging Face--用RLHF训练LLaMA的实践指南
Lit-LLaMALLaMAmultilightening-ai-Apache-2.0 license重写重训LLaMA,绕开license: Implementation of the LLaMA language model based on nanoGPT.可商用版LLaMA
OPTOPTengmeta-MIT license当年对标GPT3的模型
Cerebras-GPTCerebras-GPTengCerebrasThe PileApache-2.0 licenseGPT-3 style; 最小 1.11 亿,最大 130 亿,共 7 个模型
BLOOMBLOOMmultibigscienceTotal seen tokens: 366B代码:Apache-2.0 license 模型:RAIL License v1.0176B;46 种自然语言(包括中文)和 13 种编程语言
GPT-JGPT-3multiEleutherAIThe Pileapache-2.0based on GPT-3;
GPT-2
RWKVRWKV-LMcn/engBlinkDL纯RNN
鹏程・盘古 αcn鹏城2TBApache License 2.0
鹏程・盘古对话cn鹏城
悟道cn/engBAAI(智源)多模态; 1.75 万亿参数; 图文:CogView、BriVL;文本:GLM、CPM、Transformer-XL、EVA、Lawformer;生物:ProtTrans
MOSSMOSScn/engOpenLMLab700B tokens代码Apache 2.0,数据CC BY-NC 4.0,模型权重GNU AGPL 3.0支持中英双语和多种插件; 基座moss-moon-003-base
伶荔 (Linly)LLaMAcnCVI-SZUApache Licence 2.033B 的 Linly-Chinese-LLAMA 是目前最大的中文 LLaMA 模型
华驼 (HuaTuo)LLaMAcn/engSCIR-HIApache-2.0 license医学
BBT-2cn/eng120 亿参数的通用大语言模型
CodeGeeX-code鹏城130 亿参数的多编程语言代码生成预训练模型code
RedPajamagpt-neoxengTogether、Ontocord.ai、ETH DS3Lab、斯坦福大学 CRFM、Hazy Research 和 MILA 魁北克 AI 研究所800B/1TApache-2.0开源地全面对齐LLaMA的训练数据集
OpenAssistantengLAION-AIApache-2.0 licenseOpenAssistant is a chat-based assistant that understands tasks, can interact with third-party systems, and retrieve information dynamically to do so.
StableLMpythiaengStability-AIApache-2.0 licenseStability AI Language Models; max len 4096
StarCodercodebigcode-projectApache-2.0 licensecode
SantaCodercodebigcodeThe Stack(v1.1)the BigCode OpenRAIL-M v1 license轻量级 AI 编程模型,1.1Bcode
MLC LLM-mlc-ai-Apache-2.0 license本地大语言模型部署;Enable everyone to develop, optimize and deploy AI models natively on everyone's devices.
Web LLMmlc-aiApache-2.0 licenseBringing large-language models and chat to web browsers.
WizardLMLLaMAengnlpxucanEvol-Instruct
YaLM 100Beng/russianyandexApache-2.0 license
OpenLLaMAmultis-JoLMIT licenseLLaMA 开源复现版
BiLLaLLaMAcn/engNeutralzzA Bilingual LLaMA with Enhanced Reasoning Ability
pandallmLLaMAcn/engdandelionsllmApache-2.0 license
pandalmWeOpenMLApache-2.0 licensePandaLM:可重现和自动化的语言模型评估
gpt4allnomic-aiMIT licensegpt4all: an ecosystem of open-source chatbots trained on a massive collections of clean assistant data including code, stories and dialogue
stable-vicunaengCarperAICC-BY-NC-SA-4.0StableVicuna-13B is a Vicuna-13B v0 model fine-tuned
MPTMPTengmosaicml1T tokens of English text and codeApache-2.0ALiBi保证了良好的长度外推性
ImageBind多模态metaOne embedding space to bind them all.
PhoenixmultiCUHK7B/BLOOMZ + 微调
ChatPLUGAlibabaEncoder-Decoder/3.7B
BLOOMZmultiBigScienceBLOOM + 多任务微调
CPM-Ant+cn/engOpenBMB10B/Decoder-only(UniLM)
PaLMmultiGoogle-pathways/540B未开源
PaLM 2multiGoogle-pathways; 改进的多语言、推理和编码能力未开源

2.基础模型

注:基础LLM汇总,持续更新中,欢迎贡献! 现已超过15+!个人的工作和研究兴趣会更关注基础模型相关技术及其应用!

modelArchitecture/tasklangtokenizervocabPEmax lensizeorgdatalicenseintronotes
LLaMAdecoder/LMmultiBBPE32KRoPE20487B/13B/33B/65Bmeta1.4万亿 tokensGPL-3.0 licenseMeta 大语言模型: The model comes in different sizes: 7B, 13B, 33B and 65B parameters.
GLMmix/自回归式填空,prefix LMcn/engmultimultiRoPE2048 for 130B 1024 for ChatGLM6B/10B/130B智谱中英文token各2000亿Apache-2.0 licenseChatGLM-6B: 1T data
GPT1decoder/LMengBPE40478learned512OpenAIBooksCorpus/5 GMIT LicenseGPT系列的起源分词部分有特殊处理,详见tokenization_openai.py: - lowercases all inputs, - uses SpaCy tokenizer and ftfy for pre-BPE tokenization if they are installed, fallback to BERT's BasicTokenizer if not.
GPT2decoder/LMmultiBBPE50257learned1024124M/355M/774M/1.5BOpenAIWebText/ 40GModified MIT License主打zero-shotGPT系列开源的最后一舞
GPT3decoder/LMmultiBBPE50257/davincilearned2048175BOpenAI570Gsparse attention;主打few-shot/in-context learning关上了GPT系列的大门
GPT3.5decoder/LMmultiBBPE100256~learned4096OpenAI--InstructGPT等一系列模型未开源
GPT4decoder/LMmultiBBPE100256~learned32768OpenAI--多模态未开源
BLOOMdecoder/LMmultiBBPE250,680ALiBi2048176BbigscienceData CardsRAIL License v1.0Modified from Megatron-LM GPT2; StableEmbedding包括Training logs
PaLMRoPE
Chinchillatransformer-XL style
OPTenglearned
GPT-Jdecoder/LMmultiBBPE50257/50400† (same tokenizer as GPT-2/3)RoPE20486BEleutherAIThe Pileapache-2.0based on GPT-3;
Lit-LLaMAImplementation of the LLaMA language model based on nanoGPT.
Cerebras-GPTdecoderengBPE50257Learned2048Cerebras SystemsThe PileApache 2.0The family includes 111M, 256M, 590M, 1.3B, 2.7B, 6.7B, and 13B models. All models in the Cerebras-GPT family have been trained in accordance with Chinchilla scaling laws (20 tokens per model parameter) which is compute-optimal.
RWKVRNNeng/cnNone(pure RNN)1024/4096/8192multithe Pile结合了 RNN 和 Transformer 的语言模型,适合长文本,运行速度较快,拟合性能较好,占用显存较少,训练用时较少。RWKV 整体结构依然采用 Transformer Block 的思路,相较于原始 Transformer Block 的结构,RWKV 将 self-attention 替换为 Position Encoding 和 TimeMix,将 FFN 替换为 ChannelMix。其余部分与 Transfomer 一致。
CoLT5T5 bias style
MOSSdecoder/LMcn/eng204816BOpenLMLab700B tokens代码Apache 2.0,数据CC BY-NC 4.0,模型权重GNU AGPL 3.0支持中英双语和多种插件
MPTdecoder/LMengBBPE50432ALiBi2048/65k/84k7Bmosaicml1T tokens+各种FT数据Apache-2.0Although the model was trained with a sequence length of 2048, ALiBi enables users to increase the maximum sequence length during finetuning and/or inference. The model vocabulary size of 50432 was set to be a multiple of 128 (as in MEGATRON-LM)
mt5encoder-decodermulti1.2B/3.7B/13BGooglemC4
Wenzhong2.0-GPT2-3.5B-chinesedecoder/LMcn3.5BIDEA-CCNL
CPM-Generatecn2.6BTsinghuaAI100GB Chinese training data
bloom-zhdecoder/LMcnBBPE46145ALiBi20481.4B/2.5B/6.4BLangboat-词表裁剪,保留中文: 250880 to 46145
GPT-2Bdecoder/LMengBBPERoPE4096HuggingFace+Nvidia1.1T tokens

3.数据

datasettype机构大小license介绍备注
alpaca_dataInstructionstanford
alpaca_chinese_dataset-hikariming
Multilingual InstructionGuanaco
alpaca_chinese_datasetcarbonz0
0.5M+1M chinese instructionLianjiaTech
shareGPTlm-sys

4.产品

注:为了文档的完整性,将工业界的ChatGPT也进行了汇总,只做介绍不做比较,以免争议!

modelorgintronotes
ChatGPT-GPT-3.5-turboOpenAI
ChatGPT-GPT-4OpenAI
ClaudeAnthropic
文心一言百度
星火人知大模型讯飞
ChatGLM清华/智谱
MiniMaxMiniMax
通义千问阿里
BardGoogle

5.训练&部署

5.1 训练

框架type机构兼容性license介绍备注
ColossalAIgeneralhpcaitechApache-2.0 licenseColossal-AI: Making large AI models cheaper, faster, and more accessible<br>支持ChatGPT完整复现
RLHFRLsunzeyeah基于transformers库实现-Implementation of Chinese ChatGPT.<br>SFT、Reward Model和RLHF
trlxRLCarperAI强大的transformer 强化学习库MIT licenseA repo for distributed training of language models with Reinforcement Learning via Human Feedback (RLHF)<br>不支持自定义预训练模型。
trlRLHugging Face基于transformersApache-2.0 license只要是基于ransformers 库开发的预训练库,均可适配,强烈推荐
DeepSpeed-Chatgeneralmicrosoft基于DeepSpeedApache-2.0 license训练速度大幅提升
nanoGPTGPTkarpathyMIT licenseThe simplest, fastest repository for training/finetuning medium-sized GPTs.

5.2 部署

使用步骤:TODO

1.克隆本项目

git clone https://github.com/catqaq/ChatPiXiu.git

2.准备数据

3.运行示例

结果展示

常见报错

参考资料&致谢

【OpenLLM 011】ChatPiXiu项目-可能是全网最全的ChatGPT复现调研:54+开源ChatGPT平替项目,15+基础模型,8+ ChatGPT产品! - 羡鱼智能的文章 - 知乎 https://zhuanlan.zhihu.com/p/629364056

开源ChatGPT替代模型项目整理https://zhuanlan.zhihu.com/p/618790279

平替chatGPT的开源方案 https://zhuanlan.zhihu.com/p/618926239ChatGPT/GPT4

开源“平替”汇总https://zhuanlan.zhihu.com/p/621324917

完整版 ChatGPT 克隆方案,开源了!https://zhuanlan.zhihu.com/p/617996976

ColossalChat:完整RLHF平替ChatGPT的开源方案 https://zhuanlan.zhihu.com/p/618048558ChatGPT

开源平替来了,开箱即用!前OpenAI团队打造,GitHub刚发布就揽获800+星https://zhuanlan.zhihu.com/p/613556853

LoRA:大模型的低秩适配-最近大火的lora到底是什么东西?为啥stable diffusion和开源ChatGPT复现都在用?https://zhuanlan.zhihu.com/p/620327907?

成本不到100美元!UC伯克利再开源类ChatGPT模型「考拉」:数据量大没有用,高质量才是王道https://zhuanlan.zhihu.com/p/621078208

ChatGPT平替方案汇总https://zhuanlan.zhihu.com/p/618839784

微软宣布开源 Deep Speed Chat,可将训练速度提升 15 倍以上,哪些信息值得关注?https://www.zhihu.com/question/595311294

总结当下可用的大模型LLMshttps://zhuanlan.zhihu.com/p/611403556

可能是最全的开源 LLM (大语言模型)整理

https://my.oschina.net/oscpyaqxylk/blog/8727824

[资源整理]2023-05-11比较全的LLMs的资源整理 - 迷途小书僮的文章 - 知乎 https://zhuanlan.zhihu.com/p/628637821

中文开源1B以上大模型汇总 - nghuyong的文章 - 知乎 https://zhuanlan.zhihu.com/p/613239726

https://github.com/CLUEbenchmark/SuperCLUE

https://github.com/THUDM/ChatGLM-6B

一文汇总开源大语言模型,人人都可以拥有自己的ChatGPT - 无忌的文章 - 知乎 https://zhuanlan.zhihu.com/p/622370602

新发布的一些开源商用模型 - LokLok的文章 - 知乎 https://zhuanlan.zhihu.com/p/627785493

最新发布!截止目前最强大的最高支持65k输入的开源可商用AI大模型:MPT-7B! - 数据学习的文章 - 知乎 https://zhuanlan.zhihu.com/p/627420365

复旦团队大模型 MOSS 开源了,有哪些技术亮点值得关注? - 孙天祥的回答 - 知乎 https://www.zhihu.com/question/596908242/answer/2994534005

暴击专家模型!Meta最新多模态大模型ImageBind已开源 - 新智元的文章 - 知乎 https://zhuanlan.zhihu.com/p/628370318

整理开源可用的中文大模型LLMs - 罗胤的文章 - 知乎 https://zhuanlan.zhihu.com/p/616812772

大模型热点论文:谷歌推出 PaLM 2、Meta 开源 ImageBind - MegEngine Bot的文章 - 知乎 https://zhuanlan.zhihu.com/p/628941792

如何评价Google最新发布的PaLM2,效果反超GPT4? - 一堆废纸的回答 - 知乎 https://www.zhihu.com/question/600311066/answer/3022625910

两大可商用开源大模型同时发布!性能不输LLaMA,羊驼家族名字都不够用了 - 量子位的文章 - 知乎 https://zhuanlan.zhihu.com/p/627454901

赞助我们

我们是谁?

我们是羡鱼智能【xianyu.ai】,主要成员是一群来自老和山下、西湖边上的咸鱼们,塘主叫作羡鱼,想在LLMs做点有意义的事!我们的口号是:做OpenNLP和OpenX!希望在OpenAI卷死我们之前退出江湖!

ChatPiXiu项目为羡鱼智能【xianyu.ai】发起的OpenNLP计划的第2个正式的开源项目,旨在Open ChatGPT for everyone!在以ChatGPT/GPT4为代表的LLMs时代,在被OpenAI卷死之前,做一点有意义的事情!未来有一天,等到GPT-X发布的时候,或许有人会说NLP不存在了,但是我们想证明有人曾来过!

本项目第一版由本羡鱼利用业务时间(熬夜)独立完成,受限于精力和算力,拖延至今,好在顺利完成了。如果大家觉得本项目对你的NLP学习/研究/工作有所帮助的话,求一个免费的star! 富哥富姐们可以考虑赞助一下!尤其是算力,租卡的费用已经让本不富裕的鱼塘快要无鱼可摸了

<img src="https://xianyunlp.oss-cn-hangzhou.aliyuncs.com/uPic/image-20230324010955205.png" alt="image-20230324010955205" style="zoom: 25%;" />

Starchart

Star History Chart

Contributors

<a href="https://github.com/catqaq/ChatPiXiu/graphs/contributors"> <img src="https://contrib.rocks/image?repo=catqaq/ChatPiXiu" /> </a>