Home

Awesome

<h1 align="center">RAG-Retrieval</h1> <p align="center"> <a href="https://pypi.org/project/rag-retrieval/#description"> <img alt="Build" src="https://img.shields.io/pypi/v/rag-retrieval?color=brightgreen"> </a> <a href="https://www.pepy.tech/projects/rag-retrieval"> <img alt="Build" src="https://static.pepy.tech/personalized-badge/rag-retrieval?period=total&units=international_system&left_color=grey&right_color=brightgreen&left_text=downloads"> </a> <a href="https://github.com/NLPJCL/RAG-Retrieval"> <img alt="Build" src="https://img.shields.io/badge/Contribution-Welcome-blue"> </a> <a href="https://github.com/NLPJCL/RAG-Retrieval/blob/master/LICENSE"> <img alt="License" src="https://img.shields.io/badge/LICENSE-MIT-green"> </a> </p> <h4 align="center"> <p> <a href="#使用统一的方式推理不同的RAG Reranker模型">使用统一的方式推理不同的RAG Reranker模型</a> | <a href="#微调全链路的RAG检索模型">微调全链路的RAG检索模型</a> | <a href="#实验结果">实验结果</a> | <a href="#license">License</a> <p> </h4>

RAG-Retrieval 提供了全链路的RAG检索微调(train)和推理(infer)以及蒸馏(distill)代码。

ColBERT

社区交流

加入我们微信群聊

最新更新

Roadmap

使用统一的方式推理不同的RAG Reranker模型

为什么要做Reranker模型的推理,甚至开发一个包?

排序模型是任何检索架构的重要组成部分,也是 RAG 的重要组成部分,但目前的现状是:

rag-retrieval的特点

因此,RAG-Retrieval开发了一个轻量级的python库rag-retrieval,提供统一的方式调用任意不同的RAG排序模型,其有以下的特点。

安装环境

#为了避免自动安装的torch与本地的cuda不兼容,建议进行下一步之前先手动安装本地cuda版本兼容的torch。
pip install rag-retrieval

支持的Reranker模型

Cross Encoder Reranker

对于Cross Encoder Reranker,只要其使用transformers的AutoModelForSequenceClassification,那么就可以使用rag_retrieval的Reranker来进行推理。举例如下。

LLM Reranker

对于LLM Reranker,rag_retrieval的Reranker支持多种强大的LLM排序模型。也支持使用任意的LLM的chat模型来进行zero shot排序。举例如下。

使用

rag-retrieval包详细的使用方法和注意事项可以参考Tutorial

我们做了大量的测试与下面原有推理框架对齐,详见Tests,他们需要不同的模块来执行,rag_retrieval则使用了统一的接口。

如 FlagEmbedding的 FlagReranker,FlagLLMReranker,LayerWiseFlagLLMReranker。

如 BCEmbedding 的 RerankerModel

微调全链路的RAG检索模型

安装环境

conda create -n rag-retrieval python=3.8 && conda activate rag-retrieval
#为了避免自动安装的torch与本地的cuda不兼容,建议进行下一步之前先手动安装本地cuda版本兼容的torch。
pip install -r requirements.txt 

向量(embedding)模型

微调embedding模型流程,详细的流程可参考模型目录下的Tutorial。

cd ./rag_retrieval/train/embedding
bash train_embedding.sh

迟交互式(colbert)模型

微调colbert模型流程,详细的流程可参考模型目录下的Tutorial。

cd ./rag_retrieval/train/colbert
bash train_colbert.sh

排序(reranker,cross encoder)模型

微调reranker模型流程,详细的流程可参考模型目录下的Tutorial。

cd ./rag_retrieval/train/reranker
bash train_reranker.sh

实验结果

reranker模型在 MTEB Reranking 任务的结果

ModelModel Size(GB)T2RerankingMMarcoRerankingCMedQAv1CMedQAv2Avg
bge-reranker-base1.1167.2835.4681.2784.1067.03
bce-reranker-base_v11.1170.2534.1379.6481.3166.33
rag-retrieval-reranker0.4167.3331.5783.5486.0367.12

其中,rag-retrieval-reranker是我们使用RAG-Retrieval代码在hfl/chinese-roberta-wwm-ext模型上训练所得,训练数据使用bge-rerank模型的训练数据.

colbert模型在 MTEB Reranking 任务的结果

ModelModel Size(GB)DimT2RerankingMMarcoRerankingCMedQAv1CMedQAv2Avg
bge-m3-colbert2.24102466.8226.7175.8876.8361.56
rag-retrieval-colbert0.41102466.8531.4681.0584.2265.90

其中,rag-retrieval-colbert是我们使用RAG-Retrieval代码在hfl/chinese-roberta-wwm-ext模型上训练所得,训练数据使用bge-rerank模型的训练数据.

用领域内数据微调开源的BGE系列模型

ModelT2ranking
bge-v1.5-embedding66.49
bge-v1.5-embedding finetune67.15+0.66
bge-m3-colbert66.82
bge-m3-colbert finetune67.22+0.40
bge-reranker-base67.28
bge-reranker-base finetune67.57+0.29

后面带有finetune的代表我们使用RAG-Retrieval在对应开源模型的基础上继续微调所得,训练数据使用T2-Reranking的训练集。

值得注意的是bge的三种开源模型,训练集中已经包含了T2-Reranking,并且该数据较为通用,因此使用该数据继续微调的性能提升效果不大,但是如果使用垂直领域的数据集继续微调开源模型,性能提升会更大。

Star History

Star History Chart

License

RAG-Retrieval is licensed under the MIT License.