Home

Awesome

Note

ChatPaper已经完成了近五年5w篇顶会论文总结,可以助你在科研道路更加顺利:https://chatpaper.org/

<div align="center"> <a href="https://github.com/WangRongsheng/ChatGenTitle"> <img src="https://github.com/WangRongsheng/ChatGenTitle/blob/main/docs/images/logo.png" alt="Logo" height="180"> </a> <p align="center"> <h3> ChatGenTitle:使用百万arXiv论文信息在LLaMA模型上进行微调的论文题目生成模型 </h3> <p align="center"> <a href="https://github.com/WangRongsheng/ChatGenTitle/blob/main/LICENSE"> <img alt="GitHub Contributors" src="https://img.shields.io/badge/License-CC%20BY--NC--SA%204.0-lightgrey.svg" /> </a> <a href="https://github.com/WangRongsheng/ChatGenTitle/graphs/contributors"> <img alt="GitHub Contributors" src="https://img.shields.io/github/contributors/WangRongsheng/ChatGenTitle" /> </a> <a href="https://github.com/WangRongsheng/ChatGenTitle/issues"> <img alt="Issues" src="https://img.shields.io/github/issues/WangRongsheng/ChatGenTitle?color=0088ff" /> </a> <a href="https://github.com/WangRongsheng/ChatGenTitle/pulls"> <img alt="GitHub pull requests" src="https://img.shields.io/github/issues-pr/WangRongsheng/ChatGenTitle?color=0088ff" /> </a> <a href=href="https://github.com/kaixindelele/ChatPaper/stargazers"> <img src="https://img.shields.io/github/stars/WangRongsheng/ChatGenTitle?color=ccf"> </a> </p> </div> <center><kbd><img src="./docs/images/usage.png" height="550px"/></kbd></center> <p align="center"> <em>一站式服务 / 简单 / 快速 / 高效 / 智能</em> <br/> <a href="#"><strong>视频教程</strong></a> <a href="https://github.com/WangRongsheng/ChatGenTitle/releases/tag/LLaMa-Lora-7B-cs-6-new-app"><strong>安装部署</strong></a> <a href="https://drive.google.com/file/d/1akrC4-YnYdiyD1_VK-92hncN7HS0FLf5/view?usp=sharing" target="_parent"><strong>在线体验</strong></a> </p>

News

TODO

Release

Note

Meta发布的LLaMA模型禁止商用,因此这里我们开源的是LoRA模型,LoRA模型必须搭配对应版本的LLaMA模型使用才可以,具体请看Chinese-LLaMA-Alpaca #合并模型

模型名称微调数据微调基准模型模型大小微调时长微调效果
LLaMa-Lora-7B-3arXiv-50-allLLaMa-7B-MB9 hours点击查看
LLaMa-Lora-7B-3-newarXiv-50-allLLaMa-7B-MB12.5 hours点击查看
LLaMa-Lora-7B-cs-3-newarXiv-csLLaMa-7B-MB20.5 hours点击查看
LLaMa-Lora-7B-cs-6-newarXiv-csLLaMa-7B-MB34 hours点击查看
LLaMa-Lora-13B-3arXiv-100-allLLaMa-13B-MB26 hours点击查看
<details> <summary>训练设置</summary> <p>* 实验在A100 (4X, 80GB)上进行</p> </details>

Comparison

提示词摘要原始论文题目ChatGenTitleChatGPT(GPT3.5)GPT4ChatGLM(130B)
提示词①摘要①Focus-RCNet: A lightweight recyclable waste classification algorithm based on Focus and knowledge distillationFocus-RCNet: A Lightweight Convolutional Neural Network for Recyclable Waste Image ClassificationFocus-RCNet: A lightweight deep learning model for automated waste classification with enhanced recyclable waste image feature recognitionEfficient Waste Classification with Focus-RCNet: A Lightweight Deep Learning Architecture Employing Sandglass Structure, SimAM Attention Mechanism, and Knowledge Distillation for Real-Time Embedded Applications超过Token长度
提示词②摘要②ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile DevicesShuffleNet: Efficient Convolutional Neural Networks for Mobile DevicesShuffleNet: A Computation-Efficient CNN Architecture for Mobile Devices with Superior Performance in Object Detection and ImageNet Classification while Maintaining AccuracyShuffleNet: A Computationally Efficient CNN Architecture for Mobile Devices with Enhanced Performance in ImageNet Classification and MS COCO Object DetectionShuffleNet: An Extremely Computation-Efficient CNN Architecture for Mobile Devices
提示词③摘要③Segment AnythingSegment AnythingSegment Anything: Introducing a New Task, Model, and Dataset for Promptable Image Segmentation with Superior Zero-Shot PerformanceExploring the Segment Anything Project: A Promptable Image Segmentation Model and Extensive Dataset with Impressive Zero-Shot PerformanceSegment Anything (SA) Project: A New Task, Model, and Dataset for Image Segmentation
<details> <summary>1. 提示词①和摘要①</summary> </details> <details> <summary>2. 提示词②和摘要②</summary> </details> <details> <summary>3. 提示词③和摘要③</summary> </details>

Reference

Note

时代在进步,大模型(LLMs)也是,所以你可以每天来读30篇最新的关于LLM的Paper,保证你的知识不会跟丢!

👉👉👉查看今日LLMs论文

Knowledge

<details> <summary>1. 关于Instruct微调和LoRa微调</summary>

Instruct微调和LoRa微调是两种不同的技术。 Instruct微调是指在深度神经网络训练过程中调整模型参数的过程,以优化模型的性能。在微调过程中,使用一个预先训练好的模型作为基础模型,然后在新的数据集上对该模型进行微调。Instruct微调是一种通过更新预训练模型的所有参数来完成的微调方法,通过微调使其适用于多个下游应用。 LoRa微调则是指对低功耗广域网(LoRaWAN)中的LoRa节点参数进行微调的过程,以提高节点的传输效率。在LoRa微调中,需要了解节点的硬件和网络部署情况,并通过对节点参数进行微小调整来优化传输效率。与Instruct微调相比,LoRA在每个Transformer块中注入可训练层,因为不需要为大多数模型权重计算梯度,大大减少了需要训练参数的数量并且降低了GPU内存的要求。 研究发现,使用LoRA进行的微调质量与全模型微调相当,速度更快并且需要更少的计算。因此,如果有低延迟和低内存需求的情况,建议使用LoRA微调。

</details> <details> <summary>2. 为什么会有LLaMA模型和LoRA两种模型?</summary>

如1所述,模型的微调方式有很多种,基于LoRA的微调产生保存了新的权重,我们可以将生成的LoRA权重认为是一个原来LLaMA模型的补丁权重 。至于LLaMA 权重,它则是由Mean公司开源的大模型预训练权重。

</details> <details> <summary>3. 关于词表扩充</summary>

加入词表是有一定破坏性的, 一是破坏原有分词体系,二是增加了未训练的权重。所以如果不能进行充分训练的话,可能会有比较大的问题。个人觉得如果不是特别专的领域(比如生物医学等涉及很多专业词汇的领域)没有太大必要去扩充英文词表。 Chinese-LLaMA-Alpaca/issues/16

</details>

LICENSE

This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.

使用和许可声明:ChatGenTitle 仅可以在获得许可下供研究使用。使用仅可用于科学研究,不可用于实际论文写作中,否则,由此产生的一切后果由使用人负责!!!

CC BY-NC-SA 4.0

Repography logo / Recent activity Time period

Timeline graph Issue status graph Pull request status graph Trending topics Top contributors Activity map

Stargazers

Stargazers over time

<br><a href="https://github.com/Charmve/computer-vision-in-action#-以用促学先会后懂-"><img align="right" alt="Go for it!" src="https://raw.githubusercontent.com/Charmve/computer-vision-in-action/dd292873828228a753a9bd2de4576dbf8cc3902c/res/ui/footer-rocket.svg" height="220" title="Do what you like, and do it best!"/></a> <br>

<p align="center">Feel free to ask any questions, open a PR if you feel something can be done differently!</p> <h2 align="center">🌟 Star this repository 🌟</h2> <p align="center">Created by <a href="https://github.com/WangRongsheng">WangRongsheng</a></p>