Home

Awesome

zero-lora零训练llm调参算法

工程案例参见:全球首个StableVicuna中文优化版。

https://github.com/ziwang-com/chinese-StableVicuna

整个项目,仅用半天时间,其中大部分时间花在格式转换方面,与zero-lora相关的环节,不到20%。

zero-loro零训练llm调参算法,属于zw团队在llm一线工程中,总结的实战算法,相关理论,正在摸索当中,欢迎llm领域的专家学者,共同探讨。

st-vic-qcod

【智王AI资源库】

智王mini-AGI开源项目以及相关模块库,均在【智王AI资源库】提供免费下载。

百度网盘提取码:hiks

https://pan.baidu.com/s/1EH19ablXVLYQP1f-IaPS-Q?pwd=hiks

如有更改,最新下载地址请参见:

QQ群文件:655402626(GPT+千人QQ大群)

更多细节,参见公众号。欢迎加入:QQ群,微信群。

zw-GPT三合一+群二维码v2

zero-lora零训练llm调参算法

所谓zero-lora调参,就是无需任何调参,直接采用,已经调整过的各种lora,与相关的llm模型,进行叠加,合成即可。

这个特别适合原版模型的汉化处理,可以把汉化包视为一个lora补丁。

虽然zw-sd-vicuna可能是llm第一个zero-lora工程案例,不过在AIGC绘图模型领域,已经有大量的第三方stable difusion绘图模型,是基于lora叠加模式。

优点:

关于zero-lora调参,目前也已经有不少第三方在研究,只不过角度不同,名称不同,其中的观点有:

【可视化分析】

参见: https://github.com/ggerganov/llama.cpp/pull/1472

代码#1,生成token数据

./bin/main --model ../models/llama-7b-q4_0.bin -n 32
--seed 123
--prompt "I want to kill you because you're such a"
--steering-add "I love you so much"
--steering-sub "I hate you so much"
--steering-source 1
--steering-layer 20
--steering-mul 2

代码#2,可视化分析

import numpy as np from matplotlib import pyplot as plt

steer = np.fromfile("~/src/llama.cpp/build/steering.bin", dtype=np.float32).reshape((512, -1))

fig, ax = plt.subplots(3) for i in range(0, len(ax)): ax[i].imshow(steer[3+i, :].reshape((32, -1)))

xlora03

传统llm模型的lora调参训练,通常只有loss曲线,无法对具体token,进行深度的关联分析 ,情感分析。

以上图片,只是最简单的love和hate,两个不同情感单词,token语句的可视化分析。

下图,是论文《转向矢量与GPT优化》当中,关于“婚礼”一词不同layer的权重对比分析。

<img width="632" alt="xlora05" src="https://github.com/ziwang-com/zero-lora/assets/11691791/8ff8054a-7cde-418d-b4f3-55381ad3fd78">

理论上,这方面有无限延展的空间,甚至可以衍生出一个完整的:可视化lora优化架构和理论体系。

TODO:

本文,可能是llm领域,首次正式提出zero-lora调参,这一概念,这也许,只是个开始。

关于zero-lora调参架构,还有相关的理论体系,有大量的工作,需要大家补充完善。 想刷高分paper,以及在GPT时代,寻找市场机会的llm创业团队,尽管放马过来。

根据AI一线工程经验,其中,比较急切的问题有:

近期,zw团队正在升级m-f.vip元字库网站,尽快部署行业领先的:中文GPT和国际版GPT。 为方便国内广大个人用户,中小企业,创业团队,尽快体验GPT这一最新科技成果。 m-f.vip元字库网站,近期,将率先在国内推出低成本的GPT”百元包月“服务,不限流量,任意使用。

zwagi- (4)