今日最新!调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时
机器之心 2023-05-28 09:55:28
选自Lightning AI

作者:Sebastian Raschka机器之心编译编辑:赵阳

LoRA 微调方法,随着大模型的出现而走红。
最近几个月,ChatGPT 等一系列大语言模型(LLM)相继出现,随之而来的是算力紧缺日益严重。虽然人人都想打造专属于自己的大模型,但是能负担得起上亿参数模型训练的机构却寥寥无几。
在快速发展的人工智能领域,以高效和有效的方式使用大型语言模型正变得越来越重要。
LoRA(Low-Rank Adaption,低秩自适应) 作为微调 LLMs 一种比较出圈的技术,其额外引入了可训练的低秩分解矩阵,同时固定住预训练权重,从而大大减少了下游任务的可训练参数数量。
本文中,来自 Lightning AI 首席人工智能教育家 Sebastian Raschka 将带你了解如何以高效的方式用 LoRA 来微调 LLM。下面是全文内容。
为什么要进行微调?
预训练大语言模型通常被称为基础模型,这样称呼的原因是:大语言模型在各种任务中表现良好,可以将它们用作对目标任务进行微调的基础。正如 Sebastian Raschka 在上一篇博文《Understanding Parameter-Efficient Finetuning of Large Language Models: From Prefix Tuning to LLaMA-Adapters》中所讨论的,微调能够使模型适应目标域和目标任务。尽管如此,大模型在计算上的成本可能非常昂贵 —— 模型越大,更新其网络层的成本就越高。
如果不想将网络中所有的层都进行更新,可以使用诸如前缀微调和适配器之类的高效调参方法。如今,有一种更流行的微调技术:Hu 等人提出的低秩自适应(LoRA)。
什么是 LoRA?它是如何工作的?它与其他流行的微调方法相比如何?本文将回答所有这些问题。
提高权重更新效率
论文《 LoRA: Low-Rank Adaptation of Large Language Models》提出将权重变化 ΔW 分解为秩较低的表示。(LoRA 不会直接分解矩阵,而是通过反向传播来学习分解的矩阵)。
在仔细研究 LoRA 之前,我们先简要解释一下规则微调期间的训练程序。首先是权重变化 ΔW。假设 W 表示给定神经网络层中的权重矩阵。然后,使用常规反向传播,我们可以获得权重更新 ΔW,它通常被计算为损失乘以学习率的负梯:
然后,得到 ΔW 后,原始权重按如下公式更新:W"=W+ΔW。如下图所示(为了简单起见,省略了偏置矢量)。
或者,我们可以保持权重更新矩阵分离,并按如下公式计算输出:h=Wx+ΔWx:

其中 x 表示输入,如下所示:


(资料图片)

当在神经网络中训练全连接(即 dense)层时,如上所示,权重矩阵通常具有全秩,这意味着矩阵不具有任何线性相关(即冗余)的行或列。相比之下,与全秩相比,低秩意味着矩阵具有冗余的行或列。
因此,尽管预训练模型的权重是满秩矩阵,但根据 Aghajanyan 等人的说法,LoRA 的作者指出预训练的大型语言模型在适应新任务时具有较低的内在维度。
低内在维度意味着数据可以由低维度空间有效地表示或近似,同时保留其大部分基本信息或结构。换句话说,这意味着可以将适应任务的新权重矩阵分解为低维(较小)矩阵,而不会丢失太多重要信息。
例如,假设 ΔW 是 A×B 维权重矩阵的权重更新矩阵,这个权重更新矩阵可以分解为两个较小的矩阵:ΔW=W_A W_B,其中 W_A 是 A×r 维矩阵,W_B 是 r×B 维矩阵。在这里,我们保持原始权重 W 冻结,并且只训练新的矩阵 W_A 和 W_B。如下图所示。
选择秩
上图中的 r 是超参数,指定用于自适应的低秩矩阵的秩。r 越小,低秩矩阵越简单,在自适应过程中需要学习的参数越少,训练就更快,计算需求会相应的减少。然而,r 变小的弊端是,低秩矩阵捕获任务特定信息的能力降低。这可能导致较低的自适应质量,并且与较高的 r 相比,模型在新任务上可能表现不佳。总之,在 LoRA 中确定 r 的取值,需要在模型复杂性、自适应能力和拟合不足或拟合过度的风险之间进行权衡。因此,重要的是用不同的 r 值进行实验,以找到正确的平衡,从而在新任务中满足所需的性能。
LoRA 实战
LoRA 的使用很直接,可以将其视为 LLM 中全连接层的前向传递修正版。伪代码如下所示:
在上面的伪代码中,alpha 是一个缩放因子,用于调整组合结果的大小(原始模型输出加上低秩自适应)。这平衡了预训练模型的知识和新的任务特定适应 —— 默认情况下,alpha 通常设置为 1。还要注意,当 W_A 被初始化为小的随机权重时,W_B 被初始化为 0,从而使得 ,这意味着需要从原始权重开始训练。
参数效率
接下来说一说最棘手的问题:如果引入新的权重矩阵,参数如何才能有效?新的矩阵 W_A 和 W_B 可以非常小。例如,假设 A=100,B=500,那么 ΔW 的大小为 100×500=50000。如果将其分解为两个较小的矩阵,一个 100×5 维矩阵 W_A 和一个 5×500 维矩阵 W_B。这两个矩阵总共只有 5×100+5×500=3000 个参数。
减少推理开销
在实践中,如果在如上所示的训练后保持原始权重 W 以及矩阵 W_A 和 W_B 处于分离状态,推理过程中就会额外产生效率损失,因为引入了额外的计算步骤。相反可以在训练后通过 W’=W+W_A・W_B 更新权重,这类似于前面提到的 W’=W+ΔW。
然而,保持权重矩阵 W_A 和 W_B 分离也可能有些优势。例如,假设希望保留预训练的模型作为各种客户的基础模型,并且希望从基础模型开始为每个客户创建一个微调的 LLM。在这种情况下,就不需要为每个客户存储完整的权重矩阵 W’。不然存储模型的所有权重 W’=W+W_A W_B 对于 LLM 来说可能非常大,因为 LLM 通常具有数十亿到数万亿的权重参数。因此,可以保留原始模型 W,只需要存储新的轻量级矩阵 W_A 和 W_B。
用具体的数字来说明的话,一个完整的 7B LLaMA checkpoint 需要 23 GB 的存储容量,而选择 r=8 的秩,则 LoRA 权重可以小到 8 MB。
实践效果
LoRA 在实践中有多好,与完全微调和其他参数有效方法相比如何?根据 LoRA 的论文,在几个特定任务的基准测试中,使用 LoRA 的模型的建模性能略好于使用 Adapters、prompt tuning 或 prefix tuning 的模型。通常,LoRA 的性能甚至比微调所有层更好,如下面 LoRA 论文的注释表所示。
值得注意的是,LoRA 与其他微调方法正交,这意味着它也可以与 Adapters 或 prefix tuning 相结合。
LoRA & LLaMA
现在,让我们使用 LoRA 来微调 Meta 提出的 LLaMA 模型。
除了用于训练和运行 LLaMA 本身的代码(使用原始的 Meta-LLaMA 权重)外,还包含用于使用 LLaMA Adapter 和 LoRA 微调 LLaMA 的代码。
作者建议使用以下操作方法文件:

下载预训练的权重:/Lightning-AI/lit-llama/blob/main/howto/download_

使用 LoRA 进行微调:/Lightning-AI/lit-llama/blob/main/howto/finetune_

使用适配器进行微调:/Lightning-AI/lit-llama/blob/main/howto/finetune_(可选,用于比较研究)

下一节将比较 7B LLaMA 基础模型与使用 LoRA 和 LLaMA Adapter 微调的 7B LLaMA 基础模型。(请注意,需要具有至少 24 GB RAM 的 GPU)。
计算性能基准
本节中,作者将比较 LLaMA 7B 基础模型与使用 LoRA 和 LLaMA Adapter 微调的基础模型的计算性能。
微调数据集是 Alpaca 52k 指令数据集,其结构如下:
数据集是按照 Self-Instruct 论文中描述的方法生成的,由 49759 个训练样本和 2000 个验证样本组成。Self-Instruct 的流程可总结为 4 个步骤:

种子任务池,包含一组人工编写的指令(本例中为 175 条)和样本指令;

使用预训练的 LLM(如 GPT-3)来确定任务类别;

给定新指令,让预训练的 LLM 生成响应结果;

在将响应结果添加到任务池之前,先收集、剪枝和筛选响应结果。

Alpaca 52k 数据集是使用上述 Self-Instruct 程序收集的。但是,也可以使用(或将其与)替代数据集进行比较。例如,一个有趣的候选数据集是最近发布的开源 databricks-doolly-15k 数据集,该数据集包含 databricks 员工编写的约 15k 条指令 / 响应微调记录。Lit LLaMA 存储库包含一个数据集制备脚本,可以选择使用 Dolly 15k 数据集。
给定以下超参数设置(块大小、批大小和 LoRA 的 r),Adapter 和 LoRA 都可以以 bfloat-16 的混合精度,在具有 24 Gb RAM 的单个 GPU 上微调 7B 参数的 LLaMA 基本模型。
LoRA
LaMA Adapter
如果代码将来发生变化,GitHub 上会同步更新代码(带有超参数设置)。
Adapter 在 A100 上使用了大约 22 Gb 的空间,并在 162 分钟内完成了 62400 次迭代。同样的迭代次数下,LoRA 使用了 21 Gb 的内存,在 192 分钟内完成。总之,同样基于 Lit-LLaMA 的 Adapter 和 LoRA 使用的 RAM 数量大致相同,训练时间大致相同。(请注意,这是在单个 GPU 上进行的,但如果有多个 GPU,只需将设备参数更改为 > 1 即可利用额外的加速!)相比之下,完全微调(LLaMA 7B 由 32 个 Transformer 块和 3 个全连接的输出层组成)需要至少 2 个具有至少 30Gb 的 GPU 和完全分片训练来分配权重。或者,可以使用 4 个 GPU,每个 GPU 的最大内存使用量为 22 Gb。在 4 个 GPU 上进行训练,训练耗时 1956 分钟。在单个 GPU 上至少需要 6000 分钟,这将比参数高效的 LLaMA Adapter 或 LoRA 代价昂贵 30-40 倍。
接下来,本文将介绍应用不同微调策略后的模型输出。
评估建模性能
有几种度量标准可用于评估 LLM 生成的文本。例如,困惑度、BLEU 和 ROUGE 分数是自然语言处理中用来评估 LLM 在各种任务中的表现的一些最常见的评估指标。然而,所有这些指标都有很大的缺点,人工评估仍然是黄金标准 —— 人工评估的缺点是创建成本高,难以自动化。简单起见,本文只关注定性比较,看看各种模型产生的一些输出。
为了对模型进行定性比较,本文将使用 “请解释权重衰减是如何工作的” 作为 prompt。
基准模型
请解释一下权重衰减是如何工作的…… 以及为什么它有时看起来有效,有时无效!
最简单地说,权重衰减从模型中删除特征(作为特征重要性的函数),它也被称为正则化。
推理时间 1: 秒, 个 token / 秒
正如我们所看到的,模型开始通过附加 “… 以及为什么它有时看起来有效,有时不起作用!” 来补全 prompt。这是因为基础模型只在下一个单词预测任务中进行了训练,没有经过专门的训练来处理指令。尽管如此,它试图在下面进一步解释。这种解释对正则化做出了一些正确的解释,但它并没有真正捕捉到权重衰减的关键机制。
LLaMA-Adapter
权重衰减是一种惩罚词条字数的方法。通过选择单词较少的句子,模型更有可能选择那些可能提供重要信息的句子。
推理时间:总计 秒, 个 tokens/sec。
使用的内存: GB。
这个解释在语法上是合理的,但也不一定是我们想要的。
LoRA
权重衰减是机器学习模型中用于减少过拟合的算法参数。这是一个调整模型权重的过程,以减少模型中不太重要的特征的影响并防止过拟合。权重衰减是通过向权重添加少量噪声来减少模型对训练数据的影响。这个过程鼓励模型更多地关注对预测任务更重要的特征。
推理时间:总计 秒, 个 tokens/sec。
使用的内存: GB。
可以看到离期望的答案越来越近了;放到广义线性模型中,这种解释确实有意义,在广义线性模型中,会强迫模型学习与输入特征相乘结果较小的权重参数。在神经网络中,这通常会应用于模型中的所有权重参数。
上面的 LoRA 方法目前来说使用的内存最多。然而,如前所述,可以通过将 LoRA 权重与预训练的模型权重合并来减少这种内存使用。
由于评估 LLM 本身就是一个大课题,因此这种定性概述只能反应每个模型能力的一小部分。但这里的要点是,LoRA 可以用于以相对经济高效的方式在指令数据集上微调 LLM。
结论
本文讨论了低秩自适应(LoRA),这是一种参数完全微调的有效替代方案。使用 LoRA,可以在几个小时内在单个 GPU 上对 LLaMA 等相对较大的模型进行微调,这使得它对那些不想在 GPU 资源上花费数千美元的人特别有吸引力。LoRA 的特别之处在于,可以选择性地将新的 LoRA 权重矩阵与原始的预训练权重合并,这样在推理过程中就不会产生额外的开销或复杂性。
随着越来越多的 ChatGPT 或 GPT-4 开源替代品的出现,在特定的目标数据集或目标上微调和定制这些 LLM 将在各个研究领域和行业变得越来越有吸引力。而 LoRA 等参数有效的微调技术使微调更具资源效率和可访问性。Lit LLaMA 存储库中提供了诸如 LoRA 和 LLaMA Adapter 之类的参数高效微调技术。
原文链接:/pages/community/tutorial/lora-llm/

©THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@

今日最新!调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时

2023-05-28 09:55:28

世界今热点:沧州vs三镇首发!

2023-05-28 09:09:59

天天新动态:【长风6号】萍乡:打团伙、退赃款,凌厉攻势火力全开

2023-05-28 07:54:42

环球微速讯:2021款卡罗拉双擎精英版配置 2021款卡罗拉双擎精英版配置参数表

2023-05-28 06:25:16

fw190还在生产吗 fw190 当前快报

2023-05-28 05:07:18

明媚和煦的意思 和煦的意思

2023-05-28 03:22:16

【世界速看料】剧组被闯,父母受扰,王一博方呼吁抵制“追私”违规行为

2023-05-28 02:00:40

开洗衣厂需要多少钱_开个洗衣房要多少钱 天天信息

2023-05-27 23:54:44

“爱北京,来工大”2023年北京工业大学校园开放日暨高招咨询系列探校活动第二场圆满结束

2023-05-27 22:28:38

电磁阀工作原理动态图片_电磁阀工作原理动态图

2023-05-27 21:23:13

焦点热议:扬州市社保基金管理中心网上办事服务大厅_扬州市社保基金管理中心

2023-05-27 20:16:23

关注:核苷酸的作用与功效(核苷酸在奶粉里的作用)

2023-05-27 19:09:00

2023江苏盐城市建湖县部分事业单位招聘入围体检人员名单

2023-05-27 18:12:48

最新!雁塔区总体规划:建成更高水平、国家一流,西安龙头城区!

2023-05-27 17:16:58

南红玛瑙怎么鉴别真假 有这三种鉴别方法具体情况详细内容介绍

2023-05-27 16:31:52

暴雨!他们彻夜未眠……

2023-05-27 14:21:03

“榴莲贵”频上热搜 平台销量增七倍 是谁推高了价格?

2023-05-27 13:19:22

2019学什么技术好学(2019学什么技术好)

2023-05-27 12:50:48

怎么踢掉蹭wifi的人手机 怎么踢掉蹭wifi的人

2023-05-27 11:06:08

定边县冯地坑镇任塬村扶贫互助资金协会

2023-05-27 10:12:30

【天气】入夏“重启”!5月26日有短时阵雨,但不会影响升温脚步 焦点消息

2023-05-27 10:19:07

湖北黄石:规范涉民营单位社矫对象外出经营活动

2023-05-27 09:10:51

多城消费券发放加力 适用领域更广

2023-05-27 07:47:38

天津个人住房公积金贷款最新细则出台!

2023-05-27 06:05:08

京津高速路况实时查询今天_京津高速

2023-05-27 06:00:29

天天播报:三国时期一桩臭名昭著的抢亲案,却为何在50年后成了一桩姻缘美谈

2023-05-27 03:01:53

拒绝续约报价!Relevo:阿森西奥将在赛季结束后离开皇马_世界信息

2023-05-27 02:18:29

环球头条:威海营商行|10055户受益,威海环翠区“一件事”集成服务再升级

2023-05-27 01:31:22

观焦点:2023青岛城阳第五场海牛主场比赛交通指南(公交+停车+交通管制)

2023-05-27 01:12:17

南京专治类风湿的医院:如何判断风湿和类风湿? 环球焦点

2023-05-27 00:20:35

上海警方捣毁特大“话务引流”诈骗团伙,抓获506名嫌犯

2023-05-26 23:56:57

菲律宾央行行长梅达拉:当疫情管控措施在六月到期时,菲律宾央行将会削减准备金率 每日播报

2023-05-26 22:18:44

北京:加快实施800处老旧信号灯升级改造|热闻

2023-05-26 21:17:21

天天热消息:四川绵阳可提供SKG榨汁机维修服务地址在哪

2023-05-26 20:18:27

美媒:日本将向乌克兰提供100辆军车和3万份口粮

2023-05-26 20:17:19

环球信息:【涨知识】什么是加计抵减,有哪些具体优惠?

2023-05-26 18:36:46

俄白签署核武部署文件 卢卡申科:已启动核武转移工作!

2023-05-26 18:13:36

诺基亚E63能用微信吗? 焦点简讯

2023-05-26 17:33:41

涨停雷达:ST板块异动 *ST泛海触及涨停 全球速看

2023-05-26 17:04:02

136期万人王福彩3D预测奖号:直选5码推荐_世界速讯

2023-05-26 15:36:58

耀宁12GWh锂离子电池及系统总成项目9月试生产

2023-05-26 14:41:02

最新发布!内蒙古“两位”上榜!-环球热门

2023-05-26 14:20:34

畸形审美加剧身材焦虑 一天只吃一个鸡蛋,跑操场十几圈_当前焦点

2023-05-26 14:29:36

每日消息!“贵国在伊拉克犯下多少罪行”非国大秘书长怒怼BBC记者

2023-05-26 13:29:56

重点聚焦!山楂可以和葛根一起吃吗?

2023-05-26 11:49:48

润阳科技:5月25日融资买入48.69万元,融资融券余额2585.81万元

2023-05-26 11:01:05

即时:今年前4个月广东商品房销售面积增长9%:广州一季度新房预售面积增35%

2023-05-26 10:49:21

时尚短袖图片_时尚短袖-当前资讯

2023-05-26 09:46:36

烧烤的工作流程?-世界独家

2023-05-26 08:56:57

环球今亮点!建筑工程项目管理与实务

2023-05-26 08:05:15

宝宝屁股长了很多红点点怎么办_性x少女_世界短讯

2023-05-26 07:04:28

【全球速看料】新概念阅读书坊:唐诗三百首_关于新概念阅读书坊:唐诗三百首简介

2023-05-26 06:34:35

【报资讯】东数西算/算力板块5月25日涨1.24%,鸿博股份领涨,主力资金净流入3.01亿元

2023-05-26 05:11:38

标定地价规程_标定地价|世界讯息

2023-05-26 04:07:45

外汇百晓生:黄金空单再度获利,中线继续看1934支撑 观热点

2023-05-26 04:03:24

冰箱直冷和风冷哪个好(风冷和直冷冰箱的区别)-天天即时看

2023-05-26 02:31:24

秦皇岛卢龙普方坯出厂含税下调20元/吨

2023-05-26 02:03:23

热消息:干煸杏鲍菇丝的图片(干煸杏鲍菇丝的做法)

2023-05-26 01:12:31

公路工程质量检验评定标准最新版2021_公路工程质量检验评定标准最新版

2023-05-26 00:10:13

天天热点!红军阿哥你慢慢走舞蹈_红军阿哥你慢慢走

2023-05-25 23:04:51

对话隆基绿能董事长钟宝申:经济衰退预测没什么准确性可言 天天时讯

2023-05-25 22:16:58

环球动态:全球AI算力龙头盘后暴涨近30% 英伟达GPU成“硬通货”

2023-05-25 22:08:21

广州市天河区委副书记、政法委书记刘武鹏接受纪律审查和监察调查

2023-05-25 20:46:37

5月25日国内邻二甲苯企业报价暂稳_焦点日报

2023-05-25 20:24:31

飞猪618首周机票次卡销量破10万件

2023-05-25 20:20:08

科技赋能产业发展,脑虎科技受邀参加2023赣江新区科技节活动周

2023-05-25 18:40:25

三亚旅游攻略.大概四五天,费用2000左右。

2023-05-25 17:54:21

天天通讯!美好在生长!中骏·云景台,家楼下的20000平绿野公园首曝光!

2023-05-25 17:06:57

杭州2023年公积金缴存基数是多少 杭州公积金缴费基数上限是多少

2023-05-25 16:17:48

有关规则的作文_有关规则的作文范文-世界时讯

2023-05-25 15:44:22

全球微动态丨“嘘寒问暖”还是“飞来陷阱”?你的“领导”可能不是你领导……

2023-05-25 14:36:02

德班世乒赛女单今日焦点赛程:陈梦、王艺迪迎中日对决,央视直播

2023-05-25 14:02:00

电脑上字体颜色太谈看不清怎么加深 电脑字颜色深浅怎么调|全球快报

2023-05-25 13:19:12

中国驻比利时使馆举办“茶文化体验日”活动

2023-05-25 12:36:31

焦点资讯:品德的古诗有哪些 6.关于“道德”的古诗句有哪些

2023-05-25 12:04:07

力量钻石:5月24日融券卖出1.49万股,融资融券余额4.23亿元

2023-05-25 11:03:39

“数实融合” 开启未来——数字化助力贵州实体经济高质量发展观察-当前聚焦

2023-05-25 10:26:08

韩国一季度总和生育率仅0.81,创历年同期新低 天天快播报

2023-05-25 09:31:25

原神壁纸高清去水印:3.7七圣召唤角色牌 雷电将军 钟离 纳西妲 温蒂 胡桃 八重神子-天天通讯

2023-05-25 08:59:20

你算什么男人周杰伦_算什么男人mv-天天头条

2023-05-25 07:49:34

定源式虚实分量法

2023-05-25 07:06:52

冰箱尺寸一般是多少 冰箱高度一般是多少

2023-05-25 05:59:48

再审案件的审理程序? 再审案件的审理程序 环球快看点

2023-05-25 05:06:14

浑身有游走性针刺感是什么原因_全身游走性针扎似的痒怎么回事 世界最资讯

2023-05-25 03:56:39

德班世乒赛-陈梦王艺迪组合3比0晋级女双8强

2023-05-25 03:01:31

国家发改委辟谣

2023-05-25 02:38:05

海通证券澄清:昆明城投有关会议纪要非海通发布,外部参会人员言论仅代表其个人-世界今日报

2023-05-25 01:27:29

三叶草生物携手科园贸易,预计下半年上市销售进口四价流感疫苗 全球热点

2023-05-25 00:39:50

天天短讯!一次性培训收费不得超过5000元!江苏发文规范校外培训机构发展

2023-05-24 23:56:18

中国燃气(00384)向一名外部顾问授出300万份股份期权

2023-05-24 23:06:09

微视频|从正定到广州,河北梆子演员苦练30年摘“梅”|环球热资讯

2023-05-24 21:52:43

全球热文:2024巴黎奥运会门票已售出680万张

2023-05-24 21:47:02

代码坏味道(一)

2023-05-24 20:12:53

信息:红蜘蛛多媒体网络教室软件官网 红蜘蛛多媒体网络教室

2023-05-24 19:21:12

环球观天下!光耀尼罗河 | 正泰新能与埃及Ever Green

2023-05-24 18:24:29

摆脱情绪内耗,只需5个动作

2023-05-24 18:33:45

即时看!各地文旅显神通把“流量”变“留量”

2023-05-24 17:39:42

“龙舟水”超猛!广东紧急提醒

2023-05-24 16:31:16

体坛午爆|山东泰山今战深圳,凯尔特人大胜热火扳回一城

2023-05-24 16:34:27

星火成炬 | 平凡生活见惊喜 世界看热讯

2023-05-24 14:55:06