0
点赞
收藏
分享

微信扫一扫

数据同步、流计算全面强化,TDengine 3.3.4.3 版本正式发布

调优算法

LLaMA-Factory 支持多种调优算法,包括: Full Parameter Fine-tuning 、 Freeze 、 LoRA 、 Galore 、 BAdam 。

1.Full Parameter Fine-tuning

全参微调指的是在训练过程中对于预训练模型的所有权重都进行更新,但其对显存的要求是巨大的。

如果您需要进行全参微调,请将 finetuning_type 设置为 full

下面是一个例子:

### examples/train_full/llama3_full_sft_ds3..yaml
# ...
finetuning_type: full
# ...
# 如果需要使用deepspeed:
deepspeed: examples/deepspeed/ds_z3_config.json

2.Freeze

Freeze(冻结微调)指的是在训练过程中只对模型的小部分权重进行更新,这样可以降低对显存的要求。

如果您需要进行冻结微调,请将 finetuning_type 设置为 freeze 并且设置相关参数, 例如冻结的层数 freeze_trainable_layers 、可训练的模块名称 freeze_trainable_modules 等。

以下是一个例子:

...
### method
stage: sft
do_train: true
finetuning_type: freeze
freeze_trainable_layers: 8
freeze_trainable_modules: all
...
参数名称类型介绍
freeze_trainable_layersint可训练层的数量。正数表示最后 n 层被设置为可训练的,负数表示前 n 层被设置为可训练的。默认值为 2
freeze_trainable_modulesstr可训练层的名称。使用 all 来指定所有模块。默认值为 all
freeze_extra_modules[非必须]str除了隐藏层外可以被训练的模块名称,被指定的模块将会被设置为可训练的。使用逗号分隔多个模块。默认值为 None

3.LoRA

如果您需要进行 LoRA 微调,请将 finetuning_type 设置为 lora 并且设置相关参数。 下面是一个例子:

...
### method
stage: sft
do_train: true
finetuning_type: lora
lora_target: all
lora_rank: 8
lora_alpha: 16
lora_dropout: 0.1
...
参数名称类型介绍
additional_target[非必须][str,]除 LoRA 层之外设置为可训练并保存在最终检查点中的模块名称。使用逗号分隔多个模块。默认值为 None
lora_alpha[非必须]intLoRA 缩放系数。一般情况下为 lora_rank * 2, 默认值为 None
lora_dropoutfloatLoRA 微调中的 dropout 率。默认值为 0
lora_rankintLoRA 微调的本征维数 rr 越大可训练的参数越多。默认值为 8
lora_targetstr应用 LoRA 方法的模块名称。使用逗号分隔多个模块,使用 all 指定所有模块。默认值为 all
loraplus_lr_ratio[非必须]floatLoRA + 学习率比例(λ = ηB/ηA)。 ηA, ηB 分别是 adapter matrices A 与 B 的学习率。LoRA+ 的理想取值与所选择的模型和任务有关。默认值为 None
loraplus_lr_embedding[非必须]floatLoRA + 嵌入层的学习率, 默认值为 1e-6
use_rslorabool是否使用秩稳定 LoRA(Rank-Stabilized LoRA),默认值为 False
use_dorabool是否使用权重分解 LoRA(Weight-Decomposed LoRA),默认值为 False
pissa_initbool是否初始化 PiSSA 适配器,默认值为 False
pissa_iterintPiSSA 中 FSVD 执行的迭代步数。使用 -1 将其禁用,默认值为 16
pissa_convertbool是否将 PiSSA 适配器转换为正常的 LoRA 适配器,默认值为 False
create_new_adapterbool是否创建一个具有随机初始化权重的新适配器,默认值为 False

1.LoRA+

在 LoRA 中,适配器矩阵 A 和 B 的学习率相同。

可以通过设置 loraplus_lr_radio 来调整学习率比例。

在 LoRA+ 中,

适配器矩阵 A 的学习率 ηA 即为优化器学习率。

适配器矩阵 B 的学习率 ηBλ * ηA

其中, λloraplus_lr_ratio 的值

2.rsLoRA

LoRA 通过添加低秩适配器进行微调,然而 lora_rank 的增大往往会导致梯度塌陷,使得训练变得不稳定。

这使得在使用较大的 lora_rank 进行 LoRA 微调时较难取得令人满意的效果。

rsLoRA(Rank-Stabilized LoRA) 通过修改缩放因子使得模型训练更加稳定。使用 rsLoRA时,需要将 use_rslora 设置为 True 并设置所需要的 lora_rank

3.DoRA

DoRA(Weight-Decomposed Low-Rank Adaptation) 提出尽管 LoRA 大幅度降低了推理成本,但是这种方式取得的性能与全量微调仍然有一些差距

DoRA 将权重矩阵分解为大小与单位方向矩阵的乘积,并进一步微调二者(对方向矩阵则进一步使用 LoRA 分解),从而实现 LoRA 与 Full Fine-tuning 之间的平衡

如果您需要使用 DoRA,请将 use_dora 设置为 True

4.PiSSA

在 LoRA 中,适配器矩阵 A 由 kaiming_uniform 初始化,而适配器矩阵 B 则全初始化为0。

这导致一开始的输入并不会改变模型输出并且使得梯度较小,收敛较慢。

PiSSA 通过奇异值分解直接分解原权重矩阵进行初始化,其优势在于它可以更快更好地收敛。

如果您需要使用 PiSSA,请将 pissa_init 设置为 True

举报

相关推荐

0 条评论