QLoRA-Efficient Finetuning of Quantized LLMs

论文QLORA: Efficient Finetuning of Quantized LLMs

摘要

作者提出了QLORA,一种高效的微调方法,可以在单个48GB的GPU上微调一个65B参数的模型,同时保持完整的16位微调任务性能,从而降低内存使用。QLORA通过将梯度反向传播到一个冻结的、4位量化的预训练语言模型中,然后传播到LoRA。并将最好的模型系列命名为Guanaco,在Vicuna基准测试中表现优于所有先前公开发布的模型,仅需要在单个GPU上进行24小时的微调即可达到ChatGPT性能水平的99.3%。QLORA引入了许多创新来节省内存,而不牺牲性能:(a)4位NormalFloat(NF4),这是一种对于正态分布权重在信息理论上最优的新数据类型;(b)双重量化,通过量化量化常数来减少平均内存占用;(c)分页优化器,用于管理内存峰值。作者使用QLORA微调了1000多个模型,并对8个指令数据集、多个模型类型(LLaMA、T5)以及通常无法使用常规微调运行的模型规模(例如33B和65B参数模型)进行了详细的指令遵循和聊天机器人性能分析。结果显示,QLoRA在一个小的高质量数据集上微调可以实现最先进的结果,甚至在使用比先前最先进模型更小的模型时也是如此。文章基于人类和GPT-4评估提供了详细的聊天机器人性能分析,表明GPT-4评估是人类评估的一种廉价合理的替代方法。此外,作者还发现当前的聊天机器人基准测试不能够可靠地评估聊天机器人的性能水平。

QLORA Finetuning

具体的量化方式看不懂,主要的配置如下,代码已开源,可参考配置

  • 4-bit NormalFloat Quantization
  • Double Quantization
  • Paged Optimizers

正常lora代码的基础上只需要添加以下配置:

from transformers import BitsAndBytesConfig,AutoModelForCausalLM
quantization_config = BitsAndBytesConfig(
            load_in_4bit=True,
            load_in_8bit=False,
            llm_int8_threshold=6.0,
            llm_int8_has_fp16_weight=False,
            bnb_4bit_compute_dtype=torch.float16,
            bnb_4bit_use_double_quant=True,
            bnb_4bit_quant_type="nf4",
        )
model = AutoModelForCausalLM.from_pretrained(
        model_name_or_path,
        load_in_4bit=True,
        load_in_8bit=False,
)

Training setting

设置LoRA的r为64,α为16,并在基础模型的所有线性层上添加LoRA模块。对于13B及以下的模型,使用Adam的beta2为0.999,最大梯度范数为0.3,以及LoRA的dropout为0.1;而对于33B和65B的模型,dropout设为0.05。


   转载规则


《QLoRA-Efficient Finetuning of Quantized LLMs》 yao 采用 知识共享署名 4.0 国际许可协议 进行许可。
 上一篇
FULL PARAMETER FINE-TUNING FOR LARGE LANGUAGE MODELS WITH LIMITED RESOURCES FULL PARAMETER FINE-TUNING FOR LARGE LANGUAGE MODELS WITH LIMITED RESOURCES
论文FULL PARAMETER FINE-TUNING FOR LARGE LANGUAGE MODELS WITH LIMITED RESOURCES 简介该论文主要集中于低资源下大模型的训练问题,提出LOMO优化器,使得大模型全参数微
下一篇 
deepspeed deepspeed
deepspeed config 键值使用 train_batch_size:设置训练时的批量大小。 gradient_accumulation_steps:设置梯度累积的步数,以减少通信开销和内存占用。 fp16:设置是否使用混合精
  目录