LoRA低秩适配为何能以千分之一参数量实现高效微调

一个拥有1750亿参数的语言模型,微调时只需训练不到2000万参数——这听起来像是天方夜谭,但微软研究院在2021年发表的论文让这个"魔术"变成了现实。 ...

8 min · 3586 words