ayesha983 發表於 2025-3-6 17:06:31

PEFT 方法比较(数据来自 [1])

修改,而预训练模型保持冻结状态。微调后,权重更新可以与冻结的预训练模型合并,以获得最终的微调模型。要深入了解 LoRA 细节,我推荐这篇精彩的博客文章。

下表(数据来自 )使用 T5-base 模型 比较了 100 个不同 NLP 任务中的不同 PEFT 方法。它还展示了 T5-large 上 prompt-tuning 的性能,以突出此方法的规模化能力 。本文未探讨 P-tuning,但其结果比 prompt-tuning 更好 。

PEFT 方法比较(数据来自 )
近来,参数高效微调的研究大幅增加,各种 捷克共和国电报数据 新方法不断涌现。Compacter 等一些方法结合了不同范式(包括基于添加和重新参数化)的思想。

同样,这里介绍的不同方法可以组合使用,例如,使用 LoRA 进行微调和快速调整。对于那些考虑这些技术的人,你可以看看HuggingFace PEFT 库,它提供了与大多数 HuggingFace 模型兼容的现成实现。

Ding 等人(2022 年)。Delta tuning:预训练语言模型的参数高效方法的全面研究。

Lialin 等人(2023 年)。缩小到扩大:参数高效微调指南。


喜欢这个吗?请阅读我们最近的其他技术文章,了解如何使用工具增强 LLM、用于文本分类的 LLM,以及更多关于 Data From the Trenches Medium 的内容。

頁: [1]
查看完整版本: PEFT 方法比较(数据来自 [1])

一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |