好文:一文搞清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型微调方法 4:53 下午  星期三, 3月 20, 2024 d8888 No comments 出處 知乎上看到的好文,總結了 LLM 微調的有效方法,包括 LORA、Prompt Tuning、P-Tuning、Adapter、Prefix Tuning。很多之前網路上或李弘毅老師的課看過,或大概聽過。但還是有些概念比較新,例如 Prompt Tuning、P-Tuning、Prefix Tuning。應該能當作淼 NLP paper 的靈感庫了。 全文連結 以電子郵件傳送這篇文章BlogThis!分享至 Twitter分享至 Facebook
0 意見:
張貼留言