知乎上看到的好文,總結了 LLM 微調的有效方法,包括 LORA、Prompt Tuning、P-Tuning、Adapter、Prefix Tuning。很多之前網路上或李弘毅老師的課看過,或大概聽過。但還是有些概念比較新,例如 Prompt Tuning、P-Tuning、Prefix Tuning。應該能當作淼 NLP paper 的靈感庫了。
沒有留言:
張貼留言