這文章真是打動我心,明顯作者踩了一堆坑。RAG 本質就是 workaround,當 LLM context window 不夠長,無法塞進足夠資料的前提下,RAG 就是沒有辦法的辦法。RAG pipeline 很長,Chunking、Embedding、Search、Reranking 每個步驟都可以 fail。而且 upstream 爆了,往往 downstream 錯誤不會消失,只會放大,最終變成災難性的低準確度。而且 RAG 方法有先天缺陷。例如本文提到的,長文本之間會有複雜的依賴關係,一旦進行 chunking 可能某些語義或查詢路徑就不見了。
不過說這麼多,對我個人好像也沒什麼幫助啊。我司不想買,連 RAG 的單顯卡都下不來。真的要做 RAG 的話,也只能開源系統套一套,開源沒辦法,就真的沒辦法囉。至於像這篇說的一樣開發 agentic search,只能說夢裡什麼都有 XD
好文:The RAG Obituary: Killed by Agents, Buried by Context Windows
連結
0 意見:
張貼留言