壓力好像真的是寫程式的動力。
之前答應合作夥伴,解決土炮搜尋引擎中的查詢精確度問題(例如搜尋 dissection 跑出一堆 No CT evidence of dissection),打算用 deep learning NLP 處理並寫了研究計畫。
通過後花了很多時間自己標了 5000 份報告。樣本標好了,一直沒力做實驗。結果被 angio 的消息搞到嚴重焦慮,實驗就一口氣做完了。實驗過程中,我的 AI 能力也從調包俠順利轉職 Lv1 調參俠,還學會了通靈。
例如:class imbalance 太嚴重,模型 3 epoch 後全押 trivial answer 怎麼辦?
焚香入定向虛空無光之海祈禱,慷慨的虛空回應了真理:「Ez, Shuul'wah! Sk'woth'gl yu'gaz yog'ghyl ilfah!」歐我懂了 learning rate 要砍一半是吧?oh yeah 模型真的動了!!
從做產品的角度來說問題應該可說是解了,看到精美的 F1 score 和 accuracy 都 >95% 好到擔心是不是 overfitting。自己試了些 free typing 的自創 input 結果感覺還行,一部分的問題也有繞過或進一步 finetune 的思路。只要 model 扔進 pipeline 就行。
不過「研究」計畫產出的水論文階段真的就有點難倒我。上篇也是唯一一篇 published paper 還是快十年前的 case report 還是大佬手把手帶出來的,碩論雖然是資工相關但那是沒發表的文章。自己找了下 google scholar 看別人做的東西感覺賣點好像有限,方法也不 novel,得花腦筋想出夠好的賣點還有想辦法找高人了 XDDD
順便再次讚嘆 vast.ai,比特幣崩盤後租 GPU 的價格真的香,RTX 3090 24GB VRAM $0.3 USD/hr,model finetune 一次 17 分鐘解決,基本可以邊打報告邊 training ...
0 意見:
張貼留言