星期五, 4月 26, 2024

星期四, 4月 25, 2024

網路文章:投期刊返修寫Response的時候,應該寫詳細一些還是簡要點?

出處

 知乎上很好的文章,擷取重點:

1. 所有的回復目的只有一個:說服 Editor,必須解決所有審稿人的疑慮,突出文章的貢獻。

2. 如何得體又有理有據的回覆強硬拒絕的審稿人

3. 一定要對 Editor 說一些好話,這要在整體回復審稿人意見之前寫上去。


得體回覆審稿人的模板:We appreciate the reviewer for carefully reading our manuscript and makingtheir insightful, critical, and constructive feedbacks. We appreciate that their comments have enabled us to prepare a greatly improved manuscript.(誇他) However, we respectfully disagree with the assessment of this reviewer regarding ourinnovativeness,analysis, and conclusions that the (自己的東西) is a common and unconvincing architecture. (反對他)We apologize for the previous poor formatting and some disputed descriptions of our manuscript, which may have made some of this evidence unclear. (對自己文章不足進行道歉)For this reason, we have revised the statements in our introduction and discussion to better highlight the novelty and advancement of our work.(改進並指明亮點)隨後對自己的亮點進行總結說明,包括那幾點

全文連結

星期三, 4月 24, 2024

私人部落格

Blogger 部落格寫這麼多年了,一直很想要針對不同文章分別設權限的功能。但 Blogger 一直只能針對整個部落格設權限,不能針對文章。公開部落格很多私人的東西不敢寫,於是很多記憶就沒辦法寫下來。 

現在決定開另外一個部落格,專門放只給自己看的私密日記,主站放文章連結。這樣自己看部落格回憶的時候,還是可以方便檢閱之前不方便公開說,或是沒有把握,不敢誤人的東西。Google 的 Blogger 實在太香了,看了二十年,一堆部落格服務都倒了,老朋友的站也沒了,Blogger 雖然沒什麼長進,但服務的穩定度屹立不搖,讓人省心,還是乖乖用 XD

全文連結

星期一, 4月 22, 2024

兩門 Computer Vision 課程

CS 198-126: Modern Computer Vision Fall 2022 (UC Berkeley)  

Computer Vision — Andreas Geiger 

紀錄下最近囤到的 CV 課,松鼠黨的收藏又增加了 XD

之前 B 站的 CS231 課也不錯,但只有 Justin Johnson 講的我聽的懂,Serana Yeung 在講什麼根本電波對不到。並且課程到後來速度越來越快,只能把一堆研究稍微帶過去,學到的東西很少。換別的課看手氣會不會好點 XD

全文連結

淺談 Prompt 自動最佳化工具

連結 

今天被介紹、推坑了 LLM prompt 最佳化的文章,文中帶出了很多 paper。粗看下來最優先需要了解的應該是 AutoPrompt,其對應 paper 如下:  

Intent-based Prompt Calibration: Enhancing prompt optimization with synthetic boundary cases 

其他 research 和 paper 乍看也不錯,但暫時沒有動力去看 Q<>Q 

最近要做 LLM 和 GPT 有關的 study,這算是及時雨 XD

全文連結

星期四, 4月 18, 2024

MedAI Session 20: Many Faces of Weak Supervision in Medical Representation Learning 觀後感

今天用用冗餘時間把 MedAI Session 20: Many Faces of Weak Supervision in Medical Representation Learning 看完一遍。感覺還是卡在同樣的地方,特別是如何用 noisy labeler 產生 probabilistic label 的部分,看來還是要繼續問 GPT 還有補數學。 

看的過程中,發現要看的 paper 也更多了。  

Data Programming: Creating Large Training Sets, Quickly 

 這篇也是講 Snorkel 的,但看來比之前看到那篇好懂一些。再努力看看  

Doubly Weak Supervision of Deep Learning Models for Head CT  

Cross-Modal Data Programming Enables Rapid Medical Machine Learning  

Multi-task weak supervision enables anatomically-resolved abnormality detection in whole-body FDG-PET/CT 

這三篇應該算重要收穫了。醫院放報告和影像一大堆,如果可以用報告加影像直接 train model 那做 deep learning 就會變得容易很多(謎之音:我也不用爆肝)。特別是有論文提到用 BERT 去把原始報告轉換成 study-level 的 label,現在有 LLM 可以用 few-shot 感覺這部份會容易很多。

全文連結

星期二, 4月 16, 2024

星期六, 4月 13, 2024

GPT-4 讀 paper 小感

GPT-4 真是讀 paper 神器。

Training Complex Models with Multi-Task Weak Supervision 這篇為例,中間小節開始引入集合操作符號就開始看不懂。靠自學 PR 值 < 0.1 的線性代數和數學符號認知,也完全看不懂抽象化後的 Material and Method。

交給 GPT-4 奇蹟出現。先用 LaTeX 把數學公式還原好,再整段丟進去,然後不管 GPT-4 回什麼,直接問 can you give me concrete example?,GPT 就直接解了抽象化,用非常簡單的例子就知道這段大概在講啥,過程中順便釐清我對大量符號的誤解,還有我對圖論基本名詞的認知錯誤。

看來 GPT-4 可以當成讀跨領域 paper 神器,效果遠勝我門外漢亂猜,前提是問題要問對。例如從 paper pdf 複製文字提問時,要用 LaTeX 把被破壞的格式還原 GPT 才知道你在講什麼
不曉得是不是 weakly supervised learning 這個主題 GPT 看過的文本夠多,才有這麼好的效果?可能要讀更多 paper 才能驗證。





 

全文連結