Deep Learning 101, Taiwan’s pioneering and highest deep learning meetup, launched on 2016/11/11 @ 83F, Taipei 101
AI是一條孤獨且充滿惶恐及未知的旅程,花俏絢麗的收費課程或活動絕非通往成功的捷徑。
衷心感謝當時來自不同單位的AI同好參與者實名分享的寶貴經驗;如欲移除資訊還請告知。
由 TonTon Huang Ph.D. 發起,及其當時任職公司(台灣雪豹科技)無償贊助場地及茶水點心。
YouTube | Facebook | 回 GitHub Pages | 網站 | Hugging Face Space
2019/07/19, Mark Chang, Transfer Learnings & Multitask Learning
Transfer Learning & Multitask Learning
2019/07/19 Mark Chang
本次活動是一個每月一次的技術分享聚會,大家輪流提供主題並交流想法 [1]。我的分享主題是 Multi-task Learning 和 Transfer Learning,這兩種方法都涉及到使用「很多個不一樣的分類的 Task」 [1]。我的分享主要是基於一篇名為 "Model Inductive Bias Learning" 的論文,這篇論文的數學模型可以涵蓋 Multi-task Learning 和 Transfer Learning 這兩種學習範式 [1]。
我之所以想分享這個主題,是因為我認為當前許多深度學習研究存在一個嚴重的問題:大家過度專注於做實驗、追求分數上的提升,但卻往往無法真正解釋模型為什麼會表現更好 [1, 2, 4]。這篇論文提供了一個數學理論框架,可以解釋為什麼使用 Multi-task Learning 或 Transfer Learning 在某些情況下會比單一 Task 學習表現更優越 [1]。這強調了數學解釋的必要性,而非僅僅依賴於實驗結果 [1, 2, 4, 5]。這讓我深感,真正的研究應該是透過理論來解決問題,而不是像「抽樂透」一樣隨機嘗試各種設定 [4]。
在深入探討 Multi-task Learning 和 Transfer Learning 之前,我們需要先回顧單一 Task Learning 的基本設定,因為後兩者可以被視為單一 Task Learning 的延伸或特例 [6, 7]。
Multi-task Learning 和 Transfer Learning 都可以視為 Model Inductive Bias Learning 框架下的特例 [16-18]。這個模型嘗試類比人類持續學習的能力,希望 AI 也能夠學習新事物,並將舊知識推廣到新問題上 [16]。它考慮的範疇比單一任務更廣泛,模型面對的不是單一一個 P 分佈,而是一個包含所有可能學習問題的「環境」 [16, 17]。
遷移學習是 Model Inductive Bias Learning 的一個非常常見的應用模式和特例 [17, 18, 22]。
多任務學習也被視為 Model Inductive Bias Learning 的一個特例 [17, 18, 22]。
從這次分享的內容可以看出,理解模型背後的數學理論,特別是像 Model Inductive Bias Learning 這樣的泛化誤差分析,對於實際的深度學習研究和應用具有非常重要的意義 [1, 2]。
歷史上也多次顯示了理論與實驗結合的重要性 [5, 30]。早期神經網絡的興起與低谷,以及與統計學習理論和 SVM 的競爭,都說明了僅有實驗或僅有理論的局限性 [5, 30, 31]。雖然近年來 GPU 發展導致實驗性研究佔主導地位 [9, 30, 32],但已經出現了回歸理論研究的趨勢 [5, 9, 30, 32]。面對當前複雜的深度學習模型,VC Dimension 等早期理論可能不再完全適用,需要 PAC-Bayes、Information Theory 等新的理論框架來解釋和指導模型設計 [9, 13, 30, 32, 33]。
總結來說,Multi-task Learning 和 Transfer Learning 這兩種強大的深度學習技術,都可以透過 Model Inductive Bias Learning 這個數學框架來理解其泛化能力的來源 [1, 17, 18]。泛化誤差公式,無論是在單一任務還是更廣泛的框架下,都清晰地揭示了資料數量、模型複雜度以及 Task 數量等關鍵因素如何影響模型的表現 [4, 6, 8, 14, 17, 29]。對於剛入門的研究者來說,理解這些理論基礎,可以幫助我們更有方向地進行實驗設計和模型選擇,而不會僅僅停留在調整超參數和嘗試不同架構的層面 [1, 2, 4]。
本次分享希望能拋磚引玉,鼓勵大家在實踐的同時,也能多關注機器學習背後的數學理論研究。這將有助於我們不僅知道「怎麼做」,更能理解「為什麼這樣做」,從而推動領域的進步 [1, 2, 4, 5]。雖然本次分享涉及的理論較深,但透過林軒田老師的課程等資源打好基礎,相信大家都能逐步深入,體會理論的魅力 [1, 6, 7, 27, 34]。