Deep Learning 101, Taiwan’s pioneering and highest deep learning meetup, launched on 2016/11/11 @ 83F, Taipei 101

AI是一條孤獨且充滿惶恐及未知的旅程,花俏絢麗的收費課程或活動絕非通往成功的捷徑。
衷心感謝當時來自不同單位的AI同好參與者實名分享的寶貴經驗;如欲移除資訊還請告知。
TonTon Huang Ph.D. 發起,及其當時任職公司(台灣雪豹科技)無償贊助場地及茶水點心。

Deep Learning 101 Buy Me A Coffee

去 YouTube 訂閱 | Facebook | 回 GitHub Pages | 到 GitHub 點星 | 網站 | 到 Hugging Face Space 按愛心


大語言模型 語音處理 自然語言處理 電腦視覺
Large Language Model Speech Processing Natural Language Processing, NLP Computer Vision

用 AI 懂 AI

AI 技術 體驗/分享

手把手帶你一起踩 AI 坑https://www.twman.org/AI


AI 技術 開源/試用

Machine Teaching

2019/06/28, Mark Liou, Machine Teaching

機器教學與蒸餾:核心概念與方法

本文件彙整了講者關於機器教學(Machine Teaching)與蒸餾(Distillation)主題分享的關鍵重點,主要涵蓋模型蒸餾(Model Distillation)與資料集蒸餾(Dataset Distillation)兩大核心概念及其相關技術和討論。內容基於提供的四份資料來源。

核心概念:機器教學

機器教學的核心概念是指人類利用機器直接去訓練機器的過程。與傳統的監督式學習(Supervised Learning)從大量標註資料中學習不同,機器教學探討如何利用現有的模型或資料,將知識轉移或濃縮,以教導新的模型,尤其是更小、更有效率的模型,以便部署在資源受限的裝置上。

模型蒸餾 (Model Distillation)

模型蒸餾的核心思想是將一個較大或性能更好的教師模型 (Teacher Net) 的知識轉移到一個通常較小、更有效率的學生模型 (Student Net) 上。

資料集蒸餾 (Dataset Distillation)

資料集蒸餾的核心思想是將原始的大型數據集濃縮成一個小型、合成的數據集,這個合成數據集包含足夠的資訊,能夠用來訓練一個模型,使其在原始數據集上達到良好的性能。

其他相關概念與社群討論