Deep Learning 101, Taiwan’s pioneering and highest deep learning meetup, launched on 2016/11/11 @ 83F, Taipei 101
AI是一條孤獨且充滿惶恐及未知的旅程,花俏絢麗的收費課程或活動絕非通往成功的捷徑。
衷心感謝當時來自不同單位的AI同好參與者實名分享的寶貴經驗;如欲移除資訊還請告知。
由 TonTon Huang Ph.D. 發起,及其當時任職公司(台灣雪豹科技)無償贊助場地及茶水點心。
去 YouTube 訂閱 | Facebook | 回 GitHub Pages | 到 GitHub 點星 | 網站 | 到 Hugging Face Space 按愛心
大語言模型 | 語音處理 | 自然語言處理 | 電腦視覺 |
Large Language Model | Speech Processing | Natural Language Processing, NLP | Computer Vision |
用 AI 懂 AI
AI 技術 體驗/分享
手把手帶你一起踩 AI 坑:https://www.twman.org/AI
- 白話文手把手帶你科普 GenAI:淺顯介紹生成式人工智慧核心概念,強調硬體資源和數據的重要性。
- 大型語言模型直接就打完收工?:回顧 LLM 領域探索歷程,討論硬體升級對 AI 開發的重要性。
- 檢索增強生成(RAG)不是萬靈丹之優化挑戰技巧:探討 RAG 技術應用與挑戰,提供實用經驗分享和工具建議。
- 大型語言模型 (LLM) 入門完整指南:原理、應用與未來:探討多種 LLM 工具的應用與挑戰,強調硬體資源的重要性。
- 解析探索大型語言模型:模型發展歷史、訓練及微調技術的 VRAM 估算:探討 LLM 的發展與應用,硬體資源在開發中的作用。
- Diffusion Model 完全解析:從原理、應用到實作 (AI 圖像生成);深入探討影像生成與分割技術的應用,強調硬體資源的重要性。
- ASR/TTS 開發避坑指南:語音辨識與合成的常見挑戰與對策:探討 ASR 和 TTS 技術應用中的問題,強調數據質量的重要性。
- 那些 NLP 踩的坑:分享 NLP 領域的實踐經驗,強調數據質量對模型效果的影響。
- 那些語音處理踩的坑:分享語音處理領域的實務經驗,強調資料品質對模型效果的影響。
- 手把手學深度學習安裝環境:詳細介紹在 Ubuntu 上安裝深度學習環境的步驟,分享實際操作經驗。
AI 技術 開源/試用
該踩或不該踩的坑都踩完,大型語言模型直接就打完收工?
作者:TonTon Huang Ph.D.
日期:2024年10月10日
原文網址:https://blog.twman.org/2024/09/LLM.html
文章概述
作者回顧了從 2016 年起在資安與深度學習領域的研究與應用,並分享了在自然語言處理(NLP)、語音處理、以及大型語言模型(LLM)等技術上的實踐經驗與挑戰。隨著 ChatGPT 等生成式 AI 的興起,作者反思了這些技術的演進,以及未來的發展方向。
主要內容摘要
1. 深度學習開發環境建置
- Ubuntu 安裝與設定:建立深度學習開發的基礎環境。
- CUDA 與 cuDNN 的安裝:確保 GPU 加速的正確配置。
- NVIDIA 驅動程式與 NVIDIA-SMI:檢查 GPU 的運作狀態。
- TensorFlow 與 PyTorch 安裝:配置主流深度學習框架。
- Docker 與 NVIDIA-Docker:實現環境的隔離與管理。
2. 自然語言處理(NLP)相關挑戰
- 語料與數據前處理:繁體中文語料的稀缺性。
- 文本校正與分類:標註數據的重要性。
- 命名實體識別(NER):處理繁體中文資料的困難。
- 模型選擇與應用:BERT 與 Seq2Seq 技術的實踐經驗。
3. 語音處理相關挑戰
- 語音識別(ASR):數據集的準備與挑戰。
- 聲紋識別(Speaker Recognition):語者辨識的應用場景。
- 語音去噪:噪聲處理的關鍵技術。
- 語者分離(Speaker Diarization):多語者聲音分離的技術難點。
- 模型選擇與工具:Kaldi 等工具的應用經驗。
4. 大型語言模型(LLM)與相關工具
- AutoGen、LangGraph、CrewAI、Dify、RAGFlow:多代理模型合作的應用。
- RAG 技術:檢索增強生成的應用與挑戰。
- GraphRAG 與知識圖譜:增強 RAG 性能的策略。
- Whisper 模型的應用:中文語音識別中的應用與最佳化。
- 開源工具介紹:WhisperX、faster-whisper 等工具的使用。
5. 中文文本分類與糾錯的演進
- 文本分類技術的發展:從規則方法到深度學習模型的演進。
- 中文文本糾錯的挑戰:語境依賴的錯誤處理與生成模型的應用。
結語
作者指出,隨著大型語言模型的出現,許多過去需要大量人工處理的任務變得更加自動化與高效。然而,這也帶來了新的挑戰與學習曲線。技術的快速迭代要求從業者持續學習與適應,才能在這條不歸路上持續前行。
📖 如需進一步了解,請參閱原文:
https://blog.twman.org/2024/09/LLM.html