Deep Learning 101, Taiwan’s pioneering and highest deep learning meetup, launched on 2016/11/11 @ 83F, Taipei 101
AI是一條孤獨且充滿惶恐及未知的旅程,花俏絢麗的收費課程或活動絕非通往成功的捷徑。
衷心感謝當時來自不同單位的AI同好參與者實名分享的寶貴經驗;如欲移除資訊還請告知。
由 TonTon Huang Ph.D. 發起,及其當時任職公司(台灣雪豹科技)無償贊助場地及茶水點心。
去 YouTube 訂閱 | Facebook | 回 GitHub Pages | 到 GitHub 點星 | 網站 | 到 Hugging Face Space 按愛心
大語言模型 | 語音處理 | 自然語言處理 | 電腦視覺 |
Large Language Model | Speech Processing | Natural Language Processing, NLP | Computer Vision |
用 AI 懂 AI
AI 技術 體驗/分享
手把手帶你一起踩 AI 坑:https://www.twman.org/AI
- 白話文手把手帶你科普 GenAI:淺顯介紹生成式人工智慧核心概念,強調硬體資源和數據的重要性。
- 大型語言模型直接就打完收工?:回顧 LLM 領域探索歷程,討論硬體升級對 AI 開發的重要性。
- 檢索增強生成(RAG)不是萬靈丹之優化挑戰技巧:探討 RAG 技術應用與挑戰,提供實用經驗分享和工具建議。
- 大型語言模型 (LLM) 入門完整指南:原理、應用與未來:探討多種 LLM 工具的應用與挑戰,強調硬體資源的重要性。
- 解析探索大型語言模型:模型發展歷史、訓練及微調技術的 VRAM 估算:探討 LLM 的發展與應用,硬體資源在開發中的作用。
- Diffusion Model 完全解析:從原理、應用到實作 (AI 圖像生成);深入探討影像生成與分割技術的應用,強調硬體資源的重要性。
- ASR/TTS 開發避坑指南:語音辨識與合成的常見挑戰與對策:探討 ASR 和 TTS 技術應用中的問題,強調數據質量的重要性。
- 那些 NLP 踩的坑:分享 NLP 領域的實踐經驗,強調數據質量對模型效果的影響。
- 那些語音處理踩的坑:分享語音處理領域的實務經驗,強調資料品質對模型效果的影響。
- 手把手學深度學習安裝環境:詳細介紹在 Ubuntu 上安裝深度學習環境的步驟,分享實際操作經驗。
AI 技術 開源/試用
檢索增強生成 (Retrieval-Augmented Generation, RAG) 不是萬靈丹:檢索增強生成的挑戰與優化技巧
作者:TonTon Huang Ph.D.
日期:2024年7月7日
原文網址:https://blog.twman.org/2024/07/RAG.html
文章概述
作者分享了在實作 RAG(Retrieval-Augmented Generation)過程中遇到的挑戰與優化技巧,並強調 RAG 並非萬靈丹,需根據實際需求進行適當的設計與調整。
主要內容摘要
1. 為何選擇 RAG?
- 聚焦私有資料:RAG 能專注於私有資料的檢索與生成,提升回應的相關性。
- 結合檢索與生成:透過檢索相關資料並結合生成模型,提供更精確的答案。
2. 本地端部署 RAG 的工具
- Ollama:簡化大模型的部署與執行,支援嵌入生成。
- Xinference:提供更方便的操作介面,適合本地端使用。
3. 文檔處理與嵌入生成
- 文檔切分:避免直接將整份 PDF 或 PPT 輸入,應先進行適當的切分與整理。
- 工具推薦:
4. 檢索策略與排序機制
- 兩階段檢索系統:
- 嵌入模型(Embedding Model):快速篩選相關文件。
- 重新排序器(Reranker):精確排序,提升結果的相關性。
- 檢索方式:
- 向量檢索:透過生成查詢嵌入並查詢與其向量表示最相似的文字分段。
- 全文檢索:索引文件中的所有詞彙,允許使用者查詢任意詞彙。
- 混合檢索:結合向量與全文檢索,並使用 Reranker 進行重新排序。
5. 知識圖譜與 Ontology 的應用
- GraphRAG:結合知識圖譜與 RAG,提升生成內容的結構性與準確性。
- Ontology 的重要性:強調在知識管理與檢索中的角色,並分享作者在 OWL.Manchester 的經驗。
結語
RAG 提供了一種結合檢索與生成的強大方法,但並非適用於所有情境。實作時需根據實際需求選擇合適的工具與策略,並注意資料處理與模型部署的細節,才能發揮其最大效益。
📖 如需進一步了解,請參閱原文:
https://blog.twman.org/2024/07/RAG.html