 |
|
|
| |
|
業界實戰親授:大型語言模型微調、最佳化、佈署一次到位
|
|
|
|
|
|
出版日期:2025-06-18
|
|
ISBN:9786267569931
|
|
定價:980元
特價:90折!882元
|
|
|
|
參考分類(CAT):
|
|
參考分類(CIP): 電腦科學
|
|
|
|
|
|
|
|
|
內容簡介 ►回顧對話機器人歷史,從人機交流到現代語言模型
►解析人工智慧發展,聚焦通用人工智慧(AGI)
►指導大型語言模型私有化部署,涵蓋環境建置
►介紹語言模型核心理論,從統計方法到Transformer
►解析Hugging Face與Transformers函數庫應用
►介紹高效微調技術,如Prompt Tuning與LoRA
►實作LoRA與QLoRA微調GLM-4,提升效能
►探討提示工程,提升模型推理與應用能力
►解析多角色對話與AI Agent的運作模式
►介紹LangChain框架,涵蓋Chain與Agents
►展示垂直領域模型應用,以紅十字會資料實作
►解析檢索增強生成(RAG),結合LLM與知識庫
本書第一章回顧對話機器人的發展,探討人工智慧的演進與未來趨勢。第二章介紹大型語言模型的私有化部署,包括CUDA環境建置、PyTorch安裝與GLM-4模型執行。第三章解析語言模型的理論基礎,涵蓋統計語言模型、Transformer架構與Attention機制。第四章說明Hugging Face與Transformers函數庫的應用,幫助讀者開發與微調LLM。第五章介紹高效微調技術,如Prompt Tuning、LoRA、QLoRA等方法,提升模型效能。第六章進一步探討LoRA微調GLM-4的實戰應用與量化技術。第七章解析提示工程,說明Few-shot、Chain of Thought等推理增強技術。第八章介紹AI Agent與多角色對話模式,並探討Function Calling的應用。第九章深入LangChain框架,涵蓋Chain、Memory與Agents的實作,並整合資料庫與檢索增強生成(RAG)技術。第十章展示大型模型在垂直領域的應用,例如微調GLM-4處理紅十字會資料,提供完整的實戰示範。 目次 ▍第1章 從零開始大型模型之旅
1.1 對話機器人歷史
1.1.1 人機同頻交流
1.1.2 人機對話發展歷史
1.2 人工智慧
1.2.1 從感知到創造
1.2.2 通用人工智慧
1.2.3 發展方向
1.2.4 本書焦點
1.3 本章小結
▍第2章 大型模型私有化部署
2.1 CUDA 環境準備
2.1.1 基礎環境
2.1.2 大型模型執行環境
2.1.3 安裝顯示卡驅動
2.1.4 安裝CUDA
2.1.5 安裝cuDNN
2.2 深度學習環境準備
2.2.1 安裝Anaconda 環境
2.2.2 伺服器環境下的環境啟動
2.2.3 安裝PyTorch
2.3 GLM-3 和GLM-4
2.3.1 GLM-3 介紹
2.3.2 GLM-4 介紹
2.4 GLM-4 私有化部署
2.4.1 建立虛擬環境
2.4.2 下載GLM-4 專案檔案
2.4.3 安裝專案相依套件
2.4.4 下載模型權重
2.5 執行GLM-4 的方式
2.5.1 基於命令列的互動式對話
2.5.2 基於Gradio 函數庫的Web 端對話應用
2.5.3 OpenAI 風格的API 呼叫方法
2.5.4 模型量化部署
2.6 本章小結
▍第3章 大型模型理論基礎
3.1 自然語言領域中的資料
3.1.1 時間序列資料
3.1.2 分詞
3.1.3 Token
3.1.4 Embedding
3.1.5 語義向量空間
3.2 語言模型歷史演進
3.2.1 語言模型歷史演進
3.2.2 統計語言模型
3.2.3 神經網路語言模型
3.3 注意力機制
3.3.1 RNN 模型
3.3.2 Seq2Seq 模型
3.3.3 Attention 注意力機制
3.4 Transformer 架構
3.4.1 整體架構
3.4.2 Self-Attention
3.4.3 Multi-Head Attention
3.4.4 Encoder
3.4.5 Decoder
3.4.6 實驗效果
3.5 本章小結
▍第4章 大型模型開發工具
4.1 Huggingface
4.1.1 Huggingface 介紹
4.1.2 安裝Transformers 函數庫
4.2 大型模型開發工具
4.2.1 開發範式
4.2.2 Transformers 函數庫核心設計
4.3 Transformers 函數庫詳解
4.3.1 NLP 任務處理全流程
4.3.2 資料轉換形式
4.3.3 Tokenizer
4.3.4 模型載入和解讀
4.3.5 模型的輸出
4.3.6 模型的儲存
4.4 全量微調訓練方法
4.4.1 Datasets 函數庫和Accelerate 函數庫
4.4.2 資料格式
4.4.3 資料前置處理
4.4.4 模型訓練的參數
4.4.5 模型訓練
4.4.6 模型評估
4.5 本章小結
▍第5章 高效微調方法
5.1 主流的高效微調方法介紹
5.1.1 微調方法介紹
5.1.2 Prompt 的提出背景
5.2 PEFT 函數庫快速入門
5.2.1 介紹
5.2.2 設計理念
5.2.3 使用
5.3 Prefix Tuning
5.3.1 背景
5.3.2 核心技術解讀
5.3.3 實現步驟
5.3.4 實驗結果
5.4 Prompt Tunin
5.4.1 背景
5.4.2 核心技術解讀
5.4.3 實現步驟
5.4.4 實驗結果
5.5 P-Tuning
5.5.1 背景
5.5.2 核心技術解讀
5.5.3 實現步驟
5.5.4 實驗結果
5.6 P-Tuning V2
5.6.1 背景
5.6.2 核心技術解讀
5.6.3 實現步驟
5.6.4 實驗結果
5.7 本章小結
▍第6章 LoRA 微調GLM-4 實戰
6.1 LoRA
6.1.1 背景
6.1.2 核心技術解讀
6.1.3 LoRA 的特點
6.1.4 實現步驟
6.1.5 實驗結果
6.2 AdaLoRA
6.2.1 LoRA 的缺陷
6.2.2 核心技術解讀
6.2.3 實現步驟
6.2.4 實驗結果
6.3 QLoRA
6.3.1 背景
6.3.2 技術原理解析
6.4 量化技術
6.4.1 背景
6.4.2 量化技術分類
6.4.3 BitsAndBytes 函數庫
6.4.4 實現步驟
6.4.5 實驗結果
6.5 本章小結
▍第7章 提示工程入門與實踐
7.1 探索大型模型潛力邊界
7.1.1 潛力的來源
7.1.2 Prompt 的六個建議
7.2 Prompt 實踐
7.2.1 四個經典推理問題
7.2.2 大型模型原始表現
7.3 提示工程
7.3.1 提示工程的概念
7.3.2 Few-shot
7.3.3 透過思維鏈提示法提升模型推理能力
7.3.4 Zero-shot-CoT 提示方法
7.3.5 Few-shot-CoT 提示方法
7.4 Least-to-Most Prompting(LtM 提示方法)
7.4.1 Least-to-Most Prompting 基本概念
7.4.2 Zero-shot-LtM 提示過程
7.4.3 效果驗證
7.5 提示使用技巧
7.5.1 B.R.O.K.E 提示框架
7.5.2 C.O.A.S.T 提示框架
7.5.3 R.O.S.E.S 提示框架
7.6 本章小結
▍第8章 大型模型與中介軟體
8.1 AI Agent
8.1.1 從AGI 到Agent
8.1.2 Agent 概念
8.1.3 AI Agent 應用領域
8.2 大型模型對話模式
8.2.1 模型分類
8.2.2 多角色對話模式
8.3 多角色對話模式實戰
8.3.1 messages 參數結構及功能解釋
8.3.2 messages 參數中的角色劃分
8.4 Function Calling 功能
8.4.1 發展歷史
8.4.2 簡單案例
8.5 實現多函數
8.5.1 定義多個工具函數
8.5.2 測試結果
8.6 Bing 搜索嵌入LLM
8.6.1 曇花一現的Browsing with Bing
8.6.2 需求分析
8.6.4 建構自動搜索問答機器人
8.7 本章小結
▍第9章 LangChain 理論與實戰
9.1 整體介紹
9.1.1 什麼是LangChain
9.1.2 意義
9.1.3 整體架構
9.2 Model I/O
9.2.1 架構
9.2.2 LLM
9.2.3 ChatModel
9.2.4 Prompt Template
9.2.5 實戰:LangChain 連線本地GLM
9.2.6 Parser
9.3 Chain
9.3.1 基礎概念
9.3.2 常用的Chain
9.4 Memory
9.4.1 基礎概念
9.4.2 流程解讀
9.4.3 常用Memory
9.5 Agents
9.5.1 理論
9.5.2 快速入門
9.5.3 架構
9.6 LangChain 實現Function Calling
9.6.1 工具定義
9.6.2 OutputParser
9.6.3 使用
9.7 本章小結
▍第10章 實戰:垂直領域大型模型
10.1 QLoRA 微調GLM-4
10.1.1 定義全域變數和參數
10.1.2 紅十字會資料準備
10.1.3 訓練模型
10.2 大型模型連線資料庫
10.2.1 大型模型挑戰
10.2.2 資料集準備
10.2.3 SQLite3
10.2.4 獲取資料庫資訊
10.2.5 建構tools 資訊
10.2.6 模型選擇
10.2.7 效果測試
10.3 LangChain 重寫查詢
10.3.1 環境配置
10.3.2 工具使用
10.4 RAG 檢索增強
10.4.1 自動化資料生成
10.4.2 RAG 架設
10.5 本章小結
▍參考文獻
1、五南網路會員所購買的商品均享有取貨7天的鑑賞期﹝包含國定假日、例假日﹞,退換貨之商品必需於取貨7天內辦理退換貨,否則恕不接受退換貨。
2、依照消費者保護法規定,凡消費者於網站購物均享有7天商品鑑賞期,唯需注意辦理退貨商品需保留完整外包裝、附件、外盒等等,才可辦理退貨。
3、如欲退貨,請在鑑賞期內將商品連同發票寄回,每張訂單限退一次。
4、鑑賞期非試用期,若您收到商品經檢視後有任何不合意之處,請立即依照退貨規定辦理退貨
1、若本網站已設團購價,請直接下訂即可。
2、如您需要其他類型產品團購,則請聯繫客服或直接將需求e-mail
至wunan2351960@gmail.com即可
一、購物說明 1.本站商品近60萬筆。(商品圖片、出版日期等相關資訊僅供參考,出貨一律是最新版本) ◎請注意:上架商品不等於一定可以出貨。(會有缺書而訂不到書的狀況,敬請體諒) 2.當您下訂時,我們會向出版訂書(約7-10個工作天)(政府出版品因受限於採購程序,平均補貨作業時間約 2~6週)。如有久候,敬請見諒。當出版社回覆缺書時,我們只能取消您的訂單。 3.當您下訂時您必須同意:訂單成立的第14天起,因缺某一本書無法出貨的訂單,本站有權利自動取消您的訂單。◎請注意:缺書取消訂單我們統一發送簡訊通知。如果您要部份出貨者,請留言後再重新下單。 4.、本站保留出貨的權利。 二、運費說明 1.宅配到府:滿999元免運費,未滿則加收65元(台灣本島),離島一律加收120元 2.五南門市取貨:未滿350,運費20元 3.揪團:免運費 三、退貨與退款說明 五南會員所購買的商品均享有取貨7天的猶豫期﹝包含國定假日、例假日﹞,退換貨之商品必需於取貨7天內辦理退換貨,否則恕不接受退換貨。 1.請注意!下列商品購買後不提供7天的猶豫期,請務必詳閱商品說明並再次確認確實有購買該項商品之需求及意願時始下單購買,有任何疑問並請先聯繫客服詢問: (1)客製化之商品。 (2)買斷不退之商品。 (3)報紙、期刊或雜誌。 (4)經消費者拆封之影音商品或電腦軟體。 (5)下載版軟體、資訊及電子書。 (6)涉及個人衛生,並經消費者拆封之商品,如:內衣褲、刮鬍刀…等。 (7)藝文展覽票券、藝文表演票券。 (8)易於腐敗、保存期限較短或解約時即將逾期。 2.退貨退款詳細說明: (1)如欲退貨,請在鑑賞期內將商品連同發票寄回,每張訂單限退一次。 (2)退換貨政策:請在收到商品後,立刻檢查商品是否正確,如果有問題或瑕疵,請於7天猶豫期內完成退換貨申請手續。辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 (3)退款說明:請您填寫退貨退款書,若您採信用卡付款,由客服人員辦理刷退手續。若採其他付款方式,我們會將退款,匯款至指定帳戶。以上需要14個工作天。 (4)退貨退款書請至【客服中心】點選『退換商品】的說明中下載。
1.每日09:00前截止訂單,包含出貨通知、缺書通知等。 3.上午9:00點以前下單,可在當日下午17:00以後,查詢出貨進度。例假日除外 4.上午9:00以後在下單,需在隔日17:00以後,方能查詢訂單出貨進度。例假日除外 5.當你使匯款或轉帳時,請務必提供帳戶末5碼之資訊,請拍照email或傳真給我方,否則須等與銀行確認後,才能出貨。 6.出貨是以下單時間為出貨先後的順序,也就是請先下單再查詢庫存,因為就算查完庫存,也可能無法先為你保留書籍(政府出版品因受限於採購程序,平均補貨作業時間約 2~6週)。
|
|
|
|
|
|
 |
業界實戰親授:大型語言模型微調、最佳化、佈署一次到位
出版日期:2025-06-18
ISBN:9786267569931
定價:980元
特價:90折!882元
參考分類(CAT):
參考分類(CIP): 電腦科學