 |
|
|
| |
|
LLM竟然這麼靠近 - 使用llama模型建立大模型本機系統
|
|
|
|
|
|
出版日期:2025-03-19
|
|
ISBN:9786267569634
|
|
定價:980元
特價:90折!882元
|
|
|
|
參考分類(CAT):
|
|
參考分類(CIP): 電腦科學
|
|
|
|
|
|
|
|
|
內容簡介 LLM竟然這麼靠近 - 使用llama模型建立大模型本機系統
https://youtu.be/S7MsG6xZp6Y
✴︎ 感知機架構,包括前饋網路與反向傳播演算法
✴︎ Sigmoid、ReLU啟動函數與Adam、RMSProp最佳化方法
✴︎ Transformer模型組成與自注意力機制運作原理
✴︎ BERT、GPT等預訓練模型與大型語言模型訓練方法
✴︎ 詞嵌入技術講解,結合Word2Vec、標記嵌入及位置編碼方法
✴︎ LoRA與PEFT微調技術,並涵蓋LLM.int8()量化技術
✴︎ Gradio工具應用介紹,支援互動式推理與多輪對話開發
✴︎ 量化技術分析,包括NF4、BitsAndBytes與QLoRA模型應用
✴︎ 模型評估方法,涵蓋困惑度、BLEU、ROUGE與HellaSwag指標
✴︎ 中文語料處理,涵蓋預訓練語料準備與AutoTokenizer應用
✴︎ 推理加速技術分析,包含DeepSpeed、FSDP與GPTQ高效實現
✴︎ 向量資料庫應用,講解PGVector安裝及詞向量檢索範例 作者介紹 范煜
江蘇南通人,畢業於南京航空航天大學,研究員級高級工程師,中國商業聯合會數據分析專業委員會專家組成員,南通理工學院教師,上海范思軟件有限公司創始人,中國移動集團、51CTO外聘講師,在全國各地講授大數據、數據分析人工智能、大語言模型等方面課程。研發了Fancy Q&A大語言模型應用開發平台。著有《人工智能與ChatGPT》《數據革命:大數據價值實現方法、技術與案例》。兼具人工智能、大數據、軟件、工業控制(嵌入式系統和軟PLC)技術背景。目前主要從事基於大語言模型的知識庫建設與知識問答應用的研究和開發。 目次 第 1 章 自然語言處理
1.1 人工智慧的技術組成
1.1.1 機器學習和深度學習的區別
1.1.2 表示學習與深度學習的關係
1.2 自然語言處理的發展階段
1.3 規則驅動的方法
1.4 統計方法
1.4.1 隱馬可夫模型
1.4.2 條件隨機場
1.5 深度學習方法
1.5.1 Word2Vec 詞嵌入
1.5.2 循環神經網路
1.5.3 長短時記憶網路模型
1.5.4 門控循環單元模型
1.6 序列到序列模型
1.7 注意力機制
1.8 Transformer 模型
1.9 預訓練模型
1.10 大型語言模型
1.10.1 根據架構分類
1.10.2 根據訓練方式和預測方式分類
第 2 章 深度學習基礎
2.1 深度學習
2.2 感知機
2.2.1 前饋網路
2.2.2 權重更新
2.2.3 反向傳播
2.3 啟動函數
2.3.1 常用啟動函數
2.3.2 新型啟動函數
2.4 最佳化函數(演算法)
2.4.1 梯度下降法
2.4.2 動量最佳化演算法
2.4.3 AdaGrad 最佳化演算法
2.4.4 RMSProp 最佳化演算法
2.4.5 Adam 最佳化演算法
2.4.6 AdamW 最佳化演算法
2.5 權值初始化
2.5.1 批次歸一化
2.5.2 層歸一化
2.5.3 RMSNorm
2.6 損失函數
2.6.1 均方誤差
2.6.2 均方根誤差
2.6.3 交叉熵損失
2.7 模型評估
2.7.1 偏差/ 方差
2.7.2 過擬合與欠擬合
2.8 正規化
2.9 SoftMax 函數
2.10 簡易神經網路架設
2.11 模型最佳化
2.11.1 梯度消失
2.11.2 梯度爆炸
2.11.3 最佳化方法
2.11.4 調參技巧
第 3 章 PyTorch 開發基礎
3.1 深度學習框架
3.2 PyTorch 簡介
3.3 PyTorch 安裝
3.3.1 CUDA 安裝
3.3.2 阿里雲GPU 雲端伺服器
3.3.3 安裝PyTorch
3.3.4 安裝其他函數庫
3.3.5 檢查開發環境
3.4 張量
3.4.1 張量建立函數定義
3.4.2 張量建立函數清單
3.4.3 隨機張量:torch.randn()
3.4.4 張量操作
3.4.5 CUDA 張量
3.5 梯度計算
3.5.1 導數與偏導數
3.5.2 導數規則
3.5.3 梯度
3.5.4 公式推
3.5.5 自動梯度計算
3.5.6 程式解析
3.6 反向傳播
3.7 torch.nn 模組建構神經網路
3.7.1 nn.Linear 層
3.7.2 nn.Sigmoid 啟動函數
3.7.3 nn.BCELoss 損失函數
3.8 torch.optim 最佳化器
3.9 訓練、驗證和測試過程
3.10 用PyTorch 實現神經網路
3.10.1 實現單層感知機
3.10.2 實現簡單神經網路
3.10.3 用torch.nn 實現簡單神經網路
3.11 原始程式碼常用模組
3.11.1 nn.Parameter 類別
3.11.2 typing 模組
3.11.3 logging 模組
3.11.4 dataclasses
3.11.5 Fire 函數庫
第 4 章 Transformer 模型詳解
4.1 大型語言模型的簡介和分類
4.1.1 簡介
4.1.2 分類
4.2 Transformer 模型
4.2.1 模型組成
4.2.2 因果解碼器結構
4.3 分詞
4.3.1 詞彙表
4.3.2 詞彙表的生成
4.3.3 分詞演算法
4.3.4 位元組對編碼
4.3.5 句子部分
4.3.6 分詞過程
4.3.7 詞彙索引
4.4 詞嵌入
4.4.1 標記嵌入
4.4.2 位置編碼
4.4.3 詞彙索引和詞嵌入向量關係
4.5 位置編碼方法
4.5.1 原生位置編碼
4.5.2 旋轉位置編碼
4.5.3 位置編碼的實現
4.5.4 Llama 位置編碼
4.5.5 長度擴充
4.6 自注意力機制
4.6.1 原理
4.6.2 注意力分數的計算
4.6.3 多頭注意力機制
4.6.4 分組查詢注意力
4.6.5 Llama 2 原始程式碼分析
4.7 殘差連接和層歸一化
4.7.1 預先歸一化
4.7.2 RMSNorm
4.7.3 Llama 2 原始程式碼分析
4.8 前饋網路
4.8.1 啟動函數
4.8.2 前饋網路隱藏層維度
4.8.3 Llama 2 原始程式碼分析
4.8.4 演示程式
4.9 損失函數
4.10 遮罩
4.11 PyTorch 的nn.Transformer 模組
4.11.1 模組元件
4.11.2 __call__ 函數
4.11.3 最簡單的標準Transformer 模型
4.11.4 純解碼器模型
4.11.5 Llama 2 模型
第 5 章 大型語言模型
5.1 什麼是大型語言模型
5.2 GPT 簡介
5.3 Llama 簡介
5.4 Llama 的訓練
5.4.1 訓練資料
5.4.2 預訓練
5.5 Llama 2 chat
5.5.1 監督微調
5.5.2 基於人類回饋的強化學習
5.6 Llama 2 模型結構
5.7 Llama 2 權重資料夾
5.8 參數量計算
5.8.1 標準Transformer 解碼器模型
5.8.2 Llama 2 模型
5.8.3 用Transformers 模組計算
5.8.4 直接解析模型檔案
第 6 章 大型語言模型模型訓練
6.1 模型訓練的種類
6.2 Hugging Face 訓練環境
6.3 Transformers 函數庫
6.3.1 主要功能
6.3.2 函數
6.4 訓練程式
6.5 分詞處理
6.5.1 相關名詞
6.5.2 input IDs
6.5.3 特殊標記
6.5.4 AutoTokenizer
6.5.5 分詞
6.5.6 底線
6.5.7 填空
6.6 量化技術
6.6.1 8 位元量化技術
6.6.2 LLM.int8()
6.6.3 NF4 和QLoRA
6.6.4 BitsAndBytes 模型
6.7 最佳化技術
6.7.1 LoRA
6.7.2 PEFT 函數庫
6.8 訓練程式範例
6.8.1 匯入庫和函數
6.8.2 參數定義
6.8.3 載入模型
6.8.4 載入分詞器
6.8.5 資料前置處理
6.8.6 用LoRA 權重調整模型
6.8.7 LoRA 模型訓練
6.8.8 模型的合併
6.8.9 模型推理
6.8.10 載入多個LoRA 並隨時切換
6.9 加速技術和工具
6.9.1 DeepSpeed
6.9.2 FairScale
6.9.3 GPTQ
6.9.4 FSDP
6.10 超長上下文
6.10.1 外插能力
6.10.2 外插方法
6.10.3 StreamingLLM
第 7 章 模型微調
7.1 監督微調
7.2 開源資料集
7.3 資料集存取
7.3.1 datasets 函數庫
7.3.2 datasets 常用的函數和類別
7.3.3 載入資料集
7.3.4 資料集的處理
7.4 開放原始碼微調資料集
7.4.1 主要資料集
7.4.2 資料集格式
7.4.3 SQuAD
7.4.4 OSSIST1 資料集格式
7.4.5 格式轉換程式及分析
7.5 主要的微調模型
7.5.1 Alpaca 羊駝
7.5.2 Vicuna 小羊駝
7.5.3 LLaMA.cpp
7.5.4 Guanco
第 8 章 人類回饋強化學習
8.1 強化學習架構
8.2 演員- 評論家架構
8.3 近端策略最佳化架構
8.4 DeepSpeed Chat
8.5 開放原始碼RLHF 資料集
8.6 訓練資料讀取
8.6.1 第1 步:SFT 監督微調資料
8.6.2 第2 步:獎勵模型微調資料
8.6.3 第3 步:RLHF 微調資料
8.7 監督微調
8.8 獎勵模型微調
8.9 RLHF 微調
8.9.1 程式執行環境
8.9.2 準備訓練資料
8.9.3 建立模型
8.9.4 演員模型、參考模型生成對數機率
8.9.5 計算對數機率
8.9.6 計算期望獎勵
8.9.7 KL 散度
8.9.8 計算實際獎勵
8.9.9 優勢函數
8.9.10 計算優勢和回報
8.9.11 損失函數
第 9 章 模型推理
9.1 模型檔案
9.2 推理
9.2.1 單輪推理
9.2.2 多輪推理
9.3 GPU 推理
9.3.1 單卡
9.3.2 多卡
9.3.3 多機
9.4 Hugging Face Transformers 函數庫
9.4.1 簡介
9.4.2 Pipeline API
9.4.3 Model and Tokenizer API
9.4.4 單輪推理
9.4.5 多輪推理
9.4.6 LoRA 推理
9.4.7 vLLM
9.5 LLaMA.cpp
9.5.1 特色與優勢
9.5.2 模型量化
9.5.3 k-quant 量化
9.5.4 開發環境安裝
9.5.5 建構執行程式
9.5.6 轉換模型
9.5.7 推理
9.6 Gradio
9.6.1 簡介
9.6.2 基本用法
9.6.3 複雜互動
9.6.4 聊天機器人
9.6.5 Gradio 多輪推理
9.7 解碼策略
9.7.1 常見解碼策略
9.7.2 推理超參數
9.7.3 溫度
9.7.4 top-k
9.7.5 top-p
9.7.6 重複懲罰
9.7.7 程式實現
9.8 推理加速技術
9.8.1 簡介
9.8.2 純C 推理
9.8.3 投機採樣
9.8.4 Medusa
9.8.5 流式推理
第 10 章 中文私有模型開發
10.1 基本思路
10.2 中文詞彙表
10.3 模型下載
10.3.1 安裝Git LFS
10.3.2 獲取下載連結
10.3.3 直接點擊連結分檔案逐一下載
10.4 開發方案
10.4.1 演示系統開發
10.4.2 生產系統開發
10.4.3 實訓系統開發
10.5 中文語料
10.5.1 預訓練語料
10.5.2 微調資料集
第 11 章 模型評估
11.1 大型語言模型評估
11.2 評估指標
11.2.1 困惑度
11.2.2 HellaSwag
11.2.3 BLEU
11.2.4 ROUGE
11.3.5 METEOR
11.3 基於上下文的學習
11.4 Llama 2 預訓練模型的評估
11.5 MMLU
11.6 標準基準測試
11.7 程式生成
11.7.1 Human-Eval 程式生成基準測試
11.7.2 MBPP 程式生成基準測試
11.8 考試AGI Eval
11.9 GSM8K
11.10 世界知識
11.10.1 NaturalQuestions
11.10.2 TriviaQA
11.11 通義千問評測
11.12 BBH
第 12 章 用於RAG 的詞向量計算
12.1 資訊整合
12.2 向量資料庫
12.3 詞向量
12.4 嵌入向量生成模型
12.5 池化技術
12.6 計算詞向量
12.6.1 使用OpenAI
12.6.2 使用Hugging Face
12.6.3 使用Llama 2
12.7 批次生成嵌入向量
12.8 池化演算法
12.9 詞向量文件檢索
12.10 範例
12.10.1 PGVector 簡介
12.10.2 PGVector 安裝
12.10.3 向量資料庫操作
參考文獻
1、五南網路會員所購買的商品均享有取貨7天的鑑賞期﹝包含國定假日、例假日﹞,退換貨之商品必需於取貨7天內辦理退換貨,否則恕不接受退換貨。
2、依照消費者保護法規定,凡消費者於網站購物均享有7天商品鑑賞期,唯需注意辦理退貨商品需保留完整外包裝、附件、外盒等等,才可辦理退貨。
3、如欲退貨,請在鑑賞期內將商品連同發票寄回,每張訂單限退一次。
4、鑑賞期非試用期,若您收到商品經檢視後有任何不合意之處,請立即依照退貨規定辦理退貨
1、若本網站已設團購價,請直接下訂即可。
2、如您需要其他類型產品團購,則請聯繫客服或直接將需求e-mail
至wunan2351960@gmail.com即可
一、購物說明 1.本站商品近60萬筆。(商品圖片、出版日期等相關資訊僅供參考,出貨一律是最新版本) ◎請注意:上架商品不等於一定可以出貨。(會有缺書而訂不到書的狀況,敬請體諒) 2.當您下訂時,我們會向出版訂書(約7-10個工作天)(政府出版品因受限於採購程序,平均補貨作業時間約 2~6週)。如有久候,敬請見諒。當出版社回覆缺書時,我們只能取消您的訂單。 3.當您下訂時您必須同意:訂單成立的第14天起,因缺某一本書無法出貨的訂單,本站有權利自動取消您的訂單。◎請注意:缺書取消訂單我們統一發送簡訊通知。如果您要部份出貨者,請留言後再重新下單。 4.、本站保留出貨的權利。 二、運費說明 1.宅配到府:滿999元免運費,未滿則加收65元(台灣本島),離島一律加收120元 2.五南門市取貨:未滿350,運費20元 3.揪團:免運費 三、退貨與退款說明 五南會員所購買的商品均享有取貨7天的猶豫期﹝包含國定假日、例假日﹞,退換貨之商品必需於取貨7天內辦理退換貨,否則恕不接受退換貨。 1.請注意!下列商品購買後不提供7天的猶豫期,請務必詳閱商品說明並再次確認確實有購買該項商品之需求及意願時始下單購買,有任何疑問並請先聯繫客服詢問: (1)客製化之商品。 (2)買斷不退之商品。 (3)報紙、期刊或雜誌。 (4)經消費者拆封之影音商品或電腦軟體。 (5)下載版軟體、資訊及電子書。 (6)涉及個人衛生,並經消費者拆封之商品,如:內衣褲、刮鬍刀…等。 (7)藝文展覽票券、藝文表演票券。 (8)易於腐敗、保存期限較短或解約時即將逾期。 2.退貨退款詳細說明: (1)如欲退貨,請在鑑賞期內將商品連同發票寄回,每張訂單限退一次。 (2)退換貨政策:請在收到商品後,立刻檢查商品是否正確,如果有問題或瑕疵,請於7天猶豫期內完成退換貨申請手續。辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 (3)退款說明:請您填寫退貨退款書,若您採信用卡付款,由客服人員辦理刷退手續。若採其他付款方式,我們會將退款,匯款至指定帳戶。以上需要14個工作天。 (4)退貨退款書請至【客服中心】點選『退換商品】的說明中下載。
1.每日09:00前截止訂單,包含出貨通知、缺書通知等。 3.上午9:00點以前下單,可在當日下午17:00以後,查詢出貨進度。例假日除外 4.上午9:00以後在下單,需在隔日17:00以後,方能查詢訂單出貨進度。例假日除外 5.當你使匯款或轉帳時,請務必提供帳戶末5碼之資訊,請拍照email或傳真給我方,否則須等與銀行確認後,才能出貨。 6.出貨是以下單時間為出貨先後的順序,也就是請先下單再查詢庫存,因為就算查完庫存,也可能無法先為你保留書籍(政府出版品因受限於採購程序,平均補貨作業時間約 2~6週)。
|
|
|
|
|
|
 |
LLM竟然這麼靠近 - 使用llama模型建立大模型本機系統
出版日期:2025-03-19
ISBN:9786267569634
定價:980元
特價:90折!882元
參考分類(CAT):
參考分類(CIP): 電腦科學