讓 AI 好好說話!從頭打造 LLM(大型語言模型)實戰秘笈

{{ _getLangText('m_detailInformation_goodsAuthorText') }}Sebastian Raschka
{{ _getLangText('m_detailInformation_goodsPublisherText') }}旗標科技
2025年01月21日
ISBN:9789863128236
{{ _getLangText('m_detailInformation_goodsTips1Text') }}
{{ _getLangText('m_detailInformation_goodsActivityText') }}
{{ activityObj.name }}

{{ _getLangText("m_detailIntroduction_goodsIntroductionText") }}

用自己的電腦也能從零開始建構 LLM 模型!


LLM 的參數真的非常多~ 動輒就數千億個參數,一般家用電腦是跑不動的;再加上 LLM 模型架構、注意力機制的運作都非常複雜,要深入理解也有不小的門檻。


★ 機器學習專家 Sebastian Raschka 特別規劃了一整套的教練式教學,透過較小型的資料集,讓您能在一般電腦上跟著步驟實作,並逐步理解大型語言模型的架構與技術!

- 本書涵蓋了建構 LLM 的完整過程,包括處理資料集、實作模型架構、注意力機制、使用無標籤的資料進行預訓練,以及針對特定任務的微調技術 (分類任務微調與指令微調)。

- 書中每一步驟都有清楚的文字、圖解和程式範例,帶著你從零開始撰寫一個基礎模型,並將其進化為文本分類工具,最終創建一個能夠理解並回應對話指令的聊天機器人。


★ 經驗豐富的開發者與初學者,都可以學習到如何一步步建構一個 GPT,掌握創建 LLM 所需的基本概念與實作技巧!

- 如果是具備基礎機器學習知識、中階 Python 技能的讀者,作者提供了許多額外資源,包含完整程式碼範例 (GitHub 儲存庫)、參考文獻與延伸閱讀 (像是如何應用更大規模的模型參數)、優化訓練迴圈與進階的 LoRA 微調方法,讓您可以再進一步深入學習,持續往專家邁進!

- 對於初學者來說,作者在附錄中有提供 PyTorch 基礎知識與安裝解說,而小編則在內文中適當添加註解,幫助讀者能更好地理解內容。另外,旗標更準備了 Colab 線上資源,讓您理論、實作都能暢通無阻。就算是程式語言小白,初入門也能無痛學習、打好 LLM 的基礎~


一起提前起跑,搶佔 LLM 理論知識與 GPT 模型實作的先機,為自己投資一個無限的未來!


● 長年 4.5 顆星好評並翻譯成多國語言的暢銷書《Python Machine Learning》作者 Sebastian Raschka 又一最新力作

● 本書於 Amazon 上獲 4.7 顆星好評,並榮登排行榜(人工智慧相關類別)第一名

● 作者在 Github 儲存庫上提供的本書學習資源,到目前為止已獲得 36,600 顆 ★ 關注

● 作者於 YouTube 上介紹本書的影片,已超過 7 萬點閱人次

● 從零開始實作,讓您能逐步理解 LLM 的架構與關鍵技術

● 每一個實作過程都有清楚的圖解與程式範例,清楚講解建構 LLM 模型的基礎組件

● 在本書中,您可以學習到~

✔ 使用小型資料集,用自己的電腦就能實作出專屬自己的 GPT 模型

✔ 透過自定義的 Tokenizer、Dataloader 等,了解 LLM 模型的基礎概念與技術

✔ 逐步引領注意力機制(自注意力、因果注意力、多頭注意力)的概念與實作

✔ 自行準備適合用來訓練的資料集,並嘗試預訓練模型

✔ 學習載入 OpenAI 公開的預訓練權重,降低預訓練成本

✔ 針對特定任務進行微調(分類微調、指示微調),以及評估模型效能