GPT圖解

GPT圖解 pdf epub mobi txt 電子書 下載2025

出版者:
作者:黃佳
出品人:異步圖書
頁數:254
译者:
出版時間:2023-12
價格:79.80元
裝幀:平裝
isbn號碼:9787115623683
叢書系列:
圖書標籤:
  • GPT
  • 人工智能
  • 機器學習
  • 深度學習
  • 自然語言處理
  • 圖解
  • 科普
  • 技術入門
  • AI
  • 模型
想要找書就要到 小美書屋
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

具體描述

人工智能(AI),尤其是生成式語言模型和生成式人工智能(AIGC)模型,正以驚人的速度改變著我們的世界。駕馭這股潮流的關鍵,莫過於探究自然語言處理(NLP)技術的深奧秘境。本書將帶領讀者踏上一段扣人心弦的探索之旅,讓其親身感受,並動手搭建語言模型。本書主要內容包括N-Gram,詞袋模型(BoW),Word2Vec(W2V),神經概率語言模型(NPLM),循環神經網絡(RNN),Seq2Seq(S2S),注意力機製,Transformer,從初代GPT到ChatGPT再到GPT-4等一係列突破性技術的誕生與演進。

本書將以生動活潑的筆觸,將枯燥的技術細節化作輕鬆幽默的故事和繽紛多彩的圖畫,引領讀者穿梭於不同技術的時空,見證自然語言處理技術的傳承、演進與蛻變。在這場不斷攀登技術新峰的奇妙之旅中,讀者不僅能深入理解自然語言處理技術的核心原理,還能自己動手,從零開始搭建起一個又一個語言模型。

無論你是在校學生還是人工智能從業者,這本書都將成為一盞明燈,照亮你探索人工智能無限奧秘的道路。

著者簡介

黃佳,筆名咖哥,新加坡科技研究局人工智能研究員。主攻方嚮為 NLP 大模型的研發與應用、持續學習、AI in FinTech。黃佳深耕人工智能領域多年,積纍瞭豐富的科研項目和政府、銀行、能源、醫療等領域 AI 項目落地實戰經驗,目前正與 PlatoX.AI 展開富有前景的技術閤作。曾著有《零基礎學機器學習》《數據分析咖哥十話》等多部暢銷書。同時,在極客時間開設專欄《零基礎實戰機器學習》《LangChain 實戰課》,在深藍學院開設視頻課程“生成式預訓練語言模型:理論與實戰”。

圖書目錄

序章 看似尋常最奇崛,成如容易卻艱辛 001
GPT-4:點亮人工通用智能的火花 002
人工智能演進之路:神經網絡兩落三起 004
現代自然語言處理:從規則到統計 007
何為語言?信息又如何傳播? 008
NLP是人類和計算機溝通的橋梁 009
NLP技術的演進史 010
大規模預訓練語言模型:BERT與GPT爭鋒 012
語言模型的誕生和進化 012
統計語言模型的發展曆程 014
基於Transformer架構的預訓練模型 016
“預訓練+微調大模型”的模式 018
以提示/指令模式直接使用大模型 019
從初代GPT到ChatGPT,再到GPT-4 021
GPT作為生成式模型的天然優勢 022
ChatGPT背後的推手——OpenAI 023
從初代GPT到ChatGPT,再到GPT-4的進化史 024
第1課 高樓萬丈平地起:語言模型的雛形N-Gram和簡單文本錶示Bag-of-Words 026
1.1 N-Gram模型 026
1.2 “詞”是什麼,如何“分詞” 030
1.3 創建一個Bigram字符預測模型 032
1.4 詞袋模型 036
1.5 用詞袋模型計算文本相似度 037
小結 042
思考 043
第2課 問君文本何所似: 詞的嚮量錶示Word2Vec和Embedding 044
2.1 詞嚮量 ≈ 詞嵌入 045
2.2 Word2Vec:CBOW模型和Skip-Gram模型 047
2.3 Skip-Gram模型的代碼實現 050
2.4 CBOW模型的代碼實現 061
2.5 通過nn.Embedding來實現詞嵌入 063
小結 067
思考 068
第3課 山重水復疑無路:神經概率語言模型和循環神經網絡 069
3.1 NPLM的起源 070
3.2 NPLM的實現 072
3.3 循環神經網絡的結構 079
3.4 循環神經網絡實戰 082
小結 086
思考 087
第4課 柳暗花明又一村:Seq2Seq編碼器-解碼器架構 088
4.1 Seq2Seq架構 089
4.2 構建簡單Seq2Seq架構 092
小結 103
思考 103
第5課 見微知著開慧眼:引入注意力機製 104
5.1 點積注意力 105
5.2 縮放點積注意力 114
5.3 編碼器-解碼器注意力 116
5.4 注意力機製中的Q、K、V 122
5.5 自注意力 125
5.6 多頭自注意力 126
5.7 注意力掩碼 129
5.8 其他類型的注意力 131
小結 132
思考 132
第6課  層巒疊翠上青天:搭建GPT核心組件Transformer 133
6.1 Transformer架構剖析 133
6.1.1 編碼器-解碼器架構 135
6.1.2 各種注意力的應用 135
6.1.3 編碼器的輸入和位置編碼 140
6.1.4 編碼器的內部結構 141
6.1.5 編碼器的輸齣和編碼器-解碼器的連接 142
6.1.6 解碼器的輸入和位置編碼 143
6.1.7 解碼器的內部結構 145
6.1.8 解碼器的輸齣和Transformer的輸齣頭 146
6.2 Transformer代碼實現 148
6.3 完成翻譯任務 176
6.3.1 數據準備 177
6.3.2 訓練Transformer模型 179
6.3.3 測試Transformer模型 179
小結 181
思考 182
第7課 芳林新葉催陳葉:訓練齣你的簡版生成式GPT 183
7.1 BERT與GPT爭鋒 184
7.2 GPT:生成式自迴歸模型 188
7.3 構建GPT模型並完成文本生成任務 191
7.3.1 搭建GPT模型(解碼器)    192
7.3.2 構建文本生成任務的數據集    195
7.3.3 訓練過程中的自迴歸    198
7.3.4 文本生成中的自迴歸(貪婪搜索)    200
7.4 使用WikiText2數據集訓練Wiki-GPT模型 201
7.4.1 用WikiText2構建Dataset和DataLoader    202
7.4.2 用DataLoader提供的數據進行訓練    206
7.4.3 用Evaluation Dataset評估訓練過程    207
7.4.4 文本生成中的自迴歸(集束搜索)    209
小結 212
思考 213
第8課 流水後波推前波:ChatGPT基於人類反饋的強化學習 214
8.1 從GPT到ChatGPT 215
8.2 在Wiki-GPT基礎上訓練自己的簡版ChatGPT 218
8.3 用Hugging Face預訓練GPT微調ChatGPT 225
8.4 ChatGPT的RLHF實戰 233
8.4.1 強化學習基礎知識    235
8.4.2 簡單RLHF實戰    237
小結 243
思考 244
第9課 生生不息的循環:使用強大的GPT-4 API 245
9.1 強大的OpenAI API 245
9.2 使用GPT-4 API 249
小結 251
思考 252
後 記 莫等閑,白瞭少年頭 253
· · · · · · (收起)

讀後感

評分

本书通过丰富的图例和深入浅出的解释,帮助读者全面了解GPT大模型的架构、工作原理及优势。它不仅为我们揭示了GPT大模型的构建方法和工作原理,还通过生动的图例和清晰的解释,帮助我们更好地理解和掌握这一先进的技术。本书通过丰富的图例和深入浅出的解释,帮助读者全面了解G...

評分

AIGC技术如今已经如火如荼,许多文案写作,绘画制作都依赖于AIGC技术自动生成基础的图片与文案。除了日常聊天,文案写作,基于GPT模型诞生的许多工具陆陆续续步入我们的工作生活。然而,你真的懂什么是GPT么?人工智能、自然语言处理又是如何发展至今的呢? 黄佳(咖哥)是新加...  

評分

AIGC技术如今已经如火如荼,许多文案写作,绘画制作都依赖于AIGC技术自动生成基础的图片与文案。除了日常聊天,文案写作,基于GPT模型诞生的许多工具陆陆续续步入我们的工作生活。然而,你真的懂什么是GPT么?人工智能、自然语言处理又是如何发展至今的呢? 黄佳(咖哥)是新加...  

評分

书的封面很好看,看到第一眼就被封面上的小人吸引了。 很好奇书里的内容,买回来发现确实是我想要的图解书了。 图书内容也是轻松易读,感觉很不错呢。 话说,豆瓣要写多少字啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊啊  

評分

本书通过丰富的图例和深入浅出的解释,帮助读者全面了解GPT大模型的架构、工作原理及优势。它不仅为我们揭示了GPT大模型的构建方法和工作原理,还通过生动的图例和清晰的解释,帮助我们更好地理解和掌握这一先进的技术。本书通过丰富的图例和深入浅出的解释,帮助读者全面了解G...

用戶評價

评分

咖哥好有創意!書裏的中文大模型“雕龍一拍”與百度的“文心一言”相照應,來源於《文心雕龍》和《三言二拍》。

评分

本書以“古詩詞+章節內容”的形式為每個講解不同語言模型的篇章命名,多為古詩詞的改編,加上暗喻,用字數簡短但是意蘊深厚的古詩詞提煉大模型的特徵、語言模型的發展脈絡,讓知識點直觀、易懂、易記。

评分

真的很不錯,強烈推薦。

评分

咖哥好有創意!書裏的中文大模型“雕龍一拍”與百度的“文心一言”相照應,來源於《文心雕龍》和《三言二拍》。

评分

我想說我很喜歡佳哥書中章迴體小說的章節標題,同時書中的配圖對於我學習理解相關技術起到瞭很大的幫助。

本站所有內容均為互聯網搜索引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 book.quotespace.org All Rights Reserved. 小美書屋 版权所有