三级一区在线视频先锋_丁香另类激情小说_中文字幕一区二区三_一本一道久久a久久精品综合蜜臀_一区二区三区四区国产精品_日韩**一区毛片_在线观看日韩电影_1000部国产精品成人观看_免费不卡在线视频_亚洲国产日日夜夜_国产亚洲精品福利_亚洲精品一区二区三区在线观看_欧美美女一区二区三区_日韩欧美色电影_欧美aaa在线_久久这里只有精品6

讀書月攻略拿走直接抄!
歡迎光臨中圖網 請 | 注冊
> >>
基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理

包郵 基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理

出版社:清華大學出版社出版時間:2024-01-01
開本: 其他 頁數: 376
中 圖 價:¥69.9(7.0折) 定價  ¥99.8 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>
買過本商品的人還買了

基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理 版權信息

基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理 本書特色

在不到4 年的時間里,Transformer 模型以其強大的性能和創新的思想,迅速在NLP 社區嶄露頭角,打破了過去30 年的記錄。BERT、T5 和GPT 等模型現在已成為計算機視覺、語音識別、翻譯、蛋白質測序、編碼等各個領域中新應用的基礎構件。因此,斯坦福大學*近提出了“基礎模型”這個術語,用于定義基于巨型預訓練Transformer 的一系列大型語言模型。所有這些進步都歸功于一些簡單的想法。
《基于GPT-3、ChatGPT、GPT-4等Transformer架構的自然語言處理》可作為所有對Transformer 工作原理感興趣的人的參考書。作者在理論和實踐兩方面都做出了出色的工作,詳細解釋了如何逐步使用Transformer。閱讀完本書后,你將能使用這一*先進的技術集合來增強你的深度學習應用能力。本書在詳細介紹BERT、RoBERTa、T5 和GPT-3 等流行模型前,先講述了Transformer 的架構以便為你的學習奠定堅實基礎。本書還講述了如何將Transformer 應用于許多用例,如文本摘要、圖像標注、問答、情感分析和假新聞分析等。
如果你對這些主題感興趣,那么本書絕對是值得一讀的。
——Antonio Gulli
Google 工程總監Antonio Gulli

基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理 內容簡介

Transformer正在顛覆AI領域。市面上有這么平臺和Transformer模型,哪些*符合你的需求? 將引領你進入Transformer的世界,將講述不同模型和平臺的優勢,指出如何消除模型的缺點和問題。本書將引導你使用Hugging Face從頭開始預訓練一個RoBERTa模型,包括構建數據集、定義數據整理器以及訓練模型等。 《基于GPT-3、ChatGPT、GPT-4等Transformer架構的自然語言處理》分步展示如何微調GPT-3等預訓練模型。研究機器翻譯、語音轉文本、文本轉語音、問答等NLP任務,并介紹解決NLP難題的技術,甚至幫助你應對假新聞焦慮(詳見第13章)。 從書中可了解到,諸如OpenAI的高級平臺將Transformer擴展到語言領域、計算機視覺領域,并允許使用DALL-E 2、ChatGPT和GPT-4生成代碼。通過本書,你將了解到Transformer的工作原理以及如何實施Transformer來決NLP問題。 主要內容 ? 了解用于解決復雜語言問題的新技術 ? 將GPT-3與T5、GPT-2和基于BERT的Transformer的結果進行對比 ? 使用TensorFlow、PyTorch和GPT-3執行情感分析、文本摘要、非正式語言分析、機器翻譯等任務 ? 了解ViT和CLIP如何標注圖像(包括模糊化),并使用DALL-E從文本生成圖像 ? 學習ChatGPT和GPT-4的高級提示工程機制

基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理 目錄

第1 章 Transformer 模型介紹 1
1.1 Transformer 的生態系統 2
1.1.1 工業4.0 2
1.1.2 基礎模型 3
1.2 使用Transformer 優化NLP模型 6
1.3 我們應該使用哪些資源 8
1.3.1 Transformer 4.0 無縫API 的崛起 9
1.3.2 選擇即用型API驅動庫 11
1.3.3 選擇Transformer模型 11
1.3.4 工業4.0 AI 專家的技能要求 12
1.4 本章小結 13
1.5 練習題 14
第2 章 Transformer 模型架構入門 15
2.1 Transformer 的崛起:注意力就是一切 16
2.1.1 編碼器堆疊 17
2.1.2 解碼器堆疊 37
2.2 訓練和性能 40
2.3 Hugging Face 的Transformer模型 40
2.4 本章小結 41
2.5 練習題 42
第3 章 微調BERT 模型 43
3.1 BERT 的架構 44
3.2 微調BERT 50
3.2.1 選擇硬件 50
3.2.2 安裝使用BERT 模型必需的Hugging Face PyTorch接口 50
3.2.3 導入模塊 50
3.2.4 指定Torch 使用CUDA 51
3.2.5 加載數據集 51
3.2.6 創建句子、標注列表以及添加[CLS]和[SEP]詞元 53
3.2.7 激活BERT 詞元分析器 53
3.2.8 處理數據 54
3.2.9 防止模型對填充詞元進行注意力計算 54
3.2.10 將數據拆分為訓練集和驗證集 54
3.2.11 將所有數據轉換為torch張量 55
3.2.12 選擇批量大小并創建迭代器 55
3.2.13 BERT 模型配置 56
3.2.14 加載Hugging Face BERTuncased base 模型 57
3.2.15 優化器分組參數 59
3.2.16 訓練循環的超參數 59
3.2.17 訓練循環 60
3.2.18 對訓練進行評估 61
3.2.19 使用測試數據集進行預測和評估 62
3.2.20 使用馬修斯相關系數進行評估 63
3.2.21 各批量的分數 63
3.2.22 整個數據集的馬修斯評估 64
3.3 本章小結 64
3.4 練習題 65
第4 章 從頭開始預訓練RoBERTa模型 66
4.1 訓練詞元分析器和預訓練Transformer 67
4.2 從頭開始構建Kantai BERT 68
4.2.1 步驟1:加載數據集 68
4.2.2 步驟2:安裝HuggingFace transformers 庫 69
4.2.3 步驟3:訓練詞元分析器 70
4.2.4 步驟4:將詞元化結果保存到磁盤上 72
4.2.5 步驟5:加載預訓練詞元分析器文件 73
4.2.6 步驟6:檢查訓練用機器的配置:GPU 和CUDA 74
4.2.7 步驟7:定義模型的配置 75
4.2.8 步驟8:為Transformer模型加載詞元分析器 75
4.2.9 步驟9:從頭開始初始化模型 75
4.2.10 步驟10:構建數據集 79
4.2.11 步驟11:定義數據整理器 80
4.2.12 步驟12:初始化訓練器 80
4.2.13 步驟13:預訓練模型 81
4.2.14 步驟14:將*終模型( 詞元分析器 配置)保存到磁盤 81
4.2.15 步驟15:使用FillMask-Pipeline 進行語言建模 82
4.3 后續步驟 83
4.4 本章小結 83
4.5 練習題 84
第5 章 使用Transformer 處理下游NLP 任務 85
5.1 Transformer 的轉導與感知 86
5.1.1 人類智能棧 86
5.1.2 機器智能棧 88
5.2 Transformer 性能與人類基準 89
5.2.1 評估模型性能的度量指標 89
5.2.2 基準任務和數據集 90
5.2.3 定義SuperGLUE 基準任務 94
5.3 執行下游任務 99
5.3.1 語言學可接受性語料庫(CoLA) 99
5.3.2 斯坦福情緒樹庫(SST-2) 100
5.3.3 Microsoft 研究釋義語料庫(MRPC) 101
5.3.4 Winograd 模式 102
5.4 本章小結 102
5.5 練習題 103
第6 章 機器翻譯 104
6.1 什么是機器翻譯 105
6.1.1 人類轉導和翻譯 105
6.1.2 機器轉導和翻譯 106
6.2 對WMT 數據集進行預處理 106
6.2.1 對原始數據進行預處理 107
6.2.2 完成剩余的預處理工作 109
6.3 用BLEU 評估機器翻譯 112
6.3.1 幾何評估 112
6.3.2 平滑技術 114
6.4 Google 翻譯 115
6.5 使用Trax 進行翻譯 116
6.5.1 安裝Trax 116
6.5.2 創建原始Transformer模型 117
6.5.3 使用預訓練權重初始化模型 117
6.5.4 對句子詞元化 117
6.5.5 從Transformer解碼 118
6.5.6 對翻譯結果去詞元化并展示 118
6.6 本章小結 119
6.7 練習題 119
第7 章 GPT-3 120
7.1 具有GPT-3 Transformer模型的超人類NLP 121
7.2 OpenAI GPT Transformer模型的架構 122
7.2.1 10 億參數Transformer模型的興起 122
7.2.2 Transformer 模型擴大的歷史 123
7.2.3 從微調到零樣本 125
7.2.4 解碼器堆疊 126
7.2.5 GPT 引擎 127
7.3 使用GPT-2 進行文本補全 127
7.4 訓練自定義GPT-2 語言模型 129
7.5 使用OpenAI GPT-3 131
7.5.1 在線運行NLP 任務 131
7.5.2 GPT-3 引擎入門 133
7.6 比較GPT-2 和GPT-3 的輸出 138
7.7 微調GPT-3 139
7.7.1 準備數據 139
7.7.2 微調GPT-3 140
7.8 工業4.0 AI 專家所需的技能 141
7.9 本章小結 142
7.10 練習題 143
第8 章 文本摘要(以法律和財務文檔為例) 144
8.1 文本到文本模型 145
8.1.1 文本到文本Transformer模型的興起 145
8.1.2 使用前綴而不是任務格式 146
8.1.3 T5 模型 147
8.2 使用T5 進行文本摘要 149
8.2.1 Hugging Face 149
8.2.2 初始化T5-large模型 150
8.2.3 使用T5-large 進行文本摘要 153
8.3 使用GPT-3 進行文本摘要 158
8.4 本章小結 159
8.5 練習題 160
第9 章 數據集預處理和詞元分析器 161
9.1 對數據集進行預處理和詞元分析器 162
9.1.1 *佳實踐 162
9.1.2 Word2Vec 詞元化 165
9.2 深入探討場景4 和場景5 174
9.2.1 使用GPT-2 生成無條件樣本 174
9.2.2 生成條件樣本 176
9.2.3 控制詞元化數據 177
9.3 GPT-3 的NLU 能力 180
9.4 本章小結 181
9.5 練習題 181
第10 章 基于BERT 的語義角色標注 183
10.1 SRL 入門 184
10.1.1 語義角色標注的定義 184
10.1.2 使用基于BERT 的預訓練模型進行SRL 185
10.2 基于BERT 模型的SRL
實驗 186
10.3 基本示例 187
10.3.1 示例1 187
10.3.2 示例2 189
10.3.3 示例3 191
10.4 復雜示例 193
10.4.1 示例4 193
10.4.2 示例5 195
10.4.3 示例6 196
10.5 SRL 的能力范圍 197
10.5.1 謂語分析的局限性 198
10.5.2 SRL 局限性的根本原因 199
10.6 本章小結 200
10.7 練習題 201
第11 章 使用Transformer 進行問答 202
11.1 方法論 203
11.2 方法0:試錯法 204
11.3 方法1:NER 206
11.4 方法2:SRL 211
11.4.1 使用ELECTRA 進行問答 213
11.4.2 項目管理約束 214
11.4.3 通過SRL 查找問題 215
11.5 后續步驟 219
11.5.1 使用RoBERTa 模型探索Haystack 220
11.5.2 使用GTP-3 引擎探索問答 221
11.6 本章小結 222
11.7 練習題 222
第12 章 情緒分析 224
12.1 入門:使用Transformer進行情緒分析 225
12.2 斯坦福情緒樹庫(SST) 225
12.3 通過情緒分析預測客戶行為 229
12.3.1 使用DistilBERT 進行情緒分析 229
12.3.2 使用Hugging Face 的其他模型進行情緒分析 231
12.4 使用GPT-3 進行情緒分析 235
12.5 工業4.0 依然需要人類 236
12.5.1 使用SRL 進行調查 237
12.5.2 使用Hugging Face進行調查 238
12.5.3 使用GPT-3 playground進行調查 240
12.6 本章小結 242
12.7 練習題 243
第13 章 使用Transformer 分析假新聞 244
13.1 對假新聞的情緒反應 245
13.2 理性處理假新聞的方法 250
13.2.1 定義假新聞解決路線圖 251
13.2.2 槍支管控辯論 252
13.2.3 美國前總統特朗普的推文 260
13.3 在我們繼續之前 262
13.4 本章小結 262
13.5 練習題 263
第14 章 可解釋AI 264
14.1 使用BertViz 可視化Transformer 265
14.2 LIT 268
14.2.1 PCA 269
14.2.2 運行LIT 269
14.3 使用字典學習可視化Transformer 271
14.3.1 Transformer 因子 271
14.3.2 LIME 272
14.3.3 可視化界面 273
14.4 探索我們無法訪問的模型 276
14.5 本章小結 277
14.6 練習題 278
第15 章 從NLP 到計算機視覺 279
15.1 選擇模型和生態系統 280
15.2 Reformer 281
15.3 DeBERTa 283
15.4 Transformer 視覺模型 285
15.4.1 ViT – Vision Transformer 285
15.4.2 CLIP 289
15.4.3 DALL-E 294
15.5 不斷擴大的模型宇宙 297
15.6 本章小結 298
15.7 練習題 299
第16 章 AI 助理 300
16.1 提示工程 301
16.1.1 具有有意義上下文的非正式英語 302
16.1.2 轉喻和多義 303
16.1.3 省略 303
16.1.4 模糊上下文 304
16.1.5 引入傳感器 305
16.1.6 有傳感器但沒有可見上下文 305
16.1.7 沒有上下文的正式英語會話 306
16.1.8 提示工程訓練 306
16.2 Copilot 307
16.3 可以執行領域特定任務的GPT-3 引擎 309
16.3.1 為ML 算法提供嵌入 309
16.3.2 生成一系列操作指示 315
16.3.3 內容過濾器 316
16.4 基于Transformer 的推薦系統 317
16.4.1 通用序列 317
16.4.2 使用MDP 和RL 生成的數據集模擬消費者行為 319
16.5 計算機視覺 323
16.6 數字人和元宇宙 325
16.7 本章小結 326
16.8 練習題 326
第17 章 ChatGPT 和GPT-4 327
17.1 超越人類NLP 水平的Transformer 模型:ChatGPT和GPT-4 328
17.1.1 如何充分理解本章 328
17.1.2 誰擁有AI 生成內容的版權 329
17.2 ChatGPT API 332
17.3 使用ChatGPT Plus 編寫程序并添加注釋 334
17.3.1 設計提示 334
17.3.2 使用ChatGPT Plus編寫代碼 335
17.3.3 ChatGPT Plus 繪制輸出結果 336
17.4 GPT-4 API 337
17.4.1 示例1:使用GPT-4幫助解釋如何編寫代碼 337
17.4.2 示例2:GPT-4 創建一個函數來展示Greg Brockman 于2023 年3月14 日的GPT-4 的YouTube 演示 338
17.4.3 示例3:GPT-4 創建一個用于展示WikiArt 圖像的應用程序 338
17.4.4 示例4:GPT-4 創建一個用于展示IMDb 評論的應用程序 339
17.4.5 示例5:GPT-4 創建一個用于展示新聞源的應用程序 340
17.4.6 示例6:GPT-4 創建一個k-means 聚類(kmc)算法 341
17.4.7 示例7:GPT-4 關于GPT-4 和GPT 模型架構的對話 341
17.5 高級示例 342
17.5.1 步驟1:為ChatGPT和GPT-4 構建知識庫 343
17.5.2 步驟2:添加關鍵詞和解析用戶請求 343
17.5.3 步驟3:構建引導ChatGPT 的提示 344
17.5.4 步驟4:內容審核和質量控制 344
17.6 可解釋AI(XAI)和Whisper語音模型 345
17.7 使用DALL-E 2 API入門 349
17.7.1 創建新圖像 349
17.7.2 創建圖像的變體 350
17.8 將所有內容整合在一起 351
17.9 本章小結 352
17.10 練習題 353
——以下資源可掃描封底二維碼下載——
附錄A Transformer 模型術語 354
附錄B Transformer 模型的硬件約束 356
附錄C 使用GPT-2 進行文本補全 362
附錄D 使用自定義數據集訓練GPT-2 模型 371
附錄E 練習題答案 380
參考資料 392
展開全部

基于GPT-3、CHATGPT、GPT-4等TRANSFORMER架構的自然語言處理 作者簡介

Denis Rothman 畢業于法國巴黎索邦大學和狄德羅大學,設計了首批獲得專利的編碼和嵌入系統,編寫了首批獲得專利的AI 認知機器人和機器人。他的職業生涯始于為Moët et Chandon 提供NLP(自然語言處理)聊天機器人,并為空中客車公司(前身為Aerospatiale)提供AI 戰術防御優化器。此后,Denis 為IBM 和奢侈品牌開發了AI資源優化器,并最終發展為在全球范圍內使用的APS(高級規劃和調度)解決方案。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網
在線客服
三级一区在线视频先锋_丁香另类激情小说_中文字幕一区二区三_一本一道久久a久久精品综合蜜臀_一区二区三区四区国产精品_日韩**一区毛片_在线观看日韩电影_1000部国产精品成人观看_免费不卡在线视频_亚洲国产日日夜夜_国产亚洲精品福利_亚洲精品一区二区三区在线观看_欧美美女一区二区三区_日韩欧美色电影_欧美aaa在线_久久这里只有精品6
a级国产乱理论片在线观看99| 三级久久三级久久久| 色香蕉久久蜜桃| 日韩欧美亚洲日产国产| 国产在线一区二区三区欧美| 999国产在线| 波多野结衣91| 99九九视频| 九九99玖玖| 亚洲精品一区二区三区樱花 | 7777女厕盗摄久久久| 在线91免费看| 久久综合色天天久久综合图片| 久久中文娱乐网| 国产亚洲成aⅴ人片在线观看| 欧美极品少妇xxxxⅹ高跟鞋 | 日本不卡一区| 一区二区三区电影| 欧美在线三级电影| 日韩一区二区三区视频| 国产日韩成人精品| 亚洲国产成人高清精品| 男女男精品网站| 成人av资源网站| 久久精品aaaaaa毛片| 日本乱码高清不卡字幕| 精品乱人伦小说| 日韩一区有码在线| 麻豆精品一区二区三区| 91精品婷婷国产综合久久性色| 91精品中文字幕一区二区三区| 日韩欧美一区二区视频| 国产精品欧美精品| 青青国产91久久久久久| av中文字幕亚洲| 免费日韩电影在线观看| 91黄色免费版| 欧美经典一区二区| 美女视频黄a大片欧美| 99国产精品视频免费观看| 久久99九九| 欧美日韩五月天| 欧美激情在线看| 免费成人在线观看视频| 99久久精品99国产精品| 一区不卡字幕| 国产日韩一级二级三级| 天天免费综合色| 99久久久无码国产精品| 一区二区三区我不卡| 久久久亚洲午夜电影| 天涯成人国产亚洲精品一区av| 成人动漫一区二区三区| 一本久道久久综合| 亚洲国产激情av| 国产一区二区三区四| 欧美亚洲免费高清在线观看 | 精品福利一二区| 日韩极品在线观看| 国产精品免费一区二区三区| 欧美三级资源在线| 亚洲久本草在线中文字幕| 大胆亚洲人体视频| 色播五月激情综合网| 亚洲视频一区二区在线观看| 国产麻豆精品95视频| 日韩电影大全在线观看| 国产午夜精品久久| 国产真实精品久久二三区| 日韩精彩视频| 亚洲国产精品传媒在线观看| 国产99久久久久久免费看农村| 亚洲午夜高清视频| 国产精品初高中害羞小美女文| 国产成人亚洲综合a∨猫咪| 色94色欧美sute亚洲13| 亚洲最新视频在线观看| 国产精品毛片一区视频| 欧美成人一级视频| 国内精品视频一区二区三区八戒 | 成人一道本在线| 色婷婷狠狠综合| 亚洲精品老司机| 999久久久| 日韩情涩欧美日韩视频| 免费成人av在线| 婷婷久久五月天| 亚洲精品中文字幕在线观看| 91在线无精精品入口| 91精品国产丝袜白色高跟鞋| 六月丁香婷婷久久| 在线视频国内一区二区| 五月激情综合色| 亚洲欧美丝袜| 丝瓜av网站精品一区二区| 欧美婷婷久久| 亚洲综合丁香婷婷六月香| 欧美日韩一区二区三区在线观看免| 国产精品萝li| 国产成人成网站在线播放青青| 久久久欧美精品sm网站| www.日本不卡| 精品欧美乱码久久久久久1区2区| 国模冰冰炮一区二区| 欧美高清激情brazzers| 激情文学综合插| 欧美一区二区久久| 国产a区久久久| 日韩免费一区二区三区在线播放| 国产成人av电影在线| 精品区一区二区| 91精品国自产在线观看 | 欧美裸体bbwbbwbbw| 加勒比av一区二区| 精品视频全国免费看| 国产一区二区久久| 日韩午夜在线播放| www.亚洲免费av| 国产视频一区二区在线| 国产精品日韩一区二区 | 精品一区二区三区久久| 欧美日韩成人在线一区| 成人午夜精品在线| 国产日韩欧美电影| 蜜桃视频成人| 日韩在线一区二区| 欧美日韩高清一区二区| eeuss国产一区二区三区| 国产精品人人做人人爽人人添 | 欧美精品欧美精品| 亚洲一区二区综合| 在线观看中文字幕不卡| 国产精品亚洲人在线观看| 精品国产91洋老外米糕| 精品乱码一区| 日韩va欧美va亚洲va久久| 在线播放91灌醉迷j高跟美女 | 亚洲一区在线免费| 精品一区二区日韩| 久久久九九九九| 水蜜桃亚洲一二三四在线| 国产精品综合一区二区三区| 久久久久亚洲蜜桃| 亚洲黄色一区二区三区| 国产电影精品久久禁18| 1000部国产精品成人观看| 中文字幕一区二区三区乱码| 国产精品12区| 亚洲丝袜另类动漫二区| 欧美色图片你懂的| 98国产高清一区| 三级影片在线观看欧美日韩一区二区 | 欧美日韩免费观看一区三区| 97久久精品人人澡人人爽| 一区av在线播放| 欧美一区二区精品久久911| 久久99精品久久久久久水蜜桃| 精品影视av免费| 国产欧美日韩精品一区| 在线观看欧美激情| 91麻豆免费视频| 蜜桃精品视频在线观看| 国产精品美女一区二区三区| 日本高清不卡一区| 国产精品久久一区二区三区| 经典三级在线一区| 一区二区激情视频| 精品国产人成亚洲区| 日本久久精品电影| 精品麻豆av| 成人综合在线视频| 亚洲福利视频导航| 日韩影视精品| 丁香婷婷综合网| 亚洲五码中文字幕| 久久久精品2019中文字幕之3| 亚洲图色在线| 国产精品久久久久免费| 国产成人精品一区二区三区网站观看 | 伊人久久大香线蕉综合75| 国产乱子伦精品| 国产福利视频一区二区三区| 亚洲国产视频直播| 亚洲欧洲无码一区二区三区| 欧美成va人片在线观看| 色婷婷亚洲一区二区三区| 国产二区不卡| 成人黄色软件下载| 国产综合色在线| 日日欢夜夜爽一区| 亚洲精品国产一区二区三区四区在线| 精品国内片67194| 91精品国产综合久久久蜜臀图片| 影音先锋亚洲视频| 久久国产精品高清| 国产激情一区二区三区在线观看| 国产成人午夜精品5599| 久久99精品久久只有精品| 日韩激情一区二区| 五月婷婷久久丁香|