Transformerによる自然言語処理

Denis Rothman(著)/黒川 利明(訳)

Denis Rothman(著)/黒川 利明(訳)

定価 4,620 円(本体 4,200 円+税)

A5判/308ページ
刊行日:2022年04月07日
ISBN:978-4-254-12265-7 C3004

ネット書店で購入する amazon e-hon 紀伊國屋書店 honto Honya Club Rakutenブックス

書店の店頭在庫を確認する 紀伊國屋書店 旭屋倶楽部

内容紹介

機械翻訳,音声テキスト変換といった技術の基となる自然言語処理。その最有力手法である深層学習モデルTransformerの利用について基礎から応用までを詳説。〔内容〕アーキテクチャの紹介/事前訓練/機械翻訳/ニュースの分析。

編集部から

自然言語処理の世界に革命をもたらし,BERTやGPTなどさまざまな言語処理モデルに用いられている深層学習モデル・Transformer。Transformerの仕組みや理論の解説のほか,テキスト生成や要約,ニュース分析など自然言語処理のさまざまなタスクへの利用法を,Pythonのコード付きで解説。実践的な1冊。

目次

第I部 transformerアーキテクチャの紹介
1章 transformerのモデルアーキテクチャ入門
transformerの背景/transformerの勃興
2章 BERTモデルの調整
BERTのアーキテクチャ/BERTの調整
3章 RoBERTaモデルのゼロからの事前訓練
トークナイザを訓練してtransformerを事前訓練/KantaiBERTをいちから作る

第II部 自然言語理解とテキスト生成にtransformerを適用する
4章 transformerによる下流NLPタスク
変換とtransformerの帰納継承/transformer性能と人間のベースライン/下流タスクの実行
5章 transformerによる機械翻訳
機械翻訳の定義/WMTデータセットの前処理/機械翻訳をBLEUで評価する/Traxで翻訳
6章 OpenAI GPT-2とGPT-3モデルでテキスト生成する
10億パラメータtransformerモデルの出現/OpenAI GPTモデルのアーキテクチャ/transformerで音楽の作成/他
7章 法律/企業文書のAIテキスト要約にtransformerを適用
汎用テキスト変換モデルの設計/T5でテキスト要約
8章 トークナイザとデータセットのマッチング
データセットとトークナイザのマッチング/Word2Vecトークン化/特定語彙の標準NLPタスク/特定語彙の標準NLPタスク
9章 BERT系transformerで意味役割付与
SRL入門/BERT系モデルでSRL実験/基本例/困難な例

第III部 デザインソリューションの開発
10章 データに語らせる:ストーリー,質問,応答
方法論
11章 予測をするために顧客の感情を検出する
入門:感情分析transformer/顧客行動を感情分析で予測
12章 transformerでフェイクニュース分析
フェイクニュースへの感情的反応/フェイクニュースへの合理的アプローチ

執筆者紹介

著者略歴
Denis Rothman
ソルボンヌ大学とパリディドロ大学出身。AIチャットボットの作成者としてキャリアを開始。これまでにアプリケーション開発でMoet et Chandonなどさまざまな企業でアプリケーション開発に従事。また,航空宇宙,エネルギー,アパレル,その他多くの分野で世界中で使用されている生産管理のAI APS(Advanced Planning and Scheduling)を作成。

訳者略歴
黒川 利明(くろかわ としあき)
1948年,大阪府に生まれる。1972年,東京大学教養学部基礎科学科卒業。東芝(株),新世代コンピュータ技術開発機構,(株)日本IBM,(株)CSK(現SCSK(株)),金沢工業大学を経て,2013年よりデザイン思考教育研究所主宰。IEEE SOFTWARE Advisory Boardメンバー。

関連情報

ジャンル一覧

ジャンル一覧

  • Facebook
  • Twitter
  • 「愛読者の声」 ご投稿はこちら 「愛読者の声」 ご投稿はこちら
  • EBSCO eBooks
  • eBook Library