AI技術の最前線 サポートページ

このサイトは「AI技術の最前線 - これからのAIを読み解く先端技術73」に関する情報、訂正情報などを掲載します。誤りやコメントがありましたら サポートメール宛に送っていただけたら幸いです。

AI技術の最前線 書影

本書について #

この本は「日経Robotics」誌に2015年7月から毎月連載している「AI最前線」を加筆・修正し一つの冊子にまとめたものです。AIに関する73の注目技術について紹介しています。

書誌情報 #

お知らせ #

  • 2022/8/4 AI技術の最前線 紙版 電子版販売開始します
  • 2022/7/27 サポートページをオープンしました。

AI技術の最前線 目次一覧 #

  • 第1部 知能とは何か、ディープラーニングとは何か
    • 第1章 原理解明に向けた動き
      • 1-1 なぜディープラーニングがうまく学習できるのか
      • 1-2 多様体仮説:現実世界のデータをどうモデル化するか
      • 1-3 なぜディープニューラルネットは汎化するのか
      • 1-4 独立成分分析:情報のもつれを解く
      • 1-5 ディープラーニングの理論解析:ニューラルネットの未解決問題の解明へ大きく前進
      • 1-6 過剰パラメータ表現のニューラルネットワークと宝くじ仮説
      • 1-7 因果と相関:未知の分布まで汎化できるか
      • 1-8 対称性は学習にどのように活かせられるか
      • 1-9 機械学習の新べき乗則:大きなモデルを使うと汎化しサンプル効率も改善する
      • 1-10 頑健なモデルには過剰パラメータ表現が必要
    • 第2章 人の学習
      • 2-1 脳内で誤差逆伝播法が起きているか?
      • 2-2 脳の学習システム:Learning system in brain
  • 第2部 学習手法
    • 第3章 学習手法
      • 3-1 学習のエンジン:数理最適化 Adagrad、RMSProp、Adam
      • 3-2 乱択化フーリエ特徴関数:大規模問題でもカーネル法を適用可能に
      • 3-3 正則化:汎化能力をどのように手に入れられるか
      • 3-4 誤差逆伝播法による期待値最大化
      • 3-5 誤差逆伝播法を使わない学習手法 Feedback Alignment、Synthetic Gradient、Target Prop
      • 3-6 継続学習:過去の学習結果を忘れずに新しいタスクを学習できるか
      • 3-7 予測学習:Predictive Learning
      • 3-8 進化戦略:Evolution Strategy
      • 3-9 メタ学習:学習の仕方を学習するMAMLやNeural Process
      • 3-10 陰関数微分:勾配計算で計算グラフをワープする
      • 3-11 教師なし表現学習:異なるビュー間の相互情報量最大化
      • 3-12 知識蒸留:巨大なモデルの知識を抽出する
      • 3-13 Masked Autoencoder:画像認識でも事前学習革命は起きるのか
    • 第4章 強化学習
      • 4-1 強化学習:フィードバックから最適行動を獲得する
      • 4-2 世界モデル:world model、想像の中で学習できるか
      • 4-3 安全が保証された強化学習:リアプノフ関数で制約満たす方策を導出
      • 4-4 先読みに基づいたプランニング:学習化シミュレータとモンテカルロ木探索
      • 4-5 オフライン強化学習:データ主導型学習に向けて
      • 第5章 高速化・低電力化・インフラ
      • 5-1 ディープニューラルネットの学習をどこまで速くできるのか
      • 5-2 モバイル向けのニューラルネットワーク:推論時の電力効率を高める3つの方策
      • 5-3 AI研究の苦い教訓
      • 5-4 MN-3/MN-Core:世界で最も省電力性能に優れたスーパーコンピュータ
  • 第3部 モデルとアーキテクチャ
    • 第6章 生成モデル
      • 6-1 Generative Adversarial Networks:ニューラルネットを競合させ生成モデルを鍛える
      • 6-2 Variational Walkback:再帰確率的ニューラルネットで生成、認識を行う
      • 6-3 Glow:可逆な生成モデル、GANより安定的に学習できる尤度ベースの手法
      • 6-4 自己注意機構:Self-Attention、画像生成や機械翻訳など多くの問題で最高精度
      • 6-5 連続ダイナミクスを表現可能なニューラルネットワーク
      • 6-6 正規化層:ニューラルネットワークの学習の安定化、高速化、汎化に大きな貢献
      • 6-7 Energy-Based Model:ノイズを復元して生成モデルを学習する
      • 6-8 Transformer:全タスクの標準ネットワークアーキテクチャになるか
      • 6-9 離散化生成モデル
      • 6-10 Perceiver:多様な入出力に対応可能なニューラルネットワーク
    • 第7章 記憶の仕組み
      • 7-1 “Fast Weight”:アテンションで短期記憶を実現する
      • 7-2 Differentiable Neural Computers:外部記憶を備えたニューラルネットワーク
  • 第4部 アプリケーション
    • 第8章 画像
      • 8-1 画像認識で大きな成果上げるCNN:分類のエラー率は1年ごとに半分近くに減少
      • 8-2 GLOM:パース木による画像認識の実現を目指して
    • 第9章 音声
      • 9-1 WaveNet:自然な音声や音楽を生成可能なニューラルネットワーク
    • 第10章 空間生成/認識
      • 10-1 Generative Query Network:画像から3次元構造を理解し生成する
      • 10-2 自己教師あり学習による深度と自己移動の推定
      • 10-3 3次元形状をどのように表現するか
      • 10-4 画像からの3次元シーン理解に向けた局所特徴量に基づく画像マッチング
      • 10-5 人や動物の空間理解の仕組みをAIに活かせるか
      • 10-6 Rotation Averaging:高速かつ最適な姿勢推定を実現する
      • 10-7 DROID-SLAM:逐次的な修正で環境に対応する
      • 10-8 Neural Descriptor Fields:少数教師からの学習を可能とする物体や3次元環境の同変表現
    • 第11 章 言語
      • 11-1 seq2seq:文から文を生成するニューラルネットワーク
      • 11-2 言語の創発:機械はどのようにコミュニケーションできるのか
      • 11-3 自由な言葉でロボットに指示をする:Unconstrained Spoken Language Instruction for robots
      • 11-4 BERT:言語理解の事前学習
    • 第12章 制御
      • 12-1 確率的制御:不正確な制御が学習を助ける
      • 12-2 オンライン学習と最適制御、未知ノイズにも頑健な制御手法
    • 第13章 シミュレーション
      • 13-1 AIによるシミュレーションの進化
      • 13-2 シミュレーションに基づく推論:観測からパラメータを帰納的に推定する
      • 13-3 深層学習を使った物理シミュレーションの高速化
      • 13-4 AIを使った汎用原子レベルシミュレーター Matlantis
    • 第14章 ゲーム
      • 14-1 AlphaGo:CNNと強化学習を組み合わせたコンピュータ囲碁
      • 14-2 AlphaGo Zero:ゼロから学習で人を超える
      • 14-3 AlphaStar:多様性のある学習環境で高度なスキルを獲得
    • 第15章 バイオ・生命科学
      • 15-1 AlphaFold:50年間の生命科学のグランドチャレンジを解く
    • 第16章 ロボット
      • 16-1 全自動の片付けロボットシステムをいかに開発したか、高精度な物体認識により初めて片付けが可能に
      • 16-2 環境乱択化:Domain Randomization