トヨタ自動車やファナックが出資する気鋭のAIベンチャー Preferred Networks(PFN)。日経Roboticsでは2015年の創刊以来、その共同創業者で取締役副社長の岡野原大輔氏に毎号、AIの先端動向に関する解説記事を寄稿いただいています。
世界レベルのAIベンチャーの創業エンジニアが何を考え、何に注目しているのか。この連載記事からぜひお確かめ下さい。
Preferred Networks 取締役副社長

記事は執筆時の情報に基づいており、現在では異なる場合があります。
閉じる
トヨタ自動車やファナックが出資する気鋭のAIベンチャー Preferred Networks(PFN)。日経Roboticsでは2015年の創刊以来、その共同創業者で取締役副社長の岡野原大輔氏に毎号、AIの先端動向に関する解説記事を寄稿いただいています。
世界レベルのAIベンチャーの創業エンジニアが何を考え、何に注目しているのか。この連載記事からぜひお確かめ下さい。
PFN岡野原氏によるAI解説:第53回
線形ダイナミクスを持ったシステムに対する制御問題は古典的な問題であり広い分野でみられる。この制御問題に対し、近年オンライン学習を適用することでノイズやコストに対する仮定を大幅に緩和し、かつコスト関数が動的に変わる場合も対応できる方法が提案されている。
PFN岡野原氏によるAI解説:第52回
多くの機械学習は学習問題を最適化問題として定式化し、勾配降下法を使って最適化する。ニューラルネットワーク(NN)は誤差逆伝播法(後ろ向き自動微分)を使うことで複雑な関数でも勾配を効率的に計算できている。
PFN岡野原氏によるAI解説:第51回
この数年の自然言語処理で最も大きなブレークスルーはBERTと呼ばれる事前学習手法であろう。これまで画像認識の分野ではImageNetの画像分類タスクで学習して得られたモデルを他のタスクの初期パラメータとして使う事前学習がよく使われてきた。
PFN岡野原氏によるAI解説:第50回
機械学習の大きな目標は、訓練データと異なるテストデータでもうまく動くような汎化するモデルを獲得することである。訓練データだけうまくいくのでよければ訓練データを丸暗記すればよく、コンピュータは容易に実現できる。しかし、見たことがないテストデータでもうまくいくためにはデータの背後に隠された法則を見つけ…
PFN岡野原氏によるAI解説:第49回
ニューラルネットワークは学習データ数と同程度かそれ以上に多くのパラメータを持ちながら、なぜ過学習せず汎化するかはこれまで未解決問題だった。このようなパラメータ数の方が学習データ数(制約数)より多い場合を過剰パラメータ(Over-parameterized)表現と呼ぶ。
PFN岡野原氏によるAI解説:第48回
障害物や壁など対象物までの距離を測れるLIDARなどの深度(depth、距離)センサはロボットや自動運転車などで広く使われている。一般に深度センサは変調したレーザーなどを環境に照射し、その反射波の位相差や到達時間を測定することで深度を推定している。こうしたレーザーなどを自ら照射する方式はアクティブ…
PFN岡野原氏によるAI解説:第47回
ニューラルネットワークは有限回の変換の組み合わせで構成され、例えば10層のニューラルネットワークは入力を10回変換した結果として表される。これに対し、入力に連続時間の変換を適用し、例えば3.6回分変換といった変換を扱えるNeural ODEが提案された。Neural ODEはNeurIPS 201…
PFN岡野原氏によるAI解説:第46回
強化学習の創始者の一人であり、この分野を長年にわたってリードしてきたUniversity of Alberta教授のRichard Sutton氏が「The Bitter Lesson」(苦い教訓)というタイトルで記事を投稿した。以下にその内容を簡単にまとめる。
PFN岡野原氏によるAI解説:第45回
2016年、グーグルDeepMind社が開発したAlphaGoが囲碁トップ棋士であるイ・セドル(Lee Sedol氏)氏に4-1で勝利し話題となった。囲碁は途中の盤面種類数が非常に多く、盤面の評価には感覚や大局的な視点が必要でありコンピュータには不得意とされてきた。AlphaGoはこうした見方を打…
PFN岡野原氏によるAI解説:第44回
機械学習に必要なデータを現実世界で収集することはコストや時間がかかるだけでなく、ロボットのような物理的な動きを伴う機械の場合、危険であったり、まれな事象でそもそも集められない場合も多い。そのため、現実世界をシミュレーションした環境上でデータ収集することが期待されてきた。
PFN岡野原氏によるAI解説:第43回
ディープラーニングは画像認識や音声認識など多くのアプリケーションで従来手法を大きく上回る性能を達成しているが、なぜうまくいくのかについては実は理論的な説明ができていない。特に最も基本的で重要な(1)なぜディープラーニングは学習できるのか(2)なぜディープラーニングは汎化するのかについては完全な解明…
PFN岡野原氏によるAI解説:第42回
今の機械学習の多くは何も学習していない状態から、学習データが与えられ学習していく。この場合、全てを一から学んでいく必要があるため多くの学習データを必要とする。一方で人や動物はそれほど多くの学習データを必要としない。これは過去に経験したり、学習した結果を再利用し、必要な差分だけを学習するためだ。
PFN岡野原氏によるAI解説:第41回
ロボットを使って家事をこなしてほしいというのは昔から存在するテーマである。例えば、2008年に米Stanford Universityが実施した実験では1)、ロボットのPR1を人が遠隔操作することで、冷蔵庫を開けてビールを取り、蓋を開けて人に渡したり、床に散らかったおもちゃを片付けたり、食洗機に皿…
PFN岡野原氏によるAI解説:第40回
強化学習はシミュレーションやゲームなどで人の能力を超える性能を達成しており有望視されているが、現実の問題に適用した場合、その安全性をどのように担保するのかが問題となる。強化学習は環境との相互作用の中で試行錯誤しながら自分の行動がどのような結末をもたらすのかを理解し、自分の行動を改善していく。この中…
PFN岡野原氏によるAI解説:第39回
ニューラルネットワークはあらかじめ設計されたネットワーク構造に従ってデータが入力から出力に向かって計算されながら伝搬していく。多くの問題では、事前知識を使って構造を設計することで性能を上げることができる。例えば、畳み込みニューラルネットワーク(CNN)は、画像は近い位置にある情報が関係があるという…
PFN岡野原氏によるAI解説:第38回
与えられたデータセットの分布に従ってデータを生成するように学習する生成モデルは、画像や音楽などデータを生成するためだけでなく、観測から現実の世界モデルを構築し、その上でエージェントが学習や計画を立てられるようにしたり、データの意味を捉えた特徴を教師なしで学習できるため、近年非常に注目を集めている。
PFN岡野原氏によるAI解説:第37回
人は2次元の画像のみから物体の3次元情報を推定でき、その形状や位置関係、構成関係を認識することができる。さらに、物体をさまざまな視点から見れば、ほぼ完璧な3次元情報を得ることができる。例えば、部屋の中に入ってその中を歩き回って見ているうちに部屋の中のどの位置にどんな物体が置かれているのかという3次…
PFN岡野原氏によるAI解説:第36回
当社Preferred Networksの論文1)がICRA 2018のHuman Robot Interactionのベストペーパーに選ばれた。この論文ではロボットに対し自由な言葉でピッキングタスクの指示を出し、ロボットがそれに応じて作業するという研究を扱っている。今回は、この技術背景や使われた…
PFN岡野原氏によるAI解説:第35回
強化学習は、環境中のエージェントが環境と相互作用していく中で将来の報酬を最大化するために最適な行動を次々と選択する問題である。今まだ解けていない人工知能の問題の多くが強化学習の枠組みの中で解けるだろうと考えられている。強化学習は深層学習と組み合わさったことで近年大きく発展し、AlphaGoによって…
PFN岡野原氏によるAI解説:第34回
現在の多くの学習はパラメータθを入力とした目的関数F(θ)の最適化問題(以下、最小化問題とする)を解くことで実現される。最適化対象のパラメータ空間が高次元である場合、パラメータをランダムな方向に摂動(わずかに動かす)させた時に目的関数の値が改善される可能性は低い。