本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 今の機械学習の多くは何も学習していない状態から、学習データが与えられ学習していく。この場合、全てを一から学んでいく必要があるため多くの学習データを必要とする。一方で人や動物はそれほど多くの学習データを必要としない。これは過去に経験したり、学習した結果を再利用し、必要な差分だけを学習するためだ。

 例えば、自転車の乗り方を学習する際には、立ったり、歩いたり、階段を登ったりするのに必要なスキルが再利用されており、数十回程度の練習で誰でも自転車に乗れるようになる。これは数千から数十万の試行錯誤が必要な現在の強化学習とは大きな違いである。

著者の岡野原大輔氏

 複数のタスクの学習結果や学習過程を利用し新しいタスクの学習効率を上げるような手法をメタ学習という。“学習の仕方を学習する”ような学習手法といってもよいだろう。

 例えば、ImageNetのような大きなデータセットで学習された画像認識モデルを特定のタスク向けの学習データを使ってfinetune(微調整)するテクニックは広く使われているが、これもメタ学習といっていいだろう。既にImageNetの学習済みモデルは基本的な物体の認識はできており、残りの差分だけを学習するためである。今回はメタ学習の中でも近年、有力な2つの手法を紹介する。

この先は日経Robotics購読者限定です。