TOPIndustries > Googleのリサーチ責任者、「説明可能なAI」の価値に疑問...

Industries

Googleのリサーチ責任者、「説明可能なAI」の価値に疑問符

2017/06/28

George Nott Computerworld

 機械学習やAI(人工知能)がますます普及する中で、その内部過程を人間に分かる形で説明するよう求める声が高まっている。

 ディープラーニング、ニューラルネットワーク、確率的グラフィカルモデルをはじめ、各種の機械学習アーキテクチャーは、医療診断や融資審査など、人生を左右する決定でも使われつつあるが、その内部の仕組みは、ますます複雑で分かりにくくなっている。

 こうした機械学習の手法は、自ら進歩していくものが多い。その結果、内部の仕組みを明らかにすることはいっそう難しくなる。「ブラックボックス」化しているとの声は、科学者や政府、そして不安を抱いている市民から増えつつある。

 一部の人は、こうした機械学習のシステムは自らの意思決定のプロセスを明らかにする必要があると主張し、専門家以外に対する「説明可能性」を備える必要があるとしている。XAI(Explainable Artificial Intelligence:説明可能な人工知能)というアプローチだ。

 だがここへ来て、ブラックボックスの開放を目指す取り組みが障壁にぶつかった。おそらく世界最大のAI企業である米Googleのリサーチ担当ディレクター、Peter Norvig氏が、説明可能なAIの価値に疑問を投げかけたのだ。

 Norvig氏が指摘したのは、結局のところ人間だって自分の意思決定について説明するのはあまり上手ではない、ということだ。

↑ページ先頭へ