筆者は先月、総務省による人工知能(AI)開発ガイドライン素案策定の動きについて、Preferred Networks(PFN)最高戦略責任者の丸山宏氏による批判を紹介した。

 この記事に対して、TwitterやFacebook、はてなブックマークNewsPickなどを通じて読者からの多くの反響が寄せられた。

 当の丸山氏自身もPFNのサイトに補足のエントリーを掲載しており、より深く同氏の見解を知ることができる。

 市民の間に漠然としたAIへの不安があることは事実だ。本屋にいけばAIの脅威について書かれた本がズラリと並ぶ。その不安に政府が何らかのリアクションを示したのも、当然の成り行きといえる。

 世間で語られる「AIの脅威」の中身は、丸山氏が指摘したように、現在のAI技術への誤解に基づくものが多い。ただその一方、まさに現在のAI技術が直面する社会上、倫理上の課題として、AI開発者による議論が求められるテーマも確かにある。

 本稿では、AIの脅威に関わる3つの誤解と、真に議論すべきべき3つの課題を紹介したい。

誤解1:いずれAIが、自律的に人類を滅ぼす意思を持つかもしれない!

回答1:そもそも今のAI技術は「自ら意思を持つ」にはほど遠い。

 現在、人間と会話するできるAI(会話AI、チャットボット)の技術は、大まかに言えば二つの仕組みから成り立っている。

 一つは、あらかじめ人間が設定した対話シナリオに基づいて会話文を生成するルールベースの手法。もう一つは、膨大な対話データベースに基づき、質問に対する適切な回答を統計的マッチングの手法で探索する統計ベースの手法である。現在のチャットボット技術の多くは、この二つの手法を組み合わせて会話文を生成している。

 いずれにせよ、現在のAIは、人間が入力した対話データなしには会話を生成できない。現在の会話AIは「対話データのオウム返し」という段階から脱していない。以前、AIロボットがテレビ番組で「人類を滅亡させる」を発言したとして話題になったが、これは質問者の「人類を滅亡させたいか」との質問をオウム返しに繰り返しただけと思われる。

 PFNの丸山氏は、人間と同様の知性を発揮する汎用人工知能について「いずれ実現することは間違いない」としつつ「今見えている技術の延長上には無い」と主張する。これは筆者も同感である。

 汎用人工知能が出現することは確かに社会に大きなインパクトをもたらす。だが、AIの研究開発に新たな制約を加える必要があるほどの脅威が迫っているか、それほどの技術的進展があったか、と問われれば、現状ではNoと言わざるを得ない。第3次AIブームにおいても、知性の中枢といえる言語機能に関する進展は比較的小さい()。

(出所:日経コンピュータ2016年4月28日号)
[画像のクリックで拡大表示]

ここからは会員の登録が必要です。