人工知能学会 倫理委員会は2018年6月5日、同学会全国大会で「AIに関わる安全保障技術を巡る世界の潮流」と題する企画セッションを開催した。拓殖大学 国際学部・海外事情研究所の佐藤丙午教授と外務省 軍縮不拡散・科学部通常兵器室の南健太郎上席専門官が登壇し、AI兵器の規制に向けた国際的な議論の動向について説明した。

 同学会がこうした企画セッションを開催する背景には、AI技術を搭載した兵器への期待と恐れが様々な形で顕在化していることがある。

グーグルも「AIと倫理」の洗礼

 米グーグル(Google)のスンダー・ピチャイ(Sundar Pichai)CEO(最高経営責任者)は2018年6月7日、AI(人工知能)利用に関する原則を発表し、武器や諜報活動へのAIの利用を禁止した。そのきっかけになったとされるのが、4000人以上のグーグル社員による反対署名だ。「我々はグーグルが戦争ビジネスに参加すべきではないと信じている」として、深層学習で映像を解析する米国防総省の研究プログラム「Maven」に参加しないようピチャイCEOに求めた。

 大学のAI研究者も動いた。「韓国科学技術院(KAIST)とのいかなる分野での協力もボイコットする」。世界30カ国からなるAIやロボットの研究者約50人が2018年3月、KAISTに公開書簡を送った。KAISTが2018年2月に、韓国軍需企業と「国防人工知能融合研究センター」を共同設立したことに反対するためだ。加トロント大のジェフリー・ヒントン教授、加モントリオール大のヨシュア・ベンジオ教授など著名なAI技術者も署名した。

 「AI兵器は火薬の発明、核爆弾の発明に続く『戦争の第三の革命』とされる。化学兵器や生物兵器と同じく、道徳的に使えない武器のリストに自律型兵器を加えるべきだ」。公開書簡の発起人である豪ニューサウスウェールズ大学のトビー・ウォルシュ教授は日経 xTECHの取材にこう答えた。

規制は各国とも「総論賛成」

 今回の企画セッションは、AI兵器の一種である「自律型致死性兵器システム(LAWS)」への規制が話題の焦点になった。

 機械学習やプログラムに基づき、攻撃目標を自律的に選択する兵器は、一般に「自律型兵器(AWS:autonomous weapon systems)」と呼ばれる。攻撃目標を人間がセットするタイプのミサイルや無人攻撃機とは異なる概念だ。特に軍事拠点の破壊や人間の殺傷を目的にしたものを自律型致死性兵器(LAWS:lethal autonomous weapon systems)と呼ぶ。

 これまでLAWSの規制を巡り、日米ロ中など主要国の外交官が参加する政府専門家会合が2017年11月、2018年4月と開催された。この会合は通常兵器の使用を規制する「国際特定通常兵器使用禁止制限条約(CCW)」の枠組によるもの。これまで焼夷弾、対人地雷、クラスター爆弾などの制限が検討され、後にCCWまたは個別の条約による使用規制につながった。

 外務省の南氏によると、2017年11月と2018年4月にそれぞれ5日間議論した結果、「LAWSは国際法を遵守すべき」と「LAWSは人間の関与(Human Control)を必要とする」の2点については、参加国の間でほぼコンセンサスが取れたという。

外務省 軍縮不拡散・科学部通常兵器室の南健太郎上席専門官
[画像のクリックで拡大表示]

 AI兵器と言えば、軍隊は自軍の犠牲者が減るため導入に賛成すると思われがちだ。だが拓殖大学の佐藤氏は「『撃つか、撃たないか』の判断をAIに委ねることに一番反対するのは、当の軍隊組織」と指摘する。

拓殖大学 国際学部・海外事情研究所の佐藤丙午教授
[画像のクリックで拡大表示]

 国家による軍事行動には何らかの政治目的がある。その政治目的を、誤作動や認識誤りなどで逸脱する可能性がある兵器は現場で使いにくいという。「軍隊による生殺与奪の判断は人間が行うべき。この理念は(米、中、ロ含め)各国が共有している」(拓殖大学の佐藤氏)。

 だが、こうした合意がある一方、いくつかの根本的な論点について、各国で議論がかみ合っていないという。「LAWSを何らかの形で規制する法的文章を作成できるか、紳士協定としての政治文章にとどまるか、双方とも拒否されるか、状況は流動的だ」(外務省の南氏)。

そもそも「LAWS」とは何か?

 中でも最大の課題は、規制の対象にするLAWSの定義や規制範囲が定まらないことだ。

 LAWSに法的規制をかけるには、「LAWSとは何か」を正確に定義する必要がある。だが、定義や規制範囲の問題に入ってしまうと「完全に自律的な兵器でなくても規制すべきか」「人間の関与が少しでもあれば規制の対象外なのか」など、複雑な問題が噴出する。

 例えば、AIが物体検知や顔認識などで標的を自律的に指定し、人間がAIの指示に従って機械的に引き金を引くようなケースは「人間が攻撃の決定に関与した」と言えるのか。人物の不審行動検知を基に、民間人に偽装するテロリストを見つけ出し「目の前の人が兵士に先制攻撃を仕掛ける確率は90%」と判定するAIがあれば、兵士はAIの判断に従わざるを得ないかもしれない。

 佐藤氏は、AI技術は「撃つ、撃たない」の判断だけでなく、攻撃に至るまでの様々な工程に活用されると指摘する。具体的には、兵器が目標を攻撃するまでには「発見」「特定」「追跡」「照準設定」「攻撃」「評価」のサイクルを踏む。この各工程で、AIを含む高速計算技術の適用が期待されている。「現代戦はこの攻撃サイクルが高速になり、自動化への要求が高まっている」(佐藤氏)。

 グーグルの社員がピチャイCEOに参加反対の署名を送ったDARPAのプロジェクト「Maven」の目的について、佐藤氏は「国防総省がこれまで収集した画像、音声、サイバー情報を処理し、戦場の支援システムに使うこと」と説明する。「目的は軍事というよりインテリジェンスに近い」(佐藤氏)。

この先は日経 xTECH Active会員の登録が必要です

日経xTECH Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。