シンガポール政府が公開したディスカッションペーパー「人工知能とパーソナルデータ:人工知能の責任ある開発と受容」は全16ページ、5章からなる。

 1章「はじめに」は、民間企業や業界団体に対し、自主的な行動基準を含むガバナンスフレームワーク(統治の枠組み)を作ることを求めると明記している。そして規制を策定する監督機関、AI開発者やサービスを提供する企業、さらには消費者といったステークホルダー間で、「どのようなガバナンスが必要か」を対話することが重要であると指摘し、その際に重要な視点を3つ掲げている。

  • ガバナンスのフレームワークは特定のAI技術に限定されない技術中立的なもので、かつ「厳格な管理ではない(light-touch)」ものであるべき
  • AIを用いた技術やサービスを提供する開発者やプロバイダが、自社の技術やサービス開発にどのような規制(自主行動規範も含む)が関係する/しないかを知ることができるよう、策定する側は規制やルールを明確な形(regulatory clarity)で提供するべき
  • 最低限の要件として、説明可能性、透明性、公平性、そして人間中心主義を促進する原則や規則を作ることで、技術開発に対する消費者の信頼が得られる

 そのほか、ステークホルダーである「AI開発者」「ユーザー企業」「消費者と顧客」を定義。AIを実行するにあたっては「データ処理」「アルゴリズムによる分析」「モデルの選択」などの段階があるとした。

AIのステークホルダーを定義
(出所:シンガポール政府)
[画像のクリックで拡大表示]

 2章「責任あるAIのための原則」は、ガバナンスフレームワークにおける2つの原則を掲げている。

  • AIによって、あるいはAIによる支援によって下された判断は説明可能で透明性があり公平であるべき
  • AIシステム、ロボットとAIによって下された判断は人間中心的であるべき

 3章「AIのために提示されたガバナンスフレームワークの探求」は、2章で掲げられた2つの原則を、多様な産業分野に適応するにあたっての2つの前提と1つの限界を説明している。

前提1:技術的中立 フレームワークは技術設計や応用、利用に焦点をあてるもので、AI技術のみに適用するものではない

前提2:産業分野に依存しない フレームワークは全産業分野に最低基準として適用されるべきであるが、特定の産業分野や業界団体にはより強い基準が上乗せで課される可能性もある

限界:法的責任 フレームワークは法的責任や損害賠償配分など具体的なことを定めない

 1章から3章が何故(WHY)ガバナンスは必要なのかや、どのような(WHAT)論点があるのかの整理であるとすれば、続く4章「ガバナンスフレームワークの4段階」が、どのように(HOW)ルールを作るのかの方法を示したものだ。

この先は有料会員の登録が必要です。有料会員(月額プラン)は初月無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら