機械学習技術の研究者コミュニティが、機械学習の利用による公平性の問題について2019年12月10日、声明を発表した。「(1)機械学習は道具にすぎず人間の意志決定を補助するものであること」「(2)(研究者コミュニティは)公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること」を声明で強調した。

 声明を発表したのは、人工知能学会 倫理委員会、日本ソフトウェア科学会 機械学習工学研究会(MLSE)、電子情報通信学会 情報論的学習理論と機械学習研究会である。

 (1)については、機械学習はあくまで学習データという過去の事例に基づいて予測を行うため、学習データに偏り(バイアス)があれば、予測結果も偏りのある内容となる。予測が公平性を欠かないようにするには人間が注意深く介在する必要があると、声明では述べている。

 (2)については、この問題に関する機械学習の研究者コミュニティでの取り組みについて声明では言及している。「IEEE Ethically Aligned Design」や「人工知能学会 倫理指針」、内閣府による「人間中心のAI社会原則」などである(関連記事0102)。

 「何が公平か」についてはもはや技術や工学だけの問題ではなく、技術の使い手や社会全体を含めて議論する必要がある。このため、研究者コミュニティは機械学習の公平性の問題を広く一般に伝えるため、2020年1月9日にシンポジウムを開催する予定という。