2020年1月9日(木)、一橋大学一橋講堂で人工知能学会 倫理委員会、日本ソフトウェア科学会 機械学習工学研究会と電子情報通信学会 情報論的学習理論と機械学習研究会が主催で「機械学習と公平性に関するシンポジウム」を開催しました。
現在、国内外において機械学習の利用が公平性に与える影響は大きな社会的な関心を呼んでいます。シンポジウムに先立って2019年12月9日に公開された「機械学習と公平性に関する声明」では、
(1) 機械学習は道具にすぎず人間の意思決定を補助するものであること
(2) 私たちは、公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること
の2点を宣言しました。また、機械学習の技術及び研究をしている研究者コミュニティとして公平性の問題に対し、自らの社会における責任を自覚し、従前のコミュニティの枠にとらわれず、より多くの人とともに議論を深めていくことを今後の展開として提案しました。

オープニング

オープニングではまず、プリファードネットワークの丸山宏氏が、本声明を出すに至った経緯を紹介しました。また主催の三学会の代表として、最初に人工知能学会の武田英明氏が機械学習への誤解を払しょくすることの重要性と、人工知能学会が2017年に公開した倫理指針を紹介しました。続いて日本ソフトウェア学会の石川冬樹氏が、ソフトウェアを作るにあたって「我々が作ろうとしているものは適切か」という問いに言及し、作り手の観点から公平性を重要な視点として取り組んでいきたいと話されました。最後に日本における機械学習の技術的な観点を初期の段階から支えてきた電子情報通信学会の試みを鹿島久嗣氏が紹介し、技術だけではなく公平性など社会的な論点も議論しなければならないと提案されました(【講演資料】 【動画】)。

話題提供

機械学習と公平性の議論には、様々なアプローチがあります。本イベントでは、技術的な観点から公平性の問題にアプローチする手法を産業技術総合研究所の神嶌敏弘氏が紹介されました。機械学習とは明示的にプログラミングすることなく、コンピュータに学ぶ能力を与えようとする研究分野です。データを集め、それを集約して予測するモデルを作りますが、公平性を考える上では適切なデータと適切な利用目的の設計が重要です。データやモデルのバイアスがどのように生じるのか、具体的な事例とともに神嶌氏は紹介しました( 【講演資料】 【動画】)。
続いて、社会の中の技術という観点から東京大学の佐倉統氏が話題提供されました。進化論的に考えた場合、人間の認知傾向や価値判断には、共同体を円滑に運営するための特徴が備わっています。そのような特性に機械学習は合わせることができるのでしょうか。現在の人工知能は、最適化や効率化を得意としますが、芸術や創発性が求められる領域は苦手であると考えられています。道具としての人工知能との共存には、技術の限界を適切に把握したうえで、人と機械の役割分担を適切に設計することが重要であると指摘しました(【講演資料】 【動画】)。
最後に、人工知能学会倫理委員会委員でもある東京大学の江間有沙が、人工知能と公平性などの課題に対応する様々な研究者コミュニティの活動を紹介しました。2016年以降、NPOやNGO団体、産業、アカデミアの組織、さらには国際機関が連携して人工知能の研究や利活用原則を提唱しています。しかし、実際の利用現場ではプライバシーと安全性、公平性と正確性など原則同士がぶつかり合うことが起こりえます。そのため、様々な人たちと価値をめぐる議論をしていくことが重要だと指摘しました(【講演資料】 【動画】)。

パネルディスカッション

パネルディスカッションは理化学研究所・革新知能統合研究センターの中川裕志氏の司会で行われました。事前にいただいたコメントや当日会場から寄せられたコメントをもとに3人の話題提供者をパネリストとして議論が行われました。
最初に、公平、公正、ポリティカルコレクトネスなどの言葉の定義が問われました。公平(Fairness)とは偏りがないことを指しますが、公正(equity)には何が正しいかといった価値判断が入ってきます。様々な「正しさ」がありますが、その中で政治的あるいは政策的に価値が一般的に周知されたものがポリティカルにコレクト(政治的に正しい)であるとみなされます。現在では特に性差や人種、宗教などのセンシティブ(機微)情報がこれにあたります。価値の基準をどこに置くかということであるため、国や状況によっては人種よりも年齢や性別の差別が大きな話題になることや、その逆もありえます。ただし、政策的に話題にならないから、違法ではないから軽視してよいわけではありません。そのためにも、扱う情報やモデルが公平(fair)であるかを最初の一歩として考えていくことが重要となります。
また、研究者や企業が具体的なサービスを開発するとき、公平性の問題にどのようにアプローチしていけばよいかとの質問もありました。公平性といってもプロセスの公平性を重視するのか、あるいは結果としての公平性を重視するのかなど様々なアプローチがあります。あるいは、トロッコ問題は倫理的な問いかけとして有名になりましたが、すでに自動運転技術が実装されている現段階においては倫理だけではなく法的な対応が現在、求められています。トロッコ問題に関していえば、技術者としてはそのような問題が問われる設計であること自体が悪い(バッドデザインである)とする考え方もあります。公平性は倫理だけではなく、法や技術、そして社会との対話で考えていくことが重要になります。
今回のイベントには300人を超える方にご参加をいただきました。多くは企業からの参加者で、公平性が単に「人工知能を開発するときの原則」ではなく、社会実装をしていくときに考えなければならない要素の1つとして関心を集めていることがうかがえました。そのため、技術開発を行う研究者だけではなく、法務部や広報、営業など技術を提供する側、さらにはユーザも機械学習の公平性について考える場が必要です。本シンポジウムも学際的、国際的な組織に後援や協賛をいただけたことから、今後もこのような対話を続けていくことが重要であるとしてパネルを締めくくりました。

今後に向けて

現在、シンポジウムのウェブサイトには話題提供者らによる資料や講演動画が公開されています。機械学習技術は進展も早く、それに対応して様々な社会的、政策的な取り組みも同時に進展していくことが予想されます。2020年現在、日本においてこのような取り組みは始まったばかりです。今回の声明とシンポジウムが、学会だけではなく企業や政策決定の場、社会全体として機械学習と公平性に関する一般的な議論を進めるきっかけとなるべく、機械学習の技術及び応用を研究している研究者コミュニティとしての活動を続けていたいと思います。

(文責:江間 有沙)