私のブックマーク
人工知能と公平性
神嶌 敏弘(産業技術総合研究所)
1.は じ め に
ここでは,人工知能,特に機械学習の公平性に関する情報を紹介する.こうした分野は公平性配慮型機械学習(Fairness-aware Machine Learning)などと呼ばれている.人工知能倫理(Artificial Intelligence and Ethics)や公平性配慮型機械学習では,公平性,差別,中立性,独立性などの潜在的な問題を考慮しつつデータ分析を行う.
アメリカで公民権法が 1964年に成立して以来,公平性の検証に統計学は幅広く活用されてきた.これらは主に検定を用いて,人間による過去の決定が公平であったかを検証するもので,裁判などでも利用されてきた.その後,検証ではなく予測を行う機械学習も,与信・採用・入試などに利用されるようになったことをふまえ,2010年頃から予測の公平性の研究も始まった.そして,2016年の欧州での GDPR(後述)や米大統領選挙でのフェイクニュース問題を契機として,急速に注目されるようになった.以下,これらの研究に関連したネット上の情報を紹介する.
2.事 例
公平性に関して,統計や機械学習が論じられた事例をいくつか紹介する.統計学で公平性を扱った事例として,カリフォルニア大学バークレイ校の入試は著名である.これは,大学入試において男性のほうが女性より合格率が高いという問題が指摘され,統計的な分析が行われた事例である.そして,全体としては男性のほうが合格率は高いが,大学の合否判定を行う単位である学部ごとに見ると,女性のほうが高い学部が多いという結果が得られた.この現象は,定員に対して志望者の多い学部を志望する割合が女性のほうが高いため生じており,志望学部の選択は志望者の裁量であるため,性別による不利な扱いはなかったとしている.
機械学習で公平性の問題を指摘した初期の事例に,プライバシー問題で著名なSweeneyによる指摘がある.これは,検索語に基づくターゲティング広告で,アフリカ系の名前で検索した場合のほうが,ヨーロッパ系の名前の場合と比べて,より好意的でない広告文が出るというものである.調査したところ,人種の情報を使わずに広告文を選択していたが,アフリカ系の名前で検索したときに好意的でない広告文を表示するほうがクリックされやすいという社会の悪意を反映したデータから学習したことが原因であった.
データジャーナリズムNPOのProPublicaによる指摘も著名である.これは,被告人が再犯する可能性を予測する Correctional Offender Management Profiling for Alternative Sanctions(COMPAS)というシステムで,アフリカ系の被告人に不利な予測が行われるというものである.これに対し,裁判所による調査が行われ,スコアが対象としていない母集団で分析しているなど,ProPublicaの分析が不適切であることを指摘している.
顔識別で性別や人種によって予測の正解率に差があるというBuolamwiniとGebruによる指摘もある.これは皮膚の色が濃かったり,女性的な外見だったりする場合に,各社が提供している顔識別 APIの識別率が低下するというものである.この問題について質問状を送ったところ,講演ビデオにあるように,発表時点で1社は修正がすでになされており,他社も追って対応が取られた.
MullainathanによるNew York Timesへの寄稿もあげておく.不公平な予測は人間による直感でも,統計的手法を用いても生じ得るが,統計的手法によるほうが補正は容易であることを指摘している.それには,公平性規準には数理的に同時には充足できないものがあるため,これらの中から社会が選択する必要を強調している.
3.チュートリアル
ここでは,この分野について知るのに良いチュートリアルを紹介する.筆者は,公平性配慮型機械学習に関するページを作成し,チュートリアル資料(英語)を公開している.この分野をできるだけ俯瞰できるよう随時更新しているのでご参考にされたい. 2020年には人工知能学会などが「機械学習と公平性に関するシンポジウム」を開催し,筆者のものを含めた発表資料や講演ビデオを公開している.また,筆者が小宮山純平とともに執筆した「機械学習・データマイニングにおける公平性」という解説記事もある.
初期のチュートリアルとしては, NeurIPS 2017での BarocasとHardtによる「Fairness in Machine Learning」がある.前半は disparate impactと disparate treatmentという法学の概念で,後半は公平性を確保する機械学習手法である.このチュートリアルをベースにした内容は『Fairness and Machine Learning』に書籍の形でもまとめられている.
FAT∗2018で公平性規準についてまとめた「21 Fairness Definitions and Their Politics」は,形式的公平性規準を Independence, Separation,および Sufficiencyに大別してまとめている.講演ビデオがあり,上記の書籍にもその内容が記されている.
2019年の SIGIR/RecSysでの Ekstrand,Diaz,およびBurkeによる「Fairness and Discrimination in Recommendation and Retrieval」は推薦と検索を扱ったチュートリアルである.ランキング学習の公平性などについて詳しい.
因果推論に基づく公平性もこの分野では議論されている.これらの研究については KDD 2018の Zhang,Wu,Wuによる「Anti-discrimination Learning: From Association to Causation」によくまとめられている.
企業が実際にシステムを開発・運用するときに留意している点などをまとめたものもある.アカデミア,Spotify,およびMicrosoftの研究者が FAT* 2019で行ったチュートリアル「Challenges of Incorporating Algorithmic Fairness into Practice」は開発プロセスなどを紹介している.2021年にいくつかの会議で公開された「Responsible AI in Industry」は,Google,Amazon,およびMicrosoftのエンジニアによるもので,後述のソフトウェアなども紹介されている.
FAT∗2019の「A History of Quantitative Fairness in Testing」は, 2000年以前の統計分野における公平性の研究を俯瞰している.現在では独立性や条件付き独立性に基づいて議論が行われているが,こうした初期の研究では,相関や偏相関に基づいていたことなど,歴史的経緯がわかる.講演ビデオと関連論文が公開されている.
4.学 会
この分野で中心となる国際会議は「ACM Conference on Fairness, Accountability, and Transparency」であり,機械学習系と法・社会系の両者の研究が発表されている.2018年から始まり,2019年からACMの傘下になった.当初は略号を FAT∗としていたが,2020年よりFAccTに変更した.Twitter,Slack,メーリングリストなどを通じてこの研究分野のイベント情報を配布している.
他の国際会議としては「AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society(AIES)」がある.2021年まではAAAIに併設されていたが,2022年は別の時期に開催するようである.ほかに,メカニズムデザインなどアルゴリズム理論系の会議としては「ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization(EAAMO)」がある.
機械学習の公平性に関しては, ICDM 2012に併設された「Discrimination and Privacy-Aware Data Mining」や,2014年に始まり国際会議FAccTの元となった「FATML」を皮切りに,数多くのワークショップが開催されている.筆者も推薦分野での公平性などを扱う「Workshop on Responsible Recommendation」を国際会議 RecSysにて継続的に運営している.これらワークショップの開催情報は「ACM FAccT Network」に集められているので,ここを参照するとよいだろう.
5.規準・規格
人工知能の公平性に関係する規準や規格などをいくつかあげておく.
- IEEE Ethically Aligned Design(EAD):IEEEがまとめたAIシステムの倫理的観点の基本方針.第1版が2019年に策定された.
- IEEE 7000-2021:上記のIEEE EADを達成すべく定められた,AIシステムの設計プロセスのガイドライン.
- ISO/IEC JTC 1/SC 42 “Artificial Intelligence”:IEEE EADと同様の基本方針だが,ISOが作成中のもの.
- EU General Data Protection Regulation(GDPR):EUでの個人データの取扱いを定めた法.
- OECD AI Policy Observatory:OECDのAI原則.加盟国の原則として参照されることが多い.
6.ソフトウェア・データ
最後にソフトウェアや,検証によく利用されるデータ集合をあげておく.
公平性配慮型機械学習のライブラリ:
- AI Fairness 360:IBM社が中心となり開発.
- ML-fairness-gym:Google社が中心となり開発.
- Fairlearn:scikit-learnに近いコミュニティが開発.
- AI fairness global library:これらのソフトウェアの情報がまとめられている.
公平性の検証に使われるデータ集合:
- Adult:UCI Repositoryの米国の国勢調査データ.
- COMPAS:上記のProPublicaの検証記事で分析されたデータ.
- NYPD SQF:ニューヨーク市警察による職務質問のデータ.
- Folktables:公平性検証実験のために収集された大規模データ.
謝 辞
本稿の作成に助言をいただいた江間有沙氏に感謝する.
参考文献
事例
- Bickel, P. J., Hammel, E. A. and O’Connell, J. W.: Sex bias in graduate admissions: Data from Berkeley, Science, Vol.187, Issue 4175(1975)
- Sweeney, L.: Discrimination in online ad delivery, Communications of the ACM, Vol.56, No.5(2013)
- Angwin, J., Larson, J., Mattu S. and Kirchner, L.: Machine bias(2016)
- Flores, A. W., Bechtel, K. and Lowenkamp, C. T.: False positives, false negatives, and false analyses: A rejoinder to‘Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks’, Federal Probation Journal, Vol.80, No.2(2016)
- Buolamwini, J. and Gebru, T.: Gender shades: Intersectional accuracy disparities in commercial gender classification, Proc. 1st Conf. on Fairness, Accountability and Transparency, PMLR, Vol.81(2018)
- video
- Mullainathan, S.: Biased algorithms are easier to fix than biased people, The New York Times(2019)
チュートリアル
- Kamishima, T.: Fairness-aware machine learning and data mining
- Kamishima, T.: Fairness-aware machine learning and data mining, Tutorial Slide
- 機械学習と公平性に関するシンポジウム
- 神嶌敏弘,小宮山純平:機械学習・データマイニングにおける公平性,人工知能,Vol.34, No.2, pp. 196-204(2019)
- Barocas, S. and Hardt, M.: Fairness in machine learning, NIPS 2017 Tutorial
- Barocas, S., Hardt, M. and Narayanan, A.: Fairness and machine learning(2019)
- Narayanan, A.: 21 fairness definitions and their politics, FAT * 2018 Tutorial
- Ekstrand, M., Diaz, F. and Burke, R.: Fairness and discrimination in recommendation and retrieval, RecSys 2019 Tutorial
- Zhang, L., Wu Y. and Wu, X.: Anti-discrimination learning: From association to causation, KDD 2018 Tutorial
- Cramer, H.: Challenges of incorporating algorithmic fairness into practice, FAT * 2019 Tutorial
- Kenthapadi, K., Packer, B., Sameki M. and Sephus, N.: Responsible AI in industry, AAAI 2021 Tutorialhttps://sites.google.com/view/ResponsibleAITutorial
- video
- Hutchinson, B. and Mitchell, M.: A History of quantitative fairness in testing, Proc. Conf. on Fairness, Accountability, and Transparency(2019)