*こちらは開催報告の概要版です。詳細版はこちらをご覧ください。
*英語版はこちらです。 The English version is here.

日時 2017年5月24日(水)17:50~19:30
会場 ウインクあいち大ホール(人工知能学会全国大会のセッション内)
パネリスト 松尾豊(東京大学)、西田豊明(京都大学)、堀浩一(東京大学)、武田英明(国立情報学研究所)、長谷敏司(SF作家)、塩野誠(株式会社 経営共創基盤)、服部宏充(立命館大学)、山川宏(ドワンゴ)、栗原聡(電気通信大学)Danit Gal(IEEE、北京大学、精華大学、Tencent)
司会 江間有沙(東京大学)、長倉克枝(科学ライター)


人工知能学会倫理委員会は2017年2月に「人工知能学会 倫理指針」を公開した。一方、海外でも人工知能と倫理や社会に関するドキュメントが次々と公開されている。そこで公開討論では、まず人工知能(AI)と倫理、社会をめぐる国内外の状況についての話題提供をしたのちパネルディスカッションではThe IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systemsのアウトリーチ委員会の委員長であるDanit Gal氏をゲストに迎えて議論を交わし、今後も連携していく方針を確認した。
話題提供では最初に江間が「AIと倫理」を考えるうえでの倫理を「研究者倫理」、「AIの倫理」、「倫理的AI」に3分類し、総務省や内閣府、人工知能学会、Future of Life Institute (FLI)、IEEE等国内外で公開されている指針や原則を紹介し、それぞれの特徴を整理した。次に、倫理委員長の松尾が倫理指針策定の経緯を話した。続いて、The IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systemsのエグゼクティブ・ディレクターであるJohn C. Havens氏が「倫理的に調和したシステム(Ethically Aligned Design)」について、またFLIの人工知能プロジェクトのディレクターであるRichard Mallah氏が「アシロマAI原則(Asilomar AI Principles)」の紹介をビデオメッセージで行った。
パネルディスカッションではまずGal氏が「倫理指針」は研究者が社会と関わるだけではなく社会から学ぶことや、研究者の倫理的な行動規範を強調している点がユニークであり、それは今後のAI開発に不可欠な要素だろうとコメントした。一方で第9条の「AIが人間と同じ基準を遵守する」ことの意味が問われた。人間の知能についてわからないことがある中で、人間のように振る舞い、説明責任を持つAIを期待できるのか。あるいはAIをパートナーと認めているとしたら、AIに権利と義務を課すことまで考えないといけないが、この「倫理指針」はそこまで議論をしているようには見えない、との批評があった。
これに対し松尾は、AIをパートナーとして扱おうとするのは鉄腕アトムや八百万の神といったAIとロボットが共生するイメージが日本文化にあるためだと強調したうえで、第9条があることで「AIが社会のメンバーとなるとはどういうことか」という議論を誘発することを狙っていると説明した。また法人的な意味でAIを位置づける必要はあるのではないかとのコメントもあった。
また、一般からのコメントフォームには「倫理指針による研究への制約はないか」との質問があった。これに対してパネリストからは制約を課すものではないが指針があることによって自分たちの研究を振り返るきっかけとしてほしいとの返答があった。
次にThe IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systemsの「倫理的に調和したデザイン(Ethically Aligned Design)」の拘束力(binding force)について塩野が質問した。Gal氏の答えは「短期的にはNOだが、長期的にはYES」だった。本書そのものは論点やをリスト化したものにすぎないが、IEEEによって標準化されることで、技術設計の方法が体系化されることもあるだろうとの回答だった。
続いて塩野は喫緊の問題として、自律型兵器システム(Autonomous Weapon Systems, AWS)や致死的自律型兵器システム(Lethal Autonomous Weapon Systems, LAWS)が海外ではどのように議論されているか、また研究者はどこまでその議論に関わるべきと考えているかを質問した。これに対しGal氏は、自律型兵器システムはすでに開発されており、攻撃にも防御にも使用できるデュアルユース技術であるため、技術者は技術が悪用される可能性があることを念頭に置きながら研究に取り組むべきだとコメントした。
悪用されることへの措置は人工知能学会の「倫理指針」にも書かれているため、Gal氏から逆にパネリストに「技術を作れる場合、作るか」と質問があった。これに対しパネルからは、汎用性を持つということは自律性を持つということであり、自律性の危険な部分に技術的にどう対応するかが今後の課題になること、またそのような技術を作れるのであれば作るが、技術者としてはより良く使う方法も考えていかなければならないとのコメントがあった。一方で、何が良いかはわからないため研究者は社会的影響についてできる限り想像すること、また悪用されないように評価する仕組みが必要になるかもしれないとの意見も出た。さらには自律性を持つこと自体は悪ではなく、AIが人間のパートナーとなった時に倫理的に良い方向へ行く可能性は持っていたいという意見も出たが、これに対しGal氏からはそうなった時、AIに表現の自由や意思決定の自由等を与えるのかとの質問があった。パネルからは、AIがパートナーとなった時には表現の自由は与えるべきであるだろうし、AIが社会の構成員となる場合には責任を果たすためにコミュニケーションを人と取れる必要があるだろうとの返答があった。
最後に松尾が、技術的に何ができるのか、また技術者としての我々は何を考えるべきかを考えるため倫理指針を策定したと経緯を振り返った。今回の公開討論ではその結果に対し国際的にも意義が認められたことから、今後は一歩踏み込んだ議論をしていきたいとまとめた。さらに、今後IEEEやFLIなど国際的にも連携していくことが確認された。