1.はじめに

倫理委員会は過去2年間、倫理指針の策定を中心とした「専門家の責任や倫理」に関する公開討論を全国大会にて行ってきた。一方で「人工知能(AI)の倫理」として、様々な問題に取り組む必要も指摘されている。そこで本年度は、一般公開企画「AIに関わる安全保障技術を巡る世界の潮流」を開催し、安全保障に関する様々な議論を整理する機会を学会員や一般聴衆に提供することとした。
さらに倫理委員会委員長である松尾豊による開会挨拶で、約4年前に立ち上がった倫理委員会が、この6月から武田英明を次期委員長とする新体制に移行することを発表した。

2.企画の背景と趣旨説明

続いて倫理委員の江間が、本企画の趣旨説明として現在、産学官民で議論されているAIと安全保障を巡る様々な事例を紹介した。例えば2018年3月には「韓国科学技術院(KAIST)のキラーロボット研究への協力を中止する」とした宣言がスチュアート・ラッセル氏やジェフリー・ヒントン氏など世界中のAI研究者から提出された。4月にはGoogle社員3000人以上がサンダー・ピチャイ最高経営責任者に、AIを軍事利用する米国防総省のProject Mavenから撤退するよう要請する書簡を提出したことが話題となった。
2015年の人工知能国際合同会議(IJCAI)でも非営利団体のThe Future of Life Instituteが公開書簡を提出、議論が行われたほか、昨年度の倫理委員会年次大会でも取り上げたように、自律型致死兵器システム(Lethal Autonomous Weapons Systems: LAWS)の規制に関して国連での議論が昨年から始まっている。
このような中、誰が何を議論しているのかを理解するための材料が必要であるという問題意識のもと、本セッションが企画された。

3.安全保障技術の国際的な動向

EnablerとしてのAI

最初に拓殖大学国際学部教授・海外事情研究所副所長の佐藤丙午氏が「安全保障技術の国際的な動向」と題して話題提供を行った。AIの安全保障技術や軍事利用についての懸念があるが、実際はターミネーターのようなロボット型の殺戮兵器ができるのではなく、AI技術は兵站から戦場の管理まで正確性(Accuracy)と速度(Speed)という既存の兵器システムの性能の可能性を向上させるもの(enabler)として理解されるべきであると指摘した。

Targeting Cycleで使われる人工知能

具体的に理解するために、北大西洋条約機構(NATO)による、攻撃に至るまでの政策決定プロセス「Targeting Cycle」の中でAIがどのように活用されているかを考える。攻撃に至るには、Find→Fix→Track→Target→(Select)→Engage (Execute)→Assessのサイクルを回していくが、これらのすべての段階において機械による高速計算能力は攻撃能力を向上させる。そのため、各段階においてAIが用いられる可能性がある。
また、各段階では同じ技術ではなく別々の技術が必要になる。例えば最初のFindでは標的の検知・識別が重要になるが、最後のAssess段階では、判断の評価や再攻撃のレコメンド技術が必要となる。
このように安全保障分野で用いられている技術にはバリエーションがあり、かつ分節化されている。そして、FindやFixなどを時間的制約のある中で高速計算処理するようなシステムはすでに利用されている。

安全保障を考える上で求められるEnabler

では、安全保障を考える上で、どのような可能性の向上が求められているのか。3点紹介された。
(1) 大量データ処理の効率化
Google社が関わっていた米国防総省のProject Mavenは、収集された画像や音声情報などを戦闘支援システムとして用いるものであり、これは「軍事」よりは「インテリジェンス」活動に近い。大量にあるデータや情報が十分活用されていないのは安全保障だけではない。膨大なデータを人間のみで処理するのは不可能であり、AIを用いたインテリジェンス活動の効率化は様々な業界で行われている。一般の技術開発、技術利用と軍事での利用を明確に区別できるのかは、繰り返し問われる問題であり、データ処理自体は、どのようなデータソースを用いるかどうかの問題はあるが、通常の商業的活動と変わらない。
(2) 戦闘の決定サイクルの迅速化
今日の戦争は短期決戦の時代に突入しており、前述のTargeting Cycleにおいても先行的な攻撃が重視される。スピードが極めて速くなっているため、一つ一つの段階において、「有意の人間の判断(meaningful human control)」を果たして担保できるのかが問題となる。特に防御戦闘においては、高度に自動化することが重要となる。イスラエルのIron Dome(アイアンドーム)は、都市を守るためにレーダー、コントロールセンターとランチャーを都市の周りに配置し、攻撃を自動的に感知して迎撃する防御システムである。いつどのような形で攻撃されるかわからないものに関しては自動化することは避けられず、人間の判断よりも早く対応をすることが可能になる。防御システムの中には、攻撃電波を受け取ったら相手の拠点への攻撃を自動的に行うシステムもあるが、この自動化された防衛システムがLAWSであるかどうかに関して結論は出ていない。
(3) 複雑な兵器システムの操作
複数のシステムを人間が個別操縦するのが理想的な姿である。しかし現実的には目視確認できないような遠隔地での無人兵器システムや、個別のドローンや機械同士の自律的なコミュニケーションが必要となり、そこでの技術の可能性が指摘されている。

Enablerとして用いられることへの課題

AIが軍事に用いられることで既存の兵器システムの性能が向上する一方で、兵器として利用されることへの課題もある。例えば、AIを活用した兵器が国際人道法に反する可能性が指摘されている。また、技術的な安全性の問題のほか、外部環境の変化に対し、当初のアルゴリズムが軍の要求レベルに適合するような変化できるのかという課題がある。戦争というのは政治目的を達成するための手段であるが、その目的を逸脱する可能性をもたらす兵器を軍が受け入れないとの指摘もある。
またAIは民生技術として開発されるものが多く、様々な分野で応用として使われることが前提としてある。そのためテロリストなどの非国家主体が技術を活用する可能性も指摘されている。さらに、中国においては「軍民融合政策」が推進されている。
AIがシステムの可能性をさらに向上させるもの(Enabler)である以上、AI研究者や民間企業がどのような対応や技術開発を行うかが問われている。

4.自律型致死兵器システムとCCW

LAWSに関する議論の経緯

外務省軍縮不拡散・科学部通常兵器室上席専門官の南健太郎氏からLAWS規制に関する国連の会議が紹介された。一般的にLAWSは「現実にはまだ存在していない兵器」であると認識されているため、議論の難しさがある。
ロボット兵器に関しては、2009年に非政府団体である国際ロボット兵器規制委員会(International Committee for Robot Arms Control: ICRAC)が危惧を呈したのが最初であり、その後、2012年にヒューマン・ライツ・ウォッチが、「人間の関与なしに自律的に攻撃目標を設定し、殺人を行うことができる『完全自律兵器』が20-30年の間に開発され得る」と指摘したことからLAWSに関する議論の必要性への国際的な関心が顕著に高まった。2013年には複数の国際NGOが「殺人ロボット防止キャンペーン」を開始し、国連人権理事会ヘインズ特別報告者による「自律型致死性ロボット」に対する国際社会の対処の必要性が主張された。
そのような状況下、LAWSは国連人権理事会で最初に公式な国際的議論が行われた。人権理事会の特別報告者によって2回にわたってLAWSに関する報告が提出されたが、国連の人権理事会は人権に重点が置かれ安全保障に関する議論が軽視される懸念があるとの指摘等もあって、現在では特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)において議論が行われている。

CCWにおける議論の現状

CCWは非人道的な効果を有する特定の通常兵器の使用の禁止または制限に関する条約であり、1980年に採択、83年に発効している。条約は手続等基本的事項につき規定した本体条約及び個別の通常兵器について規制する5つの附属議定書からなる。CCWの枠組みの中でLAWSは第Ⅵ議定書として法的拘束力のある条約を作ることも可能性の一つとして議論が行われている。
2014年から2016年にかけてCCWにおいてLAWSに関する非公式会合が開催された後、2017年11月にはCCW政府専門家会合(Group of Governmental Experts: GGE)の第1回、2018年4月第2回会合が開催され、8月に第3回会合が予定されている。
GGEでは第1回と第2回合わせてもまだ実質10日間しか議論が行われていない。8月の第3回会合では、本年の議論を踏まえた報告書(議長報告)の作成が予定されるが、CCWではコンセンサス方式がとられているため、1か国でも反対があると意思決定は成立しない。そのため8月の議論の進展次第ではあるが、将来的に作成すべき文書を法的文書とするのか政治文書とするのか等の難しい論点も含めて今後の議論をどのように進めていくのか、まだ見通しが不明な点も多い。

LAWSをめぐる論点

具体的にGGEで議論されている論点として、(1) LAWSは国際人道法を順守できるのか、がある。完全自律である場合、法の順守を担保することが難しいため、人間の関与が必須であるとの点については各国に共通の理解があると考えられる。即予防的な禁止措置を取るべきであるとする国もあるものの、LAWSとは具体的にどのような兵器であるのかの定義が固まっておらず、難しい議論が続いている。現存しないLAWSの定義について議論すると多大な時間を要することが明らかなため、定義問題を棚上げして、他の重要論点の議論を行っているのが現状である。
そのほか、(2) 倫理上の問題として、ロボットに生命を奪う権利を与えてよいのかの議論がある。最終的な判断を人間が行うのであれば、ロボットに生殺与奪権がないとしてよいのかに関しても意見が分かれている。
また(3) 規制対象は完全自律のみで良いのか、半自律でも規制をするべきではないのか、その境界をどこに引くべきなのか、(4) 規制対象に攻撃用兵器だけではなく防御用システムも含めるべきか、(5) Targeting Cycleなどの一連の流れの中、どこで人間の関与があればよいのか、(6) 責任の所在はLAWSを使った機関、指揮官、オペレーター、製造した企業などどこにあるかを明確化することは可能なのか、(7) LAWSは防御システムや安全保障上の観点からのメリットもあるためデメリットばかり見るべきではないのではないか、(8) 規制のための新たな法的枠組みが真に必要なのかなど様々な論点がある。

今後の議論と日本の立場

様々な論点に対してコンセンサスが得られない場合、将来的にはCCWの枠組みではなく、合意できる国々のみで別の条約を作るなどの動きが出てくる可能性もないとは言えない。しかし、日本としてはLAWSに関する議論はCCWの枠組みで行うことが適当であるとする考えが示された。また、人間が関与しない完全自律型の致死性兵器の開発を行う意図はないこと、一方で安易な規制により先端技術の民生分野における健全な発展が阻害されてはならないという立場を取って交渉に臨んでいることについても紹介された。

5.おわりに

質疑応答では、安全保障をめぐる国際的な議論がある中で、技術開発の在り方や研究者が考えるべきことは何かについて議論が行われた。

質問に答える佐藤氏(左)と南氏(右)。


最後に、新倫理委員長である武田が閉会挨拶を行い、軍事や安全保障に関して、研究者は誰一人として無関係ではいられない問題であると指摘した。現在は研究者と社会が離れていられない時代であり、AI研究者は自分の研究だけをやっていればよいのではなく、自分が作ったものが社会に影響を与えていくということ、研究者も意識を変えて、積極的にAIの倫理について考えていくことが重要であり、今後の倫理委員会の活動に対して学会内外から様々なご意見や提案をいただきたいと述べて公開セッションを締めくくった。