6月9日 (火) 17:30~19:00 A会場(展示ホールC)
テーマ
「エージェントとしてのAIの信頼性と責任:AIの挙動理解と人間・社会との適切な関係構築の可能性」
概要
基盤モデルを用いたアプリケーションが登場して数年が経ち、文章や画像の生成から、コード作成、検索補助まで幅広く活用されるようになりました。近年では、ユーザの指示に従って PC 操作やオンラインサービスの利用を代行する「エージェント型」の応用も進みつつあり、基盤モデルは生成だけでなく人に代わって意思決定を担う存在へと変化しつつあります。
世界規模での盛んな研究活動により、基盤モデルの能力が飛躍的に向上しています。しかし、基盤モデルの出力はどの程度の状況で安定して発揮されるのか、そしてどのような条件で破綻しやすいのかといった「適用範囲」と「限界」は必ずしも十分に把握されておらず、今も尚多くの研究がなされています。こうした中、基盤モデルが責任あるタスクを人の代わりに行うエージェント型 AI アプリケーションを提供することは可能なのか、またユーザがそうしたアプリケーションを適切に利用できるのかについては、慎重な検討が必要だと考えます。
そこで、本企画では基盤モデルが社会実装された際の影響について考察し、現段階での基盤モデルの信頼性やエージェント型 AI アプリケーションとユーザの間に築かれる関係性について議論します。具体的には、現状の基盤モデルをベースにしたデスクトップエージェントやロボットは社会に受け入れられるのか、AI アプリケーションはユーザに対してどのような支援、介入を行うとよいかといった論点を掘り下げます。これにより、学生や若手研究者が人間中心の社会の実現における AI の在り方を考え、将来的な研究、実践的な取り組みへの一助とすることを目指します。
講演者
原 聡 氏
(電気通信大学 教授)
大規模言語モデル(LLM)は優れた生成性能を示す一方、内部メカニズムの不透明性やハルシネーションの発生が信頼性への障壁となっている。生成文の流暢さが向上する中で、出力結果のみから誤りを検知することは困難を極める。これに対し、モデルの内部表現から情報の真偽や信頼性を直接推定する手法は、生成物の事後確認に代わる有力な手立てとして期待されている。本講演では、Sparse Autoencodersをはじめとする内部表現の解釈手法の動向を概観する。特に、内部状態から抽出された概念の妥当性や、解釈結果の信頼性に関する議論に触れつつ、これら解釈手法のハルシネーション検知への応用可能性を考察する。
大澤 博隆 氏
(慶應義塾大学 教授)
生成AIを中心に人工知能技術が急速に発展しつつあり、特に、大規模言語モデルを中心に、画像、音声、動画など複数の様態(モダリティ)を扱う技術が統合されつつある。これに伴い、従来は技術的に困難であった、人と接し、人の代理を行うAIエージェント技術が現実的な範囲で社会に広がりつつある状況となった。本講演では、人とエージェントとの相互作用を研究する学問分野であるヒューマンエージェントインタラクションを中心に、人間社会に導入するエージェントが人間と作り出す社会の拡張のあり方を議論する。
小山田 昌史 氏
(日本電気株式会社 主席研究員)
NECの研究所では大規模言語モデル(LLM)の研究開発に長年取り組み、国産LLMであるcotomiをはじめとする数々のAIプロダクトを開発・提供してきた。当初LLMは文書要約や質問応答など「Better NLP」の域を出なかったが、近年では現実世界やデジタル世界とインタラクションするAIエージェントへの進化により、応用可能性が飛躍的に拡大している。こうした流れの中で、NECはWebブラウザ等のコンピュータを自動操作するエージェント「cotomi Act」を開発し、ベンチマーク上では世界で初めて人間を上回る自動操作精度を達成した。本講演ではコンピュータ自動操作エージェントを一例に、研究のフロンティア、社会実装の現状、そして課題と今後の研究機会について述べる。