【記事更新】私のブックマーク「私が注目する大規模言語モデルの研究分野」


私のブックマーク

私が注目する大規模言語モデルの研究分野

小島 武(東京大学)

 近年の大規模言語モデル(Large Language Model:LLM)は,Transformerというモデル構造と,事前学習という学習パラダイムの変化を土台とした基盤モデルの登場によって成立し,飛躍的な性能進化を実現した.2022年の ChatGPTの登場によって,LLMの衝撃が研究コミュニティを超えて世界中に響きわたることになったが,その後も LLMは日進月歩の成長を続け,今でもエージェントや Test-time Scalingなど多くの話題で湧きたち,注目を集めている.以下では,筆者が現在興味をもっている LLMの研究領域をおのおの簡潔に整理して記載した.前述のとおり,LLMの研究開発は日進月歩であり,数か月も経てば全く新しい情報で塗り替えられることも多いが,現時点(2025年2月28日執筆)でのスナップショットという位置付けで目を通していただけるとありがたい.

1.代表的な LLM一覧

 ChatGPT以来,毎月のようにさまざまな組織から LLMが開発・発表されている.以下では,パラメータや学習の仕方などを極力公開するオープンモデルと,API経由で入出力のみをやり取りできるクローズモデルに分類して代表的なモデルを紹介する.

オープンモデル
クローズモデル
以下のサーベイ論文に代表的な LLM一覧がまとまっている.

2.Webエージェント

 LLMベースのエージェントは,サーベイ論文「A review of prominent paradigms for LLM-based agents: Tool use(including RAG), planning, and feedback learning」によると,「外部ツールや環境と能動的に相互作用する能力によって定義」された代行作業を行う LLMベースのモデルである.今まで人間が行ってきたデスクワークの一部をエージェントが代替する可能性をもち,経済ビジネスに対する大きなインパクトが期待されている.以下では, Web上での作業を前提とした Webエージェントの研究について紹介する.

検証で一般的に用いられるデータセット(Web環境)
SoTAモデル
サーベイ論文

3.機械論的解釈可能性(Mechanistic Interpretability)

 機械論的解釈可能性は,ブラックボックスである深層学習モデルの挙動を分析する目的で以前から盛んに研究が進められてきたが,LLM特有の内部状態の解析手法が多く提案され,LLMの挙動理解が進展している.以下では,機械論的解釈可能性の文脈で登場する主要な解析手法について紹介する.

ニューロンレベルの分析
アテンションヘッドの分析
ロジットレンズ
Probing
Sparse Auto Encoder(SAE)
サーベイ論文

4.LLMに対する攻撃

 LLMの社会実装が進展するにつれて,LLMが抱えるリスクについても注目が集まっている.そのうちの一つが LLMに対する攻撃である.具体的な攻撃手法には,LLMに入力するプロンプトを工夫することによって倫理的に危険なこと,差別的なこと,個人情報を含む情報を LLMに出力させる手法(ジェイルブレイク・プロンプトインジェクション)や,学習データの一部にぜい弱性のあるサンプルを含めて学習させることで推論時にぜい弱性を拡大させる手法(データポイズニング)などが存在する.最近では,攻撃に対する組織的対策として,LLM開発部隊の中にホワイトハッカー部隊を組織し,網羅的な攻撃を行うことで LLMのぜい弱性を検知・改善するレッドチーミングと呼ばれる取組みがよく行われている.
 以下では LLMに対する攻撃の代表例,レッドチーミング事例,サーベイ論文を紹介する.

攻撃手法
レッドチーミング事例
サーベイ論文

5.ハルシネーション

 LLMが間違った情報を出力する現象はハルシネーション(幻覚)と呼ばれ,こちらも LLMの社会実装を進めるうえで重要なリスクの一つとして注目されている.ハルシネーションは,大きく分類して,事実性幻覚と忠実性幻覚の二つに分類される.前者はモデルのパラメータが記憶した情報が事実とは誤っている場合の幻覚,後者は LLMのプロンプトに与えた情報に沿わない情報を出力する幻覚を指す.ただし後者については注意が必要で,LLMはプロンプトに忠実に従う傾向が強い(迎合:Sychophancyと呼ばれる現象)ため,プロンプトに与えられる情報に間違って従ってしまい,忠実性幻覚を回避できても事実性幻覚を引き起こす場合がある(例えば,1+1= 3ですと LLMに教えると,その後,LLMはそれを事実だと認識して会話や推論を続ける).ハルシネーションが発生しているかどうかを LLMの内部状態から自動で検知する研究 Uncertainty Estimationも盛んに行われている.以下のサーベイ論文に,ハルシネーションの原因や検知,対策についてよくまとまっている.

サーベイ論文

6.強化学習(ルールベースの報酬)

 事前学習済みの LLMに対して,教師あり学習を行ったのちに,RLHF(Reinforcement Learning through HumanFeedback)と呼ばれる強化学習を行うことで性能を飛躍的に高める手法が存在する.強化学習に必要な報酬モデルは,人間のアノテーションデータで学習した外部モデルを用いることが一般的であったが,2025年に公表された DeepSeek-R1と呼ばれる非常に性能の高いモデルの強化学習に用いる報酬モデルがルールベースとなっていたことから,その学習の安定性や性能改善の高さに注目が集まっている.具体的には,数学の文章問題やプログラミングの問題で,最終的な回答がルールベースで合っているかどうかでチェックして報酬を与える方法である.強化学習の過程で思考の連鎖(Chain of Thought:CoT)文が自然と長くなり,「アハ体験(aha moment)」が自然発生している点は興味深い.詳しくは上記 DeepSeekのペーパを参照.

7.ルール遵守

 LLMが特定のタスクを実行する際に,定められた複数の制約(ルール)を遵守できることは,社会実装を行うにあたって重要な能力の一つである.国の法令や会社の規則など,守るべきルールはたくさん存在する.複数のルールを同時に守れるかどうかを検証する研究は,まだまだ現実的な問題設定とはいえないまでも,トイデータを使ったものは存在しており,今後の研究の進展が期待される.以下にいくつかを紹介する.

8.学習データと能力の関係性

 LLMは「事前学習」によって高い汎用性(一つのモデルでさまざまな種類のタスクを解くことができる能力)を獲得したといえるが,学習に用いるデータと発現する能力の関係性について意外にも厳密に解き明かされているわけではない.というのも,LLMの事前学習は,インターネットからスクレイピングした大量のテキストデータを用いて次の単語をひたすら予測する教師なし学習を行うのが一般的であるが,指定された特定のタスクを解くために特化した学習方法ではない.事前学習に用いられる大量のテキストデータの中の,どのような内容・特徴のデータが LLMにどのような能力を身につけさせることができるかは興味深い問題である.事前学習ではなくても Fine-tuningの過程で意図しないタスクの性能向上が発現する場合もある.以下ではこれら疑問に答えるための知見を与えるいくつかの研究を紹介する.

9.次世代 LLMに向けて(モデル構造や学習方法)

 Transformerは,2017年に発表されて以来,その性能と学習効率の高さから自然言語処理分野においてデファクトスタンダードなモデルとして利用され続け,多くの代表的な LLMのモデル構造にも採用されている.Mixture of Expert(MoE)と呼ばれる効率的な計算量での学習が可能なモデル構造も,母体は Transformerである.ロングコンテクスト化( LLMの入出力の文章が長くなっている)が進んでいる今,時系列方向に情報を畳み込んで推論時の速度・メモリ効率の実現を目指したモデルが提案されている.代表的なモデルは Mambaである.また,量子化と呼ばれる圧縮技術で大規模なモデルをより効率的に学習推論する取組みも盛んに行われている.最近では,画像や動画生成の分野でよく使われる拡散モデルの学習方法を LLMに適用する研究も行われ,新しい学習方法として注目されている.

10.国際会議

 LLMの研究成果は自然言語処理( NLP)界隈の国際会議で発表されることが一般的だが,NeurIPS,ICML, ICLR,AAAI,IJCAIなどの総合的な国際会議でも多くの論文が採択されている.以下は NLP界隈の主要な国際会議一覧である(注:網羅的ではない).

 参考までに,ACL系統の国際会議で採択された論文はすべて,ACL Anthologyというサイトで一覧化され公開されている.