大規模言語モデル(LLM)を支える技術——Transformerアーキテクチャ、強化学習人間フィードバック(RLHF)、推論最適化——は、現在最も激しく特許競争が繰り広げられている技術領域の一つである。各社は特定の技術実装を特許請求項で囲い込もうとしているが、同時に「基盤技術への特許取得」という行為がはらむ制度的・倫理的な限界にも直面している。本稿では、LLMアーキテクチャ特許の主要な技術領域と各社の権利化戦略を分析する。
Transformer特許の経緯:起源とその後
現代のLLMはほぼ例外なく、2017年にGoogleの研究者Vaswani et al.が発表した「Attention Is All You Need」論文(arXiv:1706.03762)に基づくTransformerアーキテクチャを採用している。この論文は2017年6月にarXivに公開され、同年のNIPS(現NeurIPS)で発表された。
Transformerに直接関連する特許はGoogle(現Alphabet)名義で複数出願されている。代表的なものとして、セルフアテンション機構に関連するU.S. Patent Application No. 16/166,620(出願日:2018年10月)がある。この出願は2017年の論文公開後に優先権を主張する形で出願されており、2020年代初頭にかけて複数の継続出願(continuation application)が行われた。
しかしGoogleはTransformer関連特許を積極的にライセンス収益化することに、少なくとも当初は慎重だった。その理由の一つは、特許を主張することが同時に「自分たちが技術を独占しようとしている」という批判を招くリスクへの懸念である。学術コミュニティとの関係を維持することがGoogle Brainの研究文化にとって重要だったという事情もある。
また、Transformerアーキテクチャそのものは、その後の発展(GPT系、BERT系、T5等)において多くの変形・改良がなされており、特定の実装に対する特許が広い技術領域を網羅できるかどうかは不明確である。「Transformer特許を持つことで業界を支配できる」という単純な議論は成立しない。
各社が出願する技術領域の地図
LLM関連特許の出願は、大きく以下の四つの技術領域に分類できる。
(1)アーキテクチャ設計
アーキテクチャ設計に関する特許は、モデルの構造そのものを対象とする。アテンション機構の変形(多頭注意、フラッシュアテンション、スライディングウィンドウアテンション)、モデル並列化手法、混合専門家(MoE:Mixture of Experts)構造などが主要な出願対象である。
Flash AttentionはStanford大学の研究者Dao et al.が2022年に発表した効率的なアテンション計算手法である(arXiv:2205.14135)。この技術は計算効率を大幅に向上させるとして多くのLLM実装に採用されており、関連特許がStanford大学名義および当該研究者の新会社(Together AI)から出願されている。大手各社もこれに類する効率的アテンション手法の特許を出願している。
MoE(混合専門家)アーキテクチャはGoogleが特に力を入れている領域で、Switch Transformer(Fedus et al., 2022)に関連する特許出願が複数確認されている。Mixtral(Mistral AI)によるMoEモデルの公開(2023年12月)も、この技術領域の重要性を改めて示した。
(2)学習手法
学習手法に関する特許は、モデルをどのように訓練するかに関わる技術を対象とする。事前学習(pre-training)の効率化、ファインチューニング手法(LoRA、AdapterLayer等)、蒸留(distillation)技術、および後述するRLHF関連が主要な出願対象である。
LoRA(Low-Rank Adaptation)はMicrosoft Research(Hu et al., 2021)が発表した効率的なファインチューニング手法で、パラメータ数を大幅に削減しながら高い性能を実現する。この技術に関連する特許はMicrosoft名義で出願されており、同社のAzure AI Studioを通じた商業利用の法的根拠の一部を形成している。
(3)推論最適化
推論最適化(Inference Optimization)は、訓練済みモデルを実際に動かすコストを削減する技術群で、商業的な重要性が特に高い領域である。量子化(quantization)、プルーニング(pruning)、スペキュラティブデコーディング(speculative decoding)、KVキャッシュ最適化などが主要な対象技術である。
スペキュラティブデコーディングはDeepMindおよびGoogleが2023年に発表した技術(Leviathan et al., 2023、arXiv:2211.17192)で、小型モデルが生成した候補トークンを大型モデルが検証することでデコード速度を大幅に向上させる。この技術はAppleのオンデバイスAI処理においても採用されており、関連する特許出願が複数の当事者から行われている。
(4)エージェント技術・ツール使用
AIエージェント(自律的にツールを使用してタスクを遂行するシステム)に関連する特許は、2024年以降急速に増加している。ツール呼び出し(Function Calling)、マルチエージェント協調、長期記憶管理、コンテキストウィンドウ拡張などが主要な出願対象である。OpenAIのFunction Calling機能(2023年6月導入)、AnthropicのTool Use機能(2024年)に関連する特許出願は、エージェント技術の先行者利益を確保しようとする試みである。
RLHF関連特許:OpenAI対Anthropicの技術的差別化
強化学習人間フィードバック(RLHF:Reinforcement Learning from Human Feedback)は、LLMが人間の選好に沿った出力を生成するための調整手法として、ChatGPTの成功に大きく貢献した技術である。この技術をめぐるOpenAIとAnthropicの知財的対立は、AI業界の知財競争の縮図といえる。
OpenAIのRLHF特許戦略
RLHFという手法の学術的な起源は2017年(Christiano et al.、arXiv:1706.03741)にさかのぼるが、これをLLMのスケールで実用化したのはOpenAIである。OpenAIはInstructGPT(2022年)に適用したRLHFの具体的な実装——報酬モデルの設計、PPO(Proximal Policy Optimization)の改良、ヒューマンフィードバック収集の手法——に関する特許を出願している。これらの特許は、理論としてのRLHFではなく、実装の具体的なアーキテクチャを対象としている。
AnthropicのConstitutional AI
AnthropicはRLHFの代替・補完手法として「Constitutional AI(CAI)」を開発した(Bai et al., 2022、arXiv:2212.08073)。CAIは「憲法」と呼ばれる原則集合に基づいてAI自身が自己評価・修正を行う手法で、人間によるフィードバックの必要性を低減する。この技術はOpenAIのRLHFとは異なる技術経路を歩んでおり、知財上の衝突を回避しながら差別化を図るという側面がある。
AnthropicはCAI関連の実装技術について特許出願を行っており、特にAIが自己評価を行うためのプロセス設計、安全性評価の自動化、および「ハームレスネス」と「ヘルプフルネス」のトレードオフを調整する機構が出願の核心を成している。
注目すべき点は、AnthropicはCAIの論文を公開することで研究コミュニティにおける先行を主張しつつ、実装の詳細を特許で保護するという二層戦略を採っていることである。論文公開によって特許の新規性(novelty)の問題が生じる可能性があるが、論文の概念開示と特許の具体的請求項の間には通常一定の差異があり、実装の特定の工夫については特許保護が可能である。
「基盤技術に特許を取ること」の限界
LLMアーキテクチャに関する特許競争が進む中、「基盤技術への特許取得」という戦略がはらむ根本的な限界が顕在化している。
開示義務のジレンマ
特許制度の根本原理は、発明者が技術を社会に開示する代償として一定期間の排他権を付与するというものである(35 U.S.C. §112:実施可能要件・明細書記載要件)。LLMに関する特許出願において、各社は競合他社に技術情報を開示することになる。特に、GPT-4やClaude 3のようなフロンティアモデルについては、アーキテクチャの詳細を特許明細書に記載することで技術情報が公になるリスクがある。このジレンマから、各社は特許請求項を「できるだけ広く、しかし技術的核心部分はぼかして」記載する傾向があり、これが後述の101条問題とも絡む。
業界の暗黙のルール
現時点(2026年)では、主要AI企業間で「基盤的なLLM技術については、互いに特許訴訟を仕掛けない」という暗黙の合意が存在しているとみられる。その理由は少なくとも二つある。第一に、Googleが持つTransformer関連特許を厳格に行使すれば、業界のほとんどのプレイヤーが侵害リスクを負うことになり、反訴・クロスライセンスの応酬になりかねない。第二に、スマートフォン戦争(Apple対Samsung等)の教訓として、特許消耗戦は膨大なコストと時間を消費し、必ずしも最終的な競争優位に直結しないことが認識されている。
ただし、この「暗黙のルール」は永続するものではない。市場環境の変化(企業の業績悪化、M&A)や、NPE(特許不実施主体)による特許取得・行使によって、均衡が崩れる可能性は常に存在する。
ソフトウェア特許の101条問題との交差点
米国特許法35 U.S.C. §101は、特許適格対象(patent-eligible subject matter)を「プロセス、機械、製造物、組成物」と定めており、「抽象的アイデア」は特許の対象外とされる。連邦最高裁判所はAlice Corp. v. CLS Bank International(2014年)において、コンピュータ上で実装されただけの抽象的アイデアは特許適格性を有しないという基準(Aliceテスト)を確立した。
LLMアーキテクチャの多くは「アルゴリズム」であり、数学的原理の適用である。このため、LLM関連特許の相当数が101条拒絶の対象となる可能性がある。USPTO審査官は2024年以降、AI関連出願に対して101条拒絶を行う頻度が増加しており、特許取得の難易度が上昇している。
各社の特許代理人は、この問題に対応するために請求項を「特定のハードウェア」(特定のプロセッサ構成、特定のメモリ管理手法)と結びつける形で記載する戦略を採っている。たとえば、「複数のGPUを用いたモデル並列化における特定のテンソル分割手法」のように、技術的な具体性を持たせることで101条の壁を越えようとする。しかし、このアプローチは特許の権利範囲を狭めるという副作用がある。
さらに、2024年から2025年にかけてUSPTOはAI関連特許に関する審査ガイダンスを改訂した。改訂されたガイダンスは「実際の技術的課題(technical problem)を解決する具体的な技術的解決策(technical solution)」を提示することを特許適格性の重要な要素として位置づけており、単なるAIアルゴリズムの抽象的な記述では特許を取得することが難しくなっている。
欧州・日本における制度的差異
米国の101条問題は、欧州・日本には直接には適用されない。しかし、欧州特許条約(EPC)第52条は「精神的行為・数学的方法・コンピュータプログラムそれ自体」を特許対象外と定めており、実質的に類似した問題が生じる。欧州特許庁(EPO)は「技術的性質(technical character)」を特許適格性の基準としており、LLM関連出願については「特定の技術的課題に対する技術的解決策」を明示する必要がある。
日本特許法においては、「自然法則を利用した技術的思想の創作」(第2条第1項)が発明の定義であり、ソフトウェアは「ハードウェアと一体になって動作する」ことが示されれば特許の対象となる。AI関連特許については特許庁が2019年に審査基準を改訂しており、「学習済みモデル」そのものを物の発明として保護できる可能性を明示した。これにより、日本はAI関連特許の取得において米国や欧州と比較して比較的容易な環境を提供している。
今後の焦点:エージェント特許と推論特許の争奪戦
2026年以降のLLM特許競争において、最も注目される技術領域は(1)AIエージェント・自律実行システムと(2)推論(reasoning)モデルの二分野である。
OpenAIのo1シリーズ(2024年9月公開)、Anthropicのextended thinking機能、GoogleのGemini Thinkingに代表される「推論モデル」は、従来のLLMよりも複雑な論理推論を行う能力を持つ。これらのモデルの中核をなす技術——思考連鎖(Chain-of-Thought)の内部化、検索木の構築、プロセス報酬モデル(PRM)——に関する特許出願は2024年から急増している。推論モデルは現時点で最も競争が激しい技術フロンティアの一つであり、この領域における特許の先取りが今後の競争優位を左右する可能性がある。
LLMアーキテクチャ特許の競争は、技術革新のスピードに制度が追いつかない状況の中で続いている。特許が取得される前に技術がコモディティ化するリスク、101条問題による取得困難、暗黙の不戦協定の脆弱性——これらの要因が複雑に絡み合いながら、AI知財競争の第二幕が展開されようとしている。
本稿は「AI知財戦争2026」シリーズ第2回です。第3回では、NYT対OpenAI訴訟をはじめとする学習データをめぐる著作権訴訟の現状を分析します。


コメント