米国防総省がAI企業Anthropicを「国家安全保障上のサプライチェーンリスク」に指定するという前例のない措置を発表した。これは通常、ファーウェイのような敵対国の企業に対して適用される制裁であり、米国企業に適用されるのは極めて異例だ。AIの軍事利用における安全制限を巡り、政府とAI企業の間で深刻な対立が表面化した形となった。
この記事のポイント
- 国防長官ピート・ヘグセスがAnthropicを「サプライチェーンリスク」に指定、軍関連取引先との商取引を即時禁止
- トランプ大統領が連邦政府全体でのAnthropic製品使用停止を命令(移行期間6ヶ月)
- 対立の核心は、Anthropicが「完全自律型兵器」と「国内大規模監視」への利用禁止条項の撤回を拒否したこと
- ライバルのOpenAIが同日中に国防総省との契約を発表、同様の安全措置を含むと主張
- Anthropicは法廷での争いを宣言、「法的根拠がなく危険な前例」と反論
対立の経緯と背景
Anthropicは2025年7月、最大2億ドル規模の国防総省契約を獲得し、国家安全保障向けAI機能の開発に着手していた。同社のClaude AIモデルは、米国政府の機密ネットワーク上に展開された唯一のAIモデルでもあった。
しかし、契約交渉の過程でAnthropicは2つの「譲れない制限」を主張した。第一に、人間の監視なしに完全自律型兵器システムへの利用を禁止すること。第二に、米国市民に対する大規模監視への使用を禁止すること。これらの安全制限(ガードレール)をAnthropic CEOのダリオ・アモデイは「現在のAI技術の限界を踏まえた正当な安全対策」と位置づけた。
国防総省はこれに反発し、既存の連邦法や軍の方針がそうした利用を既に制限しているため、契約上の明示的なガードレールは不要であり、「すべての合法的目的」に対して無制限のアクセスが必要だと主張した。国防総省の最高技術責任者エミル・マイケルは最終提案を提示し、金曜午後5時1分を期限として設定したが、Anthropicはこれを拒否した。
各方面の反応
トランプ大統領はSNS上でAnthropicを「左翼の狂信者たち」と呼び、国防総省を「力で屈服させようとしている」と非難。「我々はそれを必要としない、欲しくもない、二度と取引しない」と宣言した。
ヘグセス国防長官はさらに踏み込み、Anthropicは「傲慢と裏切りのマスタークラスを見せた」と糾弾。「軍はビッグテックのイデオロギー的気まぐれに人質にされることはない」と述べ、Anthropicの姿勢を「独善的」であり「米国の原則と根本的に相容れない」と批判した。
一方、アモデイCEOはCBS Newsの独占インタビューで反論。「我々は愛国的であり、国家安全保障のために行動してきた」と強調し、政府の措置を「報復的かつ懲罰的」と評した。Anthropicは声明で「サプライチェーンリスク指定は法的に根拠がなく、政府と交渉するあらゆる米国企業にとって危険な前例となる」と警告し、法廷での異議申し立てを宣言した。
OpenAIの戦略的動き
Anthropicの禁止措置が発表されたわずか数時間後、ライバルのOpenAIが国防総省との契約合意を発表した。注目すべきは、OpenAI CEOサム・アルトマンが「国内大規模監視の禁止」と「自律型兵器システムを含む武力行使における人間の責任」という、Anthropicとほぼ同一の安全措置を契約に含めていると述べた点だ。
これはAnthropicにとって皮肉な展開と言える。Anthropicが拒否を貫いた安全条項を、OpenAIは同等の内容で合意に至ったことになる。ただし、契約の詳細な文言や拘束力の違いについては不明な点が多い。
ビジネスへの影響
Anthropicは現在、3800億ドルの評価額でIPO(新規株式公開)を準備中とされる。国防総省の契約は同社の年間収益140億ドルに対して比較的小さな割合だが、「サプライチェーンリスク」指定がもたらす影響はそれ以上に深刻だ。
この指定により、米軍と取引するすべての防衛関連企業がAnthropicとの商取引を禁止される。これは単に政府契約を失うだけでなく、防衛産業全体からの排除を意味する。さらに、連邦政府全体でのAnthropic製品使用停止命令により、Anthropicの政府セクターにおけるビジネス基盤は事実上消滅することになる。
知っておくと便利なTips
- 「サプライチェーンリスク」指定は通常、ファーウェイなど敵対国の企業に適用される厳しい制裁措置。米国企業への適用は極めて異例
- Claude Codeを含むAnthropicの民間向けサービスへの直接的な影響は現時点では報じられていないが、今後の動向に注意が必要
- この対立はAI業界全体に波及する可能性がある。AI企業が政府との契約において安全制限をどう扱うかの先例となりうる
まとめ
今回の事態は、AI技術の軍事利用における倫理的境界線を巡る、これまでで最も深刻な対立だ。Anthropicは自社の安全原則を守る姿勢を貫いたが、その代償として政府セクターからの実質的な排除という厳しい制裁を受けた。一方で、OpenAIが類似の安全条項を含む形で契約を獲得したことは、対立の本質が「安全制限の有無」ではなく、より複雑な政治的・商業的力学にあることを示唆している。Claude Codeユーザーにとって民間サービスへの即座の影響はないと見られるが、AI業界の今後の方向性を左右する重大な局面として注視すべきだろう。
📎 元記事: https://techcrunch.com/2026/02/27/pentagon-moves-to-designate-anthropic-as-a-supply-chain-risk/


コメント