OpenAIは2026年2月28日、米国防総省(DoD)と機密環境における高度なAIシステムの展開について正式に合意したことを発表した。この合意は、Anthropicが国防総省との交渉で決裂した直後というタイミングで発表されたものであり、AI業界と米国の安全保障政策の関係に大きな波紋を投げかけている。
この記事のポイント
- OpenAIが米国防総省と機密環境でのAI利用に関する契約を締結し、3つの重要な使用制限を盛り込んだ
- Anthropicは国防総省が要求した安全対策の撤廃を拒否し、「サプライチェーンリスク」に指定される事態に発展
- OpenAIは自社の契約が過去のどの機密AI契約よりも多くの安全対策を含んでいると主張している
契約の具体的な内容と3つの使用制限
OpenAIと国防総省の間で締結された今回の合意には、3つの明確な使用制限が組み込まれている。第一に「米国内における大規模監視への利用禁止」、第二に「自律兵器システムの制御への利用禁止」、第三に「社会信用システムなどハイリスクな自動意思決定への利用禁止」である。これらの制限は、AIの軍事利用に対する国際的な懸念を意識したものといえる。
さらにOpenAIは、安全対策の実装について完全な裁量権を保有することが契約に明記されていると説明している。具体的には、AIシステムはクラウド経由で展開され、機密保持義務を負った専任担当者が継続的に監視する仕組みが構築される。これにより、技術を提供する側が安全対策のレベルを一方的に引き下げられることはないという。OpenAIは他のAI企業にも同様の条件で国防総省との契約が認められるよう要請しており、業界全体のスタンダード確立を目指す姿勢も見せている。
Anthropic決裂の経緯と政治的対立
この合意が注目される最大の理由は、Anthropicと国防総省の交渉が決裂した直後に発表されたという点にある。報道によれば、国防総省はAnthropicに対して「国内大規模監視」および「完全自律型兵器」に関する安全対策の撤廃を要求したが、Anthropicはこれを明確に拒否した。AI安全性を企業理念の中核に据えるAnthropicにとって、これらの要求は受け入れられるものではなかったとされる。
この決裂を受けて、トランプ大統領はAnthropicを「過激な左翼」企業と公然と批判。さらにヘグセス国防長官は、Anthropicを「サプライチェーンリスク指定」の対象にすると発表した。これは事実上、Anthropicを政府のAI調達から排除する措置であり、同社のビジネスに大きな影響を与える可能性がある。Anthropicはこの指定に対して法廷で争う姿勢を表明しており、AI企業と政府の関係が法的紛争にまで発展する異例の事態となっている。
AI企業の安全性と政府利用のジレンマ
OpenAIは今回の契約について、「Anthropicを含む過去の機密AI導入契約よりも多くの安全対策を盛り込んでいる」と主張している。これは単なる自社の優位性アピールにとどまらず、Anthropicへのサプライチェーンリスク指定が不適切であると政府に伝える意図も含まれているとみられる。つまりOpenAIは、Anthropicを排除する形ではなく、安全対策付きの条件を業界全体に広げるべきだという立場を示している。
しかし、この構図は深刻なジレンマも浮き彫りにしている。AI企業が政府と契約する際、安全対策をどこまで譲歩するかという問題は、今後のAI業界全体にとって避けて通れない課題である。Anthropicのように安全性を最優先にすれば政府との関係が悪化し、逆に政府の要求に全面的に応じれば社会的な信頼を失いかねない。OpenAIの今回の合意は、その中間点を見出そうとする試みとも解釈できる。
知っておくと便利なTips
- 「サプライチェーンリスク指定」とは、米連邦政府がセキュリティ上のリスクがあると判断した企業や製品を政府調達から排除する制度で、過去にはHuaweiなどが対象となった
- 米国の機密AI利用は、情報分析・サイバー防御・兵站最適化など多岐にわたるが、自律兵器への応用は国際的に議論が続いている分野である
- Anthropicは2023年にDarioとDaniela Amodei兄妹がOpenAIから独立して設立した企業で、AI安全性研究を企業の根幹に据えている
まとめ
OpenAIと米国防総省の機密AI利用合意は、AI技術の軍事・安全保障利用に関する新たな基準を示す重要な出来事である。3つの使用制限と安全対策の完全な裁量権の確保は、無制限な軍事利用への歯止めとして一定の意義がある。一方で、Anthropicの排除とサプライチェーンリスク指定という政治的な動きは、AI企業が政府との関係においてどのように安全性の原則を守るかという根本的な問題を提起している。今後、他のAI企業がどのような条件で政府と契約を結ぶかが注目される。AI業界全体にとって、技術革新と倫理的責任のバランスが問われる局面が続くことになりそうだ。
📎 元記事: https://www.watch.impress.co.jp/docs/news/2089493.html


コメント