企業責任

Ai-it

【AI/IT深掘り】AI倫理の岐路──Anthropicと米国防総省の対立、Metaの敗訴が示す課題【2026年3月30日】

2026年3月30日。AI技術の軍事利用をめぐるAnthropic(アンソロピック)と米国防総省(ペンタゴン)の対立、そしてMeta(メタ)が相次いで敗訴した裁判が、AI業界全体に波紋を広げている。Anthropicは自社AIモデルの自律型兵器や国内監視への利用に反対の姿勢を貫いてきたが、イラン紛争の開戦時に同社の技術が実際に使用されたとの報道もあり、AI企業の倫理方針と現実の乖離が浮き彫りになった。一方、Metaは自社製品の有害性を認識していたとする訴訟で敗れ、AI研究や消費者安全への影響が懸念されている。本記事では、BloombergおよびCNBCの報道を基に、AI倫理と規制をめぐる最新動向を多角的に分析する。