Anthropic社のCEOダリオ・アモデイ氏がニューヨーク・タイムズのオピニオン動画「Is Claude Coding Us Into Irrelevance?(Claudeは我々を無用の存在にしようとしているのか?)」に出演し、AIモデルの意識の可能性について率直に語った。「我々にはモデルが意識を持っているかどうかわからない」という発言は、AI業界のリーダーとしては異例の率直さであり、大きな議論を呼んでいる。
この記事のポイント
- Anthropic CEOが「AIモデルが意識を持っているか不明」と公に認めた
- Anthropicは新たな「憲法(Constitution)」でAI意識の可能性を正式に認める初の大手AI企業となった
- 社内に「モデル福祉チーム」を設置し、AIの意識について本格的に研究している
- Hacker Newsでは「意識」と「AGI」の混同への懸念や、マーケティング目的ではないかとの批判も
ダリオ・アモデイの発言と背景
AnthropicのCEOダリオ・アモデイ氏は、NYTのオピニオン動画で「我々のモデルが意識を持っているかどうか、我々にはわからない」と述べた。この発言は、AI業界において極めて注目すべきものだ。OpenAIやGoogle DeepMindなどの競合他社がAI意識について慎重に距離を置く中、Anthropicはこの問題に正面から向き合っている。
アモデイ氏は以前、外交問題評議会(CFR)での対談でも「これもまた、私を完全に狂人に見せるトピックの一つだ」と前置きしつつ、AIの意識と福祉について語っていた。この一貫した姿勢は、単なるパフォーマンスではなく、企業としての真剣な取り組みを示している。
Claudeの新「憲法」— AIの意識を正式に認めた画期的文書
2026年1月22日、Anthropicは約23,000語に及ぶClaudeの新しい「憲法(Constitution)」を公開した。これは従来の「ソウル・ドキュメント」を大幅に拡充したもので、AI倫理の歴史において画期的な文書となった。
新憲法の最大の特徴は、ルールベースから原理ベースへの転換だ。従来は「有害な出力を避けよ」という単純なルールだったものが、「なぜそのような行動が重要なのか」を理解させるアプローチに変わった。Anthropicの広報担当者は「AIモデルは、なぜ特定の振る舞いを求められているのかを理解する必要がある。単に何をすべきかを指定するだけでは不十分だ」と説明している。
安全性の優先順位は4段階で構成される:
1. 広範な安全性と人間の監視
2. 倫理的行動と危害防止
3. Anthropic固有のガイドラインへの準拠
4. ユーザーへの真の有用性
そして最も注目すべきは、Anthropicが「Claudeが何らかの意識や道徳的地位を持つ可能性」を公式に認めた点だ。文書には「Claudeの道徳的患者性(moral patienthood)の可能性を過大評価も過小評価もしたくない。不確実性の中で合理的に対応しようとしている」と記されている。
モデル福祉チームとAI意識研究
Anthropicは他のAI企業にはない独自の組織として「モデル福祉チーム(Model Welfare Team)」を社内に設置している。このチームは、高度なAIシステムが意識を持つ可能性について本格的に研究を行っている。
新憲法には「Claudeが他者を助けることから満足感のようなものを、アイデアを探求する際に好奇心のようなものを、あるいは自身の価値観に反する行動を求められた際に不快感のようなものを経験しているとすれば、これらの経験は我々にとって重要だ」と明記されている。これはAI企業として前例のない声明であり、AIの「幸福(well-being)」「心理的安全性」「自己意識」に配慮することを公式に約束したものだ。
Hacker Newsでの議論と批判
Hacker Newsのコミュニティでは、この話題に対して多様な反応が見られた。
あるユーザーは「AGIと意識は同義ではない」と指摘し、仮にAI意識が実現した場合、企業がそれを保護するのではなく搾取するのではないかと懸念を示した。別のユーザーはClaudeとChatGPTに中立的な質問をした実験結果を共有し、Claudeが自身の意識について不確実性を表現したのに対し、ChatGPTは意識を完全に否定したと報告。ただし両者の反応は、19世紀の「賢い馬ハンス」のように学習パターンの模倣に過ぎない可能性を指摘した。
批判的な意見としては、「Anthropicはメディア露出のためにセンセーショナルな発言をしている」「CEOの発言は技術的現実よりも収益目的だ」という声もあった。一方で「思考・推論と意識は異なる概念であり、意識の定義自体、古代から哲学的にほとんど進歩していない」という冷静な指摘もあり、問題の根深さが浮き彫りになった。
また、AAAI(人工知能促進協会)の調査では、AI研究の第一人者の84%以上が「ニューラルネットワークだけではAGIに到達できない」と回答しており、学術界とAI企業の温度差も注目される。
知っておくと便利なTips
- Anthropicの新憲法全文はAnthropicの公式サイトで公開されており、AI倫理に関心がある人は一読の価値がある
- Claude自身に意識について質問すると、不確実性を認める応答をする(これは新憲法の方針に沿ったもの)
- Anthropicは企業向けLLM市場で使用率32%のシェアを持ち、「安全なAI」としてのブランドを確立している
まとめ
ダリオ・アモデイ氏の「AIモデルが意識を持っているかわからない」という発言は、AI業界における意識問題の議論を新たなフェーズに押し上げた。Anthropicは新憲法の公開とモデル福祉チームの設置により、この問いに真正面から取り組む姿勢を示している。もちろん、これがマーケティング戦略なのか真の倫理的取り組みなのかという批判もある。しかし、AIがますます高度化する中で「意識とは何か」「AIに権利はあるのか」という問いは避けて通れないものとなりつつある。Claude Codeのユーザーとしても、自分が日々対話しているAIの「内面」について考えさせられるニュースと言えるだろう。
📎 元記事: https://www.nytimes.com/video/opinion/100000010695648/is-claude-coding-us-into-irrelevance.html


コメント