# AnthropicがAIの倫理を守るため、国防総省との契約を失うリスクを取った話
先日、非常に興味深いニュースが出ました。
AnthropicのCEO、Dario Amodeiさんが国防省(Department of War)との交渉に関して声明を発表しました。内容を一言で言うと、「大量の国内市民監視や完全自律型兵器への利用を認めるという条件は、いかなる状況でも受け入れない」というものです。
国防長官のHegsethさんから「金曜日までに制約を外さなければ契約を打ち切る」という最後通告を受けながら、Anthropicは「それはできません」とはっきり言い切りました。商業的に見れば、相当大きなリスクを取った判断です。
これは単純な「対立」ではない
ただ、この話を「倫理を守るAnthropicvs圧力をかける国防総省」という単純な構図で見るのは少し違うと思っています。
Anthropicはすでに国防分野でのAI利用に積極的に協力してきた実績があります。分類ネットワークへの導入支援や、国家安全保障向けのカスタムモデル提供など、「軍や安全保障とは関わらない」という立場ではありません。国防総省の側も、AIを使った安全保障の強化という正当な目的があります。
今回の対立の核心は、「どこで線を引くか」という問題です。そしてAnthropicが断固として拒否したのは、次の2点でした。
2つ目の理由が、特に重要だと思います。
「AIは安全」という保証はない
Anthropicが自律型兵器を拒否した根拠の核心は、「現在のAI技術は安全だという保証がない」という認識です。
これは謙虚な自己評価であると同時に、AIを使いこなす側の私たちにも刺さる言葉です。AIを信頼して活用することと、AIを過信しないことは、矛盾せず両立できます。むしろ、その緊張感を持ち続けることが大切なのではないでしょうか。
AIによる大規模監視システムは一度構築されると止めるのが非常に難しい。完全自律型の兵器は「誰も責任を持たない」状態で人を殺せる仕組みになる。どちらも、技術が先行することで取り返しのつかない状況を作りかねないリスクがあります。
中小企業・スタートアップにとっての意味
直接的には関係なさそうに見えますが、この話はAIを使う側のすべての組織に関係があると思っています。
AIベンダーが「どこまでの使い方を許容するか」という姿勢は、そのツールの信頼性に直結します。「なんでもします」というベンダーよりも、「これはできません」と言えるベンダーの方が、長期的に使えるパートナーになりやすいです。
私はシステム開発の仕事をしていますが、クライアントから「これをやってほしい」と言われても「それはリスクがあります」「こういう問題が起きる可能性があります」と伝えられる関係性が最も健全だと思っています。AIベンダーとの関係も、まったく同じことが言えます。
今後どうなるのか
この件はまだ決着がついていません。国防総省がAnthropicを「サプライチェーンリスク」として指定するかどうか、あるいは防衛生産法を使って強制するかどうかという話も出ています。
もしAnthropicが契約を失うことになれば、短期的には大きなダメージです。しかし長期的には「倫理を守った会社」としてのブランドが確立される可能性もあります。
AIが社会インフラとして定着していく中で、「AIを使いこなす側」として注目すべきは、ツールの能力だけではありません。そのツールを提供する会社がどんな価値観を持ち、どこで線を引くかということも、重要な選択基準になってきていると改めて感じました。
---
*参考:[Statement from Dario Amodei on our discussions with the Department of War](https://www.anthropic.com/news/statement-department-of-war)*
*著者:SHINJI*
← ブログ一覧に戻る