導入
最近、アメリカ合衆国のトランプ大統領が、同国の防衛省との公の対立を受けて、Anthropic社が製造した全ての製品の使用を連邦政府機関に対して停止するよう指示しました。この動きは、国の安全保障におけるAI技術の使用に関する重要な問題を浮き彫りにしています。特に、Anthropic社はそのAIモデルが大規模な国内監視や完全自律兵器の開発に利用されることを拒否しており、これが国防における技術利用の限界を示しています。本記事では、この問題の詳細を解説し、日本の読者にとっての意義を考察します。
トランプ大統領の指示
トランプ大統領はTruth Socialでの投稿を通じて、連邦機関に対してAnthropic社の製品の使用を停止するように指示しました。その際、6ヶ月の移行期間を設ける意向を示しつつも、Anthropic社が連邦契約者としてはもはや受け入れられないことを強調しました。「我々はそれを必要とせず、望んでもおらず、再び彼らと取引を行うことはない」と大統領は記しています。
供給網リスクとしての指定
大統領の投稿には、Anthropicを供給網リスクとして指定する計画に関する言及はありませんでしたが、防衛長官のピート・ヘグセス氏がその後のツイートでこの脅威を具体化しました。彼は「大統領の指示に従い、連邦政府がAnthropicの技術の使用を停止することに伴い、Anthropicを国家安全保障の供給網リスクとして指定するように指示します」と述べました。これにより、アメリカ軍と取引する全ての契約者、供給者、パートナーはAnthropicとの商業活動を行うことができなくなります。
Anthropic社の立場
Anthropic社のCEOダリオ・アモデイ氏は、木曜日に公開された投稿で、自社の立場を再確認しました。彼は「我々の強い希望は、二つの要求された安全策を維持しつつ、国防省と我々の戦士たちにサービスを提供し続けることです」と述べ、国防省がAnthropicをオフボードすることを選択した場合には、他のプロバイダーへの円滑な移行をサポートする意向を示しました。
OpenAIの支持
OpenAIもAnthropicの決定を支持しています。BBCによると、CEOのサム・アルトマン氏は木曜日に職員に宛てたメモで、彼も同じ「赤線」を共有しており、OpenAI関連の防衛契約も国内監視や自律攻撃兵器に対する利用を拒否することを明言しました。
今後の展望と考察
Anthropic、OpenAI、Googleは、昨年7月にアメリカ国防省から契約を受け取っています。Anthropicを支持する声がGoogleの従業員からも上がっている一方で、Googleおよびその親会社は未だにコメントを発表していません。今後、AI技術の利用に関する倫理的な問題はますます重要になってくるでしょう。技術革新とその利用に関する透明性が求められ、企業間の競争がこれらの問題をどのように解決していくのかが注目されます。
まとめ
Anthropic社の事例は、AI技術とその利用に関する倫理的な問題を浮き彫りにしています。政府との関係、企業の立場、そして社会全体への影響が交錯する中で、今後の展開は注視する必要があります。AIの発展がもたらす可能性と同時に、それに伴うリスクをどう管理していくのかが、我々の未来に大きな影響を与えるでしょう。
参考元記事: Pentagon moves to designate Anthropic as a supply-chain risk

