OpenAIとAnthropicは、米国AI安全研究所とAIモデルの共有について合意しました。これは、バイデン大統領によって2023年に設立された機関で、企業に対して安全性に関するフィードバックを提供し、モデルの改善を助けます。OpenAIのCEO、サム・アルトマンはこの合意について以前に示唆していました。Googleもこの機関との協議を行っていると述べており、最近更新されたチャットボットと画像生成モデルを発表しました。
米国AI安全研究所のエリザベス・ケリー所長は、これらの合意がAI安全科学の進展に向けた技術的協力の始まりであり、重要なマイルストーンであるとしています。この機関は、危険なAIシステムの評価のためのガイドラインやベンチマークテストを作成しています。ハリス副大統領は、AIの潜在的危険性について警鐘を鳴らしました。
合意は非拘束的な覚書を通じて行われ、各企業の新しいモデルに対するアクセスを提供します。また、同研究所は英国のAI安全機関とも協力します。カリフォルニア州ではAI安全法案(SB 10147)が承認され、開発費用が1億ドルを超えるAIモデルには安全テストが義務付けられ、危険な場合にはモデルをシャットダウンするためのキルスイッチが要求されます。この法案は施行に向けてさらに進捗が必要ですが、州の検事総長が開発者に対して訴訟を起こす権限を持つことになります。