OpenAIとAnthropicは、アメリカのAI安全研究所とAIモデルの共有に合意しました。この機関は、バイデン大統領の命令で2023年に設立され、企業に安全性に関するフィードバックを提供し、モデルの改善を目指します。OpenAIのCEOサム・アルトマンが今月初めにこの合意について示唆しました。Googleはこの機関との協議中で、今後の情報を共有する予定です。
アメリカのAI安全研究所のエリザベス・ケリー所長は、安全性が技術革新にとって重要であると強調し、AnthropicやOpenAIとの技術協力を楽しみにしていると述べました。この機関は国立標準技術研究所(NIST)の一部で、危険なAIシステムのテストや評価のためのガイドラインを作成しています。
副大統領カマラ・ハリスは、AIの悪影響について警告し、無制限なAIモデルに対する安全性テストを義務付けるカリフォルニア州のAI安全法案(SB 10147)が可決されたことにも触れました。この法案は、開発コストが1億ドルを超えるAIシステムに安全テストを要求し、開発者が安全基準を守らない場合、州の検事総長が訴える権限を与えます。
この合意は、正式だが拘束力のない覚書を通じて実現し、各企業の新しいモデルに関する情報を先行して得ることができます。また、アメリカのAI安全研究所はイギリスのAI安全研究所と協力する予定です。