OpenAIは、AIの安全性向上の一環として、次のモデルをアメリカのAI安全研究所に早期提供することを発表しました。これは、AIの評価に関する科学を進めるための取り組みの一部です。AI安全研究所は、今年初めに正式に設立されましたが、その発表は2023年に行われました。NISTによれば、このコンソーシアムは、AIの測定や政策に関する科学的・経験的なガイドラインや基準を策定し、世界のAI安全の基盤を築くことを目的としています。OpenAIは以前、UK政府ともAIモデルの共有を約束していました。最近、OpenAIがより強力なAIモデルの開発を進める中で、もはや安全性を重視していないとの懸念が高まっています。また、創業者のサム・アルトマンは、企業内部のコミュニケーションの問題が理由で一時的に解任された後、すぐに復帰しました。しかし、今年5月にOpenAIは、人類の安全を確保するために設立したSuperalignmentチームを解散し、そのリーダーの一人が退社しました。新たな安全チームが設立されましたが、そのリーダーにはアルトマンなどの取締役が含まれており、自己監視への懸念が生じています。また、OpenAIは全社の計算リソースの少なくとも20%を安全性向上に割り当てることを約束しています。

error: Content is protected !!