OpenAIとAnthropicは、2つの著名なAI新興企業であり、彼らの人工知能モデルの研究、テスト、評価をさらに進めるために、米国政府と契約を締結した。米国人工知能安全研究所は本日、この提携を発表し、AI技術の監督において重要な一歩を踏み出したことを明らかにした。
これらの取引は、AIの倫理的かつ安全な展開に対する規制当局の関心が高まる中で行われたため、特に注目に値する。カリフォルニア州は、州内でのAIの開発と利用を規制する包括的な法案の採決を目前に控えている。
今回の合意により、米国AI安全研究所は、両社の主要な新AIモデルへの公開前および公開後のアクセスを認められた。この協力は、これらのAIモデルの能力と潜在的なリスクを評価することを目的としている。
ChatGPTを開発したことで知られるOpenAIのジェイソン・クォン最高戦略責任者(CIO)は、AI開発における米国のリーダーシップを確立する上で、同研究所が果たす役割の重要性を表明した。クォン氏は、このようなコラボレーションがAIの世界標準の基盤となる可能性を強調した。
テック大手のアマゾン(NASDAQ:AMZN)とアルファベット(NASDAQ:GOOGL)が支援するAnthropicは、この契約に関してまだ声明を出していない。
米国AI安全研究所のエリザベス・ケリー所長は、今回の合意はAI技術の責任ある発展を導くための重要な出発点であると強調した。
商務省の国立標準技術研究所(NIST)に所属する米国AI安全研究所は、英国AI安全研究所とも連携する。両者の共同作業には、各社のAIモデルの安全性強化の可能性に関するフィードバックも含まれる。
米国AI安全研究所によるこの取り組みは、ジョー・バイデン大統領が昨年発表した大統領令に沿ったものである。同大統領令は、既知および新たなAIリスクに対処することを目的としており、安全なAIイノベーションに対する政権のコミットメントを強化するものである。
本記事はロイターの寄稿によるものです。この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。