昨年発生したセキュリティ侵害で、ハッカーがOpenAIの社内メッセージシステムに侵入し、同社の人工知能技術の設計に関する詳細を抜き取った。この事件はNew York Timesの報道で明らかにされ、この情報漏洩は、OpenAIの従業員が同社の最新のAI開発について議論するために使用していたオンライン・フォーラムから情報が盗まれたことを強調している。
報告書によると、ハッカーは、人気のあるChatGPTを含むOpenAIのAI技術を収容し、開発するために使用されるシステムに侵入しなかった。マイクロソフト・コーポレーション(NASDAQ:MSFT)がサポートするOpenAIは、この事件に対する公式声明をまだ発表していない。
この情報漏洩は、前年4月の全社会議でオープンエイの従業員に知らされ、同社の取締役会にも報告された。OpenAIの幹部は、顧客やパートナーのデータが漏洩していなかったため、情報漏洩を公表しないことを選択した。
幹部は、ハッカーは外国政府とのつながりのない個人である可能性が高いと判断し、この侵害を国家安全保障に対する脅威とは見なさないことにした。そのため、サンフランシスコを拠点とするAI企業は、連邦法執行機関に情報漏洩を報告しなかった。
これとは別の動きとして、OpenAIは5月、自社のAIモデルを欺瞞的なオンライン活動に利用しようとする5つの秘密工作を阻止したと発表した。この暴露は、AI技術の潜在的な悪用に対する継続的な懸念に寄与している。
バイデン政権下のアメリカ政府は、外国の敵対勢力、特に中国とロシアからアメリカのAI技術を保護するための新たな対策を検討している時に、OpenAIの不正侵入が起こった。これらの措置には、ChatGPTのような高度なAIモデルに対する制限も含まれる可能性がある。
さらに5月には、16のAI企業からなる連合が、AI技術の安全な開発を確保するための世界的な会合でコミットメントを行った。この動きは、産業界と規制当局がAIイノベーションの急速なペースとそれに関連するリスクに緊急に取り組んでいることを反映している。
この記事はロイターが寄稿した。この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。