サム・アルトマン最高経営責任者(CEO)が率いる人工知能企業OpenAIは木曜日、5つの秘密影響活動を阻止することに成功したと発表した。これらの作戦は、ロシア、中国、イラン、イスラエルの脅威行為者によるもので、OpenAIのAIモデルをインターネット上での欺瞞活動に利用しようとした。過去3ヶ月間、AIは短いコメント、様々な言語での広範な記事、ソーシャルメディアアカウントの捏造された名前と経歴を作成するために使用されました。
このキャンペーンは、ロシアのウクライナ侵攻、ガザ紛争、インドの選挙、ヨーロッパとアメリカの政治力学など、いくつかの地政学的問題をターゲットにしていた。OpenAIはこれらの取り組みについて、世論を操作し、政治的な結果に影響を与えようとする試みであると説明した。同社は、欺瞞的な操作によって、同社のサービスを利用する視聴者のエンゲージメントやリーチが増加することはないと強調した。
このような脅威を受けて、マイクロソフトの支援を受けているOpenAIは、アルトマンをはじめとする役員を中心とする安全・セキュリティ委員会を設置した。この委員会は、同社が次のAIモデルのトレーニングを開始する火曜日に設立された。この決定は、人間のようなコンテンツを生成できる高度なAI技術の悪用に関連する安全リスクに対する懸念の高まりを強調するものだ。
OpenAIの報告書によると、欺瞞的なキャンペーンはAIが生成した素材だけに頼っていたわけではなく、インターネットから入手した人手で書かれた文章やミームも含まれていたという。
関連する動きとして、フェイスブックとインスタグラムの親会社であるメタ・プラットフォームズは水曜日に、同社のプラットフォーム上で欺瞞的に使用されている「AIが生成した可能性が高い」コンテンツを検出したと報告した。このコンテンツには、イスラエルのガザ紛争への対応を称賛するコメントが含まれており、世界的な報道機関や米国の国会議員の投稿の下に表示されていた。Meta Platforms社の調査結果は、同社の四半期セキュリティ報告書の一部である。
この記事はロイターの寄稿によるものです。この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。