オーストラリアの科学者らは、人工知能(AI)システムが画像や芸術作品、その他のオンラインコンテンツから違法に学習するのを防ぐことができる新しい技術を開発した。
オーストラリア国立科学研究機構(CSIRO)によると、この技術は画像の内容を微妙に改変し、AIモデルには判読不可能にする一方で、人間の目には変化がないという。これは、CSIROがオーストラリアのサイバーセキュリティ共同研究センター(CSCRC)およびシカゴ大学(米国)と共同で開発したプロジェクトである。
著者らは、この画期的な技術により、アーティスト、組織、ソーシャルメディア利用者が、自身の作品や個人データがAIシステムの学習やディープフェイク(AIによって作成される非常にリアルな動画、画像、音声)の作成に利用されるのを防ぐことができるようになると述べています。例えば、ユーザーは投稿前に画像に自動的に保護レイヤーを適用することで、AIが顔の特徴を学習してディープフェイクを作成するのを防ぐことができます。
同様に、防衛組織は機密性の高い衛星画像やサイバー脅威に関するデータを保護する場合があります。
CSIROの科学者であるDerui Wang博士によると、この方法は強力な数学的基礎を使用して、AIモデルがそのコンテンツから学習できないようにする、言い換えれば、この技術は、人間にとっての有用性を維持しながら、プライバシーと著作権を保護するレベルでAIがデータを「学習不可能」にする、という。
この保護は、AIが適応しようとしたり再訓練されたりしても有効のままであると彼は付け加えた。
ワン博士は、この技術は大規模に自動適用できると述べた。ソーシャルメディアプラットフォームやウェブサイトは、アップロードされるすべての画像にこの保護レイヤーを埋め込むことができるという。これにより、ディープフェイクの拡散を抑制し、知的財産の盗難を減らし、ユーザーがコンテンツのコントロールを維持できるようになるだろう。
この手法は現在画像にのみ適用可能ですが、研究者らはテキスト、 音楽、動画への適用拡大を計画しています。この技術はまだ理論段階にあり、実験室環境でのみ効果的に機能することが実証されています。
上記の「証明不可能なデータの例」と題された科学研究は、2025 年のネットワークおよび分散システム セキュリティ シンポジウム (NDSS) で優秀研究賞を受賞しました。
出典: https://www.vietnamplus.vn/ky-thaut-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
コメント (0)