Vietnam.vn - Nền tảng quảng bá Việt Nam

新しい技術はAIが不正なデータから学習するのを防ぐのに役立ちます

オーストラリアの国立科学機関によると、この新技術は画像の内容を微妙に変更し、AIモデルが判読できないようにするが、人間の目には変更されていないという。

VietnamPlusVietnamPlus12/08/2025

オーストラリアの科学者らは、人工知能(AI)システムが画像や芸術作品、その他のオンラインコンテンツから違法に学習するのを防ぐことができる新しい技術を開発した。

オーストラリア国立科学研究機構(CSIRO)によると、この技術は画像の内容を微妙に改変し、AIモデルには判読不可能にする一方で、人間の目には変化がないという。これは、CSIROがオーストラリアのサイバーセキュリティ共同研究センター(CSCRC)およびシカゴ大学(米国)と共同で開発したプロジェクトである。

著者らは、この画期的な技術により、アーティスト、組織、ソーシャルメディア利用者が、自身の作品や個人データがAIシステムの学習やディープフェイク(AIによって作成される非常にリアルな動画、画像、音声)の作成に利用されるのを防ぐことができるようになると述べています。例えば、ユーザーは投稿前に画像に自動的に保護レイヤーを適用することで、AIが顔の特徴を学習してディープフェイクを作成するのを防ぐことができます。

同様に、防衛組織は機密性の高い衛星画像やサイバー脅威に関するデータを保護する場合があります。

CSIROの科学者であるDerui Wang博士によると、この方法は強力な数学的基礎を使用して、AIモデルがそのコンテンツから学習できないようにする、言い換えれば、この技術は、人間にとっての有用性を維持しながら、プライバシーと著作権を保護するレベルでAIがデータを「学習不可能」にする、という。

この保護は、AIが適応しようとしたり再訓練されたりしても有効のままであると彼は付け加えた。

ワン博士は、この技術は大規模に自動適用できると述べた。ソーシャルメディアプラットフォームやウェブサイトは、アップロードされるすべての画像にこの保護レイヤーを埋め込むことができるという。これにより、ディープフェイクの拡散を抑制し、知的財産の盗難を減らし、ユーザーがコンテンツのコントロールを維持できるようになるだろう。

この手法は現在画像にのみ適用可能ですが、研究者らはテキスト、 音楽、動画への適用拡大を計画しています。この技術はまだ理論段階にあり、実験室環境でのみ効果的に機能することが実証されています。

上記の「証明不可能なデータの例」と題された科学研究は、2025 年のネットワークおよび分散システム セキュリティ シンポジウム (NDSS) で優秀研究賞を受賞しました。

(ベトナム+)

出典: https://www.vietnamplus.vn/ky-thaut-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


コメント (0)

No data
No data
写真家ホアン・ル・ジャンがフライカムで撮影した美しい写真をご覧ください
ニャーサシルク村を訪問
若者がファッションを通して愛国的な物語を語るとき
首都では8,800人を超えるボランティアがA80フェスティバルに貢献する準備ができています。
SU-30MK2が「風を切る」瞬間、翼の裏側に白い雲のような空気が集まる。
「ベトナム 誇りを持って未来へ」が国民の誇りを広げる
若者たちは建国記念日の祝日に向けてヘアクリップや金色の星のステッカーを探している
パレード訓練施設で世界最新鋭の戦車や自爆無人機を見学
赤い旗と黄色い星がプリントされたケーキを作るトレンド
重要な祝日を歓迎するため、ハンマー通りにはTシャツや国旗が溢れている

遺産

人物

企業

No videos available

ニュース

政治体制

地方

商品