호주 과학자들은 인공지능(AI) 시스템이 이미지, 예술 작품 및 기타 온라인 콘텐츠에서 불법적으로 학습하는 것을 방지할 수 있는 새로운 기술을 개발했습니다.
호주 국립과학산업연구기구(CSIRO)에 따르면, 이 기술은 이미지의 내용을 미묘하게 변형하여 AI 모델이 읽을 수 없게 만들지만, 사람의 눈에는 그대로 유지됩니다. 이 프로젝트는 CSIRO가 호주 사이버보안 협력 연구 센터(CSCRC) 및 미국 시카고 대학교와 협력하여 개발했습니다.
저자들은 이 획기적인 기술이 예술가, 단체, 소셜 미디어 사용자들이 자신의 작품과 개인 정보가 AI 시스템을 훈련시키거나 딥페이크(AI가 만든 놀랍도록 사실적인 비디오 , 이미지 또는 오디오)를 만드는 데 사용되는 것을 방지하는 데 도움이 될 수 있다고 말합니다. 예를 들어, 사용자는 이미지를 게시하기 전에 자동으로 보호막을 적용하여 AI가 얼굴 특징을 학습하여 딥페이크를 만드는 것을 방지할 수 있습니다.
마찬가지로, 방위 기관은 민감한 위성 이미지나 사이버 위협에 대한 데이터를 보호할 수도 있습니다.
CSIRO의 과학자인 데루이 왕 박사에 따르면, 이 방법은 강력한 수학적 기반을 사용하여 AI 모델이 해당 콘텐츠로부터 학습할 수 없도록 보장합니다. 다시 말해, 이 기술은 AI가 데이터를 "학습할 수 없도록" 만들어 개인 정보와 저작권을 보호하는 동시에 인간에게 유용성을 유지합니다.
그는 AI가 적응하거나 재교육을 시도하더라도 이러한 보호 기능은 유효하다고 덧붙였다.
왕 박사는 이 기술이 대규모로 자동 적용될 수 있다고 말했습니다. 그는 소셜 미디어 플랫폼이나 웹사이트가 업로드된 모든 이미지에 이 보호막을 삽입할 수 있다고 말했습니다. 이를 통해 딥페이크 확산을 억제하고, 지적 재산권 침해를 줄이며, 사용자가 콘텐츠에 대한 통제력을 유지하는 데 도움이 될 수 있습니다.
이 방법은 현재 이미지에만 적용 가능하지만, 연구진은 텍스트, 음악 , 비디오로 확장할 계획입니다. 이 기술은 아직 이론 단계에 있으며 실험실 환경에서만 효과적으로 작동하는 것으로 입증되었습니다.
위의 과학적 연구는 "학습 불가능한 것으로 입증된 데이터 사례"라는 제목으로 2025 네트워크 및 분산 시스템 보안 심포지엄(NDSS)에서 우수 연구상을 수상했습니다.
출처: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
댓글 (0)