Australische Wissenschaftler haben eine neue Technik entwickelt, die verhindern könnte, dass Systeme der künstlichen Intelligenz (KI) illegal aus Bildern, Kunstwerken und anderen Online-Inhalten lernen.
Laut der australischen Wissenschaftsagentur CSIRO verändert diese Technik den Bildinhalt subtil, sodass er für KI-Modelle unlesbar wird, für das menschliche Auge jedoch unverändert bleibt. Das Projekt wurde von CSIRO in Zusammenarbeit mit dem australischen Cybersecurity Cooperative Research Centre (CSCRC) und der University of Chicago (USA) entwickelt.
Die Autoren sagen, der Durchbruch könne Künstlern, Organisationen und Social-Media-Nutzern helfen, ihre Arbeit und persönlichen Daten vor der Verwendung zum Trainieren von KI-Systemen oder zur Erstellung von Deepfakes zu schützen – unglaublich realistischen Videos , Bildern oder Audiodateien, die von KI erstellt wurden. So könnten Nutzer beispielsweise vor dem Posten automatisch eine Schutzschicht auf Bilder auftragen, die verhindert, dass KI Gesichtszüge lernt, um Deepfakes zu erstellen.
In ähnlicher Weise könnten Verteidigungsorganisationen sensible Satellitenbilder oder Daten über Cyberbedrohungen schützen.
Laut Dr. Derui Wang, einem Wissenschaftler bei CSIRO, verwendet diese Methode eine starke mathematische Grundlage, um sicherzustellen, dass KI-Modelle nicht aus diesen Inhalten lernen können. Mit anderen Worten: Diese Technik macht die Daten für KI auf ein Niveau „unlernbar“, das Privatsphäre und Urheberrecht schützt, gleichzeitig aber ihren Nutzen für den Menschen behält.
Dieser Schutz bleibe auch dann bestehen, wenn die KI versuche, sich anzupassen oder neu trainiert werde, fügte er hinzu.
Dr. Wang sagte, die Technik könne automatisiert und in großem Maßstab angewendet werden. Er sagte, eine Social-Media-Plattform oder -Website könne diese Schutzschicht in alle hochgeladenen Bilder einbetten. Dies könne die Verbreitung von Deepfakes eindämmen, den Diebstahl geistigen Eigentums reduzieren und den Nutzern helfen, die Kontrolle über ihre Inhalte zu behalten.
Während die Methode derzeit nur auf Bilder anwendbar ist, planen die Forscher, sie auf Text, Musik und Videos auszuweiten. Die Technologie befindet sich noch im theoretischen Stadium und hat sich bisher nur im Labor als effektiv erwiesen.
Die oben genannte wissenschaftliche Arbeit mit dem Titel „Provably Unlearnable Data Examples“ wurde beim Network and Distributed Systems Security Symposium (NDSS) 2025 mit dem Outstanding Research Award ausgezeichnet./.
Quelle: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Kommentar (0)