Deepfake ist ein Begriff, der sich aus den Begriffen „Deep Learning“ und „Fake“ zusammensetzt. Einfach ausgedrückt handelt es sich dabei um eine Technologie zur Simulation und Erstellung gefälschter Audio-, Bild- oder sogar Videoprodukte .
Seit der explosionsartigen Entwicklung der künstlichen Intelligenz (KI) ist das Deepfake-Problem immer häufiger geworden und löst Wellen falscher Informationen in der Presse aus. Daher ist die proaktive Authentifizierung der Herkunft von Bildern und Videos für die weltweit führenden Kamerahersteller ein dringendes Problem.
Sony, Canon und Nikon werden voraussichtlich Digitalkameras auf den Markt bringen, die digitale Signaturen direkt auf ihren spiegellosen Kameras (oder DSLR-Digitalkameras) unterstützen. Die Implementierung digitaler Signaturen auf Kameras ist eine äußerst wichtige Maßnahme, um den Ursprung und die Integrität von Bildern nachzuweisen.
Diese digitalen Signaturen enthalten Informationen zu Datum, Uhrzeit, Ort und Fotograf und sind fälschungssicher. Dies ist besonders wichtig für Fotojournalisten und andere Fachleute, deren Arbeit eine Authentifizierung erfordert.
Drei Giganten der Kamerabranche haben sich auf einen globalen Standard für digitale Signaturen geeinigt, der mit dem Online-Verifizierungstool Verify kompatibel ist. Das von einer Koalition globaler Nachrichtenorganisationen, Technologieunternehmen und Kamerahersteller ins Leben gerufene Tool ermöglicht die kostenlose Überprüfung der Authentizität jedes Bildes. Werden Bilder mithilfe von KI erstellt oder verändert, kennzeichnet Verify sie mit „Keine Inhaltsüberprüfung“.
Die Bedeutung von Anti-Deepfake-Technologien ergibt sich aus dem rasanten Anstieg von Deepfakes berühmter Persönlichkeiten wie dem ehemaligen US-Präsidenten Donald Trump und dem japanischen Premierminister Fumio Kishida.
Darüber hinaus haben Forscher der Tsinghua-Universität in China ein neues generatives KI-Modell entwickelt, das in der Lage ist, rund 700.000 Bilder pro Tag zu generieren.
Neben Kameraherstellern beteiligen sich auch andere Technologieunternehmen am Kampf gegen Deepfakes. Google hat ein Tool veröffentlicht, mit dem KI-generierte Bilder digital mit Wasserzeichen versehen werden können. Intel hat eine Technologie entwickelt, die Hauttonveränderungen in Fotos analysiert, um deren Authentizität zu bestimmen. Hitachi arbeitet ebenfalls an einer Technologie zur Verhinderung von Online-Identitätsbetrug.
Die neue Technologie soll Anfang 2024 verfügbar sein. Sony plant, die Technologie in den Medien zu bewerben und hat im Oktober 2023 bereits Feldversuche durchgeführt. Canon arbeitet mit Thomson Reuters und dem Starling Data Preservation Lab (einem von der Stanford University und der University of Southern California gegründeten Forschungsinstitut) zusammen, um die Technologie weiter zu verfeinern.
Die Kamerahersteller hoffen, dass die neue Technologie dazu beitragen wird, das Vertrauen der Öffentlichkeit in Bilder wiederherzustellen, die wiederum unsere Wahrnehmung der Welt prägen.
(laut OL)
5.000 US-Dollar bezahlt, damit Facebook ein Deepfake-Investitionsbetrugsvideo verbreitet
Neue Malware übernimmt die Kontrolle über Smartphones, Deepfake-Videos werden immer raffinierter
Deepfake-Videos werden immer ausgefeilter und realistischer
Was kann man tun, um nicht in die Falle von Deepfake-Videoanrufen zu tappen, die Geldtransfers vortäuschen?
Deepfake wird ausgenutzt, um die Gesichter der Opfer in Pornovideos einzufügen
[Anzeige_2]
Quelle
Kommentar (0)