Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Israel-Hamas-Krieg: Die Gefahr gefälschter Bilder, die von KI erstellt wurden

Công LuậnCông Luận11/11/2023

[Anzeige_1]

Wie funktionieren gefälschte KI-Bilder?

KI ist heutzutage allgegenwärtig – sogar im Krieg. Die Anwendungen künstlicher Intelligenz haben sich in diesem Jahr so ​​stark verbessert, dass fast jeder mithilfe von KI-Generatoren Bilder erstellen kann, die zumindest auf den ersten Blick realistisch aussehen.

Israels Hamas-Kämpfer sind durch gefälschte Bilder gefährdet, die von jemandem erstellt wurden. Bild 1

Ein von KI generiertes gefälschtes Foto des Krieges im Gazastreifen.

Dazu geben Nutzer Tools wie Midjourney oder Dall-E einfach ein paar Eingabeaufforderungen inklusive Spezifikationen und Informationen. Die KI-Tools wandeln die Text- oder auch Sprachaufforderungen dann in Bilder um.

Dieser Bildgenerierungsprozess basiert auf dem sogenannten maschinellen Lernen. Wenn ein Ersteller beispielsweise einen 70-jährigen Mann beim Fahrradfahren zeigen möchte, durchsucht er seine Datenbank nach passenden Begriffen für Bilder.

Basierend auf den verfügbaren Informationen generiert der KI-Algorithmus Bilder des älteren Radfahrers. Durch immer mehr Input und technische Updates werden diese Tools deutlich verbessert und lernen ständig dazu.

All dies wird auf Bilder im Zusammenhang mit dem Nahostkonflikt angewendet. In einem Konflikt, in dem „die Emotionen so hochkochen“, haben Fehlinformationen, auch über KI-Bilder verbreitet, enorme Auswirkungen, sagt KI-Experte Hany Farid.

Farid, Professor für digitale Analytik an der University of California in Berkeley, sagte, erbitterte Kämpfe seien der perfekte Nährboden für die Erstellung und Verbreitung gefälschter Inhalte sowie für das Schüren von Emotionen.

KI-Bilder des Israel-Hamas-Krieges

Mithilfe künstlicher Intelligenz erstellte Bilder und Videos haben die Desinformation im Zusammenhang mit dem Krieg in der Ukraine angeheizt, und dieser Trend setzt sich auch im Krieg zwischen Israel und der Hamas fort.

Experten zufolge lassen sich die in den sozialen Medien kursierenden KI-Bilder zum Thema Krieg häufig in zwei Kategorien einteilen. Die eine konzentriert sich auf menschliches Leid und ruft Empathie hervor. Die andere Kategorie ist Fake-KI, die Ereignisse übertreibt und dadurch Konflikte und eskalierende Gewalt anheizt.

Israels Hamas-Kämpfer sind durch gefälschte Bilder in Gefahr. Bild 2

KI-generiertes gefälschtes Foto von Vater und Kind in den Trümmern im Gazastreifen.

Zur ersten Kategorie gehört beispielsweise das obige Foto eines Vaters und seiner fünf Kinder vor einem Trümmerhaufen. Es wurde auf X (früher Twitter) und Instagram mehrfach geteilt und hunderttausendfach angesehen.

Dieses Bild wurde von der Community, zumindest auf X, als Fälschung gekennzeichnet. Es ist an verschiedenen Fehlern und Inkonsistenzen zu erkennen, die bei KI-Bildern üblich sind (siehe Bild oben).

Ähnliche Anomalien sind auch in dem gefälschten KI-Bild zu sehen, das unten auf X viral ging und angeblich eine palästinensische Familie zeigt, die gemeinsam auf den Ruinen isst.

Israels Hamas-Kämpfer sind durch diese gefälschten Bilder in Gefahr. Bild 3

KI-generiertes gefälschtes Foto einer palästinensischen Partei.

Ein weiteres Bild, das Soldaten zeigt, die israelische Flaggen schwenken, während sie durch eine Siedlung voller ausgebombter Häuser marschieren, fällt in die zweite Kategorie und soll Hass und Gewalt schüren.

Woher kommen solche KI-Bilder?

Die meisten von KI generierten Konfliktbilder werden auf Social-Media-Plattformen veröffentlicht, sind aber auch auf zahlreichen anderen Plattformen und Organisationen und sogar auf einigen Nachrichtenseiten verfügbar.

Der Softwarekonzern Adobe sorgt für Aufsehen, indem er sein Stockfoto-Angebot bis Ende 2022 um KI-generierte Bilder erweitert. In der Datenbank werden sie entsprechend gekennzeichnet.

Adobe bietet mittlerweile auch KI-Bilder des Nahost-Krieges zum Verkauf an – etwa Explosionen, protestierende Menschen oder Rauchschwaden hinter der Al-Aqsa-Moschee.

Israels Hamas-Kämpfer sind durch gefälschte Bilder gefährdet, die von jemandem erstellt wurden. Bild 4

Adobe bietet KI-generierte Bilder der Kämpfe im Gazastreifen an.

Kritiker empfanden dies als beunruhigend, da einige Websites die Bilder weiterhin verwendeten, ohne sie als KI-generiert zu kennzeichnen. So wurde beispielsweise das Bild auf der „Newsbreak“-Seite ohne jeglichen Hinweis darauf angezeigt, dass es mithilfe von KI erstellt wurde.

Sogar der Wissenschaftliche Dienst des Europäischen Parlaments, der wissenschaftliche Arm des Europäischen Parlaments, illustrierte ein Online-Dokument zum Nahostkonflikt mit einem KI-Bild aus der Adobe-Datenbank – ohne es als KI-generiert zu kennzeichnen.

Das European Digital Media Observatory fordert Journalisten und Medienschaffende dringend auf, bei der Verwendung von KI-Bildern äußerst vorsichtig zu sein, und rät von deren Einsatz ab, insbesondere bei der Berichterstattung über reale Ereignisse wie den Krieg im Gazastreifen.

Wie gefährlich sind KI-Bilder?

Die viralen KI-Inhalte und Bilder werden bei den Nutzern zwangsläufig ein ungutes Gefühl auslösen. „Wenn wir in eine Welt eintreten, in der Bilder, Audio und Video manipuliert werden können , wird alles verdächtig“, erklärt Farid, Forscher an der UC Berkeley. „Man verliert das Vertrauen in alles, auch in die Wahrheit.“

Genau das ist im folgenden Fall passiert: Ein Bild der angeblich verkohlten Leiche eines israelischen Babys wurde vom israelischen Premierminister Benjamin Netanjahu und mehreren anderen Politikern in den sozialen Medien geteilt.

Der antiisraelische Influencer Jackson Hinkle behauptete später, das Bild sei mithilfe künstlicher Intelligenz erstellt worden. Hinkles Behauptung wurde in den sozialen Medien über 20 Millionen Mal aufgerufen und führte dort zu hitzigen Debatten.

Letztendlich erklärten viele Organisationen und Verifizierungstools, dass das Bild echt und Hinkles Behauptung falsch sei. Es ist jedoch klar, dass kein Tool den Benutzern helfen kann, ihr verlorenes Vertrauen einfach zurückzugewinnen!

Hoang Hai (laut DW)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Zusammenfassung des A80-Trainings: Vietnams Stärke erstrahlt in der Nacht der tausendjährigen Hauptstadt
Verkehrschaos in Hanoi nach starkem Regen: Autofahrer lassen ihre Autos auf überfluteten Straßen zurück
Beeindruckende Momente der Flugformation im Einsatz bei der A80 Grand Ceremony
Mehr als 30 Militärflugzeuge treten zum ersten Mal auf dem Ba Dinh-Platz auf

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt