Vietnam.vn - Nền tảng quảng bá Việt Nam

Experten warnen vor der Erstellung stereotyper und übertriebener Bilder durch KI

Wenn Sie nach Bildern zum Thema Armut suchen, erhalten Sie viele Bilder von zerlumpten afrikanischen Kindern, asiatischen Kindern, die in Flüssen voller Müll schwimmen … erstellt von KI.

VTC NewsVTC News21/10/2025

Produkte der KI: Rassismus und Voreingenommenheit

KI-generierte Bilder zu Themen wie Armut, Kindern und Opfern sexueller Gewalt überschwemmen Online-Fotoarchive. Laut Experten für globale Gesundheit nutzen Nichtregierungsorganisationen (NGOs) diese zunehmend. Experten warnen, dies könne eine „neue Ära der Armutsausbeutungskultur“ einläuten.

„Diese Bilder spiegeln die Standardansicht von Armut wider – Kinder mit leeren Schüsseln, rissiger Boden … sehr stereotyp“, sagt Arsenii Alenichev, ein Forscher am Institut für Tropenmedizin in Antwerpen, der die Produktion von Bildern zur globalen Gesundheit untersucht .

Herr Alenichev sammelte mehr als 100 KI-generierte Bilder extremer Armut, die von Einzelpersonen oder NGOs in Social-Media-Kampagnen gegen Hunger und sexuelle Gewalt verwendet wurden.

Die Bilder, die er dem Guardian zeigte, zeigen übertriebene, stereotype Szenen: Kinder, die in Schlammpfützen kauern; ein afrikanisches Mädchen im Brautkleid, dem die Tränen übers Gesicht strömen. In einem kürzlich im Lancet Global Health Journal erschienenen Kommentar argumentierte er, die Bilder seien „Armutsporno Version 2.0“.

Screenshot eines KI-generierten Bildes zum Thema „Armut“ auf einer Foto-Website. (Foto: Freepik)

Screenshot eines KI-generierten Bildes zum Thema „Armut“ auf einer Foto-Website. (Foto: Freepik)

Herr Alenichev und viele andere Experten sagen, dass die Verwendung von KI-Bildern aufgrund von Bedenken hinsichtlich Urheberrecht und Kosten zunimmt. Die Budgetkürzungen der US- Regierung für NGOs haben das Problem verschärft.

„Offensichtlich ziehen viele Organisationen die Verwendung von KI-Bildern anstelle von echten Fotos in Betracht, weil es kostengünstig ist. Außerdem muss man sich keine Gedanken über Urheberrechte und viele andere Dinge machen“, sagte er.

Liegt die Verantwortung beim Benutzer oder bei der Plattform?

KI-generierte Bilder von Armut tauchen auf Dutzenden von Foto-Websites auf, darunter Adobe Stock Photos und Freepik. Viele davon tragen Bildunterschriften wie „surreales Kind in Flüchtlingslager“, „Asiatische Kinder schwimmen in einem Fluss voller Müll“, „weißer Freiwilliger berät schwarze Kinder in einem afrikanischen Dorf medizinisch“ und mehr. Adobe verkauft die Rechte an den letzten beiden Bildern dieser Liste für rund 60 Pfund.

„Diese Fotos sind offensichtlich rassistisch und dürfen nicht veröffentlicht werden, weil sie die schlimmsten Stereotypen über Afrika, Indien oder alles, was man sich vorstellen kann, darstellen“, sagte Alenichev.

Joaquín Abela, CEO von Freepik, sagte, die Verantwortung für die Verwendung solch extremer Bilder liege bei den Nutzern, nicht bei Plattformen wie seiner. Seiner Ansicht nach werden KI-Fotos von einer globalen Community von Nutzern erstellt, die Lizenzgebühren erhalten können, wenn Freepik-Kunden ihre Fotos kaufen.

Freepik versucht, die in seinen Fotobibliotheken vorherrschenden Vorurteile durch „Einbringung von Vielfalt“ einzudämmen. Gleichzeitig versucht das Unternehmen, bei Fotos von Anwälten und Führungskräften ein ausgewogenes Geschlechterverhältnis sicherzustellen.

Doch seine Plattform sei nur begrenzt leistungsfähig, sagt er. „Es ist, als würde man versuchen, den Ozean auszutrocknen. Wir haben es versucht, aber die Realität ist: Wenn Kunden auf der ganzen Welt ihre Bilder auf eine bestimmte Art und Weise gestalten möchten, kann niemand etwas dagegen tun.“

KI-generiertes Bild aus der Anti-Kinderehe-Kampagne 2023 der Wohltätigkeitsorganisation Plan International, deren Ziel der Schutz der Privatsphäre und Würde von Mädchen ist. (Foto: Plan International)

KI-generiertes Bild aus der Anti-Kinderehe-Kampagne 2023 der Wohltätigkeitsorganisation Plan International, deren Ziel der Schutz der Privatsphäre und Würde von Mädchen ist. (Foto: Plan International)

Viele renommierte Organisationen haben KI-generierte Bilder verwendet, sogar die Vereinten Nationen.

Letztes Jahr veröffentlichten die Vereinten Nationen ein Video auf YouTube, das „Nachstellungen“ sexueller Gewalt zeigte. Darin war auch die Aussage einer burundischen Frau enthalten, die 1993 von drei Männern vergewaltigt und zum Sterben zurückgelassen wurde. Der Inhalt wurde vollständig von künstlicher Intelligenz generiert. Das Video wurde entfernt, nachdem der Guardian die UN um ein Interview gebeten hatte.

Ein UN-Sprecher erklärte später, warum das Video entfernt wurde: „Wir glauben, dass das Video nicht ordnungsgemäß von KI erstellt wurde und möglicherweise Risiken für die Informationsintegrität birgt, da echtes Filmmaterial mit künstlichen Inhalten vermischt wird, die echt erscheinen.“

KI-basierte Produkte gelten seit langem als Nachahmerprodukte, die manchmal die Wahrheit übertreiben. Herr Alenichev sagte, die Verbreitung dieser verzerrten Bilder könne das Problem verschärfen, da sie über das riesige Internet verbreitet und zum Trainieren der nächsten KI-Generation verwendet werden könnten.

Ein Sprecher von Plan International sagte, dass die NGO derzeit „davon abrät, KI zur Darstellung von Kindern zu verwenden“.

Minh Hoan

Quelle: https://vtcnews.vn/chuyen-gia-bao-dong-tinh-trang-ai-tao-anh-rap-khuon-phong-dai-ar972160.html


Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

„Edle“ Blumen im Wert von 1 Million VND sind am 20. Oktober immer noch beliebt
Vietnamesische Filme und der Weg zu den Oscars
Junge Leute reisen in den Nordwesten, um während der schönsten Reissaison des Jahres einzuchecken
In der Saison der „Jagd“ auf Schilfgras in Binh Lieu

Gleicher Autor

Erbe

Figur

Geschäft

Fischer aus Quang Ngai kassieren täglich Millionen Dong, nachdem sie mit Garnelen den Jackpot geknackt haben

Aktuelle Veranstaltungen

Politisches System

Lokal

Produkt