Internetnutzer verwenden KI, um Bilder des Mordverdächtigen von Charlie Kirk zu erstellen. Foto: CBC . |
Das US-amerikanische FBI hat zwei Fotos veröffentlicht, die den Verdächtigen bei der Schießerei um den Aktivisten Charlie Kirk zeigen. Da die Fotos stark verschwommen sind, reagierte die Online-Community umgehend mit „verbesserten“ Versionen der Fotos, die mithilfe künstlicher Intelligenz (KI) erstellt wurden.
Diese Bilder wirken zwar schärfer und klarer als die Originale, sind aber eigentlich nur ein Produkt der Spekulation. KI ist nicht in der Lage, versteckte Details in einem unscharfen Foto zu „ entdecken “. Stattdessen erstellt das Tool Vorhersagen und füllt die Lücken auf der Grundlage erlernter Daten. Dies kann dazu führen, dass Details entstehen, die in Wirklichkeit nicht existieren.
![]() |
KI-verbesserte Fotos des Verdächtigen bei der Schießerei auf Charlie Kirk, doch kein Gesicht gleicht dem anderen. Foto: Grok. |
Unter dem FBI-Beitrag wurden mehrere verbesserte Versionen der Bilder veröffentlicht. Einige der Bilder wurden möglicherweise mit dem Grok-Tool auf X erstellt, andere vermutlich mit Plattformen wie ChatGPT und Gemini. Die Genauigkeit dieser Darstellungen variiert jedoch stark. Einige Bilder weisen sogar offensichtliche Ungenauigkeiten auf, wie z. B. eine veränderte Farbe des Hemdes oder eine veränderte Gesichtsdarstellung der Figur durch ein übertriebenes Kinn.
Es scheint, dass diese Bilder mit dem Ziel geteilt wurden, der Community bei der Identifizierung des Verdächtigen zu „helfen“. In Wirklichkeit wurden sie jedoch auch zu einem Mittel, um Aufmerksamkeit zu erregen und die Anzahl der Likes und Shares in sozialen Netzwerken zu erhöhen.
Experten warnen, dass diese KI-Bilder wahrscheinlich nicht nützlicher sein werden als die Originale des FBI. Tatsächlich haben KI-verbesserte Bilder in der Vergangenheit zu kontroversen Ergebnissen geführt.
So wurde beispielsweise ein niedrig aufgelöstes Foto des ehemaligen Präsidenten Barack Obama durch KI so „aufgewertet“, dass es einen weißen Mann zeigt. In einem anderen Fall wurde einem Foto von Präsident Donald Trump durch KI ein nicht vorhandener Tumor am Kopf hinzugefügt.
Diese Diskrepanzen deuten darauf hin, dass KI lediglich aus vorhandenen Daten extrapoliert, anstatt das, was in unscharfen Bildern verloren geht, genau nachzubilden. Obwohl die Technologie in manchen Kontexten nützlich sein kann, sollten KI-generierte Bilder bei strafrechtlichen Ermittlungen nicht als endgültige Beweise angesehen werden.
Das FBI selbst veröffentlichte in seiner Erklärung lediglich das Originalfoto und rief die Öffentlichkeit dazu auf, Informationen bereitzustellen, falls sie die Person auf dem Foto identifizieren könne. Die Welle von „selbstaufbereiteten Fotos“ in sozialen Netzwerken erregte jedoch schnell Aufmerksamkeit und warf Fragen nach der Verantwortung für den Einsatz von KI-Tools in sensiblen Fällen auf, in denen es um Sicherheit und Menschenleben geht.
Angesichts der zunehmenden Verbreitung künstlicher Intelligenz verdeutlicht dieser Vorfall ein Problem: KI kann Bilder erzeugen, die so real wirken, dass sie optisch täuschen. Das bedeutet jedoch nicht, dass sie zuverlässig sind. Insbesondere bei kriminellen Verfolgungen können ungenaue Daten schwerwiegende Folgen haben.
Quelle: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html
Kommentar (0)