Ein Deepfake -Video (eine Technologie zum Fälschen von Bildern, Tönen und Videos mithilfe künstlicher Intelligenz) ist kürzlich viral gegangen. Darin sind laut Today auch Bilder des singapurischen Premierministers Lee Hsien Loong enthalten, der dem chinesischen Sender CGTN ein Interview gibt und für ein digitales Währungsprogramm wirbt.
Bild von Premierminister Lee Hsien Loong in gefälschtem Video
CNA-BILDSCHIRMFOTO
Das Video wurde manipuliert, um den Zuschauern vorzugaukeln, Herr Li spreche von einer neuen, von der Regierung unterstützten und vom amerikanischen Milliardär Elon Musk geleiteten Investitionsplattform.
In einem Facebook-Beitrag vom 29. Dezember warnte Premierminister Lee, dass Betrüger künstliche Intelligenz (KI) nutzten, um Stimmen und Bilder zu imitieren, und dass auch der stellvertretende Premierminister Lawrence Wong ins Visier genommen worden sei.
Laut Premierminister Lee Hsien Loong haben die Betrüger „unsere echten Bilder von offiziellen Veranstaltungen in gefälschte Bilder verwandelt, die sehr überzeugend aussehen, aber völlig gefälschte Videos sind, in denen wir Dinge sagen, die wir nie wirklich gesagt haben“.
„Wenn Sie betrügerische Videos sehen oder erhalten, in denen garantierte Anlagerenditen oder Geschenke versprochen werden, reagieren Sie bitte nicht darauf“, schrieb Premierminister Lee.
Der Politiker riet den Singapurern außerdem, Betrugsfälle und Falschmeldungen der offiziellen Anti-Betrugs-App der Regierung zu melden.
„Oberbefehlshaber fordert Sturz des ukrainischen Präsidenten“ entpuppt sich als gefälschtes Video
Herr Ly hat bereits zahlreiche Artikel über die Gefahren der KI veröffentlicht und darin einmal zugegeben, dass es aufgrund der immer ausgefeilteren KI zunehmend schwieriger werde, anhand dessen, was Menschen sehen oder hören, zwischen Wahrheit und Lüge zu unterscheiden.
In einem Beitrag im Juli erklärte Premierminister Lee Hsien Loong, dass Betrüger seine hohe Medienpräsenz häufig ausnutzen, um Kryptowährungsbetrug und gefälschte Anzeigen zu starten.
[Anzeige_2]
Quellenlink
Kommentar (0)