Terrorgruppen wie der Islamische Staat (IS) und Al-Qaida nutzen Technologien, insbesondere künstliche Intelligenz, um extremistische Botschaften zu verbreiten, Zensur zu umgehen und vor allem Mitglieder zu rekrutieren.
In Family Guy, einer der weltweit beliebtesten Zeichentrickserien, gibt es eine Szene, in der die Hauptfigur Peter Griffin einen mit Bomben beladenen Lastwagen über eine Brücke fährt. Doch wie aus dem obigen Ausschnitt hervorgeht, hat der IS künstliche Intelligenz (KI) eingesetzt, um Griffins Worte durch den Satz zu ersetzen: „Unsere Waffen sind großartig, wir haben viele Ränge, die Soldaten Allahs sind bereiter“, um mehr IS-Anhänger zu gewinnen.
„Die rasante Verbreitung von KI-Technologie in den letzten Jahren hatte tiefgreifende Auswirkungen auf die Art und Weise, wie extremistische Organisationen online Einfluss ausüben“, sagte der amerikanische Forscher Daniel Siegel. Im Februar 2024 kündigte eine mit Al-Qaida verbundene Gruppe an, Online-Workshops zum Thema KI zu veranstalten, und veröffentlichte später einen Leitfaden zur Verwendung von KI-Chatbots. Im März dieses Jahres, nachdem ein IS-Anhänger einen Terroranschlag auf ein Theater in Moskau verübt hatte, verfasste einer ihrer Anhänger eine Fake-News-Meldung und veröffentlichte sie online. Erst Anfang Juli verhafteten Beamte des spanischen Innenministeriums neun junge Menschen, die Inhalte teilten, die den IS verherrlichten. Einer von ihnen soll sich mithilfe spezieller KI-gestützter Bearbeitungsanwendungen auf extremistische Multimediainhalte konzentriert haben.
„Sowohl Al-Qaida als auch der IS nutzen KI als Ergänzung zur offiziellen Propaganda“, sagte Moustafa Ayad, Exekutivdirektor für Afrika, den Nahen Osten und Asien am Londoner Institute for Strategic Dialogue. Für langjährige IS-Beobachter ist das keine Überraschung. Als die Gruppe um 2014 erstmals auftauchte, produzierte sie Videos , die der Einschüchterung und Rekrutierung von Mitgliedern dienen sollten. Aufsichtsbehörden haben verschiedene Arten dokumentiert, wie KI von extremistischen Gruppen eingesetzt wird. Neben Propaganda könnte der IS auch Chatbots wie ChatGPT nutzen, um mit potenziellen Rekruten zu chatten.
KI-Modelle wie ChatGPT verfügen zwar über bestimmte Regeln, um Nutzer von Verbrechen wie Terrorismus und Mord abzuhalten. Diese Regeln haben sich jedoch als unzuverlässig erwiesen und können von Terroristen leicht umgangen werden. Es gibt zudem Bedenken, dass Extremisten KI-Tools für Cyberangriffe oder zur Planung realer Terroranschläge nutzen könnten.
Die größere Bedrohung, so Analysten, bestehe nun darin, dass diese Gruppen tatsächlich Anschläge verüben und so Einzeltäter inspirieren oder erfolgreich neue Mitglieder rekrutieren. Angesichts der Empörung der internationalen Gemeinschaft über Israels Krieg im Gazastreifen nutzen extremistische Gruppen zivile Opfer als rhetorisches Mittel, um neue Mitglieder zu rekrutieren und Kampagnen aufzubauen.
KHANH MINH
[Anzeige_2]
Quelle: https://www.sggp.org.vn/nguy-co-khi-cac-nhom-khung-bo-su-dung-cong-nghe-cao-post749867.html
Kommentar (0)