Dark AI operiert außerhalb der Sicherheitsnormen und ermöglicht häufig Verhaltensweisen wie Betrug, Manipulation, Cyberangriffe oder Data Mining ohne genaue Überwachung.
„Böswillige Akteure nutzen KI auch, um ihre Angriffsmöglichkeiten zu verbessern. Der häufigste Missbrauch von KI ist heute die Entstehung von Black-Hat-GPT-Modellen. Dabei handelt es sich um KI-Modelle, die speziell für illegale Zwecke entwickelt oder angepasst wurden, wie zum Beispiel die Erstellung von Malware, das Verfassen von Phishing-E-Mails, die Erzeugung von Stimmen und Deepfake-Videos…“, sagte Sergey Lozhkin, Leiter des Global Research and Analysis Team (GReAT) bei Kaspersky und zuständig für den Nahen Osten, die Türkei, Afrika und den Asien- Pazifik-Raum .
Black Hat GPTs können als vollständig private oder halbprivate KI-Modelle existieren. Einige bemerkenswerte Beispiele sind WormGPT, DarkBard, FraudGPT und Xanthorox … alle wurden für Cyberkriminalität, Betrug und böswillige Automatisierung entwickelt.
Herr Lozhkin gab bekannt, dass die Experten von Kaspersky derzeit einen noch beunruhigenderen Trend beobachten: Von Nationalstaaten oder Regierungen unterstützte Cyberangriffsgruppen beginnen, in ihren Angriffskampagnen große Sprachmodelle (LLMs) einzusetzen.
„OpenAI gab kürzlich bekannt, dass es mehr als 20 verdeckte Einflusskampagnen und Cyberangriffe vereitelt hat, die seine KI-Tools ausnutzten. Wir werden immer raffiniertere Angreifer erleben, die KI als Waffe einsetzen und sowohl öffentliche als auch private Ökosysteme bedrohen. Dies ist ein besorgniserregender Trend, auf den sich alle Organisationen vorbereiten müssen“, sagte Lozhkin.
Laut einem Bericht von OpenAI nutzen böswillige Akteure zunehmend die Fähigkeiten großer Machine-Learning-Modelle (LLMs), um Opfer zu täuschen und herkömmliche Sicherheitsebenen zu umgehen. Sie können überzeugende Fake-Nachrichten erstellen, Massennachrichten an Opfer senden und Inhalte in mehreren Sprachen produzieren.
Um die Abwehr von Bedrohungen durch Dark AI zu stärken, empfehlen die Kaspersky-Experten: Einsatz von Sicherheitslösungen der nächsten Generation wie Kaspersky Next, um KI-generierte Malware zu erkennen und Risiken in der Lieferkette zu kontrollieren. Einsatz von Echtzeit-Threat-Intelligence-Tools zur Überwachung KI-gesteuerter Exploits. Stärkung der Zugriffskontrollen und Mitarbeiterschulungen, um Shadow AI und das Risiko von Datenlecks einzuschränken. Einrichtung eines Security Operations Center (SOC), um Bedrohungen zu überwachen und schnell auf Vorfälle zu reagieren.
Quelle: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
Kommentar (0)