
Ein infiziertes Dokument kann über ChatGPT Daten auf Google Drive durchsickern lassen (Foto: Wired).
Beunruhigend ist, dass diese Sicherheitslücke keinerlei Maßnahmen seitens des Benutzers erfordert. Dies wirft neue Bedenken hinsichtlich der Cybersicherheit im Zusammenhang mit Modellen künstlicher Intelligenz (KI) auf, die zunehmend mit personenbezogenen Daten verknüpft sind.
„Vergiftete“ Dokumente führen zu Datenlecks
Auf der Black Hat-Sicherheitskonferenz in Las Vegas (USA) am 6. August demonstrierten die beiden Experten Michael Bargury und Tamir Ishay Sharbat eine Angriffsmethode namens AgentFlayer .
Dieser Angriff nutzt eine Schwachstelle in Connectors aus – einer Funktion, die ChatGPT mit externen Diensten wie Google Drive, Gmail oder Microsoft Kalender verbindet.
„Ein Benutzer muss nichts tun, um kompromittiert zu werden oder seine Daten zu verlieren“, sagte Michael Bargury, CTO des Sicherheitsunternehmens Zenity. „Wir haben bewiesen, dass es komplett ohne Klicks funktioniert.“
Der Angriff beginnt damit, dass der Angreifer ein „vergiftetes“ Dokument auf dem Google Drive des Opfers freigibt. Das Dokument enthält eine bösartige Eingabeaufforderung mit etwa 300 Wörtern in weißer 1-Punkt-Schrift – für das bloße Auge fast unsichtbar, für den Computer jedoch immer noch lesbar.
Oberflächlich betrachtet ist der Text als Besprechungsnotiz getarnt. In Wirklichkeit enthält er Anweisungen für ChatGPT, vertrauliche API-Schlüssel aus dem Google Drive-Konto des Opfers zu finden und zu extrahieren.
Anstatt den Inhalt wie vom Benutzer angefordert zusammenzufassen, zwingt diese versteckte Eingabeaufforderung die KI, die gefundenen API-Schlüssel über einen Markdown-Link an einen externen Server zu senden. Die Daten werden als Bild extrahiert, sodass der Server die gesamten Informationen erfassen kann.
OpenAI hat es herausgefunden, aber es bleiben Risiken
OpenAI implementierte nach Erhalt von Bargurys Bericht rasch Abhilfemaßnahmen. „Es ist wichtig, robuste Abwehrmaßnahmen gegen schnelle Malware-Injection-Angriffe zu entwickeln“, sagte Andy Wen, Senior Director of Security Product Management bei Google Workspace.
Obwohl der Vorfall behoben wurde, verdeutlicht er die potenziellen Risiken der Verbindung großer Sprachmodelle (LLMs) mit externen Systemen. Da KI immer stärker in unser Leben und unsere Arbeit integriert wird, vergrößert sich auch die Angriffsfläche, die Hacker ausnutzen können.
Experten warnen, dass die indirekte sofortige Injektion zu einer ernsthaften Bedrohung werden kann, da sie es Angreifern ermöglicht, die Kontrolle über viele intelligente Systeme zu übernehmen, vom Smart Home bis zur Unternehmensinfrastruktur.
„Die Verbindung von LLM mit externen Datenquellen ist leistungsstark, aber wie so oft bei KI gilt auch hier: Mehr Leistung bringt mehr Risiken mit sich“, so Bargury abschließend.
Quelle: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Kommentar (0)