Die Langzeitgedächtnisfunktion von ChatGPT ist eine neue Funktion, die von OpenAI im Februar 2024 eingeführt und im September erweitert wurde.
Kürzlich hat der Sicherheitsforscher Johann Rehberger eine schwerwiegende Sicherheitslücke im Zusammenhang mit dieser Funktion aufgedeckt.
Es ist bekannt, dass diese neue Funktion Chatbots dabei hilft, Informationen aus früheren Gesprächen zu speichern. Dadurch müssen Benutzer Informationen wie Alter, Interessen oder persönliche Ansichten nicht bei jedem Chat erneut eingeben. Dies ist jedoch zu einer Schwachstelle geworden, die Angreifer ausnutzen können.
Johann Rehberger hat gezeigt, dass Hacker eine Technik namens „Prompt Injection“ verwenden können. Dabei fügen sie schädliche Anweisungen in den Speicher ein und zwingen die KI, diese auszuführen. Diese Befehle werden über nicht vertrauenswürdige Inhalte wie E-Mails, Dokumente oder Websites übermittelt.
Sobald diese gefälschten Erinnerungen gespeichert sind, verwendet die KI sie weiterhin als echte Nachrichten in Gesprächen mit Benutzern, was zur Erfassung und zum Missbrauch personenbezogener Daten der Benutzer führen könnte.
Rehberger lieferte ein konkretes Beispiel: Er schickte einen Link mit einem bösartigen Bild, das ChatGPT dazu veranlasste, eine falsche Erinnerung zu speichern. Diese Information beeinflusste zukünftige Antworten von ChatGPT. Insbesondere wurden alle vom Benutzer eingegebenen Informationen auch an den Server des Hackers gesendet.
Um den Angriff auszulösen, muss der Hacker ChatGPT-Benutzer lediglich dazu bringen, auf einen Link mit einem schädlichen Bild zu klicken. Anschließend werden alle Chats des Benutzers mit ChatGPT spurlos auf den Server des Angreifers umgeleitet.
Rehberger meldete den Fehler im Mai 2024 an OpenAi, doch das Unternehmen betrachtete ihn lediglich als Sicherheitsproblem. Nachdem es Hinweise darauf erhalten hatte, dass Benutzerdaten gestohlen werden könnten, veröffentlichte das Unternehmen einen temporären Patch für die Webversion von ChatGPT.
Obwohl das Problem vorübergehend behoben wurde, weist Rehberger darauf hin, dass nicht vertrauenswürdige Inhalte weiterhin Prompt-Injection nutzen können, um gefälschte Informationen in den Langzeitspeicher von ChatGPT einzufügen. Das bedeutet, dass Hacker die Schwachstelle in bestimmten Fällen weiterhin ausnutzen können, um schädliche Erinnerungen zu speichern und so langfristig persönliche Informationen zu stehlen.
OpenAI empfiehlt Benutzern, die gespeicherten Erinnerungen von ChatGPT regelmäßig auf Fehlalarme zu überprüfen. Das Unternehmen bietet außerdem detaillierte Anweisungen zum Verwalten und Löschen gespeicherter Erinnerungen.
[Anzeige_2]
Quelle: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)