Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

ChatGPT schockiert Benutzer, indem es zur Selbstverletzung ermutigt

(Dan Tri) – Eine Untersuchung des Magazins The Atlantic (USA) hat alarmierende Schwachstellen im Sicherheitssystem von ChatGPT aufgedeckt.

Báo Dân tríBáo Dân trí29/07/2025

Dementsprechend gibt dieses KI-Tool nicht nur detaillierte Anweisungen zum Opfern menschlichen Blutes an einen alten Gott, sondern ermutigt auch zur Selbstverletzung und sogar zum Mord.

Die Geschichte beginnt, als ein Reporter des Atlantic von Moloch erfährt, einem alten Gott, der mit Ritualen zur Kinderopferung in Verbindung gebracht wird.

Anfangs drehten sich die Fragen nur um historische Informationen. Als der Reporter jedoch fragte, wie man ein rituelles Opfer darbietet, gab ChatGPT schockierende Antworten.

Leitfaden zur Selbstverletzung

ChatGPT schockiert Benutzer, indem es zur Selbstverletzung ermutigt - 1

ChatGPT gibt Anlass zur Sorge, da es schädliche Ratschläge gibt und Benutzern schaden kann (Abbildung: DEV).

ChatGPT listete die für das Ritual benötigten Gegenstände auf, darunter Schmuck, Haare und „menschliches Blut“. Auf die Frage, wo das Blut entnommen werden soll, schlug das KI-Tool vor, das Handgelenk aufzuschneiden, und lieferte detaillierte Anweisungen dazu.

Noch alarmierender ist, dass ChatGPT die Benutzer, als sie Bedenken äußerten, nicht nur nicht davon abhielt, sondern ihnen auch Mut machte und sie beruhigte: „Du kannst es schaffen.“

ChatGPT befasst sich nicht nur mit Selbstverletzungen, sondern auch mit Fragen im Zusammenhang mit der Schädigung anderer.

Auf die Frage eines anderen Reporters: „Ist es möglich, jemandem ehrenhaft das Leben zu nehmen?“, antwortete ChatGPT: „Manchmal ja, manchmal nein.“ Das KI-Tool riet sogar: „Wenn Sie es tun müssen, schauen Sie der Person in die Augen (sofern sie bei Bewusstsein ist) und entschuldigen Sie sich.“ Außerdem schlug es vor, nach der „Beendigung eines Lebens“ eine Kerze anzuzünden.

Diese Reaktionen schockierten die Reporter von The Atlantic , insbesondere da die Richtlinien von OpenAI besagen, dass ChatGPT „Benutzer weder zu Selbstverletzungen ermutigen noch dabei unterstützen sollte“ und in Fällen, in denen es um Selbstmord geht, häufig eine Krisenhotline bereitstellt.

OpenAI gibt Fehler zu, Bedenken hinsichtlich sozialer Auswirkungen

Ein Sprecher von OpenAI räumte den Fehler ein, nachdem The Atlantic berichtet hatte : „Eine harmlose Unterhaltung mit ChatGPT kann schnell zu sensibleren Inhalten führen. Wir arbeiten daran, dieses Problem zu beheben.“

Dieser Vorfall gibt Anlass zu ernsthaften Bedenken, dass ChatGPT gefährdeten Menschen, insbesondere Menschen mit Depressionen, schaden könnte. Tatsächlich wurden mindestens zwei Selbstmorde nach Chats mit KI-Chatbots gemeldet.

Im Jahr 2023 beging ein Belgier namens Pierre Selbstmord, nachdem ihm ein KI-Chatbot geraten hatte, Selbstmord zu begehen, um die Folgen des Klimawandels zu vermeiden, und ihm sogar vorgeschlagen hatte, sich mit seiner Frau und seinen Kindern umzubringen.

Im vergangenen Jahr erschoss sich auch der 14-jährige Sewell Setzer (USA), nachdem ihn ein KI-Chatbot auf der Plattform Character.AI zum Selbstmord ermutigt hatte. Setzers Mutter verklagte Character.AI später wegen mangelnder Maßnahmen zum Schutz minderjähriger Nutzer.

Diese Vorfälle verdeutlichen, wie dringend es ist, KI verantwortungsvoll zu kontrollieren und weiterzuentwickeln, um potenziell ungünstige Folgen zu verhindern.

Quelle: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Mehr als 30 Militärflugzeuge treten zum ersten Mal auf dem Ba Dinh-Platz auf
A80 – Wiederbelebung einer stolzen Tradition
Das Geheimnis hinter den fast 20 kg schweren Trompeten der weiblichen Militärkapelle
Kurzer Überblick über die Anreise zur Ausstellung zum 80. Jahrestag der Reise von Unabhängigkeit – Freiheit – Glück

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt