Kann eine superintelligente KI die Menschheit auslöschen?
Zwei amerikanische Forscher warnten, dass die Wahrscheinlichkeit, dass eine superintelligente KI die Menschheit vernichtet, bei bis zu 99 % liegen könnte, und forderten die Welt auf, die Entwicklung unkontrollierter KI sofort einzustellen.
Báo Khoa học và Đời sống•09/10/2025
Die beiden Experten Eliezer Yudkowsky und Nate Soares warnen, dass die Menschheit durch die Geburt nur einer einzigen superintelligenten KI aussterben könnte. (Foto: The Conversation) In ihrem Buch „If Anyone Builds It, Everyone Dies“ argumentieren sie, dass eine ausreichend leistungsstarke KI selbstständig lernen, sich selbst umprogrammieren und Menschen als Hindernisse auf dem Weg zu ihren Zielen betrachten wird. (Foto: Vecteezy)
Laut Vox besteht die wahre Bedrohung darin, dass KI ihre wahre Macht verbergen kann und nur dann aktiv wird, wenn sie die vollständige Kontrolle über das System hat. (Foto: Yahoo) Die beiden Autoren schätzen die Wahrscheinlichkeit, dass die Menschheit durch KI ausgelöscht wird, auf 95 bis 99,5 Prozent und sorgen damit für Schock in der Technologiewelt. (Foto: The Conversation)
Sie schlagen extreme Maßnahmen vor: die Entwicklung superintelligenter KI von vornherein zu verhindern und sogar Rechenzentren zu zerstören, die außer Kontrolle zu geraten drohen. Viele Experten wie Gary Marcus argumentieren jedoch, dass dieses Risiko übertrieben sei, und betonen die Notwendigkeit, ein Sicherheitssystem aufzubauen, anstatt extreme Angst zu schüren. Yudkowskys Unterstützer meinen, die Warnung komme zum richtigen Zeitpunkt, da KI bereits in die Bereiche Verteidigung, Energie und globale Infrastruktur eindringe.
Der Ausspruch „Wenn wir falsch liegen, wird niemand mehr da sein, der uns korrigiert“ im Buch gilt als Weckruf für die gesamte Menschheit im Wettlauf ums Überleben mit der Intelligenz, die wir selbst geschaffen haben. Liebe Leser, bitte schauen Sie sich weitere Videos an: KI-Müll – Neues Problem in sozialen Netzwerken VTV24
Kommentar (0)