In einer Erklärung betonten Branchenführer und Experten laut AFP, dass die Bewältigung der Risiken durch KI „neben anderen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein muss“. Die Erklärung wurde von Dutzenden von Experten unterzeichnet, darunter Sam Altman, CEO von OpenAI, dem Entwickler der ChatGPT-Plattform.
ChatGPT wurde Ende letzten Jahres durch seine Fähigkeit bekannt, aus kürzesten Eingabeaufforderungen Essays, Gedichte und Chats zu generieren. Der ChatGPT-Hype hat Milliarden von Dollar an Investitionen im KI-Bereich angezogen.
ChatGPT-Logo und das englische Wort „Artificial Intelligence“ (AI)
Branchenexperten schlagen jedoch Alarm, und zwar wegen aller möglichen Probleme, von voreingenommenen KI-Algorithmen bis hin zum Risiko eines Massenverlusts von Arbeitsplätzen, da die KI-gestützte Automatisierung in den Alltag der Menschen eindringt.
Die jüngste Erklärung, die auf der Website des Center for AI Safety (einer gemeinnützigen Organisation mit Sitz in den USA) veröffentlicht wurde, enthält keine Einzelheiten zu der potenziellen existenziellen Bedrohung durch KI.
Inzwischen haben einige Unterzeichner, darunter Herr Geoffrey Hinton, der einige der grundlegenden Technologien für KI-Systeme entwickelt hat und als Vater der Branche gilt, in der Vergangenheit ähnliche Warnungen ausgesprochen.
Ihre größte Sorge gilt der Idee der sogenannten künstlichen allgemeinen Intelligenz (AGI). Dabei handelt es sich um ein Konzept, das den Punkt beschreibt, an dem Maschinen in der Lage sind, viele der gleichen Funktionen wie Menschen auszuführen und eigene Programme zu entwickeln.
Die Sorge besteht darin, dass der Mensch die KI nicht mehr kontrollieren kann. Experten warnen, dass diese Situation verheerende Folgen für die Menschheit haben könnte.
Dutzende Experten von Unternehmen wie Google und Microsoft unterzeichneten die Erklärung, die zwei Monate nach der Forderung des Milliardärs Elon Musk und anderer erfolgte, die Entwicklung von KI-Technologien zu stoppen, bis ihre Sicherheit bewiesen sei, so AFP.
[Anzeige_2]
Quellenlink
Kommentar (0)