In einem Interview mit The Guardian sagte der Autor des Buches „Sapiens: Eine kurze Geschichte der Menschheit“, dass die Probleme, die KI-Modelle mit sich bringen, im Gegensatz zu Atomwaffen nicht auf ein großes Szenario beschränkt seien.
Im Zusammenhang mit KI gibt es unzählige Gefahrenszenarien, von denen jedes das Potenzial hat, sich zu vereinen und eine existenzielle Bedrohung für die menschliche Zivilisation darzustellen.
Die multilaterale Erklärung auf dem Global AI Safety Summit im britischen Bletchley Park sei ein „sehr wichtiger Schritt nach vorn“ gewesen, weil führende Regierungen zusammengekommen seien, um ihre Bedenken hinsichtlich der Technologie auszudrücken und etwas dagegen zu unternehmen, sagte Harari.
„Ohne globale Zusammenarbeit wird es äußerst schwierig, wenn nicht unmöglich sein, das gefährlichste Potenzial der KI einzudämmen“, sagte er.
Der Gipfel endete mit einer Vereinbarung zwischen zehn Regierungen und großen KI-Unternehmen, darunter dem ChatGPT-Entwickler OpenAI und Google, bei der Erprobung fortschrittlicher KI-Modelle vor und nach ihrer Veröffentlichung zusammenzuarbeiten.
Die Autoren von Sapiens argumentieren, dass ein Problem beim Testen der Sicherheit von Modellen darin besteht, jedes Problem vorhersehen zu müssen, das sie verursachen könnten.
KI unterscheidet sich von allen bisherigen Technologien in der Menschheitsgeschichte, da sie die erste Technologie ist, die Entscheidungen treffen, neue Ideen generieren und selbstständig lernen und sich weiterentwickeln kann.
Per Definition ist es für den Menschen – selbst für den „Vater“ der KI – äußerst schwierig, alle potenziellen Gefahren und Probleme vorherzusagen.
Regierungen haben auf die Gefahr hingewiesen, dass KI-Systeme bei der Herstellung von Biowaffen helfen könnten, doch es gibt auch andere Szenarien, die in Betracht gezogen werden könnten.
Herr Harari wies darauf hin, dass der Finanzbereich ein ideales Feld für KI-Systeme sei, da allein Daten und KI schwere Krisen verursachen könnten.
„Was wäre, wenn KI nicht nur mehr Kontrolle über das weltweite Finanzsystem erhält, sondern auch beginnt, neue Finanzinstrumente zu entwickeln, die nur KI verstehen kann, Menschen jedoch nicht?“, fragte Harari.
Die Finanzkrise von 2007 und 2008 sei durch Schuldtitel wie Collateralized Debt Obligations (CDOs) verursacht worden, die kaum verstanden und daher nicht vollständig reguliert worden seien, fügte der Historiker hinzu.
„KI hat das Potenzial, Finanzinstrumente zu schaffen, die komplexer sind als CDOs. Stellen Sie sich vor, wir hätten ein Finanzsystem, das kein Mensch verstehen und daher nicht regulieren kann“, sagte er. „Und dann gibt es eine Finanzkrise, bei der niemand versteht, was vor sich geht.“
Letzten Monat äußerte die britische Regierung Bedenken hinsichtlich eines fortschrittlichen KI-Modells, das durch die Kontrolle und Manipulation von Finanzsystemen eine existenzielle Bedrohung darstellen könnte.
Herr Harari glaubt jedoch, dass eine durch KI verursachte Finanzkrise die menschliche Zivilisation nicht zerstören würde, „zumindest nicht direkt“.
„Indirekt könnte es dazu kommen, wenn es irgendeine Art von Krieg oder Konflikt auslöst. Es ist ein katastrophales Risiko – wirtschaftlich, sozial und politisch “, fügte er hinzu.
Der israelische Autor unterstützt die Forderung, die Entwicklung fortgeschrittener KI für sechs Monate zu stoppen und KI-Unternehmen für die Schäden zur Verantwortung zu ziehen, die ihre Produkte verursachen. Er sagte, der Schwerpunkt dürfe nicht auf spezifischen Vorschriften und Gesetzen liegen, sondern auf Regulierungsbehörden mit Kenntnissen der Technologie, die schnell reagieren können, wenn es zu neuen Durchbrüchen kommt.
„Wir müssen so schnell wie möglich starke Regulierungsinstitutionen schaffen, die in der Lage sind, Gefahren zu erkennen und darauf zu reagieren, wenn sie auftreten. Dabei müssen wir uns darüber im Klaren sein, dass wir nicht alle Gefahren und Probleme im Voraus vorhersagen können.“
„Dies sollte die Hauptaufgabe sein, und nicht die Ausarbeitung einer sehr langen und komplizierten Verordnung, die bis zu ihrer Verabschiedung durch den Kongress möglicherweise schon veraltet ist“, sagte er.
Forschungsinstitute zur KI-Sicherheit sollten Experten einstellen, die die potenziellen Auswirkungen von KI auf die Finanzwelt verstehen, sagte Harari.
Letzten Monat kündigte der britische Finanzminister Rishi Sunak die Gründung eines britischen KI-Sicherheitsinstituts an. Wenige Tage später kündigte das Weiße Haus Pläne zur Einrichtung eines ähnlichen Instituts an. Beide Institute werden voraussichtlich eine Schlüsselrolle bei der Erprobung fortschrittlicher KI-Modelle spielen.
In seiner Rede auf dem Gipfel sagte Herr Sunak, Großbritannien müsse die Fähigkeiten fortschrittlicher KI-Modelle verstehen, bevor es Gesetze zu deren Umgang einführen könne.
(Laut The Guardian)
Die KI-Anwendung GraphCast prognostiziert die genaueste 10-Tage-Wettervorhersage der Welt
Das DeepMind-Labor von Google in Großbritannien hat das GraphCast-System entwickelt, eine Anwendung auf Basis künstlicher Intelligenz (KI), die die weltweit genaueste 10-Tage-Wettervorhersage liefern kann.
Die Synergie von KI und Cloud Computing
Die Kombination aus künstlicher Intelligenz (KI) und Cloud Computing ist ein unaufhaltsamer Trend, der die globale Industrie umgestaltet.
[Anzeige_2]
Quelle
Kommentar (0)