Vietnam.vn - Nền tảng quảng bá Việt Nam

Das „Superintelligenz“-Modell hinter dem OpenAI-Skandal

VTC NewsVTC News01/12/2023

[Anzeige_1]

Quellen von Tech.co zufolge kam während der Kontroverse um die Entlassung von CEO Sam Altman und dessen anschließende Rückkehr zu OpenAI ein Gerücht über einen Brief der Forscher des Unternehmens an den Vorstand auf, in dem sie ihre Besorgnis über das in der Entwicklung befindliche KI-Superintelligenzmodell zum Ausdruck brachten, das möglicherweise eine Bedrohung für die Menschheit darstellen könnte.

(Illustration)

(Illustration)

Projekt Q*

Das Modell, das intern als Projekt Q* (ausgesprochen „Q-Stern“) bekannt ist, soll einen großen Durchbruch in OpenAIs Streben nach künstlicher allgemeiner Intelligenz (AGI) darstellen – einem hochautonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und Menschen bei den meisten Aufgaben übertrifft.

Q* könnte einen großen Sprung nach vorne in der künstlichen Intelligenz darstellen, indem es die Denkfähigkeiten der KI radikal verbessert und OpenAI einem großen Durchbruch in der Entwicklung der AGI näher bringt, sagen mit der Angelegenheit vertraute Personen.

Im Gegensatz zu aktuellen KI-Modellen, die sich auf die Fähigkeit konzentrieren, Antworten auf der Grundlage zuvor erlernter Informationen zu generieren, handelt es sich bei AGI um ein autonomes System, das Entscheidungen „vernünftig“ treffen kann und so über Problemlösungsfähigkeiten auf menschlichem Niveau verfügt.

Obwohl die künstliche Intelligenz (AGI) noch nicht vollständig realisiert ist, glauben viele Experten, dass die Technologie auch über die Fähigkeit zum kumulativen Lernen verfügen wird, eine weitere Eigenschaft, die es dem Menschen ermöglicht, seine Fähigkeiten zu verbessern.

Einige Quellen behaupten, dass das Projekt Q* – OpenAI die oben genannten Eigenschaften bei der Problemlösung demonstrieren konnte. Darüber hinaus konnte Q* dank der enormen Rechenleistung des Modells Grundschüler übertreffen und im Vergleich zu den Funktionen der aktuellen KI-Technologie signifikante Denkfähigkeiten und kognitive Fähigkeiten demonstrieren.

Es ist unklar, wie lange Q* bereits in der Entwicklung ist und welche Anwendungsmöglichkeiten es haben könnte, aber OpenAI hat Mitarbeiter und Vorstandsmitglieder vor dem Ausbruch des Personalskandals über das Projekt informiert.

Ethische Bedenken

Während Sam Altman, CEO von OpenAI, davon überzeugt ist, dass die AGI-Technologie Innovationen vorantreiben wird, weisen einige Forscher schnell auf die potenziellen Gefahren des Projekts hin.

In einem Brief an den Vorstand warnten die Forscher vor den potenziellen Gefahren dieses mächtigen Algorithmus für die Menschheit. Die konkreten ethischen Bedenken gegenüber KI, die in dem Brief dargelegt wurden, wurden nicht offengelegt, doch die Warnungen reichten aus, um die Entscheidung des Vorstands zu rechtfertigen, Altman zu entlassen.

Als Grund für Altmans Entlassung wurde zunächst „schlechte Kommunikation“ des CEO angegeben. Er fand bald darauf eine neue Stelle bei Microsoft. Daraufhin drohten 700 der 770 OpenAI-Mitarbeiter, dasselbe zu tun, falls der CEO nicht wieder eingestellt würde.

Da das Unternehmen vom Zusammenbruch bedroht war, war der Vorstand von OpenAI gezwungen, Altman wieder in die Führungsposition zu berufen. Dies führte auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens und machte tiefe Meinungsverschiedenheiten innerhalb der Führung deutlich.

Jetzt, da Altman wieder im Amt ist und das Projekt Q* möglicherweise wieder grünes Licht bekommt, wirft dies neue Fragen auf.

Wie realistisch ist Projekt Q*?

Während die turbulenten Tage bei OpenAI das Konzept der AGI ins Rampenlicht rückten, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.

Der Unternehmer aus dem Silicon Valley geriet im September in Schwierigkeiten, nachdem er AGI mit „einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“ verglich. Damit bekräftigte er seine Bemerkungen aus dem letzten Jahr, in denen er sagte, dass KI „alles tun könne, was man mit einem entfernten Mitarbeiter tun könnte“, einschließlich der Ausbildung eines guten Arztes und Programmierers.

Obwohl der Vergleich von AGI mit der Intelligenz eines „durchschnittlichen Menschen“ nichts Neues ist, wurde Altmans Verwendung dieses Ausdrucks von KI-Ethikern und dem Cambridge-Professor Henry Shevlin als „abscheulich“ empfunden, da die Bedenken hinsichtlich der Auswirkungen von KI auf die Arbeitsplatzsicherheit zunehmen.

Mögliche Durchbrüche in der AGI sind auch für andere Forscher Anlass zur Sorge: Die Technologie entwickelt sich schneller, als der Mensch ihre Auswirkungen vollständig erfassen kann.

OpenAI ist überzeugt, dass die positiven Ergebnisse der künstlichen Intelligenz es wert sind, sich auf dieses riskante „Minenfeld“ einzulassen. Doch während das Unternehmen diesen Weg weiter verfolgt, befürchten viele, dass Altman den kommerziellen Erfolg über die Interessen der Nutzer und der Gesellschaft stellt.

Phuong Anh (Quelle: Tech.co, The Guardian)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Westliche Touristen kaufen gerne Spielzeug zum Mittherbstfest in der Hang Ma Street, um es ihren Kindern und Enkeln zu schenken.
Die Hang Ma Straße erstrahlt in den Farben des Mittherbstes, junge Leute schauen ununterbrochen aufgeregt vorbei
Historische Botschaft: Holzblöcke der Vinh Nghiem Pagode – dokumentarisches Erbe der Menschheit
Bewundern Sie die in den Wolken versteckten Windkraftfelder an der Küste von Gia Lai

Gleicher Autor

Erbe

;

Figur

;

Geschäft

;

No videos available

Aktuelle Veranstaltungen

;

Politisches System

;

Lokal

;

Produkt

;