Der Oktoberbericht von OpenAI ergab, dass Cyber-Akteure weltweit in erster Linie künstliche Intelligenz (KI) in bestehende Angriffspipelines integrieren, um die Leistung zu verbessern, anstatt völlig neue Angriffstools oder -methoden zu entwickeln.
Laut OpenAI bestand ein Großteil der erkannten Aktivitäten darin, KI zur Unterstützung bekannter Aufgaben einzusetzen, etwa bei der Entwicklung von Schadsoftware, dem Aufbau einer Kontrollinfrastruktur, der Erstellung komplexerer Phishing-E-Mails und der Erfassung von Informationen über Ziele.
„Die blockierten Teams integrierten KI hauptsächlich in bestehende Prozesse, anstatt neue Prozesse auf Basis von KI aufzubauen“, heißt es in dem Bericht.
Der Bericht stellte außerdem fest, dass viele Benutzergruppen große Sprachmodelle (LLMs) genutzt haben, um Wissen in einer Vielzahl technischer Bereiche zu gewinnen, von der Anwendungsentwicklung bis zur Netzwerksystemkonfiguration, und zwar oft auf eine Weise, die jedes Konto auf eine bestimmte Aufgabe spezialisiert.
Es wurde festgestellt, dass mehrere andere Benutzernetzwerke KI-Plattformen nutzen, um Online-Inhalte wie Artikel, Bilder und Videos zu generieren, um Medienkampagnen durchzuführen oder bestimmte Standpunkte zu vertreten. Die meisten dieser Konten sind jedoch ineffektiv und weisen nur eine sehr geringe Beteiligung auf.
Darüber hinaus hat OpenAI auch das Phänomen von Betrugszentren und Cyberkriminellen beobachtet, die ChatGPT zur Unterstützung von Online-Betrugsaktivitäten in Myanmar und Kambodscha nutzen. Einige Fälle zeigen, dass KI nicht nur zur Bearbeitung von Inhalten, sondern auch zur Verwaltung von Arbeitszeiten, Personalressourcen und Finanzen eingesetzt wird.
OpenAI weist jedoch darauf hin, dass KI auch aktiv zur Betrugsprävention eingesetzt wird. Schätzungsweise wird ChatGPT dreimal häufiger zur Erkennung und Vermeidung von Betrug eingesetzt als zur Begehung von Betrug.“
Die meisten böswilligen Anfragen werden vom System abgelehnt, der Bericht weist jedoch darauf hin, dass es immer noch eine „Grauzone“ gibt, in der technische oder forschungsbasierte Anfragen für unbeabsichtigte Zwecke missbraucht werden können.
OpenAI behauptet jedoch, dass der erstellte Code oder Inhalt erst dann bösartig sei, wenn er außerhalb der Plattform missbraucht werde./.
(TTXVN/Vietnam+)
Quelle: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
Kommentar (0)