Nachdem das Startup OpenAI Ende 2022 seine erste KI-Anwendung, ChatGPT, auf den Markt brachte, löste dies einen enormen Wettlauf um die Entwicklung von KI-Anwendungen aus, insbesondere generativer KI, die viele Annehmlichkeiten in allen Lebensbereichen mit sich bringen. Dies birgt jedoch auch viele Risiken.
Verletzung der Privatsphäre
In den letzten Jahren haben viele Organisationen und Einzelpersonen Verluste erlitten, als Technologiekriminelle mithilfe künstlicher Intelligenz Videoclips erstellten, die die Bilder und Stimmen echter Menschen fälschten. Ein Beispiel dafür ist der sogenannte „Deepfake“-Trick, bei dem aus Fakes echte Menschen werden.
Laut dem Ende November 2023 von Sumsub veröffentlichten Identity Fraud Report haben sich Deepfake-Betrugsfälle in den Jahren 2022 und 2023 weltweit verzehnfacht. Dies ist auch die Zeit, in der künstliche KI-Anwendungen weltweit explosionsartig an Bedeutung gewannen.
Status Labs weist darauf hin, dass Deepfake einen großen Einfluss auf Kultur, Privatsphäre und persönliches Ansehen hat. Ein Großteil der Nachrichten und Aufmerksamkeit rund um Deepfake konzentriert sich auf Promi-Pornos, Rachepornos, Desinformation, Fake News, Erpressung und Betrug. So wurde beispielsweise 2019 ein Energieunternehmen in den USA um 243.000 US-Dollar betrogen, als ein Hacker das Bild und die Stimme der Unternehmensführung fälschte und Mitarbeiter aufforderte, Geld an Partner zu überweisen.
Die Nachrichtenagentur Reuters berichtete, dass im Jahr 2023 weltweit rund 500.000 Deepfake-Inhalte in Video- und Sprachform in sozialen Netzwerken geteilt wurden. Neben Deepfakes zum Spaß gibt es auch Tricks, mit denen Kriminelle die Community täuschen. Einige Quellen gaben an, dass Deepfake-Betrugsfälle im Jahr 2022 weltweit einen geschätzten Schaden von 11 Millionen US-Dollar verursachten.
Viele Technologieexperten warnen vor den negativen Auswirkungen von KI, darunter die Beeinträchtigung geistiger Eigentumsrechte und der Authentizität sowie vor Streitigkeiten um geistiges Eigentum zwischen von KI geschaffenen „Werken“. Beispielsweise bittet eine Person eine KI-Anwendung, ein Bild mit einem bestimmten Thema zu zeichnen, eine andere Person fordert die KI jedoch auf, dasselbe zu tun, was zu Bildern mit vielen Ähnlichkeiten führt.
Dies dürfte zu Streitigkeiten über Eigentumsrechte führen. Bislang ist jedoch weltweit noch keine Entscheidung über die Anerkennung des Urheberrechts für KI-generierte Inhalte gefallen (Anerkennung der Urheberschaft für Einzelpersonen, die kreative KI bestellen, oder Unternehmen, die KI-Anwendungen entwickeln).
Ein von einer KI-Anwendung generiertes Bild
Echt und Fälschung schwer zu unterscheiden
Können KI-generierte Inhalte Urheberrechte verletzen? Technisch gesehen werden KI-generierte Inhalte von Algorithmen aus Daten synthetisiert, mit denen sie trainiert wurden. Diese Datenbanken werden von KI-Anwendungsentwicklern aus zahlreichen Quellen, hauptsächlich aus Wissensdatenbanken im Internet, zusammengetragen. Viele dieser Werke sind urheberrechtlich geschützt.
Am 27. Dezember 2023 verklagte die New York Times (USA) OpenAI (mit ChatGPT) und Microsoft mit der Begründung, Millionen ihrer Artikel seien zum Trainieren von KI-Chatbots und KI-Plattformen dieser beiden Unternehmen verwendet worden. Der Beweis dafür ist, dass Chatbots auf Anfrage von Nutzern Inhalte erstellen, die den Artikeln entsprechen oder ihnen ähneln. Die Zeitung kann nicht ignorieren, wenn ihr „geistiges Eigentum“ von Unternehmen gewinnbringend genutzt wird.
Die New York Times ist die erste große US-Zeitung, die eine Urheberrechtsklage im Zusammenhang mit KI eingereicht hat. Es ist möglich, dass andere Zeitungen in Zukunft diesem Beispiel folgen werden, insbesondere nach dem Erfolg der New York Times.
Zuvor hatte OpenAI im Juli 2023 eine Urheberrechtslizenzvereinbarung mit der Nachrichtenagentur Associated Press und im Dezember 2023 mit Axel Springer – dem deutschen Verlag, dem die Zeitungen Politico und Business Insider gehören – geschlossen.
Auch die Schauspielerin Sarah Silverman schloss sich im Juli 2023 einer Klage an und beschuldigte Meta und OpenAI, ihre Memoiren als Trainingstext für KI-Programme zu verwenden. Viele Schriftsteller zeigten sich ebenfalls besorgt, als bekannt wurde, dass KI-Systeme Zehntausende von Büchern in ihre Datenbanken aufgenommen hatten, was zu Klagen von Autoren wie Jonathan Franzen und John Grisham führte.
Unterdessen hat auch der Fotodienst Getty Images ein KI-Unternehmen verklagt, weil es Bilder auf Basis von Textaufforderungen erstellte, da das urheberrechtlich geschützte Bildmaterial des Unternehmens unbefugt verwendet wurde …
Nutzer können Urheberrechtsprobleme bekommen, wenn sie „unvorsichtig“ „Werke“ verwenden, die sie von KI-Tools „erstellen“ lassen. Experten empfehlen, KI-Tools grundsätzlich nur für die Suche, Datenerfassung und das Erstellen von Vorschlägen zu Referenzzwecken zu verwenden.
Andererseits verwirren KI-Anwendungen die Nutzer, wenn sie nicht zwischen Wahrheit und Falschheit bestimmter Inhalte unterscheiden können. Verlage und Zeitungsredaktionen können beim Erhalt von Manuskripten verwirrt sein. Auch für Lehrkräfte ist es schwierig zu erkennen, ob in den Arbeiten ihrer Schüler KI zum Einsatz kommt oder nicht.
Die Community muss nun wachsamer sein, da nicht klar ist, was echt und was gefälscht ist. Beispielsweise wird es für den Durchschnittsbürger schwierig sein, zu erkennen, ob ein Foto „verzaubert“ oder von KI bearbeitet wurde.
Gesetzliche Regelungen zum KI-Einsatz sind notwendig
Während die Verwaltungsbehörden auf Anwendungstools warten, die KI-Eingriffe erkennen können, müssen sie bald klare und spezifische gesetzliche Regelungen für die Nutzung dieser Technologie zur Erstellung privater Inhalte erlassen. Gesetzliche Regelungen müssen jedem klar machen, dass Inhalte und Werke durch KI beeinflusst wurden, beispielsweise durch die standardmäßige Vermerkung von Wasserzeichen auf Bildern, die von KI manipuliert wurden.
[Anzeige_2]
Quelle: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Kommentar (0)