Vietnam.vn - Nền tảng quảng bá Việt Nam

Ethik von Medienschaffenden beim Einsatz von KI-Technologie

Báo Quốc TếBáo Quốc Tế27/10/2024

Wir leben im Zeitalter der industriellen Revolution 4.0, in der künstliche Intelligenz (KI) aus vielen Bereichen des gesellschaftlichen Lebens zunehmend nicht mehr wegzudenken ist. Die Medien als Informationsbrücke zwischen Öffentlichkeit und Geschehen können sich diesem Trend nicht entziehen.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
Frau Nguyen Thi Hai Van – Direktorin des Zentrums für Journalistenausbildung der Vietnamesischen Journalistenvereinigung beim Workshop zur KI-Technologie. (Quelle: Vietnamesische Journalistenvereinigung)

Um die Vorteile der KI optimal zu nutzen, müssen sich Kommunikatoren das Wissen aneignen, um KI effektiv zu nutzen und gleichzeitig die Zuverlässigkeit und Ethik der Informationsübermittlung sicherzustellen.

Von der „Hotness“ der KI

Es ist völlig klar, dass KI (Künstliche Intelligenz) heute eines der angesagtesten Schlagwörter ist. Im September 2024 lieferte die Google-Suche nach dem Stichwort „KI“ in 0,3 Sekunden 15 Milliarden, 9 Milliarden Ergebnisse; mit dem Stichwort „KI-Tools“ lieferte sie in 0,4 Sekunden sogar über 3 Milliarden, 4 Milliarden Ergebnisse. Diese enormen Zahlen zeigen die weltweite Verbreitung und das Interesse an KI und KI-basierten Tools.

Derzeit erscheinen immer mehr KI-Tools für verschiedene Bereiche, einschließlich der Medienbranche. Neben dem weithin bekannten ChatGPT gibt es viele KI-Anwendungen, die in einer speziellen Richtung entwickelt wurden und spezielle Aufgaben erfüllen. Es ist nicht schwer, hier viele Tools aufzulisten, zum Beispiel: Bing AI, Clause, Zapier Central für Chatbot-Aufgabengruppen; Jasper, Copy.ai, Anyword für Aufgaben zur Inhaltserstellung; Descript, Wondershare, Runway für Aufgaben zur Videoproduktion und -bearbeitung; DALL-E3, Midjourney, Stable Diffusion für Aufgaben zur Bilderzeugung; Murf, AIVA für Aufgaben zur Audioinhaltserstellung usw. Und kürzlich hat auch der Riese Amazon die von ihm entwickelten KI-Tools Video Generator und Image Generator vorgestellt, mit dem Ziel, „Kreativität zu inspirieren und Mehrwert zu schaffen“.

Obwohl KI-Tools hinsichtlich Umfang und Spezialisierungsgrad sehr unterschiedlich sind, hat die Technologie im Wesentlichen zwei Gemeinsamkeiten: KI-Tools werden auf der Grundlage von Algorithmen und Daten entwickelt, um die KI-Tools zu „trainieren“.

Ethische Kontrolle des KI-Einsatzes in den Medien

Die Vorteile von KI-Tools sind unbestreitbar. Mit dem rasanten Tempo technologischer Entwicklungen wird es in der Medienbranche immer mehr spezialisierte KI-Tools geben, die einfache bis komplexe Aufgaben bewältigen. Diese rasante Entwicklung wirft viele Fragen zur ethischen Kontrolle bei der Entwicklung und Nutzung von KI-Tools in der Medienbranche auf. Was passiert, wenn die Algorithmen und Daten dieser KI-Tools gesellschaftlich schädlich manipuliert werden? Wer garantiert die geistigen Eigentumsrechte an den Eingabedaten, die das KI-Tool für das Training verwendet? Wer beurteilt den Grad des Schadens, den sie verursachen?

Gibt es bei der gleichen Aufgabe Ungleichheiten zwischen der Gruppe von Menschen, die Zugang zu KI-Tools haben, und der Gruppe, die keinen Zugang dazu hat? Es wurden sogar Fragen zum potenziellen unkontrollierten Schaden durch KI-Tools aufgeworfen, insbesondere in sensiblen Bereichen, die viele Menschen in großem Umfang betreffen können, wie etwa Medien und soziale Netzwerke.

Angesichts der oben genannten Bedenken haben viele Organisationen, Verbände, Regierungen und sogar Unternehmen und Konzerne, die KI-Tools entwickeln, Empfehlungen, Erklärungen und sogar Verhaltenskodizes zum Thema ethische Kontrolle der KI-Technologie herausgegeben. In der Erklärung zur Ethik der künstlichen Intelligenz – der Empfehlung der UNESCO, der Organisation der Vereinten Nationen für Erziehung , Wissenschaft und Kultur –, die 2021 von 193 Ländern angenommen wurde, heißt es eindeutig: „Der rasante Aufstieg der künstlichen Intelligenz (KI) hat weltweit viele Möglichkeiten geschaffen, von der Unterstützung bei Diagnosen im Gesundheitswesen über die Ermöglichung menschlicher Verbindungen durch soziale Medien bis hin zur Steigerung der Arbeitseffizienz durch automatisierte Aufgaben.“

Diese schnellen Veränderungen werfen jedoch auch tiefgreifende ethische Bedenken auf. Die mit KI verbundenen Risiken haben begonnen, bestehende Ungleichheiten zu verschärfen und bereits benachteiligten Gruppen weiteren Schaden zuzufügen…“. Und von dort aus „fordern wir die UNESCO auf, Instrumente zur Unterstützung der Mitgliedstaaten zu entwickeln, darunter die Readiness Assessment Methodology, ein Instrument für Regierungen, um sich ein umfassendes Bild von ihrer Bereitschaft zu machen, KI ethisch und verantwortungsvoll für alle ihre Bürger einzusetzen.“

Im Rahmen ihres globalen Ansatzes hat die UNESCO das Global AI Ethics and Governance Observatory ins Leben gerufen, das ihrer Aussage nach „Informationen über die Bereitschaft der Länder liefert, KI ethisch und verantwortungsvoll einzusetzen. Es beherbergt auch das AI Ethics and Governance Lab, das Beiträge, wirkungsvolle Forschung, Toolkits und positive Praktiken zu einem breiten Spektrum ethischer Fragen der KI zusammenführt…“

Neben globalen Organisationen wie der UNESCO arbeiten auch viele Berufsverbände an der Entwicklung eigener Standards. So hat beispielsweise die IABC – International Association of Business Communications, ein Verband mit Tausenden von Mitgliedern weltweit, eine Reihe von Grundsätzen für den ethischen Einsatz von KI durch Kommunikationsfachleute entwickelt. Diese sollen den IABC-Mitgliedern die Relevanz des IABC-Ethikkodex für KI verdeutlichen. Diese Richtlinien können im Laufe der Zeit parallel zur Entwicklung der KI-Technologie aktualisiert und ergänzt werden. In diesem Grundsatz finden sich viele konkrete Punkte, die ein Kommunikationsfachmann beachten sollte, wie zum Beispiel:

Die eingesetzten KI-Ressourcen müssen von Menschen gesteuert werden, um positive und transparente Erfahrungen zu schaffen, die Respekt fördern und Vertrauen in den Medienberuf aufbauen. Es ist wichtig, über die beruflichen Chancen und Risiken von KI-Tools informiert zu bleiben. Informationen müssen präzise, ​​objektiv und fair kommuniziert werden. KI-Tools können mit zahlreichen Fehlern, Inkonsistenzen und anderen technischen Problemen behaftet sein. Dies erfordert menschliches Urteilsvermögen, um unabhängig zu überprüfen, ob meine KI-generierten Inhalte korrekt, transparent und frei von Plagiaten sind.

Schützen Sie die persönlichen und/oder vertraulichen Informationen anderer und verwenden Sie diese nicht ohne deren Zustimmung. Bewerten Sie Ihre KI-Ergebnisse auf der Grundlage des menschlichen Engagements und des Verständnisses der Community, der sie dienen soll. Vermeiden Sie Voreingenommenheit nach besten Kräften und gehen Sie sensibel auf die kulturellen Werte und Überzeugungen anderer ein.

Sie müssen ihre eigenen Ergebnisse mit der erforderlichen Sorgfalt prüfen und verifizieren, um sicherzustellen, dass Dokumentationen, Informationen oder Referenzen Dritter korrekt sind, die erforderlichen Quellenangaben und Nachweise enthalten und ordnungsgemäß lizenziert oder zur Nutzung autorisiert sind. Sie dürfen nicht versuchen, den Einsatz von KI in ihren beruflichen Ergebnissen zu verschleiern oder zu verschleiern. Sie müssen den Open-Source-Charakter von KI und die damit verbundenen Vertraulichkeitsprobleme, einschließlich der Eingabe falscher, irreführender oder täuschender Informationen, berücksichtigen.

Unternehmen und Konzerne, die KI-Tools besitzen, entwickeln und vertreiben, kennen sich am besten mit den Besonderheiten von KI-Tools aus. Sie kennen die zugrunde liegenden Algorithmen und die Daten, mit denen KI-Tools trainiert werden. Daher müssen diese Unternehmen auch Informationen zu den ethischen Grundsätzen der KI-Entwicklung bereitstellen. Tatsächlich gibt es Unternehmen, die sich für dieses Thema interessieren.

Google verpflichtet sich, keine KI-Tools für Bereiche zu entwickeln, in denen ein erhebliches Schadensrisiko besteht. Wir werden nur dann fortfahren, wenn wir der Meinung sind, dass der Nutzen die Risiken deutlich überwiegt, und entsprechende Sicherheitsvorkehrungen treffen. Waffen oder andere Technologien, deren Hauptzweck oder Einsatz darin besteht, Verletzungen von Menschen zu verursachen oder direkt zu ermöglichen. Technologien, die Informationen zur Überwachung sammeln oder verwenden, die gegen international anerkannte Normen verstoßen. Technologien, deren Zweck gegen allgemein anerkannte Grundsätze des Völkerrechts und der Menschenrechte verstößt.

Zum Thema Sicherheit verspricht Google: „Wir werden weiterhin robuste Sicherheitsmaßnahmen entwickeln und implementieren, um unbeabsichtigte Folgen und damit verbundene Gefahren zu vermeiden. Wir werden unsere KI-Systeme entsprechend vorsichtig gestalten und sie gemäß den Best Practices der KI-Sicherheitsforschung entwickeln. Wir werden unsere Datenschutzgrundsätze in die Entwicklung und Nutzung unserer KI-Technologien einbeziehen. Wir werden Möglichkeiten zur Benachrichtigung und Einwilligung schaffen, datenschutzfreundliche Architekturen fördern und für angemessene Transparenz und Kontrolle bei der Datennutzung sorgen.“

Ähnlich wie Google gab auch Microsoft eine Erklärung zu den KI-Prinzipien und -Ansätzen ab und betonte: „Wir setzen uns dafür ein, dass KI-Systeme verantwortungsvoll und auf eine Weise entwickelt werden, die das Vertrauen der Menschen sicherstellt …“. Darüber hinaus gingen auch große Technologieunternehmen wie Amazon und OpenAI, die stark in die Entwicklung von KI-Tools investieren, auf die eine oder andere Weise eigene Verpflichtungen ein.

Viele Beispiele aus der Geschichte haben die Dualität der Technologie mit ihren positiven und negativen Aspekten bewiesen. Obwohl es sich bei KI um eine hochtechnologische Technologieplattform handelt, basiert sie immer noch auf Algorithmen und Daten, die von Menschen entwickelt und gesammelt werden. Gleichzeitig sind die meisten KI-Produkte Teil der Geschäftspläne der Unternehmen, denen sie gehören.

Daher bestehen immer potenzielle Risiken sowohl auf technischer Seite als auch seitens der Produktentwicklungs- und Managementteams selbst. Das Problem hierbei ist das Ausmaß der Auswirkungen, die KI-Tools auf die Mehrheit, sogar auf sozioökonomischer Ebene, einer Gemeinschaft haben können. Die frühzeitige Beachtung ethischer Kontrollen beim Einsatz von KI-Technologie ist ein willkommenes Zeichen, da große internationale Organisationen wie die Vereinten Nationen, Regierungen, Industrieverbände und vor allem die Technologieentwicklungseinheiten daran beteiligt sind.

Da jedoch ständig neue Versionen der KI-Tools erscheinen, die jeweils ausgefeilter und komplexer sind als die vorherigen, müssen auch die Codes, Grundsätze oder Richtlinien zeitnah aktualisiert und ergänzt werden. Darüber hinaus müssen sie Produktentwicklern und -nutzern proaktiv vorbeugen, sie einschränken und kontrollieren, und zwar in einem Rahmen, in dem die Fähigkeit zur Einhaltung ethischer Kontrollen bei der KI-Technologie im Allgemeinen und bei Medienschaffenden im Besonderen die höchste Effizienz erreichen kann.


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Besuchen Sie U Minh Ha und erleben Sie grünen Tourismus in Muoi Ngot und Song Trem
Vietnamesische Mannschaft steigt nach Sieg über Nepal in die FIFA-Rangliste auf, Indonesien in Gefahr
71 Jahre nach der Befreiung bewahrt Hanoi seine traditionelle Schönheit im modernen Fluss
71. Jahrestag des Tages der Befreiung der Hauptstadt – ein Anstoß für Hanoi, entschlossen in die neue Ära zu gehen

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Aktuelle Veranstaltungen

Politisches System

Lokal

Produkt