Für viele Zeitungen ist der Kommentarbereich ein großartiger Ort, an dem Leser vielfältige Gedanken, Erfahrungen und Perspektiven einbringen können. Allerdings kann er auch zu einem Nährboden für Negativität werden, da er Argumente und eine beleidigende Sprache enthält, die wertvolle Stimmen übertönt.
Genau vor dieser Herausforderung stand Lucy Warwick-Ching, Community-Redakteurin der Financial Times. Die FT verfügt zwar über ein engagiertes Moderationsteam, doch mit Hunderten von Artikeln pro Woche konnte man nicht Schritt halten, und die Kommentare zu den meisten Artikeln waren geschlossen. Außerdem beschloss man, an Wochenenden alle Kommentarbereiche zu schließen, um zu verhindern, dass toxische Diskussionen außer Kontrolle geraten, wenn niemand am Schreibtisch sitzt.
Die Einstellung zusätzlicher Moderatoren war zu teuer und der Aufbau eines eigenen Moderationssystems zu umständlich. Daher nutzte Warwick-Chings Team ein bereits vorhandenes Moderationstool von Utopia Analytics, das anschließend anhand von 200.000 echten Leserkommentaren trainiert wurde, um höfliche, nicht streitlustige und themenfremde Diskussionen zu erkennen.
KI-Tool erkennt sexistische und rassistische Kommentare trotz komplexer Sprache. Foto: Eidosmedia
Als das Tool eingeführt wurde, musste die FT noch jeden freigegebenen Kommentar manuell prüfen. Es dauerte mehrere Monate, bis das Tool die richtigen Moderationsentscheidungen traf. Mittlerweile erkennt es die meisten sexistischen und rassistischen Kommentare, trotz der komplexen Sprache der FT-Leser.
„Es ist nicht perfekt und noch in Arbeit“, sagte Warwick-Ching nach sechs Monaten.
Dennoch sind die Auswirkungen erheblich. Früher verbrachten Moderatoren die meiste Zeit damit, negative Kommentare herauszufiltern. Jetzt übernimmt die KI einen Großteil dieser Arbeit, sodass sich Moderatoren auf den Aufbau von Communities konzentrieren können.
Das KI-Tool ist nicht nur effektiv bei der Moderation von Kommentaren, sondern ersetzt auch Menschen bei der Bearbeitung emotional verletzender Kommentare. KI absorbiert nun einen Großteil der Negativität, die von diesen Kommentaren ausgeht, und schützt so Menschen vor der Negativität.
Das Wichtigste sei jedoch, so Warwick-Ching, dass die Einführung von KI-Tools nicht bedeute, dass Moderatoren ihren Job verlieren. „Von Anfang an, als wir das Moderationstool einführten, machten wir klar, dass es nicht um Personalabbau ging, sondern darum, Moderatoren einen Raum zu geben, in dem sie ihre Arbeit erledigen können.“
Bisher hat das KI-Tool positive Ergebnisse erzielt. Leser haben per E-Mail mitgeteilt, dass sie eine verbesserte Höflichkeit in den Kommentaren bemerkt haben, und es gab keine nennenswerten Beschwerden über ungerechtfertigte Ablehnungen von Kommentaren.
Journalisten konnten zudem einen deutlichen Anstieg des Nutzens von Kommentaren feststellen, da wertvolle Leserbeiträge ihre Artikel bereicherten. Sie stellten außerdem fest, dass sich Moderatoren durch den Einsatz von KI auf das konzentrieren konnten, was sie am besten können: einen einladenden und informativen Raum für die Leser zu schaffen.
Hoai Phuong (laut Journalismus)
[Anzeige_2]
Quelle: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Kommentar (0)