Nachdem Deloitte aufgrund eines schwerwiegenden Fehlers im Bereich der künstlichen Intelligenz (KI) einen Bericht im Wert von 440.000 US-Dollar an die australische Regierung erneut herausgeben musste, meldeten sich schnell Konkurrenten der „Big 4“-Gruppe zu Wort, darunter EY, KPMG, PwC und Boston Consulting Group (BCG), und bekräftigten, dass sie über strenge Kontrollprozesse verfügen, um ähnliche Fehler zu vermeiden.

Deloitte steht nun unter enormem Druck, nachdem der ursprüngliche Bericht drei fiktive Referenzen und ein erfundenes Zitat aus einem Urteil des Bundesgerichts enthielt. Die überarbeitete Version entfernt mehr als ein Dutzend fehlerhafte Zitate und korrigiert die Bibliographie, die Empfehlungen bleiben jedoch unverändert.

Der Fall erregte internationale Aufmerksamkeit und wurde zu einem typischen Beispiel für „Halluzination“ – wenn KI Informationen „erfindet“, als wären sie real. Die Öffentlichkeit und Experten fordern, dass die Regierung von Premierminister Anthony Albanese Berater dazu zwingt, offenzulegen, wann sie KI in staatlichen Aufträgen einsetzen.

Die Big 4 wollen beweisen, dass sie „KI verantwortungsvoll einsetzen“

EY besteht darauf, dass alle KI-generierten Ergebnisse vor ihrer Verwendung gründlich von den Mitarbeitern geprüft werden müssen. KPMG verfügt nach eigenen Angaben über ein „AI Trust Framework“ und ein öffentliches „AI Registry“ der Tools, die es in seinen Dienstleistungen, auch bei Regierungskunden, einsetzt.

BCG betonte, dass alle Beratungsprodukte einer „strengen Führungsprüfung“ unterzogen würden, während PwC betonte, dass es sich an das Prinzip „Humans in the Loop“ halte – bei Produkten, bei denen KI im Spiel ist, liege die letztendliche Verantwortung immer bei Menschen.

Deloitte und McKinsey, zwei Unternehmen, die oft mit ihren KI-Fähigkeiten prahlen, lehnten eine Stellungnahme ab. Deloitte hat sich bereit erklärt, dem australischen Ministerium für Beschäftigung und Arbeitsbeziehungen einen Teil der Kosten zu erstatten.

Deloitte AFR
Deloitte war in einen Skandal verwickelt, bei dem KI beim Verfassen von Berichten „Informationen fälschte“. Foto: AFR

Bei einer Senatsanhörung betonte Gordon de Brouwer, Leiter des australischen öffentlichen Dienstes: „Die KI ist nicht für Ihre Arbeit verantwortlich. Sie sind verantwortlich.“

Die grüne Senatorin Barbara Pocock forderte die Regierung auf, Auftragnehmer zu zwingen, ihren KI-Einsatz öffentlich offenzulegen und alle KI-generierten Inhalte zu überprüfen. „Das ist nicht nur künstliche Fahrlässigkeit, sondern vorsätzliche Fahrlässigkeit … Die Arbeit von Deloitte entspricht nicht dem Standard einer Universitätsprüfung im ersten Studienjahr … Wenn Auftragnehmer, die für Regierungsaufträge beauftragt werden, weiterhin KI-Arbeiten auslagern, muss es Kontrollen geben. Das ist nicht zu viel verlangt“, sagte sie.

Frau Pocock hat einen Gesetzentwurf eingebracht, der Auftragnehmern, denen unethisches Verhalten nachgewiesen wurde, für fünf Jahre die Teilnahme an Regierungsaufträgen untersagt und von Deloitte die volle Rückerstattung des gezahlten Betrags verlangt.

KI unterstützt den Menschen, ersetzt ihn aber nicht

Auch kleinere Beratungsfirmen beruhigten ihre Kunden schnell. David Gumley, CEO von ADAPTOVATE, sagte, sie würden KI zur Verbesserung der Effizienz einsetzen, doch werde sie menschliches Fachwissen niemals ersetzen.

Eine andere Beraterin, Lisa Carlin – die die Ein-Personen-Firma The Turbochargers leitet – sagte, dass Beratungsfirmen eine öffentliche Richtlinie zum Einsatz von KI haben müssten, in der erklärt werde, wie die Technologie in ihrer Arbeit eingesetzt werde, ohne jedoch unbedingt Einzelheiten zur verwendeten Technologie offenzulegen.

„KI ist heute Teil von Standard-Business-Tools wie Excel, aber das Unternehmen trägt weiterhin die volle Verantwortung für das Risikomanagement“, so Carlin. „Transparenz sollte auf Richtlinienebene erfolgen, nicht in jedem Bericht. Denn was die Kunden brauchen, ist die Gewissheit, dass das Unternehmen über strenge Kontrollen verfügt, und nicht eine Warnmeldung auf jeder Seite.“

Carlin berät Unternehmenskunden in Fragen der KI-Strategie und -Implementierung und betont, dass jedes Detail eines Berichts, unabhängig davon, wie er erstellt wurde, sorgfältig geprüft werden sollte, bevor er an einen Kunden gesendet wird.

„Unternehmen müssen über eigene Qualitätssicherungsprozesse für KI und eine klare Risikobewertung verfügen“, fügte sie hinzu. „Es gibt keine Entschuldigung für ‚KI-generierte‘ Arbeit. Berater müssen für ihre Arbeit Verantwortung übernehmen, genau wie für einen Praktikanten.“

(Laut AFR)

Quelle: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html