Klage gegen Rufmord via ChatGPT

KI-Systeme leiden derzeit immer wieder unter sogenannten “Halluzinationen”, bei denen sie reine Fiktion als Fakten präsentieren, weshalb sie nur mit äußerster Vorsicht zur Informationsgewinnung genutzt werden sollten. In den USA wird Branchenprimus OpenAI deshalb nun sogar erstmals wegen Verleumdung verklagt.

Als sich ein Journalist das Gerichtsdokument eines Falls zusammenfassen wollte, produzierte der OpenAI-Service ChatGPT seine ganz eigene Version der ursprünglichen Klageschrift und passte selbst komplette Zitate an seine Behauptungen an. Dadurch wurde der Radiomoderator Mark Walters der Unterschlagung von Geldern bezichtigt – obwohl sein Name in der originalen Klage nicht auftaucht und es dort um ein völlig anderes Anliegen geht. Walters fordert von OpenAI deshalb nun Schadensersatz mit Strafcharakter.

Ein ähnlicher Fall wurde Anfang April aus Australien bekannt, als Brian Hood ein potentielles juristisches Vorgehen gegen OpenAI ankündigte. ChatGPT hatte den Bürgermeister einer Kleinstadt beschuldigt, zu den Tätern in einem Bestechungsskandal zu gehören. Bei Hood handelt es sich allerdings eher um den Helden der Geschichte, da er den Skandal selbst ans Tageslicht brachte.

Anzeige

Bislang ist unklar, ob ein direktes juristisches Vorgehen gegen solche Falschinformationen überhaupt erfolgversprechend ist, da OpenAI und andere offen auf die Fehleranfälligkeiten ihrer Systeme hinweisen. Wer die daraus gewonnenen Informationen öffentlich weiter verbreitet, dürfte allerdings in die Haftung genommen werden können – weshalb der oben genannte Journalist vermutlich das bessere Ziel für die Klage wäre.

Unabhängig von solchen juristischen Aspekten sollten Unternehmen aber unbedingt wisse, welche Informationen über sie von KI-Systemen verbreitet werden. Immer mehr Nutzer verwenden sie als Wissensbasis, weshalb dort möglichst keine falschen Fakten über die eigene Firma auftauchen sollten.

STARTSEITE