Wenn KI halluziniert - Was tun, wenn ChatGPT & Co. Falsches über Ihre Mandanten erzählen?
Wenn KI „halluziniert“: Was tun, wenn ChatGPT & Co. Falsches über Ihre Mandanten erzählen?
Wir nutzen sie ja mittlerweile fast alle, oder? KI-Tools wie ChatGPT sind oft echte
Lebensretter bei der Recherche oder wenn mal wieder eine E-Mail schnell formuliert
werden muss. Aber Hand aufs Herz: Manchmal sind diese künstlichen Kollegen
auch ein bisschen zu kreativ, finden Sie nicht? Besonders, wenn es um echte
Menschen geht, hauen sie manchmal Dinge raus, bei denen man nur mit dem Kopf
schütteln kann. Genau diese „KI-Halluzinationen“ können für uns Juristinnen und
Juristen aber zu einem echten datenschutzrechtlichen Problem werden.
Was ist das Problem genau? Denkt sich die KI das aus?
Nicht wirklich. Diese Modelle spucken ja keine Fakten aus, die sie „wissen“. Sie
reihen Wörter aneinander, basierend auf statistischen Mustern, die sie aus Milliarden
von Texten gelernt haben. Nach dem Motto:
„Nach diesem Wort kommt sehr wahrscheinlich jenes Wort.“
Das Problem ist nur: Was statistisch wahrscheinlich ist, muss noch lange nicht wahr sein. Manchmal führt diese Wahrscheinlichkeitsrechnung eben dazu, dass das Modell Aussagen über identifizierbare Personen trifft, die zwar super plausibel klingen, aber frei erfunden sind.
Stellen Sie sich vor, die KI behauptet über Ihren Mandanten:
„Rechtsanwalt Müller hat 2019 den Gipfel des Kilimandscharo bestiegen.“
Klingt beeindruckend, oder? Blöd nur, wenn Herr Müller noch nie Bergsteigen war. Genau dann haben wir ein handfestes Problem mit der DS-GVO.
Wo die DS-GVO ins Spiel kommt: Das Gebot der Richtigkeit (Art. 5)
Sie erinnern sich an Artikel 5 Absatz 1 Buchstabe d DS-GVO: Personenbezogene
Daten müssen sachlich richtig sein. Wenn die KI also eine falsche Tatsachenbehauptung über den identifizierbaren Herrn Müller aufstellt, ist das ein klarer Verstoß.
Das Argument „Aber die Statistik dahinter war doch korrekt berechnet!“ zieht hier
nicht. Die DS-GVO fragt knallhart: Ist die Aussage über Herrn Müller inhaltlich richtig oder falsch? Wenn sie falsch ist, gibt’s ein Problem. Punkt.
Was heißt das für unsere tägliche Arbeit?
Die praktischen Fragen sind knifflig:
- Recht auf Berichtigung (Art. 16): Wie soll Herr Müller das berichtigen lassen? Die Falschinfo steht ja nicht fix in einer Datenbank. Die KI könnte sie theoretisch immer wieder neu „erfinden“, wenn der Name Müller im richtigen Kontext fällt. Kann man eine Wahrscheinlichkeitsaussage dauerhaft korrigieren?
- Recht auf Löschung (Art. 17): Ähnliches Spiel: Wie löscht man diese „alternative Tatsache“ aus dem Gedächtnis der KI? Das technische „Verlernen“ (Machine Unlearning) ist wohl extrem schwierig bis unmöglich. Muss man das ganze Modell löschen und neu trainieren? Praktikabel ist anders.
- Haftungsfragen: Wer zahlt eigentlich, wenn durch so eine Falschaussage ein Schaden entsteht (z. B. für den Ruf)? Der Entwickler? Die Kanzlei, die das Tool nutzt? Der Anwalt, der die Frage gestellt hat? Viele offene Fragen.
Fazit: KI nutzen? Ja! Blind vertrauen? Lieber nicht!
Diese „Halluzinationen“ sind keine Kinderkrankheit, sondern liegen in der Natur der Sache, wie diese Modelle funktionieren. Gerade wenn es um Infos über Personen geht, ist also höchste Vorsicht geboten. Die KI kann ein super Assistent sein, aber ihre „Fakten“ dürfen wir nicht ungeprüft übernehmen.
Für uns heißt das: Immer einen menschlichen Faktencheck machen! Wie wir die Rechte Ihrer Mandanten gegenüber einer KI schützen, die manchmal einfach Dinge erfindet, wird eine der spannendsten Rechtsfragen der nächsten Jahre bleiben.```