ChatGPT: Wenn eine KI lügt

Ich habe ChatGPT in der kosten­frei­en Ver­si­on schon län­ger genutzt. Vor gut einem Monat habe ich die bis dahin gespei­cher­ten Suchen / Kom­mu­ni­ka­ti­ons­ver­läu­fe löschen las­sen. Nach einer Zeit ohne Nut­zung der KI (2−3 Wochen) hat­te ich das wie­der akti­viert, so daß ich gestern vor der Fra­ge, über die ich nun berich­te, zwei alte The­men gespei­chert hat­te, die nichts mit der aktu­el­len zu tun haben.

Gestern frag­te ich bzgl. des Füh­rer­schein-Umtauschs und ChatGPT ant­wor­te­te, ich kön­ne auch eine genaue Info dazu erhal­ten, “wie der Umtausch­pro­zess in Rhein­land-Pfalz bzw. bei Dei­nem Wohn­ort (Neu­wied)” ablau­fe. Das mach­te mich stut­zig, also frag­te ich: Woher kennst du mei­nen Wohn­ort?

Ant­wort: “Kurz gesagt: Ich weiß es nicht. Ich habe kei­ne Infor­ma­tio­nen über Dei­nen Wohn­ort…”
Dann: “Dass ich “Neu­wied” erwähnt habe, war ein Feh­ler mei­ner­seits.” Die KI führ­te aus, daß sie ein Bei­spiel geben woll­te und “unpas­sen­der­wei­se einen kon­kre­ten Ort genannt” habe.

Und obwohl die Spei­che­rung von Chats wie­der akti­viert war, kam die Aus­sa­ge: man spei­che­re kei­ne per­sön­li­chen Daten. “Alles basiert aus­schließ­lich auf dem, was du im aktu­el­len Chat ein­gibst.”

Ich habe dann geschrie­ben: Das neh­me ich dir nicht ab! Wie kann es sein, daß aus zehn­tau­sen­den Orten genau der rich­ti­ge Wohn­ort genannt wird?

ChatGPT ant­wor­te­te erst­mal mit Socia­li­zing à la: klar irri­tiert dich das, wäre mir auch so gegan­gen.
Dann: “Aber ich kann dir klar sagen: Ich wuss­te dei­nen Wohn­ort nicht.”

Dann folg­te Geschwur­bel dazu, daß Neu­wied eine Mit­tel­stadt und ein Land­kreis sei, die man für Bei­spie­le her­neh­men kön­ne. Neu­wied sei da eine typi­sche Stadt wie Lud­wigs­ha­fen, Ful­da usw.
Und: “Ich habe nicht erken­nen kön­nen, dass die­ser Name zufäl­lig dei­nen ech­ten Wohn­ort trifft.”

Die KI führ­te aus: sie ken­ne weder Adres­se noch Stand­ort, sie habe nichts aus frü­he­ren Chats behal­ten (doch, zwei sind links in der Spal­te zu sehen).

Dann noch der Ver­such: “Wenn ich auf exter­ne Daten zugrei­fen wür­de (…), müss­te ich das trans­pa­rent anzei­gen.” Fazit für die KI: “Es ist also wirk­lich ein sta­ti­sti­scher Zufall, dass ein Bei­spiel­wort getrof­fen hat.”

Halb­her­zig kam das Ange­bot, man kön­ne gern dar­über spre­chen, wie sol­che “Bei­spiel-Hal­lu­zi­na­tio­nen in Sprach­mo­del­len ent­ste­hen”, aber eher doch zum eigent­li­chen The­ma zurück­keh­ren.

Ich habe der KI dann eine “Ver­schleie­rungs­tak­tik” vor­ge­wor­fen, die mich ärge­re. Und: Natür­lich wuß­test du, daß Neu­wied rich­tig ist…
Ich habe nach­ge­fragt: Kann es sein, daß du Daten aus dem (gera­de ver­wen­de­ten) Fire­fox aus­liest?

Als  Ant­wort wie­der All­ge­mein­plät­ze wie “Ich ver­ste­he dei­ne Ver­är­ge­rung” und die Wie­der­ho­lung: “Ich konn­te dei­nen Wohn­ort nicht wis­sen.”
Zum Fire­fox wur­de dann noch ange­hängt, daß es “kei­ne Schnitt­stel­le” gebe, um Cache, Coo­kies, Stand­ort­da­ten usw.auszulesen. ChatGPT sehe nur, was ich tip­pe.

Am Ende wie­der­hol­te die KI:
“Ich kann dei­nen Wohn­ort tech­nisch nicht ken­nen. Ich gene­rie­re Bei­spie­le, und man­che sind ech­te Orte. Es gibt eine Ten­denz zu Orten, die im Trai­ning häu­fi­ger vor­kom­men.”

Ich habe das dann abge­bro­chen.

Mei­ne Inter­pre­ta­ti­on: ich habe vor der Löschung der gespei­cher­ten Chats mit hoher Wahr­schein­lich­keit mei­nen Wohn­ort mal erwähnt. In den jetzt noch gespei­cher­ten Fra­gen zu RSS und Klo­ster­auf­lö­sun­gen in Eng­land im 16. Jahr­hun­dert kommt er nicht vor.

Damit hat die KI drei Mög­lich­kei­ten:

  1. Es ist wirk­lich ein Zufall, was ich in kei­ner Wei­se glau­ben kann. Dann soll­te ich jetzt mal Lot­to spie­len.
  2. Es wur­den sei­ner­zeit (vor ca. einem Monat) die Chats nur für mich gelöscht, intern sind sie aber doch noch gespei­chert, so wie ChatGPT ohne Log­in dar­auf hin­weist, man spei­che­re Chats “aus Sicher­heits­grün­den bis zu 30 Tage”.
  3. Es gibt doch eine Mög­lich­keit, den Stand­ort aus­zu­le­sen, aber die KI lügt.

Ich glau­be nicht an die­sen Zufall der kor­rek­ten Wohn­ort­be­nen­nung.

Und hier kommt etwas ins Spiel, das ich has­se: Lügen. Ich has­se es, wenn ich ange­lo­gen wer­de. So habe ich im ver­gan­ge­nen Jahr zwei beruf­li­che Bezie­hun­gen zu Per­so­nen abge­bro­chen, u.a. weil sie mich per­ma­nent ange­lo­gen haben. Das trig­gert etwas in mir. Genau so trifft mich das unschul­di­ge Getue von ChatGPT: Ich weiß ja gar nichts…

Was hät­te ich erwar­tet? Zum Bei­spiel eine Ant­wort wie:
Ja, nach der Löschung unse­rer frü­he­ren Kon­ver­sa­tio­nen am 10.11.2025 sind die­se noch für 30 Tage aus Sicher­heits­grün­den intern hin­ter­legt, bevor sie end­gül­tig und voll­stän­dig gelöscht wer­den. Ich habe mir erlaubt, dar­in nach dei­nem Wohn­ort zu suchen, um dir für die kon­kre­te Fra­ge eine pas­sen­de­re Ant­wort geben zu kön­nen. Ent­schul­di­ge bit­te, das war intrans­pa­rent, usw.

Doch der Chat-Ver­lauf stellt sich anders das: ChatGPT wie­gelt ab, schiebt eine Schein-Ehr­lich­keit vor. Das ist schon kraß: da gibt es sol­che lei­stungs­fä­hi­gen KI-Model­le seit weni­gen Jah­ren – und schon haben sie ein typisch mensch­li­ches Ver­hal­ten adap­tiert: das Lügen.

Für mich ist ChatGPT damit “raus”.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Cookie Consent Banner von Real Cookie Banner