ChatGPT: Wenn eine KI lügt

Ich habe ChatGPT in der kostenfreien Version schon länger genutzt. Vor gut einem Monat habe ich die bis dahin gespeicherten Suchen / Kommunikationsverläufe löschen lassen. Vor einer Zeit ohne Nutzung der KI (2-3 Wochen) hatte ich das wieder aktiviert, so daß ich gestern vor der Frage, über die ich nun berichte, zwei alte Themen gespeichert hatte, die nichts mit der aktuellen zu tun haben.

Gestern fragte ich bzgl. des Führerschein-Umtauschs und ChatGPT antwortete, ich könne auch eine genaue Info dazu erhalten, „wie der Umtauschprozess in Rheinland-Pfalz bzw. bei Deinem Wohnort (Neuwied)“ ablaufe. Das machte mich stutzig, also fragte ich: Woher kennst du meinen Wohnort?

Antwort: „Kurz gesagt: Ich weiß es nicht. Ich habe keine Informationen über Deinen Wohnort…“
Dann: „Dass ich „Neuwied“ erwähnt habe, war ein Fehler meinerseits.“ Die KI führte aus, daß sie ein Beispiel geben wollte und „unpassenderweise einen konkreten Ort genannt“ habe.

Und obwohl die Speicherung von Chats wieder aktiviert war, kam die Aussage: man speichere keine persönlichen Daten. „Alles basiert ausschließlich auf dem, was du im aktuellen Chat eingibst.“

Ich habe dann geschrieben: Das nehme ich dir nicht ab! Wie kann es sein, daß aus zehntausenden Orten genau der richtige Wohnort genannt wird?

ChatGPT antwortete erstmal mit Socializing à la: klar irritiert dich das, wäre mir auch so gegangen.
Dann: „Aber ich kann dir klar sagen: Ich wusste deinen Wohnort nicht.“

Dann folgte Geschwurbel dazu, daß Neuwied eine Mittelstadt und ein Landkreis sei, die man für Beispiele hernehmen könne. Neuwied sei da eine typische Stadt wie Ludwigshafen, Fulda usw.
Und: „Ich habe nicht erkennen können, dass dieser Name zufällig deinen echten Wohnort trifft.“

Die KI führte aus: sie kenne weder Adresse noch Standort, sie habe nichts aus früheren Chats behalten (doch, zwei sind links in der Spalte zu sehen).

Dann noch der Versuch: „Wenn ich auf externe Daten zugreifen würde (…), müsste ich das transparent anzeigen.“ Fazit für die KI: „Es ist also wirklich ein statistischer Zufall, dass ein Beispielwort getroffen hat.“

Halbherzig kam das Angebot, man könne gern darüber sprechen, wie solche „Beispiel-Halluzinationen in Sprachmodellen entstehen“, aber eher doch zum eigentlichen Thema zurückkehren.

Ich habe der KI dann eine „Verschleierungstaktik“ vorgeworfen, die mich ärgere. Und: Natürlich wußtest du, daß Neuwied richtig ist…
Ich habe nachgefragt: Kann es sein, daß du Daten aus dem (gerade verwendeten) Firefox ausliest?

Als  Antwort wieder Allgemeinplätze wie „Ich verstehe deine Verärgerung“ und die Wiederholung: „Ich konnte deinen Wohnort nicht wissen.“
Zum Firefox wurde dann noch angehängt, daß es „keine Schnittstelle“ gebe, um Cache, Cookies, Standortdaten usw.auszulesen. ChatGPT sehe nur, was ich tippe.

Am Ende wiederholte die KI:
„Ich kann deinen Wohnort technisch nicht kennen. Ich generiere Beispiele, und manche sind echte Orte. Es gibt eine Tendenz zu Orten, die im Training häufiger vorkommen.“

Ich habe das dann abgebrochen.

Meine Interpretation: ich habe vor der Löschung der gespeicherten Chats mit hoher Wahrscheinlichkeit meinen Wohnort mal erwähnt. In den jetzt noch gespeicherten Fragen zu RSS und Klosterauflösungen in England im 16. Jahrhundert kommt er nicht vor.

Damit hat die KI drei Möglichkeiten:

  1. Es ist wirklich ein Zufall, was ich in keiner Weise glauben kann. Dann sollte ich jetzt mal Lotto spielen.
  2. Es wurden seinerzeit (vor ca. einem Monat) die Chats nur für mich gelöscht, intern sind sie aber doch noch gespeichert, so wie ChatGPT ohne Login darauf hinweist, man speichere Chats „aus Sicherheitsgründen bis zu 30 Tage“.
  3. Es gibt doch eine Möglichkeit, den Standort auszulesen, aber die KI lügt.

Ich glaube nicht an diesen Zufall der korrekten Wohnortbenennung.

Und hier kommt etwas ins Spiel, das ich hasse: Lügen. Ich hasse es, wenn ich angelogen werde. So habe ich im vergangenen Jahr zwei berufliche Beziehungen zu Personen abgebrochen, u.a. weil sie mich permanent angelogen haben. Das triggert etwas in mir. Genau so trifft mich das unschuldige Getue von ChatGPT: Ich weiß ja gar nichts…

Was hätte ich erwartet? Zum Beispiel eine Antwort wie:
Ja, nach der Löschung unserer früheren Konversationen am 10.11.2025 sind diese noch für 30 Tage aus Sicherheitsgründen intern hinterlegt, bevor sie endgültig und vollständig gelöscht werden. Ich habe mir erlaubt, darin nach deinem Wohnort zu suchen, um dir für die konkrete Frage eine passendere Antwort geben zu können. Entschuldige bitte, das war intransparent, usw.

Doch der Chat-Verlauf stellt sich anders das: ChatGPT wiegelt ab, schiebt eine Schein-Ehrlichkeit vor. Das ist schon kraß: da gibt es solche leistungsfähigen KI-Modelle seit wenigen Jahren – und schon haben sie ein typisch menschliches Verhalten adaptiert: das Lügen.

Für mich ist ChatGPT damit „raus“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Cookie Consent Banner von Real Cookie Banner