Nach Harry Frankfurts Kriterien ist Chat-GPT also ein klassischer Bullshitter, denn die KI hat lediglich die Aufgabe, die Nutzer davon zu überzeugen, dass sie eine befriedigende Antwort bekommen. Den KIs ist es dabei egal, ob sie nun richtig ist oder nicht, denn sie sind in ihren digitalen Spatzenhirnen immer damit zufrieden, wenn Wahrscheinlichkeitsrechnungen die größtmögliche Deckungsgröße eines Musters aus einem Datensatz herausfischen.
Wahrheitsgehalt, Kontext oder Sinnhaftigkeit sind da keine Kriterien. Deswegen können Sprachmodelle auch keine Quellen nennen. Sie haben keine Ahnung, woher sie all das haben, was sie als Wissen und Fakt ausgeben. Auch das liegt an der Mechanik von large language models. Je larger die language, desto massiver der Datensatz, aus dem sie so etwas wie semantische Quersummen kalkulieren.
Andrian Kreye, sueddeutsche.de, 8.2.2023 (online)