In den Wedeler Facebook-Debatten gibt es eine Besonderheit: eine Person, Frau Rosemarie Binz-Vedder, nutzt regelmäßig ChatGPT, um damit „Fakten“ zu präsentieren. Das Problem dabei: Die Antworten der KI wirken auf den ersten Blick überzeugend, aber sie sind eben keine geprüften Wahrheiten. Es sind berechnete Texte – nicht mehr und nicht weniger. Wer das übersieht, läuft Gefahr, Scheinwissen mit echten Informationen zu verwechseln.
In den Diskussionen hier fällt immer wieder auf, dass Rosemarie Binz-Vedder ChatGPT bemüht, um angebliche Fakten zu untermauern. Das Problem: Sie stellt die Antworten der KI so dar, als wären sie geprüfte Wahrheiten. Genau das sind sie nicht. Es sind berechnete Texte – nicht mehr und nicht weniger. Wer das übersieht, läuft Gefahr, Scheinwissen mit echten Informationen zu verwechseln.
ChatGPT überprüft nicht, ob etwas stimmt. Es kombiniert Muster aus Texten, die es gelernt hat, und baut daraus neue Sätze. Das kann klingen wie aus einem Fachbuch, ist aber keineswegs automatisch richtig. Fehler, Übertreibungen oder sogar frei Erfundenes sind immer möglich. Eine Redaktion, die Inhalte prüft, gibt es hier schlicht nicht.
Natürlich gibt es inzwischen Modelle, die zusätzlich im Netz nachsehen und Links liefern können. Aber auch da bleibt ein Rest Unsicherheit: Ohne eigene Kontrolle weiß man nie, ob die Angaben wirklich belastbar sind.
Und hier beginnt das Problem für jede Diskussion. Wenn jemand mit „Das hat ChatGPT gesagt“ argumentiert, dann klingt das neutral und objektiv. Tatsächlich aber kann man sich die Antworten so zurechtbiegen, dass sie ins eigene Narrativ passen. Am Ende wirkt die KI wie ein unabhängiger Gutachter – dabei ist es nur ein Sprachmodell, das Texte zusammensetzt.
Heißt das, man sollte KI gar nicht nutzen? Nein. Sie kann hilfreich sein, um Texte zu strukturieren oder Ideen zu finden. Aber wer Fakten beansprucht, muss mehr liefern: überprüfbare Quellen. Bücher, Studien, offizielle Seiten, Journalismus. Wer ChatGPT einsetzt, muss selbst nachschauen und klar benennen, woher die Informationen wirklich stammen.
Am Ende geht es um Glaubwürdigkeit. Wenn ChatGPT-Texte als Fakten verkauft werden, leidet jede sachliche Debatte. Was wir brauchen, sind überprüfbare Informationen – nicht nur schön klingende Sätze.
Und genau deshalb schreibe ich das hier: Es geht nicht darum, jemanden bloßzustellen, sondern darum aufzuklären. Damit andere nicht auf den gleichen Trick hereinfallen – und nicht den Fehler machen, automatisch generierte Texte mit echten, belegbaren Fakten zu verwechseln.