Die neue Generation von Chatbots wie „Dr. KI“ erscheint vielen Nutzer:innen als äußerst seriös und fachkundig – schließlich greifen diese Systeme auf riesige Datenmengen zurück und liefern Antworten in Sekundenschnelle. Doch zumindest wissenschaftlichen Studien zufolge liegen sie überraschend oft falsch. Dieses Phänomen lässt sich durch die Funktionsweise der sogenannten „künstlichen Intelligenz“ (KI) gut erklären.
Chatbots basieren meist auf sogenannten Large Language Models (LLMs), die auf enormen Textdatenmengen trainiert wurden. Diese Modelle sind in der Lage, sehr glaubwürdig auf Fragen zu antworten, indem sie Muster in den Daten erkennen und passende Textbausteine verknüpfen. Allerdings verfügen sie nicht über ein wirkliches Wissen oder ein Verständnis des Contents, sondern erzeugen eine wohlklingende Synthese aus bereits vorhandenem Material.
Das führt dazu, dass solche Systeme falsche Informationen verbreiten können, ohne sich dessen bewusst zu sein. Die KI hat keine Fähigkeit, zwischen Wahrheit und Fiktion zu unterscheiden – sie bewertet nicht, sondern generiert lediglich. Forscher sprechen in diesem Zusammenhang oft von „Halluzinationen“ der KI.
Eine Studie der Stanford University zeigte etwa, dass Chatbots bei medizinischen Fragen bis zu 30 % inkorrekte oder irreführende Antworten lieferten, obwohl diese sehr plausibel formuliert waren. Auch bei juristischen oder technischen Anfragen sind Fehlerraten keine Ausnahme. Deshalb warnen Experten davor, Chatbots als verlässliche Quelle oder gar als Ersatz für Fachwissen zu sehen.
Für Maturant:innen und Schüler:innen bedeutet das: Chatbots können eine hilfreiche Ergänzung sein, um schnell Informationen zu erhalten oder komplexe Themen zu überblicken. Jedoch ist es unerlässlich, die Angaben kritisch zu hinterfragen, mit Fachliteratur zu vergleichen und Fehler zu identifizieren.
Fazit: Dr. KI und Co. sind beeindruckende Werkzeuge, die den Zugang zu Informationen revolutionieren. Trotz aller Fortschritte bleiben sie fehleranfällig und wissen nichts im eigentlichen Sinn – sie simulieren Wissen. Ein bewusster, kritischer Umgang mit solchen Systemen ist daher essenziell.