Zur Quelle "Jessica Knurick" springen
Stand: 27.03.2026

"Do your own Research" heißt nicht ChatGPT fragen

Wahr

Link Beschreibung

Ein Video, in dem Jessica Knurick zeigt, dass "Do your own Research" nicht bedeutet, ChatGPT zu fragen, denn ChatGPT hat auf ihre Fragen zum Thema Zucker komplett falsche Antworten geliefert. Ein gutes Beispiel dafür, warum KI-Chatbots keine verlässliche Alternative zu echter wissenschaftlicher Recherche oder eigenen Suchen sind.

Faktenfackel Bewertung

Einordnung

Knuricks Kernaussage, dass ChatGPT kein geeignetes Werkzeug für wissenschaftliche Eigenrecherche ist, wird durch mehrere Studien gestützt. Eine in PMC veröffentlichte Untersuchung zu verschiedenen KI-Chatbots bei Ernährungsempfehlungen kommt zu dem Ergebnis, dass keiner der Chatbots bei komplexen Fällen eine Genauigkeit von 50 % erreicht und die Modelle "begrenzte Genauigkeit, Reproduzierbarkeit und Konsistenz" aufweisen (Comparison of the Accuracy of Different AI Chatbots in Providing Nutritional Advice, 2024). Der British Dietetic Association zufolge kann KI zwar hilfreiche allgemeine Hinweise geben, ist aber für konkrete Ernährungsberatung keine verlässliche Quelle. Das ZDF berichtet, dass neuere Modelle wie GPT-o3 bei Fragen zu öffentlichen Personen in rund einem Drittel der Fälle Fehler machen, und die Fehlerquoten bei allgemeinen Wissensfragen bei bis zu 80 % liegen können (ZDF heute, 2025). Das Facebook-Reel selbst war nicht direkt zugänglich; die von Knurick gezeigten falschen ChatGPT-Antworten zu Zucker konnten daher nicht im Detail geprüft werden, sind aber plausibel und konsistent mit dem Forschungsstand.

Fazit

Knuricks Warnung vor der unkritischen Nutzung von ChatGPT als Recherchewerkzeug ist berechtigt und durch Studien zur Genauigkeit von KI-Chatbots gut belegt. KI-Sprachmodelle halluzinieren und erfinden Fakten, das gilt insbesondere für Detailfragen in Fachgebieten wie Ernährungswissenschaft.