Sie prägen das gesellschaftliche Verständnis von Gerechtigkeit, Verantwortung und Zukunft. Wenn KI-Systeme mit unausgewogenen Daten trainiert, durch politische Zwänge gefiltert oder nur auf Benutzerfreundlichkeit statt auf Genauigkeit optimiert werden, laufen sie Gefahr, zu stillen Verstärkern verzerrter Realitäten zu werden – nicht weil sie dies „beabsichtigen”, sondern weil sie so konstruiert sind. […]
Chatbots werden zu einem Teil davon, wie wir im Alltag mit der Wirklichkeit in Berührung kommen. Die meisten ihrer Antworten in unserer Studie waren weitgehend korrekt, aber nicht durchweg zuverlässig. Selbst bei einfachen sachlichen Fragen traten Fehler auf, sensible Themen lösten Ablehnung aus, und die Antworten variierten manchmal abhängig vom Standort der Nutzer:innen.
Die eigentliche Herausforderung ist hier nicht die Geschwindigkeit, sondern die Glaubwürdigkeit. Die Verantwortung besteht darin, weiterhin das zu tun, was diese Systeme nicht können: zu überprüfen, zu kontextualisieren, und Narrative zu hinterfragen.
Denn die gefährlichste Art von Fehlinformation ist nicht die, die offensichtlich falsch ist. Es ist die, die gerade einleuchtend genug wirkt, um als „die Antwort” durchzugehen.
Hyrije Mehmeti, ejo-online.de, 11.03.2026 (online)

