Eine Artikel von unserer Gastautorin Shejla Baltic

Wir haben gelernt, Fragen zu stellen. Wir wissen, dass wir Dinge nicht einfach so hinnehmen sollen, sondern verschiedene Quellen vergleichen, zwischen den Zeilen lesen und uns selbst eine Meinung bilden müssen. Wer in der Schule Essays geschrieben hat, weiß: Eine Behauptung ohne Quelle zählt nicht. 

Dann kam ChatGPT. 

Ein Tool, das nicht nur antwortet, sondern Entscheidungen für uns trifft, indem es die Unordnung des Internets sortiert, für uns gewichtet, was wichtig ist – und uns die eine Antwort liefert. Kein Wühlen durch zehn Google-Links, kein Scrollen durch Reddit-Threads oder Abwägen von zwei widersprüchlichen Wikipedia-Artikeln. Eine Wahrheit. Fertig. 

Was passiert, wenn wir eine Maschine fragen? 

Lange Zeit war Google die erste Anlaufstelle für alles. Wer etwas wissen wollte, gab eine Frage ein und bekam Links. Man musste selbst auswählen, welche Seite vertrauenswürdig und was Werbung ist, wo ein Artikel vielleicht von Lobbygruppen gesponsert wurde. Wer eine Frage hatte, musste sich anstrengen. 

Während Google uns dazu gebracht hat, uns eine eigene Meinung zu bilden, könnte KI uns dazu verleiten, eine Meinung einfach nur abzurufen. 

ChatGPT funktioniert anders. Hier gibt es keine Links, keine unterschiedlichen Meinungen, kein "Schau dir doch mal diese zwei Artikel an und entscheide selbst". ChatGPT filtert, bewertet und formuliert die Antwort so, dass sie fertig konsumierbar ist. Klingt effizient. Ist es auch. Aber das birgt eine Gefahr. 

Denn plötzlich wird nicht mehr gefunden, sondern geliefert. Das, was das Sprachmodell für die beste Antwort hält. Die Transparenz, warum diese Antwort gewählt wurde, bleibt oft im Dunkeln. Und die Mühe, sich selbst mit einer Frage auseinanderzusetzen, fällt weg. 

Wer nutzt was – und warum? 

Laut einer aktuellen Umfrage von Pew Research nutzen bereits 27 % der Erwachsenen in den USA regelmäßig KI-Chatbots wie ChatGPT, und unter jungen Erwachsenen (18-29 Jahre) sind es sogar 44 %. Das ist noch weit entfernt von Googles täglicher Milliarden-Nutzung, aber das Wachstum ist rasant. Eine Untersuchung von Axios zeigt, dass über 50 % der Millennials und Gen Z bereits damit experimentiert haben, ChatGPT statt Google zu nutzen – oft für Hausaufgaben, Recherche oder schnelle Antworten auf Alltagsfragen. 

Doch während Google immer noch der Platzhirsch ist, zeigt sich ein Wandel: Die Nutzer erwarten mittlerweile direkte Antworten, keine Liste von Vorschlägen. Sie wollen kein Rezept aus 15 Blogs vergleichen, sie wollen eine Zutat weglassen und wissen, ob das Gericht trotzdem funktioniert. Sie wollen nicht fünf wissenschaftliche Artikel lesen, sondern in zwei Sätzen wissen, was die Forschung zum Thema sagt. 

Der Komfort-Faktor und die Folgen 

Hier liegt der größte Vorteil – aber auch die größte Gefahr. ChatGPT kann nicht nur Antworten geben, sondern Fragen weiterentwickeln. Man kann nachhaken, sich ein Thema in einfacherer Sprache erklären lassen oder um ein konkretes Beispiel bitten. Google hingegen bleibt eine Stichwort-Maschine. 

Doch genau dieser Komfort macht uns auch fauler. Was, wenn wir uns gar nicht mehr die Mühe machen, verschiedene Quellen zu prüfen? Wenn wir nur noch lesen, was uns vorgesetzt wird? Wenn wir aufhören, unsere Meinung zu hinterfragen, weil uns das Sprachmodell ohnehin die „beste“ Lösung präsentiert? 

Brauchen wir eine neue Medienkompetenz? 

Das Internet hat uns gelehrt, misstrauisch zu sein. Niemand verlässt sich blind auf eine einzige Quelle. Wir haben gelernt, zwischen Werbung und echtem Content zu unterscheiden, Faktenchecks zu nutzen, Kommentare zu lesen. 

Mit KI-Tools brauchen wir eine neue Art der Skepsis. Wir müssen verstehen, dass ChatGPT keine absolute Wahrheit liefert, sondern Wahrscheinlichkeiten berechnet. Dass es Verzerrungen gibt – weil das Modell aus bereits bestehenden Daten gelernt hat, nicht aus der Realität. 

Wir müssen lernen, gezieltere Fragen zu stellen, Alternativperspektiven aktiv einzufordern, nicht einfach die erstbeste Antwort zu nehmen. Wir müssen ChatGPT benutzen wie ein Werkzeug – nicht wie einen Lehrer. 

Denn während Google uns dazu gebracht hat, uns eine eigene Meinung zu bilden, könnte KI uns dazu verleiten, eine Meinung einfach nur abzurufen. 

Und das ist ein gewaltiger Unterschied. 

Share this article
The link has been copied!