Der Komplexitätsforscher Stefan Thurner erklärt, was junge Menschen können müssen, um auch in Zeiten der Künstlichen Intelligenz mithalten zu können: Verständnis für Demokratie – und Kritikfähigkeit gegenüber ChatGPT & Co. Sonst droht eine neue selbst verschuldete Unmündigkeit, warnt er
Die Welt wird gerade neu aufgeteilt, und Europa hat dabei leider keine so glückliche Rolle. Es ist jetzt sehr reich und wird wohl ein bisschen ärmer werden. Damit müssen wir uns auseinandersetzen, damit wir nicht ein Leben lang darunter leiden, dass „alles schlechter“ wird.
Die Wirtschaft wird sich verändern. Es gibt mehr Datenmonopolisten, die sehr gut wissen, wie die menschliche Psyche funktioniert, und daraus einen Vorteil ziehen können. Man muss also klarmachen, wer auf der Welt was weiß und wer daraus welchen Vorteil ziehen kann. Wie funktionieren Tech Companies und Datencenter, wer kontrolliert diese Datencenter, wem gehören sie?
Westliche Staaten verlieren mehr und mehr die Kontrolle, trotzdem wäre es sehr wichtig, zu wissen, wie Staaten und soziale Gefüge funktionieren. Wer trifft Entscheidungen? Welche Alternativen zur Demokratie gibt es, und was heißt es, nicht mehr demokratisch zu entscheiden? Man sollte unbedingt in der Schule lernen, Entscheidungen im Kompromissweg zu finden und auch was es heißt, wenn das nicht passiert.
Verlust der Zivilgesellschaft
Ein weiterer Fokus sollte darauf liegen, dass der Verlust der Zivilgesellschaft auf dem Spiel steht. Was heißt Redefreiheit? Was ist das Gegenteil davon? Was ist Cancel Culture – eine Errungenschaft oder schon eine präfaschistoide Entwicklung?
Wir müssen aufzeigen, dass nicht eine Gruppe entscheiden kann, was eine andere Gruppe zu tun, zu denken und zu fühlen hat. Also wie funktionieren soziale Zusammenhänge, und wie funken da die sozialen Medien rein? Das wären alles Themen für einen neu gedachten Geografie-Unterricht oder vielleicht für politische Fächer oder für Ethik.
Ein Riesenthema ist das Konzept der Wahrheit. Wo ist überall Betrug möglich? Wer besitzt welche Daten, wer nutzt diese wie, wem gehören Medien, wer nutzt welche Medien zu welchem Zweck? Ein Klassiker, den man nie vergessen darf: Man sollte die Menschenrechte studieren und darüber reden, warum sie in ihrer gültigen Form besser sind als alle Alternativen.
Ich glaube, wenn man diese Sachen als junger Mensch lernt, versteht und verinnerlicht, könnte es durchaus sein, dass sich die nächste Generation auch eine schöne Zivilgesellschaft erarbeitet.
Wenn man das alles außer Acht lässt, seinen Emotionen freien Lauf lässt und das eigene Denken und Verstehen mehr und mehr an Wikipedia und in ChatGPT auslagert, darf man sich nicht wundern, wenn am Schluss jemand anderer für einen denkt.
Selbstverschuldete neue Unmündigkeit
Und das ist dann eine selbst verschuldete neue Unmündigkeit, die dazu führt, dass große Teile der Bevölkerung ausgenutzt werden können. So wie vor der Aufklärung. Das sehe ich als große Gefahr. Wenn ich die Chance hätte, ein Bildungssystem neu aufzusetzen, würde ich auf genau diese Punkte den Fokus legen. Was man sicher nicht braucht, ist, jungen Leuten zu erklären, wie man Technologie oder Chatbots nutzt. Das ist selbsterklärend. Man muss die Gefahren und Strukturen dahinter klarmachen. Und wissen, wo man gute Informationen bekommt, und wie man gute von schlechter Information unterscheidet.Junge Menschen müssen wissen, welchen Mehrwert es hat, selbst zu denken, damit zu einem bestimmten Zeitpunkt genügend Informationen in einem Gehirn zusammenfinden, um Zusammenhänge erkennen zu können. Wenn man immer nur alles ans Netz auslagert, weil es schnell geht, weil alle es so machen oder aus welchen Gründen auch immer, geht das nicht. Ich glaube, dass es eine kritische Schwelle gibt. Mit zu wenig aktiv gespeicherter Information kann man keine Zusammenhänge erkennen und keine guten Entscheidungen mehr treffen. Und dann befinden wir uns vermutlich am Ende des freien Willens.
ChatGPT findet immer irgendeinen Zusammenhang. Aber der ist nicht kritisch durchleuchtet und damit eigentlich wertlos. Ich halte das für eine Riesengefahr. Jetzt wissen noch alle, wie fehlerbehaftet künstliche Intelligenz ist. Aber wenn wir da noch einen Tick weniger kritisch werden, droht ein riesiger Kontrollverlust. Nicht in dem Sinne, dass die Maschine Entscheidungen übernimmt. Das echte Horrorszenario sind die wählenden Massen unkritischer Nutzer und Nutzerinnen.
Standardmäßig Fragen stellen
Man weist Kinder darauf hin, dass es gefährlich ist, bei Rot über die Straße zu gehen, oder dass sie von Fremden keine Zuckerl annehmen sollen. Das muss ich in die digitale Welt transponieren. Wer sind jetzt die Leute, die Zuckerl verteilen? Wahrscheinlich müsste man lernen, standardmäßig eine Sequenz von Fragen zu stellen: Woher kommt diese Antwort einer Suchmaschine oder von ChatGPT? Woher kommen die Daten? Wer hat sie eingegeben? Welchen Zweck verfolgt die Eigentümerin oder der Eigentümer von diesem Ding, das ich nutze? Wie mache ich Faktenchecks? Wenn wir das zusammenbringen, wäre es großartig.
Dieser Beitrag ist ursprünglich in der News-Printausgabe Nr. 45/2024 erschienen.
Über den Experten
Stefan Thurner
Der Physiker und Komplexitätsforscher leitet seit 2015 den Complexity Science Hub in Wien.