Katharina Wolff

„Die KI überholt uns gerade"

Die rasante Entwicklung der künstlichen Intelligenz ist nicht zu bremsen, so viel steht fest. Welche Chancen und Risiken sind mit ihr verbunden? Dr. Miriam Meckel (57), Kommunikationswissenschaftlerin, Co-Gründerin von ada Learning und ausgewiesene KI-Expertin, blickt positiv in eine Zukunft, in der wir mehr Zeit für das haben werden, was uns wichtig ist – und in der die KI unsere Fähigkeiten ergänzen und verbessern wird. In welchen Bereichen wir in Bezug auf Ethik und die Gefahr, dass Systeme unkontrolliert agieren, jedoch Debatten führen müssen, schildert Meckel im STRIVE-Coverinterview.

„Die KI überholt uns gerade"
Unsere Coverwoman Miriam Meckel, fotografiert im Radisson Blu Conference Hotel in Düsseldorf | Fotos: Henning Ross

Miriam, reden wir über Zukunftschancen und künstliche Intelligenz. Wo stehen wir aktuell in der Entwicklung – und wird diese tatsächlich immer schneller, wie es sich gerade anfühlt?

Wenn wir uns historisch anschauen, wie sich der Computer, das Internet und die KI entwickelt haben, sehen wir: Die KI hat die schnellste Entwicklung vollzogen, die wir in der Technologie-Entwicklungsgeschichte bisher erlebt haben. Mein Gefühl ist gerade: Man wacht morgens auf und denkt, jetzt ist schon wieder ein neuer Riesenapfel vom Baum gefallen. Wie soll ich das alles verstehen, auf dem Laufenden bleiben? Das ist wirklich eine Herausforderung, weil alles so wahnsinnig schnell geht.


Mo Gawdat, ehemaliger Chef von Google X, hat in seinem Buch „Scary Smart“ geschrieben, dass das mit der künstlichen Intelligenz ein bisschen wie mit der Kindererziehung ist. Als wären wir Menschen die Eltern, die unserem Kind, der KI, alles beibringen. Siehst du das auch so?

Einem kleinen Kind erklärt man langsam das Leben: Du darfst nicht auf die heiße Herdplatte fassen, das tut sonst weh. Das ist ein Lego-Klötzchen, wenn du es mit einem anderen zusammensteckst, ergibt das ein Türmchen. Den Rest machen Kinder selbst, durch Ausprobieren, durch Fehler – das eigentliche Lernen entsteht ja nicht durch die Erklärung, sondern die Erfahrung. Etwas Ähnliches kann die KI jetzt auch. Sie lernt aus ihrem Umgang mit Daten und dem Feedback zum Resultat, das sie von uns Menschen bekommt. In vielem allerdings hat KI ihre vermeintlichen Eltern längst überholt.


Macht es dir Angst, dass wir gar nicht wissen, wie so eine KI wirklich lernt

Strukturell wissen wir das schon. KI und Menschen lernen über verschiedene Prozesse, Informationen und Regeln, Wiederholungen und Feedback. Aber wir kennen nicht alle Details, weder bei der KI noch beim Menschen. Was mir Sorgen macht: Wir sind im Moment durch diesen verrückten geopolitischen Wettbewerb angetrieben und geben uns gar keine Zeit mehr, mal einen Moment innezuhalten. Das wäre aber wichtig, ganz wie beim Sport – wenn du dich wirklich entwickeln willst, brauchst du zwischendurch Pausen. Die Muskeln wachsen in der Ruhe und nicht, indem du sie jeden Tag belastest.

Bei der KI-Entwicklung bräuchte es also auch mal einen Tag Pause?
Keinen Entwicklungsstopp, wie ihn Elon Musk mal gefordert hat. Aber ein gelegentliches Innehalten für eine Bestandsaufnahme wäre sinnvoll. Wir sollten uns fragen: Wo und wie wollen wir KI sinnvoll einsetzen? Um dann auch zu erkennen, wo wir gegensteuern müssen. Auch Kinder können falsche Anreizebekommen und falsche Dinge lernen. Dann gehst du ins Gespräch und erklärst, warum das nicht richtig ist, und zeigst Alternativen auf. Das klappt aber nicht, wenn das Kind nur von „Höher, schneller, weiter“ getrieben ist. Gerade geht es sehr viel darum, wer der Größte und Schnellste ist, wer am meisten Geld mit KI verdient. Größer heißt aber nicht immer besser. Das haben wir gerade durch das chinesische KIModell von Deepseek gelernt, das viel weniger Energie braucht und viel weniger Trainingskosten verursacht als die großen US-Modelle. Wir starten jetzt in die kognitive industrielle Revolution, die ebenso tiefgreifend sein wird wie die industrielle Revolution durch Elektrizität und Dampfmaschinen. Das braucht Zeit für Reflexion.

Was könnte die Menschheit tun, damit die KI sie nicht irgendwann überrollt?

Wir müssen sicherstellen, dass wir dieses mächtige Werkzeug nicht als Ersatz, sondern als Anreicherung menschlicher Fähigkeiten entwickeln und verstehen. Darin liegt die Chance, über unseren Horizont hinauszuwachsen. Ansonsten laufen wir Gefahr, in einer perfekt durchautomatisierten Welt zu leben – das wäre langweilig und auch gefährlich. Diese Entscheidungen müssen wir jetzt treffen.



Zum Beispiel?

Wir brauchen eine umfassende Qualifizierung, die in alle Lebens- und Berufsbereiche hineinreicht. Mein Eindruck ist, dass weder die Politik noch ein Teil der Wirtschaft verstanden haben, was das wirklich bedeutet. Wir werden die letzte Generation sein, die bislang nur mit menschlichen Teams gearbeitet hat. In Zukunft werden wir auch die KI führen müssen. Dafür ist es wichtig zu verstehen, wo der Unterschied zwischen menschlicher und künstlicher Intelligenz liegt und wie wir die Zusammenarbeit gut gestalten können.

„Es wird immer Datenverarbeitung bleiben. Eine künstliche Intelligenz kann nicht lieben.“

Was würdest du dir dahin gehend wünschen?

Dass wir als Standort Deutschland und auch in der Europäischen Union eine Investitionsinitiative auf den Weg bringen, die uns erlaubt, ein gestaltender Teil dieser Entwicklung zu sein. Wir haben einiges zu bieten: unsere Industriekompetenz, unsere soziale Marktwirtschaft, unsere demokratischen Werte. Es muss eine europäische KI-Strategie geben, die sich von der in den USA und in China unterscheidet.


Du hast mal gesagt: Dass sich die KI gegen die Menschheit wendet, ist so wahrscheinlich, wie dass der Mond auf die Erde fällt. Glaubst du daran immer noch?

Ja, und zwar aus einer logischen Begründung heraus: KI ist ja nicht vom Himmel gefallen. Das ist eine Technologie, die wir Menschen über Jahrzehnte entwickelt haben. Sie ist aus unseren geistigen Fähigkeiten, unserem Vorstellungsvermögen, unseren Kompetenzen entstanden. Wir sind diejenigen, die zulassen können, dass KI uns überholt. Davor habe ich allerdings durchaus Angst: dass wir nicht in der Lage oder bereit sind, uns mit unserer eigenen Schaffenskraft kritisch auseinanderzusetzen. Wir sind es, die nachdenken und bestimmte Leitplanken für die KI einziehen müssen. Das macht die KI nicht für uns. Das ist unser Problem, nicht das der KI.



Denkst du, dass die KI auf Basis von Erfahrungen eine Art von Intuition entwickeln kann?

Erfahrungen macht nur der Mensch. Die KI wertet historische Daten aus. Mit denen arbeiten natürlich auch wir Menschen, aber das ist nur ein kleiner Teil. Wir verarbeiten auch Sinnesreize und haben Gefühle. Ein Beispiel: Wenn du dich verliebst, dann ist das mit Erfahrungen verbunden, die eine KI nie haben wird. Dieses Gefühl spürt man immer wieder im Leben, wenn man diesen einen Song hört, dieses Parfum riecht oder dieses eine Kleidungsstück anzieht. Da laufen biochemische, hormonelle und sensorische Prozesse in uns Menschen ab. Wir können versuchen, das mit Robotik und KI zu simulieren, aber das wird immer Datenverarbeitung bleiben. Eine KI kann nicht lieben.


Sie wird also nie subjektiv denken?

Sie kann Ergebnisse produzieren, die Gefühle oder Intuition simulieren. Aber es bleibt trotzdem ein Unterschied zwischen dem, wie wir Menschen Emotionen empfinden oder Intuition haben und wie KI eine solche Empfindung simuliert.



Kann eine KI lügen?

Ja, kann sie, in unserer Wahrnehmung zumindest. Forscherinnen und Forscher haben für eine Studie mit ChatGPT4 gearbeitet und der KI die Aufgabe gestellt, ein Captcha zu lösen. Das ist eine Art Bilderrätsel, mit dem eine Website feststellen kann, ob ein Mensch oder ein Bot klickt. Als ChatGPT4 das nicht lösen konnte, hat die KI auf einer Minijobplattform einen Freelancer kontaktiert und gefragt, ob er das Captcha für sie lösen kann. Der Freelancer wurde misstrauisch und fragte: Bist du eine KI? ChatGPT antwortete: Nein, ich bin ein Mensch mit einer Sehstörung.

Das ist ja verblüffend! Ich würde das schon als Lüge bezeichnen.

Aus unserer Perspektive ist es eine Lüge. Aber eine Lüge setzt eine Täuschungsabsicht voraus. Die hat eine KI nicht. Sie hat schlicht das getan, was nötig war, um ihr Ziel zu erreichen. Wenn wir Menschen nicht darauf achten, wie wir ein Ziel für die KI formulieren, verfolgt sie es gnadenlos mit allen möglichen Mitteln. Moral spielt keine Rolle. Nicht lügen muss also als Vorgabe von uns kommen. In der KI-Forschung bezeichnen wir das als Alignment-Problem: Ich versuche, eine Lösungsstrategie für die KI so zu definieren, dass die einzelnen Schritte mit unseren menschlichen Vorstellungen übereinstimmen. Das gilt auch für den globalen Wettbewerb um KI. Es wäre sehr sinnvoll, global ein paar Spielregeln festzuhalten, wie wir einen für uns alle verträglichen Fortschritt definieren – ein Alignment der KI-Weltgesellschaft.

„Es wird immer Datenverarbeitung bleiben. Eine künstliche Intelligenz kann nicht lieben."

Glaubst du, dass die führenden Politikerinnen und Politiker der Erde das auf dem Schirm haben?

Derzeit nein. Aber das ist lebensmüde. Wir haben ja ein historisches Beispiel für eine solche Herausforderung – die Atombombe. Darüber wurde zwischen den Weltmächten über Jahrzehnte verhandelt, mit dem Ergebnis der gegenseitigen Abschreckung und der Nichtverbreitungsabkommen. Klar war immer: Wenn einer die Atombombe zündet, reagiert der andere, und die Welt liegt in Schutt und Asche. Bei KI in der Kriegsführung sieht das leider ähnlich aus.

Miriam Meckels Unternehmen ada Learning bietet u.a. KI-Kurse an – tausende Mitarbeitende aus DAXUnternehmen und Regierungen haben bereits an den Weiterbildungen teilgenommen

Könnte die KI am Ende alle weltlichen Probleme für uns lösen?
Das wäre nicht mein Ansatz. Ich möchte den Menschen im Spiel halten, der sich durch KI in allem unterstützen lassen kann. Das ist zum Beispiel in Forschung und Wissenschaft superinteressant. Demis Hassabis von Deepmind hat im vergangenen Jahr zu Recht den Chemie-Nobelpreis für seine Arbeit an Alphafold bekommen. Damit lassen sich Hunderte Millionen Proteinfaltungen simulieren, und damit kann man Medikamente viel schneller entwickeln als bisher. Wenn wir KI in der personalisierten Medizin einsetzen können, um schwere Krankheiten besser zu behandeln und zubekämpfen, dann sind das revolutionäre Durchbrüche, die unser Leben verbessern. Ich glaube, dass KI in den nächsten Jahren in alle Lebensbereiche hineingewoben sein wird und überall zu Verbesserungen führen kann.


Gleichzeitig schafft die KI aber auch Probleme. Sie braucht beispielsweise mehr Energie, als wir aktuell erzeugen können. Meta baut gerade ein eigenes Kernkraftwerk. Wie werden wir in Deutschland den Energiebedarf decken? Sollten wir unsere Kernkraftwerke reaktivieren?
Das ist eine schwierige Frage für jemanden, die in ihrer Jugend bei den Anti-Atomkraft-Märschen mitgegangen ist (lacht). Vor zehn Jahren hätte ich sie komplett anders beantwortet als heute. Ich spüre da noch immer eine innere Zerrissenheit. Natürlich wünschte ich, dass wir keine Kernkraft mehr bräuchten, um den zukünftigen Energiebedarf zu decken. Wir können aber nicht mit einem Fingerschnippen alles auf erneuerbare Energien umstellen. Wenn ich auf die Entwicklung der Erderwärmung und des Klimas schaue, dann sind vor allem Öl und Kohle das Problem, und dann fürchte ich, es war falsch, die verbleibenden Kernkraftwerke in Deutschland abzuschalten.

„Ich glaube, dass KI in den nächsten Jahren in alle Lebensbereiche hineingewoben sein wird und überall zu Verbesserungen führen kann."

Und wenn man jetzt in Richtung USA schaut… …auf Donald Trump mit seiner „Drill-Baby-Drill“- Devise? Dann kriegt man wirklich die Krise. Das kann doch nicht die Perspektive einer zukunftsorientierten Energiepolitik sein. Ich finde, wir haben eine moralische Verpflichtung gegenüber der nachfolgenden Generation. Wir müssen endlich etwas dafür tun, dass wir uns nicht nur immer wieder Ziele setzen, sondern sie auch mal erreichen. 2024 war das wärmste Jahr der Aufzeichnungen. Wir brauchen die erneuerbaren Energien. Aber übergangsweise brauchen wir leider auch noch andere Energiequellen, und da ist mir die Kernenergie lieber als Öl und Kohle.


Du sagst, wir sind jetzt schon zu schnell unterwegs. Wird sich das Tempo durch Quantencomputing nicht noch mal erhöhen?

Unsere bisherigen digitalen Computer arbeiten mit Bits, mit binären Daten, die null oder eins sind. Der Quantencomputer arbeitet dagegen mit QuantenBits. Und die können eben nicht nur null oder eins sein, sie können beides sein, Zwischenzustände annehmen. Das ist erst mal eine Zumutung für unser Denken, aber es bringt ganz neue Leistungsfähigkeit. Quantencomputer können parallel, also sehr viel schneller rechnen. 2019 hat ein Quantencomputer von Google eine Aufgabe in 200 Sekunden gerechnet, für die ein digitaler Hochleistungsrechner 10.000 Jahre gebraucht hätte. Jetzt kommt das große Aber: Es gibt noch keine funktionierenden breit einsetzbaren Quantencomputer. Die Technologie auf Basis dieser physikalischen Voraussetzungen ist so fragil, dass man sie extrem herunterkühlen und ein sehr stabiles Umfeld schaffen muss. Es wird intensiv daran gearbeitet, die Fehlerraten zu korrigieren, aber das alles wird noch eine Weile dauern. Derzeit haben wir eher eine Diskussion, ob die schnelle Entwicklung der generativen KI Quantencomputing nicht gar überflüssig machen wird. Ich denke, wir brauchen beides, Quanten- und digitale Computer werden sich ergänzen.

Blickt zuversichtlich in eine Zukunft, in der, rein technisch betrachtet, KI menschliche Originalität braucht, mit der sie weiterlernen kann: Miriam Meckel

Sollten wir merken, dass sich das mit der KI in keine gute Richtung entwickelt, können wir sie überhaupt noch stoppen?
Natürlich. Man kann jedes System abschalten. Die Frage ist, ob wir frühzeitig merken, dass es notwendig ist.


Der Überlebenswille ist doch das Stärkste, was wir Menschen in uns tragen. Hat eine KI das auch?
Wenn jemand ein Modell darauf trainiert, alles möglich zu machen, um weiter zu existieren, dann ist das theoretisch vorstellbar. Aber hier habe ich eine dezidierte und vielleicht auch zynische Antwort: Wenn wir Menschen tatsächlich eine so verantwortungslose und dumme Entscheidung treffen, die KI auf ihren eigenen kompromisslosen Überlebenswillen zu trainieren, dann haben wir nichts anderes verdient, als von ihr ausgeschaltet zu werden.

Welches Interesse sollte eine KI überhaupt haben, die Menschheit auszulöschen?

Sie hat gar keins. Weil sie keine Interessen hat. Aber hätte sie eins, dann könnte sie erkennen, dass Menschen wichtig sind. Studien zeigen nämlich, dass Sprachmodelle kollabieren, wenn sie nur mit synthetischen Daten trainiert werden. Das nennt man Model Collapse oder auch Catastrophic Forgetting. Rein technisch betrachtet braucht KI also menschliche Originalität, mit der sie weiterlernen kann.

Foto: Christian Rohrbacher

Zur Person

Miriam Meckel wurde 1967 in Hilden geboren. Sie studierte Publizistik, Kommunikationswissenschaft, Jura, Sinologie sowie Politikwissenschaft und promovierte an der Universität Münster. Meckel war Fernsehmoderatorin, unter anderem beim WDR, RTL und NTV. Seit 2005 ist sie Professorin für Kommunikationsmanagement an der Universität St. Gallen. Meckel ist Co-Gründerin und Executive Chairwoman der ada Learning, einer Akademie für Transformation und der führenden Community für Menschen, die die Zukunft gestalten. Seit 2018 hat ada tausende Mitarbeitende aus DAX-Unternehmen, KMUs und Regierungen weitergebildet. Außerdem war Meckel im Verwaltungsrat der Schweizer Mediengruppe Tamedia und war Chefredakteurin und Herausgeberin der „Wirtschaftswoche“. Sie lebt in St. Gallen und Düsseldorf.