„KI – ungeahnte Möglichkeiten, bekannte Grenzen?“

Professor Maximilian Kasy von der Universität Oxford und Marvin Labod, Head of Quantitative Analysis bei Lupus alpha, sprechen über künstliche Intelligenz, insbesondere über „Machine Learning“ und Sprachmodelle, und warum es aufgeklärte Nutzer braucht.

Redaktion Kirsten Kücherer

leitwolf: Spätestens seit ChatGPT ist künst­liche Intelligenz (KI) in aller Munde. Wie funktionieren große Sprachmodelle und was macht ihren Erfolg aus?

PROF. MAXIMILIAN KASY: In einem ersten Schritt werden große Textdatensätze zusammengetragen. Das ist mittlerweile im Grunde das gesamte Internet inklusive der Datenbanken von Wikipedia, über die wissenschaftliche Artikeldatenbank „arXiv“ bis hin zur Coding-Plattform „GitHub“. Auf Basis all dieser Daten werden sogenannte „Foundation Models“ trainiert, die statistisch das wahrscheinlichste nächste Wort vorher­sagen. In weiteren Schritten erfolgt das Feintuning. In den letzten Monaten ging es hier insbesondere um das „Reinforcement Learning“, d. h. um spezifische Aufgaben beispielsweise aus der Mathematik oder der Programmierung mit korrekter Lösung. Das Modell wird incentiviert, selbstständig zu lernen, diese Lösung vorherzusagen. Derzeit liegt die Aufmerksamkeit der Medien zwar fast ausschließlich auf solchen Sprachmodellen – aber KI ist viel mehr.

MARVIN LABOD: Auch bei uns denken 90 Prozent unserer Kolleginnen und Kollegen an Sprachmodelle, sobald es um KI geht. Im Einsatz haben wir allerdings auch einfachere, schon länger bewährte Modelle, z. B. in der Vola­tilitäts-Schätzung. Klar ist aber auch: Die Entwicklung der Akzeptanz, der Nutzerfreundlichkeit und der Zugänglichkeit solcher Sprachmodelle ist enorm, wenn man sieht, wie instinktiv heutzutage Studenten, die aus den Universitäten zu uns kommen, mit Sprachmodellen arbeiten oder Probleme lösen, sie als Research-Assistent nutzen oder beim Coding einsetzen. Für uns sind das alles sehr große Effizienz-Tools.

leitwolf: Als wesentliche Einschränkung wurde lange die mangelnde Fähigkeit dieser Modelle benannt, logisch zu schlussfolgern bzw. Ursache und Wirkung miteinander in Beziehung zu setzen. Stattdessen spielen lediglich Korrelationen eine Rolle. Was steckt dahinter?

MAXIMILIAN KASY: Dahinter stecken alte Debatten in der KI. Alternativen zu Machine Learning, d. h. zu Statistik, haben schon lange logische Schlussfolgerungen in den Vordergrund gestellt, allerdings nur mit begrenztem Erfolg. Die Methode des Reinforcement Learning scheint sehr gut zu funktionieren für Bereiche mit klar „korrekten“ Antworten. Weniger deutlich ist allerdings, ob die Methode in Bereichen hilft, in denen viele Antworten möglich sind. Was man sich vor Augen führen muss: Die größte Anwendung von KI ist nach wie vor die Werbung im Internet! Algorithmen schätzen andauernd den kausalen Effekt von verschiedenen Entscheidungen auf die Werbeeinnahmen. Kausalität ist in diesem Sinne kein Problem.

leitwolf: KI-Modelle können bei Anwendungen, die über den Bereich ihrer Trainings­daten hinausgehen, zu „Halluzinationen“ neigen. Wie kann dieses Problem reduziert oder eliminiert werden?

MAXIMILIAN KASY: Ich glaube nicht, dass es da fundamentale Lösungen gibt. Am hilfreichsten erscheint mir ein „Tool Use“: So kann man Chatbots Quellen im Internet suchen oder Code beispielsweise in Python laufen lassen, um extern verifizierte Antworten zu erhalten. Eine gute Metapher ist hier der durchlöcherte Emmentaler: Auch in den Informationen, die Sprachmodelle korrekt beantworten können, existieren eben Löcher.

leitwolf: Wie schätzen Sie die Diskussion um den viel diskutierten Begriff der „Artificial General Intelligence (AGI)“ ein? Sie soll weitgehend der menschlichen Intelligenz gleichen und Aufgaben lösen wie wir Menschen, nur vielleicht schneller, besser …

MAXIMILIAN KASY: Wir Menschen haben eine starke Neigung, menschliche Eigenschaften auf die nichtmenschliche Umwelt zu projizieren und dieser Intentionen und Bewusstsein zuzuschreiben. Bei AGI wird das noch stärker. Aber: Das Modell selbst „will“ nichts. Ich glaube, wir verstehen wesentlich besser, was KI tut, wenn wir sie als Optimierung auf Basis statistischer Daten verstehen. Vereinfacht gesagt: Irgendeine messbare Zahl soll möglichst groß werden. Dann gilt es zu fragen: Was genau soll optimiert werden? Und auf Basis welcher Daten?

MARVIN LABOD: Genau. Die Reward-Funktion oder wie das Modell trainiert wird, worauf es trainiert wird – das ist sehr elementar dafür, was uns das Modell später als Antworten geben wird. Was uns als Nutzer interessiert – und auch mein Research beschäftigt sich hauptsächlich damit – ist: Was können die neuen Modelle und wo bzw. wie kann ich sie einsetzen? Auch theoretische Punkte spielen dabei eine Rolle. Dazu gehört auch die Frage, wie genau und auf welchen Ebenen die Reward-Systeme funktionieren, welche Knotenpunkte getriggert werden und was passiert, wenn bestimmte Knotenpunkte in dem Modell anders als zuvor parametrisiert werden.

leitwolf: Es gibt auch Stimmen, die vor einem übertriebenen Hype um KI warnen. Es gebe zwar viele Anwendungen, die wirtschaftlich Erfolg versprechend seien und disruptiv wirken könnten. Aber andere seien noch weiter entfernt, als man denke, weil KI immer wieder vor Herausforderungen gestellt werde, für die sie nicht trainiert sei. Was meinen Sie dazu?

MAXIMILIAN KASY: Machine Learning hat eine relativ klare „Produktionsfunktion“. Dabei ist die Grundlage eine statistische Vorhersage, mehr Daten bedeuten bessere Prognosen und komplexere Anwendungsbereiche führen zu schlechteren Vorhersagen. Es hängt also auch immer vom Anwendungsbereich ab bzw. vom Verhältnis der Komplexität zu den (potenziell) verfügbaren Daten, wie erfolgreich maschinelles Lernen sein kann. Durch das Internet existieren sehr viele Daten, aber es gibt auch Bereiche, in denen es fundamentale Limits gibt, z. B. bei makroökonomischen Informationen über Finanzkrisen oder bei Daten über seltene Krankheiten.

Prof. Maximilian Kasy ist Professor für Volkswirtschaftslehre an der Universität Oxford. Seine aktuellen Forschungsinteressen gelten u. a. der Entwicklung von Grundlagen für Statistik und künstliche Intelligenz im sozialen Kontext.

Marvin Labod ist Head of Quantitative Analysis bei Lupus alpha und als Portfolio-Manager im Bereich Derivative Solutions verantwortlich für Wertsicherungskonzepte, Overlay-Mandate sowie derivative Volatilitäts-Strategien.

leitwolf: Wo sind für Sie Grenzen des verantwortungsvollen Einsatzes von KI?

MARVIN LABOD: Es braucht aufgeklärte Nutzer. Wir brauchen Mitspracherechte für die Menschen, die von KI-Entscheidungen betroffen sind. Zumindest braucht es viel mehr Verständnis und Bewusstsein dafür, dass unterschiedliche Player ganz unterschiedliche Zielfunktionen in ihren KI-Modellen haben. Folglich ist es wichtig, sich bei seiner Meinungsbildung bzw. dem Einsatz von KI unterschiedliche sinnvolle Werkzeuge heranzuziehen und dabei immer einen kritischen Blick zu haben auf die eingesetzten Tools, deren Grenzen und die Unternehmen, die dahinterstehen.

MAXIMILIAN KASY: KI ist eben viel mehr als die Sprachmodelle. In vielen Bereichen geht es bei KI um automatische Entscheidungssysteme, um die Optimierung messbarer Ziele. Welche Ziele genau optimiert werden – das entscheiden diejenigen, die die (jeweilige) KI kontrollieren. Kontrolliert wird die KI wiede­rum von denjenigen, die die Vorherrschaft über die Inputs haben, also über Daten, Computer-Chips und Expertise. Wir müssen die Kontrolle über die Ziele in die Hände derer geben, die von Entscheidungen betroffen sind – und dafür demokratische Strukturen schaffen. Der aufgeklärte Nutzer ist die Voraussetzung dafür, aber man kann es nicht beim Individuum belassen: Es braucht eine breite gesellschaft­liche Debatte über diese Thematik.

Herr Professor Kasy, Herr Labod, wir danken Ihnen für das Gespräch!

Das neue Buch von Maximilian Kasy

The Means of Prediction
How AI Really Works
(and Who Benefits)
The University of Chicago Press, Oktober 2025

Verfügbar ab Herbst 2025, bestellbar direkt unter:

Inhalt Ausgabe 011