KI nur ein stochastischer Papagei?

Grosse Sprachmodelle machen Statistik. Punkt. Und trotzdem lösen sie Probleme, an denen Menschen jahrzehntelang gearbeitet haben. Ist KI also wirklich nur ein stochastischer Papagei oder unterschätzen wir gerade grundlegend, was hier entsteht?

TL;DR

Grosse Sprachmodelle machen Statistik. Sie sagen das nächste wahrscheinliche Wort voraus.
Gleichzeitig lösen dieselben Modelle Mathe-Olympiade-Aufgaben, schreiben produktiven Code, erkennen Krebs auf Bildern, prüfen Verträge und generieren Bilder und Musik, die Preise gewinnen.

Die Technik bleibt Wahrscheinlichkeitsrechnung.
Die Ergebnisse wirken in vielen Fällen wie echte Kompetenz.

Ob man das weiterhin als stochastischen Papagei bezeichnet oder als neue Form maschineller Intelligenz, ist letztlich eine Frage der Perspektive.

Hinweis: Der Artikel wurde klassisch verfasst und mit Unterstützung von ChatGPT veredelt.

Wortstatistik. Ein zu vereinfachtes KI-Verständnis?

Wer sich mit KI beschäftigt, stolpert früher oder später über den Begriff «stochastischer Papagei». Geprägt wurde er von der Linguistin Emily Bender als Kritik an grossen Sprachmodellen, die Muster aus Trainingsdaten nachahmen, statistisch plausibel, aber ohne echtes Verständnis.

Technisch ist diese Beschreibung korrekt. Grosse Sprachmodelle wie GPT, Claude oder Gemini werden darauf trainiert, das nächste wahrscheinliche Wort vorherzusagen. Next Token Prediction. Mathematisch handelt es sich um hochdimensionale Wahrscheinlichkeitsmodelle.

Aus dieser Perspektive ist «nur Statistik» keine falsche Aussage.

Die entscheidende Frage ist jedoch, ob diese Beschreibung ausreicht, wenn man betrachtet, was moderne KI-Systeme heute tatsächlich leisten.

Gegenbeispiele aus der Praxis

Mathematik und Biologie. Wenn Statistik jahrzehntealte Probleme löst

In der Biologie galt das Protein Faltungsproblem, also die Vorhersage der dreidimensionalen Struktur eines Proteins aus seiner Aminosäuresequenz, jahrzehntelang als ungelöstes Kernproblem.

DeepMinds AlphaFold erreichte 2020 im internationalen CASP Benchmark eine Genauigkeit, die von Fachleuten als praktische Lösung eines über 50 Jahre alten Problems bezeichnet wurde. Inzwischen wurden damit Millionen Proteinstrukturen vorhergesagt, die zuvor unbekannt waren.

Hier wird kein Text generiert. Trotzdem basiert das System auf gelernten statistischen Mustern. Das Resultat sind jedoch neue wissenschaftliche Erkenntnisse.

Ist das noch Papagei oder bereits ein Werkzeug, das Forschung grundlegend verändert?

Programmierung. KI im Wettkampf mit Menschen

Beim kompetitiven Programmieren müssen neue algorithmische Probleme unter Zeitdruck verstanden und gelöst werden. AlphaCode von DeepMind wurde auf reale Codeforces Wettbewerbsprobleme angesetzt und erreichte ein Niveau im Bereich durchschnittlicher menschlicher Teilnehmender.

Wichtig dabei: Die Aufgaben waren nicht Teil der Trainingsdaten. Der Code wurde neu generiert und bestand die Tests.

Neuere Modelle liegen inzwischen deutlich darüber. In der Praxis lösen KI Systeme heute Routineprobleme, generieren Boilerplate Code, schreiben Tests und finden Bugs. Nicht durch Kopieren, sondern generativ.

Reine Statistik oder funktionale Problemlösung?

Medizin und Recht. Mustererkennung mit realen Konsequenzen

In einer viel zitierten Studie zur Vertragsprüfung identifizierte eine KI Risiken in NDAs mit 94 Prozent Genauigkeit in 26 Sekunden. Erfahrene Juristen erreichten im Schnitt 85 Prozent und benötigten dafür rund 90 Minuten.

In der Medizin zeigen Studien, dass KI Systeme auf bildgebenden Verfahren frühe Tumorzeichen teilweise auf Augenhöhe mit spezialisierten Radiologen erkennen. Auch grosse Sprachmodelle schneiden bei komplexen Fallvignetten in der Diagnostik oft sehr gut ab, insbesondere bei der Bewertung von Differenzialdiagnosen.

Die Verantwortung bleibt beim Menschen. Dennoch wird es zunehmend schwierig, solche Systeme als rein akademische Spielerei abzutun.

Kreativität. Wenn der Papagei malt und komponiert

Bildgeneratoren wie DALL·E, Midjourney oder Stable Diffusion sind längst im professionellen Einsatz. KI generierte Bilder erscheinen in Werbekampagnen, Game Assets und Magazinen. Ein bekanntes Beispiel ist ein KI Bild, das einen renommierten Fotowettbewerb gewann, ohne dass die Jury den Ursprung erkannte.

Auch in der Musik ist KI angekommen. Von automatischem Mastering bis zur vollständigen Komposition entstehen heute viele Tracks KI unterstützt. In Blindtests fällt der Unterschied für viele Hörer kaum auf.

Auch hier gilt: statistische Muster auf Pixeln und Audiosignalen. Aber das Ergebnis wird im Alltag als Kunst wahrgenommen.

Was sagt der Begriff «stochastischer Papagei» heute noch aus?

Die ursprüngliche Kritik zielte weniger auf fehlende Leistungsfähigkeit als auf Risiken. Bias in Trainingsdaten, fehlendes Verständnis, Umweltkosten und Missbrauchspotenzial. Diese Punkte bleiben relevant, gerade weil die Systeme so überzeugend sind.

Gleichzeitig argumentieren immer mehr Forschende, dass ein System, das über viele Domänen hinweg konsistente und nachvollziehbare Leistungen erbringt, nicht mehr sinnvoll als Papagei beschrieben werden kann.

Ein möglicher Blickwinkel:

Auf Ebene des Mechanismus
Ja. Grosse Modelle sind statistische Maschinen.

Auf Ebene des Verhaltens
Das Resultat sind Beweise, Diagnosen, Code und Bilder, die wir bisher als Ausdruck von Kompetenz oder Intelligenz verstanden haben.

Der Begriff stochastischer Papagei ist damit weniger eine technische Beschreibung als eine Haltung.

Fazit

Ist KI nur ein sehr, sehr guter Papagei?

Oder sehen wir eine neue Form maschineller Intelligenz, die anders funktioniert als unser Gehirn, aber in vielen Bereichen faktisch Ähnliches leistet?

Die Fakten liegen auf dem Tisch. Proteinstrukturen, Coding-Wettbewerbe, Vertragsanalysen, medizinische Diagnostik, kreative Werke.

Wie man sie interpretiert, bleibt eine bewusste Entscheidung.

Vielleicht ist die ehrlichste Antwort im Moment:
Wir erleben etwas, das mit Statistik beginnt und uns zwingt, unser Verständnis von Intelligenz neu zu überdenken.

Quellen

  • Bender, E. M. et al. (2021). On the Dangers of Stochastic Parrots. ACM FAccT.
    https://dl.acm.org/doi/10.1145/3442188.3445922
  • Jumper, J. et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature.
  • DeepMind (2022). Competitive programming with AlphaCode.
  • Rajpurkar, P. et al. (2017). CheXNet: Radiologist-Level Pneumonia Detection. arXiv.
  • Borji, A. (2022). Generated Images and Creativity. Nature Machine Intelligence.

Hinweis: Einige Studien wurden in Fachmedien wie Harvard Business Review diskutiert, sind dort jedoch teilweise nur noch über Paywalls zugänglich.