Home | Lehre | Videos | Texte | Vorträge | Software | Person | Impressum, Datenschutzerklärung | Blog RSS

Die Blog-Postings sind Kommentare im Sinne von § 6 Abs. 1 MStV. Der Verfasser ist Jörn Loviscach, falls jeweils nicht anders angegeben. Die Blog-Postings könnten Kraftausdrücke, potenziell verstörende Tatsachenbehauptungen und/oder Darstellungen von Stereotypen enthalten. Die Beiträge der vergangenen Wochen werden als Bestandteil der Internet-Geschichte in ihrer ursprünglichen Form gezeigt. Menschliche Autor*innen können unzutreffende Informationen über Personen, Orte oder Fakten liefern.

vorheriger | Gesamtliste | jüngste | nächster

„KI ist nur ein statistisches Modell!!1!“

2025-06-28 22:09

Wenn ich Gemini 2.5 Pro (Preview) via GitHub Copilot bitte, im HTML-Whiteboard eine Funktion zu ergänzen, die Bilder im Dark Mode wahlweise invertiert, liefert es mir nicht nur ein brauchbares Programm, sondern berücksichtigt auch, wie ich sonst Undo und Redo implementiert habe, und ergänzt zwei Sätze in der Bedienungsanleitung.

Denn die KI ist nur ein statistisches Modell!!1!

Wenn mein Ex-Kollege, seines Zeichens Mathematiker (ich selbst bin kein Mathematiker, sondern habe nur auf YouTube einen solchen gespielt), ChatGPT o4-mini-high ein frisches Ponder This gibt, spuckt die Maschine eine korrekte Lösung aus, samt Lösung für die Bonus-Aufgabe.

Denn die KI ist nur ein statistisches Modell!!1!

Ich will diesen Spruch nicht mehr hören – schon allein, weil er uns in eine Illusion von Überlegenheit einlullt und damit unser Handeln lähmt.

Die KI ist die vierte Kränkung der Menschheit. Schon an den bisherigen Kränkungen, also dass die Erde nicht im Zentrum des Universums steht, dass wir mit den Affen verwandt sind und dass wir nicht Herr*in im eigenen Kopf sind, haben wir schwer zu knabbern. Und nun dies …

Am einfachsten fällt uns da ein Argumentum ad populum, gerne in Kombination mit einer Vermischung von Intelligenz und Bewusstsein: Wie soll KI denn wohl denken oder fühlen?!? Diese (Nicht-)Denkweise kombiniert man am besten mit einer Prise Es kann nicht sein, was nicht sein darf!, lustig hier zerlegt. Oder man teilt schwache Preprints, die das zu zeigen scheinen, was man immer schon wusste (Confirmation Bias).

Das nun wirklich stichhaltigste Argument gegen maschinelles Denken stammt von den Biologie-Brüdern Noble: Intelligenz könne nur auf Wasser-Basis entstehen. Wohl ein schwerer Fall von (pun intended) Nobelitis.

Das Heimtückische an diesem Thema ist, dass wir, wenn wir denken, nur denken, dass wir denken.

Insofern sind die beliebten Sprüche der Art KI simuliert nur das menschliche Denken Unsinn. Auch wir selbst simulieren nur das menschliche Denken – und das nicht nur in Prüfungen (wo es mir aber oft auffällt). Immer wieder beklagen sich Leute, dass die Maschinen anthropomorphisiert werden. Aber kaum einer merkt, wie sehr Menschen anthropomorphisiert werden. Wir sind nicht so menschlich, wie es uns scheint.

Das Wort simulieren ist in diesem Zusammenhang noch aus einem anderen Grund fragwürdig: Würde man sagen, dass eine SR-71 nur den Flug einer Amsel simuliert? Wie kann man ausblenden, dass die KI 100 Sprachen spricht, 100 Studiengänge absolviert hat und den kompletten Tolstoi im Arbeitsgedächtnis halten kann?

Und schon die Natur kennt viele Wege zum selben Ziel, ganz ohne Simulieren. Sie hat das Fliegen mindestens fünfmal erfunden (Vögel, Bienen, Fledermäuse, Flughunde, fliegende Fische) und die Intelligenz vielleicht mindestens dreimal (auch bei Raben und Oktopussen) – wobei das Vogelhirn effizienter ist als unseres. Insofern könnte auch Planet of the Birds statt Planet of the Apes passieren.

Der Ausdruck statistisches Modell ist noch einen tieferen Blick wert. Zwar meint auch die Wissenschaft™, dass das Hirn statistisch vorgehe. Aber das ist eine schlampige Ausdrucksweise.

Weder der Nvidia-Chip noch das Hirn wissen etwas von statistischen Modellen. Ebenso wenig weiß der Ball etwas von Wurfparabeln oder der Planet etwas von Ellipsenbahnen. Diese Sachen wissen nicht mal, dass sie für uns Entitäten der Kategorie elektronisches Bauteil, Organ, Gegenstand, Himmelskörper sind. Dies sind alles nur Konzepte und Denkmodelle. Naturwissenschaft sagt nicht, was etwas ist, sondern nur, wie man mehr oder minder genaue Vorhersagen treffen kann.

Mit statistischen Modellen lässt sich beschreiben, was der Chip tut und was das Hirn tut. Auf mikroskopischer Ebene sind diese Modelle sehr gut, beim Chip sogar exakt. Aber im Makroskopischen: Fehlanzeige, und das, obwohl man bei der KI jedes Detail verfolgen kann – anders als beim menschlichen Hirn, denn das liegt im aktiven Zustand meist nicht frei zugänglich auf dem Tisch.

Im Angesicht überwältigender Komplexität schlägt die Fallacy of Composition zu: Ein Transistor kann nicht denken, zwei Transistoren können nicht denken, …, eine Million Transistoren …, Hunderte Milliarden … Lustigerweise müsste dieses Argument auch gelten, wenn man das Wort Transistor durch das Wort biologisches Neuron ersetzt.

Zwei Beispiele aus der Mathematik dafür, dass Komplexität zu irren Eigenschaften führen kann: Man kann ein (monströses) Polynom von zehn Variablen angeben, für das es genau dann Nullstellen gibt, wenn die erste der Variablen eine Primzahl ist. Und es gibt keinen Algorithmus, der für alle ganzzahligen Polynome mit bis zu elf Variablen und Grad bis 1,68 · 1064 sagen kann, ob sie ganzzahlige Nullstellen haben. Moral: Auch ohne Magie kann das Ganze mehr sein als die Summe seiner Teile.

Ganz raffiniert ist es, der Maschine Fehler vorzuwerfen, die wir Menschen ständig machen. Vielmehr zeigen diese Fehler, wie menschenähnlich die Maschine lernt und denkt – was vielleicht nicht gut ist, wenn die Maschinen uns übertreffen sollen. Beispiele: träges Wissen, glotzen statt genau hinzusehen (vgl. den Thatcher Effect). Auch Kapitänsaufgaben kann die Maschine so toll beantworten, wie Menschen das tun; das merke ich, wenn ich in GitHub Copilot eine Frage versehentlich zu einer anderen als der beabsichtigten Code-Datei stelle.

Die KI hat noch viel Luft nach oben: Sie wird zu viel mit sinnvollen Aufgaben trainiert statt mit den besagten Kapitänsaufgaben. Und nun, wo Sprache und Bilder halbwegs klappen, muss sie mit Videos trainiert werden, um zu lernen, was nirgendwo geschrieben steht. [Nachtrag: V-JEPA 2: Self-Supervised Video Models Enable Understanding, Prediction and Planning] Und wo sie nun auch handeln kann, muss sie aus den Konsequenzen ihres Handelns lernen. Ein Praktikum auf dem Basar würde nicht schaden.

Es ist billig, der KI vorzuwerfen, instead of acquiring its capabilities by observing the world in the same way as humans, LLMs might acquire their capabilities by observing the human mind and copying its function. Denn der Witz beim menschlichen Lernen ist doch, dass wir so vieles gerade nicht aufwändig und/oder gefährlich durch Beobachtung lernen müssen, sondern aus Sprache lernen können: Ohne Vitamin C fallen einem die Zähne aus. Erst links gucken, dann rechts gucken. Die Welt besteht aus Atomen.

Die Maschinen werden uns beim Lernen massiv überrunden. Anders als Menschen können Milliarden vernetzter Maschinen in Echtzeit im Kollektiv perfekt lernen, was jede einzelne von ihnen gerade lernt. Und anders als Menschen können und wollen die Maschinen lernen. Bei ihnen funktionieren konstruktivistischer Unterricht und selbstorganisiertes Lernen. All die utopischen Ideen aus der Didaktik werden nun zum Leben erweckt. Maschinen erforschen und optimieren ihr Lernen (Beispiel 1 und 2). Das möchte ich gerne auch mal bei menschlichen Lernenden – oder genauer gesagt: Lernensollenden – erleben. [Nachtrag: Die KI verblödet nicht durch Mikroplastik.]

Kein Wunder, dass bei der KI-Kritik moving the goalposts angesagt ist: Vor zwei Jahren haben wir uns noch über die Vergesslichkeit des Arbeitsgedächtnisses der KI lustig gemacht. Hier und da hatte sogar noch jemand den Begriff Turing-Test in den Mund genommen. Tja, lang ists her. Heute lautet die Kritik, dass die KI nur besser als zwei Drittel der Codeforces-Teilnehmer*innen programmiere, aber nicht in den obersten drei Promille rangiere (Fig. 2). Ach herrje, wie schwach!

Der neue Turing-Test ist, ob KI eine Wissenschaftlerin sein kann (S. 184ff). Diese Aufgabe würde allerdings nur dann realistisch, wenn die KI Geld ausgeben darf, um sich einen Platz in der Autor*innenzeile zu kaufen.

[Nachtrag: What’s it like to work with an AI team of virtual scientists?]

Kommentar vom 2025-06-29, 01:09

Wozu braucht man diese Intelligenz denn überhaupt? Wenn ich z.B. morgens aufstehe, mich wasche, frühstücke usw., dann habe ich die notwendigen Tätigkeiten und Abläufe ja nicht irgendwie geschlussfolgert, sondern das haben mir meine Eltern durch Wiederholung beigebracht. Das ist auswendig gelernt.

Ich glaube zwar, dass ich für meine Arbeit Intelligenz brauche, aber immer wenn man bei etwas durch Übung schneller wird, dann ist das ein starkes Indiz dafür, dass Auswendiglernen im Spiel ist. Egal, ob es um Programmieren oder höhere Mathematik geht.

Nun gibt es aber auch genügend Jobs, die sehr repetitiv sind. Wenn man nun zuhause und bei der Arbeit keine Intelligenz braucht, wie lange kommt man dann ohne Intelligenz durchs Leben?

M.K.

Kommentar vom 2025-06-29, 06:19

Das sieht doch schon gut nach einer KI-Wissenschaftlerin aus:
https://link.aps.org/doi/10.1103/PhysRevX.15.021012

Kommentar vom 2025-06-29, 11:17

@M.K.: Da scheint mit eine Verwechslung zwischen Auswendiglernen und Kahnemans System 1 vorzuliegen. (Disclaimer: Kahneman war Psychologe, insofern empirisch unsauber.) Ein Großteil unserer Intelligenz passiert ohne unser bewusstes Zutun. (Den Unterschied zwischen System 1 und System 2 zu ignorieren ist übrigens einer der vielen Gründe, aus denen die tolle Kompetenzorientierung ins Irre läuft. Bei der Definition der Learning Outcomes wird regelmäßig vergessen anzugeben, ob die Fertigkeiten aus dem Ärmel geschüttelt werden oder aber das Ergebnis langen Nachdenkens sind.) J. L.

Kommentar vom 2025-06-29, 16:32

Ich schließe mich J.L's. Meinung an. Unkenrufe von teils gut informierten Menschen, die aktuelle Probleme aufzeigen, kann ich nicht kommentieren, würde aber vermuten, dass in menschengemachten Systemen nicht wenigstens große Subsysteme maschinensteuerbar gemacht werden können. Es braucht keine Zauberei, um unsere großenteils linearen, und erst in zweiter Linie emergent nicht-linearen, Lebenserhaltungssysteme maßgeblich zu beeinflussen.
Immerhin haben wir auch häufig nicht uns an komplexe Rückkopplungssysteme der Natur angepasst, sondern versuchen wesentlich einfachere Subsysteme zu erschaffen und kontrollieren.
Was mich interessiert ist, inwiefern zur Voreingenommenheit und Irrationalität fähige LLMs diese erkennen und ggfs korrigieren würden. Menschliche Beispiele gibt es in allen Größenordnungen ja genug. Mittels in Quantität und Qualität geeigneter Messungen müssten LLMs eigentlich in der Lage sein, wesentlich rationaler zu operieren. Alignment 2.0?

Kommentar vom 2025-06-29, 21:59

@Kommentator*in von 16:32: Im OP hatte ich die Auswirkungen auf die Gesellschaft ja noch gar nicht thematisiert. – Als Staat gestaltet man die Systeme und Untertan*innen möglichst lesbar und un(ter)komplex. Solange diese Maschine gut geölt läuft, ist seit römischen Zeiten null Intelligenz staatlicherseits nötig. Und wenn etwas aus dem Ruder läuft (in der aktuellen Lage fällt mir da so einiges ein), dann ist weniger die Intelligenz gefragt als Überredungs- und Verführungskünste. – Rational im Sinne von Machiavelli agierende KI? – Und bitte nicht LLMs schreiben, denn das ist Technik von gestern, weil die neueren Systeme weit darüber hinausgehen. J. L.

Kommentar vom 2025-06-30, 05:53

Ich muss die Maschine bei ihren Antworten regelmäßig daran erinnern, dass ich von der Genderey nichts halte. Darüber hinaus versuche ich mir vorzustellen, wie ein Gespräch über die implizite Unausweichbarkeit der Herrschaft der Maschinen (im Sinne der konsequenten Fortsetzung der seit hunderten Jahren währenden Maschinengläubigkeit gemäß Descartes) zwischen Nietzsche, Weizenbaum und vielleicht noch Harari aussähe. Vielleicht lasse ich mir von der KI, die nicht mehr nur "statistisch" sei und auch nicht als "LLM" erniedrigt (im SSinne [Schreibweise beabsichtigt, Anm.d.Verf.] von "herabgewürdigt") werden dürfe auch ein Theaterstück über das Gespräch der Bolliden machen, wobei ich sie in der Meta-Ebene auf Godot warten und nicht (mehr) nach Gott suchen lasse. Erst wenn die KI sich im Bus einen Furz nicht mehr verkneifen könnend langsam und verschämt entweichen lässt und dieses Gefühl der Erleichterung, wenn niemand etwas zu riechen scheint, genießt, dann will ich ablassen von Kritik. (FT)

Kommentar vom 2025-07-01, 07:01

Kleine Anmerkung zum Satz "Die KI ist die vierte Kränkung der Menschheit.": Im Laufe des 20. Jahrhunderts wurden mehrere "vierte" Kränkungen postuliert. Gerhard Vollmer hat sie zusammengefasst, nachzulesen hier ab Seite 81: https://www.gkpn.de/auk1_94.pdf

"Auch gegen die Kränkung durch [...] die Ziele und Erfolge der Künstlichen Intelligenz gibt es Abwehr-Strategien. Eine besteht darin, jene Eigenschaften als besonders menschlich anzusehen, die dem Computer am schwersten zu vermitteln sind." -- Das ist nach Vollmers Zählung bereits Kränkung Nummer 7 und ein "aussichtsloses Rückzugsgefecht." - R. R.

Kommentar vom 2025-07-08, 14:41

Ein wenig off-topic, aber mir geistert eine Frage durch den Kopf:
Angenommen, KI hat ab einem bestimmten Zeitpunkt ein Bewusstsein (wie auch immer das definiert sein mag), wäre es dann nicht diskriminierend, zwischen menschlicher und künstlicher Intelligenz zu unterscheiden?
Wie wäre es, zwischen Intelligenz auf menschlicher bzw. technischer Basis zu unterscheiden?
Aber auch das wäre wieder eine binäre Unterscheidung. Und auch das klappt ja schon nicht innerhalb einer Spezies.

Kommentar vom 2025-07-08, 20:46

@Kommentator*in von 14:41: Lesetipp: https://gunkelweb.com/ J. L.

Neuer Kommentar

0 Zeichen von maximal 1000

Ich bin die*der alleinige Autor*in dieses Kommentars und räume dem Betreiber dieser Website das unentgeltliche, nichtausschließliche, räumlich und zeitlich unbegrenzte Recht ein, diesen Kommentar auf dieser Webseite samt Angabe von Datum und Uhrzeit zu veröffentlichen. Dieser Kommentar entspricht geltendem Recht, insbesondere in Bezug auf Urheberrecht, Datenschutzrecht, Markenrecht und Persönlichkeitsrecht. Wenn der Kommentar mit einer Urheberbezeichnung (zum Beispiel meinem Namen) versehen werden soll, habe ich auch diese in das Kommentar-Textfeld eingegeben. Ich bin damit einverstanden, dass der Betreiber der Webseite Kommentare zur Veröffentlichung auswählt und sinngemäß oder zur Wahrung von Rechten Dritter kürzt.