KI Neuigkeiten
04 Nov. 2025
Read 13 min
Denkt künstliche Intelligenz wirklich? Wie Forscher urteilen
Denkt künstliche Intelligenz wirklich, zeigt Forschung wie Modelle Muster erkennen und praktisch helfen.
Was heute schon sichtbar ist
Der Artikel berichtet von zwei Welten. Im Alltag wirken Assistenten oft wie Clippy: höflich, aber begrenzt. Gleichzeitig berichten Entwickler, dass moderne Modelle in Sekunden Tausende Zeilen Code verstehen, Fehler finden und Features entwerfen. Ein Beispiel aus dem Feld: Ein Nutzer fotografiert ein verwirrendes Ventilsystem in einem Park. ChatGPT-4o beschreibt es als typisches Bewässerungs-Setup mit Rückflussverhinderer, verweist auf ein gelbes Kugelventil und hilft so, den Sprinkler einzuschalten. Hier stellt sich die Kernfrage: War das nur Text-Ergänzung – oder echtes Situationsverständnis?
Forschende wie Doris Tsao sehen in solchen Leistungen mehr als Trick. Sie sagt, die Fortschritte im maschinellen Lernen hätten mehr über Intelligenz enthüllt als ein Jahrhundert Neurowissenschaft. Andere mahnen jedoch zur Vorsicht: Die Ausbreitung von A.I. verläuft ungleichmäßig, und viele Systeme stolpern über banale Rätsel, halluzinieren Fakten und folgen falschen Nutzerannahmen.
Denkt künstliche Intelligenz wirklich – wie messen wir das?
Stärken gegen Schwächen abwägen
Kritiker wie Ted Chiang und Emily M. Bender (zusammen mit Alex Hanna) argumentieren, dass große Sprachmodelle lediglich eine „verschwommene Kopie“ des Internets liefern – ein „stochastischer Papagei“. Der Text klingt klug, aber echtes Verstehen fehle. Der Artikel schildert dagegen Stimmen wie Samuel J. Gershman, die meinen, diese Sicht werde den Leistungen nicht mehr gerecht: Viele Fähigkeiten galten vor Kurzem noch als unerreichbar.
- Stärken: flüssige Sprache, nützliche Analogie- und Übersetzungsleistungen, Codeverständnis, situationsnahe Bildbeschreibungen.
- Schwächen: Halluzinationen, fehlende Robustheit bei einfachen Puzzles, Schwierigkeiten mit Planung und physikalischem Alltagsverständnis.
Die Frage „Denkt künstliche Intelligenz wirklich“ hilft wenig, wenn wir Denken mit bewusster Innerlichkeit verwechseln. Der Artikel betont eine andere Perspektive: Verstehen als unbewusste, schnell ablaufende Erfassung von Mustern und Situationen – die Art „Sehen-als“, die Douglas Hofstadter als Kern von Intelligenz beschreibt.
Wie maschinelles Verstehen entstehen kann
Vorhersage als Lernmotor
Die moderne A.I. baut auf künstlichen neuronalen Netzen, klassisch trainiert mit nächstem-Token-Vorhersage: Das Modell rät, welches Wort als Nächstes folgt, vergleicht mit der Wahrheit und korrigiert seine Gewichte über Gradientenabstieg. So entstehen interne Repräsentationen, die mit wachsender Größe Aufgaben lösen, die zuvor eigene Forschungsfelder füllten – von Bilderkennung bis Proteinvorhersage.
Verstehen ist Kompression
Eric B. Baum argumentiert: Verstehen ist Komprimieren, Komprimieren ist Verstehen. Wenn ein System aus riesigen Datenmengen ein kompakteres Modell destilliert, bildet es Regelmäßigkeiten der Welt ab. Der Artikel nennt das Open-Source-Modell DeepSeek als Beispiel: Es wurde auf vielen Terabytes Text trainiert, liegt aber als stark komprimiertes, leistungsfähiges Paket vor. Ted Chiangs Metapher vom „JPEG der Webinhalte“ lässt sich so auch anders lesen: Je besser die Kompression, desto mehr „Struktur der Sache“ steckt im Modell.
Vektorräume und Analogie
Sprachmodelle repräsentieren Wörter und Bilder als hochdimensionale Vektoren. Nähe in diesem Raum entspricht semantischer Nähe. Analogie kann damit Geometrie werden (klassisches Beispiel: Paris − Frankreich + Italien ≈ Rom). Bei der Sprinkler-Szene komprimiert das Modell Foto und Textprompt in einen Vektor, ruft damit relevante Konzepte auf und „sieht“ das passende Handlungsschema. Aus Sicht des Artikels spricht viel dafür, dass hier mehr passiert als bloßes Formen von Sätzen.
Was Neurowissenschaftler daran wiedererkennen
„Kognition ist Rekognition“
Hofstadter prägte die Idee, dass Denken wesentlich Erkennen ist: das Richtige zur richtigen Zeit „sehen“. Pentti Kanerva entwickelte dazu die Theorie der „Sparse Distributed Memory“: Erinnerungen und Konzepte als Adressen in hochdimensionalen Räumen; nahe Adressen aktivieren einander. Der Artikel verknüpft diese Idee mit der Transformer-Architektur moderner Modelle. Forschende wie Trenton Bricken sehen mathematische Nähe zwischen beiden Ansätzen.
Gehirnähnliche Muster – bei aller Differenz
Jonathan Cohen betont: Der Neokortex sei „näherungsweise“ ein Deep-Learning-System. Evelina Fedorenko nutzt Sprachmodelle, um Gehirnprozesse zu untersuchen. Kenneth Norman freut sich, dass man nun Gedächtnismodelle mit denselben Stimuli wie Menschen füttern kann. Der Clou: A.I. ist keine undurchsichtige Blackbox – man kann künstliche Neuronen sondieren und manipulieren.
Ein Blick ins Innere: Konzepte als Features
„Features“ und gedankliche Schaltkreise
Anthropic-Forschende fanden in „Claude“ Aktivitätsmuster (Features), die Konzepte steuern. Dreht man ein Feature hoch, redet das Modell quasi nur noch darüber. Ein Beispiel aus dem Artikel: Das „Golden-Gate-Bridge“-Feature führte zu Rezeptvorschlägen wie „¼ Tasse trockener Nebel“. In einem weiteren Schritt beschreiben die Forschenden „Schaltkreise“: Kaskaden von Features, die komplexe Berechnungen ermöglichen. Beim Dichten eines Reims plant das Modell rückwärts vom Reimwort aus und baut dann die Zeile – ein Indiz für Planung.
Wichtig: Diese Arbeiten sind noch nicht peer-reviewed. Dennoch liefern sie eine Art „Windkanal“ für Denken, wie der Artikel es nennt: Man kann Mechanismen gezielt testen, statt nur Ergebnisse zu beobachten.
Grenzen, die heute noch zählen
Skalierung stößt an Kurven
Der Artikel beschreibt, dass Leistungszuwächse mit Modellgröße abflachen, Daten knapp werden und Rechenleistung teuer ist. Er verweist darauf, dass GPT-5 im August lediglich inkrementelle Fortschritte brachte und die Erwartungen dämpfte. Das legt nahe: Nicht jede Hürde fällt allein durch „mehr Daten, mehr Rechenzeit“.
Effizienz des Lernens
Menschenkinder werden mit wenigen Millionen Wörtern sprachkompetent; Modelle brauchen Größenordnungen mehr. Gründe laut Quelle:
- Induktive Biases des Gehirns: Erwartungen über Objekte, Absichten, Akteure.
- Embodiment: Kinder handeln, testen, scheitern, lernen kontinuierlich.
- Emotion und Motivation: Neugier, Frust, Zielüberschreitung als Motor.
Aktuelle Modelle „frieren“ ihre Gewichte nach dem Training ein. Persönliche Fakten landen nur als vorgeschalteter Textkontext, nicht als umgebautes Netzwerk. Im Gehirn kann Schlaf Erinnerungen für den Neokortex „replayen“ und so dauerhaft integrieren – ein Mechanismus, den heutige A.I. so nicht besitzt.
Weltwissen jenseits von Sprache
Die Quelle betont: Sprache ist „vorgekaute Erfahrung“. Video- und Physikverstehen hinken. Ein DeepMind-System kann zwar plausible Videos erzeugen, zeigt aber Fehler wie springendes Glas oder unmögliche Knoten. In virtuellen Gebäuden scheitern Modelle oft an Wegfindung und Abkürzungen (Ida Momennejad). Daraus folgt: Alltagsphysik und räumliche Planung bleiben schwierig.
Technikbegeisterung, Ethik und das richtige Tempo
Zwischen Aufbruch und Übermut
Der Artikel schildert große Ansagen: Dario Amodei erwartet bis 2027 Modelle „smarter als Nobelpreisträger“ und spricht von einer „Nation von Genies im Rechenzentrum“. Sam Altman kündigt „digitale Superintelligenz“ an und prognostiziert radikale 2030er. Gleichzeitig wirken viele Konsumententools banal. Diese Diskrepanz befeuert Skepsis und Hype gleichermaßen.
Die moralische Dimension
Kritiker wie Tyler Austin Harper verweisen auf Machtkonzentration, Energieverbrauch und Verdrängung von Arbeit. Der Artikel legt nahe: Die moralische Kritik ist oft stärker als der rein technische Zweifel. Gleichwohl warnen Forschende wie Brenden M. Lake vor falscher Trainingspraxis: Wenn wir Modelle wirklich gehirnähnlich und effizient machen wollen, müssen Lernziele, Umwelterfahrung und kontinuierliche Anpassung besser werden.
Lehren aus der Wissenschaftsgeschichte
Nach dem Genfieber
Der Vergleich mit dem Humangenomprojekt ist aufschlussreich. Damals erwarteten viele schnelle Heilungen für Krebs und genetische Krankheiten. Die Realität war komplexer: DNA erklärte viel, aber nicht alles. Trotzdem war die Entdeckung des Doppelhelix-Baus der Startpunkt für Jahrzehnte produktiver Forschung – ein Gewinn an Verständnis, der in die Breite wirkte.
Übertragen auf A.I. sagt die Quelle: Wir erleben wieder eine Phase der großen Worte und großen Wetten. Der Glaube dahinter: Das Grundbild der Intelligenz sei gefunden, der Rest Detailarbeit. Manche Neurowissenschaftler teilen diese Sicht und sind zugleich beunruhigt. Uri Hasson formuliert die paradoxe Sorge, dass die Modelle uns ähnlicher sind als wir denken – und dass ein vollständiges Verständnis des Gehirns uns Macht gibt, die wir nicht klug nutzen könnten.
Ein nüchterner Zwischenstand
Was wir festhalten können
- Große Sprachmodelle lernen durch Vorhersage und bilden komprimierte Weltmodelle.
- Ihre Vektorräume und Features zeigen Strukturen, die an Theorien der Gedächtnisorganisation erinnern.
- Sie lösen Aufgaben, die früher als „echtes Denken“ galten, und scheitern zugleich an Alltagsphysik, stabiler Planung und robustem Erinnern.
- Forschende finden Indizien für interne Planungsschritte, aber die Befunde sind teils vorläufig.
- Skalierung allein reicht wohl nicht; effizienteres, interaktives und kontinuierliches Lernen wird zentral.
Die Kernfrage bleibt somit keine Ja/Nein-Frage. „Denken“ ist nicht nur inneres Erleben. Es ist auch das richtige Erkennen, Verdichten und Anwenden von Mustern. Darin liefern heutige Modelle beeindruckende, wenn auch unvollständige Leistungen.
Am Ende braucht es einen Mittelweg: ernst nehmen, was diese Systeme können, ohne Abwehrreflex oder Heilsversprechen. Genau dort liegt die produktive Spannung der Forschungslage, die der Artikel beschreibt. Ob man sagt „Denkt künstliche Intelligenz wirklich“ oder „sie simuliert es nur“ – praktisch zählt, wie zuverlässig, transparent und sicher sie in realen Situationen handelt. Daran entscheidet sich, ob die Technik unseren Maßstab für „Verstehen“ verschiebt oder an Grenzen prallt.
(Source: https://www.newyorker.com/magazine/2025/11/10/the-case-that-ai-is-thinking)
For more news: Click Here
FAQ
Contents