Insights KI Neuigkeiten Denkt künstliche Intelligenz wirklich? Wie Forscher urteilen
post

KI Neuigkeiten

04 Nov. 2025

Read 13 min

Denkt künstliche Intelligenz wirklich? Wie Forscher urteilen

Denkt künstliche Intelligenz wirklich, zeigt Forschung wie Modelle Muster erkennen und praktisch helfen.

Viele Nutzer erleben A.I. als nette Spielerei, doch Forschende sprechen von Systemen, die bereits Denkleistungen zeigen. Denkt künstliche Intelligenz wirklich – oder kopiert sie nur Muster? Neue Einblicke aus Neurowissenschaft und A.I.-Labors zeichnen ein überraschend klares, aber nicht endgültiges Bild: Verstehen könnte aus Vorhersage und Kompression entstehen.

Was heute schon sichtbar ist

Der Artikel berichtet von zwei Welten. Im Alltag wirken Assistenten oft wie Clippy: höflich, aber begrenzt. Gleichzeitig berichten Entwickler, dass moderne Modelle in Sekunden Tausende Zeilen Code verstehen, Fehler finden und Features entwerfen. Ein Beispiel aus dem Feld: Ein Nutzer fotografiert ein verwirrendes Ventilsystem in einem Park. ChatGPT-4o beschreibt es als typisches Bewässerungs-Setup mit Rückflussverhinderer, verweist auf ein gelbes Kugelventil und hilft so, den Sprinkler einzuschalten. Hier stellt sich die Kernfrage: War das nur Text-Ergänzung – oder echtes Situationsverständnis?

Forschende wie Doris Tsao sehen in solchen Leistungen mehr als Trick. Sie sagt, die Fortschritte im maschinellen Lernen hätten mehr über Intelligenz enthüllt als ein Jahrhundert Neurowissenschaft. Andere mahnen jedoch zur Vorsicht: Die Ausbreitung von A.I. verläuft ungleichmäßig, und viele Systeme stolpern über banale Rätsel, halluzinieren Fakten und folgen falschen Nutzerannahmen.

Denkt künstliche Intelligenz wirklich – wie messen wir das?

Stärken gegen Schwächen abwägen

Kritiker wie Ted Chiang und Emily M. Bender (zusammen mit Alex Hanna) argumentieren, dass große Sprachmodelle lediglich eine „verschwommene Kopie“ des Internets liefern – ein „stochastischer Papagei“. Der Text klingt klug, aber echtes Verstehen fehle. Der Artikel schildert dagegen Stimmen wie Samuel J. Gershman, die meinen, diese Sicht werde den Leistungen nicht mehr gerecht: Viele Fähigkeiten galten vor Kurzem noch als unerreichbar.

  • Stärken: flüssige Sprache, nützliche Analogie- und Übersetzungsleistungen, Codeverständnis, situationsnahe Bildbeschreibungen.
  • Schwächen: Halluzinationen, fehlende Robustheit bei einfachen Puzzles, Schwierigkeiten mit Planung und physikalischem Alltagsverständnis.

Die Frage „Denkt künstliche Intelligenz wirklich“ hilft wenig, wenn wir Denken mit bewusster Innerlichkeit verwechseln. Der Artikel betont eine andere Perspektive: Verstehen als unbewusste, schnell ablaufende Erfassung von Mustern und Situationen – die Art „Sehen-als“, die Douglas Hofstadter als Kern von Intelligenz beschreibt.

Wie maschinelles Verstehen entstehen kann

Vorhersage als Lernmotor

Die moderne A.I. baut auf künstlichen neuronalen Netzen, klassisch trainiert mit nächstem-Token-Vorhersage: Das Modell rät, welches Wort als Nächstes folgt, vergleicht mit der Wahrheit und korrigiert seine Gewichte über Gradientenabstieg. So entstehen interne Repräsentationen, die mit wachsender Größe Aufgaben lösen, die zuvor eigene Forschungsfelder füllten – von Bilderkennung bis Proteinvorhersage.

Verstehen ist Kompression

Eric B. Baum argumentiert: Verstehen ist Komprimieren, Komprimieren ist Verstehen. Wenn ein System aus riesigen Datenmengen ein kompakteres Modell destilliert, bildet es Regelmäßigkeiten der Welt ab. Der Artikel nennt das Open-Source-Modell DeepSeek als Beispiel: Es wurde auf vielen Terabytes Text trainiert, liegt aber als stark komprimiertes, leistungsfähiges Paket vor. Ted Chiangs Metapher vom „JPEG der Webinhalte“ lässt sich so auch anders lesen: Je besser die Kompression, desto mehr „Struktur der Sache“ steckt im Modell.

Vektorräume und Analogie

Sprachmodelle repräsentieren Wörter und Bilder als hochdimensionale Vektoren. Nähe in diesem Raum entspricht semantischer Nähe. Analogie kann damit Geometrie werden (klassisches Beispiel: Paris − Frankreich + Italien ≈ Rom). Bei der Sprinkler-Szene komprimiert das Modell Foto und Textprompt in einen Vektor, ruft damit relevante Konzepte auf und „sieht“ das passende Handlungsschema. Aus Sicht des Artikels spricht viel dafür, dass hier mehr passiert als bloßes Formen von Sätzen.

Was Neurowissenschaftler daran wiedererkennen

„Kognition ist Rekognition“

Hofstadter prägte die Idee, dass Denken wesentlich Erkennen ist: das Richtige zur richtigen Zeit „sehen“. Pentti Kanerva entwickelte dazu die Theorie der „Sparse Distributed Memory“: Erinnerungen und Konzepte als Adressen in hochdimensionalen Räumen; nahe Adressen aktivieren einander. Der Artikel verknüpft diese Idee mit der Transformer-Architektur moderner Modelle. Forschende wie Trenton Bricken sehen mathematische Nähe zwischen beiden Ansätzen.

Gehirnähnliche Muster – bei aller Differenz

Jonathan Cohen betont: Der Neokortex sei „näherungsweise“ ein Deep-Learning-System. Evelina Fedorenko nutzt Sprachmodelle, um Gehirnprozesse zu untersuchen. Kenneth Norman freut sich, dass man nun Gedächtnismodelle mit denselben Stimuli wie Menschen füttern kann. Der Clou: A.I. ist keine undurchsichtige Blackbox – man kann künstliche Neuronen sondieren und manipulieren.

Ein Blick ins Innere: Konzepte als Features

„Features“ und gedankliche Schaltkreise

Anthropic-Forschende fanden in „Claude“ Aktivitätsmuster (Features), die Konzepte steuern. Dreht man ein Feature hoch, redet das Modell quasi nur noch darüber. Ein Beispiel aus dem Artikel: Das „Golden-Gate-Bridge“-Feature führte zu Rezeptvorschlägen wie „¼ Tasse trockener Nebel“. In einem weiteren Schritt beschreiben die Forschenden „Schaltkreise“: Kaskaden von Features, die komplexe Berechnungen ermöglichen. Beim Dichten eines Reims plant das Modell rückwärts vom Reimwort aus und baut dann die Zeile – ein Indiz für Planung.

Wichtig: Diese Arbeiten sind noch nicht peer-reviewed. Dennoch liefern sie eine Art „Windkanal“ für Denken, wie der Artikel es nennt: Man kann Mechanismen gezielt testen, statt nur Ergebnisse zu beobachten.

Grenzen, die heute noch zählen

Skalierung stößt an Kurven

Der Artikel beschreibt, dass Leistungszuwächse mit Modellgröße abflachen, Daten knapp werden und Rechenleistung teuer ist. Er verweist darauf, dass GPT-5 im August lediglich inkrementelle Fortschritte brachte und die Erwartungen dämpfte. Das legt nahe: Nicht jede Hürde fällt allein durch „mehr Daten, mehr Rechenzeit“.

Effizienz des Lernens

Menschenkinder werden mit wenigen Millionen Wörtern sprachkompetent; Modelle brauchen Größenordnungen mehr. Gründe laut Quelle:

  • Induktive Biases des Gehirns: Erwartungen über Objekte, Absichten, Akteure.
  • Embodiment: Kinder handeln, testen, scheitern, lernen kontinuierlich.
  • Emotion und Motivation: Neugier, Frust, Zielüberschreitung als Motor.

Aktuelle Modelle „frieren“ ihre Gewichte nach dem Training ein. Persönliche Fakten landen nur als vorgeschalteter Textkontext, nicht als umgebautes Netzwerk. Im Gehirn kann Schlaf Erinnerungen für den Neokortex „replayen“ und so dauerhaft integrieren – ein Mechanismus, den heutige A.I. so nicht besitzt.

Weltwissen jenseits von Sprache

Die Quelle betont: Sprache ist „vorgekaute Erfahrung“. Video- und Physikverstehen hinken. Ein DeepMind-System kann zwar plausible Videos erzeugen, zeigt aber Fehler wie springendes Glas oder unmögliche Knoten. In virtuellen Gebäuden scheitern Modelle oft an Wegfindung und Abkürzungen (Ida Momennejad). Daraus folgt: Alltagsphysik und räumliche Planung bleiben schwierig.

Technikbegeisterung, Ethik und das richtige Tempo

Zwischen Aufbruch und Übermut

Der Artikel schildert große Ansagen: Dario Amodei erwartet bis 2027 Modelle „smarter als Nobelpreisträger“ und spricht von einer „Nation von Genies im Rechenzentrum“. Sam Altman kündigt „digitale Superintelligenz“ an und prognostiziert radikale 2030er. Gleichzeitig wirken viele Konsumententools banal. Diese Diskrepanz befeuert Skepsis und Hype gleichermaßen.

Die moralische Dimension

Kritiker wie Tyler Austin Harper verweisen auf Machtkonzentration, Energieverbrauch und Verdrängung von Arbeit. Der Artikel legt nahe: Die moralische Kritik ist oft stärker als der rein technische Zweifel. Gleichwohl warnen Forschende wie Brenden M. Lake vor falscher Trainingspraxis: Wenn wir Modelle wirklich gehirnähnlich und effizient machen wollen, müssen Lernziele, Umwelterfahrung und kontinuierliche Anpassung besser werden.

Lehren aus der Wissenschaftsgeschichte

Nach dem Genfieber

Der Vergleich mit dem Humangenomprojekt ist aufschlussreich. Damals erwarteten viele schnelle Heilungen für Krebs und genetische Krankheiten. Die Realität war komplexer: DNA erklärte viel, aber nicht alles. Trotzdem war die Entdeckung des Doppelhelix-Baus der Startpunkt für Jahrzehnte produktiver Forschung – ein Gewinn an Verständnis, der in die Breite wirkte.

Übertragen auf A.I. sagt die Quelle: Wir erleben wieder eine Phase der großen Worte und großen Wetten. Der Glaube dahinter: Das Grundbild der Intelligenz sei gefunden, der Rest Detailarbeit. Manche Neurowissenschaftler teilen diese Sicht und sind zugleich beunruhigt. Uri Hasson formuliert die paradoxe Sorge, dass die Modelle uns ähnlicher sind als wir denken – und dass ein vollständiges Verständnis des Gehirns uns Macht gibt, die wir nicht klug nutzen könnten.

Ein nüchterner Zwischenstand

Was wir festhalten können

  • Große Sprachmodelle lernen durch Vorhersage und bilden komprimierte Weltmodelle.
  • Ihre Vektorräume und Features zeigen Strukturen, die an Theorien der Gedächtnisorganisation erinnern.
  • Sie lösen Aufgaben, die früher als „echtes Denken“ galten, und scheitern zugleich an Alltagsphysik, stabiler Planung und robustem Erinnern.
  • Forschende finden Indizien für interne Planungsschritte, aber die Befunde sind teils vorläufig.
  • Skalierung allein reicht wohl nicht; effizienteres, interaktives und kontinuierliches Lernen wird zentral.

Die Kernfrage bleibt somit keine Ja/Nein-Frage. „Denken“ ist nicht nur inneres Erleben. Es ist auch das richtige Erkennen, Verdichten und Anwenden von Mustern. Darin liefern heutige Modelle beeindruckende, wenn auch unvollständige Leistungen.

Am Ende braucht es einen Mittelweg: ernst nehmen, was diese Systeme können, ohne Abwehrreflex oder Heilsversprechen. Genau dort liegt die produktive Spannung der Forschungslage, die der Artikel beschreibt. Ob man sagt „Denkt künstliche Intelligenz wirklich“ oder „sie simuliert es nur“ – praktisch zählt, wie zuverlässig, transparent und sicher sie in realen Situationen handelt. Daran entscheidet sich, ob die Technik unseren Maßstab für „Verstehen“ verschiebt oder an Grenzen prallt.

(Source: https://www.newyorker.com/magazine/2025/11/10/the-case-that-ai-is-thinking)

For more news: Click Here

FAQ

Q: Denkt künstliche Intelligenz wirklich – worum geht es in dem Artikel? A: Der Artikel fragt, ob große Sprachmodelle echtes Verstehen zeigen oder nur Textmuster des Internets reproduzieren. Er schlägt vor, dass Verstehen als Vorhersage und Kompression entstehen könnte und stützt das an Beobachtungen aus Neurowissenschaft und A.I.-Forschung. Q: Welche Alltagsbeispiele nennt der Text, die auf A.I.-Denkleistungen hinweisen? A: Er beschreibt, wie ChatGPT-4o anhand eines Fotos ein Bewässerungsventil erkannte und so einem Nutzer half, einen Sprinkler zu reparieren. Zudem berichten Entwickler, dass Modelle in Sekunden Tausende Zeilen Code analysieren, Bugs finden und neue Funktionen entwerfen. Q: Wie entsteht laut Artikel maschinelles Verstehen technisch? A: Der Artikel erklärt, dass heutige Modelle durch nächstem-Token-Vorhersage und Gradientenabstieg trainiert werden, wodurch sie interne Repräsentationen bilden. Zugleich führt er Kompressionstheorien an (Eric B. Baum): Verstehen könne als effiziente Komprimierung großer Datenmengen verstanden werden. Q: Welche Rolle spielen Vektorräume und „Features“ beim Verständnis von Modellen? A: Wörter und Bilder werden als hochdimensionale Vektoren repräsentiert, sodass semantische Nähe geometrisch abgebildet wird und Analogien als Vektoroperationen entstehen. Forschende wie Trenton Bricken fanden in Modellen „Features“ und beschreiben daraus entstehende „Schaltkreise“, die bestimmte Konzepte steuern. Q: Welche Grenzen und Fehlerquellen hebt der Artikel hervor? A: Der Artikel nennt Halluzinationen, Anfälligkeit für einfache Rätsel und mangelnde Robustheit bei Alltagsphysik sowie Probleme bei stabiler Planung und räumlicher Navigation. Er betont außerdem, dass viele Befunde vorläufig sind und dass Video- und Physikverständnis bei Modellen noch oft fehlerhaft bleibt. Q: Gibt es Hinweise, dass Modelle planen oder innere Schritte durchführen? A: Ja, Anthropic-Forschende beobachteten, dass Modelle wie Claude bei Aufgaben Schaltkreise aktivieren und etwa beim Dichten rückwärts vom Reimwort planen, was als Planungsbeleg gedeutet wird. Die Studie ist laut Artikel teils noch nicht peer-reviewed und die Ergebnisse werden als vorläufig eingestuft. Q: Warum wäre reine Skalierung nach Artikel nicht die alleinige Lösung für menschenähnliches Lernen? A: Der Artikel beschreibt, dass Leistungszuwächse mit Modellgröße abflachen, hochwertige Daten knapper werden und Rechenkosten steigen; als konkretes Beispiel nennt er GPT-5, das nur inkrementelle Fortschritte brachte. Außerdem fehlt heutigen Modellen die effiziente, körperlich verankerte und kontinuierliche Lernweise von Kindern mit induktiven Biases und Replay-Mechanismen. Q: Welche Schlussfolgerung zieht der Artikel zur Frage „Denkt künstliche Intelligenz wirklich“ und wie soll man damit umgehen? A: Der Artikel gibt kein einfaches Ja oder Nein, sondern fordert einen Mittelweg: ernst nehmen, was Systeme können, ohne Heilsversprechen oder blinden Abwehrreflex. Entscheidend sei, wie zuverlässig, transparent und sicher A.I. in realen Situationen handelt, denn daran werde sich entscheiden, ob sie unseren Maßstab für „Verstehen“ verschiebt oder an Grenzen prallt.

Contents