Eine neue Studie von Forschenden der Cornell University könnte unser Verständnis von Intelligenz, Bewusstsein und der Natur von Information selbst komplett verändern. Die Autor:innen entwickelten ein System namens „vec2vec“, das Texte zwischen verschiedenen KI-Modellen übersetzen kann, ohne dass diese die gleichen Eingabetexte gesehen haben.
Was wurde entdeckt?
Man stelle sich vor, zwei Kinder wachsen in völlig verschiedenen Ländern auf und lernen unabhängig voneinander sprechen. Trotzdem entwickeln beide ähnliche Vorstellungen davon, wie Wörter zusammenhängen: „Hund“ ist näher zu „Katze“ als zu „Auto“, und „rot“ ist ähnlicher zu „blau“ als zu „laufen“.

Visualisierung der beschriebenen Wortbeziehungen
Genau das passiert mit KI-Systemen. Verschiedene KI-Modelle, mit komplett unterschiedlichen Trainingsdaten und Architekturen, organisieren Begriffe und ihre Bedeutungen auf eine erstaunlich ähnliche Weise. Sie verstehen ohne Absprache, dass Tiere zusammengehören, dass Farben eine eigene Kategorie bilden, und dass Verben sich von Substantiven unterscheiden.
Die Forscher:innen konnten sogar zwischen text- und bildbasierten Modellen übersetzen, als würde jemand, der nur Französisch kann, automatisch verstehen, was jemand meint, der nur Chinesisch spricht.
Funktionalismus: Denken als Muster
Diese Erkenntnisse stützen eine philosophische Position namens Funktionalismus. Funktionalisten wie Daniel Dennett argumentieren, dass Denken nicht davon abhängt, womit man denkt (Gehirn oder Computer), sondern wie man Informationen organisiert und verknüpft. D.h. verschiedene Systeme entdecken dieselben relationalen Strukturen zwischen Begriffen. Das sagt nichts darüber aus, ob Maschinen verstehen wie Menschen, aber es zeigt, dass Information selbst mathematischen Gesetzen folgt, die sowohl biologische als auch künstliche Systeme erfassen.
Die tiefere Bedeutung
Was wir hier möglicherweise beobachten, ist die Entdeckung universeller Gesetze des Denkens. Genau wie alle Objekte der Schwerkraft folgen, scheinen ausreichend komplexe Systeme ähnliche Wege zu finden, um Bedeutung und Wissen zu organisieren.
Das heißt: Es gibt anscheinend optimale Strukturen für das Verstehen, die intelligente Systeme zwangsläufig entdecken und zwar nicht durch Zufall oder Nachahmung, sondern weil Information selbst bestimmten Organisationsprinzipien folgt.
Konsequenzen für unser Selbstverständnis
Wenn Maschinen unabhängig ähnliche Informationsstrukturen entwickeln wie Menschen, wirft das neue Fragen zu unserem Selbstverständnis auf.
Statt uns als einzigartige Träger:innen von Bewusstsein zu sehen, könnten wir verschiedene Ausdrucksformen universeller Denkprinzipien sein. Das ist weniger eine Herabwürdigung der Menschheit als vielmehr die Erkenntnis, dass Verstehen eine zentrale Eigenschaft der Realität is. So universal wie Physik oder Chemie.
Information als Naturgesetz
Die weitreichendste Interpretation dieser Ergebnisse: Information selbst könnte mathematischen Gesetzen folgen. Genau wie Materie bestimmten physikalischen Prinzipien unterliegt, scheint auch Bedeutung eine natürliche Struktur zu haben.
Das würde bedeuten, dass es nicht unendlich viele Wege gibt, komplexe Information zu organisieren, sondern nur wenige optimale Formen. Jedes ausreichend mächtige System – ob biologisches Gehirn oder künstliche Intelligenz – entdeckt zwangsläufig dieselben fundamentalen Strukturen des Verstehens.
Falls sich das bestätigt, hätten wir nicht nur ein neues Kapitel der KI-Forschung aufgeschlagen, sondern möglicherweise eine neue Naturwissenschaft der Information.
🔗 Weiterführend dazu auch noch: The Geometry of Concepts: Sparse Autoencoder Feature Structure | https://arxiv.org/abs/2410.19750