Forscher an der University of Surrey haben einen neuen Ansatz für künstliche Intelligenz entwickelt, der sich direkt an der Funktionsweise des menschlichen Gehirns orientiert. Diese Methode verspricht, die Effizienz von KI-Systemen wie ChatGPT erheblich zu steigern und gleichzeitig deren enormen Energieverbrauch zu senken.
Das Wichtigste in Kürze
- Ein neuer KI-Ansatz imitiert die neuronalen Verbindungen des menschlichen Gehirns.
- Die Methode reduziert unnötige Verbindungen in künstlichen neuronalen Netzen, was die Effizienz steigert.
- Ziel ist es, den hohen Energieverbrauch großer KI-Modelle nachhaltig zu senken, ohne die Leistung zu beeinträchtigen.
- Zukünftige Anwendungen könnten realistischere neuromorphe Computer umfassen.
Das Energieproblem moderner KI
Große Sprachmodelle und generative KIs sind technologische Wunderwerke, doch ihr Betrieb hat einen hohen Preis. Das Training dieser komplexen Systeme erfordert immense Rechenleistung, die wiederum riesige Mengen an Energie verbraucht. Dies stellt eine wachsende Herausforderung für die Nachhaltigkeit dar.
Heutige künstliche neuronale Netze sind oft vollständig miteinander verbunden, was bedeutet, dass jedes künstliche Neuron mit jedem anderen kommuniziert. Dies schafft eine extrem hohe Dichte an Verbindungen, von denen viele für die eigentliche Aufgabe nicht notwendig sind. Diese Ineffizienz führt direkt zu einem höheren Energiebedarf.
Enormer Stromverbrauch
Das Training einiger der heute populärsten großen KI-Modelle kann laut Forschern mehr als eine Million Kilowattstunden Strom verbrauchen. Das entspricht dem Jahresverbrauch von Hunderten von Haushalten.
Dr. Roman Bauer, Dozent an der University of Surrey und einer der leitenden Forscher, betont die Dringlichkeit einer Lösung. Er erklärt, dass der derzeitige Energieverbrauch bei dem rasanten Wachstum der KI-Technologie nicht tragbar ist.
„Unsere Arbeit zeigt, dass intelligente Systeme weitaus effizienter gebaut werden können, wodurch der Energiebedarf gesenkt wird, ohne die Leistung zu beeinträchtigen“, so Dr. Bauer.
Ein Bauplan aus der Natur
Um dieses Problem zu lösen, wandte sich das Forschungsteam der Natur zu. Das menschliche Gehirn ist das effizienteste bekannte Rechensystem. Es verarbeitet komplexe Informationen mit einem Bruchteil der Energie, die ein Supercomputer benötigen würde. Das Geheimnis liegt in seiner Struktur.
Im Gegensatz zu vielen künstlichen Netzen sind die Neuronen im Gehirn nicht wahllos miteinander verbunden. Stattdessen sind sie hochgradig organisiert, wobei jedes Neuron hauptsächlich mit seinen unmittelbaren Nachbarn oder thematisch verwandten Neuronen kommuniziert. Diese gezielte und spärliche Verkabelung macht das Gehirn so leistungsfähig und effizient.
Topographical Sparse Mapping erklärt
Der neue Ansatz der Forscher, „Topographical Sparse Mapping“ (TSM) genannt, überträgt dieses biologische Prinzip auf künstliche neuronale Netze. Anstatt alle Neuronen miteinander zu verbinden, stellt TSM nur Verbindungen zwischen nahegelegenen oder logisch zusammenhängenden Neuronen her.
Dieser Prozess eliminiert eine große Anzahl unnötiger Verbindungen von vornherein. Das Ergebnis ist ein schlankeres, fokussierteres Netzwerk, das Informationen effizienter organisieren und verarbeiten kann. Die in der Fachzeitschrift Neurocomputing veröffentlichte Studie zeigt, dass dieser Ansatz die Leistung von KI-Modellen signifikant verbessern kann.
Die nächste Stufe: Intelligentes „Beschneiden“
Das Team ging noch einen Schritt weiter und entwickelte eine verbesserte Version namens „Enhanced Topographical Sparse Mapping“. Diese Methode führt einen zusätzlichen, biologisch inspirierten Prozess ein: das „Pruning“ oder Beschneiden von Verbindungen während des Trainingsprozesses.
Lernen wie ein Gehirn
Das menschliche Gehirn verfeinert seine neuronalen Verbindungen im Laufe des Lebens. Unwichtige oder selten genutzte Verbindungen werden geschwächt oder ganz abgebaut, während wichtige Verbindungen gestärkt werden. Dieser Prozess der neuronalen Plastizität ist entscheidend für das Lernen und die Anpassungsfähigkeit.
Die erweiterte Methode ahmt diesen Prozess nach. Während die KI lernt, identifiziert das System schwache oder redundante Verbindungen und entfernt sie dynamisch. Dies ermöglicht es dem Netzwerk, sich noch besser an eine bestimmte Aufgabe anzupassen und seine Struktur weiter zu optimieren.
Durch dieses intelligente Beschneiden wird das Netzwerk nicht nur effizienter, sondern es spiegelt auch den Lernprozess des Gehirns genauer wider. Die Forscher glauben, dass dies der Schlüssel zu noch leistungsfähigeren und gleichzeitig nachhaltigeren KI-Systemen ist.
Blick in die Zukunft der KI
Die Implikationen dieser Forschung sind weitreichend. Ein geringerer Energieverbrauch könnte die Betriebskosten für KI-Anwendungen senken und ihre Nutzung in ressourcenbeschränkten Umgebungen ermöglichen, etwa auf mobilen Geräten oder in Edge-Computing-Szenarien.
Darüber hinaus erforscht das Team, wie dieser Ansatz für die Entwicklung von neuromorphen Computern genutzt werden kann. Dabei handelt es sich um eine neue Art von Computerarchitektur, die direkt von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Solche Computer könnten Aufgaben wie Mustererkennung oder sensorische Datenverarbeitung weitaus effizienter bewältigen als herkömmliche Systeme.
Indem die KI lernt, wie das Gehirn zu „denken“ – oder zumindest, wie es strukturiert ist –, öffnet sich eine Tür zu einer neuen Generation intelligenter Systeme, die nicht nur leistungsfähiger, sondern auch im Einklang mit den begrenzten Ressourcen unseres Planeten sind.





