Forschung Transistor zeigt energieeffizientes assoziatives Lernen bei Raumtemperatur

Von Henning Wriedt* 5 min Lesedauer

Anbieter zum Thema

Neuer gehirnähnlicher Transistor ahmt menschliche Intelligenz nach: Nach dem Vorbild des menschlichen Gehirns haben Forscher einen synaptischen Transistor entwickelt, der in der Lage ist, auf höherer Ebene zu „denken“.

Eine künstlerische Interpretation des gehirnähnlichen Rechnens.
Eine künstlerische Interpretation des gehirnähnlichen Rechnens.
(Bild: Xiaodong Yan/Northwestern University)

Ein neuer, von Forschern der Northwestern University, des Boston College und des Massachusetts Institute of Technology (MIT) entworfene Transistor verarbeitet und speichert gleichzeitig Informationen, genau wie das menschliche Gehirn.

In neuen Experimenten wiesen die Forscher nach, dass der Transistor über einfache Aufgaben des maschinellen Lernens zur Kategorisierung von Daten hinausgeht und in der Lage ist, assoziatives Lernen durchzuführen.

Bildergalerie

In früheren Studien wurden zwar ähnliche Strategien zur Entwicklung von gehirnähnlichen Computern angewandt, doch diese Transistoren können nicht außerhalb kryogener Temperaturen funktionieren.

Der neue Transistor hingegen ist bei Raumtemperaturen stabil. Außerdem arbeitet er mit hohen Geschwindigkeiten, verbraucht sehr wenig Energie und behält die gespeicherten Informationen auch ohne Stromzufuhr bei, was ihn ideal für reale Anwendungen macht. Die Studie wurde in der Zeitschrift „Nature“ veröffentlicht.

Vorbild Gehirn

„Das Gehirn hat eine grundlegend andere Architektur als ein digitaler Computer“, sagte Mark C. Hersam von der Northwestern University, der die Forschungsarbeit mit geleitet hat. „In einem digitalen Computer werden die Daten zwischen einem Mikroprozessor und dem Speicher hin- und hergeschoben, was viel Energie verbraucht und einen Engpass darstellt, wenn man versucht, mehrere Aufgaben gleichzeitig zu erledigen.“

„Im Gehirn hingegen sind Speicher und Informationsverarbeitung an einem Ort und vollständig integriert, was zu einer um Größenordnungen höheren Energieeffizienz führt. Unser synaptischer Transistor erreicht in ähnlicher Weise eine gleichzeitige Speicher- und Informationsverarbeitungsfunktionalität, um das Gehirn besser zu imitieren.“

Hersam ist Professor für Materialwissenschaft und Technik an der McCormick School of Engineering der Northwestern University. Er ist obendrein Vorsitzender der Abteilung für Materialwissenschaft und -technik, Direktor des Materials Research Science and Engineering Center und Mitglied des International Institute for Nanotechnology. Hersam leitete die Forschungsarbeiten gemeinsam mit Qiong Ma vom Boston College und Pablo Jarillo-Herrero vom MIT.

KI als Treiber neuronaler Technologie

Die jüngsten Fortschritte im Bereich der künstlichen Intelligenz (KI) haben Forscher dazu motiviert, Computer zu entwickeln, die dem menschlichen Gehirn ähnlicher sind. Herkömmliche digitale Computersysteme haben getrennte Verarbeitungs- und Speichereinheiten, sodass datenintensive Aufgaben große Mengen an Energie verschlingen.

Da intelligente Geräte ständig riesige Datenmengen sammeln, suchen die Forscher händeringend nach neuen Möglichkeiten, diese zu verarbeiten, ohne dabei immer mehr Energie zu verbrauchen. Derzeit ist der Speicherwiderstand oder „Memristor“ die am weitesten entwickelte Technologie, die eine kombinierte Verarbeitungs- und Speicherfunktion erfüllen kann. Aber Memristoren leiden immer noch unter energieaufwendigen Schaltvorgängen.

„Mehrere Jahrzehnte lang bestand das Paradigma in der Elektronik darin, alles aus Transistoren zu bauen und die gleiche Siliziumarchitektur zu verwenden“, so Hersam. „Es wurden erhebliche Fortschritte erzielt, indem einfach immer mehr Transistoren in integrierte Schaltungen gepackt wurden.“

„Der Erfolg dieser Strategie lässt sich nicht leugnen, aber sie geht mit einem hohen Stromverbrauch einher, vorrangig im Zeitalter von Big Data, wo die digitale Datenverarbeitung auf dem besten Weg ist, das Stromnetz zu überlasten. Wir müssen die Computerhardware überdenken, insbesondere für KI- und Machine-Learning-Aufgaben.“

Um dieses Paradigma zu überdenken, erforschten Hersam und sein Team neue Fortschritte in der Physik der Moiré-Muster, einer Art von geometrischem Design, das entsteht, wenn zwei Muster übereinander geschichtet werden.

Mit Moiré-Mustern zum Erfolg?

Wenn zweidimensionale Materialien gestapelt werden, ergeben sich neue Eigenschaften, die in einer Schicht allein nicht existieren. Und wenn diese Schichten verdreht werden, um ein Moiré-Muster zu bilden, wird eine noch nie da gewesene Abstimmbarkeit der elektronischen Eigenschaften möglich.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Für das neue Projekt kombinierten die Forscher zwei verschiedene Arten von atomar dünnen Materialien: zweischichtiges Graphen und hexagonales Bornitrid. Wenn die Materialien gestapelt und gezielt verdreht werden, bilden sie ein Moiré-Muster.

Indem sie eine Schicht relativ zur anderen drehten, konnten die Forscher in jeder Graphenschicht unterschiedliche elektronische Eigenschaften erzielen, obwohl sie nur durch atomare Dimensionen getrennt waren. Mit der richtigen Wahl der Verdrehung konnten die Forscher die Moiré-Physik für neuromorphe Funktionen bei Raumtemperatur nutzbar machen.

„Mit der Verdrehung als neuem Designparameter ist die Anzahl der Permutationen enorm“, so Hersam. „Graphen und hexagonales Bornitrid sind strukturell verwandt, aber gerade so unterschiedlich, dass man außergewöhnlich starke Moiré-Effekte erhält.“

Transistortraining

Um den Transistor zu testen, trainierten Hersam und sein Team ihn darauf, ähnliche – aber nicht identische – Muster zu erkennen. Erst kürzlich stellte Hersam ein neues nanoelektronisches Gerät vor, das Daten auf energieeffiziente Weise analysieren und kategorisieren kann, aber sein neuer synaptischer Transistor bringt maschinelles Lernen und KI noch einen Schritt weiter.

„Wenn künstliche Intelligenz das menschliche Denken nachahmen soll, dann ist eine der niedrigsten Aufgaben die Klassifizierung von Daten, das heißt das einfache Sortieren in Fächer“, so Hersam. „Unser Ziel ist es, die KI-Technologie in Richtung höheres Denken zu entwickeln.“

„Die Bedingungen in der realen Welt sind oft komplizierter, als die derzeitigen KI-Algorithmen bewältigen können, daher haben wir unsere neuen Geräte unter komplizierteren Bedingungen getestet, um ihre fortgeschrittenen Fähigkeiten zu überprüfen.“

Zunächst zeigten die Forscher dem Gerät ein Muster: 000 (drei Nullen in einer Reihe). Dann baten sie die KI, ähnliche Muster zu erkennen wie 111 oder 101. „Wenn wir es darauf trainiert haben, 000 zu erkennen, und es dann 111 und 101 gegeben haben, weiß es, dass 111 der 000 ähnlicher ist als 101“, erklärte Hersam. „000 und 111 sind nicht genau dasselbe, aber beide sind drei Ziffern in einer Reihe. Das Erkennen dieser Ähnlichkeit ist eine höhere Form der Kognition, die als assoziatives Lernen bezeichnet wird.“

In Experimenten erkannte der neue synaptische Transistor erfolgreich ähnliche Muster und zeigte damit sein assoziatives Gedächtnis. Auch dann, als die Forscher ihm „Steine“ in den Weg legten, indem sie ihm unvollständige Muster vorgaben, zeigte er erfolgreich assoziatives Lernen.

„Heutige künstliche Intelligenz ist leicht zu verwechseln, was in bestimmten Kontexten zu großen Problemen führen kann“, so Hersam. „Stellen sie sich vor, sie benutzen ein selbstfahrendes Fahrzeug, und die Wetterbedingungen verschlechtern sich.“

„Das Fahrzeug ist möglicherweise nicht in der Lage, die komplizierten Sensordaten so gut zu interpretieren wie ein menschlicher Fahrer. Aber selbst, wenn wir unserem Transistor eine unvollkommene Eingabe gaben, konnte er immer noch die richtige Reaktion erkennen.“

Die Studie „Moiré synaptic transistor with room-temperature neuromorphic functionality“ wurde hauptsächlich von der National Science Foundation unterstützt. (sb)

* Henning Wriedt ist freier Fachautor.

Artikelfiles und Artikellinks

(ID:50023239)