Zum Inhalt springen
Startseite » Was sind Long Short-Term Memory Networks? (LSTM)

Was sind Long Short-Term Memory Networks? (LSTM)

Long Short-Term Memory (LSTM) Netzwerke sind eine spezielle Art von rekurrenten neuronalen Netzwerken (RNNs), die speziell dafür entwickelt wurden, Langzeitabhängigkeiten in Sequenzdaten zu erfassen. LSTMs wurden von Hochreiter und Schmidhuber 1997 eingeführt und haben sich seitdem als sehr nützlich für eine Vielzahl von Aufgaben im Bereich des maschinellen Lernens erwiesen, insbesondere für die Verarbeitung und Vorhersage von sequenziellen Daten.

Hauptmerkmale und Funktionsweisen von LSTMs

Architektur:

  • Cell State: Der Cell State (Zellenzustand) ist ein wesentlicher Bestandteil von LSTMs, der Informationen über lange Zeiträume hinweg speichern kann. Er ist sozusagen das Gedächtnis des Netzwerks.
  • Gates: LSTMs verwenden drei verschiedene Gates, um den Informationsfluss zu steuern: Eingabegate (Input Gate), Vergessensgate (Forget Gate) und Ausgabegate (Output Gate). Diese Gates bestehen aus sigmoid- und tanh-Funktionen und bestimmen, welche Informationen hinzugefügt, entfernt oder ausgegeben werden. Die Funktionen sigmoid und tanh sind Aktivierungsfunktionen, welche für die der Steuerung des Informationsflusses der Neuronen verwendet werden.

Gates-Funktionalität:

Forget Gate: Dieses Gate entscheidet, welche Informationen aus dem Zellenzustand entfernt werden sollen. Es nimmt die vorherige Ausgabe und die aktuelle Eingabe als Eingabe und gibt einen Wert zwischen 0 und 1 aus. Ein Wert nahe 0 bedeutet, dass die Information vergessen wird, während ein Wert nahe 1 bedeutet, dass die Information beibehalten wird.

Input Gate: Dieses Gate entscheidet, welche neuen Informationen zum Zellenzustand hinzugefügt werden sollen. Es arbeitet zusammen mit einer tanh-Schicht, die neue potenzielle Werte erstellt, die dem Zellenzustand hinzugefügt werden könnten.

Output Gate: Dieses Gate entscheidet, welche Informationen aus dem Zellenzustand als Ausgabe verwendet werden sollen. Es filtert den Zellenzustand durch eine sigmoid-Schicht und multipliziert diesen mit dem tanh des Zellenzustands.

Anwendungen

LSTMs sind in der Lage, sowohl Langzeit- als auch Kurzzeitinformationen zu speichern und abzurufen. Dies ist besonders nützlich bei Aufgaben, bei denen frühere Informationen entscheidend sind. LSTMs werden häufig in Bereichen wie Sprachverarbeitung (z.B. maschinelle Übersetzung, Sprachsynthese), Zeitreihenanalyse (z.B. Aktienkursvorhersage), Videosequenzanalyse und vielen anderen verwendet, bei denen sequenzielle Informationen entscheidend sind.

Durch die Fähigkeit, Langzeitabhängigkeiten effektiv zu modellieren und die Probleme traditioneller RNNs, wie das Verschwinden und Explodieren von Gradienten, zu überwinden, haben LSTMs eine herausragende Rolle in der modernen KI und im maschinellen Lernen übernommen.