Uitleg
LSTM (Long Short-Term Memory) is een geavanceerde RNN-variant die ontworpen werd om het vanishing gradient problem op te lossen. LSTMs kunnen lang-termijn afhankelijkheden leren wat standaard RNNs niet kunnen.
LSTMs gebruiken memory cells en gates (forget gate, input gate, output gate) die bepalen wat informatie behouden, toegevoegd, of output wordt. Dit architectuur geeft LSTMs flexibiliteit in geheugen-beheer.
LSTMs zijn zeer effectief voor sequentieverwerking: taalmodellering, machine translation, taalherkenning. Ze werden standaard voordat transformers opkwamen. Hoewel transformers nu domineren voor veel NLP-taken, blijven LSTMs waardevol voor bepaalde applicaties.
⚡ Voorbeelden
- •Taalmodellering: LSTM voorspelt volgende woord in sentimentanalyse
- •Machine translation: LSTM encoder-decoder vertaalt zinnen
- •Time-series forecasting: LSTM voorspelt aandelenkoersen uit historische data