LSTM(Long Short-Term Memory)とは、従来のRNNが抱えていた勾配消失問題を解決し、長期的な依存関係を学習できるように設計された再帰型ニューラルネットワークである。1997年に原理が提案された比較的古いモデルだが、当時は計算資源やデータ量が不足しており実用は限定的であった。その後、GPUの普及と大規模データセットの整備により2010年代から実用性が一気に高まり、特に2015年前後から自然言語処理や音声認識の分野で広く採用されるようになった。
LSTMは通常の隠れ状態とは別に「セル状態」と呼ばれる長期記憶を持ち、インプットゲート・忘却ゲート・アウトプットゲートによって情報の書き込み、保持、出力を制御する。これにより重要な情報を長期間維持しながら不要な情報を抑制でき、系列データの長距離依存を安定して扱える点が特徴である。
この構造により、LSTMは機械翻訳、文章生成、音声認識、時系列予測、設備センサーデータ解析など、文脈保持が重要となる領域で高い性能を発揮する。RNNの弱点を克服し実用性を飛躍的に高めたモデルとして、深層学習初期の主要技術の一つに位置づけられている。
ParsleyLab:Excel形式で柔軟に記録しつつ、組織内で簡単かつ自由にデータを蓄積・活用できるソリューション