【DeepLeaning】誤差逆伝播法概要整理

Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います!

誤差逆伝播法とは

機械学習においてニューラルネットワーク(Neural Network)の学習に用いられる一般的なアルゴリズムのようです。

誤差逆伝播法の目的は、ニューラルネットワークの重みとバイアスを最適化するための勾配を計算することです。
ニューラルネットワークの出力と正解データとの誤差(損失関数)を最小化するために、各層の重みとバイアスに対する勾配を求めます。

利点

誤差逆伝播法の利点は、計算の効率性と汎化能力の向上です。
勾配を逆伝播させることによって、重みとバイアスの微小な変化が出力に与える影響を効率的に計算することができます。
また、誤差逆伝播法を使用することでモデルが訓練データに過度に適合するオーバーフィッティング(過学習)を防ぐこともできます。

注意

良いことだけではありません。

勾配消失

深いネットワークでは、誤差が逆伝播する過程で勾配が指数的に小さくなり学習が困難になることがあります。
これを勾配消失問題(Vanishing Gradient Problem)と言います。
この問題を緩和するために、活性化関数や重みの初期化方法などを適切に選択する必要があります。

教師あり学習の場合のみ適用可能

誤差逆伝播法は優れたアルゴリズムのようですが、入力データと対応する正解データが必要です。
つまり誤差逆伝播法は教師あり学習にのみ適用できるといういうことです。。

予測には関与しない

誤差逆伝播法はニューラルネットワークの学習にのみ使用され実際の予測には直接関与しません
学習が終了した後は入力データを与えて順伝播させることで予測結果を得ることができます。