【DeepLeaning】機械学習における連鎖律

Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います!

機械学習では「連鎖律」という言葉は一般的ではない!?

「連鎖律」が機械学習の要である!・・・くらいの勢いで学習をしていたのですがそうではないようです🤔

機械学習では「教師あり学習」という学習方法があります。
この学習方法の仕組みの一部として「バックプロパゲーション」という誤差を逆伝播するための仕組みがあります。
ココで使用される「原理」のことだそうです。

連鎖律は、合成関数の微分を求めるための基本的なルール

連鎖律を表す数式

\[
f'(g(x)) = f'(g(x)) \cdot g'(x)
\]

  • f’ ・・・関数 f の導関数(微分)を表す
    導関数は関数のグラフがどのように変化するか。関数の傾きを表すもの

謎すぎて理解が追い付きません😊

バックプロパゲーション

バックプロパゲーションではニューラルネットワークの出力と目標値との誤差を計算しその誤差をネットワークの最終層から逆方向に伝播させながら、
各層の重みとバイアスの微分値を計算します。
この誤差の逆伝播が行われることから、「誤差逆伝播」とも呼ばれます。

このバックプロパゲーションで連鎖律を利用して各層の微分値を効率的に計算しているようです。
最終的に微分値を使用して重みとバイアスを更新しネットワークの性能を向上させるための最適なパラメータを探索しています。