2.2.3 バックプロパゲーション~後向き演算1~ つぎに学習についてみていきましょう。結合荷重を修正していく過程、 つまり学習の過程を後向き演算といいます。 出力層のi番目のニューロンの教師信号はtiとします。 バックプロパゲーションでは、誤差を小さくするように結合荷重を修正していきます。 そこで、まず誤差というものを定義しておきましょう。 まず、出力層の結合荷重の更新についてみていきましょう。 結合荷重Wkjに対する誤差Eの変化を見ればよいのですから、 EをWkjで偏微分すればよいことになりますね。 したがってWkjの修正量ΔWkjはこのようにあらわすことができます。 ηは学習係数といって、 1回あたりにどのくらい結合荷重を変化させるかをあらわしています。 あまり小さくすると学習回数が膨大になってしまうので、決めかたが難しく、 経験で決められている数です。 上の式をもう少し詳しく見てみ