Algoritmo Backpropagation
Algoritmo Backpropagation
Algoritmo Backpropagation
Algoritmo Backpropagation
Onde:
Emín = erro mínimo;
wf = peso para o erro mínimo.
Emín
wf w
(Medeiros, 2003)
Aprendizado: atualização dos pesos
• O processo de descida do gradiente direciona o valor do peso em direção do
mínimo erro.
1
E= 𝑌𝑑 − 𝑌)2
2
Dependendo da natureza da aplicação,
∆wi - E / wi a rede pode convergir para um valor de
erro que se denomina de erro mínimo
e wi(n + 1) = wi (n) + e xi (n) local, que não corresponde ao erro
mínimo da rede (então denominado de
E E erro mínimo global).
winicial
Emín Local
x2 w2j
xi wij
xi wij + bj
sj = f ( xi wij + bj)
bj
• No exemplo:
• xi wij + bj z[i] = v[i] + t[x]*v[i]
• Função de ativação da camada intermediária: sigmóide bipolar
• Retropropagação: ∆wij = * (t - sj ) * Y’ * si
• deltaw[i] = errow[x]*zf[i]
z0
v0 v01 w0
z1 w1
w00
v1
v02
f(x) = sen(2x) * sen(x) v2 z2 w2
v03 Y=f
v3 w3
z3
w4
v4
v04
Arquitetura de rede proposta: z4
v5 w5
uma camada intermediária com seis
neurônios. v05
z5
Código fonte: classe backpropagation
Código fonte: classe backpropagation
Código fonte: classe backpropagation
Código fonte: classe backpropagation
Código fonte: classe backpropagation
Código fonte: classe backpropagation
Código fonte: classe teste_backpropagation
Código fonte: classe grafico
Código fonte: classe grafico
Código fonte: classe grafico
Código fonte: classe grafico
Código fonte: classe grafico
Backpropagation
Backpropagation
Backpropagation
Backpropagation
Backpropagation
Backpropagation
double w0 = 0.02074;
double [][] v = {{0.085}, {-0.033}, {0.074}, {-0.075}, {0.088}, {-0.077}};
double [][] w = {{0.082}, {-0.09}, {0.064}, {-0.08}, {0.084}, {-0.075}};
double [][] v0 = {{0.09}, {-0.08}, {0.063}, {-0.065}, {0.076}, {-0.072}};
double alpha = 0.00035;
double w0 = 0.02074;
double [][] v = {{0.9}, {-0.9}, {0.8}, {-0.7}, {0.99}, {-0.88}};
double [][] w = {{0.9}, {-0.9}, {0.8}, {-0.7}, {0.99}, {-0.88}};
double [][] v0 = {{0.9}, {-0.9}, {0.8}, {-0.7}, {0.99}, {-0.88}};
double alpha = 0.000068;
while (n < 109000){ //nº de treinamentos
Referências Bibliográficas
- Braga AP, Carvalho APLF, Ludermir TB. Redes Neurais Artificiais: teoria e
aplicações. Livros Técnicos e Científicos, Rio de Janeiro – RJ; 2007.
- Hebb DO. The Organization of Behavior. John Wiley & Sons; 1949.
- Cybenco, G.. Continuous valued neural networks with two hidden layers are sufficient,
Technical report, Department of Computer Science, Tufts University, 1988.