Inventer un vélo ou écrire un perceptron en C ++. Partie 3
Implémentons la formation d'un perceptron multicouche en C ++ en utilisant la méthode de rétropropagation.
Préface
Bonjour Ă tous!) Avant de passer Ă la base de cet article, je voudrais dire quelques mots sur les parties prĂ©cĂ©dentes. L'implĂ©mentation que j'ai proposĂ©e est une parodie de la RAM de l'ordinateur, tk. un vecteur tridimensionnel viole la mĂ©moire avec une abondance de cellules vides, pour lesquelles la mĂ©moire est Ă©galement rĂ©servĂ©e. Par consĂ©quent, la mĂ©thode est loin d'ĂȘtre la meilleure, mais j'espĂšre qu'elle aidera les programmeurs dĂ©butants dans ce domaine Ă comprendre ce qui est «sous le capot» des rĂ©seaux de neurones les plus simples. Cette fois. En dĂ©crivant la fonction d'activation dans la premiĂšre partie, j'ai fait une erreur - la fonction d'activation n'a pas Ă ĂȘtre limitĂ©e dans la plage de valeurs. Tout dĂ©pend des objectifs du programmeur. La seule condition est que la fonction doit ĂȘtre dĂ©finie sur tout l'axe des nombres. C'est deux
introduction
-, . backpropagation â . , !
, , , .
:
, , . , , . , , . : (1), j â , , k â , , .. .
, . "O". n6 d6 = (O â y)*( f(in) )*(1 â f(in) ) (2), in â
n6, f(in) â .
(1), . n4 :
d4 = d6 * w46 *( f(in4) ) * (1 â f(in4)), w46 â n4 n6, in4 â n4.
d5 = d6 * w56 *( f(in5) ) * (1 â f(in5)), n5.
d1 = (d4 * w14 + d5 * w15) *( f(in1) ) * (1 â f(in1)), n1, , â .
n2 n3 :
d2 = (d4 * w24 + d5 * w25) *( f(in2) ) * (1 â f(in2))
d3 = (d4 * w34 + d5 * w35) *( f(in3) ) * (1 â f(in3))
, , :
Îw46 = d6 * A * f(in4), w46 â n4 n6 , f(in4) â n4, A â , â , .
Îw56 = d6 * A * f(in5), n5 n6.
:
Îw14 = d4 * A * f(in1)
Îw24 = d4 * A * f(in2)
Îw34 = d4 * A * f(in3)
Îw15 = d4 * A * f(in1)
Îw25 = d4 * A * f(in2)
Îw35 = d4 * A * f(in3)
? . .
void NeuralNet::learnBackpropagation(double* data, double* ans, double acs, double k) { //data - , ans - , k - , acs-
, - :
for (uint32_t e = 0; e < k; e++) {
double* errors = new double[neuronsInLayers[numLayers - 1]]; //
// "Do_it" "Forward"
Forward(neuronsInLayers[0], data);//
getResult(neuronsInLayers[numLayers - 1], errors);//
:
for (uint16_t n = 0; n < neuronsInLayers[numLayers - 1]; n++) {
neurons[n][2][numLayers - 1] = (ans[n] - neurons[n][1][numLayers - 1]) * (neurons[n][1][numLayers - 1]) * (1 - neurons[n][1][numLayers - 1]);
}
, :
for (uint8_t L = numLayers - 2; L > 0; L--) {
for (uint16_t neu = 0; neu < neuronsInLayers[L]; neu++) {
for (uint16_t lastN = 0; lastN < neuronsInLayers[L + 1]; lastN++) {
neurons[neu][2][L] += neurons[lastN][2][L + 1] * weights[neu][lastN][L] * neurons[neu][1][L] * (1 - neurons[neu][1][L]);
weights[neu][lastN][L] += neurons[neu][1][L] * neurons[lastN][2][L + 1] * acs;
}
}
}
:
void NeuralNet::learnBackpropagation(double* data, double* ans, double acs, double k) { //k - acs-
for (uint32_t e = 0; e < k; e++) {
double* errors = new double[neuronsInLayers[numLayers - 1]];
Forward(neuronsInLayers[0], data);
getResult(neuronsInLayers[numLayers - 1], errors);
for (uint16_t n = 0; n < neuronsInLayers[numLayers - 1]; n++) {
neurons[n][2][numLayers - 1] = (ans[n] - neurons[n][1][numLayers - 1]) * (neurons[n][1][numLayers - 1]) * (1 - neurons[n][1][numLayers - 1]);
}
for (uint8_t L = numLayers - 2; L > 0; L--) {
for (uint16_t neu = 0; neu < neuronsInLayers[L]; neu++) {
for (uint16_t lastN = 0; lastN < neuronsInLayers[L + 1]; lastN++) {
neurons[neu][2][L] += neurons[lastN][2][L + 1] * weights[neu][lastN][L] * neurons[neu][1][L] * (1 - neurons[neu][1][L]);
weights[neu][lastN][L] += neurons[neu][1][L] * neurons[lastN][2][L + 1] * acs;
}
}
}
}
}
. :
#include <stdio.h>
#include "neuro.h"
int main()
{
uint16_t neurons[3] = {16, 32, 10}; // , -
/* ""
*/
NeuralNet net(3, neurons);
double teach[4 * 4] = {// "" "4" , - : 4*4 = 16
1,0,1,0,
1,1,1,0,
0,0,1,0,
0,0,1,0,
};
double test[4 * 4] = {// "4", -
1,0,0,1,
1,1,1,1,
0,0,0,1,
0,0,0,1,
};
double ans[10] = {0, 0, 0, 0, 1, 0, 0, 0, 0, 0,};// , "1" , "4"
double output[10] = { 0 };//
net.Forward(4*4, teach); //
net.getResult(10, output);
for (uint8_t i = 0; i < 10; i++) printf("%d: %f \n", i, output[i]*100); //
net.learnBackpropagation(teach, ans, 0.50, 1000); // "test", : 0.5
printf("\n");
net.Forward(4 * 4, test);//
net.getResult(10, output);
for (uint8_t i = 0; i < 10; i++) printf("%d: %f \n", i, output[i]*100);
return 0;
}
:
( ), , 0 9. . , «4»
, , - , . . . , , .
...
. , .
Merci pour l'attention portée à cet article et pour les commentaires sur la publication précédente. Je dupliquerai le lien vers les fichiers de la bibliothÚque.
Laissez vos commentaires, suggestions. Ă plus tard!