Deep learning : la rétropropagation du gradient – Miximum
Les calculs se propagent de couche en couche jusqu'à la sortie qu'on notera Y. Propagation des calculs dans le réseau de neurones. Si notre réseau n'est pas entraîné, il y a des chances pour que Y et T soient différents. Nous pouvons calculer très simplement l'erreur du modèle par l'équation suivante : E = T - Y (on note parfois E : δ).