Backpropagation

Reglas-Aprendizaje

Nota: (Tenemos una Redes-Neuronales necesitamos ajustar los pesos de cada neurona para que se minimice el error. El algoritmo de backpropagation nos dira cuanto de culpa tiene cada neurona del error global cometido. Pondera el reparto del error para cada una de las neuronas de la red. El algoritmo de backpropagation calcula las derivadas parciales de la función de coste con respecto a cada una de las variables).

 

Retropropagación & Backpropagation

-. Propagación hacia atrás de errores o Retropropagación & Backpropagation es un método común para entrenar Redes-Neuronales-Artificiales . Pertenece al grupo de Aprendizaje-Supervisado y se aplica a Redes- Multicapa como una generalización de la regla delta. Debe existir un supervisor externo que conozca la salida deseada, el valor objetivo , en cada momento de la entrada.

Nota: El algoritmo LMS es un algoritmo para aproximar la solución del problema de los mínimos cuadrados medios, que ocurre, por ejemplo, en el procesamiento de señales digitales . En neuroinformática , el algoritmo se conoce principalmente como regla Delta o regla de Widrow-Hoff .

  • Retropropagación & Backpropagation algoritmo utilizado para entrenar redes neuronales feedforward, existen generalizaciones de retropropagación para otras Redes-Neuronales-Artificiales. Al ajustar una Red-Neuronal a la retropropagación calcula el gradiente de la función de pérdida con respecto a los pesos de la red para un solo ejemplo de entrada-salida, lo hace eficientemente , a diferencia de un cálculo directo del gradiente con respecto a cada peso individualmente. Esta eficiencia hace factible el uso de métodos de gradiente para entrenar redes multicapa, actualizando pesos para minimizar pérdidas; el descenso de gradiente , o variantes como el descenso de gradiente estocástico , se utilizan comúnmente. El algoritmo de retropropagación es un buen ejemplo de programación dinámica .

Nota: Red-Neuronal-Feedforward FNN es una Red-Neuronal-Artificial en la que las conexiones entre los nodos no forman un ciclo,fue el primer y más simple tipo de Red-Neuronal-Artificial. En esta red, la información se mueve en una sola dirección, hacia adelante, desde los nodos de entrada, a través de los nodos ocultos si los hay y hacia los nodos de salida. No hay ciclos o bucles en la red.

  • Retropropagación & Backpropagation se refiere estrictamente solo al algoritmo para calcular el gradiente, no a cómo se usa el gradiente, el término a menudo se usa para referirse a todo el algoritmo de aprendizaje, incluida la forma en que se usa el gradiente, como el descenso de gradiente estocástico. La retropropagación generaliza el cálculo del gradiente en la regla delta , que es la versión de una sola capa de la retropropagación.
  • Retropropagación & Backpropagation es el entrenamiento de redes neuronales. Es esencia ajustar los pesos de una red-neuronal en función de la tasa de error es decir, pérdida obtenida en la época anterior es decir, iteración. El ajuste adecuado de los pesos garantiza tasas de error más bajas, lo que hace que el modelo sea confiable al aumentar su fiabilidad.

Nota: Cada ciclo de corrección de propagación hacia atrás y hacia adelante para reducir la pérdida se denomina época. La propagación hacia atrás consiste en determinar las mejores ponderaciones y sesgos de entrada para obtener un resultado más preciso o minimizar la pérdida.

  • La propagación hacia atrás en la red neuronal es una forma abreviada de propagación hacia atrás de errores. Es un método estándar de entrenamiento de Redes-Neuronales-Artificiales. Este método ayuda a calcular el gradiente de una función de pérdida con respecto a todos los pesos de la red.

 

Recapitulando:

Retropropagación & Backpropagation es un proceso involucrado en el entrenamiento de una red neuronal. Implica tomar la tasa de error de una propagación hacia adelante y alimentar esta pérdida hacia atrás a través de las capas de la red neuronal para ajustar los pesos.