Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2024/11/06 16:44] admin [Profundizando en el descenso de gradiente] |
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2025/01/22 18:28] (actual) admin [Ejercicios] |
||
---|---|---|---|
Línea 26: | Línea 26: | ||
$$ | $$ | ||
\large loss(x, | \large loss(x, | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | loss(x, | ||
$$ | $$ | ||
Línea 156: | Línea 160: | ||
<note tip>En el contexto del descenso de gradiente no se suele hablar que el resultado de la fórmula es la derivada sino el gradiente. Ya que para eso estamos en el //descenso de gradente//</ | <note tip>En el contexto del descenso de gradiente no se suele hablar que el resultado de la fórmula es la derivada sino el gradiente. Ya que para eso estamos en el //descenso de gradente//</ | ||
+ | |||
+ | Para entender la derivada podemos usar estos 2 recursos de Gecebra: | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
Línea 463: | Línea 471: | ||
Que genera la siguiente gráfica | Que genera la siguiente gráfica | ||
- | {{ : | + | {{ : |
Línea 529: | Línea 537: | ||
- | {{ : | + | {{ : |
Y obviamente el resultado es el mismo | Y obviamente el resultado es el mismo | ||
Línea 543: | Línea 551: | ||
- | {{ : | + | {{ : |
Línea 555: | Línea 563: | ||
- | {{ : | + | {{ : |
El valor de '' | El valor de '' | ||
Línea 567: | Línea 575: | ||
</ | </ | ||
- | {{ : | + | {{ : |
Vemos que al dar //pasos// tan pequeños nos quedamos a mitad de camino y eso que también hemos puesto 11 épocas. En este caso para solucionarlo solo habría que aumentar el número de épocas. | Vemos que al dar //pasos// tan pequeños nos quedamos a mitad de camino y eso que también hemos puesto 11 épocas. En este caso para solucionarlo solo habría que aumentar el número de épocas. | ||
Línea 577: | Línea 585: | ||
</ | </ | ||
- | {{ : | + | {{ : |
Y ahora ya ha llegado hasta el mínimo. | Y ahora ya ha llegado hasta el mínimo. | ||
Línea 597: | Línea 605: | ||
- | {{ : | + | {{ : |
Esta última gráfica es muy interesante. No hay que perder de vista que las **estrellas rojas** es el valor inicial de los pesos que tenemos en nuestra red neuronal. | Esta última gráfica es muy interesante. No hay que perder de vista que las **estrellas rojas** es el valor inicial de los pesos que tenemos en nuestra red neuronal. | ||
Línea 614: | Línea 622: | ||
Para intentar solventar los problemas del algoritmo del descenso de gradiente existen diversas variaciones del mismo que vamos a ver en el siguiente apartado. | Para intentar solventar los problemas del algoritmo del descenso de gradiente existen diversas variaciones del mismo que vamos a ver en el siguiente apartado. | ||
+ | ==== Punto de silla ==== | ||
+ | Al entrenar redes neuronales, existe el concepto de "Punto de silla" | ||
+ | Es un punto en el que para cada parámetro estaría en un mínimo o máximo local. | ||
+ | Su nombre viene de que parece una silla de montar a caballo. | ||
+ | |||
+ | {{: | ||
+ | |||
+ | No debe preocuparnos los puntos de silla ya que al actualizar los parámetros, | ||
===== Usando optimizadores en Keras ===== | ===== Usando optimizadores en Keras ===== | ||
Línea 1086: | Línea 1102: | ||
<sxh python> | <sxh python> | ||
- | parametros=[(-0.3, | + | parametros=[(-0.3, |
plot_parametros(x, | plot_parametros(x, | ||
</ | </ | ||
- | Que muestra la siguiente | + | Que muestra la siguiente |
{{: | {{: | ||
- | Esta gráfica | + | Cada par de valores del array '' |
- | Mientras que en verde se muestra los valores que harían mínima cada ua de las funciones '' | + | |
+ | En las 2 primeras gráficas se muestra en rojo que con los valores de '' | ||
+ | Mientras que en verde se muestra los valores que harían mínima cada una de las funciones '' | ||
+ | Y así sucesivamente con el resto de parámetros | ||
+ | |||
+ | En las últimas gráficas se muestra a la izquierda cada uno de los " | ||
Modifica el array '' | Modifica el array '' | ||
Línea 1178: | Línea 1199: | ||
* Función de activación de las capas ocultas: '' | * Función de activación de las capas ocultas: '' | ||
- | Prueba únicamente con **5 épocas** con todas las combinaciones de lo siguiente: | + | Prueba únicamente con **20 épocas** con todas las combinaciones de lo siguiente: |
* Optimizadores | * Optimizadores |