Herramientas de usuario

Herramientas del sitio


clase:iabd:pia:2eval:tema08

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
clase:iabd:pia:2eval:tema08 [2024/04/21 12:40]
admin [Regularización]
clase:iabd:pia:2eval:tema08 [2024/04/21 12:47]
admin [Optimización]
Línea 124: Línea 124:
  
  
 +<note >
 +La conclusión con estas gráficas es que hay que valorar entre 2 opciones:
 +  * Entrenar pocas épocas antes de que haya sobreajuste y no necesitar ninguna regularización.
 +  * Entrenar durante muchas épocas aunque haya sobreajuste y aplicar regularización
  
 +La opción a elegir dependerá del problema y hay que probar ambas opciones para saber cual es la mejor opción.
 +</note>
 +
 +<note tip>
 +Aunque una regla es que si elegimos entrenar durante pocas épocas antes del sobre ajuste pero el rendimiento no es satisfactorio, entonces deberemos entrenar durante más épocas aunque tengamos sobre ajuste y aplicar la regularización
 +</note>
  
 ===== Dropout ===== ===== Dropout =====
Línea 147: Línea 157:
   * Normalization    * Normalization 
   * Tamaño de Batch   * Tamaño de Batch
 +  * Batch Normalization
   * Parada anticipada   * Parada anticipada
  
  
-==== Normalization ====+===== Normalization =====
 La normalización consiste es que los datos de entrada estén centrado en 0 y una desviación "pequeña" La normalización consiste es que los datos de entrada estén centrado en 0 y una desviación "pequeña"
 Esto se hace porque la red va a entrenarse mejor si los datos son "pequeños" y todos en la misma escala ya que así funciona mejor el algoritmo del descenso de gradiente. Esto se hace porque la red va a entrenarse mejor si los datos son "pequeños" y todos en la misma escala ya que así funciona mejor el algoritmo del descenso de gradiente.
Línea 239: Línea 250:
 </sxh> </sxh>
  
-==== Batch Normalization ====+===== Batch Normalization =====
 Hace que las salida sigan con valores alrededor de media 0 y desviación 1. Hace que las salida sigan con valores alrededor de media 0 y desviación 1.
  
Línea 247: Línea 258:
 </sxh> </sxh>
  
-==== Tamaño del Batch  ====+===== Tamaño del Batch  =====
 <sxh python> <sxh python>
 history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,batch_size=20) history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,batch_size=20)
Línea 274: Línea 285:
  
  
-==== Parada anticipada ====+===== Parada anticipada =====
 La parada anticipada resuelve el problema de cuántas épocas debemos entregar nuestro modelo. Lo que hace es detener el entrenamiento si la métrica no mejora. Para ello se usa la clase de callback de keras llamado ''EarlyStopping()''. La parada anticipada resuelve el problema de cuántas épocas debemos entregar nuestro modelo. Lo que hace es detener el entrenamiento si la métrica no mejora. Para ello se usa la clase de callback de keras llamado ''EarlyStopping()''.
  
clase/iabd/pia/2eval/tema08.txt · Última modificación: 2024/04/21 12:47 por admin