Herramientas de usuario

Herramientas del sitio


clase:iabd:pia:2eval:tema08

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
clase:iabd:pia:2eval:tema08 [2024/04/21 12:45]
admin [Analizando la regularización]
clase:iabd:pia:2eval:tema08 [2024/04/21 12:47] (actual)
admin [Optimización]
Línea 157: Línea 157:
   * Normalization    * Normalization 
   * Tamaño de Batch   * Tamaño de Batch
 +  * Batch Normalization
   * Parada anticipada   * Parada anticipada
  
  
-==== Normalization ====+===== Normalization =====
 La normalización consiste es que los datos de entrada estén centrado en 0 y una desviación "pequeña" La normalización consiste es que los datos de entrada estén centrado en 0 y una desviación "pequeña"
 Esto se hace porque la red va a entrenarse mejor si los datos son "pequeños" y todos en la misma escala ya que así funciona mejor el algoritmo del descenso de gradiente. Esto se hace porque la red va a entrenarse mejor si los datos son "pequeños" y todos en la misma escala ya que así funciona mejor el algoritmo del descenso de gradiente.
Línea 249: Línea 250:
 </sxh> </sxh>
  
-==== Batch Normalization ====+===== Batch Normalization =====
 Hace que las salida sigan con valores alrededor de media 0 y desviación 1. Hace que las salida sigan con valores alrededor de media 0 y desviación 1.
  
Línea 257: Línea 258:
 </sxh> </sxh>
  
-==== Tamaño del Batch  ====+===== Tamaño del Batch  =====
 <sxh python> <sxh python>
 history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,batch_size=20) history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,batch_size=20)
Línea 284: Línea 285:
  
  
-==== Parada anticipada ====+===== Parada anticipada =====
 La parada anticipada resuelve el problema de cuántas épocas debemos entregar nuestro modelo. Lo que hace es detener el entrenamiento si la métrica no mejora. Para ello se usa la clase de callback de keras llamado ''EarlyStopping()''. La parada anticipada resuelve el problema de cuántas épocas debemos entregar nuestro modelo. Lo que hace es detener el entrenamiento si la métrica no mejora. Para ello se usa la clase de callback de keras llamado ''EarlyStopping()''.
  
clase/iabd/pia/2eval/tema08.txt · Última modificación: 2024/04/21 12:47 por admin