Herramientas de usuario

Herramientas del sitio


clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión Ambos lados, revisión siguiente
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2023/04/20 16:39]
admin [Ejercicios]
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2023/06/10 18:04]
admin [Elección del optimizador.]
Línea 684: Línea 684:
 Más información: Más información:
   * [[https://keras.io/api/optimizers/Nadam/|Nadam]]   * [[https://keras.io/api/optimizers/Nadam/|Nadam]]
 +
 +
 +<note tip>
 +En nuestros proyectos, solemos necesitar mostrar por pantalla el optimizador que estamos usando y normalmente pasa ésto:
 +
 +<sxh python>
 +print(tf.keras.optimizers.Adam(learning_rate=0.001))
 +print(tf.keras.optimizers.Adamax(learning_rate=0.00000001))
 +</sxh>
 +
 +<sxh base>
 +<keras.optimizer_v2.adam.Adam object at 0x7fc4c0d16b60>
 +<keras.optimizer_v2.adamax.Adamax object at 0x7fc4c1db1810>
 +</sxh>
 +
 +Pero hay un truco para que se muestre de forma más amigable, que es sobre escribir la función ''__str__'' de la clase ''Optimizer'':
 +
 +<sxh python>
 +tf.keras.optimizers.Optimizer.__str__=lambda self: f'{self._name} lr=' + f'{self.learning_rate.numpy():.10f}'.rstrip('0')
 +</sxh>
 +
 +Y si volvemos a ejecutar de nuevo el código:
 +
 +<sxh python>
 +print(tf.keras.optimizers.Adam(learning_rate=0.001))
 +print(tf.keras.optimizers.Adamax(learning_rate=0.00000001))
 +</sxh>
 +
 +<sxh base>
 +Adam lr=0.001
 +Adamax lr=0.00000001
 +</sxh>
 +
 +
 +</note>
  
  
clase/iabd/pia/2eval/tema07.backpropagation_descenso_gradiente.txt · Última modificación: 2024/02/28 15:38 por admin