Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa | Próxima revisión Ambos lados, revisión siguiente | ||
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2023/04/20 16:39] admin [Ejercicios] |
clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente [2023/06/10 18:04] admin [Elección del optimizador.] |
||
---|---|---|---|
Línea 684: | Línea 684: | ||
Más información: | Más información: | ||
* [[https:// | * [[https:// | ||
+ | |||
+ | |||
+ | <note tip> | ||
+ | En nuestros proyectos, solemos necesitar mostrar por pantalla el optimizador que estamos usando y normalmente pasa ésto: | ||
+ | |||
+ | <sxh python> | ||
+ | print(tf.keras.optimizers.Adam(learning_rate=0.001)) | ||
+ | print(tf.keras.optimizers.Adamax(learning_rate=0.00000001)) | ||
+ | </ | ||
+ | |||
+ | <sxh base> | ||
+ | < | ||
+ | < | ||
+ | </ | ||
+ | |||
+ | Pero hay un truco para que se muestre de forma más amigable, que es sobre escribir la función '' | ||
+ | |||
+ | <sxh python> | ||
+ | tf.keras.optimizers.Optimizer.__str__=lambda self: f' | ||
+ | </ | ||
+ | |||
+ | Y si volvemos a ejecutar de nuevo el código: | ||
+ | |||
+ | <sxh python> | ||
+ | print(tf.keras.optimizers.Adam(learning_rate=0.001)) | ||
+ | print(tf.keras.optimizers.Adamax(learning_rate=0.00000001)) | ||
+ | </ | ||
+ | |||
+ | <sxh base> | ||
+ | Adam lr=0.001 | ||
+ | Adamax lr=0.00000001 | ||
+ | </ | ||
+ | |||
+ | |||
+ | </ | ||