Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
clase:iabd:pia:2eval:tema07 [2023/04/10 15:23] admin [Ejercicios] |
clase:iabd:pia:2eval:tema07 [2024/01/30 15:26] admin [Distancia del coseno] |
||
---|---|---|---|
Línea 351: | Línea 351: | ||
{{ : | {{ : | ||
+ | |||
+ | |||
Podemos definir la posición como un conjunto de vectores de cada una de las extremidades. El angulo de cada vector nos dice la posición de cada extremidad pero el tamaño del vector no dice el tamaño de la extremidad. Ahora veamos la siguiente imagen. | Podemos definir la posición como un conjunto de vectores de cada una de las extremidades. El angulo de cada vector nos dice la posición de cada extremidad pero el tamaño del vector no dice el tamaño de la extremidad. Ahora veamos la siguiente imagen. | ||
Línea 358: | Línea 360: | ||
Son 3 personas distintas cada una con tamaños de extremidades distintas además que dependiendo de si están en la imagen más hacia el fondo, sus tamaños serán distintos. Para saber si las 3 están haciendo los mismos movimientos, | Son 3 personas distintas cada una con tamaños de extremidades distintas además que dependiendo de si están en la imagen más hacia el fondo, sus tamaños serán distintos. Para saber si las 3 están haciendo los mismos movimientos, | ||
+ | |||
+ | Lo mismo se puede aplicar a un partido de papel: | ||
+ | |||
+ | {{ : | ||
Otro ejemplo sería para catalogar películas de géneros semejantes. Veamos la siguiente gráfica: | Otro ejemplo sería para catalogar películas de géneros semejantes. Veamos la siguiente gráfica: | ||
Línea 395: | Línea 401: | ||
$$Binary \: Cross \: Entropy = - \frac{1}{N} \sum_{i=1}^{N} y_{i} \cdot log(\hat{y_i}) + (1-y_{i}) \cdot log(1-\hat{y_i}) $$ | $$Binary \: Cross \: Entropy = - \frac{1}{N} \sum_{i=1}^{N} y_{i} \cdot log(\hat{y_i}) + (1-y_{i}) \cdot log(1-\hat{y_i}) $$ | ||
- | Se ha puesto la fórmula para explicar que su valor va de $[0,\infty[$. Ya que por un lado el logaritmo de un número cercano a cero es menos infinito, de ahí que se ponga el signo menos al principio. Y que los datos de $y_i$ e $\hat{y_i}$ | + | Los valores |
+ | |||
+ | Veamos ahora graficamente como es la fórmula según si $y=0$ o $y=1$ | ||
+ | {{: | ||
+ | |||
Su uso en Keras es: | Su uso en Keras es: | ||
Línea 431: | Línea 442: | ||
| Regresión | | Regresión | ||
| Clasificación con 2 posibles valores | Sigmoide | | Clasificación con 2 posibles valores | Sigmoide | ||
- | | Clasificación con más de 2 posibles valores | Softmax | + | | Clasificación con más de 2 posibles valores |
+ | | Clasificación con más de 2 posibles valores SI excluyentes entre si | Softmax | ||
Línea 493: | Línea 505: | ||
- | Haz un programa en python que calcule **mediante las fórmulas** la pérdida de la red con '' | + | Haz un programa en python que calcule **mediante las fórmulas** la pérdida de la red con '' |
==== Ejercicio 1.B ==== | ==== Ejercicio 1.B ==== | ||
Línea 499: | Línea 511: | ||
* '' | * '' | ||
* '' | * '' | ||
+ | * '' | ||
+ | |||
==== Ejercicio 2 ==== | ==== Ejercicio 2 ==== | ||
Tenemos dos redes neuronales, que deberían haber sacado los siguientes datos. | Tenemos dos redes neuronales, que deberían haber sacado los siguientes datos. | ||
Línea 560: | Línea 573: | ||
- | Calcula la pérdida de las 2 redes con '' | + | Calcula la pérdida de las 2 redes con '' |
- | ^ ^ MAE ^ MSE ^ | + | ^ ^ MAE ^ MSE |
- | ^ Red A | | | | + | ^ Red A | | |
- | ^ Red B | | | | + | ^ Red B | | |
¿cual es mejor red? Explica porqué | ¿cual es mejor red? Explica porqué | ||
Línea 731: | Línea 744: | ||
==== Ejercicio 7 ==== | ==== Ejercicio 7 ==== | ||
Crea una red neuronal para entrenar las flores. Tienes que entrenarla durante 300 épocas con todas las combinaciones de: | Crea una red neuronal para entrenar las flores. Tienes que entrenarla durante 300 épocas con todas las combinaciones de: | ||
- | * Funciones | + | * Estructura |
- | * Funciones de pérdida: MSE, MAE, Binary Crossentropy, Categorical Crossentropy | + | * [3] |
- | + | * [4, 3] | |
- | Las neuronas de cada capa son '' | + | * [4, 8, 3] |
- | + | * [4, 8, 16, 8, 3] | |
- | <note tip> | + | * [4, 8, 16, 32, 16, 8, 4, 3] |
- | La función | + | * [4, 8, 16, 32, 64, 32, 16, 8, 4, 3] |
- | </ | + | |
+ | * Funciones | ||
+ | * Sigmoid | ||
+ | * Tanh | ||
+ | * ReLU | ||
+ | * LeakyReLU | ||
+ | * SeLU | ||
+ | * ELU | ||
- | La gráfica resultante debe ser similar a ésta: | ||
- | {{ : | ||
Responde las siguientes cuestiones: | Responde las siguientes cuestiones: | ||
- | | + | * ¿Cual ha resultado ser la mejor estructura |
- | | + | * ¿Cual ha sido la mejor función de activación |
- | * ¿Cual ha sido la peor función de activación? | + | |
- | * ¿Cual ha sido la mejor/es función/ | + | |
==== Ejercicio 8.A ==== | ==== Ejercicio 8.A ==== |