Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
clase:iabd:pia:matematicas:probabilidad_metricas [2024/02/04 20:17] admin [El umbral] |
clase:iabd:pia:matematicas:probabilidad_metricas [2025/04/26 12:17] (actual) admin [Ejemplos] |
||
---|---|---|---|
Línea 8: | Línea 8: | ||
Para calcular las métricas tenemos 2 arrays: | Para calcular las métricas tenemos 2 arrays: | ||
* Yreal={yreal∈N∣yreal∈{0,1}} Array con los valores reales o verdaderos. | * Yreal={yreal∈N∣yreal∈{0,1}} Array con los valores reales o verdaderos. | ||
- | * Ypredicho={ypredicho∈R∣ypredicho∈[0,1[} Array con los valores predichos por la red neuronal. | + | * Ypredicho={ypredicho∈R∣ypredicho∈[0,1[} Array con los valores predichos por la red neuronal. |
+ | |||
+ | y ahora los juntamos en un único conjunto | ||
+ | |||
* Y={(yreal,ypredicho)|yreal∈Yreal,ypredicho∈Ypredicho} Parejas de datos reales y predichos. | * Y={(yreal,ypredicho)|yreal∈Yreal,ypredicho∈Ypredicho} Parejas de datos reales y predichos. | ||
Línea 28: | Línea 31: | ||
FP=|{(yreal,ypredicho)∈Y|yreal=0∧ypredicho∈[0.5,1[}| | FP=|{(yreal,ypredicho)∈Y|yreal=0∧ypredicho∈[0.5,1[}| | ||
- | $TN=|\{ (y_{real}, | + | $FN=|\{ (y_{real}, |
- | $TN=|\{ (y_{real}, | + | $TP=|\{ (y_{real}, |
La matriz de confusión es la siguiente: | La matriz de confusión es la siguiente: | ||
Línea 52: | Línea 55: | ||
| ^^ Predicción | | ^^ Predicción | ||
- | | ^^ PN,ypredicho∈[0,0.5[ | + | | ^^ PN,ypredicho∈[0,0.5[ |
^ Realidad | ^ Realidad | ||
^ ::: ^ P, | ^ ::: ^ P, | ||
Línea 119: | Línea 122: | ||
- | $I=\{ \;\; \{[0,0.5[\}\;,\;\{[0.5,1[\}\;\; \}$ | + | I={[0,0.5[,[0.5,1[} |
Por lo tanto ahora habrá menos fórmulas. | Por lo tanto ahora habrá menos fórmulas. | ||
Línea 207: | Línea 210: | ||
====== Generalizando los intervalos ====== | ====== Generalizando los intervalos ====== | ||
- | y ahora viene lo interesante, | + | __**y ahora viene lo interesante, |
- | $I=\{ \;\;\{[0,0.1[\}\;,\;\{[0.1,0.2[\}\;,\;\{[0.2,0.3[\}\;,\;\{[0.3,0.4[\}\;,\;\{[0.4,0.5[\}\;,\;\{[0.5,0.6[\}\;,\;\{[0.6,0.7[\}\;,\;\{[0.7,0.8[\}\;,\;\{[0.8,0.9[\}\;,\;\{[0.9,1[\} \;\;\}$ | + | I={[0,0.1[,[0.1,0.2[,[0.2,0.3[,[0.3,0.4[,[0.4,0.5[,[0.5,0.6[,[0.6,0.7[,[0.7,0.8[,[0.8,0.9[,[0.9,1[} |
+ | En el siguiente código en Python se puede ver el resultado de usar las fórmulas: | ||
+ | |||
+ | ====== Infinitos intervalos ====== | ||
¿Y si hubiera infinitos intervalos? Que podríamos sacar la probabilidad exacta para el resultado que nos ha dado. | ¿Y si hubiera infinitos intervalos? Que podríamos sacar la probabilidad exacta para el resultado que nos ha dado. | ||
- | En el siguiente código en Python se puede ver el resultado | + | ¿como sacarlo para infinitos intervalos? Pues calculando la función |
+ | |||
+ | Sabemos que la función de coste para las redes neuronales es $Binary \: Cross \: Entropy$: | ||
+ | |||
+ | BinaryCrossEntropy(yreal,ypredicho)=−(yreal⋅log(ypredicho)+(1−yreal)⋅log(1−ypredicho)) | ||
+ | |||
+ | Los valores de yreal son 0 o 1, mientras que los valores de ypredicho es un número real entre 0 y 1 | ||
+ | |||
+ | Veamos ahora gráficamente como es la fórmula según si yreal=0 o yreal=1 | ||
+ | |||
+ | $$ | ||
+ | Binary \: Cross \: Entropy(y_{real}, | ||
+ | -log(1-y_{predicho}) & si & y_{real}=0 | ||
+ | -log(y_{predicho}) & si & y_{real}=1 | ||
+ | \end{matrix}\right. | ||
+ | $$ | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ====== Ejemplos ====== | ||
+ | |||
+ | * Evolución de la red de "las imágenes de números " en 16 épocas: | ||
+ | {{ : | ||
+ | * Evolución de la red de " | ||
+ | {{ : |