Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa Próxima revisión Ambos lados, revisión siguiente | ||
clase:iabd:pia:2eval:tema07-apendices [2022/03/18 09:03] admin [Creación de los gráficos del descenso de gradiente] |
clase:iabd:pia:2eval:tema07-apendices [2024/03/19 14:04] admin [Más métricas] |
||
---|---|---|---|
Línea 1: | Línea 1: | ||
- | ====== 7. Entrenamiento de redes neuronales | + | ====== 7. Entrenamiento de redes neuronales |
===== Tipos de funciones de coste ===== | ===== Tipos de funciones de coste ===== | ||
Línea 83: | Línea 83: | ||
<sxh python> | <sxh python> | ||
- | def get_puntos_descenso_gradiente(epochs, | + | def get_puntos_descenso_gradiente(epochs, |
- | | + | |
+ | w_1=w_1_original | ||
- | w_0=w_0_init | + | |
- | | + | |
| | ||
for epoch in range(epochs): | for epoch in range(epochs): | ||
h=0.00001 | h=0.00001 | ||
| | ||
- | | + | |
- | | + | |
#Nuevos valores de los pesos | #Nuevos valores de los pesos | ||
- | w_0=w_0-learning_rate*derivada_w_0 | + | w_0=w_0-learning_rate*gradiente_w_0 |
- | w_1=w_1-learning_rate*derivada_w_1 | + | w_1=w_1-learning_rate*gradiente_w_1 |
puntos_descenso_gradiente=np.append(puntos_descenso_gradiente, | puntos_descenso_gradiente=np.append(puntos_descenso_gradiente, | ||
Línea 122: | Línea 122: | ||
</ | </ | ||
- | Que son cada uno de los valores de $w_0,w_1$ que empiezan en $-0.35,-0.67$ y acaban en $0.2657862 , -1.59573582$ | + | Que son cada uno de los valores de $w_0,w_1$ que empiezan en '' |
Pasamos ahora a mostrar los valores dentro de la gráfica de la función, para ello hemos creado 2 funciones: | Pasamos ahora a mostrar los valores dentro de la gráfica de la función, para ello hemos creado 2 funciones: | ||
Línea 166: | Línea 166: | ||
< | < | ||
- | * La estrella roja es desde donde empieza el algoritmo. | + | * La estrella roja es desde donde empieza el algoritmo.Es decir, el valor inicial de los parámetros $w_0,w_1$ |
- | * La estrella azul es donde acaba el algoritmo | + | * La estrella azul es donde acaba el algoritmo.Es decir, el valor tras el entrenamiento de los parámetros $w_0,w_1$ |
- | * Los puntos amarillo son los //pasos// por lo que se va moviendo el algoritmo | + | * Los puntos amarillo son los //pasos// por lo que se va moviendo el algoritmo. Cada uno de los valores intermedios de los parámetros durante el entrenamiento. |
</ | </ | ||
+ | ==== Optimizadores de Keras ==== | ||
+ | | ||
+ | <sxh python> | ||
+ | def loss_tf(w_0, | ||
+ | return | ||
+ | def get_puntos_descenso_gradiente_optimizer(epochs, | ||
+ | puntos_descenso_gradiente=np.array([[w_0_init, | ||
+ | w_0=w_0_init | ||
+ | w_1=w_1_init | ||
+ | for epoch in range(epochs): | ||
+ | var_w_0=tf.Variable(w_0) | ||
+ | var_w_1=tf.Variable(w_1) | ||
+ | |||
+ | optimizer_function.minimize(lambda: | ||
+ | optimizer_function.minimize(lambda: | ||
+ | |||
+ | w_0=var_w_0.numpy() | ||
+ | w_1=var_w_1.numpy() | ||
+ | |||
+ | puntos_descenso_gradiente=np.append(puntos_descenso_gradiente, | ||
+ | |||
+ | return puntos_descenso_gradiente | ||
+ | </ | ||
+ | |||
+ | Lo que ha cambiado principalmente es la función '' | ||
+ | |||
+ | |||
+ | Si usamos '' | ||
+ | <sxh python> | ||
+ | get_puntos_descenso_gradiente_optimizer(5, | ||
+ | </ | ||
+ | <sxh base> | ||
+ | array([[-0.35 | ||
+ | | ||
+ | | ||
+ | [ 0.06544246, -1.06462073], | ||
+ | [ 0.24086528, -1.40752137], | ||
+ | [ 0.26578248, -1.59573841]]) | ||
+ | </ | ||
+ | Vamos que el resultado es prácticamente el mismo que cuando lo hicimos manualmente. | ||
+ | |||
+ | Y podemos generar de la misma forma el gráfico: | ||
+ | <sxh python> | ||
+ | figure=plt.figure(figsize=(16, | ||
+ | axes = figure.add_subplot() | ||
+ | plot_loss_function(axes) | ||
+ | |||
+ | plot_descenso_gradiente(axes, | ||
+ | </ | ||
+ | |||
+ | |||
+ | {{ : | ||
+ | |||
+ | Y obviamente el resultado es el mismo | ||
+ | |||
+ | ===== Métricas ===== | ||
+ | |||
+ | ==== Juntado dos Métricas Básicas ==== | ||
+ | ^ ^ Fórmula que usan ^^^^^ | ||
+ | ^ Métricas básicas que usan ^ Media aritmética | ||
+ | | Sensibilidad (TPR) y Especificidad (TNR) | | | | $Informedness=TPR+TNR-1$ | | | ||
+ | | Sensibilidad (TPR) y FPR | | | | | ||
+ | | Especificidad (TNR) y FNR | | | | | ||
+ | | FPR y FNR | | | | ||
+ | |||
+ | |||
+ | ==== Juntado dos Métricas derivadas ==== | ||
+ | |||
+ | ^ ^ Fórmula que usan ^^^^^ | ||
+ | ^ Métricas básicas que usan ^ Media aritmética | ||
+ | | PPV y NPV | | | | $Markdness=PPV+NPV-1$ | | | ||
+ | | PPV y FOR | | | | | ||
+ | | NPV y FDR | | | | | ||
+ | | FDR y FOR | | | | | ||
+ | |||
+ | |||
+ | ==== Métricas mixtas ==== | ||
+ | Son métricas que juntan una métrica básica con una métrica derivada. Debido a que existen 16 combinaciones no vamos a mostrar todas las que existen, sino solo las que he considerado interesantes. | ||
+ | |||
+ | * La siguiente tabla son métricas que existen (Tienen nombre) | ||
+ | |||
+ | ^ ^ Fórmula que usan ^^^^^ | ||
+ | ^ Métricas básicas que usan ^ Media aritmética | ||
+ | | PPV y Sensibilidad (TPR) | | $F_{1}score=\frac{2}{\frac{1}{PPV}+\frac{1}{TPR}}$ | ||
+ | | NPV y Especificidad (TNR) | | | | | ||
+ | |||
+ | ===== Más métricas ===== | ||
+ | |||
+ | |||
+ | ==== Indice Jaccard ==== | ||
+ | Este índice es la división entre 2 probabilidades: | ||
+ | |||
+ | $$ | ||
+ | Indice \; Jaccard=\frac{P(Positivo \cap Enfermo)}{P(Positivo \cup Enfermo)}=\frac{TP}{TP+FP+FN} | ||
+ | $$ | ||
+ | |||
+ | * Se deduce de la siguiente forma: | ||
+ | |||
+ | $$ | ||
+ | \frac{P(Positivo \cap Enfermo)}{P(Positivo \cup Enfermo)}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Positivo)+P(Enfermo)-P(Positivo \cap Enfermo)}=\frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Positivo)+P(Enfermo)-P(Positivo|Enfermo)*P(Enfermo)} | ||
+ | $$ | ||
+ | |||
+ | * Sabiendo que: | ||
+ | |||
+ | $$ | ||
+ | |||
+ | \begin{array} | ||
+ | \\ | ||
+ | P(Enfermo)& | ||
+ | \\ | ||
+ | P(Sano)& | ||
+ | \\ | ||
+ | P(Positivo)& | ||
+ | \\ | ||
+ | P(Negativo)& | ||
+ | \\ | ||
+ | P(Positivo|Enfermo)& | ||
+ | \end{array} | ||
+ | $$ | ||
+ | |||
+ | * Entonces: | ||
+ | |||
+ | $$ | ||
+ | \frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Positivo)+P(Enfermo)-P(Positivo|Enfermo)*P(Enfermo)}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \left ( \frac{TP}{TP+FN}*\frac{TP+FN}{TP+FN+FP+TN} \right ) \div \left (\frac{TP+FP}{TP+FN+FP+TN}+\frac{TP+FN}{TP+FN+FP+TN}-\frac{TP}{TP+FN}*\frac{TP+FN}{TP+FN+FP+TN} \right )= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \left ( \frac{TP}{TP+FN+FP+TN} \right ) \div \left (\frac{TP+FP}{TP+FN+FP+TN}+\frac{TP+FN}{TP+FN+FP+TN}-\frac{TP}{TP+FN+FP+TN} \right )= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \left ( \frac{TP}{TP+FN+FP+TN} \right ) \div \left (\frac{TP+FP+TP+FN-TP}{TP+FN+FP+TN} \right )=\left ( \frac{TP}{TP+FN+FP+TN} \right ) \div \left (\frac{TP+FP+FN}{TP+FN+FP+TN} \right )= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \frac{TP}{TP+FP+FN}=Indice \; Jaccard | ||
+ | $$ | ||
+ | |||
+ | * Sin embargo también podemos definir el Indice Jaccard en función de la sensibilidad, | ||
+ | |||
+ | $$ | ||
+ | P(Positivo)=\frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Enfermo|Positivo)}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \frac{P(Positivo|Enfermo)*P(Enfermo)}{1} \div \frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Positivo|Enfermo)*P(Enfermo)+P(Positivo|Sano)*P(Sano)}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | Sensibilidad*Prevalencia+(1-Especificidad)*(1-Prevalencia) | ||
+ | $$ | ||
+ | |||
+ | |||
+ | * Y ahora usamos la formula de P(Positivo) en la definición del Indice Jaccard | ||
+ | |||
+ | $$ | ||
+ | Indice \; Jaccard=\frac{P(Positivo|Enfermo)*P(Enfermo)}{P(Positivo)+P(Enfermo)-P(Positivo|Enfermo)*P(Enfermo)}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \frac{Sensibilidad*Prevalencia}{Sensibilidad*Prevalencia+(1-Especificidad)*(1-Prevalencia)+Prevalencia-Sensibilidad*Prevalencia}= | ||
+ | $$ | ||
+ | |||
+ | $$ | ||
+ | \frac{Sensibilidad*Prevalencia}{(1-Especificidad)*(1-Prevalencia)+Prevalencia} | ||
+ | $$ | ||
+ | |||
+ | * Por lo tanto | ||
+ | |||
+ | $$ | ||
+ | Indice \; Jaccard=\frac{Sensibilidad*Prevalencia}{(1-Especificidad)*(1-Prevalencia)+Prevalencia} | ||
+ | $$ | ||
+ | |||
+ | |||
+ | |||
+ | ==== Prevalence threshold ==== | ||
+ | La métrica de Prevalence threshold está explicada en [[https:// | ||
+ | |||
+ | Lo único que diremos respecto a la formula es que en el artículo aparece como: | ||
+ | |||
+ | $$ | ||
+ | Prevalence \; threshold=\frac{\sqrt{Sensibilidad(1-Especificidad)}+(Especificidad-1)}{Sensibilidad+Especificidad+1} | ||
+ | $$ | ||
+ | Que jugando un poco con los signos se obtiene la formula equivalente que aparece en Wikipedia: | ||
+ | $$ | ||
+ | Prevalence \; threshold=\frac{\sqrt{Sensibilidad*FPR}-FPR}{Sensibilidad-FPR} | ||
+ | $$ | ||
+ | |||
+ | ==== Diagnostic odds ratio ==== | ||
+ | Se define como la división entre //Positive likelihood ratio (LR+)// y //Negative likelihood ratio (LR-)// | ||
+ | |||
+ | $$ | ||
+ | DOR=\frac{LR+}{LR-}=\frac{TP*TN}{FP*FN} | ||
+ | $$ | ||
+ | |||
+ | * Aunque también se puede definir en función de la sensibilidad y la especificidad | ||
+ | |||
+ | $$ | ||
+ | DOR=\frac{LR+}{LR-}=\frac{\frac{TPR}{1-TNR}}{\frac{1-TPR}{TNR}}=\frac{Sensibilidad*Especificidad}{(1-Sensibilidad)(1-Especificidad)} | ||
+ | $$ | ||