Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
clase:iabd:pia:2eval:tema07-apendices [2024/03/19 14:07] admin [Métricas] |
clase:iabd:pia:2eval:tema07-apendices [2024/03/19 17:04] (actual) admin [Más métricas] |
||
---|---|---|---|
Línea 233: | Línea 233: | ||
===== Métricas ===== | ===== Métricas ===== | ||
+ | Las métricas que ya las hemos explicado en el tema de métricas son: | ||
+ | * Métricas básicas (Sensibilidad, | ||
+ | * Métricas derivadas según el teorema de bayes (PPV,NPV, FDR y FOR) | ||
+ | Las métricas que ahora vamos a ver son métricas que hacen la media entre alguna de las dos métricas que acabamos de indicar. | ||
+ | |||
+ | Para organizar las métricas según 2 criterios: | ||
+ | * Según que métricas juntan | ||
+ | * Métricas básicas (Sensibilidad, | ||
+ | * Métricas derivadas (PPV,NPV, FDR y FOR) | ||
+ | * Métricas mixtas, que usa una básica y otra derivada. | ||
+ | * Según la fórmula que usan: | ||
+ | * Media aritmética | ||
+ | * Media armónica | ||
+ | * Media geométrica | ||
+ | * L1-Norma | ||
+ | * L2-Norma | ||
+ | * Ratio | ||
==== Juntado dos Métricas Básicas ==== | ==== Juntado dos Métricas Básicas ==== | ||
^ ^ Fórmula que usan ^^^^^^ | ^ ^ Fórmula que usan ^^^^^^ | ||
Línea 291: | Línea 308: | ||
P(Enfermo)& | P(Enfermo)& | ||
\\ | \\ | ||
+ | |||
+ | |||
+ | |||
P(Sano)& | P(Sano)& | ||
\\ | \\ | ||
Línea 385: | Línea 405: | ||
DOR=\frac{LR+}{LR-}=\frac{\frac{TPR}{1-TNR}}{\frac{1-TPR}{TNR}}=\frac{Sensibilidad*Especificidad}{(1-Sensibilidad)(1-Especificidad)} | DOR=\frac{LR+}{LR-}=\frac{\frac{TPR}{1-TNR}}{\frac{1-TPR}{TNR}}=\frac{Sensibilidad*Especificidad}{(1-Sensibilidad)(1-Especificidad)} | ||
$$ | $$ | ||
+ | |||
+ | ==== Matthews Correlation Coefficient o MMC ==== | ||
+ | Es otra métrica pero que tiene en cuenta que los datos no estén balanceados. | ||
+ | |||
+ | El MMC tiene un valor entre -1 a 1. Siendo: | ||
+ | * 1 : El clasificador funciona perfectamente | ||
+ | * 0 : El clasificador acierta aleatoriamente | ||
+ | * -1 : El clasificador acierta peor que aleatoriamente, | ||
+ | |||
+ | $$MCC = \frac{ \mathit{TP} \times \mathit{TN} - \mathit{FP} \times \mathit{FN} } {\sqrt{ (\mathit{TP} + \mathit{FP}) ( \mathit{TP} + \mathit{FN} ) ( \mathit{TN} + \mathit{FP} ) ( \mathit{TN} + \mathit{FN} ) } }$$ | ||
+ | |||
+ | |||
+ | Podemos hacer uso de la métrica con la función '' | ||
+ | |||
+ | Ejemplo de uso: | ||
+ | <sxh python> | ||
+ | from sklearn.metrics import matthews_corrcoef | ||
+ | |||
+ | y_true = [1, | ||
+ | y_pred = [1, | ||
+ | print(" | ||
+ | |||
+ | y_true = [1, | ||
+ | y_pred = [1, | ||
+ | print(" | ||
+ | |||
+ | y_true = [1, | ||
+ | y_pred = [0, | ||
+ | print(" | ||
+ | </ | ||
+ | |||
+ | |||
+ | <sxh base> | ||
+ | Valor para una predicción que acierta siempre= 1.0 | ||
+ | Valor para una predicción que acierta la mitad= 0.0 | ||
+ | Valor para una predicción que nunca acierta= -1.0 | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | Mas información: | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * [[https:// | ||
+ | * {{ : | ||
+ | * [[https:// | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||