Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa | |||
clase:iabd:pia:2eval:tema08-apendices [2025/02/03 18:36] admin borrado |
— (actual) | ||
---|---|---|---|
Línea 1: | Línea 1: | ||
- | ====== 8.f Apéndices ====== | ||
- | |||
- | |||
- | |||
- | |||
- | ===== Top-N-Accuracy ===== | ||
- | En problemas de clasificación en los que hay muchísimos clases a clasificar , se puede usar otra métrica llamada **Top-N Accuracy**. Veamos en que consiste. | ||
- | |||
- | El problema de clasificación de ImageNet hay 1000 posibles clases a clasificar. En ese caso cuando decimos que un " | ||
- | |||
- | ^ Clase ^ Probabilidad ^ | ||
- | | Casa | 0.06 | | ||
- | | Botella | 0,04 | | ||
- | | Farola | 0,15 | | ||
- | | Gato | 0,34 | | ||
- | | Perro | 0,28 | | ||
- | | Niño | 0,04 | | ||
- | | Adulto | 0,02 | | ||
- | | Bicicleta | 0,03 | | ||
- | | Semáforo | 0,001 | | ||
- | | Puente | 0,039 | | ||
- | |||
- | |||
- | Si la imagen es de un gato, en este caso diríamos que ha acertado ya que la probabilidad de ser gato es del 34% y es la mayor de todas. Y con eso calcularíamos el valor de '' | ||
- | |||
- | Sin embargo veamos este otro ejemplo: | ||
- | |||
- | |||
- | ^ Clase ^ Probabilidad ^ | ||
- | | Casa | 0.06 | | ||
- | | Botella | 0,04 | | ||
- | | Farola | 0,15 | | ||
- | | Gato | 0,28 | | ||
- | | Perro | 0,34 | | ||
- | | Niño | 0,04 | | ||
- | | Adulto | 0,02 | | ||
- | | Bicicleta | 0,03 | | ||
- | | Semáforo | 0,001 | | ||
- | | Puente | 0,039 | | ||
- | |||
- | En este nuevo ejemplo, también le hemos pasado una imagen de una gato pero la probabilidad de ser gato es del 28% mientras que la de ser perro es del 34%. Por ello diríamos que no ha acertado. | ||
- | |||
- | Sin embargo usando la métrica de '' | ||
- | |||
- | Esta métrica tiene sentido cuando hay muchísimas clases (En ImageNet hay 1000 clases). Y aunque la predicción correcta no sea la mejor al menos está entre las 2 primeras '' | ||
- | |||
- | En el siguiente artículo [[https:// | ||
- | |||
- | |||
- | |||
- | === Keras === | ||
- | en keras se puede usar esta métrica con [[https:// | ||
- | |||
- | Por defecto esta métrica calcula es '' | ||
- | |||
- | <sxh python> | ||
- | model.compile(optimizer=' | ||
- | </ | ||
- | |||
- | <sxh python> | ||
- | model.compile(optimizer=' | ||
- | </ | ||
- | |||
- | |||
- | Más información: | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | |||
- | ===== Fbeta-score ===== | ||
- | El Fβ-score permite ajustar si penalizamos más los falsos positivos o los falsos negativos. | ||
- | Al dar más importancia a uno que a otro realmente no es una métrica de rendimiento general ya que está " | ||
- | |||
- | La formula es: | ||
- | |||
- | $$ | ||
- | F_{\beta}\text{-score}=\frac{(1+\beta^2) \cdot precision \cdot sensibilidad}{\beta^2 \cdot precision+sensibilidad} | ||
- | $$ | ||
- | |||
- | Si β=1 la fórmula es la de F1-score por eso se le llama así porque la β es un 1. | ||
- | |||
- | Interpretación de β | ||
- | * Si β = 1, la métrica se reduce al F1-score, que da igual peso a la precisión y la sensibilidad. | ||
- | * Si β > 1, penaliza más una baja sensibilidad, | ||
- | * Si β < 1, penaliza más una baja precisión, lo que significa que los falsos positivos (FP) penalizan más que los falsos negativos (FN). | ||
- | |||
- | ¿Pero cuanto es realmente se valor? Veámoslo con un ejemplo con β = 2 frente a β = 2.5. | ||
- | * Si β = 2, la baja sensibilidad es 4 veces más importante que la precisión, porque 𝛽²=2²=4 | ||
- | * Si β = 2,5, la baja precisión es 6,25 veces más importante que la sensibilidad, | ||
- | |||
- | Es decir, el valor de β no es la relación directa entre sensibilidad y precisión, sino que se eleva al cuadrado. | ||
- | A medida que β aumenta, la sensibilidad pesa exponencialmente más en la precisión. | ||
- | |||
- | Veamos los siguientes ejemplos: | ||
- | |||
- | * Con β=2, la baja sensibilidad penaliza 4 veces más que la precisión | ||
- | |||
- | ^ Sensibilidad | ||
- | | 0,2 | 0,6 | 2 | 0,23 | ||
- | | 0,6 | 0,2 | 2 | 0,42 | ||
- | |||
- | * Con β=0,5 la baja precisión penaliza 4 veces más que la sensibilidad | ||
- | |||
- | ^ Sensibilidad | ||
- | | 0,2 | 0,6 | 0,5 | 0,42 | ||
- | | 0,6 | 0,2 | 0,5 | 0,23 | ||
- | |||
- | Para calcular la β se usa la regla de: | ||
- | * Si queremos que la baja sensibilidad penalice n veces más que la precisión, la fórmula es: | ||
- | $$ | ||
- | \beta=\sqrt{n} | ||
- | $$ | ||
- | |||
- | * Si queremos que la baja precisión penalice n veces más que la sensibilidad, | ||
- | $$ | ||
- | \beta=\sqrt{\frac{1}{n}} | ||
- | $$ | ||
- | |||
- | Más información: | ||
- | * [[https:// | ||
- | * [[https:// | ||
- | * {{ : | ||
- | |||
- | |||
- | |||
- | |||
- | |||