Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
clase:iabd:pia:2eval:tema08.metricas_regresion [2025/02/02 19:50] admin [Coeficiente de determinación o R²] |
clase:iabd:pia:2eval:tema08.metricas_regresion [2025/02/02 22:10] (actual) admin [Selección de métricas de regresión] |
||
---|---|---|---|
Línea 140: | Línea 140: | ||
Ahora vamos a explicar algunas cosas de R² | Ahora vamos a explicar algunas cosas de R² | ||
* MAE, MSE y RMSE son mejor cuanto menor es el valor, mientras que R² es mejor cuanto más se acerca a 1. | * MAE, MSE y RMSE son mejor cuanto menor es el valor, mientras que R² es mejor cuanto más se acerca a 1. | ||
- | * Un problema de R² es que aumenta su valor cuantas más variables tengamos de entrada (es decir el tamaño del vector de cada muestra) por eso se suele usar la métrica de R² ajustada. | + | * Un problema de R² es que aumenta su valor cuantas más variables tengamos de entrada (es decir el tamaño del vector de cada muestra) por eso se suele usar la métrica de R² ajustada. |
Línea 156: | Línea 156: | ||
* [[https:// | * [[https:// | ||
* {{: | * {{: | ||
+ | |||
+ | ===== Coeficiente de determinación ajustado o R²ajustado ===== | ||
+ | Como acabamos de comentar el Coeficiente de determinación tiene el problema de que tiende a 1 cuantos más características haya es decir cuantas más columnas tenga la hay. | ||
+ | Se suele expresar como que hay una alta dimensionalidad. | ||
+ | |||
+ | Para evitar el problema del cálculo de R² en entornos de alta dimensionalidad (que suele ser lo normal en problemas de IA y Machine Learning) existe una nueva métrica que se llama //R² ajustado// y se escribe $\bar{R^2}$ o $R^2_{ajustado}$ | ||
+ | |||
+ | La fórmula ahora es: | ||
+ | |||
+ | $$ | ||
+ | \bar{R^2}=1-(1-R^2)\frac{n-1}{n-p-1} | ||
+ | $$ | ||
+ | |||
+ | Siendo: | ||
+ | * $p$: El número de características | ||
+ | * $n$: El número de muestras '' | ||
+ | |||
+ | |||
+ | Para usarlo en keras se usa también '' | ||
+ | |||
+ | <sxh python> | ||
+ | metrics=[tf.keras.metrics.R2Score(num_regressors=x.shape[1])] | ||
+ | </ | ||
+ | |||
+ | <note tip> | ||
+ | Si a '' | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
Línea 166: | Línea 196: | ||
* MSE eleva el error al cuadrado y la regresión al intentar minimizar dicho error , tiende a ir hacia ese dato anómalo. Por lo que MSE tiene más en cuenta los datos anómalos. | * MSE eleva el error al cuadrado y la regresión al intentar minimizar dicho error , tiende a ir hacia ese dato anómalo. Por lo que MSE tiene más en cuenta los datos anómalos. | ||
* Por contra si los datos " | * Por contra si los datos " | ||
+ | * Mejor usar $R^2$ pero como suele haber mucha características, | ||
+ | * Entre RMSE y $\bar{R^2}$ se debe usar RMSE si estamos comparando distintos modelos con los mismos datos ya que en ese caso no nos afecta que haya alta dimensionalidad. | ||
<note warning> | <note warning> |