Herramientas de usuario

Herramientas del sitio


clase:iabd:pia:2eval:tema08.metricas_regresion

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
clase:iabd:pia:2eval:tema08.metricas_regresion [2025/02/02 19:51]
admin [Coeficiente de determinación o R²]
clase:iabd:pia:2eval:tema08.metricas_regresion [2025/02/02 22:10] (actual)
admin [Selección de métricas de regresión]
Línea 140: Línea 140:
 Ahora vamos a explicar algunas cosas de R² Ahora vamos a explicar algunas cosas de R²
   * MAE, MSE y RMSE son mejor cuanto menor es el valor, mientras que R² es mejor cuanto más se acerca a 1.   * MAE, MSE y RMSE son mejor cuanto menor es el valor, mientras que R² es mejor cuanto más se acerca a 1.
-  * Un problema de R² es que aumenta su valor cuantas más variables tengamos de entrada (es decir el tamaño del vector de cada muestra) por eso se suele usar la métrica de R² ajustada. Para ello en Keras le pasaremos el argumento ''num_regressors'' a la función ''R2Score''+  * Un problema de R² es que aumenta su valor cuantas más variables tengamos de entrada (es decir el tamaño del vector de cada muestra) por eso se suele usar la métrica de R² ajustada. 
  
  
Línea 156: Línea 156:
   * [[https://www.tensorflow.org/api_docs/python/tf/keras/metrics/R2Score|tf.keras.metrics.R2Score]]   * [[https://www.tensorflow.org/api_docs/python/tf/keras/metrics/R2Score|tf.keras.metrics.R2Score]]
   * {{:clase:iabd:pia:2eval:errores_frecuentes_interpretacion_coeficiente_determinacion.pdf|Errores frecuentes en la interpretación del coeficiente de determinación lineal}}   * {{:clase:iabd:pia:2eval:errores_frecuentes_interpretacion_coeficiente_determinacion.pdf|Errores frecuentes en la interpretación del coeficiente de determinación lineal}}
 +
 +===== Coeficiente de determinación ajustado o R²ajustado =====
 +Como acabamos de comentar el Coeficiente de determinación tiene el problema de que tiende a 1 cuantos más características haya es decir cuantas más columnas tenga la hay. 
 +Se suele expresar como que hay una alta dimensionalidad. 
 +
 +Para evitar el problema del cálculo de R² en entornos de alta dimensionalidad (que suele ser lo normal en problemas de IA y Machine Learning) existe una nueva métrica que se llama //R² ajustado// y se escribe $\bar{R^2}$ o $R^2_{ajustado}$
 +
 +La fórmula ahora es:
 +
 +$$
 +\bar{R^2}=1-(1-R^2)\frac{n-1}{n-p-1}
 +$$
 +
 +Siendo:
 +  * $p$: El número de características  ''x.shape[1]''
 +  * $n$: El número de muestras ''s.shape[1]''
 +
 +
 +Para usarlo en keras se usa también ''tf.keras.metrics.R2Score()'' pero se le pasa el argumento ''num_regressors''. Siendo ''num_regressors'' el número de características, es decir ''x.shape[1]''
 +
 +<sxh python>
 +metrics=[tf.keras.metrics.R2Score(num_regressors=x.shape[1])]
 +</sxh>
 +
 +<note tip>
 +Si a ''R2Score()'' no se le pasa ninguna valor a ''num_regressors'' su valor por defecto es 0. Y eso no significa que haya 0 características sino que en ese caso no hay que calcular el valor de $\bar{R^2}$ sino $R^2$
 +</note>
 +
 +
 +
  
  
Línea 166: Línea 196:
       * MSE eleva el error al cuadrado y la regresión al intentar minimizar dicho error , tiende a ir hacia ese dato anómalo. Por lo que MSE tiene más en cuenta los datos anómalos.       * MSE eleva el error al cuadrado y la regresión al intentar minimizar dicho error , tiende a ir hacia ese dato anómalo. Por lo que MSE tiene más en cuenta los datos anómalos.
       * Por contra si los datos "anómalos" realmente no son anómalos sino situaciones "normales" pero poco frecuentes, deberíamos usar MSE.       * Por contra si los datos "anómalos" realmente no son anómalos sino situaciones "normales" pero poco frecuentes, deberíamos usar MSE.
 +  * Mejor usar $R^2$ pero como suele haber mucha características, es mejor usar $\bar{R^2}$
 +  * Entre RMSE y $\bar{R^2}$ se debe usar RMSE si estamos comparando distintos modelos con los mismos datos ya que en ese caso no nos afecta que haya alta dimensionalidad.
  
 <note warning>Recordar que como función de coste es mejor usar MSE que MAE ya que en MAE la derivada es constante.</note> <note warning>Recordar que como función de coste es mejor usar MSE que MAE ya que en MAE la derivada es constante.</note>
clase/iabd/pia/2eval/tema08.metricas_regresion.1738522274.txt.gz · Última modificación: 2025/02/02 19:51 por admin