¡Esta es una revisión vieja del documento!
Son las métricas que se usan en problemas de regresión. Son casi las mismas que usábamos como funciones de coste.
Hay métricas que son exactamente iguales a las funciones de coste como MEA o MSE en los problemas de regresión MAE, MSE. Si ya las usamos como función de coste y queremos usarlas como métricas no es necesario indicarlas como métricas, se puede acceder a ellas de la siguiente forma:
Para mostrar la función de coste en el entrenamiento:
1 |
history.history[ 'loss' ] |
Para mostrar la función de coste en la validación:
1 |
history.history[ 'val_loss' ] |
Es igual que la función de coste de Mean Absolute Error (MAE), así que no explicaremos nada mas sobre ella excepto como se usa en Keras como métrica
Se define como:
1 2 3 4 |
metrics = [tf.keras.metrics.MeanAbsoluteError()] metrics = [ "mean_absolute_error" ] metrics = [ "mae" ] |
y usarla como
1 2 3 4 5 |
history.history[ 'mean_absolute_error' ] history.history[ 'val_mean_absolute_error' ] history.history[ "mae" ] history.history[ "val_mae" ] |
Mas información:
Es igual que la función de coste de Mean Squared Error (MSE), así que no explicaremos nada mas sobre ella excepto como se usa en Keras como métrica
Se define como:
1 2 3 4 |
metrics = [tf.keras.metrics.MeanSquaredError()] metrics = [ "mean_squared_error" ] metrics = [ "mse" ] |
y usarla como
1 2 3 4 5 |
history.history[ 'mean_squared_error' ] history.history[ 'val_mean_squared_error' ] history.history[ "mse" ] history.history[ "val_mse" ] |
Mas información:
Es igual que la función de coste de Distancia del coseno, así que no explicaremos nada mas sobre ella excepto como se usa en Keras como métrica
Se define en Keras como:
1 2 |
metrics = [tf.keras.metrics.CosineSimilarity()] metrics = [ "cosine_similarity" ] |
y se usa como
1 2 |
history.history[ 'cosine_similarity' ] history.history[ 'val_cosine_similarity' ] |
Mas información:
La Root Mean Squared Error (RMSE) o Raiz cuadrada del error cuadrático medio se calcula igual que el MSE pero se le aplica la raíz cuadrada.
Por lo tanto su fórmula es
RMSE=√MSE=√1NN∑i=1(yi−^yi)2
Ahora vamos a explicar algunas cosas de RMSE.
Se define en Keras como:
1 |
metrics = [tf.keras.metrics.RootMeanSquaredError()] |
y se usa como
1 2 |
history.history[ 'root_mean_squared_error' ] history.history[ 'val_root_mean_squared_error' ] |
Mas información:
El coeficiente de determinación o R² se calcula de la siguiente forma:
R2=1−N∑i=1(yi−^yi)2N∑i=1(yi−ˉy)2 ˉy=1NN∑i=1yi−^yi
Siendo:
Ahora vamos a explicar algunas cosas de R²
num_regressors
a la clase RSquare
Se define en Keras como:
1 |
metrics = [tfa.metrics.RSquare()] |
y se usa como
1 |
history.history[ 'r_square' ] |
Mas información:
La elección de una métrica u otra se puede ver en MAE, MSE, RMSE, Coefficient of Determination, Adjusted R Squared — Which Metric is Better? y Know The Best Evaluation Metrics for Your Regression Model