Herramientas de usuario

Herramientas del sitio


clase:iabd:pia:2eval:tema08

Tabla de Contenidos

8. Optimización de redes neuronales

Sobreajuste

El sobreajuste (en inglés Overfitting) es cuando nuestro modelo, en vez de aprender lo que hace es memorizar los resultados. Tambien existe el concepto de subajuste (en inglés underfitting) que es cuando el modelo no es lo suficientemente ponente para adecuarse a los datos. En redes neuronales suele darse menos el underfitting ya que las redes las podemos haces bastantes complejos y solemos pecar de modelos demasiado complejos.

En las siguientes gráficas se observas distintos redes neuronales que tienen sobreajuste:

El sobreajuste se ve porque la red aprende cada vez más en entrenamiento pero aprende cada vez menos en validación. Es decir, disminuye la perdida en entrenamiento pero no disminuye en validación.

¿Como podemos evitar el sobre ajuste? Hay varias formas:

  • Dropout
  • Regularización

Regularización

Para hacer el modelo mas sencillo, la regularización intenta que los pesos sean mas pequeños. En una red neuronal tenemos una serie de pesos w y b. Si penalizamos la función de pérdida cuando los pesos son mas grandes, habremos "hecho" la regularización.

Se consigue que el tener el w o b muy bajo esa neurona "no exista" y por lo tanto simplifica el modelo. Un modelo más sencillo hace que haya menos sobre ajuste.

Existen 3 tipos de regularizadores (realmente existen más):

  • L1: También llamada Lasso. Intenta hacer los pesos lo más pequeños posibles.
  • L2: También llamada Ridge. Intenta eliminar correlaciones entre pesos.
  • L1L2: También llamada ElasticNet. Es la unión de los 2 anteriores.

Los regularizadores se pueden aplicar tanto a los w como a los b:

  • kernel_regularizer: Para aplicarse a los w
  • bias_regularizer: Para aplicarse a los b
Lo normal es aplicar los regularizadores a los w es decir usar kernel_regularizer.

Ejemplos de uso en Keras de L1:

from tensorflow.keras import regularizers

kernel_regularizer=regularizers.L1(l1=0.01)
kernel_regularizer="l1"
model.add(Dense(neuronas_capa, activation=activation,kernel_regularizer=kernel_regularizer))

Ejemplos de uso en Keras de L2:

from tensorflow.keras import regularizers

kernel_regularizer=regularizers.L2(l2=0.01)
kernel_regularizer="l2"
model.add(Dense(neuronas_capa, activation=activation,kernel_regularizer=kernel_regularizer))

Ejemplos de uso en Keras de L1L2:

from tensorflow.keras import regularizers

kernel_regularizer=regularizers.L1L2(l1=0.01, l2=0.01)
kernel_regularizer="l1_l2"
model.add(Dense(neuronas_capa, activation=activation,kernel_regularizer=kernel_regularizer))

Los valores de l1, l2 que se pasa a los regularizadores es la tasa de regularización o cantidad de regularización y es cuanto queremos que regularicemos. Si vale 0, no se regulariza nada. Si vale 1 se regulariza muchísimo.

Como vemos el regularizador se puede indicar creando la clase para indicar el nivel de regularización o simplemente con un string e indicando el nombre.

Vamos a ver como funcionan los distintos regularizadores y con distintos valores:

En la siguiente gráfica vamos a mostrar el valor de la pérdida en la última época en función del nivel de regularización:

Más información:

Dropout

El Dropout consiste en hacer que ciertas neuronas se vayan desactivando cada vez en el entrenamiento.

Se hace añadiendo capas de Dropout con una tasa (rate) de cuantas neuronas se desactivan. Un valor de 0 es como si no hubiera dropout y un valor cercano a 1 es como si se desactivaran la mayoría de neuronas. (No se permite el valor de 1)

Uso de uso en Keras de Dropout:

from tensorflow.keras.layers import Dropout

dropout_rate=0.02
model.add(Dense(neuronas_capa, activation=activation))
model.add(Dropout(rate=dropout_rate))

Optimización

Junto con las técnicas anteriores , existen otras para mejorar una red neuronal:

  • Normalization
  • Tamaño de Batch
  • Parada anticipada

Normalization

La normalización consiste es que los datos de entrada estén centrado en 0 y una desviación "pequeña". Esto se hace porque la red va a entrenarse mejor si los datos son "pequeños" y todos en la misma escala ya que así funciona mejor el algoritmo del descenso de gradiente.

Para normalizar los datos se usa la clase StandardScaler de sklearn.

from sklearn.preprocessing import StandardScaler

standard_scaler = StandardScaler()
standard_scaler.fit(x)
x_standard = standard_scaler.transform(x)

Y sobre un ejemplo de datos sería lo siguiente:

def get_datos_bread_cancer():
    datos=load_breast_cancer()
    x=datos.data
    y=datos.target

    standard_scaler = StandardScaler()
    standard_scaler.fit(x)
    x = standard_scaler.transform(x)

    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=42,stratify=y)

    state={ 
        "mean":standard_scaler.mean_,
        "var":standard_scaler.var_,
        "scale":standard_scaler.scale_
    }

    return x_train, x_test, y_train, y_test, state



x_train, x_test, y_train, y_test,state=get_datos_bread_cancer() 

Veamos un ejemplo de que es lo que realmente hace.

from sklearn.preprocessing import StandardScaler

datos=np.random.normal(1000,50,5000).reshape(-1,1)

figure=plt.figure(figsize = (6, 9))
axes = figure.add_subplot(3,1,1)
sns.histplot(x=datos.reshape(-1),ax=axes)

standard_scaler = StandardScaler()
standard_scaler.fit(datos)

datos_standarized = standard_scaler.transform(datos)
axes = figure.add_subplot(3,1,2)
sns.histplot(x=datos_standarized.reshape(-1),ax=axes)
figure.suptitle("StandardScaler", fontsize=22, color='#003B80')

Un problema que hay al usar la clase StandardScaler es que en producción hay que usar la misma transformación para predecir los datos. Por ello es necesario guardar los datos de la clase para volver a ponerlos.

La forma de hacerlo es la siguiente:

state={ 
    "mean":standard_scaler.mean_,
    "var":standard_scaler.var_,
    "scale":standard_scaler.scale_
}
new_standard_scaler = StandardScaler()
new_standard_scaler.fit([[0]])
new_standard_scaler.mean_=state["mean"]
new_standard_scaler.var_=state["var"]
new_standard_scaler.scale_=state["scale"]
new_datos_standarized = new_standard_scaler.transform(datos)

print("Iguales=",np.array_equal(datos_standarized,new_datos_standarized))

Iguales= True

Batch Normalization

Hace que las salida sigan con valores alrededor de media 0 y desviación 1.

model.add(Dense(neuronas_capa, activation=activation))
model.add(BatchNormalization())

Tamaño del Batch

history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,batch_size=20)

def fit(x, y_true,epochs,batch_size,learning_rate,w_2,w_3,w_4,w_52,w_53,w_54,b_2,b_3,b_4,b_5):
    #Divide los datos en batchs
    x_batchs=np.split(x, np.arange(batch_size,len(x),batch_size))
    y_true_batchs=np.split(y_true, np.arange(batch_size,len(y_true),batch_size))
    num_batchs=len(x_batchs)

    for epoch in range(epochs):
        for i in range(num_batchs):

            x_batch=x_batchs[i]
            y_true_batch=y_true_batchs[i]

            w_2,w_3,w_4,w_52,w_53,w_54,b_2,b_3,b_4,b_5=descenso_gradiente(x_batch,y_true_batch,learning_rate,w_2,w_3,w_4,w_52,w_53,w_54,b_2,b_3,b_4,b_5)   

    return w_2,w_3,w_4,w_52,w_53,w_54,b_2,b_3,b_4,b_5

Parada anticipada

La parada anticipada resuelve el problema de cuántas épocas debemos entregar nuestro modelo. Lo que hace es detener el entrenamiento si la métrica no mejora. Para ello se usa la clase de callback de keras llamado EarlyStopping().

La clase contiene entre otros los siguientes parámetros:

  • monitor: La métrica a monitorizar. Por defecto monitoriza val_loss.
  • min_delta: El mínimo valor que consideramos como una mejora. Si mejora menos que este valor lo consideraremos como que no ha mejorado. Por defecto si valor es 0.
  • patience: Cuántas épocas puede estar sin mejorar antes de que paremos el entrenamiento. Por defecto vale 0.
  • mode: Indica el tipo de métrica que es. Es decir si la métrica es mejor cuanto mayor valor tiene (max) o la métrica es mejor cuanto menor valor tiene (min). Por defecto es valor es auto y keras sabrá el tipo de la métrica por el nombre que tiene.


history=model.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=40,verbose=False,callbacks=[EarlyStopping()])
 

Más información:

Ejercicios

Ejercicio 1

Crea una red neuronal para predecir si una persona va a tener una enfermedad cardíaca. Para ello se han usado los datos de heart-disease-health-indicators-dataset.

Las columnas del dataset son las siguientes:

  • HeartDiseaseorAttack: Indica si el individuo ha experimentado una enfermedad cardíaca o un ataque al corazón. Es lo que hay que predecir.
  • HighBP: Indica si el individuo tiene presión arterial alta.
  • HighChol: Indica si el individuo tiene niveles altos de colesterol.
  • CholCheck: Indica si el individuo ha realizado chequeos de colesterol.
  • BMI: Índice de Masa Corporal del individuo.
  • Smoker: Indica si el individuo fuma.
  • Stroke: Indica si el individuo ha experimentado un derrame cerebral.
  • Diabetes: Indica si el individuo tiene diabetes.
  • PhysActivity: Nivel de actividad física del individuo.
  • Fruits: Consumo de frutas por parte del individuo.
  • Veggies: Consumo de vegetales por parte del individuo.
  • HvyAlcoholConsump: Indica si el individuo consume mucho alcohol
  • AnyHealthcare: Indica si el individuo tiene acceso a algún tipo de atención médica.
  • NoDocbcCost: Indica si el individuo tiene costos médicos sin documentar.
  • GenHlth: Estado general de salud del individuo.
  • MentHlth: Estado de salud mental del individuo.
  • PhysHlth: Estado de salud física del individuo.
  • DiffWalk: Dificultad para caminar del individuo.
  • Sex: Género del individuo.
  • Age: Edad del individuo.
  • Education: Nivel educativo del individuo.
  • Income: Ingreso económico del individuo.

Los datos son los siguientes: heart_disease_health_indicators_brfss2015.csv.zip

clase/iabd/pia/2eval/tema08.txt · Última modificación: 2024/03/02 17:54 por admin