¡Esta es una revisión vieja del documento!
Es este tema vamos a ver un ejemplo concreto de una red neuronal.
Vamos a ver un ejemplo muy sencillo de red neuronal que averigüe el tipo de una flor. Para ello vamos a usar un conjunto de datos que se llaman el Conjunto de datos flor iris.
Para ello vamos a usar las siguientes variables de entrada:
Este conjunto de datos pretende distinguir entre los siguientes tres tipos de flores:
En la siguiente figura se muestra los valores del largo y ancho del pétalo según el tipo de flor:
¿Serías capaz con tu inteligencia "natural" , averiguar el tipo de flor según los valores del largo de sépalo y pétalo?
Si longitud_petalo < 2.5 → Setosa Si longitud_petalo ≥ 2.5: Si ancho_petalo < 1.7 → Versicolor Si ancho_petalo ≥ 1.7 → Virginica
Este "algoritmo o IA" lo podemos representar en python así:
1 2 3 4 5 6 7 8 |
def predict(longitud_petalo,ancho_petalo): if longitud_petalo< 2.5 : return 0 else : if ancho_petalo> = 1.8 : return 2 else : return 1 |
Y se puede mostrar en la siguiente figura
las IAs realmente son algoritmos, solo que el algoritmo se crea casi automáticamente a partir de los datos.
Una figura con el mismo problema pero creado por una IA sería el siguiente:
Como es el primer tema, solo vamos a usar 2 tipos de flor para hacer más fácil el problema.
Veamos ahora algunos datos:
X | Y | ||
Largo Pétalo | Ancho Pétalo | Valor flor | Nombre Flor |
1.4 | 0.2 | 0 | Setosa |
1.3 | 0.2 | 0 | Setosa |
1.3 | 0.3 | 0 | Setosa |
1.5 | 0.4 | 0 | Setosa |
1.4 | 0.2 | 0 | Setosa |
1.2 | 0.2 | 0 | Setosa |
1.7 | 0.4 | 0 | Setosa |
1.6 | 0.2 | 0 | Setosa |
1.3 | 0.2 | 0 | Setosa |
1.2 | 0.2 | 0 | Setosa |
3.5 | 1.0 | 1 | Versicolor |
4.5 | 1.5 | 1 | Versicolor |
3.5 | 1.0 | 1 | Versicolor |
4.4 | 1.4 | 1 | Versicolor |
3.5 | 1.0 | 1 | Versicolor |
4.1 | 1.3 | 1 | Versicolor |
4.8 | 1.8 | 1 | Versicolor |
4.4 | 1.3 | 1 | Versicolor |
3.9 | 1.2 | 1 | Versicolor |
4.5 | 1.3 | 1 | Versicolor |
La red neuronal lo único que va a hacer es "aprender" a crear una función matemática que dado el largo del pétalo y el ancho del pétalo calcule el tipo de flor:
tipoflor=f(largopetalo,anchopetalo)
Vamos a hacer la siguiente red neuronal:
Esta red neuronal, consta de una serie de neuronas (ya contaremos mas adelante que es una neurona) que se pasan valores de unas a otras. Son cada uno de los círculos. Las neuronas se organiza en capas:
Google Colaboratory es un IDE para programar en Python. El formato del IDE sige lo que se llaman "Jupyter Notebooks" que son ficheros con extensión "ipynb". Estos ficheros se pueden abrir desde VS Code u otros IDEs.
Ves a la página de Google Colaboratory, pincha en "Nuevo Cuaderno" y ya puedes empezar a programar en Python.
Una explicación completa de Google Colab la puedes ver en video Introducción a Google Colab, una noble y completa guía.
Veamos ahora el código python de la red neuronal.
El código completo es el siguiente:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 |
import random import numpy as np import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from sklearn.datasets import load_iris iris = load_iris() longitudes_petalos = iris.data[ 0 : 99 , 2 ] anchos_petalos = iris.data[ 0 : 99 , 3 ] flower_type = iris.target[ 0 : 99 ] x = np.column_stack((longitudes_petalos,anchos_petalos)) y = flower_type np.random.seed( 5 ) tf.random.set_seed( 5 ) random.seed( 5 ) model = Sequential() model.add(Dense( 6 , activation = 'relu' ,input_dim = 2 )) model.add(Dense( 12 , activation = 'relu' )) model.add(Dense( 6 , activation = 'relu' )) model.add(Dense( 1 , activation = 'sigmoid' )) model. compile (loss = 'binary_crossentropy' ) model.fit(x, y,epochs = 100 ) print (model.predict(np.array([[ 1.4 , 0.2 ]]))) print (model.predict(np.array([[ 4.4 , 1.3 ]]))) |
Ahora vamos a ver todo el código paso a paso.
1 2 3 4 5 6 |
import random import numpy as np import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from sklearn.datasets import load_iris |
Estas líneas simplemente hacer los "import" de varias cosas que vamos a usar.
1 2 3 4 5 6 |
longitudes_petalos = iris.data[ 0 : 99 , 2 ] anchos_petalos = iris.data[ 0 : 99 , 3 ] flower_type = iris.target[ 0 : 99 ] x = np.column_stack((longitudes_petalos,anchos_petalos)) y = flower_type |
Hemos cargado los datos y hemos creado 3 arrays:
longitudes_petalos
: Con la longitud de cada pétalo que es la columna 2 de la matriz data
anchos_petalos
: Con la anchura de cada pétalo que es la columna 3 de la matriz data
flower_type
: Con el tipo de flor (0 o 1)
Luego hemos creado una matriz juntando la longitud de cada pétalo y la anchura de cada pétalo, es lo que llamaremos x
y luego hemos creado la y
que es el tipo de flor.
Es decir que vamos a entrenar a red neuronal con los valores de x
e y
para que cree la función matemática capaz de calcular el tipo de flor en función de las longitudes.
1 2 3 |
np.random.seed( 5 ) tf.random.set_seed( 5 ) random.seed( 5 ) |
Para a siempre nos salgan los mismos resultados, hemos inicializado los generadores de números aleatorios.
1 2 3 4 5 6 |
model = Sequential() model.add(Dense( 6 , activation = 'relu' ,input_dim = 2 )) model.add(Dense( 12 , activation = 'relu' )) model.add(Dense( 6 , activation = 'relu' )) model.add(Dense( 1 , activation = 'sigmoid' )) model. compile (loss = 'binary_crossentropy' ) |
Hemos creado el la estructura de la red neuronal. Excepto la capa de entrada, cada capa se especifica por un objeto de tipo Dense y el primer número especifica el Nº de neuronas de esa capa.
En la primera capa también hemos indicado la propiedad input_dim
con el valor 2
que indica el Nº de valores de entrada , es decir que estamos diciendo el tamaño de la capa de entrada.
loss
.
Para acabar compilamos el modelo con el método compile.
1 |
model.fit(x, y,epochs = 100 ) |
Ahora vemos a entrenar con el método fit la red neuronal para que ella internamente genere la función matemática. Fíjate como le pasamos la matriz con los datos de entrada x
y el vector con el resultado que debe dar y
.
Por último le decimos cuantas veces tiene que entrenar la red con el parámetro epochs
. Cuanto más lo entrenemos , en general mejor será la red (Esta frase tiene muchos matices pero ya lo iremos viendo a lo largo del curso).
Epoch 1/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 1s 105ms/step - loss: 0.6408 Epoch 2/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 961us/step - loss: 0.6225 Epoch 3/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.6031 Epoch 4/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5911 Epoch 5/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5854 Epoch 6/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5805 Epoch 7/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5755 Epoch 8/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5705 Epoch 9/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5657 Epoch 10/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.5609 ........ 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.1176 Epoch 90/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.1136 Epoch 91/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.1097 Epoch 92/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 958us/step - loss: 0.1059 Epoch 93/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.1021 Epoch 94/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.0984 Epoch 95/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.0948 Epoch 96/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 979us/step - loss: 0.0913 Epoch 97/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 910us/step - loss: 0.0879 Epoch 98/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 2ms/step - loss: 0.0845 Epoch 99/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.0812 Epoch 100/100 4/4 ━━━━━━━━━━━━━━━━━━━━ 0s 1ms/step - loss: 0.0780
Ahora vemos el resultado del entrenamiento para cada una de las épocas, fíjate en loss , es lo que nos dice como de buena es nuestra red. Cuanto más pequeño sea ese valor, mejor es la red.
Una vez acabar vamos a usar nuestra función matemática con el método predict con los siguientes valores:
1 2 |
print (model.predict(np.array([[ 1.4 , 0.2 ]]))) print (model.predict(np.array([[ 4.4 , 1.3 ]]))) |
[[0.09985255]] [[0.99229264]]
X | Y Predicha | Y Real | ||
Largo Pétalo | Ancho Pétalo | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
1.4 | 0.2 | 0.09985255 | 0 | 0 |
4.4 | 1.3 | 0.99229264 | 1 | 1 |
Vemos como los resultados no son exactamente 0 o 1 sino número cercanos como el 0.09985255
o el 0.99229264
pero no nos preocupemos, las redes neuronales no suelen dar resultados exactos.
Entonces fijarse que hay que distinguir entre:
y_score
: El número que ha generado la red neuronal. Ej: 0.99229264
y_pred
: Lo que predecimos en función de la red neuronal. Si es mayor que 0.5 predecimos 1
y sino predecimos 0
y_true
: El valor real que debería haber predicho.Durante el curso vamos a usar Keras y algo de TensorFlow
La mayoría de veces para una mayor comprensión de los datos queremos también ver gráficos de éstos.
El siguiente código Python muestra la siguiente gráfica con cada una de las flores de los datos.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
figure = plt.figure(figsize = ( 5 , 4 )) axes = figure.add_subplot() colors = [ "blue" , "red" , "green" ] cmap = ListedColormap(colors[: len (np.unique(y))]) scatter = axes.scatter(x = x[:, 0 ], y = x[:, 1 ], c = y, cmap = cmap,s = 6 ) axes.set_xlabel( 'Largo Pétalo' ) axes.set_ylabel( 'Ancho Pétalo' ) for i, name in enumerate ([ "Setosa" , "Versicolor" ]): color = scatter.cmap(scatter.norm(i)) # Obtener el color de la clase i axes.scatter([], [], color = [color], label = name + ":" + str (i)) # Usar 'color' en lugar de 'c' axes.set_xlim(xmin = 0 ,xmax = 8 ) axes.set_ylim(ymin = 0 ,ymax = 3 ) axes.legend(title = "Flores" ) |
Ahora vamos a hacer una gráfica con el resultado de la red neuronal
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
figure = plt.figure(figsize = ( 5 , 4 )) axes = figure.add_subplot() colors = [ "blue" , "red" , "green" ] cmap = ListedColormap(colors[: len (np.unique(y))]) xt = np.linspace( 0 , 8 , 300 ) yt = np.linspace( 0 , 3 , 300 ) xt,yt = np.meshgrid(xt,yt) xa = xt.reshape( - 1 ) ya = yt.reshape( - 1 ) xya = np.column_stack((xa,ya)) za = model.predict([xya]) zt = np.reshape(za,xt.shape) scatter = axes.scatter(x = xa, y = ya, c = za, cmap = cmap,s = 6 ) axes.set_xlabel( 'Largo Pétalo' ) axes.set_ylabel( 'Ancho Pétalo' ) for i, name in enumerate ([ "Setosa" , "Versicolor" ]): color = scatter.cmap(scatter.norm(i)) # Obtener el color de la clase i axes.scatter([], [], color = [color], label = name + ":" + str (i)) # Usar 'color' en lugar de 'c' axes.set_xlim(xmin = 0 ,xmax = 8 ) axes.set_ylim(ymin = 0 ,ymax = 3 ) axes.legend(title = "Flores" ) |
Lo que hay que hacer es comparar los datos de las 2 gráficas para ver si son coherentes entre ellas. Y obviamente lo son
Al entrenar una IA lo dificil es cuando se encuentra con cosas que no habías previsto.
Si creamos una IA, para saber si una foto es de un chihuahua pero le pasamos una foto de un muffin, lo más normal es que lo confunda con un chihuahua.🤷🏻
Usando Google collab haz una red neuronal en python con Keras que obtenga el tipo de flor en función del "Largo Pétalo" y de "Ancho Pétalo".
Obtén el resultado de la red neuronal para las siguientes entradas e indica el tipo de flor que ha calcula la red neuronal.
X | Y Predicha | Y Real | ||
Largo Pétalo | Ancho Pétalo | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
1.3 | 0.3 | |||
3.9 | 1.2 |
Modifica ahora la red neuronal de forma que:
Usando la web http://alexlenail.me/NN-SVG/index.html dibuja la red neuronal que acabas de crear
Ahora muestra los resultados
X | Y Predicha | Y Real | ||
Largo Pétalo | Ancho Pétalo | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
1.3 | 0.3 | |||
3.9 | 1.2 |
Usando el código de la red original, modifica las siguientes líneas:
1 2 3 |
longitudes_petalos = iris.data[ 0 : 99 , 2 ] anchos_petalos = iris.data[ 0 : 99 , 3 ] flower_type = iris.target[ 0 : 99 ] |
de forma que queden así:
1 2 3 |
longitudes_petalos = iris.data[:, 2 ] anchos_petalos = iris.data[:, 3 ] flower_type = iris.target[:] |
Entrena la red con los nuevos datos
Muestra la gráfica con los datos de entrada usando el código:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
from matplotlib.colors import ListedColormap figure = plt.figure(figsize = ( 5 , 4 )) axes = figure.add_subplot() colors = [ "blue" , "red" , "green" ] cmap = ListedColormap(colors) scatter = axes.scatter(x = x[:, 0 ], y = x[:, 1 ], c = y, cmap = cmap,s = 6 ) axes.set_xlabel( 'Largo Pétalo' ) axes.set_ylabel( 'Ancho Pétalo' ) for i, name in enumerate ([ "Setosa" , "Versicolor" , "Virginica" ]): color = scatter.cmap(scatter.norm(i)) axes.scatter([], [], color = [color], label = name + ":" + str (i)) axes.set_xlim(xmin = 0 ,xmax = 8 ) axes.set_ylim(ymin = 0 ,ymax = 3 ) axes.legend(title = "Flores" ) |
Ahora verás que está el otro tipo de flor llamado Virginica.
Prueba a ver si funciona ahora la red neuronal con el nuevo tipo de flor.
X | Y Predicha | Y Real | ||
Largo Pétalo | Ancho Pétalo | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
5.1 | 1.5 | |||
5.8 | 2.2 |
Piensa al menos 3 problemas que se podrían resolver con una red neuronal similar a la que has usado.
Vamos a ver ahora otro conjunto de datos relativo a la detección de cáncer de mama.
Los datos se obtienen de la siguiente forma:
1 2 3 4 5 6 |
from sklearn.datasets import load_breast_cancer breast_cancer = load_breast_cancer() x = breast_cancer.data y = breast_cancer.target |
Este conjunto de datos tiene 30 variable de entrada, que son las siguientes:
Esto datos son relativos a imágenes de núcleos celulares como los siguientes:
Y los histogramas de todos los datos son los siguientes:
Podemos ven en los histogramas que no hay una forma fácil de saber si una célula es o no cancerígena.
Imprime el valor de la fila 56 tanto de la x
como de la y
.
1 2 3 4 |
#Para que los datos no se muestren con notación científica np.set_printoptions(suppress=True) print(x[56],y[56]) |
Ahora muestra los valores de la x
y la y
para la fila 204.
Crea una red neuronal en las que en cada capa tenga los siguientes números de neuronas:
Nº Capa | Nº Neuronas |
1º | 30 |
2º | 60 |
3º | 100 |
4º | 60 |
5º | 30 |
6º | 10 |
7º | 1 |
Rellena la siguiente tabla y muestrala
X | Y Predicha | Y Real | |
Fila Datos | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
56 | |||
204 |
¿Es una buena red?
Usa hora una red más pequeña de forma que tenga las siguientes capas:
Nº Capa | Nº Neuronas |
1º | 6 |
2º | 12 |
3º | 6 |
4º | 1 |
Rellena la siguiente tabla y muestrala
X | Y Predicha | Y Real | |
Fila Datos | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
56 | |||
204 |
¿Es una buena red?
Repite la red pequeña del ejercicio anterior pero ahora modificando la semilla de los números aleatorios
1 2 3 |
np.random.seed(5) tf.random.set_seed(5) random.seed(5) |
Rellena la siguiente tabla y muestrala con una red con la semilla 6
X | Y Predicha | Y Real | |
Fila Datos | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
56 | |||
204 |
Rellena la siguiente tabla y muestrala con una red con la semilla 88
X | Y Predicha | Y Real | |
Fila Datos | Score Flor Predicha (y_score ) | Valor Flor Predicha(y_pred ) | Valor Flor Real(y_true ) |
56 | |||
204 |