<?xml version="1.0" encoding="UTF-8"?>
<!-- generator="FeedCreator 1.8" -->
<?xml-stylesheet href="https://logongas.es/lib/exe/css.php?s=feed" type="text/css"?>
<rdf:RDF
    xmlns="http://purl.org/rss/1.0/"
    xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
    xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
    xmlns:dc="http://purl.org/dc/elements/1.1/">
    <channel rdf:about="https://logongas.es/feed.php">
        <title>logongas - clase:iabd:pia:2eval</title>
        <description></description>
        <link>https://logongas.es/</link>
        <image rdf:resource="https://logongas.es/lib/exe/fetch.php?media=wiki:dokuwiki.svg" />
       <dc:date>2026-05-05T18:33:00+00:00</dc:date>
        <items>
            <rdf:Seq>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07-codigo&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.funciones_coste&amp;rev=1762166235&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07&amp;rev=1762166235&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.calibracion_fiabilidad&amp;rev=1762166235&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.intervalo_confianza&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_clasificacion&amp;rev=1762166235&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_derivadas&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_regresion&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.otras-metricas&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.seleccion-metricas&amp;rev=1769453362&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09-apendices&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema10&amp;rev=1762166234&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema11&amp;rev=1762166235&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema12&amp;rev=1764265309&amp;do=diff"/>
                <rdf:li rdf:resource="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema13&amp;rev=1762166234&amp;do=diff"/>
            </rdf:Seq>
        </items>
    </channel>
    <image rdf:about="https://logongas.es/lib/exe/fetch.php?media=wiki:dokuwiki.svg">
        <title>logongas</title>
        <link>https://logongas.es/</link>
        <url>https://logongas.es/lib/exe/fetch.php?media=wiki:dokuwiki.svg</url>
    </image>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07-codigo&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>7.c Código</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07-codigo&amp;rev=1762166234&amp;do=diff</link>
        <description>7.c Código

Durante el tema hemos visto los gráficos que explican el descenso de gradiente. Veamos ahora como se pueden hacer dichos gráficos en Python.

La función que coste que hemos usado es la siguiente

$$
loss(w_0,w_1)=3(1-w_0)^2e^{-w_0^2-(w_1+1)^2}-10(\frac{w_0}{5}-w_0^3-w_1^5)e^{-w_0^2-w_1^2}-\frac{1}{3}e^{-(w_0+1)^2-w_1^2}
$$

cuya gráfica es la siguiente:



En python la función $loss(w_0,w_1)$$w_0,w_1$$w_0,w_1$$w_0,w_1$$w_0,w_1$</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>7.b Descenso de gradiente</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.backpropagation_descenso_gradiente&amp;rev=1762166234&amp;do=diff</link>
        <description>7.b Descenso de gradiente

El Descenso de gradiente es el algoritmo que usamos para entrenar la red neuronal. 

¿Que era entrenar la red neuronal? Pues simplemente pasarle muchos $x$ e $y$ para que obtenga o aprenda los mejores parámetros posibles de pesos ($$y= Salida \: verdadera. \: La \: que \: debería \: haber \: generado \: la \: red \: neuronal. Son \: datos \: que \: tenemos \: reales \: de \: salida$$$$\hat{y}= Salida \: predicha. \: La \: que \: ha \: generado \: la \: red \: neuronal$…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.funciones_coste&amp;rev=1762166235&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:15+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>7.a Funciones de coste</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07.funciones_coste&amp;rev=1762166235&amp;do=diff</link>
        <description>7.a Funciones de coste

Para poder calcular los mejores parámetros de la red neuronal primero debemos saber como es de buena la salida que genera nuestra red neuronal. Para ello vamos a comparar la salida que debería dar la red neuronal con lo que realmente está generando la red neuronal. Así que a partir de ahora a las salida las vamos a diferenciar y llamar de forma distinta$$y= Salida \: verdadera. \: La \: que \: debería \: haber \: generado \: la \: red \: neuronal. Son \: datos \: que \: t…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07&amp;rev=1762166235&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:15+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>7 Entrenamiento de redes neuronales</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema07&amp;rev=1762166235&amp;do=diff</link>
        <description>7 Entrenamiento de redes neuronales

Hasta ahora hemos visto como funciona una red neuronal cuando le pasamos los parámetros de entrada y ella calcula la salida. En este tema vamos a ver como se calculan los parámetros de la red neuronal.

Debido a que entrenar una red neuronal es muy complejo, hemos dividido el tema en varias partes:</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.calibracion_fiabilidad&amp;rev=1762166235&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:15+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>Calibración y Fiabilidad</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.calibracion_fiabilidad&amp;rev=1762166235&amp;do=diff</link>
        <description>Calibración y Fiabilidad

En un problema de clasificación, la salida de una red neuronal hemos dicho que es el y_score y la probabilidad que tiene de acertar es:

	*  $VPP$ en caso de predicciones positivas.
	*  $VPN$ en caso de predicciones negativas.

Pero en cuento se tiene un poco de experiencia se sabe que un valor muy cercano al 1 del $VPP$$VPN$</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.intervalo_confianza&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.e Intervalos de confianza</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.intervalo_confianza&amp;rev=1762166234&amp;do=diff</link>
        <description>8.e Intervalos de confianza

Cuando calculamos una métrica realmente no tenemos el valor real de la métrica sino un valor (llamado estimador) que nos ayuda para saber el verdadero valor de la métrica.

El valor real de la métrica no lo podemos obtener pero si al menos in intervalo en el que es probable que esté ese valor real. A ese intervalo se le llama el intervalo de confianza.$$
\begin{array}
\\
E&amp;=&amp;115&amp;=&amp;Nº \; de \; enfermos
\\
S&amp;=&amp;311&amp;=&amp;Nº \; de \; sanos
\\
TP&amp;=&amp;111&amp;=&amp;Nº \; predichos \; po…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_clasificacion&amp;rev=1762166235&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:15+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.b Métricas clasificación (Bayes)</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_clasificacion&amp;rev=1762166235&amp;do=diff</link>
        <description>8.b Métricas clasificación (Bayes)

En este apartado vamos a ver las métricas asociadas a problemas de clasificación en las redes neuronales. Como el apartado es muy amplio lo hemos dividido entre esta página y la siguientes:

	*  8.c Métricas rendimiento general de clasificación
	*  8.d Selección de métricas de clasificación
	*  8.e Intervalos de confianza
	* $P(A|B)$$Positivo$$Negativo$$Enfermo$$Sano$$P(Positivo|Enfermo)$$P(Enfermo|Positivo)$$P(Positivo|Enferma)$$P(Enferma|Positivo)$$P(Positiv…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_derivadas&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.c Métricas rendimiento general de clasificación</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_derivadas&amp;rev=1762166234&amp;do=diff</link>
        <description>8.c Métricas rendimiento general de clasificación

En este apartado vamos a ampliar las métricas que podemos usar con la clasificación binaria. Las métricas básicas ya las vimos en 8.b Métricas clasificación (Bayes). Pero ahora vamos a ver nuevas métricas que intentan resumir en un único número el rendimiento general de la red neuronal. $$
MCC \; Normalizado=nMCC=\frac{MCC+1}{2}
$$$$\frac{Sensibilidad+Especificidad}{2}$$$$\frac{Sensibilidad+Especificidad}{2}$$$$\frac{\sqrt{1-Especificidad}}{\sqr…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_regresion&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.a Métricas regresión</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.metricas_regresion&amp;rev=1762166234&amp;do=diff</link>
        <description>8.a Métricas regresión

Son las métricas que se usan en problemas de regresión. Son casi las mismas que usábamos como funciones de coste. 

	*  Mean Absolute Error (MAE)
		*  Mean Squared Error (MSE)
		*  Distancia del coseno
		*  Root Mean Squared Error (RMSE)$$RMSE = \sqrt{MSE}= \sqrt{\frac{1}{N} \sum\limits_{i=1}^{N}(y_{i} - \hat{y_{i}})^2}$$$$R^{2} = 1- \frac {\sum\limits_{i=1}^{N} (y_{i} - \hat{y_{i}})^2} {\sum\limits_{i=1}^{N} (y_{i} - \bar{y})^2}$$$$\bar{y}=\frac {1}{N} \sum\limits_{i=1}^…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.otras-metricas&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.f Otras métricas</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.otras-metricas&amp;rev=1762166234&amp;do=diff</link>
        <description>8.f Otras métricas

Veamos ahora otras métricas de clasificación.

Top-N-Accuracy

En problemas de clasificación en los que hay muchísimos clases a clasificar , se puede usar otra métrica llamada Top-N Accuracy. Veamos en que consiste.

El problema de clasificación de ImageNet hay 1000 posibles clases a clasificar. En ese caso cuando decimos que un &quot;gato&quot; es un &quot;gato&quot; es que la clase gato tiene la mayor probabilidad. Veamos un ejemplo con 10 objetos.$F_{\beta}\text{-score}$$$
F_{\beta}\text{-sco…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.seleccion-metricas&amp;rev=1769453362&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2026-01-26T18:49:22+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8.d Selección de métricas de clasificación</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08.seleccion-metricas&amp;rev=1769453362&amp;do=diff</link>
        <description>8.d Selección de métricas de clasificación

Ahora que vemos visto todas las métricas vamos a explicar cuando usar cada una de ellas.

Las 4 métricas básicas nos da información específicas de aspectos distintos de nuestro modelo:

$$
\begin{array}
\\
Precisión&amp;=&amp;P(Enfermo|Positivo)
\\
VPN&amp;=&amp;P(Sano|Negativo)
\\
Sensibilidad&amp;=&amp;P(Positivo|Enfermo)
\\
Especificidad&amp;=&amp;P(Negativo|Sano)
\end{array}
$$

Pero con las métricas de este tema lo que queremos es resumir en un único número el rendimiento de nue…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>8 Métricas y Evaluación de redes neuronales</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema08&amp;rev=1762166234&amp;do=diff</link>
        <description>8 Métricas y Evaluación de redes neuronales

Hasta ahora hemos visto como definir una red neuronal y como entrenarla. El último paso que nos queda es saber si la red ha funcionado correctamente.  



Pero ¿Eso no se hacía con la función de coste? Pues no exactamente. 
La función de coste se usa para ayudar a ajustar los parámetros durante el entrenamiento mediante los datos de entrada pero 
no para saber si el modelo es bueno. Para saber si el modelo es bueno , se usan las métricas.</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09-apendices&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>9.b Apendices</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09-apendices&amp;rev=1762166234&amp;do=diff</link>
        <description>9.b Apendices

Regularización

Vamos a suponer la siguiente función de pérdida:

$$ Error=\frac 1 n \displaystyle\sum_{i=1}^{n} {(y_i-y&#039;_i)^2 } $$

	*  $y$: Valor real
	*  $y&#039;$: Valor predicho.



L1 (Lasso)

Hace que los pesos tiendan a ser cero

$$ Error=\frac 1 n \displaystyle\sum_{i=1}^{n} {(y_i-y&#039;_i)^2 } + \alpha \frac 1 m \displaystyle\sum_{j=1}^{m} {|w_j|^1} $$

	*  α: Es cuanto queremos que regularicemos. Si vale 0, no se regulariza nada. Si vale 1 se regulariza muchísimo.$$ Error=\frac …</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>9 Optimización de redes neuronales</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema09&amp;rev=1762166234&amp;do=diff</link>
        <description>9 Optimización de redes neuronales

Sobreajuste

El sobreajuste (en inglés Overfitting) es cuando nuestro modelo, en vez de aprender lo que hace es memorizar los resultados. Tambien existe el concepto de subajuste (en inglés underfitting) que es cuando el modelo no es lo suficientemente ponente para adecuarse a los datos. En redes neuronales suele darse menos el underfitting ya que las redes las podemos haces bastantes complejos y solemos pecar de modelos demasiado complejos.$$ 
\begin{array}
\\…</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema10&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>10. Redes Neuronales Recurrentes</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema10&amp;rev=1762166234&amp;do=diff</link>
        <description>10. Redes Neuronales Recurrentes

Las redes neuronales recurrentes son redes neuronales que dependen de los datos anteriores, es decir que tienen &quot;memoria&quot;.

Por ejemplo, al predecir si una foto es un tipo de flor, no depende de lo que se haya predecido antes pero en una red neuronal si. 
Son redes que predicen secuencias de datos como por ejemplo series de temperatura, o cotizaciones de bolsa, etc:</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema11&amp;rev=1762166235&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:15+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>11 Autoencoders</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema11&amp;rev=1762166235&amp;do=diff</link>
        <description>11 Autoencoders

	*  Building Autoencoders in Keras</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema12&amp;rev=1764265309&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-27T17:41:49+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>12 Redes neuronales generativas</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema12&amp;rev=1764265309&amp;do=diff</link>
        <description>12 Redes neuronales generativas

Modelo &quot;clásico&quot; con 531.305.000 parámetros vs convolucional de 298.755 parámetros.</description>
    </item>
    <item rdf:about="https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema13&amp;rev=1762166234&amp;do=diff">
        <dc:format>text/html</dc:format>
        <dc:date>2025-11-03T10:37:14+00:00</dc:date>
        <dc:creator>Anonymous (anonymous@undisclosed.example.com)</dc:creator>
        <title>13 Ataques adversarios</title>
        <link>https://logongas.es/doku.php?id=clase:iabd:pia:2eval:tema13&amp;rev=1762166234&amp;do=diff</link>
        <description>13 Ataques adversarios

	*  Ataques de extracción
	*  Ataques de inversión
	*  Ataques de envenenamiento
	*  Ataques de evasión

Mas información:

	*  Adversarial Machine Learning: una introducción. ¿Motivo de preocupación?
	*  Adversarial Machine Learning (parte II): ataques de extracción
	*  Adversarial Machine Learning (parte III): ataques de inversión
	*  Adversarial Machine Learning (parte IV): ataques de envenenamiento
	*  Adversarial Machine Learning (parte V): ataques de evasión
	*  Adve…</description>
    </item>
</rdf:RDF>
