clase:iabd:pia:documentacion
Tabla de Contenidos
Documentación
Overfitting, validación , reducción de la dimensionalidad, datos entrada
-
- Bagging Classifier: Genera conjuntos de entrenamiento cogiendo subconjuntos de las columnas.
- The Curse of Dimensionality and its Cure: Gráfica interesante de las dimensiones vs precisión
- Examples of Bias Variance Tradeoff in Deep Learning: Buena explicación
- Bias
Métricas
Funciones de coste
Redes neuronales
- Vanilla Neural Network: Ejemplo básico en Python de una red neuronal
- Cost, Activation, Loss Function.Neural Network.Deep Learning. What are these?: Explicación de funciones de coste y de activación
- From Linear Regression to Neural Networks: Why and How: Interesan los dibujos
- Case Study: Is Spurious Correlations the reason why Neural Networks fail on unseen data?: Falla con una vaca en el desierto y una vaca en la nieve. Piensa que es un camello y un oso polar
- Paper Walkthrough — Matrix Calculus for Deep Learning (Part 1 / 2): Explicación del Jacobiano
- Batch:
- Effect of Batch Size on Neural Net Training: Muy bueno
Utilidades
- A Neural Network Playground: Simuladores de redes neuronales
- NN-SVG: Dibujar redes neuronales
Redes Neuronales Recurrentes, transformers, series de tiempo
Lenguaje Natural
Word Embedding Castellano:
Kaggle
Autoencoders
Redes Convolutionales
- Basics of Convolutional Neural Networks — Stride and Pooling: Explica las 2 partes de una reco convolicional: Stride y Pooling
AutoML
Estadística Bayesana
- Exploring Bayesian Optimization: Muy buena explicación de la optimización Bayesiana
-
-
- Bayesian Estimation Supersedes the t-test (BEST): Online tool
- Bayesian parameter estimation versus model comparison: Critica de "Bayesian estimation supersedes the t test"
Pipelines , MLOps
Gráficos
Correlación
- What is MultiCollinearity and how to resolve it?: Ejemplo de correlación
Estadística
- To Err is Human: What are Type I and II Errors?: Foto que explica muy facilmente los errores de tipo I y tipo II
- Scatter Plots In Data Analysis: La importancia de los Scatter Plots
- Regresión lineal
- Linear Regression Assumptions: Que se asume para que una regresión linear se pueda realizar.
- Probabilistic interpretation of linear regression clearly explained: Explica que el error sigue una distribución y el ½
- Distribuciones
- The Benefit's Of Central Limit Theorem: Explicación de la utilidad de la distribución normal
- Related Probability Distributions: Explicación de 3 distribuciones.
- Visualizing Continuous distributions from SciPy: Imagen con muchas distribuciones.
- Distribution Analyser: Información sobre distribuciones y si se ajustan a los datos
Matemáticas
- A Beginner’s Guide to Linear Algebra for Deep Learning:Escalares, vectores, matrices y tensores
TensorFlow Avanzado
- Linear Algebra with TensorFlow: Ejemplos de cálculos con TensorFlow en vez de usar numpy
import tensorflow as tf tf.config.list_physical_devices()
from tensorflow.python.client import device_lib device_lib.list_local_devices()
device=device_lib.list_local_devices()[0]
with tf.device(device.name):
history=model.fit(x, y,epochs=epochs,verbose=False)
Natural Language Processing
EDA
- sweetviz:EDA basada en Pandas que genera el resultado en HTML con solo 2 líneas de código
- Solve Machine Learning Problems
Guías
- Basics of Data Cleansing: Las 6 cosas que hay que hacer para limpiar los datos
- Data Analytics- Introduction: Tipos de análisis de datos
- Getting Started with Data Science with Python (Part-1): Que es la ciencia de datos
Libros online
Compendios
- Distill — Latest articles about machine learning: Papers muy buenos sobre IA. Tienen mucho nivel.
- CS 189/289A Introduction to Machine Learning: Curso de IA de la universidad de Berkeley
Humor
Python
- Charla: "Python packaging: lo estás haciendo mal"
- Google Colaboratory: Make Google Colaboratory GPU session wait for you.
- Estructura de ficheros: https://github.com/drivendata/cookiecutter-data-science
- Poetry
poetry config virtualenvs.in-project true poetry config --list #se debe instalar siempre esta dependencia poetry add ipykernel #instalar poetry install #ejecutar código python poetry run python my_script.py
Crear un colormap personalizado
from matplotlib.colors import LinearSegmentedColormap, to_rgb
def crear_colomap_continuo(hex_colors):
all_red = []
all_green = []
all_blue = []
for hex_color in hex_colors:
all_red.append(to_rgb(hex_color)[0])
all_green.append(to_rgb(hex_color)[1])
all_blue.append(to_rgb(hex_color)[2])
num_colors = len(hex_colors) - 1
red = tuple([(1/num_colors*i,v,v) for i,v in enumerate(all_red)])
green = tuple([(1/num_colors*i,v,v) for i,v in enumerate(all_green)])
blue = tuple([(1/num_colors*i,v,v) for i,v in enumerate(all_blue)])
color_dictionary = {'red':red,'green':green,'blue':blue}
new_cmap = LinearSegmentedColormap('new_cmap',segmentdata=color_dictionary)
return new_cmap
new_cmap = build_custom_continuous_cmap(["#FFFFFF","#DBE6FA","#C3D6F4","#ACC8EF","#96BBE9","#81AFE4","#6DA4DE","#599BD9","#4793D3","#358CCE","#2486C8","#1481C3","#057DBD"])
Calculo de errores
Intervalos de confianza
- Teoria
- Herramientas:
- Exact Confidence Interval for a Proportion:Herramienta online para calcular intervalos de confianza con el teorema de bayes
- Límites de confianza para una proporción: Herramienta online para calcular intervalos de confianza.
- Código Python
- statsmodels.stats.proportion.proportion_confint: Calculo en Pyhton de intervalos de confianza.
Estadística bayesiana y precision
- Pruebas diagnosticas: Explicación desde el punto de vista médico de Bayes con la especificidad y sensibilidad
- Comentario: Sensibilidad, especificidad y valores predictivos: fundamentos,flexibilidades y dificultades en la investigación y la práctica: El documento anterior pero traducido al castellano.
- Prevalencia
Probabilidad del resultado de la red
- scikit-learn
- Regresión logística isotónica
- Calibración de Platt
PyMC3
Hardware
clase/iabd/pia/documentacion.txt · Última modificación: por 127.0.0.1



