Clases
Acá estarán disponibles los recursos para las clases. El tl;dr es una breve explicación de la misma. Para cada clase, intentaremos compartir el link del video de YouTube y el material asociado.
-
00 - Introducción al curso - (Parte 1)
tl;dr: Repaso de ML y conexión con DL. Inicio de repaso de NN (último tema de ML)
[Link clase] [Jupyter Notebook]
- Repaso ML objetivo principal
- Comparar ML clásico con DL
- Inicio de repaso estructura de Redes Neuronales
-
00 - Introducción al curso - (Parte 2)
tl;dr: Repaso clase 2 desde representación con ReLU hasta PyTorch
[Link clase] [Jupyter Notebook]
- Reconstrucción de funciones linelaes definidas a trozos con ReLU
- TAU
- Representación gráfica con 2 dimensiones de entrada
- Número de regiones lineales de interés
- PyTorch
-
00 - Introducción al curso - (Parte 3)
tl;dr: F(x1, x2); Número de regiones lineales;PyTorch
[Link clase] [Jupyter Notebook]
- Representación gráfica con 2 dimensiones de entrada
- Número de regiones lineales de interés
- PyTorch
-
01 - Fundamentos de Redes Neuronales - profundidad vs. anchura
tl;dr: W versus L;crecimiento polinomial;versus exponencial
[Link clase] [Jupyter Notebook]
- El número de regiones lineales de una red ReLU crece polinomialmente con la anchura $W$, pero exponencialmente con la profundidad $L$: \(\#\text{regiones} = \mathcal{O}\!\left((W/d)^{(L-1)d}\right)\)
- Sesgo, varianza e inductive bias.