Acá estarán disponibles los recursos para las clases. El tl;dr es una breve explicación de la misma. Para cada clase, intentaremos compartir el link del video de YouTube y el material asociado.

  • 00 - Introducción al curso - (Parte 1)
    tl;dr: Repaso de ML y conexión con DL. Inicio de repaso de NN (último tema de ML)
    [Link clase] [Jupyter Notebook]
    • Repaso ML objetivo principal
    • Comparar ML clásico con DL
    • Inicio de repaso estructura de Redes Neuronales
  • 00 - Introducción al curso - (Parte 2)
    tl;dr: Repaso clase 2 desde representación con ReLU hasta PyTorch
    [Link clase] [Jupyter Notebook]
    • Reconstrucción de funciones linelaes definidas a trozos con ReLU
    • TAU
    • Representación gráfica con 2 dimensiones de entrada
    • Número de regiones lineales de interés
    • PyTorch
  • 00 - Introducción al curso - (Parte 3)
    tl;dr: F(x1, x2); Número de regiones lineales;PyTorch
    [Link clase] [Jupyter Notebook]
    • Representación gráfica con 2 dimensiones de entrada
    • Número de regiones lineales de interés
    • PyTorch
  • 01 - Fundamentos de Redes Neuronales - profundidad vs. anchura
    tl;dr: W versus L;crecimiento polinomial;versus exponencial
    [Link clase] [Jupyter Notebook]
    • El número de regiones lineales de una red ReLU crece polinomialmente con la anchura $W$, pero exponencialmente con la profundidad $L$: \(\#\text{regiones} = \mathcal{O}\!\left((W/d)^{(L-1)d}\right)\)
    • Sesgo, varianza e inductive bias.