APPZYFY
Módulo 2intermediate
📈

Laboratorio de Regresión

45 min
1

Entender regresión vs clasificación

2

Aprender optimización por descenso de gradiente

3

Comparar regresión lineal y polinomial

4

Evaluar ajuste del modelo con R², MSE, MAE

Puntos de Datos

Haz clic en el lienzo para agregar puntos

Parameters

Estadísticas

Iteración
0
Puntos de Datos
0
MSE
0.0000
Puntuación R²
0.0000
MAE
0.0000
Grado Polinomial
1

Guía de Aprendizaje

Intermedio⏱️ 25 min

Elige tu estilo de aprendizaje

¿Qué Hace?

Entorno interactivo para regresión lineal/polinomial con visualización de gradiente descendente. Explora bias/variance, regularización (L1/L2) y dinámica de aprendizaje en datasets ruidosos.

¿Cómo Funciona?

  1. 1Genera dataset con ruido y distribución controlable
  2. 2Ajusta modelo y = θ^T x usando gradiente descendente/solución cerrada
  3. 3Grafica paisaje de loss, residuales, métricas R²/MSE/MAE
  4. 4Ajusta grado, fuerza de regularización, learning rate
  5. 5Visualiza sub/sobreajuste mediante curvas train/test
  6. 6Inspecciona trayectoria de gradiente descendente en espacio de parámetros

Analogía Simple

Regresión es ajustar una curva: como doblar un alambre metálico a través de puntos de datos. La regularización es la tensión que evita oscilaciones salvajes.

Concepto Clave

Balancear complejidad del modelo y regularización produce mejor generalización. El tamaño de paso de gradiente controla velocidad de convergencia vs estabilidad.

Conceptos Fundamentales

Tradeoff Bias-Varianza

Bias = error por suposición simplificada. Variance = sensibilidad al ruido. Objetivo: minimizar error total.

Regularización

L1 (Lasso) fuerza sparsity; L2 (Ridge) encoge coeficientes. Previenen sobreajuste.

Gradiente Descendente

Optimización iterativa saltando opuesto al gradiente. Learning rate es crucial para convergencia.

Aplicaciones del Mundo Real

🏠
Precios de Vivienda

Predecir precio a partir de tamaño, habitaciones, ubicación. Caso clásico de regresión lineal.

Pronóstico Energético

Estimar demanda eléctrica futura usando regresión sobre clima + historial de uso.

Pruébalo Tú Mismo

Experimento de Ruido

Aumenta el slider de ruido. Observa necesidad de regularización para mantener predicciones suaves.

Errores Comunes a Evitar

Grado polinomial demasiado alto

¿Por Qué? Sobreajusta ruido generando oscilaciones fuertes. Usa cross-validation para elegir grado.

Ignorar learning rate

¿Por Qué? LR grande diverge; LR pequeño desperdicia tiempo. Ajusta hasta que loss baje constantemente.