Laboratorio de Regresión
Entender regresión vs clasificación
Aprender optimización por descenso de gradiente
Comparar regresión lineal y polinomial
Evaluar ajuste del modelo con R², MSE, MAE
Puntos de Datos
Haz clic en el lienzo para agregar puntos
Parameters
Estadísticas
Guía de Aprendizaje
Elige tu estilo de aprendizaje
¿Qué Hace?
Entorno interactivo para regresión lineal/polinomial con visualización de gradiente descendente. Explora bias/variance, regularización (L1/L2) y dinámica de aprendizaje en datasets ruidosos.
¿Cómo Funciona?
- 1Genera dataset con ruido y distribución controlable
- 2Ajusta modelo y = θ^T x usando gradiente descendente/solución cerrada
- 3Grafica paisaje de loss, residuales, métricas R²/MSE/MAE
- 4Ajusta grado, fuerza de regularización, learning rate
- 5Visualiza sub/sobreajuste mediante curvas train/test
- 6Inspecciona trayectoria de gradiente descendente en espacio de parámetros
Analogía Simple
Regresión es ajustar una curva: como doblar un alambre metálico a través de puntos de datos. La regularización es la tensión que evita oscilaciones salvajes.
Concepto Clave
Balancear complejidad del modelo y regularización produce mejor generalización. El tamaño de paso de gradiente controla velocidad de convergencia vs estabilidad.
Conceptos Fundamentales
Tradeoff Bias-Varianza
Bias = error por suposición simplificada. Variance = sensibilidad al ruido. Objetivo: minimizar error total.
Regularización
L1 (Lasso) fuerza sparsity; L2 (Ridge) encoge coeficientes. Previenen sobreajuste.
Gradiente Descendente
Optimización iterativa saltando opuesto al gradiente. Learning rate es crucial para convergencia.
Aplicaciones del Mundo Real
Precios de Vivienda
Predecir precio a partir de tamaño, habitaciones, ubicación. Caso clásico de regresión lineal.
Pronóstico Energético
Estimar demanda eléctrica futura usando regresión sobre clima + historial de uso.
Pruébalo Tú Mismo
Experimento de Ruido
Aumenta el slider de ruido. Observa necesidad de regularización para mantener predicciones suaves.
Errores Comunes a Evitar
❌ Grado polinomial demasiado alto
¿Por Qué? Sobreajusta ruido generando oscilaciones fuertes. Usa cross-validation para elegir grado.
❌ Ignorar learning rate
¿Por Qué? LR grande diverge; LR pequeño desperdicia tiempo. Ajusta hasta que loss baje constantemente.