APPZYFY
Módulo 2intermediate
⚠️

Simulador de Sobreajuste

45 min
1

Reconocer sobreajuste vs subajuste

2

Entender importancia de train/test split

3

Aprender técnicas de regularización (L1, L2, Dropout)

4

Aplicar estrategias de parada temprana

APPZYFY

Simulador de Sobreajuste

Entiende y previene el sobreajuste

Capacidad del Modelo

SimpleComplex

Regularización

Conjunto de Datos

Datos de Entrenamiento & Datos de Prueba

Train (80)
Test (20)

Pérdida Entrenamiento vs Pérdida Prueba

Guía de Aprendizaje

Intermedio⏱️ 30 min

Elige tu estilo de aprendizaje

¿Qué Hace?

Demuestra trade-off bias-variance mediante regresión polinomial con grados variables. Muestra curvas de loss entrenamiento vs validación, efectos de regularización (L1/L2) y estrategias de early stopping. Crítico para entender generalización.

¿Cómo Funciona?

  1. 1Generar divisiones entrenamiento/validación (70/30 o 80/20)
  2. 2Ajustar modelos polinomiales de grado d=1,2,...,10
  3. 3Computar MSE train/val para cada grado
  4. 4Graficar curvas de aprendizaje: d bajo → alto bias, d alto → alta varianza
  5. 5Aplicar regularización L1 (Lasso) o L2 (Ridge): loss + λΣ|w| o λΣw²
  6. 6Monitorear val loss para early stopping (epochs de paciencia)

Analogía Simple

Ajustar polinomio es como confeccionar un traje. Grado bajo = ajuste genérico (subajuste). Grado alto = a medida de cada arruga (sobreajuste). Regularización agrega "tensión" para prevenir tela sobreajustada.

Concepto Clave

Punto dulce: loss train bajo, loss val bajo, brecha mínima. Usa cross-validation para ajustar hiperparámetros (grado, λ). Monitorea val loss durante entrenamiento – divergencia señala sobreajuste.

Conceptos Fundamentales

División Entrenamiento vs Validación

Reserva 20-30% datos para validación. Nunca tocar test set hasta evaluación final. Previene "espiar".

Fuerza de Regularización (λ)

λ=0 → sin penalidad, sobreajusta. λ→∞ → pesos cero, subajusta. Ajustar mediante grid search en loss de validación.

Early Stopping

Detener entrenamiento cuando val loss deja de decrecer (paciencia=5-10 epochs). Previene sobreajuste sin regularización explícita.

Aplicaciones del Mundo Real

🏥
Descubrimiento de Medicamentos

Modelos que predicen eficacia de medicamentos deben generalizar a moléculas no vistas. Sobreajustar datos de lab → fallas en ensayos clínicos.

📈
Predicción de Acciones

Sobreajustar patrones históricos → pierde dinero en operaciones futuras. Regularización + validación walk-forward crítica.

🚗
Vehículos Autónomos

Debe manejar condiciones de carretera novedosas. Sobreajustar rutas de entrenamiento → accidentes en ambientes nuevos.

Pruébalo Tú Mismo

Barrido de Grado Polinomial

Prueba d=1,3,5,10. Observa val loss bajar luego subir. Encuentra d óptimo donde val loss minimiza.

Fuerza de Regularización

Fija d=10, varía λ de 0 a 1. Ve cómo la curva se suaviza al aumentar λ.

Errores Comunes a Evitar

Usar todos los datos para entrenamiento

¿Por Qué? No hay forma de detectar sobreajuste. Siempre retén conjunto de validación.

Ajustar en test set

¿Por Qué? Contamina evaluación de test. Usa conjunto de validación para ajuste de hiperparámetros.