Reconocer sobreajuste vs subajuste
Entender importancia de train/test split
Aprender técnicas de regularización (L1, L2, Dropout)
Aplicar estrategias de parada temprana
Entiende y previene el sobreajuste
Demuestra trade-off bias-variance mediante regresión polinomial con grados variables. Muestra curvas de loss entrenamiento vs validación, efectos de regularización (L1/L2) y estrategias de early stopping. Crítico para entender generalización.
Ajustar polinomio es como confeccionar un traje. Grado bajo = ajuste genérico (subajuste). Grado alto = a medida de cada arruga (sobreajuste). Regularización agrega "tensión" para prevenir tela sobreajustada.
Punto dulce: loss train bajo, loss val bajo, brecha mínima. Usa cross-validation para ajustar hiperparámetros (grado, λ). Monitorea val loss durante entrenamiento – divergencia señala sobreajuste.
Reserva 20-30% datos para validación. Nunca tocar test set hasta evaluación final. Previene "espiar".
λ=0 → sin penalidad, sobreajusta. λ→∞ → pesos cero, subajusta. Ajustar mediante grid search en loss de validación.
Detener entrenamiento cuando val loss deja de decrecer (paciencia=5-10 epochs). Previene sobreajuste sin regularización explícita.
Modelos que predicen eficacia de medicamentos deben generalizar a moléculas no vistas. Sobreajustar datos de lab → fallas en ensayos clínicos.
Sobreajustar patrones históricos → pierde dinero en operaciones futuras. Regularización + validación walk-forward crítica.
Debe manejar condiciones de carretera novedosas. Sobreajustar rutas de entrenamiento → accidentes en ambientes nuevos.
Prueba d=1,3,5,10. Observa val loss bajar luego subir. Encuentra d óptimo donde val loss minimiza.
Fija d=10, varía λ de 0 a 1. Ve cómo la curva se suaviza al aumentar λ.
❌ Usar todos los datos para entrenamiento
¿Por Qué? No hay forma de detectar sobreajuste. Siempre retén conjunto de validación.
❌ Ajustar en test set
¿Por Qué? Contamina evaluación de test. Usa conjunto de validación para ajuste de hiperparámetros.