Entender regresión vs clasificación
Aprender optimización por descenso de gradiente
Comparar regresión lineal y polinomial
Evaluar ajuste del modelo con R², MSE, MAE
Haz clic en el lienzo para agregar puntos
Entorno interactivo para regresión lineal/polinomial con visualización de gradiente descendente. Explora bias/variance, regularización (L1/L2) y dinámica de aprendizaje en datasets ruidosos.
Regresión es ajustar una curva: como doblar un alambre metálico a través de puntos de datos. La regularización es la tensión que evita oscilaciones salvajes.
Balancear complejidad del modelo y regularización produce mejor generalización. El tamaño de paso de gradiente controla velocidad de convergencia vs estabilidad.
Bias = error por suposición simplificada. Variance = sensibilidad al ruido. Objetivo: minimizar error total.
L1 (Lasso) fuerza sparsity; L2 (Ridge) encoge coeficientes. Previenen sobreajuste.
Optimización iterativa saltando opuesto al gradiente. Learning rate es crucial para convergencia.
Predecir precio a partir de tamaño, habitaciones, ubicación. Caso clásico de regresión lineal.
Estimar demanda eléctrica futura usando regresión sobre clima + historial de uso.
Aumenta el slider de ruido. Observa necesidad de regularización para mantener predicciones suaves.
❌ Grado polinomial demasiado alto
¿Por Qué? Sobreajusta ruido generando oscilaciones fuertes. Usa cross-validation para elegir grado.
❌ Ignorar learning rate
¿Por Qué? LR grande diverge; LR pequeño desperdicia tiempo. Ajusta hasta que loss baje constantemente.