Entender la unidad básica de redes neuronales
Aprender cómo las neuronas toman decisiones
Visualizar ajustes de pesos y sesgo
Reconocer problemas linealmente separables
Demuestra el algoritmo Perceptron original de Rosenblatt para datasets linealmente separables. Visualiza actualizaciones de pesos, cambios de bias y convergencia en pasos finitos cuando los datos son separables.
Perceptrón es gradiente descendente estocástico sobre hinge loss para modelos lineales. Equivalente a un SVM online sin regularización.
Perceptrón converge si y solo si los datos son linealmente separables. Para problemas no separables (XOR) el algoritmo oscila para siempre – motivando redes multicapa.
Datos que pueden dividirse con una sola línea/plano recto. El perceptrón solo tiene éxito bajo esta condición.
Controla el tamaño de paso de las actualizaciones de peso. η pequeño = lento pero estable; η grande = rápido pero oscilatorio.
Desplaza la frontera de decisión lejos del origen. Sin bias, la línea debe pasar por el origen.
Perceptrones clasifican correos como spam/no spam usando frecuencia de palabras.
Sensores simples (temperatura/presión) alimentan perceptrones para detectar productos defectuosos en líneas de ensamblaje.
Cambia dataset a XOR. Observa cómo el perceptrón falla – introducción perfecta a redes multicapa.
❌ Esperar separación no lineal
¿Por Qué? El perceptrón no puede doblarse. Usa capas ocultas o métodos kernel para fronteras curvas.