Simulador de Perceptrón
Entender la unidad básica de redes neuronales
Aprender cómo las neuronas toman decisiones
Visualizar ajustes de pesos y sesgo
Reconocer problemas linealmente separables
Agregar Puntos
Entrenar
Statistics
Guía de Aprendizaje
Elige tu estilo de aprendizaje
¿Qué Hace?
Demuestra el algoritmo Perceptron original de Rosenblatt para datasets linealmente separables. Visualiza actualizaciones de pesos, cambios de bias y convergencia en pasos finitos cuando los datos son separables.
¿Cómo Funciona?
- 1Inicializar pesos/bias en cero o valores pequeños
- 2Iterar sobre ejemplos de entrenamiento (x_i, y_i)
- 3Calcular predicción ŷ = sign(w·x + b)
- 4Si mal clasificado (y_i ≠ ŷ): actualizar w ← w + η y_i x_i, b ← b + η y_i
- 5Repetir epochs hasta clasificar todos los puntos o alcanzar iteraciones máximas
- 6Mostrar hiperplano separador y evolución del margen
Analogía Simple
Perceptrón es gradiente descendente estocástico sobre hinge loss para modelos lineales. Equivalente a un SVM online sin regularización.
Concepto Clave
Perceptrón converge si y solo si los datos son linealmente separables. Para problemas no separables (XOR) el algoritmo oscila para siempre – motivando redes multicapa.
Conceptos Fundamentales
Separabilidad Lineal
Datos que pueden dividirse con una sola línea/plano recto. El perceptrón solo tiene éxito bajo esta condición.
Learning Rate (η)
Controla el tamaño de paso de las actualizaciones de peso. η pequeño = lento pero estable; η grande = rápido pero oscilatorio.
Bias
Desplaza la frontera de decisión lejos del origen. Sin bias, la línea debe pasar por el origen.
Aplicaciones del Mundo Real
Filtro de Spam (sistemas tempranos)
Perceptrones clasifican correos como spam/no spam usando frecuencia de palabras.
Control de Calidad Industrial
Sensores simples (temperatura/presión) alimentan perceptrones para detectar productos defectuosos en líneas de ensamblaje.
Pruébalo Tú Mismo
Desafío XOR
Cambia dataset a XOR. Observa cómo el perceptrón falla – introducción perfecta a redes multicapa.
Errores Comunes a Evitar
❌ Esperar separación no lineal
¿Por Qué? El perceptrón no puede doblarse. Usa capas ocultas o métodos kernel para fronteras curvas.