APPZYFY
Módulo 2beginner

Simulador de Perceptrón

45 min
1

Entender la unidad básica de redes neuronales

2

Aprender cómo las neuronas toman decisiones

3

Visualizar ajustes de pesos y sesgo

4

Reconocer problemas linealmente separables

Agregar Puntos

Entrenar

Statistics

Iteración
0
Precisión
0.00%
Pesos
[0.500, 0.500]
Sesgo
0.000

Guía de Aprendizaje

Principiante⏱️ 15 min

Elige tu estilo de aprendizaje

¿Qué Hace?

Demuestra el algoritmo Perceptron original de Rosenblatt para datasets linealmente separables. Visualiza actualizaciones de pesos, cambios de bias y convergencia en pasos finitos cuando los datos son separables.

¿Cómo Funciona?

  1. 1Inicializar pesos/bias en cero o valores pequeños
  2. 2Iterar sobre ejemplos de entrenamiento (x_i, y_i)
  3. 3Calcular predicción ŷ = sign(w·x + b)
  4. 4Si mal clasificado (y_i ≠ ŷ): actualizar w ← w + η y_i x_i, b ← b + η y_i
  5. 5Repetir epochs hasta clasificar todos los puntos o alcanzar iteraciones máximas
  6. 6Mostrar hiperplano separador y evolución del margen

Analogía Simple

Perceptrón es gradiente descendente estocástico sobre hinge loss para modelos lineales. Equivalente a un SVM online sin regularización.

Concepto Clave

Perceptrón converge si y solo si los datos son linealmente separables. Para problemas no separables (XOR) el algoritmo oscila para siempre – motivando redes multicapa.

Conceptos Fundamentales

Separabilidad Lineal

Datos que pueden dividirse con una sola línea/plano recto. El perceptrón solo tiene éxito bajo esta condición.

Learning Rate (η)

Controla el tamaño de paso de las actualizaciones de peso. η pequeño = lento pero estable; η grande = rápido pero oscilatorio.

Bias

Desplaza la frontera de decisión lejos del origen. Sin bias, la línea debe pasar por el origen.

Aplicaciones del Mundo Real

📧
Filtro de Spam (sistemas tempranos)

Perceptrones clasifican correos como spam/no spam usando frecuencia de palabras.

⚙️
Control de Calidad Industrial

Sensores simples (temperatura/presión) alimentan perceptrones para detectar productos defectuosos en líneas de ensamblaje.

Pruébalo Tú Mismo

Desafío XOR

Cambia dataset a XOR. Observa cómo el perceptrón falla – introducción perfecta a redes multicapa.

Errores Comunes a Evitar

Esperar separación no lineal

¿Por Qué? El perceptrón no puede doblarse. Usa capas ocultas o métodos kernel para fronteras curvas.