La profecía del New York Times

En 1958, el New York Times publicó una noticia que parecía sacada de la ciencia ficción: la Marina de los Estados Unidos había presentado el embrión de una computadora que, en un futuro cercano, sería capaz de caminar, hablar, ver, escribir, reproducirse y tener conciencia de su propia existencia. El responsable de tal audacia era un psicólogo llamado Frank Rosenblatt.

Su invento no era una computadora común que seguía órdenes lógicas del tipo «A, entonces B». Rosenblatt había creado el Perceptrón, un sistema que intentaba imitar la forma en que una neurona biológica procesa la información. Aunque la tecnología de la época no permitió que su máquina caminara ni hablara de inmediato, Rosenblatt había plantado la semilla de lo que hoy conocemos como redes neuronales: la idea de que la inteligencia no se programa, sino que se entrena.

La neurona biológica vs. La neurona artificial
Para entender la IA, primero debemos recordar cómo funciona nuestro cerebro. Una neurona recibe señales eléctricas a través de sus dendritas. Si la suma de esas señales supera un umbral de energía determinado, la neurona se «dispara» y envía un impulso a través del axón hacia la siguiente neurona.
Rosenblatt replicó este modelo matemáticamente.

En el Perceptrón, tenemos varias entradas (datos) que se multiplican por un peso (que representa la fuerza de la conexión, tal como vimos con la ley de Hebb, abordada en la serie neurobiología de la transformación, primera entrega). Si la suma ponderada de esos datos supera un umbral, la neurona artificial responde (1); si no, permanece en silencio (0).
Lo revolucionario no fue la suma, sino el ajuste de los pesos. Si la máquina se equivocaba, un algoritmo ajustaba los pesos de las conexiones para que, la próxima vez, la respuesta fuera correcta. Estábamos ante el nacimiento del aprendizaje automatizado.

Frank Rosenblatt (1928-1971) fue un psicólogo norteamericano considerado pionero de la inteligencia artificial, nacido en New Rochelle, Nueva York. Con una mente profundamente transdisciplinaria, trabajó en el Laboratorio Aeronáutico de Cornell, donde combinó sus conocimientos de psicología con la ingeniería electrónica.


Rosenblatt fue un visionario incomprendido. Tras el entusiasmo inicial del Perceptrón, fue duramente criticado por colegas como Marvin Minsky, quienes demostraron las limitaciones matemáticas de su modelo original. Estas críticas provocaron el primer invierno de la IA, un periodo en el que se dejó de investigar las redes neuronales.
Rosenblatt murió trágicamente en un accidente de navegación a los 43 años, sin ver cómo, décadas después, su idea de la neurona artificial se convertiría en la base de la tecnología más importante del siglo XXI. Hoy se le reconoce como el hombre que se atrevió a soñar que las máquinas podían aprender como niños.
Estoy profundamente emocionado al escribir esta primera entrega sobre lo que yo he titulado la neurobiología de la IA, porque en la década de los noventa el director del Instituto de Cálculo Aplicado (ICA), de la Facultad de Ingeniería de nuestra muy ilustre Universidad del Zulia, para ese entonces, el Dr. Néstor Queipo, recién llegado de obtener su doctorado, llevó al instituto, del cual yo era miembro de su plantel docente, lo que era lo más novedoso en la creación digital para el momento, las redes neuronales y su modelo de aplicación, el cual era precisamente el Perceptrón de Frank Rosenblatt.

El instituto diseñó un plan de capacitación y adiestramiento para todo su personal y se desarrolló una línea de investigación y aplicación de las redes neuronales. Según mi perspectiva de psicólogo y matemático, el Perceptrón es la versión digital del conductismo de Watson y Skinner. La IA no sabe qué es un perro; solo sabe que, tras miles de ejemplos reforzados (ajuste de pesos), ante el estímulo visual de un perro, la respuesta correcta es «perro. Es un sistema de Estímulo-Respuesta llevado a una
escala de miles de millones de conexiones. La inteligencia no se programa, sino que se entrena.

Resumen de la Entrega 1
● Biomimetismo: La IA no nació de la lógica matemática pura, sino del intento de imitar la estructura de la neurona humana.

● El Perceptrón: el primer modelo de neurona artificial capaz de aprender mediante el ajuste de los pesos de sus conexiones.
● Entrenamiento vs. Programación: La gran diferencia de la IA moderna es que no recibe instrucciones fijas, sino que aprende a través de la experiencia y el refuerzo.

Referencias Bibliográficas (APA 7.ª Edición)
Anderson, J. A., & Rosenfeld, E. (Eds.). (1988). Talking nets: An oral history of neural networks. MIT Press.
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408.
Sejnowski, T. J. (2018). The deep learning revolution. MIT Press.