El Experimento que Cambió la Visión
En 1959, dos neurofisiólogos, David Hubel y Torsten Wiesel, estudiaban cómo el cerebro de un gato procesaba las imágenes. Proyectaban puntos de luz en una pantalla frente al gato mientras medían la actividad de sus neuronas en la corteza visual. Al principio, no pasaba nada; las neuronas se quedaban en silencio.
De repente, al deslizar una diapositiva de vidrio en el proyector, el borde de la placa trazó una línea recta que se desplazó por la pantalla. En ese instante, las neuronas del gato empezaron a dispararse como locas. Hubel y Wiesel descubrieron algo revolucionario: el cerebro no ve «objetos» de golpe, sino que utiliza capas jerárquicas de neuronas. Unas detectan solo líneas verticales, otras horizontales, y otras integran esas líneas para formar ángulos y formas. Ganaron el Nobel por demostrar que la visión es un proceso jerárquico y por capas.
Redes Neuronales Convolucionales (CNN): Copiando a la Naturaleza
Décadas después, los científicos de la computación, retomando la experiencia de Hubel y Wiesel, se preguntaron: «¿Podemos construir una IA que tenga el mismo comportamiento?». Así nacieron las redes neuronales convolucionales (CNN). Al igual que la corteza visual del gato, estas redes procesan la información en capas:
1. Capas iniciales: Detectan bordes, sombras y líneas simples (como las neuronas
de Hubel y Wiesel).
2. Capas intermedias: Combinan esas líneas para reconocer texturas y formas
geométricas.
3. Capas profundas: integran todo para reconocer objetos complejos: un perro, un
coche o el rostro de una persona.
A este apilamiento de capas es a lo que hoy llamamos Deep Learning (Aprendizaje Profundo). Cada capa extrae una característica cada vez más abstracta que la anterior,
imitando la profundidad de nuestra propia materia gris.
Yann LeCun: El Hombre que Enseñó a Leer a las Máquinas
Para que este concepto biológico llegara a la tecnología, hizo falta un pionero que no se rindiera durante el «invierno de la IA». Yann LeCun aplicó este modelo jerárquico para crear un sistema capaz de leer números escritos a mano en cheques bancarios.
Su éxito demostró que, si copiamos la jerarquía del cerebro, la IA puede manejar la complejidad del mundo real.
Yann LeCun (1960–presente) es un científico de la computación francés, considerado uno de los tres «padrinos de la IA moderna»; (junto a Geoffrey Hinton y Yoshua Bengio). Actualmente es el científico jefe de IA en Meta (Facebook) y profesor en la Universidad de Nueva York.
Durante los años 90, cuando casi nadie creía en las redes neuronales, LeCun persistió en el desarrollo de las CNN. Su trabajo en los Laboratorios Bell permitió que los cajeros automáticos de todo el mundo pudieran leer cheques automáticamente. En 2018, recibió el Premio Turing (el «Nobel de la computación») por su contribución al Deep Learning.
LeCun es un firme defensor de la idea de que la inteligencia, ya sea biológica o artificial, es un proceso de aprendizaje jerárquico que debe impulsarse mediante la observación del mundo.
Resumen de la segunda entrega
● Jerarquía Visual: El cerebro procesa la realidad desde lo más simple (líneas)
hasta lo más complejo (objetos) mediante capas neuronales.
● Deep Learning: Es el nombre técnico de las redes neuronales con muchas
capas, que imitan la corteza cerebral.
● Procesamiento en Capas: La IA moderna no intenta entenderlo todo de una vez;
descompone la realidad en pequeños patrones que luego ensambla, al igual que
el sistema visual humano.
Referencias Bibliográficas
(APA 7.ª Edición) Hubel, D. H., Wiesel, T. N. (1959). Receptive fields of single neurons in the cat striate cortex. The Journal of Physiology, 148 (3), 574–591.
LeCun, Y., Bengio, Y. Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
LeCun, Y. (2019). Quand la machine apprend: La révolution des neurones artificiels et de apprentissage profond. Odile Jacob.
Psicólogo George Taborda (La neurobiología de la IA, segunda entrega)
