Las redes neuronales son parte de la configuración del cerebro humano, el cual es una estructura compuesta por miles de millones de neuronas que se comunican entre sí para generar los procesos que nos permiten percibir, pensar, aprender y movernos. Estas conexiones, conocidas como redes neuronales biológicas, son esenciales para el aprendizaje, la memoria y la regulación de funciones vitales como la respiración y el ritmo cardíaco (Open Access Pub, n.d.). Sin embargo, en los últimos años, el término “red neuronal” también se ha popularizado en el ámbito tecnológico, lo que ha generado cierta confusión entre la comprensión biológica del cerebro y la forma en que las máquinas aprenden.
Las redes neuronales biológicas y su papel en la salud y la ciencia
Las redes neuronales biológicas son objeto de estudio constante en neurología, ya que entender su estructura y funcionamiento permite desarrollar terapias más efectivas para trastornos como el párkinson, la epilepsia o los accidentes cerebrovasculares. Utilizando técnicas como la electrofisiología, la genética o la estimulación cerebral profunda, que consiste en enviar impulsos eléctricos a regiones específicas del cerebro para aliviar síntomas (Open Access Pub, n.d.). Debido a esto, el conocimiento sobre estas redes ha abierto caminos hacia tecnologías como las interfaces cerebro-computadora, que permiten interpretar y manipular señales neuronales con fines médicos o tecnológicos.
De las neuronas humanas a las redes artificiales
De acuerdo con Miller (2024) las redes neuronales han tenido una amplia historia de desarrollo, durante las décadas de 1970 y 1980, investigadores como McClelland, Rumelhart y Hinton propusieron una nueva manera de entender el cerebro: como un sistema de procesamiento paralelo distribuido, donde el conocimiento no se almacena en una sola neurona, sino en el patrón de actividad compartida entre muchas, siendo este el enfoque que inspiró el desarrollo de modelos computacionales llamados redes neuronales artificiales, que aprenden a través de un proceso conocido como retropropagación o backpropagation, presentado por Rumelhart, Hinton y Williams en 1986 (Miller, 2024).
Este algoritmo permitió que las máquinas pudieran “aprender” a partir de los errores, ajustando sus conexiones internas para mejorar el desempeño, una idea que revolucionó el campo de la inteligencia artificial. Décadas después, con el avance de la capacidad computacional y la disponibilidad de grandes volúmenes de datos, surgieron las redes neuronales profundas (deep learning), que hoy impulsan tecnologías como el reconocimiento de voz, la visión por computadora o los modelos de lenguaje (Miller, 2024).
El regreso del cerebro a la ecuación
Pero este desarrollo ha causado nuevas preguntas sobre el cerebro humano, investigadores como McClelland han comenzado a explorar cómo los principios que rigen el aprendizaje en las máquinas pueden ayudar a comprender mejor la cognición humana. Sin embargo, existen diferencias fundamentales: mientras las redes artificiales requieren cantidades masivas de datos para aprender, el cerebro humano logra generalizar con muy poca información (Miller, 2024), lo que sugiere que los mecanismos biológicos de aprendizaje son más eficientes y flexibles.
Los límites de la comparación entre cerebro y máquina
Teniendo en cuenta lo anterior, es importante comprender que pese a las similitudes conceptuales, comparar directamente las redes neuronales artificiales con las biológicas puede ser engañoso. Un estudio del Massachusetts Institute of Technology (MIT) advirtió que muchas simulaciones de redes neuronales solo logran replicar patrones cerebrales cuando se les imponen restricciones artificiales que no existen en la biología. En su análisis de más de 11,000 modelos, los investigadores encontraron que solo un pequeño porcentaje mostraba comportamientos parecidos a los de las neuronas reales, lo que indica que estos modelos deben interpretarse con cautela (MIT News, 2022).
Conclusión
Así, se comprende que las redes neuronales, tanto biológicas como artificiales, representan dos mundos que se inspiran mutuamente. Mientras el estudio del cerebro humano impulsa avances en inteligencia artificial, los modelos computacionales nos pueden ayudar a formular nuevas hipótesis sobre la mente y el aprendizaje. Sin embargo, es fundamental mantener una mirada crítica y científica: las máquinas pueden aprender de forma parecida, pero no igual, a los humanos, y el entender esa diferencia es clave para avanzar en el conocimiento de ambos campos y del mismo modo consumir de forma crítica el contenido proporcionado por la inteligencia artificial, sin dejar que erosione nuestro propio conocimiento humano.
Referencias
- Open Access Pub. (n.d). Biological Neural Network | Journal of Neurological Research and Therapy. Open Access Pub. https://openaccesspub.org/neurological-research-and-therapy/biological-neural-network
- Miller, K., (2024) From Brain to Machine: The Unexpected Journey of Neural Networks | Stanford HAI. https://hai.stanford.edu/news/from-brain-to-machine-the-unexpected-journey-of-neural-networks
- MIT News. (2022). Study urges caution when comparing neural networks to the brain. Massachusetts Institute of Technology. https://news.mit.edu/2022/neural-networks-brain-function-1102
¿Y tú qué opinas?
Autor: Leonardo Amaya