Modelo de una neurona biológica
La neurona biológica es una célula especializada en la transmisión de señales nerviosas. Recibe información a través de las dendritas, la procesa en el cuerpo celular y la transmite a través del axón hacia otras neuronas o células efectoras.
Las dendritas son prolongaciones ramificadas que se extienden desde el cuerpo celular (soma) de la neurona. Su función principal es recibir señales de otras neuronas a través de las sinapsis. El cuerpo celular (soma) es la parte central de la neurona que contiene el núcleo y otros orgánulos celulares. En el soma se procesan las señales recibidas de las dendritas y se genera una nueva señal si la suma de las señales entrantes supera un umbral determinado. El núcleo es el orgánulo que contiene el material genético de la neurona (ADN).
El axón es una prolongación larga y delgada que se extiende desde el cuerpo celular. Su función es transmitir la señal generada en el soma hacia otras neuronas o células efectoras (como las células musculares). La mielina es una sustancia grasa que recubre el axón de muchas neuronas. Actúa como aislante eléctrico, lo que acelera la transmisión de la señal nerviosa. Las terminaciones del axón son ramificaciones del axón que se conectan con las dendritas o el cuerpo celular de otras neuronas a través de las sinapsis. La sinapsis es la unión entre dos neuronas, o entre una neurona y una célula efectora. En la sinapsis, la señal nerviosa se transmite de una neurona a otra mediante la liberación de neurotransmisores.
Imagina que tocas accidentalmente una taza de café caliente. En tu dedo, hay neuronas sensoriales especializadas en detectar el calor; y cuando estas reciben la señal de «calor» a través de receptores en la piel que transforman el calor en una señal eléctrica, se activan. Esta señal eléctrica viaja a través de las dendritas hasta el cuerpo celular (soma) de la neurona. El soma «suma» todas las señales que recibe de las dendritas. Si la suma de las señales supera un cierto umbral, la neurona se «activa» y genera un impulso eléctrico más fuerte llamado potencial de acción. Es como si la neurona dijera «¡Ay, quema!». Este potencial de acción viaja a lo largo del axón de la neurona sensorial, que puede ser bastante largo para llegar hasta la médula espinal. La mielina que recubre el axón ayuda a que la señal viaje más rápido. Al final del axón, la señal llega a las terminaciones del axón, donde se liberan neurotransmisores en la sinapsis. Estos neurotransmisores son como mensajeros químicos que cruzan el pequeño espacio entre la neurona sensorial y otra neurona en la médula espinal. La siguiente neurona, a su vez, se activa y transmite la señal al cerebro, donde se interpreta como dolor y te hace retirar la mano rápidamente.
Resumiendo, la neurona sensorial detectó el calor, lo transformó en una señal eléctrica, la transmitió a través de su axón y la comunicó a otras neuronas para generar una respuesta rápida. Este es un ejemplo simplificado, ya que en realidad hay muchas neuronas involucradas en la detección del dolor y la respuesta motora estableciendo así una especie de red neuronal biológica.
Modelo de una neurona artificial
Inspirándose en esta compleja estructura biológica, los investigadores en inteligencia artificial han desarrollado un modelo simplificado: la neurona artificial. Esta es una unidad de procesamiento cuya función principal es procesar información y generar una salida en función de las entradas recibidas y un conjunto de parámetros ajustables.
Al igual que las dendritas que reciben señales, la neurona artificial recibe entradas que pueden ser valores numéricos, características extraídas de datos o señales provenientes de otras neuronas. De forma similar al soma, la neurona artificial realiza una suma ponderada de estas entradas mediante un conjunto de pesos, que determinan la influencia de cada entrada en la salida de la neurona. Además de los pesos, la neurona artificial también incluye un sesgo, que es un valor constante que se suma a la suma ponderada de las entradas. El sesgo permite a la neurona activarse incluso cuando todas las entradas son cero, proporcionando un nivel base de activación.
La suma ponderada de las entradas y el sesgo se pasa a través de una función de activación, que introduce no linealidad en el modelo. Esta no linealidad es crucial porque permite a la red neuronal aprender patrones complejos que no podrían ser modelados con una simple suma lineal. La función de activación puede ser una función sigmoide, una función ReLU (Rectified Linear Unit) u otras funciones no lineales. La salida de la función de activación es la salida de la neurona artificial, que puede ser un valor numérico, una clasificación o una acción a realizar. Esta salida puede utilizarse como entrada para otras neuronas en una red neuronal, o puede ser la respuesta final del sistema.
Ejemplo: Clasificación de imágenes de gatos y perros
Imagina que queremos entrenar a una neurona artificial para que distinga entre imágenes de gatos y perros. Para ello, le proporcionamos un conjunto de entradas que representan características de las imágenes, como:
Entrada 1: Presencia de bigotes (1 si hay bigotes, 0 si no).
Entrada 2: Tamaño de las orejas (valor numérico).
Entrada 3: Forma de la cola (1 si es larga y delgada, 0 si es corta y gruesa).
Asignamos pesos a cada entrada según su importancia para la clasificación. Por ejemplo, la presencia de bigotes podría tener un peso mayor que la forma de la cola, ya que los bigotes son más característicos de los gatos.
Supongamos que tenemos una imagen de un gato con bigotes, orejas pequeñas y cola larga y delgada. Las entradas serían
Entrada 1: 1
Entrada 2: 0.3 (valor pequeño)
Entrada 3: 1
Al multiplicar cada entrada por su peso y sumar los resultados, obtenemos un valor que se pasa a la función de activación. Si la función se activa, la neurona clasificará la imagen como «gato». En caso contrario, la clasificará como «perro».
Supongamos que los pesos asignados son: bigotes (0,8), tamaño de orejas (0,2), forma de cola (0,1), y el sesgo es -0.5. La suma ponderada sería: (1 * 0,8) + (0,3 * 0,2) + (1 * 0.1) - 0.5 = 0.46. Si usamos una función de activación simple que se activa, si el valor es mayor que 0, la neurona se activaría (0.46 > 0), clasificando la imagen como «gato». En pocas palabras, las entradas representan características relevantes de la imagen; los pesos determinan la importancia de cada característica; la función de activación decide si la neurona se activa o no, y la salida de la neurona clasifica la imagen como «gato» o «perro».
Este es un ejemplo simplificado, ya que en la práctica se utilizan redes neuronales con muchas neuronas interconectadas para realizar tareas de clasificación de imágenes. Sin embargo, ilustra el funcionamiento básico de una neurona artificial y cómo puede utilizarse para tomar decisiones basadas en datos de entrada.
Red de neuronas artificiales
Las neuronas biológicas y artificiales comparten algunas similitudes en su función básica, pero difieren en su complejidad, adaptabilidad, velocidad y eficiencia energética. Las neuronas artificiales se inspiran en las biológicas, pero son modelos simplificados que se utilizan para construir sistemas de inteligencia artificial.
Se asemejan en el concepto de entradas y salidas, ya que ambas reciben información de múltiples fuentes (entradas) y producen una señal de salida. En las neuronas biológicas, las entradas son las señales químicas de otras neuronas recibidas en las dendritas, y la salida es la señal eléctrica que viaja a través del axón. En las neuronas artificiales, las entradas son valores numéricos, y la salida es un valor numérico o una clasificación. Ambas realizan un procesamiento de la información recibida para generar la salida. En las neuronas biológicas, este procesamiento implica la suma de las señales entrantes y la activación de la neurona si se supera un umbral. En las neuronas artificiales, el procesamiento implica la suma ponderada de las entradas, el sesgo y la aplicación de una función de activación. Y ambas se conectan entre sí para formar redes complejas que permiten el procesamiento de información a gran escala. En el cerebro, las neuronas se conectan a través de sinapsis, mientras que en las redes neuronales artificiales, las neuronas se conectan mediante conexiones ponderadas.
En cambio, las diferencias son importantes porque las neuronas biológicas son mucho más complejas que las artificiales. Tienen una estructura interna elaborada con numerosos orgánulos y mecanismos moleculares que intervienen en el procesamiento de la información. Las neuronas artificiales son modelos matemáticos simplificados que capturan algunos aspectos básicos del funcionamiento neuronal. Las neuronas biológicas son altamente adaptables y pueden modificar sus conexiones y su funcionamiento en respuesta a la experiencia. Las neuronas artificiales, aunque pueden «aprender» a través del entrenamiento, tienen una estructura y un funcionamiento más fijos. Las neuronas artificiales pueden procesar información mucho más rápido que las biológicas. La velocidad de transmisión de las señales en el cerebro está limitada por la velocidad de conducción de los impulsos nerviosos y la liberación de neurotransmisores. Las neuronas artificiales, al ser modelos computacionales, pueden operar a velocidades mucho mayores. Las neuronas biológicas son extremadamente eficientes en el consumo de energía. El cerebro humano consume una cantidad relativamente pequeña de energía para realizar tareas complejas. Las redes neuronales artificiales, especialmente las de gran tamaño, pueden requerir una gran cantidad de energía para su funcionamiento.
Usar neuronas reales para construir una red neuronal artificial es una idea fascinante con enormes implicaciones, pero también presenta desafíos considerables. Esta área de investigación, conocida como neurocomputación o computación biológica, busca combinar la capacidad de procesamiento de información de las neuronas biológicas con la tecnología para crear sistemas computacionales más potentes y eficientes. Las ventajas potenciales, en principio, son importantes, ya que las neuronas biológicas son increíblemente eficientes en el uso de energía, superando con creces a las computadoras actuales, y, por tanto, una red neuronal con neuronas reales podría ser mucho más eficiente que las redes neuronales artificiales que se ejecutan en un hardware tradicional con un alto consumo energético. Otra de las ventajas sería que, dado que las neuronas biológicas tienen una capacidad innata para aprender y adaptarse, modificando sus conexiones y respuestas en función de la experiencia, esto podría permitir que una red neuronal biológica aprenda y se adapte a nuevas situaciones de forma más rápida y eficiente que las redes artificiales actuales. También, dada la capacidad del cerebro humano para procesar información de forma masiva y paralela, lo que le permite realizar tareas complejas con rapidez, una red neuronal construida con neuronas reales podría replicar esta capacidad, permitiendo un procesamiento paralelo masivo.
Todas estas ventajas planteadas desde un marco teórico plantean una serie de desafíos importantes, empezando por el más básico: el poder cultivar y mantener neuronas vivas en un entorno artificial es un desafío técnico considerable, ya que las neuronas requieren condiciones muy específicas para sobrevivir y funcionar correctamente. Conectar neuronas individuales de manera controlada para formar una red funcional es extremadamente difícil porque se necesitan nuevas tecnologías para conectar y controlar las neuronas con precisión. La escalabilidad de un sistema de neurocomputación a un tamaño que pueda realizar tareas complejas requeriría un gran número de neuronas y conexiones, lo que presenta desafíos significativos en términos de fabricación y mantenimiento. Un simple dato: un cerebro adulto pesa entre 1.300 y 1.400 gramos, contiene unos 100.000 millones de neuronas y una cantidad mucho mayor de sinapsis, que permiten las conexiones entre neuronas, y cuando tomamos decisiones y experimentamos emociones, en el cerebro se produce una complicada mezcla de procesos químicos y eléctricos. Sin olvidar un aspecto colateral que es que el uso de neuronas reales plantea cuestiones bioéticas importantes sobre el origen de las células, el bienestar animal (si se utilizan neuronas animales) y la posible creación de sistemas con consciencia.
A pesar de los desafíos, la neurocomputación es un campo de investigación activo con avances prometedores en diversas áreas como el desarrollo de dispositivos que contienen neuronas cultivadas en chips de silicio, los cuales permiten estudiar el funcionamiento del cerebro y desarrollar interfaces cerebro-computadora. Se están creando «mini-cerebros» en laboratorio a partir de células madre, que se utilizan para investigar enfermedades neurológicas y probar nuevos fármacos. Estos organoides también podrían utilizarse en el futuro para la neurocomputación. También se están combinando neuronas artificiales con neuronas biológicas para crear sistemas híbridos que aprovechen las ventajas de ambos.
La neurocomputación es un campo multidisciplinar que involucra a investigadores de diversas áreas como la neurociencia, la ingeniería, la informática y la biología. Muchos centros de investigación y universidades por todo el mundo están realizando importantes contribuciones a este campo. En la actualidad hay muchos otros centros de investigación e universidades que contribuyen al avance de la neurocomputación. La investigación en este campo es global y colaborativa, con científicos de todo el mundo trabajando juntos para desarrollar nuevas tecnologías que combinen lo mejor de la biología y la inteligencia artificial. Algunos de los centros más prestigiosos se encuentran en las principales universidades y centros de investigación en los Estados Unidos, como el Massachusetts Institute of Technology (MIT), el cual alberga varios laboratorios e iniciativas dedicados a la neurocomputación, como el Synthetic Neurobiology Group y el Center for Brains, Minds and Machines; el California Institute of Technology (Caltech) que cuenta con investigadores líderes en neurociencia e ingeniería que trabajan en la interfaz entre el cerebro y la máquina, como el Tianqiao and Chrissy Chen Institute for Neuroscience; la Universidad de Stanford que tiene un fuerte enfoque en la neurociencia y la inteligencia artificial, con laboratorios como el Wu Tsai Neurosciences Institute y el Stanford Artificial Intelligence Laboratory; o la Universidad de Harvard que cuenta con varios centros de investigación dedicados al estudio del cerebro y la neurotecnología, como el Center for Brain Science y el Wyss Institute for Biologically Inspired Engineering.
En Europa, podemos destacar el Max Planck Institute for Brain Research en Alemania, uno de los líderes mundiales en investigación del cerebro, con un enfoque en la comprensión de los circuitos neuronales y la función cerebral; en el Reino Unido la Universidad de Cambridge, tiene una larga tradición en neurociencia, con departamentos como el Department of Physiology, Development and Neuroscience y el Cambridge Centre for AI in Medicine; también destaca la Universidad de Oxford que cuenta con importantes grupos de investigación en neurociencia e inteligencia artificial, como el Oxford Centre for Human Brain Activity y el Oxford Machine Learning Research Group; en Suiza, la École polytechnique fédérale de Lausanne (EPFL) tiene un programa de investigación en neurociencia e inteligencia artificial, con laboratorios como el Brain Mind Institute y el Laboratory of Computational Neuroscience; y España, el centro de referencia es el Instituto Cajal del CSIC, que recoge el legado de Ramón y Cajal y es un centro puntero en diversas investigaciones centradas en profundizar en el conocimiento y estructura del cerebro abarcando los circuitos neuronales y el comportamiento, junto con el análisis de la señalización neuronal y la sincronía que cubre aspectos relacionados con la neurociencia computacional.
En Asia, tenemos en Japón, el RIKEN Center for Brain Science, un instituto de investigación líder en Japón con un enfoque en la neurociencia y la inteligencia artificial; la National University of Singapore (NUS) con un programa de investigación en neurociencia e inteligencia artificial, con centros como el NUS Centre for Neuroscience y el NUS Institute for Data Science; o la Universidad de Tsinghua es una de las principales universidades de China con un fuerte enfoque en la investigación en inteligencia artificial y neurociencia.
Aunque la construcción de redes neuronales completamente biológicas aún presenta desafíos considerables, existe un campo intermedio que busca emular el funcionamiento del cerebro de forma más eficiente: la computación neuromórfica. Aunque puede parecer un campo nuevo, lleva muchos años en el campo de la investigación y sus orígenes se remontan a la década de 1980 cuando Misha Mahowald y Carver Mead desarrollaron la primera retina y cóclea de silicio y las primeras neuronas y sinapsis de silicio que fueron pioneras en el paradigma de la computación neuromórfica. Este tipo de computación se basa en los chips neuromórficos, un tipo de chip que imita la estructura y el funcionamiento del cerebro humano. A diferencia de los chips de computadora tradicionales, que procesan la información de forma secuencial, los neuromórficos procesan la información de forma paralela y distribuida, similar a cómo lo hacen las neuronas en el cerebro. Estos chips están diseñados para ser más eficientes energéticamente y más rápidos que los chips tradicionales, especialmente para tareas que implican el procesamiento de grandes cantidades de datos no estructurados, como el reconocimiento de imágenes, el procesamiento del lenguaje natural y el aprendizaje automático.
Estos chips se basan en la estructura de las redes neuronales biológicas, con unidades de procesamiento que imitan el comportamiento de las neuronas y las sinapsis y, a diferencia de los chips tradicionales, que procesan la información de forma secuencial, los chips neuromórficos pueden procesar múltiples datos simultáneamente, lo que los hace más rápidos y eficientes para ciertas tareas y pueden «aprender» y adaptarse a medida que procesan la información, ajustando las conexiones entre las unidades de procesamiento para mejorar su rendimiento. Además, al imitar la eficiencia energética del cerebro, estos chips consumen mucha menos energía que los chips tradicionales, lo que los hace ideales para dispositivos móviles y aplicaciones de Internet de las cosas (IoT).
Los chips neuromórficos tienen el potencial de revolucionar muchas áreas de la tecnología. Por ejemplo, en el campo de la IA pueden acelerar el entrenamiento y la ejecución de algoritmos de inteligencia artificial, como las redes neuronales profundas; en la robótica, estos chips pueden permitir que los robots procesen la información sensorial y tomen decisiones en tiempo real, de forma similar a como lo hacen los humanos; en campo de la medicina, pueden utilizarse para desarrollar prótesis inteligentes, dispositivos de asistencia médica y tratamientos para enfermedades neurológicas; o en Internet de las cosas, pueden permitir que los dispositivos IoT procesen la información localmente, lo que reduce la necesidad de enviar datos a la nube y mejora la eficiencia energética.
Aggarwal, Charu C. Neural Networks and Deep Learning: A Textbook. Springer International Publishing, 2023.
Libro de texto sobre redes neuronales y aprendizaje profundo. El autor argumenta que las redes neuronales fueron desarrolladas para simular el sistema nervioso humano para tareas de aprendizaje automático. El libro discute las redes neuronales desde una perspectiva moderna.
Haykin, Simon. Neural Networks and Learning Machines. 3rd ed. Pearson Education, 2009.
Este libro trata sobre redes neuronales y máquinas de aprendizaje. El autor argumenta que las redes neuronales fueron desarrolladas para modelar la forma en que el cerebro realiza una tarea o función particular. El libro también argumenta que el trabajo en máquinas de aprendizaje está arraigado en la teoría del aprendizaje estadístico.
Kandel, Eric R., et al. Principles of Neural Science. 5th ed. McGraw-Hill, 2013.
Este libro trata sobre los principios de la neurociencia. Los autores argumentan que el cerebro es el órgano más complejo del cuerpo humano y que la neurociencia es el estudio del cerebro y del sistema nervioso. El libro cubre una amplia gama de temas, desde la estructura y función de las células nerviosas individuales hasta la organización de los sistemas sensoriales y motores. También se discuten las bases biológicas de la cognición, la emoción y el comportamiento.
Mead, Carver. Analog VLSI and Neural Systems. Addison-Wesley, 1989.
Este libro, escrito por uno de los pioneros de la computación neuromórfica, presenta los fundamentos de este campo y describe el diseño de chips neuromórficos que imitan el funcionamiento del cerebro.
Nielson, Michael A. Neural Networks and Deep Learning. Determination Press, 2015.
Este libro ofrece una introducción accesible a las redes neuronales y el aprendizaje profundo, explicando los conceptos básicos de las neuronas artificiales, las funciones de activación y los diferentes tipos de redes neuronales.
Etiquetas: Neuronas biológicas, neuronas artificiales, neurocomputación, computación neuromórfica, chips neuromórficos