• Las computadoras
son rápidas y eficientes para hacer cálculos numéricos
a partir de un programa previamente establecido; en cambio, el cerebro
humano se retroalimenta a partir de errores y aciertos de la experiencia
cotidiana, añadió
• Las estructuras de las células cerebrales son sistemas
cognitivos, con un diseño robusto respecto al computacional,
dijo Federico Zertuche Mones, de la Unidad Cuernavaca del Instituto
de Matemáticas de la UNAM
El cerebro humano está constituido por
un complejo entramado de neuronas, con un número del orden de
10 a la potencia 11 (esto es, un 1 seguido de once ceros, dicho en palabras,
100 mil millones), y de conexiones que dan lugar a un sistema cognitivo
robusto, con un diseño muy distinto al de las computadoras.
Las neuronas son células que contienen
una serie receptores llamados dendritas y poseen una larga terminación
conocida como axón, que a su vez, tiene emisores denominados
sinapsis, que conectan con las dendritas de otra neurona, y así
sucesivamente. Si ha recibido un cierto potencial de activación
que rebasa el umbral fisiológico, emite un pulso eléctrico
a través del axón y así se comunica con el resto.
Neurofisiología y matemáticas
El abordaje de las redes neuronales como un
área que relaciona a la neurofisiología y las matemáticas
data de 1943. Warren McCulloch y Walter Pitts publicaron, durante la
Segunda Guerra Mundial, un trabajo en el que desarrollaron el concepto
de éstas como modelos matemáticos. Entonces no existían
las computadoras, recordó Zertuche Mones, investigador de la
Unidad Cuernavaca del Instituto de Matemáticas (IM) de la UNAM.
Ambos científicos desarrollaron lo que
hoy en día se conoce como el “modelo de McCulloch-Pitts”,
que establece la forma de evolución temporal de las neuronas
de una manera simplificada, pero a la vez fidedigna, basándose
en el comportamiento de las neuronas biológicas, como las que
tenemos por millones en el cerebro. Este modelo ha sido fundamental
para desarrollar redes artificiales, eje de trabajos de computación
y robótica.
Desde hace casi 70 años, ese estudio
ha cobrado fuerza, asociado a computadoras cada vez más potentes
y rápidas, capaces de ayudar a los científicos a investigar
fenómenos complejos de la naturaleza, como la evolución
de las especies, la replicación del material genético
o la variabilidad del clima en el planeta.
Una de las áreas promisorias de desarrollo
en este campo es la inteligencia artificial, la analogía que
más se ha acercado al funcionamiento del cerebro humano, que
hoy ensaya métodos para trasladar a las máquinas funciones
particularmente humanas, como la toma de decisiones.
Diferencia entre modelos de redes neuronales
y computadoras
Las computadoras son muy rápidas y eficientes
para hacer cálculos numéricos, pues utilizan un procesador
que codifica las operaciones; sin embargo, es un solo procesador el
que utilizan, y un error mínimo en el programa deriva en resultados
incorrectos.
En contraste, agregó, el cerebro humano
es más lento para realizar operaciones, pero es capaz de aprender
y corregir fallas, aunque no esté previamente programado, explicó
Zertuche Mones.
Se debe, en parte, a que cada neurona hace las veces de un procesador,
de modo que se puede pensar que el cerebro funciona como una multiplicidad
de procesadores, y lo que es aún más importante, éstos
trabajan en paralelo, no forman una serie. Así, un error en uno
de ellos es corregido por los otros, algo que la terminología
científica designa como un sistema robusto.
Especialista en sistemas dinámicos complejos
discretos, Zertuche investiga, entre otras cosas, modelos conocidos
con el nombre de redes neuronales, y emplea técnicas de la física
estadística y el análisis matemático asintótico.
En su estudio de la conectividad cerebral se encuentra con un método
eficiente, parcialmente modelado por circuitos electrónicos y
otras disciplinas científicas, donde el comportamiento de una
red constituida por muchas partes ofrece una amplia gama de funciones
y se presta para el tema estadístico.
“La fuente del conocimiento del ser humano
no reside en una de estas células ni en varias, sino en sus conexiones
sinápticas; es algo que han entendido los neurofisiólogos.
De hecho, es en la infancia y adolescencia que éstas se forman
con base al aprendizaje; de ahí la importancia de este proceso
en forma temprana. Los modelos matemáticos que se han desarrollado
a partir de estudios de los neurofisiólogos, concuerdan con esto”,
precisó el académico.
La robustez del cerebro humano es tal, que
una persona puede trabajar aunque tenga una parte dañada a consecuencia,
por ejemplo, de un accidente automovilístico. Quizá el
sujeto pierde la movilidad, si el área afectada se relaciona
con esa función, pero el intelecto puede seguir en marcha, ejemplificó
el físico egresado de la UNAM, doctor en Ciencias por la Escuela
Internacional Superior de Estudios Avanzados de Trieste, Italia, y miembro
de la Academia Mexicana de Ciencias.
Cambios en la dinámica
Su estudio se centra en los cambios en la dinámica
de las redes neuronales, en cómo se modifica el comportamiento
general de la red a partir de mutaciones en sus partes, es decir, en
grupos de neuronas. Para ello, emplea un elemento estadístico
conocido como aproximación de campo medio.
Su interés actual se enfoca en los llamados
autómatas celulares de Kauffman, modelos matemáticos
que son un tipo particular de vínculos neuronales. Se trata de
entender cómo cambia la dinámica de éstos al modificar
los valores de los parámetros que los definen y que esencialmente
son el número de esas células y la conectividad existente
entre ellas.
Zertuche aclaró que en este tipo de
análisis el comportamiento de una neurona, o de una decena de
ellas, es irrelevante, pues lo que se observa es el estado general de
la red, y cómo están distribuidos los estados de activación
de acuerdo a su conectividad.
--o0o--