En enero del 2014 asistí a una conferencia del doctor Stanislas Dehaene, quien acababa de publicar su libro Le code de la conscience. En ese entonces yo colaboraba como columnista en el periódico universitario The McGill Daily, para el que cubrí el evento y gracias al que tuve oportunidad de entrevistarlo. Armada con mi libro La conciencia viviente del psiquiatra e investigador mexicano José Luis Díaz, escribí las preguntas que componen esta entrevista. Matemático de formación, Dehaene se especializó en ciencias de la computación antes de realizar un doctorado en psicología experimental, interesado en construir modelos matemáticos y computacionales de la cognición humana. Esta rama del conocimiento se conoce hoy como neurociencia computacional. Con el tiempo, su trabajo abarcó también el campo de la neurociencia cognitiva que, basada en técnicas de neuroimagen que miden estructura y función cerebral, busca dilucidar las bases neurobiológicas de los procesos mentales (la memoria, la atención, el aprendizaje, la percepción). Pionero en los campos de las bases cerebrales de las matemáticas, la lectoescritura y el aprendizaje, Dehaene ha dedicado la última década a utilizar las técnicas de la neurociencia cognitiva para explicar aquello que para René Descartes el principal atributo de la mente: la conciencia.
¿Cómo definiría el llamado “problema difícil de la conciencia” y por qué diría que el trabajo de su grupo no está tratando de resolverlo?
No me gusta ese término, “problema difícil de la conciencia”. Creo que estudiar procesos cerebrales mientras los sujetos reportan su experiencia ya es suficientemente difícil. Y ése es el objetivo de nuestro trabajo. La gente hace introspección, describe lo que percibe y nosotros tratamos, de la forma más global posible, de buscar bases cerebrales para cada detalle que reportan. Cuándo perciben un estímulo y cuándo no. Qué tan claramente pueden ver una imagen, etcétera. Y yo considero, honestamente, que cuando encontremos las bases neurológicas de todos estos procesos, que se supone son el problema “fácil”, entonces el problema “difícil” de la conciencia estará resuelto.
¿Diría usted entonces que la respuesta al problema duro o difícil de la conciencia se compone de la integración de las respuestas de los problemas “fáciles”?
Diría que sí. Como neurocientíficos hacemos frente a una enorme multitud de los llamados problemas “fáciles”, que no lo son tanto. Para mí, son la parte difícil. Otra forma de decir esto es que no ha habido investigación productiva en neurociencia cognitiva alrededor del concepto del problema “difícil”. Estos términos han sido principalmente abordados desde la filosofía. Considero que estos acercamientos filosóficos han sido vagos, no han definido el problema en términos que puedan engendrar experimentos científicos útiles.
¿De dónde viene su modelo de los “correlatos” neuronales de la conciencia? ¿Qué ideas fueron centrales para su desarrollo?
Hay un libro muy importante escrito por Bernard J. Baars, llamado Una teoría cognitiva de la conciencia, que esboza un modelo del pensamiento consciente en el cerebro, referido como “espacio de trabajo global”. Éste postula que el procesamiento de información en el cerebro se vuelve consciente cuando fragmentos de información de distintos módulos (el de la visión, del lenguaje, de la memoria) son integrados y compartidos, de modo que la información cruza un “umbral” de lo inconsciente a lo consciente. En este modelo, la información deja de ser “local” (en el cerebro) para volverse “global”. El trabajo de mi grupo de investigación ha intentado resaltar, usando técnicas de neuroimagen, cuáles son los mecanismos cerebrales de esta idea del “espacio de trabajo global”. Baars, por ejemplo, creía que el tálamo jugaba un rol primario, pero nosotros hemos encontrado que las redes cerebrales relacionadas con el procesamiento consciente de la información se concentran en la corteza cerebral, e incluyen particularmente a los lóbulos frontal y parietal.
Cuando usted explica el concepto de umbral de la conciencia, se refiere a la forma en que estímulos aislados pueden o no entrar a nuestro pensamiento consciente. ¿Cómo se contrasta esto con la idea de la conciencia como un estado continuo o un flujo?
Nuestros hallazgos indican que el pensamiento consciente está en realidad compuesto de etapas discretas que se suceden sin parar, por lo cual puede considerarse continuo. Nosotros nos referimos a los eventos discretos que componen este “continuo” como eventos de acceso a la conciencia. Cuando, en nuestros experimentos, verificamos si un sujeto puede o no ver una imagen según el tiempo de exposición, por ejemplo, hemos encontrado que el acceso a la conciencia es un fenómeno discreto, de tipo todo-o-nada: o te percatas o no. Esta teoría aún se debate, puede haber condiciones en que encontremos un patrón de activación más continuo, pero si nos concentramos en el “acceso a la conciencia”, consideramos que se trata de un evento discreto.
Usted ha dicho que se están construyendo algunas simulaciones de redes neuronales que, cuando se realizan correctamente, pueden reproducir características de la conciencia. ¿Cree que, eventualmente, una máquina construida de manera adecuada podría llamarse consciente?
No veo ninguna razón por la que esto sea imposible o impensable. Creo que es posible. Por supuesto, nuestras simulaciones actuales son demasiado simples. Entonces, lo que hay que hacer es crear una máquina con un repertorio lo suficientemente grande, junto con un sistema de espacio de trabajo que le permita integrar este conocimiento y, lo más importante, representar el conocimiento de sí mismo. Ése es el grado de dificultad de la tarea. Hasta ahora programamos las computadoras de manera completamente modular, y ya tenemos modelos computacionales para habilidades concretas como el reconocimiento facial o de voz, que solían ser considerados problemas muy difíciles. De modo que ya hemos resuelto varios de los problemas “modulares” del cerebro. Lo que hay que abordar es el sistema de comunicación que permite compartir estos resultados, y eso es lo que nosotros llamamos conciencia. Según la teoría de espacio de trabajo compartido, la conciencia es la capacidad de compartir información desde el interior de un módulo con el resto del cerebro. Si pudiéramos implementar eso en una máquina, creo que todos estaríamos de acuerdo en que podría estar consciente. Claro, juzgamos la conciencia del otro por el comportamiento. Diríamos que la máquina es consciente basados en observar la forma en la que utiliza el conocimiento. No pienso en la conciencia como en una propiedad mágica, sino como una propiedad funcional que, al comprender sus mecanismos básicos, podremos implementar en una máquina.
*
Fue el filósofo David Chalmers quien distinguió entre los problemas “fáciles” de la conciencia, que buscan revelar los mecanismos cerebrales que nos permiten hacer todo lo que podemos hacer (hablar, razonar, recordar, desarrollar operaciones matemáticas, tomar decisiones), y el llamado “problema duro de la conciencia”, que se pregunta cómo se vinculan nuestros estados mentales (inmateriales) con las sustancias que componen nuestro cuerpo y sus procesos fisiológicos. ¿Cómo y por qué nos “percatamos” de una parte de nuestra actividad mental? ¿Qué procesos fisiológicos dan origen al pensamiento consciente? ¿Puede la conciencia reducirse a patrones de actividad neuronal? Mientras muchos neurocientíficos cognitivos consideran que los métodos científicos actuales no pueden resolver este ancestral problema filosófico, existen quienes lo ven como una pregunta más que puede responderse utilizando los métodos correctos, entre ellos figura el doctor Stanislas Dehaene. En este mismo sentido, él asume que, una vez obtenidos los mecanismos algorítmicos que dan origen al pensamiento consciente, no habrá mayor obstáculo para implementarlos en una máquina. A partir del 2014 ha habido numerosos avances experimentales en los llamados problemas “fáciles”, entre los que se cuentan las aportaciones del equipo de Dehaene a los mecanismos cerebrales del cálculo y la lectoescritura, pero aún no se ha podido dilucidar ni comprobar que el modelo “global” de procesamiento de la información sea la base de la conciencia, y mucho menos ha podido implementarse en una máquina. Como el mismo Dehaene reconoció en su artículo del 2017, “¿Qué es la conciencia? y ¿puede tenerla una máquina?”, los sorprendentes y vertiginosos avances de la inteligencia artificial —análisis lexical, traducción, reconocimiento de rostros— corresponden a los procesos “locales” o “modulares” de nuestro cerebro, que suceden mayormente de forma preconsciente (son procesos que nuestro sistema nervioso lleva a cabo sin que nosotros nos percatemos de los mecanismos que los hacen posibles).
*
¿Cuáles son, en su opinión, los conceptos erróneos más comunes en la investigación de la conciencia?
Hay muchas ideas erradas y mitos en el público en general, pero no sé si es de eso de lo que quieres que hable. Considero que hay un sesgo dualista en nuestra sociedad, profundamente enraizado. Aun si no se es religioso, la sociedad entera está construida con base en la idea de que el cuerpo (que incluye al cerebro) y la mente, o el “alma”, son entidades distintas. Por ejemplo, el sistema legal se basa en la asunción de que tenemos una voluntad autónoma, distinta e independiente del cerebro. Tenemos que cambiar estas intuiciones. Creo que esto es similar a cuando Galileo cambió la concepción del lugar de la Tierra en el sistema solar. De la misma forma, habrá que transitar hacia la idea de que el lugar de la mente es nuestro sistema biológico.
Me recuerda al título del famoso libro de António Damásio: El error de Descartes.
Ah, pero eso es otra cosa. En mi libro sostengo que ha habido demasiados ataques a Descartes. Quien lea a Descartes entenderá que él era básicamente un materialista y un pionero del enfoque mecanicista del cerebro, diseccionando los mecanismos cerebrales con los conceptos de su tiempo. Estaba dispuesto a aceptar que la conciencia, en el sentido del ciclo sueño/vigilia, era una propiedad de la máquina (el cuerpo). Escribió eso tal cual. Así que cuando pensamos en Descartes como el dualista canónico hay que recordar el otro lado de la historia: que probablemente sólo estaba siendo honesto cuando decía “no veo la forma en que esta máquina pueda generar palabras de forma flexible”. En realidad, al filósofo francés le impresionaba la flexibilidad del ser humano, particularmente con respecto al lenguaje. Ahora creemos que comprendemos un poco mejor lo que sucede en el cerebro, pero sigo pensando que el lenguaje es una de las funciones más difíciles de estudiar. Todo esto para decir que Descartes no era un dualista nada más porque sí, era dualista porque se enfrentaba a un problema científico que no tenía las herramientas para resolver. Y, por lo demás, era un reduccionista entusiasta, tratando de encontrar una comprensión mecánica de los fenómenos, al punto de que la Iglesia condenó su trabajo y no pudo ser publicado hasta después de su muerte.
¿Cuál es su punto de vista sobre la conciencia animal? ¿En qué momento de la evolución filogenética cree que surgió por primera vez esta integración modular y la capacidad de compartir información? ¿Es algo exclusivo de la naturaleza humana?
Creo que el problema de integrar o compartir información es muy antiguo evolutivamente, al que se enfrentan muchas especies. Por ejemplo, pensemos en un elefante que está tratando de planificar dónde encontrará agua. Necesita extraer todos sus recursos de memoria, percepción, interacción con otros elefantes y demás para guiar su decisión. Esa toma de decisiones requiere un sistema de “espacio de trabajo compartido” y creo que muchas especies animales tienen ese sistema. Podemos encontrar rastros anatómicos de este sistema en todos los primates, por ejemplo, pero también en muchas otras especies. Y hay evidencia de comportamiento que sugiere decisiones meditadas en muchas especies: delfines, macacos y más. Esto no significa que la mente humana no tenga algo especial: lo que parece ser particular del ser humano es la capacidad de representar nuestros propios estados mentales (creencias, deseos, emociones) de la misma manera que representamos los de los demás. El cerebro social, que nos permite tener teoría de la mente de los demás, nos faculta también para esbozar una teoría de nuestra propia mente. Yo considero que los humanos aplicamos la “teoría de la mente”, con la que interpretamos a los demás y a nosotros mismos. De modo que podemos decir: “¿qué pienso yo y qué piensa el otro?”, y confrontar estos puntos de vista. Aún no está claro si otros animales tienen esta capacidad.
Y también es un poco difícil de evaluar dado el hecho de que no podemos interrogarlos y obtener su experiencia subjetiva, ¿cierto?
Podemos hasta cierto punto entrenarlos para que informen. Puedes entrenar a un mono para que diga si ve una imagen o si no, si ve una cara o una casa. Lo que resulta más difícil es imaginar paradigmas para la teoría social o la teoría de la mente en animales, aunque incluso eso ya se está haciendo. Creo que éste es un punto clave: estos problemas dejaron de ser meramente filosóficos. Ahora son puramente ejercicios de imaginación experimental.
¿Cree usted que es posible estudiar experimentalmente algunos conceptos filosóficos previamente definidos, como qualia? ¿O tenemos que diseñar nuevos paradigmas experimentales sin atarnos a esos conceptos?
En general, no creo en la ciencia eliminativista, es decir, la ciencia que elimina conceptos de psicología y filosofía. Mi impresión es que la neurociencia cognitiva toma conceptos de la psicología y, a veces, de la filosofía y los muestra en términos de los mecanismos, pero casi nunca los elimina. Por el contrario, la psicología los estudia de antemano y la neurociencia aclara sus mecanismos cerebrales. Cuando se trata de qualia y otros conceptos filosóficos muy abstractos, pueden ser útiles, pero necesitamos una definición más clara antes de experimentar con ellos. Éste es un caso en el que soy muy crítico con los filósofos, porque hablan de qualia y de experiencia sin una idea concreta de lo que están diciendo. Y para mí ésta no es una contribución útil. Pero si lo definen mejor, tal vez encontremos una manera de ponerlo en práctica.
Entonces, ¿cree que los enfoques filosóficos y fenomenológicos de la conciencia todavía nos darán alguna información importante o útil para explicar el fenómeno de la conciencia?
Siempre es muy útil que los filósofos revisen tus conceptos o tu uso de ciertos términos. El filósofo útil señala ambigüedades, las contradicciones que el científico no ha visto. Los científicos a veces van demasiado rápido en el uso de conceptos. Al mismo tiempo, realmente creo que éste es un poco el final del tiempo de la filosofía para estudiar la conciencia, porque se ha convertido en una ciencia experimental en todos sus aspectos.
*
Actualmente existe consenso científico en que la mente es un producto de la actividad del sistema nervioso. A esta premisa de base se suman otros elementos, como el hecho de que el sistema nervioso pertenezca a un individuo y este individuo se mueva en un mundo con características físicas, culturales y sociales que darán forma y contenido a la actividad mental. El verdadero enigma del problema mente-cuerpo, desde el punto de vista de la ciencia, está entonces en el guion que los une (o los separa). ¿Cómo se relacionan la mente y el sistema nervioso? ¿Qué procesos neuronales corresponden a los diversos procesos mentales? La neurociencia cognitiva separa el problema mente-cuerpo en distintos problemas. A través de un abordaje experimental, busca “correlatos” o “patrones” de actividad neural asociados a diferentes procesos mentales o psicológicos. Es decir, en vez de preguntarse ¿cómo se origina la mente en el cerebro?, responde a preguntas más específicas, del tipo ¿cómo se almacena la información espacial en el cerebro?, o ¿cómo se procesa el lenguaje en el cerebro?, que corresponden a los problemas “fáciles” de Chalmers. Han pasado casi siete años desde que tuve la oportunidad de escuchar y entrevistar a Stanislas Dehaene, tiempo en el que me doctoré en neurociencia cognitiva, y en el que tuve la oportunidad de incursionar en uno de los problemas “fáciles” de Chalmers: el de los correlatos cerebrales del aprendizaje de conceptos. La cuestión sobre el problema difícil de la conciencia sigue abierta: si explicamos todos y cada uno de los mecanismos cerebrales que nos permiten hacer todo lo que podemos hacer (hablar, razonar, recordar, hacer operaciones matemáticas, tomar decisiones, categorizar, almacenar significados), ¿quedará explicado cómo y por qué nos percatamos de parte de estas operaciones, en vez de que sucedan sin que se genere esa película continua en nuestra cabeza, de la que somos espectadores y actores? En cualquier caso, esta entrevista, traducida del inglés, presenta al lector hispanoparlante la perspectiva acerca de la conciencia de uno de los neurocientíficos más reconocidos en el campo de la neurociencia cognitiva. Su libro Le code de la conscience fue traducido como La conciencia en el cerebro y publicado en 2015 por Siglo XXI Editores.
Imagen de portada: Ilustración en Edwin D. Babbitt, The Principles of Light and Color, 1878. Getty Research Institute. Imagen de dominio público