Los lectores de la mente – Periódico Página100 – Noticias de popayán y el Cauca

Los lectores de la mente

Los cerebros están hablando con las computadoras, y las computadoras con los cerebros. ¿Nuestros sueños están a salvo?

Jack Gallant nunca se propuso crear una máquina para leer la mente. Su enfoque era más prosaico. Neurocientífico informático de la Universidad de California, Berkeley, Gallant trabajó durante años para mejorar nuestra comprensión de cómo los cerebros codifican la información —qué regiones se activan, por ejemplo, cuando una persona ve un avión o una manzana o un perro— y cómo esta actividad representa el objeto que se está viendo.

A fines de la década de 2000, los científicos pudieron determinar qué tipo de cosa podría estar mirando una persona por la forma en que se iluminaba el cerebro: un rostro humano, por ejemplo, o un gato. Pero Gallant y sus colegas fueron más allá. Descubrieron cómo usar el aprendizaje automático para descifrar no solo la clase de cosas, sino qué imagen exacta estaba viendo un sujeto. (Qué foto de un gato, entre tres opciones, por ejemplo).

Un día, Gallant y sus estudiantes de postdoctorado se pusieron a conversar. De la misma manera en que se puede convertir un altavoz en un micrófono conectándolo al revés, se preguntaron si podrían hacer ingeniería inversa del algoritmo que habían desarrollado para poder visualizar, solo a partir de la actividad cerebral, lo que una persona estaba viendo.

La primera fase del proyecto fue entrenar a la inteligencia artificial (IA). Durante horas, Gallant y sus colegas les mostraron algunos clips de películas a los voluntarios que estaban en las máquinas de resonancia magnética (fMRI, por su sigla en inglés). Al hacer coincidir los patrones de activación cerebral impulsados por las imágenes en movimiento, la IA construyó un modelo de cómo funcionaba la corteza visual de los voluntarios, que analiza la información de los ojos. Luego vino la siguiente fase: la traducción. Mientras mostraban a los voluntarios clips de películas, le preguntaron al modelo, dado todo lo que sabía sobre sus cerebros, qué pensaba que podrían estar mirando.

El experimento solo se centró en una subsección de la corteza visual. No captó lo que estaba ocurriendo en otras zonas del cerebro —por ejemplo, cómo se podía sentir una persona sobre lo que veía o lo que podría estar fantaseando mientras miraba—. El esfuerzo fue, en palabras de Gallant, una primitiva demostración conceptual.

Y aún así los resultados, publicados en 2011, son notables.

Las imágenes reconstruidas se mueven con una fluidez onírica. En su imperfección, evocan el arte expresionista (y unas pocas imágenes reconstruidas parecen totalmente equivocadas). Pero, cuando tienen éxito, representan un logro asombroso: una máquina que traduce patrones de actividad cerebral en una imagen en movimiento comprensible para otras personas, una máquina que puede leer el cerebro.

Gallant estaba encantado. ¿Imaginas las posibilidades cuando una mejor tecnología de lectura cerebral se encuentre disponible? ¿Imaginas a las personas que sufren el síndrome de cautiverio, la enfermedad de Lou Gehrig, las personas incapacitadas por derrames cerebrales, que podrían beneficiarse de una máquina que podría ayudarles a interactuar con el mundo?

También estaba asustado porque el experimento mostró, de manera concreta, que la humanidad estaba a las puertas de una nueva era, en la que nuestros pensamientos podrían, teóricamente, ser arrancados de nuestras cabezas. Gallant se preguntó: ¿Qué iba a suceder cuando pudieras leer los pensamientos de los que el pensador ni siquiera es consciente, cuando pudieras ver los recuerdos de la gente?

“Ese es un pensamiento aleccionador que ahora tienes que tomar en serio”, me dijo recientemente.

Durante décadas, nos hemos comunicado con las computadoras principalmente usando nuestros dedos y nuestros ojos, mediante la interfaz a través de teclados y pantallas. Estas herramientas y los dedos huesudos con que las tocamos proporcionan un límite natural a la velocidad de la comunicación entre el cerebro humano y la máquina. Solo podemos transmitir información con la rapidez (y precisión) que podamos escribir o hacer clic.

El reconocimiento de voz, como el utilizado por Siri de Apple o Alexa de Amazon, es un paso hacia la integración más perfecta entre el humano y la máquina. El próximo paso, uno que los científicos de todo el mundo persiguen, es la tecnología que permitirá que la gente controle las computadoras —y todo lo que está conectado a ellas, incluyendo autos, brazos robóticos y drones— simplemente pensando.

Gallant suele bromear diciendo que la imaginaria pieza de hardware que haría eso sería una “gorra de Google”: una gorra que podría sentir comandos silenciosos y hacer que las computadoras respondan en consecuencia.

El problema es que, para funcionar, esa gorra necesitaría ser capaz de ver, con cierto detalle, lo que sucede en los casi 100.000 millones de neuronas que componen el cerebro.

La tecnología que puede mirar fácilmente a través del cráneo, como la máquina de resonancia magnética, es demasiado difícil de montar en la cabeza. La tecnología menos voluminosa, como el electroencefalograma, que mide la actividad eléctrica del cerebro a través de electrodos adheridos al cuero cabelludo, no proporciona la misma claridad. Un científico lo compara con la búsqueda en la superficie de las ondas hechas por un pez que nada bajo el agua, mientras una tormenta asola el lago.

Otros métodos de “ver” dentro del cerebro podrían incluir la magnetoencefalografía, que mide las ondas magnéticas que emanan fuera del cráneo las neuronas que se disparan debajo de él; o el uso de luz infrarroja, que puede penetrar en el tejido vivo, para inferir la actividad cerebral a partir de los cambios en el flujo sanguíneo. (Los oxímetros de pulso funcionan de esta manera, al hacer brillar la luz infrarroja a través de tu dedo).

Aún no está claro qué tecnologías alimentarán la interfaz cerebro-computadora del futuro. Y si no está claro cómo vamos a “leer” el cerebro, es aún menos claro cómo vamos a “escribir” en él.

Este es el otro Santo Grial de la investigación cerebro-máquina: la tecnología que puede transmitir información al cerebro directamente. Probablemente no estemos ni cerca del momento en que puedas preguntar en silencio: “Alexa, ¿cuál es la capital de Perú?” y hacer que “Lima” se materialice en tu mente.

Sin embargo, las soluciones a estos desafíos están empezando a surgir. Gran parte de la investigación se ha realizado en el ámbito médico donde, durante años, los científicos han trabajado para dar a los cuadripléjicos y a otras personas con condiciones neurológicas inmovilizantes mejores formas de interactuar con el mundo a través de las computadoras. Pero en los últimos años, las empresas tecnológicas —incluidas Facebook, Microsoft y Neuralink de Elon Musk— han comenzado a invertir en ese campo.

Algunos científicos están eufóricos por esta infusión de energía y recursos. Otros se preocupan de que a medida que esta tecnología se mueve hacia el ámbito de los consumidores, podría tener una variedad de consecuencias involuntarias y potencialmente peligrosas, desde la erosión de la privacidad mental hasta la exacerbación de la desigualdad.

Rafael Yuste, neurobiólogo de la Universidad de Columbia, suele referirse a dos grandes avances en la informática que han transformado la sociedad: la transición de las computadoras centrales del tamaño de una habitación a computadoras personales que caben en un escritorio (y luego en tu regazo), y el advenimiento de la informática móvil con teléfonos inteligentes en la década de 2000. El experto asegura que la tecnología no invasiva de lectura de cerebros sería un tercer gran salto.

“Olvídate de la crisis de la COVID”, me dijo Yuste. “Lo que viene con esta nueva tecnología puede cambiar la humanidad”.

No muchas personas se ofrecerán como voluntarias para ser las primeras en someterse a un tipo de cirugía cerebral novedosa, aunque conlleve la promesa de devolver la movilidad a los que han quedado paralizados. Así que cuando Robert Kirsch, director de ingeniería biomédica de la Universidad Case Western Reserve hizo una llamada de este tipo hace casi diez años, y una persona cumplió con los criterios y estaba dispuesta, sabía que tenía a un pionero en sus manos.

En ese momento, los científicos ya habían inventado artilugios que ayudaban a los pacientes paralizados a aprovechar la movilidad que les quedaba —labios, un párpado— para controlar computadoras o mover brazos robóticos. Pero Kirch buscaba algo distinto. Quería ayudar a Kochevar a mover sus propios miembros.

El primer paso fue implantar dos conjuntos de sensores sobre la parte del cerebro que normalmente controlaría el brazo derecho de Kochevar. Se implantaron en los músculos del brazo electrodos que podían recibir señales de esas matrices a través de una computadora. Los implantes, y la computadora conectada a ellos, funcionarían como una especie de médula espinal electrónica, que eludía su lesión.

Una vez que los músculos de su brazo se habían fortalecido —con un régimen de estimulación electrónica leve mientras dormía— Kochevar, que en ese momento había estado paralizado durante más de una década, fue capaz de alimentarse y beber agua. Incluso podía rascarse la nariz.

Hay alrededor de dos docenas de personas en todo el mundo que perdieron el uso de sus extremidades por accidentes o enfermedades neurológicas, a las que se les han implantado sensores en sus cerebros. Muchos, incluido Kochevar, participaron en un programa financiado por el gobierno de Estados Unidos llamado BrainGate. Los conjuntos de sensores utilizados en esta investigación, más pequeños que un botón, permiten a los pacientes mover los brazos robóticos o los cursores en una pantalla con solo pensar. Pero hasta donde Kirsch sabe, Kochevar, quien murió en 2017 por razones no relacionadas con la investigación, fue la primera persona paralizada que recuperó el uso de su miembros por medio de esta tecnología.

Este otoño, Kirsch y sus colegas comenzarán la versión 2.0 del experimento. Esta vez, implantarán seis conjuntos más pequeños, más sensores mejorarán la calidad de la señal. Y en lugar de implantar electrodos directamente en los músculos de los voluntarios, los insertarán más arriba, rodeando los nervios que mueven los músculos. Según Kirsch, en teoría, eso permitirá el movimiento de todo el brazo y la mano.

El siguiente gran objetivo es restaurar la sensación para que la gente pueda saber si están sosteniendo una piedra, digamos, o una naranja, o si su mano se ha acercado demasiado a una llama. “La sensación ha sido la parte más largamente ignorada de la parálisis”, me dijo Kirsch.

Hace unos años, los científicos de la Universidad de Pittsburgh comenzaron experimentos innovadores en ese ámbito con un hombre llamado Nathan Copeland, que estaba paralizado de la parte superior del pecho hacia abajo. Dirigieron la información sensorial de un brazo robótico a la parte de su corteza que se ocupaba del sentido del tacto de su mano derecha.

Cada cerebro es un órgano vivo y ondulante que cambia con el tiempo. Por eso, antes de cada sesión con Copeland, la IA tiene que recalibrarse, para construir un nuevo decodificador cerebral. “Las señales de tu cerebro cambian”, me dijo Copeland. “No son exactamente las mismas todos los días”.

Y los resultados no fueron perfectos. Copeland los describió como “raros”, “cosquilleo eléctrico” pero también “asombrosos”. Sin embargo, la retroalimentación sensorial fue inmensamente importante para saber que había captado lo que creía que había captado. Y, más generalmente, demostraba que una persona podía “sentir” una mano robótica como propia y que la información proveniente de los sensores electrónicos podía ser introducida al cerebro humano.

Por preliminares que sean estos experimentos, sugieren que las piezas de la interfaz cerebro-máquina que pueden “leer” y “escribir” ya existen. Las personas no solo pueden mover los brazos robóticos con el pensamiento; las máquinas también pueden, aunque de forma imperfecta, transmitir información al cerebro sobre lo que ese brazo encuentra.

Quién sabe cuándo estarán disponibles las versiones de esta tecnología para los niños que quieran mover avatares en los videojuegos con la mente o andar por la web a través del pensamiento. La gente ya puede volar drones con sus señales cerebrales, así que tal vez aparezcan versiones para el consumidor en los próximos años. Pero es difícil predecir cómo esta tecnología podría cambiar la vida de las personas con lesiones de la médula espinal o enfermedades neurológicas.

Edward Chang, neurocirujano de la Universidad de California en San Francisco que trabaja en el reconocimiento del habla basado en el cerebro, dijo que el mantenimiento de la capacidad de comunicación puede significar la diferencia entre la vida o la muerte. “Para algunas personas, si tienen un medio para continuar comunicándose, esa puede ser la razón por la que decidan seguir vivas”, me dijo. “Eso nos motiva mucho en nuestro trabajo”.

En un estudio reciente, Chang y sus colegas predijeron con una precisión de hasta el 97 por ciento —el mejor índice alcanzado hasta ahora, según afirman— qué palabras un voluntario había dicho (de unas 250 palabras usadas en un conjunto predeterminado de 50 frases) mediante el uso de sensores implantados que monitoreaban la actividad en la parte de su cerebro que mueve los músculos involucrados en el habla. (Los voluntarios de este estudio no estaban paralizados; eran pacientes de epilepsia que se sometían a una cirugía cerebral para tratar esa condición, y los implantes no eran permanentes).

Chang usó conjuntos similares de sensores a los que usó Kirsch, pero es posible que un método no invasivo no esté muy lejos.

Facebook, que financió el estudio de Chang, trabaja en un artilugio parecido a un casco de lectura cerebral que usa luz infrarroja para mirar dentro del cerebro. Mark Chevillet, el director de investigación de la interfaz cerebro-computadora en Facebook Reality Labs, me dijo en un correo electrónico que aunque el reconocimiento completo del habla permanezca distante, su laboratorio será capaz de decodificar comandos simples como “casa”, “seleccionar” y “borrar” en “los años venideros”.

Este progreso no está impulsado únicamente por los avances en la tecnología de percepción cerebral, sino al punto de encuentro físico entre la carne y la máquina. La IA importa tanto o más.

Tratar de entender el cerebro desde fuera del cráneo es como tratar de dar sentido a una conversación que tiene lugar a dos cuartos de distancia. A menudo la señal es desordenada, y difícil de descifrar. Así que son los mismos tipos de algoritmos que ahora permiten al software de reconocimiento de voz hacer un trabajo decente de comprensión del habla —incluyendo las idiosincrasias individuales de la pronunciación y los acentos regionales— los que pueden permitir la tecnología de lectura del cerebro.

Sin embargo, no todas las aplicaciones de la lectura del cerebro requieren algo tan complejo como la comprensión del habla. En algunos casos, los científicos simplemente quieren atenuar los impulsos.

Cuando Casey Halpern, un neurocirujano de Stanford, estaba en la universidad, tenía un amigo que bebía demasiado. Otro tenía sobrepeso, pero no podía dejar de comer. “El control de los impulsos es un problema en verdad generalizado”, me dijo.

Como científico en ciernes, aprendió sobre los métodos de estimulación cerebral profunda utilizados para tratar la enfermedad de Parkinson. Una suave corriente eléctrica aplicada a una parte del cerebro involucrada en el movimiento podía disminuir los temblores causados por la enfermedad. ¿Podría aplicar esa tecnología al problema del escaso autocontrol?

En la década de 2010 trabajó con ratones y logró identificar una parte del cerebro llamada núcleo accumbens, donde la actividad se disparó en un patrón predecible justo antes de que un ratón estuviera a punto de atiborrarse de comida rica en grasas. Descubrió que podía reducir la cantidad que el ratón comía interrumpiendo esa actividad con una leve corriente eléctrica. Podía eliminar la compulsión de atiborrarse mientras se apoderaba del cerebro de los roedores.

A principios de este año, comenzó a probar el enfoque en personas que sufren de obesidad y que no han sido ayudadas por ningún otro tratamiento, incluida la cirugía de bypass gástrico. Implanta un electrodo en su núcleo accumbens. Está conectado a un aparato que fue originalmente desarrollado para prevenir ataques en personas con epilepsia.

Como en el trabajo de Chang o de Gallant, un algoritmo tiene que aprender primero sobre el cerebro al que está conectado, para reconocer los signos de la pérdida de control. Halpern y sus colegas entrenan el algoritmo dándoles a los pacientes un batido o les ofrecen un buffet de sus comidas favoritas, y luego registran su actividad cerebral justo antes de que la persona se dé el gusto.

Hasta ahora ha completado dos implantaciones. “El objetivo es ayudar a restaurar el control”, me dijo. Y si funciona en la obesidad, que afecta a aproximadamente el 40 por ciento de los adultos en Estados Unidos, planea probar el aparato contra las adicciones al alcohol, la cocaína y otras sustancias.

El enfoque de Halpern toma como hecho algo que dice que a muchas personas les cuesta aceptar: que la falta de control de los impulsos que puede subyacer a un comportamiento adictivo no es una elección, sino que es el resultado de un mal funcionamiento del cerebro. “Tenemos que aceptar que es una enfermedad”, dice. “A menudo solo juzgamos a la gente y asumimos que es su culpa. Eso no es lo que la investigación actual sugiere que debemos hacer”.

Debo confesar que de las numerosas aplicaciones propuestas de la interfaz cerebro-máquina con las que me encontré, la de Halpern era mi favorita para extrapolar. ¿Cuántas vidas se han descarrilado por la incapacidad de resistir la tentación de la próxima píldora o la próxima cerveza? ¿Y si la solución de Halpern fuera generalizable?

¿Y si cada vez que tu mente se desviara mientras escribes un artículo pudieras, con la ayuda de tu implante de concentración, traerla de vuelta a la tarea en cuestión, y completar finalmente esos proyectos que cambian la vida y que nunca has podido terminar?

Estas aplicaciones siguen siendo fantasías, por supuesto. Pero el mero hecho de que tal cosa pueda ser posible es, en parte, lo que lleva a Yuste, el neurobiólogo, a preocuparse por cómo esta tecnología podría desdibujar los límites de lo que consideramos como nuestras personalidades.

Tal desdibujamiento ya es un problema, señala. Los pacientes de Parkinson con implantes reportan sentirse más agresivos que de costumbre cuando la máquina está “encendida”. Los pacientes deprimidos que se someten a una estimulación cerebral profunda a veces se preguntan si son realmente ellos mismos. “Te sientes como artificial”, le dijo un paciente a los investigadores. La máquina no implanta ideas en sus mentes, como el personaje de Leonardo DiCaprio en la película Inception, pero aparentemente está cambiando su sentido de sí mismos.

¿Qué pasa si la gente ya no está segura de si sus emociones son suyas, o son efecto de las máquinas a las que están conectados?

Halpern descarta estas preocupaciones como exageradas. Tales efectos son parte de muchos tratamientos médicos, señala, incluyendo los antidepresivos y estimulantes comúnmente prescritos. Y a veces, como en el caso de la adicción sin remedio, cambiar el comportamiento de alguien es precisamente el objetivo.

Sin embargo, el problema a largo plazo de lo que puede suceder cuando la tecnología de escritura cerebral salte del ámbito médico al consumidor es difícil de olvidar. Por ejemplo, si existiera el potenciador de enfoque que imaginé pero fuera muy costoso, podría exacerbar el ya enorme abismo entre los que pueden pagar tutores, autos y universidades costosas —y ahora la tecnología de impulso de las agallas— y aquellos que no.

“Ciertos grupos conseguirán esta tecnología y se mejorarán a sí mismos”, me dijo Yuste. “Esta es una amenaza realmente seria para la humanidad”.

“La idea de que hay que hacer agujeros en los cráneos para leer los cerebros es una locura”, me dijo en un correo electrónico Mary Lou Jepsen, la directora ejecutiva y fundadora de Openwater. Su compañía desarrolla una tecnología que, según ella, utiliza luz infrarroja y ondas ultrasónicas para observar el cuerpo.

Otros investigadores simplemente tratan de hacer que los enfoques invasivos lo sean menos. Una compañía llamada Synchron busca evitar abrir el cráneo o tocar el tejido cerebral en absoluto insertando un sensor a través de la yugular, en el cuello. Actualmente se realiza un ensayo de seguridad y viabilidad.

Kirsch sospecha que el Neuralink de Elon Musk es probablemente la mejor tecnología de percepción cerebral en desarrollo. Requiere cirugía, pero a diferencia de los sensores de BrainGate, es delgado, flexible y puede ajustarse a la topografía montañosa del cerebro. La esperanza es que esto lo haga menos cáustico. También tiene filamentos similares al pelo que se hunden en el tejido cerebral. Cada filamento contiene múltiples sensores, que teóricamente permiten la captura de más datos que las matrices más planas que se encuentran en la superficie del cerebro. Puede leer y escribir en el cerebro, y está acompañado por un robot que ayuda con la implantación.

Un gran desafío para los implantes es que, como dice Gallant, “a tu cerebro no le gusta que se le atasquen cosas en el cerebro”. Con el tiempo, las células inmunes pueden pulular por el implante, cubriéndolo con un fluido pegajoso.

Una forma de tratar de evitar esto es reducir drásticamente el tamaño de los sensores. Arto Nurmikko, un profesor de ingeniería y física en la Universidad de Brown y quien es parte de BrainGate, desarrolla lo que llama “neurogranos”, diminutos sensores implantables de silicio, no más grandes que un puñado de neuronas. Son demasiado pequeños para tener baterías, por lo que son alimentados por microondas emitidas desde el exterior del cráneo.

Él prevé tal vez 1000 mini sensores implantados por el cerebro. Hasta ahora solo los ha probado en roedores. Pero tal vez no deberíamos estar tan seguros de que las personas sanas no se ofrezcan para una cirugía de “mejora mental”. Cada año, Nurmikko plantea una hipótesis a sus estudiantes: 1000 implantes de neurogranos que permitirían a los estudiantes aprender y comunicarse más rápido; ¿algún voluntario?

“Lo normal es que cerca de la mitad de la clase conteste: ‘por supuesto’”, me dijo. “Eso te dice dónde estamos hoy”.

Jose Carmena y Michel Maharbiz, científicos en Berkeley y fundadores de una empresa emergente llamada Iota Biosciences, tienen su propia versión de esta idea, a la que llaman “polvo neuronal”: pequeños implantes para el sistema nervioso periférico, brazos, piernas y órganos además del cerebro. “Es como un Fitbit para tu hígado”, me dijo Carmena.

Se imaginan tratar enfermedades inflamatorias al estimular los nervios de todo el cuerpo con estos pequeños dispositivos. Y donde Nurmikko usa microondas para dar energía a los dispositivos, Carmena y Maharbiz prevén el uso de ultrasonidos para enviarles energía.

Generalmente, dicen, este tipo de tecnología será adoptada primero en el contexto médico y luego se trasladará a la población no profesional. “Vamos a evolucionar para mejorar a los humanos”, me dijo Carmena. “No hay duda”.

Pero la exageración se extiende por todo el campo, advierte. Claro, Elon Musk ha argumentado que una mayor integración cerebro-máquina ayudará a los humanos a competir con las cada vez más poderosas IA. Pero en realidad, no estamos ni cerca de un dispositivo que pueda, por ejemplo, ayudar a dominar el kung fu instantáneamente como le sucede a Keanu Reeves en Matrix.

¿Cómo es el futuro cercano para el consumidor medio? Ramses Alcaide, director ejecutivo de una compañía llamada Neurable, imagina un mundo en el que los teléfonos inteligentes metidos en nuestros bolsillos o mochilas actúan como centros de procesamientos para la transmisión de datos de computadoras y sensores más pequeños que se llevan alrededor del cuerpo. Estos dispositivos —anteojos que sirven de pantalla, auriculares que nos susurran en los oídos— es donde se producirá la verdadera interconexión entre el ser humano y la computadora.

Microsoft vende unos lentes llamados HoloLens que superponen imágenes al mundo, una idea llamada “realidad aumentada”. Una compañía llamada Mojo Vision trabaja en unos lentes de contacto que proyectan imágenes monocromáticas directamente en la retina, una pantalla de computadora privada superpuesta sobre el mundo.

Y el propio Alcaide trabaja en lo que él ve como el eje de esta visión, un dispositivo que, un día, puede ayudarle a comunicarse silenciosamente con toda su parafernalia digital. Fue impreciso sobre la forma que tomará el producto —aún no está listo para el mercado— excepto para señalar que es un auricular que puede medir la actividad electrónica del cerebro para percibir “estados cognitivos”, como si tienes hambre o te concentras.

Ya revisamos compulsivamente Instagram y Facebook y el correo electrónico, a pesar de que supuestamente estamos impedidos por nuestros dedos carnosos. Le pregunté a Alcaide: ¿qué pasará cuando podamos revisar compulsivamente las redes sociales solo con pensar?

Siempre tan optimista, me dijo que la tecnología de percepción cerebral podría ayudar con la incursión digital. El audífono inteligente podría sentir que estás trabajando, por ejemplo, y bloquear los anuncios o las llamadas telefónicas. “¿Y si tu computadora supiera que te estás concentrando?”, me dijo. “¿Y si realmente eliminara ese bombardeo de tu vida?”.

Tal vez no sea una sorpresa que Alcaide haya disfrutado del programa de ciencia ficción de HBO Westworld, un universo en el que son comunes las tecnologías que hacen que la comunicación con las computadoras sea más fluida (aunque nadie parece estar en una mejor situación por eso). Rafael Yuste, por otro lado, se niega a ver el programa. Compara la idea con la de un científico que estudia la COVID-19 viendo una película sobre pandemias. “Es lo último que quiero hacer”, dice.

Para entender por qué Yuste se preocupa tanto por la tecnología de lectura del cerebro, ayuda conocer su investigación. Contribuyó al desarrollo pionero de una tecnología que puede leer y escribir en el cerebro con una precisión sin precedentes, y no requiere de cirugía. Pero sí requiere ingeniería genética.

Yuste infecta ratones con un virus que inserta dos genes en las neuronas de los animales. Uno incita a las células a producir una proteína que las hace sensibles a la luz infrarroja; el otro hace que las neuronas emitan luz cuando se activan. A partir de entonces, cuando las neuronas se activen, Yuste puede verlas iluminarse. Y a su vez puede activar las neuronas con un láser infrarrojo. Así, Yuste puede leer lo que sucede en el cerebro del ratón y escribir en el cerebro del ratón con una precisión imposible con otras técnicas.

Y, al parecer, puede lograr que los ratones “vean” cosas que no están ahí.

En un experimento, entrenó a los ratones para que tomaran un trago de agua azucarada después de que una serie de barras aparecieran en una pantalla. Registró qué neuronas de la corteza visual se disparaban cuando los ratones veían esas barras. Luego activó esas mismas neuronas con el láser, pero sin mostrarles las barras reales. Los ratones tuvieron la misma reacción: tomaron un trago.

Compara lo que hizo con implantar una alucinación. “Pudimos implantar en estos ratones percepciones de cosas que no habían visto”, me dijo. “Manipulamos al ratón como a una marioneta”.

Este método, llamado optogenética, está muy lejos de ser utilizado en las personas. Para empezar, tenemos cráneos más gruesos y cerebros más grandes, lo que hace más difícil que la luz infrarroja pueda penetrar. Y desde un punto de vista político y regulatorio, el listón está alto para los seres humanos genéticamente manipulados. Pero los científicos exploran soluciones alternativas: medicamentos y nanopartículas que hacen que las neuronas sean receptivas a la luz infrarroja, lo que permitiría la activación precisa de las neuronas sin ingeniería genética.

La lección, en opinión de Yuste, no es que pronto tendremos láseres montados en nuestras cabezas que nos toquen “como pianos”, sino que las tecnologías de escritura cerebral se acercan rápidamente y la sociedad no está preparada para ellas.

“Creemos que esto es una cuestión de derechos humanos”, me dijo.

En un artículo de 2017 en la revista Nature, Yuste y otros 24 firmantes, incluido Gallant, pidieron la formulación de una declaración de derechos humanos que abordara explícitamente los “derechos neuronales” y lo que ellos ven como las amenazas planteadas por la tecnología de lectura de cerebros antes de que se convierta en omnipresente. La información tomada de los cerebros de las personas debería ser protegida como los datos médicos, dice Yuste, y no explotada con fines de lucro o algo peor. Y así como la gente tiene el derecho de no autoincriminarse con el habla, deberíamos tener el derecho de no autoincriminarnos con la información obtenida de nuestros cerebros.

Yuste dice que su activismo fue impulsado, en parte, por las grandes empresas que de repente se interesaron en la investigación de las máquinas y el cerebro.

Digamos que usas tu gorra de Google. Y como muchos productos del ecosistema de Google, recopila información sobre ti, que utiliza para ayudar a los anunciantes a dirigirte su publicidad. Solo que ahora no recoge tus resultados de búsqueda o tu ubicación en el mapa; recoge tus pensamientos, tus sueños, tus deseos.

¿A quién pertenecen esos datos?

O imagina que escribir en el cerebro es posible. Y hay versiones de nivel inferior de los artilugios de escritura cerebral que, a cambio de su uso libre, ocasionalmente “hacen sugerencias” directamente a tu cerebro. ¿Cómo sabrás si tus impulsos son tuyos, o si un algoritmo ha estimulado ese repentino anhelo por el helado de Ben & Jerry o los bolsos de Gucci?

“La gente ha tratado de manipularse entre sí desde el principio de los tiempos”, me dijo Yuste. “Pero hay una línea que se cruza una vez que la manipulación va directamente al cerebro, porque no serás capaz de decir que estás siendo manipulado”.

Cuando le pregunté a Facebook sobre las preocupaciones acerca de la ética de la gran tecnología que entra ahora en el espacio de la interfaz cerebro-computadora, Mark Chevillet, de Facebook Reality Labs, resaltó la transparencia de su proyecto de lectura de cerebros. “Es por eso que hemos hablado abiertamente sobre nuestra investigación de interfaz cerebro-computadora, para que pueda ser discutida a través de la comunidad de neuroética mientras exploramos colectivamente cómo se ve la innovación responsable en este campo”, dijo en un correo electrónico.

Ed Cutrell, investigador principal en Microsoft, que también tiene un programa sobre la interfaz cerebro-computadora, enfatizó la importancia de tratar los datos de los usuarios con cuidado. “Tiene que haber un sentido claro de adónde va esa información”, me dijo. “A medida que percibimos más y más acerca de la gente, ¿hasta qué punto esa información que estoy recogiendo sobre ti es tuya?”.

Algunos encuentran toda esta charla sobre ética y derechos, si no irrelevante, al menos prematura.

Los científicos médicos que trabajan para ayudar a los pacientes paralizados, por ejemplo, ya se rigen por las leyes de la Ley de Responsabilidad y Portabilidad del Seguro de Salud que protegen la privacidad del paciente. Cualquier nueva tecnología médica tiene que pasar por el proceso de aprobación de la Administración de Alimentos y Medicamentos, que incluye consideraciones éticas.

(Sin embargo, todavía surgen dilemas éticos, señala Kirsch. Digamos que quieres implantar un conjunto de sensores en un paciente que sufre de síndrome de confinamiento. ¿Cómo se obtiene el consentimiento para realizar una cirugía que podría cambiar la vida de la persona para mejor, de una persona que no puede comunicarse?).

Leigh Hochberg, profesor de ingeniería en la Universidad de Brown que forma parte de la iniciativa BrainGate, considera que las empresas que están participando en el espacio cerebro-máquina son una bendición. Me dijo que el campo necesita el dinamismo de estas empresas y sus vastos recursos. Los debates sobre la ética son importantes, “pero esos debates no deberían en ningún momento descarrilar el imperativo de proporcionar tecnologías de restauración neurológica a las personas que podrían beneficiarse de ellas”, añadió.

Los especialistas en ética, me dijo Jepsen, “también deben ver esto: la alternativa sería decidir que no estamos interesados en una comprensión más profunda de cómo funciona nuestra mente, de curar la enfermedad mental, entender realmente la depresión, observar dentro de las personas en coma o con Alzheimer y mejorar nuestras habilidades para encontrar nuevas formas de comunicación”.

Incluso podría decirse que hay un imperativo de seguridad nacional para avanzar. China tiene su propia versión de BrainGate. Si las compañías estadounidenses no son pioneras en esta tecnología, algunos piensan que las empresas chinas lo harán. “La gente ha descrito esto como una carrera armamentística de cerebros”, dijo Yuste.

Ni siquiera Gallant, quien fue el primero en lograr traducir la actividad neuronal en una imagen en movimiento de lo que otra persona veía —y quien estaba tan eufórico como horrorizado por el ejercicio— piensa que el enfoque ludita es una opción. “La única manera de salir del agujero tecnológico en el que estamos es con más tecnología y ciencia”, me dijo. “Eso es simplemente un hecho genial de la vida”.

PAGINA 100 POPAYAN COLOMBIA

Prensa para leer y pensar

Foto: static01.nyt.com

Por: Moises Velasquez-Manoff

Fuente: https://www.nytimes.com/


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Abrir chat
1
Accede al grupo de WhatsApp Noticias grupo1 👇

Accede al grupo de WhatsApp Noticias grupo2 👇
A %d blogueros les gusta esto: