Científicos lograron desarrollar el «Decodificador Semántico», una nueva herramienta que en teoría podría «leer» la mente de la gente. Funciona mediante un entrenamiento que se basa en observar los movimientos cerebrales de las personas a través de imágenes de resonancia magnética funcional (fMRI por sus siglas en inglés) mientras los sujetos escuchan un podcast.

Dicha tecnología es parecida a ChatGPT, es decir, hace un análisis de los resultados y aprende como «leer la mente del individuo», después, mientras las personas imaginan alguna historia la IA escribe mediante interpretaciones gráficas lo que la persona está experimentando, y los resultados mostraron que más de la mitad del número de textos producidos coincidieron con gran presión al significado original.

Este avance nos trae beneficios como poder ayudar a las personas que sufrieron un derrame cerebral o con dificultades del habla a poder expresarse. Pero, también podría ser un riesgo de privacidad, ya que representaría una invasión a tus pensamientos.

La investigación fue dirigida por Jerry Tang, un estudiante de doctorado en informática y Alex Huth, profesor asistente en UT Austin y fue publicada en la revista Nature Neuroscience.

Es importante destacar que el equipo encargado de esta investigación no pretende implementar un sistema capaz de leer tus pensamientos, lo que buscan es conseguir un dispositivo que brinde información acerca de cómo funciona el sistema sensorial del ser humano.

IA Leer Mente
Imagen Ilis

No es el único estudio de IA que pueden leer tu mente

Recientemente, se dio a conocer otra investigación llamada «Beyond the Brain: Conditional Diffusion Model with Sparse Masked Modeling for Vision Decoding«, que se está desarrollando en Singapur.

Por su parte, este estudio busca decodificar estímulos visuales y de este modo poder reconstruir imágenes con una alta calidad semántica a partir de las grabaciones cerebrales utilizando el mismo método de fMRI.

Los investigadores crearon un modelo que llaman MinD-Vis, el cual asocia los escaneos cerebrales con las imágenes y desarrolla un modelo IA para cada voluntario.

Mediante el aumento de un modelo de difusión latente con doble condicionamiento, mostramos que MinD-Vis puede reconstruir imágenes altamente plausibles con detalles semánticamente coincidentes a partir de grabaciones cerebrales utilizando muy pocas anotaciones emparejadas

Resumen de Beyond the Brain: Conditional Diffusion Model with Sparse Masked Modeling for Vision Decoding