La Universidad de Stanford ha logrado un hito impresionante en neurociencia: descifrar el lenguaje interno —es decir, el monólogo mental que ocurre cuando pensamos en hablar— y traducirlo en palabras con una precisión de hasta el 74%.
¿Cómo lo lograron?. Utilizaron microelectrodos implantados en la corteza motora del cerebro, la región responsable del habla. Los participantes eran personas con parálisis grave debido a ELA o accidentes cerebrovasculares. Se les pidió que imaginaran decir palabras, sin pronunciarlas.
Los datos neuronales se procesaron con modelos de inteligencia artificial entrenados para reconocer patrones del habla interna.
El habla interna y el intento de hablar activan zonas similares del cerebro, aunque con distinta intensidad. El sistema logró interpretar frases de un vocabulario de hasta 125.000 palabras. Incluso pudo captar pensamientos no instruidos, como contar objetos en una pantalla. Se implementó un sistema de seguridad con palabras clave para activar la decodificación, como “chitty chitty bang bang”, con una precisión superior al 98%.
Este avance podría revolucionar la comunicación para personas con discapacidades del habla, permitiéndoles pensar lo que quieren decir en lugar de esforzarse por hablar físicamente. Las interfaces cerebro-ordenador (BCI) se perfilan como herramientas clave para una comunicación más rápida, natural y accesible.
Hasta aquí todo muy bonito, pero la realidad es que asusta esta intromisión en tu mundo interior. Copilot lo analiza con sus pros y contras: Posibilidades futuras
- 1. Comunicación sin palabras Personas con parálisis, ELA, afasia o lesiones cerebrales podrían comunicarse solo con pensar.Se podrían integrar estas interfaces en dispositivos móviles, asistentes virtuales o incluso prótesis inteligentes.
- 2. Control mental de tecnología. Imagínate controlar tu ordenador, teléfono o incluso un coche sin mover un dedo, solo con tus pensamientos. Esto ya se está explorando en entornos como videojuegos, robótica y realidad aumentada.
- 3. Traducción de emociones y conceptos abstractos
En el futuro, no solo se podrían traducir palabras, sino también emociones, intenciones o ideas complejas. Esto podría transformar la psicología, la educación o incluso la creatividad artística, y conlleva una serie de Implicaciones éticas.
1. Privacidad mental
¿Quién tiene acceso a tus pensamientos? ¿Podrían ser interceptados, almacenados o manipulados?
Se necesitarán leyes de protección mental, como una extensión de los derechos digitales.
2. Consentimiento y control
El usuario debe tener control absoluto sobre cuándo y cómo se activa la interfaz.
Se deben evitar usos coercitivos, como en interrogatorios o vigilancia.
3. Desigualdad tecnológica
¿Quién podrá acceder a estas tecnologías? ¿Serán solo para quienes puedan pagarlas?
Podría ampliarse la brecha entre personas con y sin acceso a mejoras cognitivas.
Filosofía e identidad - Si nuestros pensamientos pueden ser leídos, ¿dónde termina la mente y empieza la máquina? ¿Podría esto alterar nuestra autonomía, nuestra intimidad mental, o incluso nuestra identidad personal?
Este avance de Stanford es solo el comienzo. Empresas como Neuralink (de Elon Musk) y otras instituciones están compitiendo por desarrollar BCI cada vez más sofisticadas. Pero como toda herramienta poderosa, su impacto dependerá de cómo decidamos usarla. La verdad es que esta noticia es de las que nos debería de preocupar, como dice la IA necesitaremos leyes de protección mental y teniendo en cuenta que en estas cosas siempre vamos tarde, ya podrían las autoridades emopezar a trabajar en ello.
Comentarios
Publicar un comentario