Una iniciativa respaldada por Facebook que tiene como objetivo permitir que las personas escriban pensando ha concluido con nuevos hallazgos publicados hoy.
El Proyecto Steno fue una colaboración de varios años entre Facebook y el Laboratorio Chang de la Universidad de California en San Francisco, con el objetivo de crear un sistema que traduzca la actividad cerebral en palabras. Un nuevo trabajo de investigación, publicado en El diario Nueva Inglaterra de medicina, muestra potencial para implementar tecnología para personas con impedimentos del habla.
Pero junto con la investigación, Facebook dejó en claro que está abandonando la idea de un dispositivo comercial de lectura del cerebro montado en la cabeza y, en su lugar, está construyendo interfaces de muñeca. La nueva investigación no tiene una aplicabilidad clara a un producto de tecnología de mercado masivo, y en un comunicado de prensa, Facebook dijo que está “reenfocando” sus prioridades lejos de las interfaces cerebro-computadora montadas en la cabeza.
“Para ser claros, Facebook no tiene interés en desarrollar productos que requieran electrodos implantados”, dijo Facebook en un comunicado de prensa. En otra parte de la declaración, se señaló que “aunque todavía creemos en el potencial a largo plazo de las tecnologías BCI ópticas montadas en la cabeza, hemos decidido centrar nuestros esfuerzos inmediatos en un enfoque de interfaz neuronal diferente que tiene un camino a corto plazo. para el mercado. “
La investigación en curso de Chang Lab implica el uso de interfaces cerebro-computadora (BCI) implantadas para restaurar las habilidades del habla de las personas. El nuevo artículo se centra en un participante que perdió la capacidad de hablar después de un derrame cerebral hace más de 16 años. El laboratorio colocó al hombre con electrodos implantados que podían detectar la actividad cerebral. Luego, el hombre pasó 22 horas (distribuidas en más de un año de sesiones) entrenando un sistema para reconocer patrones específicos. En ese entrenamiento, trataría de hablar palabras aisladas de un conjunto de vocabulario de 50 palabras. En otro curso de capacitación, trató de producir oraciones completas usando esas palabras, que incluían verbos y pronombres básicos (como “yo soy” y “yo”), así como sustantivos útiles específicos (como “gafas” y “computadora” ) y comandos (como “sí” y “no”).
Esta capacitación ayudó a crear un modelo de lenguaje que podía responder cuando el hombre estaba pensando en decir palabras en particular, incluso si en realidad no podía pronunciarlas. Los investigadores ajustaron el modelo para predecir en cuál de las 50 palabras estaba pensando, integrando un sistema de probabilidad para los patrones del idioma inglés similar al teclado predictivo de un teléfono inteligente. Los investigadores informaron que en las pruebas finales, el sistema podría decodificar una tasa promedio de 15,2 palabras por minuto, contando errores, o 12,5 palabras por minuto con solo palabras correctamente decodificadas.
El Chang Lab publicó una investigación anterior del Proyecto Steno en 2019 y 2020, que muestra que las matrices de electrodos y los modelos predictivos pueden crear sistemas de escritura de pensamientos comparativamente rápidos y sofisticados. Muchas opciones de escritura anteriores implicaban empujar mentalmente un cursor alrededor de un teclado en pantalla usando un implante cerebral, aunque algunos otros investigadores han experimentado con métodos como visualizar la escritura a mano. Donde investigaciones previas del laboratorio involucraban la decodificación de la actividad cerebral en personas que hablaban normalmente, este último artículo muestra que funciona incluso cuando los sujetos no hablan (y no pueden) hablar en voz alta.
En un comunicado de prensa, el presidente de neurocirugía de UCSF, Eddie Chang, dice que el siguiente paso es mejorar el sistema y probarlo con más personas. “En el lado del hardware, necesitamos construir sistemas que tengan una resolución de datos más alta para registrar más información del cerebro y más rápidamente. Por el lado del algoritmo, necesitamos tener sistemas que puedan traducir estas complejas señales cerebrales en palabras habladas, no en texto, sino en palabras habladas y audibles. “Una de las principales prioridades, dice Chang, es ampliar enormemente el vocabulario.
La investigación actual es valiosa para las personas que no tienen teclados ni otras interfaces, ya que incluso un vocabulario limitado puede ayudarles a comunicarse más fácilmente. Pero está muy lejos del ambicioso objetivo que Facebook estableció en 2017: un sistema BCI no invasivo que permitiría a las personas escribir 100 palabras por minuto, comparable a las velocidades máximas que podrían lograr con un teclado tradicional. La última investigación de UCSF involucra tecnología implantada y no está ni cerca de alcanzar ese número, ni siquiera las velocidades que la mayoría de la gente puede alcanzar en un teclado telefónico. Eso es un mal augurio para las perspectivas comerciales de una tecnología como una diadema externa que mide ópticamente los niveles de oxígeno en el cerebro, que Facebook Reality Labs (el ala de hardware de realidad virtual y aumentada de la compañía) presentó en forma de prototipo. .
Desde entonces, Facebook adquirió la empresa de pulseras de electromiografía (EMG) CTRL-Labs en 2019, lo que le brinda una opción de control alternativa para AR y VR. “Todavía estamos en las primeras etapas para desbloquear el potencial de la electromiografía basada en la muñeca (EMG), pero creemos que será la puerta de entrada principal para las gafas AR, y aplicar lo que hemos aprendido sobre BCI nos ayudará a llegar más rápido”. Dice el director de investigación de Facebook Reality Labs, Sean Keller. Facebook no renunciará por completo al sistema de interfaz cerebral montado en la cabeza, pero planea hacer que el software sea de código abierto y compartir los prototipos de hardware con investigadores externos, mientras finaliza su propia investigación.
Esta nota es parte de la red de Wepolis y fué publicada por California Corresponsal el 2021-07-15 05:05:28 en:
Link a la nota original
Palabras clave:
#Facebook #está #renunciando #mecanografía #como #interfaz #gafas #realidad #aumentada