Una dona recupera la parla 18 anys després d’un ictus gràcies a una pròtesi cerebral d’intel·ligència artificial
La innovadora tecnologia utilitza IA per transformar senyals cerebrals en veu sintètica gairebé a temps real

Moment en què els investigadors connecten l’implant cerebral a la computadora sintetitzadora de veu.
Un equip científic de la Universitat de Califòrnia a Berkeley i a San Francisco (Estats Units) ha dissenyat un dispositiu capaç de traduir l’activitat de la parla en el cervell en paraules parlades gairebé en temps real, aconseguint que una dona de 47 anys amb tetraplegia 'parlés’ després de 18 anys.
Aquest treball resol "el vell problema" de la latència de les neuropròtesis de la parla, és a dir, el temps que transcorre entre el moment en què un subjecte intenta parlar i el moment en què es produeix el so.
Gràcies als últims avenços basats en intel·ligència artificial (IA), els investigadors van desenvolupar un mètode de transmissió que sintetitza els senyals cerebrals en parla audible gairebé en temps real. La seua descripció es publica aquest dilluns a la revista Nature Neuroscience.
"El nostre enfocament de streaming porta la mateixa capacitat de descodificació ràpida de la parla de dispositius com Alexa i Siri a les neuropròtesis", resumeix Gopala Anumanchipalli, coinvestigador principal de l’estudi.
"Utilitzant un tipus d’algoritme similar, descobrim que podíem descodificar dades neuronals i, per primera vegada, fer possible una transmissió de veu gairebé sincrònica. El resultat és una síntesi de la parla més natural i fluida", explica el científic.
Para Edward Chang, un altre dels científics principals, aquesta nova tecnologia "té un enorme potencial" per millorar la qualitat de vida de les persones amb paràlisis greus que afecten la parla. "És emocionant que els últims avenços en IA estiguin accelerant enormement les interfícies cervell-ordinador per al seu ús pràctic al món real en un futur pròxim".
Com a part d’un assaig clínic, els equips de Chang i Anumanchipalli van implantar la interfície cervell-computadora en una dona de 47 anys amb tetraplegia (paràlisi de les extremitats i el tors), que no havia pogut parlar o vocalitzar durant 18 anys després de tenir un accident cerebrovascular.
Per recopilar les dades necessàries per entrenar el seu algoritme, els investigadors primer van fer que la participant mirés una indicació a la pantalla, com la frase "hola, com estàs", i després intentés pronunciar aquesta frase en silenci.
Així, els autors van entrenar una xarxa neuronal d’aprenentatge profund utilitzant l’activitat cerebral de la participant, que es va registrar mitjançant elèctrodes implantats sobre la seua escorça sensomotora de la parla, mentre pronunciava internament al seu cervell frases completes que contenien 1.024 paraules úniques.
A continuació, es va utilitzar aquest model per descodificar la parla en línia, simultàniament amb la intenció vocal de la participant (Ann), i després produir àudio imitant la seua veu -aquesta havia estat entrenada utilitzant un clip d’ella parlant abans de la lesió-.
Cheol Jun Cho, un altre dels signants del treball, resumeix que la neuropròtesi funciona prenent mostres de dades neuronals de l’escorça motriu, la part del cervell que controla la producció de la parla, i després utilitza l’IA per descodificar la funció cerebral i convertir-la en parla.
"Bàsicament interceptem els senyals en els quals el pensament es tradueix en articulació (...). Així que el que estem descodificant és després que s’hagi produït un pensament, després que hàgim decidit què dir, després que hàgim decidit quines paraules utilitzar i com moure els músculs del tracte vocal."
En el seu anterior estudi sobre aquest tipus de dispositius, els investigadors es van trobar amb una llarga latència de descodificació, d’uns 8 segons per a una sola frase. Amb el nou mètode de transmissió, la sortida audible pot generar-se gairebé en temps real, mentre el subjecte intenta parlar, recull un comunicat de la Facultat d’Enginyeria de la Universitat de Califòrnia a Berkeley.
Per descartar que el sistema simplement estava aparellant patrons i repetint parts de les dades d’entrenament, els investigadors van provar la seua capacitat per sintetitzar paraules que no formaven part del vocabulari de l’ensinistrament primari. En aquest cas, van triar 26 paraules de l’anomenat alfabet fonètic de l’OTAN, com "alpha" o "bravo".
"Hem descobert que el nostre model ho fa bé, la qual cosa demostra que, efectivament, està aprenent els components bàsics del so o la veu", conclou Anumanchipalli.