infoinfusion 16 agosto, 2023 | Hace 2 años
La asombrosa habilidad de la inteligencia artificial (IA) se ha manifestado en la recreación de una versión reconocible de la icónica pieza musical “Another Brick in the Wall” de Pink Floyd.

Este logro revolucionario surgió de la observación de las ondas cerebrales de pacientes sometidos a procedimientos quirúrgicos para tratar la epilepsia, mientras experimentaban la canción original de 1979.
Este extraordinario hito marca un paso adelante sin precedentes, ya que representa la primera vez en que una melodía discernible es reconstruida a partir de registros de actividad eléctrica cerebral. Estos resultados prometen aportar esclarecimiento a la comprensión de nuestra percepción del sonido y potencialmente podrían generar avances significativos en dispositivos dirigidos a individuos que padecen trastornos neurológicos que afectan el habla, como el ictus o la esclerosis lateral amiotrófica (ELA), la misma condición que afectó al renombrado científico Stephen Hawking.
Un inmenso conjunto de 2.668 electrodos para rastrear la actividad cerebral Para lograr este hito científico, el equipo dirigido por Robert Knight en la Universidad de California, Berkeley, investigó las lecturas de electrodos insertados en el cerebro de 29 personas sometidas a procedimientos para tratar la epilepsia. Equipados con un impresionante total de 2.668 electrodos para monitorear la actividad cerebral, lograron identificar 347 de estos como relevantes para la música en cuestión.
La meta fundamental de los investigadores radicaba en el establecimiento de conexiones entre patrones cerebrales y componentes musicales clave, como tono, armonía y ritmo. Empleando métodos de aprendizaje automático, analizaron los datos para desentrañar las correlaciones entre la actividad cerebral y los elementos musicales, excluyendo un fragmento de 15 segundos de la canción en el proceso de entrenamiento.
Al comparar las señales cerebrales con la canción original, según se indica en el comunicado de prensa, los científicos identificaron un grupo selecto de electrodos particularmente relacionados con el tono, la melodía, la armonía y el ritmo. En concreto, localizaron una región en el complejo auditivo del cerebro denominada circunvolución temporal superior (STG en inglés), que parecía representar el ritmo, en este caso, el compás de la guitarra.
La IA reproduce un pasaje inédito de la canción Al final del recorrido, la IA, después de ser entrenada, logró generar un fragmento inédito de la canción basándose en las señales cerebrales captadas de los participantes. De acuerdo con la información de New Scientist, el espectrograma, que visualiza las ondas de audio, del fragmento creado por la IA mostraba un sorprendente 43 % de similitud con el fragmento de la canción real.
“El sonido es algo parecido a una conversación bajo el agua, pero es la primera vez que lo conseguimos”, comentó Knight, según reseña The Guardian.
A pesar de que la melodía en cuestión fue sometida a un procesamiento preliminar para posibilitar la comparación y ajustarla a las técnicas de procesamiento de audio del cerebro generado por la IA, que experimenta cierta degradación al convertirse de espectrograma a audio, el proceso inverso resalta por su fidelidad.
El equipo sostiene que los resultados, divulgados en la revista PLOS Biology, validan la posibilidad de traducir las señales cerebrales en los elementos musicales del habla, como el ritmo y la entonación, aspectos que aportan significado que las palabras por sí solas no logran expresar.
Según el neurocientífico Ludovic Bellier, de la Universidad de California, Berkeley, “hemos reconstruido la canción clásica de Pink Floyd, Another Brick in the Wall, a partir de registros corticales humanos directos, lo que nos brinda una comprensión más profunda de las bases neuronales de la percepción musical y abre perspectivas futuras en la decodificación cerebral”.
A pesar de las tecnologías existentes que permiten descifrar palabras en individuos incapaces de hablar, los investigadores señalan que las frases generadas hasta el momento suenan mecánicas. Este logro podría pavimentar el camino hacia prótesis más avanzadas, que mejoren la percepción del ritmo y la melodía en el lenguaje.