O estudo pode ser um primeiro passo para se poder compor usando apenas os próprios pensamentos.
A pesquisa publicada recentemente pelo Google e pela Universidade de Osaka demonstrou uma técnica para converter pensamentos em música.
Cinco voluntários tocaram mais de 500 temas diferentes em dez estilos musicais enquanto estavam deitados dentro de um scanner FMRI.
As imagens capturadas da sua atividade cerebral foram inseridas num modelo de IA chamado Brain2Music, que aprendeu a criar músicas semelhantes àquelas que as pessoas estavam a ouvir, usando o gerador de música AI MusicLM do Google.
Os autores do estudo concluem que “a música gerada se assemelha aos estímulos musicais que as pessoas no teste experimentaram, com relação a propriedades semânticas como gênero, instrumentação e humor”.
Os resultados estão disponíveis para ouvir no Google Research Github.
A ideia é que um dia se crie um software de composição musical inteligente capaz de decodificar pensamentos e traduzi-los em música.
Os pesquisadores disseram que o próximo passo seria usar a IA para gerar música baseada puramente na imaginação de alguém em vez de um estímulo musical específico.
É claro, um DAW telepático ainda está longe de ser possível, a menos que se tenha um scanner FMRI no estúdio ou no quarto.
Todo o trabalho de pesquisa está disponível no arXiv, o arquivo on-line gratuito de artigos acadêmicos da Cornell University.
Mariana Cruz