Inteligência artificial pode prever músicas por ‘leitura da mente’

Compartilhe

O estudo descobriu que a música ativa regiões cerebrais no córtex auditivo primário; já o córtex pré-frontal pode ser responsável por processar o significado das músicas.

De acordo com um estudo publicado na revista de pré-impressão ArVix, uma equipe de cientistas desenvolveu uma inteligência artificial (IA) capaz de fazer “leitura da mente” e adivinhar a música que uma pessoa está pensando. Além disso, a IA consegue construir uma versão da música baseada nas atividades do cérebro desta pessoa.

Em outros estudos, pesquisadores conseguiram reconstruir diferentes sons a partir de sinais cerebrais, como a voz humana, o canto de pássaros, entre outros. Agora, o novo artigo conseguiu desenvolver uma IA capaz de utilizar dados cerebrais para gerar as músicas que os participantes estavam ouvindo quando seus cérebros estavam sendo escaneados.

Nomeado de Brain2Music, a IA utiliza os sinais do cérebro para gerar pequenos trechos de músicas, com diversos detalhes específicos, como gênero, instrumentação, ritmo e melodia. É importante destacar que a música não é uma reprodução completamente igual, apenas uma versão dos sons processados pelo cérebro humano.

“A concordância, em termos de clima da música reconstruída e da música original, foi de cerca de 60%. O método é bastante robusto nos cinco assuntos que avaliamos. Se você pegar uma nova pessoa e treinar um modelo para ela, é provável que também funcione bem”, disse um dos autores do estudo e engenheiro de software do Google na Suíça, Timo Denk, em mensagem ao site Live Science.

As músicas também foram rotuladas com a seguinte classificação: feliz, triste, afetuosa, emocionante, zangada ou assustadora. Os cientistas desenvolveram uma IA personalizada para cada participante do estudo, assim, o Brain2Music converte os dados cerebrais em elementos musicais.

A IA também foi alimentada com informações de um modelo de inteligência artificial semelhante desenvolvido pelo Google, conhecido como MusicLM; contudo, foi criado para gerar música a partir de textos. Para os cientistas, o maior objetivo do novo estudo é compreender como o cérebro processa as ondas musicais.

“A música gerada se assemelha aos estímulos musicais que os sujeitos humanos experimentaram, no que diz respeito às propriedades semânticas como gênero, instrumentação e humor. Investigamos a relação entre diferentes componentes do MusicLM e a atividade cerebral por meio de uma análise de modelagem de codificação voxel. Além disso, discutimos quais regiões do cérebro representam informações derivadas de descrições puramente textuais de estímulos musicais”, o estudo conclui.

Fonte: Tecmundo

Você pode gostar...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Skip to content