Maio 3, 2024

O Ribatejo | jornal regional online

Informações sobre Portugal. Selecione os assuntos que deseja saber mais sobre a Folha d Ouro Verde

Como o cérebro decifra a fala em salas barulhentas?

Como o cérebro decifra a fala em salas barulhentas?

resumo: Os pesquisadores descobriram que o cérebro decodifica a fala de maneira diferente em ambientes ruidosos, dependendo do volume da fala e de nosso foco nela.

Seu estudo, que fez uso de gravações neurais e modelos de computador, mostra que quando você está lutando para acompanhar uma conversa em meio a sons mais altos, nosso cérebro codifica distintamente informações de áudio quando o som é facilmente ouvido. Isso pode ser fundamental para melhorar os aparelhos auditivos que isolam a fala presente.

Esta pesquisa pode levar a melhorias significativas nos sistemas de decodificação da atenção auditiva, especialmente para aparelhos auditivos controlados pelo cérebro.

Principais fatos:

  1. O estudo revelou que nosso cérebro codifica informações de áudio de maneira diferente em situações ruidosas, dependendo do volume da fala em que nos concentramos e do nosso nível de atenção.
  2. Os pesquisadores usaram gravações neurais para gerar modelos preditivos de atividade cerebral, mostrando que as informações de áudio “vislumbradas” e “disfarçadas” são codificadas separadamente em nosso cérebro.
  3. Esta descoberta pode levar a grandes desenvolvimentos na tecnologia de aparelhos auditivos, especificamente na melhoria dos sistemas de decodificação de atenção auditiva para aparelhos auditivos controlados pelo cérebro.

fonte: Mais

Pesquisadores liderados pelo Dr.

Publicado em 6 de junho no Open Access Journal Biologia MAISO estudo usa uma combinação de gravações neurais e modelagem de computador para mostrar que, quando seguimos a fala abafada por sons mais altos, a informação vocal é codificada de forma diferente do que na situação oposta.

As descobertas podem ajudar a melhorar os aparelhos auditivos que funcionam isolando a fala atual.

Concentrar-se na fala em uma sala lotada pode ser difícil, especialmente quando outros sons são mais altos. No entanto, amplificar todos os sons igualmente faz pouco para melhorar a capacidade de isolar esses sons difíceis de ouvir, e os aparelhos auditivos que apenas tentam amplificar a fala controlada ainda são muito imprecisos para uso prático.

Crédito: Neuroscience News

Para entender melhor como a fala é processada nessas situações, pesquisadores da Universidade de Columbia registraram a atividade neural de eletrodos implantados no cérebro de pessoas com epilepsia durante uma cirurgia cerebral. Os pacientes foram solicitados a prestar atenção em uma voz, que ora era mais alta que a outra (“pios”), ora mais baixa (“disfarçada”).

Os pesquisadores usaram as gravações neurais para gerar modelos preditivos de atividade cerebral. Os modelos mostraram que a informação fonológica da fala ‘brilhante’ foi codificada tanto no córtex auditivo primário quanto no secundário do cérebro, e que a codificação da fala associada foi aprimorada no neocórtex secundário.

Em contraste, a informação de áudio da fala ‘disfarçada’ só foi codificada se fosse o áudio visual. Finalmente, a codificação da fala ocorreu mais tarde para a fala “disfarçada” do que para a fala “lisonjeira”. Como as informações de áudio ‘vislumbradas’ e ‘disfarçadas’ parecem ser codificadas separadamente, focar na decodificação apenas da parte ‘disfarçada’ da fala que a atende pode levar a sistemas de decodificação de atenção auditiva aprimorados para aparelhos auditivos controlados pelo cérebro.

Vinay Raghavan, principal autor do estudo, diz: “Ao ouvir alguém em um lugar barulhento, seu cérebro recupera o que perdeu quando o ruído de fundo era muito alto. Seu cérebro também pode captar partes do discurso que você não focaliza. ligado, mas apenas quando a pessoa que você está ouvindo está quieta em comparação.” .

Sobre esta pesquisa Notícias de Neurociência Auditiva

autor: Nima Masgarani
fonte: Mais
comunicação: Graça Masgarani – Mais
foto: Imagem creditada a Neuroscience News

Pesquisa original: acesso livre.
Codificação neural distinta para um discurso brilhante e persuasivo em situações multitalkerEscrito por Nima Masgarani et al. Biologia MAIS


um resumo

Codificação neural distinta para um discurso brilhante e persuasivo em situações multitalker

Os humanos podem ouvir facilmente um único falante em um ambiente com vários caracteres e ainda captar fragmentos de fala ao fundo; No entanto, ainda não está claro como percebemos o discurso persuasivo e em que grau o discurso não direcionado é processado.

Alguns modelos sugerem que a percepção pode ser alcançada por meio de peeps, que são regiões de tempo espectrais onde o falante tem mais energia do que o fundo. Outros modelos, no entanto, requerem restauração de regiões mascaradas.

Para elucidar esse problema, gravamos diretamente do córtex auditivo (CA) primário e não primário em pacientes neurocirúrgicos enquanto atendia a um único falante em fala multifalante e modelos de função de resposta temporal treinados para prever a atividade neural gama alta de características de estímulo brilhante e mascarante .

Descobrimos que a fala brilhante é codificada no nível dos recursos vocais dos falantes-alvo e não-alvo, com codificação aprimorada da fala-alvo em CA não central. Em contraste, apenas características vocais mascaradas foram codificadas para o alvo, com um tempo de resposta maior e organização anatômica distinta em comparação com características vocais contundentes.

Essas descobertas apontam para mecanismos separados de codificação de fala livre e oculta e fornecem evidências neurais para o modelo de percepção de fala semelhante a uma sugestão.