Sinal/Ruído — Edição 1: Aparelhos Auditivos com Inteligência Artificial e a Batalha pela Fala no Ruído

aparelho auditivo inteligência artificial — ilustração de Orestes
Neste artigo você vai aprender:

Newsletter sobre audição, tecnologia e pensamento crítico — por Luciano Moreira — Edição 1 • Fevereiro/2026

Nesta edição da Sinal/Ruído, o tema são os aparelhos auditivos com inteligência artificial — e se eles realmente ajudam quem tem dificuldade de ouvir no ruído.

Doutor, eu estou te ouvindo perfeitamente aqui, entendo tudo! Mas quando tem muitas pessoas falando ao mesmo tempo, ou estou em casa assistindo a TV e alguém fala comigo, aí eu não entendo.

Para qualquer um que trabalha atendendo pessoas com perda auditiva, essa é uma das queixas mais frequentes e mais difíceis de resolver.

Uma sala fechada e silenciosa, com apenas uma pessoa falando e sem a competição de outros sons do ambiente, é praticamente uma utopia sonora. Nessa situação, o sinal (minha voz) é alto e claro, enquanto o ruído (sons de fundo) é praticamente zero. Para compreensão de fala, esse é o cenário acústico perfeito, porque oferece uma Relação Sinal/Ruído (SNR) ótima.

Já os ambientes barulhentos, que mesmo para alguém que ouve normalmente tornam a compreensão de fala difícil, para pessoas com o sistema auditivo afetado pela surdez, viram locais de enorme sofrimento e muitos mal-entendidos. Por esse motivo, a SNR está diretamente ligada à relação entre perda auditiva e isolamento social. Quanto mais ruído de fundo, menos chances de participar tem quem tem perda auditiva.

E diante desse problema, o que a otologia e a audiologia contemporâneas podem fazer? Resposta curta: Não muito.

Nessa primeira edição da Sinal/Ruído quero te oferecer uma resposta longa e mais completa, para que você reconheça o problema. Compreender o desafio e as limitações que ele causa é o primeiro passo. Partindo desse conhecimento, temos novas e boas notícias da indústria e da ciência, e maneiras de minimizar os desafios impostos pela degradação do SNR.

O Caso do Ouvido Não Implantado

Este é um tipo de situação crescente na última década dentro da reabilitação auditiva: os pacientes bimodais. São aquelas pessoas que utilizam um Implante Coclear (IC) em um ouvido e um Aparelho de Amplificação Sonora Individual (AASI) — vulgo “aparelho auditivo” — no outro.

Historicamente, para os pacientes com surdez severa a profunda bilateral, o foco sempre esteve no implante, relegando o aparelho auditivo do outro ouvido a um papel de mero coadjuvante para dar algum “conforto” sonoro. Isso quando ele é usado. A razão é simples: os algoritmos tradicionais de redução de ruído dos aparelhos auditivos convencionais podem muito pouco em ambientes com ruído flutuante (como várias pessoas falando ao mesmo tempo).

Mas um estudo clínico recente pode mudar esse cenário. Pesquisadores da Mayo Clinic publicaram no Journal of Clinical Medicine (Saoji et al., 2025) os resultados de 11 pacientes bimodais — todos entre 71 e 89 anos — que receberam um aparelho auditivo (Phonak Audéo Sphere Infinio) que carrega um chip dedicado de Inteligência Artificial baseado em Redes Neurais Profundas (DNN), treinado com 22 milhões de amostras de som.

O resultado chamou a atenção: com o programa DNN ativo no aparelho auditivo e o IC ligado no outro ouvido, a compreensão de sentenças no meio de um falatório (multi-talker babble) subiu de 60% para 79%. Esses 60% eram o desempenho bimodal com o programa convencional do aparelho — ou seja, o IC já estava ajudando. A diferença é que a IA no aparelho limpou o sinal de forma que a cóclea doente não consegue mais fazer, e o conjunto ficou muito melhor.

Quando comparado ao uso do IC sozinho nesse mesmo ruído (que entregava cerca de 39% de reconhecimento), o benefício bimodal com a IA alcançou uma diferença de 40 pontos percentuais. Em termos práticos: a máquina passou a fazer o trabalho pesado de separação do som.

Antes de seguir, preciso fazer uma pausa para fazer valer o principal compromisso da Sinal/Ruído: separar o que é real e promissor (sinal) do que é marketing e hype vazio (ruído). Não é tarefa fácil, mas é o objetivo que me propus. Então vamos lá: o estudo acima tem 11 pacientes. É uma amostra pequena. É um estudo com aparelhos Phonak conduzido em parceria com funcionários da Sonova (empresa dona da Phonak). Nenhum desses fatos invalida os resultados, mas eles pedem cautela antes de generalizar. O que posso dizer é que a direção dos dados é consistente com outros estudos menores e com os testes de laboratório independentes que vou comentar a seguir.

A Engenharia por Trás do Avanço

Como isso é possível na prática? Até pouco tempo atrás, a principal arma da indústria contra o ruído eram os microfones direcionais. Eles funcionam como uma lanterna: focam no som que vem da frente e tentam abafar o que vem de trás. O problema é que em um restaurante o ruído não fica educadamente atrás de você; ele está em todo lugar, misturado ao sinal principal.

A transição que estamos vivendo agora é a saída da acústica direcional para o processamento computacional puro. E duas filosofias de engenharia diferentes estão disputando esse espaço.

A instalação no aparelho de um segundo chip, dedicado exclusivamente a rodar uma rede neural profunda treinada para separar a fala do ruído de fundo, trouxe (segundo a empresa) um benefício de até 10 dB na relação sinal/ruído — um número que, se confirmado de forma consistente, é extraordinário. A diferença crucial é que o sistema tenta limpar a voz humana independentemente da direção de onde ela vem, sem depender apenas de apontar o microfone para a frente. Nos testes de laboratório independentes do HearAdvisor, o Sphere Infinio obteve a maior pontuação em compreensão de fala no ruído entre todos os aparelhos testados até o momento.

Seguindo uma filosofia diferente, a Signia lançou a arquitetura Integrated Xperience (IX) com a tecnologia RealTime Conversation Enhancement (RTCE). Em vez de processar o som em um bloco único e tentar abafar o resto, o sistema divide o som recebido em duas correntes — frente e laterais/atrás — e processa cada uma com compressão e redução de ruído independentes. Depois, rastreia múltiplos interlocutores simultaneamente, otimizando o SNR de forma independente para cada pessoa que fala. A abordagem é chamada de “multi-stream”, e num estudo técnico interno da Signia (Korhonen et al., 2024), o IX produziu SNR de saída superior ao de concorrentes — incluindo aparelhos com DNN — em cenário de conversa em grupo.

Aqui preciso fazer a ressalva que a Sinal/Ruído sempre vai fazer: cada fabricante publica estudos mostrando que o seu sistema é o melhor. O estudo da Signia foi conduzido pelo laboratório da própria WS Audiology. O estudo bimodal com o Phonak tem coautores da Sonova. É assim que a indústria funciona, mas também é assim que ela avança, e nas últimas décadas, os avanços foram evidentes. Nos poucos testes independentes disponíveis — como o HearAdvisor —, ambas as abordagens aparecem no topo da tabela. A verdade é que tanto a abordagem DNN da Phonak quanto a multi-stream da Signia representam avanços reais sobre a geração anterior.

E Se o Cérebro Também Pudesse Melhorar?

Até aqui falei de chips, algoritmos e hardware. Mas existe outro lado da equação que raramente recebe a atenção que merece: o processamento central. O aparelho auditivo, por melhor que seja, entrega o som ao nervo auditivo. Quem faz a interpretação final é o cérebro. E o cérebro, ao contrário do chip, é plástico — ele pode ser treinado.

Programas de treino auditivo existem há décadas, mas a evidência científica sempre foi fraca. Amostras pequenas, ausência de grupo controle e pouca demonstração de transferência para situações da vida real sempre limitaram as recomendações.

Nesse contexto, um estudo que saiu em junho de 2025 merece atenção. Pesquisadores da KU Leuven (Bélgica), liderados por Astrid van Wieringen, publicaram os resultados de um ensaio clínico randomizado multicêntrico testando o programa ALICE (Assistant for Listening and Communication Enhancement). É um aplicativo de celular que oferece treino auditivo personalizado, monitoramento de desempenho e aconselhamento — tudo autoguiado, feito em casa pelo paciente.

O desenho do estudo é robusto para os padrões da área: 130 participantes (65 no grupo ALICE, 65 no controle), recrutados em múltiplos centros auditivos na Bélgica, incluindo usuários de AASI e de IC. O treino durou 8 semanas, 15 minutos por dia.

O resultado principal: o grupo que treinou com o ALICE melhorou significativamente a compreensão de fala no ruído em material não treinado. A diferença entre os grupos após o treino foi de 2,51 dB SNR (p=0,01). O grupo controle não melhorou.

Agora, a parte que me interessa mais, porque é onde a ciência fica honesta: apesar da melhora objetiva nos testes, os pacientes não relataram sentir diferença no dia a dia. Os questionários de esforço auditivo (EAS), qualidade de audição (SSQ-12) e satisfação com o aparelho (IOI-HA) não mostraram mudança significativa.

Ressalva importante: este estudo é um preprint (medRxiv, doi: 10.1101/2025.05.28.25328487). Ainda não passou por revisão por pares. E parte dos autores tem vínculo com a empresa CELES, que comercializa o ALICE.

O Custo Cognitivo

É importante entender que nenhuma dessas novidades — nem os chips com IA, nem o treino auditivo — cura a perda de audição ou resolve de forma definitiva a dificuldade de audição no ruído. O que os novos chips fazem é entregar um som “mais limpo e organizado” para o seu nervo auditivo levar ao cérebro. E o que o treino auditivo faz é ajudar o cérebro a extrair melhor o sinal daquilo que recebe.

E isso tem um valor inestimável. Tentar decifrar um sinal fraco no meio de um ruído forte exige um enorme esforço cognitivo. Ao transferir parte do trabalho de limpar o ruído do seu cérebro para o chip do aparelho — e ao fortalecer o próprio cérebro para processar melhor o que chega —, o maior benefício talvez não seja apenas escutar melhor no restaurante, mas chegar ao fim do dia sem aquela exaustão mental esmagadora que todo paciente com perda auditiva conhece.

O chip limpa o sinal. O treino afia o cérebro. Nenhum dos dois é perfeito. Mas juntos, podemos atacar o problema do SNR pelos dois lados.

Recomendação de Leitura

Se você leu até aqui e quer se aprofundar, a minha indicação é o framework FUEL (Framework for Understanding Effortful Listening), publicado por Pichora-Fuller e colaboradores em 2016 no Ear and Hearing. É o artigo que melhor explica por que o esforço auditivo é tão devastador — e por que a compreensão de fala no ruído não é só uma questão de ouvido, mas de cérebro, atenção e energia cognitiva.

Referência: Pichora-Fuller MK et al. Hearing Impairment and Cognitive Energy: The Framework for Understanding Effortful Listening (FUEL). Ear Hear. 2016;37 Suppl 1:5S-27S. Acesse aqui.

Reflexão Final

A dificuldade de compreender a fala no ruído é o problema central da reabilitação auditiva. Não é um detalhe, não é uma queixa menor, e é um problema ainda longe de ser completamente resolvido. Nenhum aparelho auditivo, por mais avançado que seja, devolve ao paciente com perda auditiva a experiência de ouvir como alguém com audição normal em um restaurante lotado. Isso precisa ser dito com clareza, porque criar expectativas irreais machuca mais do que a própria surdez.

É preciso aprender a conviver com essa limitação com leveza, com maturidade e estratégia. Fazer as pazes com o que é real, hoje, é o primeiro passo para viver melhor com perda auditiva.

Dito isso, fazer as pazes não significa se acomodar. A inteligência artificial está transformando o processamento de som dentro dos aparelhos auditivos em uma velocidade que não víamos há décadas. A genética e a medicina regenerativa estão abrindo caminhos que, há dez anos, pertenciam à ficção científica.

É exatamente para isso que a Sinal/Ruído existe.

Na próxima edição, em abril, vamos falar sobre a jornada rumo à cura da surdez. O que é real, o que é promissor, o que é hype, e o que você pode esperar nos próximos anos.

Obrigado por ter lido até aqui.
Luciano Moreira


Referências Citadas Nesta Edição

  1. Saoji AA, Sheikh BA, Bertsch NJ, et al. DNN-Based Noise Reduction Significantly Improves Bimodal Benefit in Background Noise for Cochlear Implant Users. J Clin Med. 2025;14(15):5302. doi: 10.3390/jcm14155302
  2. Saoji AA, Sheikh BA, Bertsch NJ, et al. How Does Deep Neural Network-Based Noise Reduction in Hearing Aids Impact Cochlear Implant Candidacy? Audiol Res. 2024;14(6):1114-1125. doi: 10.3390/audiolres14060092
  3. Korhonen P, Slugocki C. Conversations in noise: Multi-stream architecture vs. deep neural network approach to hearing aids. Hearing Review. 2024;31(12). Acesse aqui
  4. Keller M, Wright A, Raufer S, et al. Leveraging Deep Neural Networks in Hearing Aids. Hearing Review. 2024;31(9):08-15. Acesse aqui
  5. van Wieringen A, et al. ALICE: Improved speech in noise understanding with self-guided hearing care. medRxiv [preprint]. 2025. doi: 10.1101/2025.05.28.25328487
  6. Pichora-Fuller MK, et al. Hearing Impairment and Cognitive Energy: The Framework for Understanding Effortful Listening (FUEL). Ear Hear. 2016;37 Suppl 1:5S-27S. doi: 10.1097/AUD.0000000000000312
  7. Jensen N, et al. Technical comparison of SNR output across hearing aid platforms. Signia/WS Audiology, 2024.
  8. HearAdvisor Lab. Phonak Sphere Infinio 90 Expert Review. Jan/2026. hearadvisor.com

Se você recebeu essa newsletter de alguém e quer receber as próximas, cadastre seu e-mail aqui.

Foto de Dr. Luciano Moreira
Dr. Luciano Moreira

CRM RJ 651923 • RQE Nº: 9780 • Especialista em Otologia

Médico otorrinolaringologista especializado em cirurgias da audição. Referência no Brasil em otosclerose e implante coclear. Atende no Rio de Janeiro e São Paulo.

Foto de Dr. Luciano Moreira
Dr. Luciano Moreira

CRM RJ 651923 • RQE Nº: 9780 • Especialista em Otologia

Médico otorrinolaringologista especializado em cirurgias da audição. Referência no Brasil em otosclerose e implante coclear. Atende no Rio de Janeiro e São Paulo.

6A8C3B25-C7F7-4F70-AEB0-1A4221AA36AB.jpeg-1014x1024

Dr. Luciano Moreira

CRM: 5265192-3

Médico otorrinolaringologista especializado em otologia e cirurgias da audição. Formado pela Universidade Federal de Juiz de Fora, é membro da Academia Brasileira e Americana de Otorrinolaringologia.

Líder da Clínica Sonora, referência no tratamento de surdez, otosclerose e implante coclear. Atende pacientes de todo o Brasil e do exterior por telemedicina e presencialmente no Rio de Janeiro

Academia Brasileira de ORL

Academia Americana de ORL

Especialista em Otologia

Cirurgião de Implante Coclear

Artigos relacionados

Tem dúvidas sobre otosclerose?

Agende uma consulta com o Dr. Luciano Moreira e receba uma avaliação completa da sua audição.