O estudante Bernardo Henrique Pereira Murta, orientado pelo professor Stephan Paul, Dr.Eng. e coordenado pelo professor Júlio Apolinário Cordioli, Dr.Eng., defenderá sua dissertação na próxima sexta-feira (16/08) às 9h no Auditório do Polo. A defesa é vinculada ao Programa de Pós-Graduação em Engenharia Mecânica. O auditório tem capacidade para 80 pessoas.
Título: “Implementação de sistema para ensaios subjetivos de percepção sonora com separação espacial voltado para candidatos e usuários de próteses auditivas”
Resumo
Implantes cocleares são dispositivos desenvolvidos para reabilitação auditiva de seres humanos com perda neurossensorial grave. Há estudos apontando para uma satisfação de até 90% em crianças e por volta de 80% em adultos implantados, apresentando evolução ao longo do uso do dispositivo em todos os casos. Para alcançar resultados positivos o IC necessita indicação e adaptação correta à prótese, além de atividades de treinamento auditivo. Para correta indicação, adaptação e avaliação do benefício pós-adaptação e do treinamento faz-se necessário avaliar a percepção sonora e das diferentes habilidades auditivas por meio de métodos padronizado, permitindo tanto a obtenção de dados diversos sobre as habilidades auditivas de um paciente como também para permitir a intercomparação de pacientes para estudos clínicos. De preferência os métodos de avaliação e seu sequenciamento devem ser adaptáveis para avaliar as habilidades auditivas e auxiliar na definição de etapas de reabilitação e no design e ajuste de próteses auditivas. Dentre métodos de avaliação aplicados ao redor do mundo no âmbito de próteses auditivas, destacam-se métodos de localização de fontes sonoras e percepção de fala em diferentes situações (silêncio e distintos sinais de ruídos competidores), visto que a localização de fontes sonoras e a compreensão da fala são habilidades muito essenciais, mas seriamente comprometidas em situações com ruído competitivo ou reverberação. Apesar da importância da habilidade de localizar de fontes sonoras e da inteligibilidade de sinais de fala frente a ruídos competitivos, estudos apontam que no Brasil menos da metade dos centros de pesquisa e clínicas audiológicas utilizam de ruído competidor no diagnóstico e/ou reabilitação auditiva devido à dificuldade de acesso à tecnologias de reprodução sonora espacialmente distribuída de maneira controlada e limitação de verba devido à necessidade de se importar software e eventualmente hardware. Baseado na análise da literatura e de observações da prática clínica desenvolveu-se um catálogo de features e a descrição do comportamento desejado para um framework de software voltado para aplicação de avaliações subjetivas com usuários de implante coclear e aparelho auditivo em ambiente clínico.
Tendo em vista necessidades futuras de evolução e adição de novas funcionalidades decidiu-se implementar o software de forma modular, permitindo assim a futura integração de novos módulos. A implementação foi realizada em MATLAB, visando aplicação acadêmica e em C#, framework .NET, trazendo compatibilidade com as versões mais recentes do sistema operacional Windows/64-bit visando maior acessibilidade fora dos centros de pesquisa. A implementação foi validada com testes unitários das funções básicas, testes de integração entre módulos e testes de reprodução sonora. O sistema, com os seus módulos implementados, é apto para auxiliar na realização de protocolos de avaliação de percepção de fala com ruído competitivo em diferentes configurações de cenas acústicas objetivando a medição do limiar de reconhecimento de fala (LRF) no ruído.
Os módulos implementados são: 1) Calibração / teste, 2) Configuração de ensaios, 3) Edição de base de dados de áudio, 4) Aplicação de ensaios, 5) Gerenciamento de pacientes, 6) Análise inter resultados e 7) Virtualização de fontes sonoras (VA). Os sinais utilizados são listas de sentenças foneticamente balanceadas, previamente configuradas no sistema a uma intensidade sonora fixa em uma posição relativa ao sujeito (frente, direita ou esquerda) simultaneamente a um sinal de ruído, como babble noise, e speech-shaped noise. Reconhecendo as vantagens de métodos adaptativos, implementou-se a reprodução de sinais com uma razão sinal-ruído (SNR) iterativa, que varia de acordo com a resposta dada à apresentação de cada sentença. O módulo de reprodução sonora utiliza técnicas de espacialização e reverberação permitindo a apresentação de cenas sonoras renderizadas em tempo real pelos métodos V-BAP (panorama baseado em amplitude) e CTC (crosstalkcancellation).
Diferentes set-ups de hardware de reprodução disponíveis em clínicas, tais como arranjos de altofalantes, fones de ouvido e direct-in podem ser utilizados. Nos testes integrados foi possível obter o LRF com a aplicação de ensaios em normouvintes e usuários de implante coclear unilateral em diferentes condições de reprodução sonora de cenas acústicas complexas: sistema de 8 alto-falantes em sala acusticamente controlada, 2 alto-falantes em cabina acústica, com interface de pesquisa CCi-Mobile e com o uso de cabo de áudio de IC. A modularidade proposta se mostrou eficaz já durante o desenvolvimento, visto que funcionalidades de gestão de pacientes foram sugeridas durante os primeiros testes integrados por equipes de fonoaudiologia clínica e prontamente integradas.
Palavras-chave: Implante Coclear. Processamento de Sinais. Acústica de Salas. Psicoacústica. Acústica Subjetiva. Audio Espacial. Reconhecimento de fala no ruído.