Stratégies de traitement du signal sur les aides auditives

Capter un signal, en effectuer la transformée de Fourier, le quantifier sur 1152 sous-bandes et l’encoder en binaire, y appliquer un filtrage psychoacoustique, diminuer les parties les plus fortes du signal, supprimer les plus faibles, renvoyer le tout vers un écouteur.
Capter un signal, en effectuer la transformée de Fourier, y appliquer un filtrage psychoacoustique, ne pas quantifier en sous-bandes mais vectoriser le spectre (en définir la forme le plus précisément possible par des vecteurs), calculer l’intégrale entre le spectre et sa forme vectorielle, comparer cette intégrale avec une banque de modèles et encoder cette erreur (leurs différences) en binaire ( !), reconstituer le spectre original en retranchant l’erreur du modèle de la banque, appliquer d’éventuelles corrections à ce spectre.

Capter un signal, en effectuer la transformée de Fourier, le quantifier sur 1152 sous-bandes et l’encoder en binaire, y appliquer un filtrage psychoacoustique, diminuer les parties les plus fortes du signal, supprimer les plus faibles, renvoyer le tout vers un écouteur.

Capter un signal, en effectuer la transformée de Fourier, y appliquer un filtrage psychoacoustique, ne pas quantifier en sous-bandes mais vectoriser le spectre (en définir la forme le plus précisément possible par des vecteurs), calculer l’intégrale entre le spectre et sa forme vectorielle, comparer cette intégrale avec une banque de modèles et encoder cette erreur (leurs différences) en binaire ( !), reconstituer le spectre original en retranchant l’erreur du modèle de la banque, appliquer d’éventuelles corrections à ce spectre.

Pourrait-il s’agir d’appareils auditifs ?
En fait, il s’agit d’un encodage MPEG1 layer3 (mp3) pour la première méthode et oog-Vorbis pour la seconde…
La première analyse le spectre par bandes, la seconde prend le spectre dans son intégralité.

Deux stratégies différentes d’encodage du signal audio pour deux résultats finalement assez proches à l’écoute.

Le traitement du signal par des aides auditives présente peut-être des similitudes avec la compression audionumérique mais il est assez rare que les fabricants d’appareils auditifs communiquent sur ce sujet, ou alors pour des raisons de marketing, et on comprend les enjeux…

Tout ceci pour réagir à l’arrivée (ou au retour) du traitement de signal ChannelFree® de Bernafon sur sa dernière gamme Vérité®.
Ce concept avait déjà été introduit par ce même fabricant sur la gamme Symbio il y a quelques années. Il consiste à traiter la globalité du signal sur toute la bande passante fréquentielle, plutôt que par canaux, et d’y appliquer une sorte de filtre à pondération fréquentielle pour obtenir la correction désirée en fonction de l’audiogramme. On imagine (c’est secret, bien sûr) que cette « pondération » du signal de sortie dépend du niveau d’entrée, du rapport signal/bruit, de la dynamique résiduelle du patient, etc…
Le but de tout ceci étant d’éviter d’éventuelles distorsions temporelles liées au temps de traitement du signal afin de ne pas dégrader l’enveloppe du signal de parole puisque la détection de la structure fine est perdue très tôt par les malentendants.
A l’opposé de cette stratégie, on se souvient aussi de la technologie de traitement de signal ADRO, basée sur un analyse par canaux ressemblant fortement à une compression MPEG, et dont le « fenêtrage dynamique », capacité à n’amplifier qu’une dynamique définie d’intensités sonores semblait très innovante.

Il faut insister, si besoin en était, sur l’incroyable challenge que représente le traitement du signal « à la volée » sur les aides auditives :
capter un signal d’entrée, le quantifier (étape de numérisation), l’analyser (filtrage, débruitage, anti-larsen,…), prendre des décisions à plus long terme (à l’échelle du temps de traitement du signal) comme l’enclenchement des micros directionnels par exemple, et j’en passe, le tout de manière quasi-instantanée (moins de quelques ms). C’est une vraie performance, mais qui nous paraît banale.
Car le temps de réaction du système sur les aides auditives doit être de l’ordre du millième de seconde, comparé à la compression audionumérique qui a « tout son temps » dans le cas du stockage pour baladeurs numériques (mp3, mp4, aac, ogg, etc…) ou quelques secondes dans le cas de la transmission TV TNT (mp2 ou mp4).

Tout le challenge des fabricants d’aides auditives est d’arriver à traiter toujours plus de données dans un temps de 0+ à 5ms, l’évolutions des processeurs dédiés y pourvoit. Mais l’utilisation d’algorithmes de numérisation et compression de données issus du monde audionumérique « grand public » est quasiment impossible à l’heure actuelle. Jamais on ne parle de cette étape, secret de fabrication bien gardé !

Pour aller plus loin :
Les secrets des formats de compression audio, excellent article de Saad Bennani paru dans « GNU Linux mag, juill/août 2008, n°107, p44-58 » (si la revue n’est plus disponible, contactez-moi)
La technologie ADRO , ce site et cet article
Doc. BERNAFON Vérité

xavdelerce

Audioprothésiste D.E. membre de la SFA créateur du https://leblogaudiologie.com/

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Next Post

Le code évent AOV sur les coques d’écouteurs pour Audéo

ven Mai 22 , 2009
Je viens de découvrir une fonction que je ne connaissais pas dans la dernière version 2.4 de iPFG (PHONAK) :<br />Lors de la sélection d’un appareil Audéo YES, si la coque d’écouteur fabriquée est de type Slim Tip (type coque d’intra, fermée à l’entrée) ou cShell (coque transparente pleine ou totalement évidée, ouverte à l’entrée), le logiciel préconise un évent AOV (évent optimisé acoustiquement). Cet évent est choisi lors de la commande.<br />