Catégorie : La compression

Non, ce n’est pas un billet tiré de « philosophie magazine » ou inspiré par une quelconque mouvance « mindfulness », quoique… allez savoir !

Je reviens à nos moutons audioprothétiques, et là normalement vous allez vous dire que le rédacteur de ce billet est totalement obsédé par ce sujet de… dynamique vocale !

Oui, je vais encore aborder le sujet car il me semble important, et même crucial de connaître l’état de cette dynamique à l’entrée de l’aide auditive, et à sa sortie. Surtout à sa sortie : une aide auditive qui lisserait les contrastes temporels de la parole par une compression trop importante des « crêtes » ou une amplification exagérée des « vallées » en réduirait le contraste dynamique, réduisant du même coup les chances du malentendant appareillé d’extraire ces informations dans un bruit par nature souvent plus stationnaire que la parole.

Mais puisque l’on parle de « dynamique », encore faut-il savoir de quoi on parle. Nous avons coutume de considérer que la parole a une dynamique de 30dB environ. C’est à dire que si l’on mesure son niveau par bandes de 1/3 d’octaves à long terme (ex : 1 minute), les crêtes se situent 12dB au-dessus de ce niveau à long terme, et les vallées 18dB en-dessous, environ.

Cette dynamique de 30dB n’est pas « plaquée » autour du LTASS, elle est le résultat d’une analyse statistique de la distribution des niveaux du signal. Dans le cas de la chaîne de mesure in-vivo, pendant toute la durée de la mesure, la chaîne de mesure « classe » les différents niveaux atteints, et va se retrouver avec une courbe de distribution suivant une loi normale (cas de l’ISTS), ou de densité autre (signaux non vocaux par exemple), et dont les niveaux se répartissent autour d’un niveau médian (= dépassé, ou non-atteint 50% du temps), et qui indique, par exemple,  que 10% du temps le signal  a atteint tel niveau, que 30% du temps il a dépassé tel niveau, etc.

C’est une donc ce que l’on appelle l’analyse percentile du signal. Je vous laisse imaginer le calcul processeur nécessaire pour faire cela « à la volée », mais aussi en parallèle compiler et classer sur le long terme (ex : pendant 45 secondes).

Classer les différents niveaux va permette au final de définir la « dynamique » que nous avons l’habitude de visualiser entre le 30ème percentile (dépassé 70% du temps = les vallées) et le 99ème percentile (dépassé 1% du temps = les crêtes). Et on a coutume de dire que cette dynamique 30/99ème percentile est de 30dB.

Oui… mais pas tout à fait ! Ce calcul est totalement dépendant de la fenêtre temporelle d’analyse du signal. Si on voulait utiliser une analogie avec la photographie ce serait le temps d’ouverture de l’objectif de l’analyseur. En photo, plus longtemps vous « ouvrez », plus vous faites entrer de photons sur le capteur. Si vous êtes en plein jour et que vous ouvrez très longtemps, votre photo sera « cramée », c’est à dire blanche…

La chaîne de mesure fonctionne un peu comme un objectif : elle prendra une « photo » selon un temps d’ouverture, et le résultat de l’analyse percentile (et donc la dynamique du signal) sera très dépendant de nombreux facteurs. Parmi ceux ci, il y a la résolution temporelle de la fenêtre de la FFT, et cette dernière peut avoir une influence sur la résolution fréquentielle de la mesure (voir plus loin).

Pour faire savant, si un signal est échantillonné à 44100Hz (Fs) et que la FFT est réalisée avec un bloc de 1024 échantillons (c’est à dire N = 1024 échantillons temporels, correspondant à une taille mémoire imposée par le matériel), la résolution temporelle sera de N/Fs = 1024/44100=23ms, et la résolution fréquentielle sera de Fs/N = 44100/1024=43Hz. N est toujours une puissance de 2 dans les analyseurs physiques. Le principe de la FFT (Fast Fourier Transform) utilisée, entre autres, dans nos chaînes de mesure est donc de prendre ces 1024 échantillons temporels de 23ms et 43Hz de « large » qui vont aller remplir la mémoire de l’analyseur pour ensuite passer dans un algorithme de calcul FFT. Si on voulait avoir une résolution temporelle de 1 seconde, il faudrait remplir une mémoire adéquate avec 44100 échantillons (dans ce cas, le nombre N d’échantillons temporels serait égal à la fréquence d’échantillonnage Fs).

Dans nos chaînes de mesure, il va y avoir, comme dans tout analyseur matériel, plusieurs limitations. L’une est la taille de la mémoire (qui limite le nombre d’échantillons à analyser), l’autre est la vitesse de transmission du port USB qui limite la résolution temporelle de signaux pouvant transiter vers le PC à des blocs de 46ms (donc impossible de faire transiter des informations plus fines en temporel). Ce n’est pas forcément un problème, car l’analyse idéale, définie par la norme IEC 60118-15 (qui régit l’analyse des signaux de mesure in-vivo), souhaiterait que la mesure in-vivo soit réalisée avec une résolution temporelle de 125ms. Mais c’est, pour l’instant, techniquement difficile, car pour y arriver il faudrait, au choix :

  1. diminuer la fréquence d’échantillonnage du signal, et donc sa bande passante (voir la suite)…
  2. ou alors, si on voulait conserver une fréquence d’échantillonnage de 44100Hz afin de ne pas perdre de bande passante mais garder une résolution temporelle de 125ms (0,125sec), effectuer 0,125ms x 44100Hz = 5512,5  blocs temporels pour le calcul de la FFT, soit 5 fois plus qu’actuellement (en fait, ce serait 2 puissance 12 ou 2 puissance 13 blocs temporels pour être exact).

Tout est une question de moyens financiers que l’on veut mettre dans du matériel possédant des capacités aussi importantes… Notez quand même qu’à l’heure actuelle, un matériel distribué en France par la société AURITEC, le Verifit2 d’Audioscan, permet une résolution temporelle de 128ms avec une bande passante (in-vivo et coupleur) de 16kHz, donc 4096 blocs temporels (32000Hz*0,128ms) pour le calcul de la FFT. Il s’agit d’une chaîne autonome (non reliée en USB au PC), tournant sous Linux, avec processeurs dédiés.

Si on applique cette méthode d’analyse idéale (norme IEC 60118-15), donc avec fenêtre de 125ms (donc N=Fs x 0,125ms = 5512,5), pour un signal (ISTS) émis à 65dB SPL, on obtient :

ISTS_30_99_125ms_65dB SPL

En observant l’analyse ci dessus, on constate bien que la dynamique entre les percentiles 30/99 est d’environ 30dB à 3kHz,et d’environ 20dB à 400Hz.

Mais si on avait analysé le signal avec une fenêtre de résolution temporelle 1 seconde (N=44100 échantillons temporels), pour un ISTS toujours à 65dB SPL, on aurait eu :

ISTS_1s

La fenêtre d’analyse étant plus grande, et si on suppose que les zones faibles (comme les fortes) du signal sont très brèves, elles ont été « diluées » en quelque sorte avec les zones moyennes (entre les percentiles 50 et 65), plus représentées statistiquement. La dynamique a été divisée par 2 (env. 15dB à 3kHz). La parole peut être considérée comme un signal stationnaire… (Citation de Franck L. 😉 ).

Poussons le raisonnement à l’inverse, avec une fenêtre de résolution temporelle de 5ms (de l’ordre du phonème, avec N=220,5 écantillons temporels) :

ISTS_5ms

La dynamique du signal passe à 30dB à 400Hz, et environ 37dB à 3000Hz. Mais surtout, vous remarquerez la perte de résolution fréquentielle  dans les basses fréquences. C’est mathématique : la durée de la fenêtre temporelle doit être au moins 5 fois plus longue que la période du signal à analyser : donc ici pour 200Hz, fenêtre temporelle minimale = 5 x (1/200Hz) = 0,025 = 25ms. La fenêtre temporelle de 5ms n’est pas adaptée à l’analyse de signaux de 200Hz, et pour être exact, cette résolution temporelle ne permet même pas une analyse correcte de signaux inférieurs à 900Hz car leur période (= 1/fréq) est supérieure à la résolution temporelle de la fenêtre d’analyse… ce qui veut dire en clair que nous n’aurons jamais accès à des événements brefs (impulsionnels), dans les graves tout au moins avec les méthodes de type analyse FFT utilisées actuellement sur nos chaînes de mesure. Mais d’autres méthodes existent pour ces événements impulsionnels, et peut-être les verrons-nous dans de futurs modèles de chaînes de mesure…

AN : avec une résolution temporelle de 23ms sur une chaîne de mesure, la plus basse fréquence analysable correctement est de 5/0,023 = 217Hz. On comprend mieux pourquoi l’ISTS a été créé avec des voix de femmes et un fondamental laryngé de 200Hz, et pas des voix d’hommes avec un F0 à 125 ou 150Hz…

Et enfin, ce que font nos chaînes de mesure avec une résolution temporelle de 46ms (2 blocs de 23ms moyennés = 2 x 1024 points moyennés) :

ISTS_65dBSPL_46ms
Vous remarquerez que la dynamique percentile 30<–>percentile 99 est un peu plus importante que celle du signal analysé en 125ms. Tout est relatif donc dans ce genre de mesures et d’analyse de la dynamique du signal…

Le facteur temporel d’analyse, qui découle donc de la fenêtre FFT (1024 échantillons sur nos chaînes de mesure), a donc des répercussions sur la lecture des mesures. La dynamique de la parole (ou d’un autre signal) est tout à fait relative, en fonction des paramètres d’analyse, souvent dictés par le matériel. Les audioprothésistes (les fabricants de nos chaînes de mesures…) sont face à un dilemme :

  • nous donner accès à des événements très brefs et potentiellement agressifs pour le patient, en lecture de crêtes, mais en perdant de la résolution fréquentielle et en sachant que ce n’est pas possible en basses fréquences (avec les méthodes d’analyse actuelles)
  • nous donner accès à la meilleure résolution fréquentielle possible pour les réglages en perdant en résolution temporelle, et donc en risquant de ne pas avoir la lecture d’événements potentiellement agressifs…
  • … je résumerais donc ce dilemme avec une maxime de Pierre DAC : « Plus je pédale moins fort, moins j’avance plus vite » !

Il y a donc un compromis dans la mesure, pour l’usage en audioprothèse, et qui va être :

  • de ne pas descendre sous quelques dizaines de ms afin de garder une bonne résolution fréquentielle (en BF),
  • d’aller au-delà de 125ms afin de visualiser l’effet des compressions sur le signal amplifié par la lecture de sa dynamique,
  • … mais tout en sachant que se rapprocher de 125ms permet une bonne résolution fréquentielle (idéale selon la norme)…
  • … donc de se situer dans une fourchette d’analyse 40 <–> 125ms… c’est justement celle choisie par les fabricants de chaînes de mesure !
  • … et tout cela dans la mesure du possible d’une chaîne de mesure reliée à un PC et qui est limitée par son port USB ne pouvant transmettre des segments de plus rapides que 46ms !

On peut imaginer dans un futur pas si lointain la possibilité  de se rapprocher des préconisations de la norme IEC de 125ms, avec un port plus rapide, voire un système autonome (chaîne de mesure ayant une fréquence d’échantillonnage plus importante que 44100Hz, avec processeurs dédiés à l’analyse et tournant sous son propre OS). Allez savoir, il est bien possible que ce soit dans les cartons…

Mais pourquoi tout ce cirque avec une analyse précise de la dynamique ?

A des niveaux « normaux » (efforts vocaux moyens), la lecture précise de la dynamique du signal amplifié est réellement utile, car elle peut être détruite par une compression trop importante qui en lisserait les crêtes, mais, c’est moins connu, également par une amplification trop rapide et importante des vallées (réduction de la dynamique par le bas). C’est ce qu’avait montré Holube en 2007 (interview pour Audiology Online de l’initiatrice de l’ISTS) :

 

 

TA_TR rapides

Le graphique de gauche montre le signal amplifié par une aide auditive à temps d’attaque (TA) et temps de retour (TR) très rapides. Les vallées, dès qu’elles faiblissent, sont amplifiées très rapidement; les crêtes, dès qu’elles apparaissent sont lissées très rapidement également. Il en résulte une très nette diminution de la dynamique par rapport à un système plus lent (graphique de droite). Pour aller plus loin, vous pouvez également consulter ce document très intéressant (enfin, je trouve !).

Attention donc : sur quelques appareils, nous avons encore indirectement la main sur ces facteurs temporels, par le choix (obscur, j’adore !) de la « typologie du malentendant » et notamment un fameux choix « dynamique ». Les connaisseurs de ces fabricants reconnaitrons de qui je veux parler…

Juste pour vous montrer ce que devient le signal extrait d’un RSB 0dB, d’un appareil que j’avais testé précédemment sur ce blog, avant son amplification, puis après (émission à 65dBA, fenêtre d’analyse IEC 60118, de 125ms) :

Dyn ISTS in SNR0Dyn_voix extr SNR0

La dynamique est réduite après amplification, au maximum, d’environ 5dB. Il y a donc un respect de la dynamique du signal, même en milieu bruyant. Ce n’est pas toujours le cas… (des noms ! des noms !). Ce n’était pas du tout le cas il y a quelques années, et c’est là que les choses ont beaucoup évolué, il faut le reconnaître. Notez au passage l’amplification du signal @ 3kHz = 28dB.

Voilà ce que subit le bruit avant et après amplification par le même appareil, extrait du même mix à RSB 0dB :

Dyn ISTSnoise in SNR0

Dyn_bruit extr SNR0

Le bruit n’a pas de dynamique (c’est l’IFnoise), ce qui rend d’ailleurs « l’audition dans les vallées du bruit » très difficile; sa dynamique n’est donc pas affectée… puisqu’il n’en a pas. Notez au passage l’amplification du bruit @ 3kHz = 22dB, alors que les deux signaux ont été émis strictement au même niveau (RSB 0dB) et ont la même densité spectrale de niveau. Le signal est détecté, traité et amplifié de manière sélective (+6dB d’amplification par rapport au bruit).

Imaginons maintenant que la dynamique de sortie du signal n’ait pas été respectée (écrasée), cette différence d’amplification entre le signal et le bruit aurait été réduite à néant, car nous l’avons vu, la dynamique du signal avait déjà été réduite de 5dB par les compressions déjà « douces » (CR env. 1.2); une trop grande compression (protection) de la part de l’audioprothésiste aurait encore réduit cette dynamique, lui faisant perdre ses quelques dB d’émergence.

On le voit donc, la lecture de la dynamique du signal est extrêmement importante. Son respect par les algorithmes de traitement du signal est crucial. Pour info, la plupart des chaînes de mesure utilisent résolution temporelle de 46ms, mais en « overlapping », c’est à dire en faisant se chevaucher plusieurs blocs temporels à 50%, arrivent à 92ms de résolution temporelle, et donc se rapprochent des 125ms de l’idéal standard (j’en avais déjà parlé dans un billet traitant des diverses constantes de temps des chaînes de mesure in-vivo). Vous pouvez accédez à cette fonction dans le paramétrage de vos chaînes de mesure.

Tout cela montre bien la subtilité de toutes ces analyses, mais nous fait aussi prendre conscience (attention : psychologie magazine !) que nous voyons le monde, en général, à travers… une fenêtre !

###############################################

Atelier informatique

###############################################

Pour ceux qui seraient intéressés, cette analyse percentile du signal est réalisable avec une fonction (script) écrite pour le logiciel R.

Ce programme a été écrit par Nathan D. Merchant pour accompagner leur article sur l’acoustique des habitats écologiques. J’en ai modifié le code source afin de l’adapter à l’analyse percentile du signal au audioprothèse. Vous pouvez, si vous le souhaitez, en modifier également les bornes percentiles (ici j’ai défini 30, 50, 65, 95 et 99, dans le fichier Viewer.R). Vous trouverez le script de cette version modifiée ici. Téléchargez les fichiers PAMGuide.R et Viewer.R et mettez-les dans un dossier (votre bureau par exemple). Ouvrez R et définissez ce dossier comme répertoire de travail, puis tapez les commandes suivantes :

source("/votre dossier de destination/PAMGuide.R")

Vous pouvez aussi, sans taper cette commande, accéder au menu « Sourcer fichier » dans R et sélectionner « PAMGuide.R », puis taper :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, Hcut=16000, N=5512.5)

Cette commande déclenche une boîte de dialogue vous demandant de choisir un fichier .wav pour analyse. Cette dernière est effectuée en 1/3 d’octave (TOL), en bande passante de 200 à 16000Hz, et avec fenêtre temporelle de 125ms (N=5512,5). Le paramètre temporel N est fonction de la fréquence d’échantillonnage du signal à analyser : si vous avez 44100Hz de f.e., N=44100 x 0,125 =5512,5. Pour un signal échantillonné à 96000Hz, avec fenêtre d’analyse de 46ms, N = 96000 x 0,046 = 4416. Dans le cas où vous souhaiteriez avoir les valeurs en dB SPL (comme ici) et non pas en dB relatifs, utilisez le paramètre « calib=1 », puis définissez la sensibilité en dB du paramètre Mh en fonction de votre calibration (ici, un fichier .wav de calibration à 94dB SPL a servi de référence pour définir précisément Mh).

Par exemple pour une analyse de l’ISTS (fichier son téléchargeable sur le site de l’EHIMA), en dB absolus (et RMS = 65dB SPL) et fenêtre temporelle de 1 sec. :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=44100, calib=1, Mh=-3.4)

Et pour finir, l’analyse standardisée IEC 60118-15 en audiologie/audioprothèse, pour l’ISTS :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=5512.5, calib=1, Mh=-3.4, winname="Hann", r=50)

Suite du premier et second billet.

Troisème test après celui ci et celui ci.

Troisième (et dernier) candidat : WIDEX UNIQUE 440 Fusion

Il s’agit d’un RIC pile 312, successeur du circuit DREAM 440.

Le Widex UNIQUE marque une rupture technologique qui semble importante chez ce fabricant puisque l’on a pour la première fois une détection automatique de 9 environnements sonores différents, le choix entre la transposition fréquentielle « classique » ou une duplication (mais ce n’est pas le sujet qui nous intéresse aujourd’hui), 4 convertisseurs A/D  de 18bits, soit pas loin de 108dB de dynamique, un seuil d’enclenchement possible vers 5dB SPL (étonnant), etc… Surtout, et là c’est plus surprenant (pour les audios habitués à la marque) et intéressant, l’amélioration de l’intelligibilité ne repose pas uniquement sur un réglage de « réduction du bruit » à proprement parler, mais plusieurs réglages de détection et et d’amplification de la parole (Speech Enhancer), dont un mystérieux réglage « Audibilité ». Widex explique d’ailleurs que les patients agissant sur le potentiomètre à la hausse, agiront spécifiquement sur ce réglage de renforcement de la parole.

Alors ? Marketing tout ça ou réelle avancée technologique ?

Appareil testé sur un pré-réglage avec méthodologie propriétaire Widex, base audiogramme KS100. Le LTASS de la voix moyenne (65dB SPL) a été mis sur une cible sur DSL 5.0a, base insert et RECD HA1, comme pour les autres appareils testés, afin de tous les comparer dans des conditions de réglages similaires. Pour ce Widex UNIQUE comme pour les autres appareils testés, les rapports de compression sont restés tels que préconisés par leurs fabricants respectifs.

Laisser faire les automatismes ou « fixer » l’appareil dans un mode particulier ?

Connaissant depuis un petit moment déjà l’anti-larsen Widex, on pourra certes lui reprocher plein de choses, mais en aucun cas d’inverser la phase du signal. C’est le genre d’effets collatéraux que l’on découvre en faisant ce genre de tests… Donc, et contrairement aux autres fabricants testés précédemment, j’ai décidé :

  • dans un premier temps, de le tester en désactivant la détection automatique d’environnements, d’activer le micro directionnel fixe avant, mais en activant ce fameux réglage « d’audibilité » au maximum; donc en fixant l’appareil dans une sorte de mode « parole dans le bruit », avec anti-larsen actif
  • puis de le tester dans un second temps « tel quel », sans activer, désactiver ou sur-activer de traitement du signal particulier, ni désactiver la reconnaissance automatique d’environnements. Je ne l’avais pas fait lors des essais précédents, les extractions n’auraient alors pas été possibles à cause de l’anti-larsen par opposition de phase des deux appareils précédents testés (et dans une moindre mesure, de la détection automatique des environnements)
  • enfin, de comparer les deux conditions afin de savoir si ce réglage d’extraction de la parole améliore réellement le RSB

Les résultats « visuels » à RSB -5dB :

U440_AUDIB_SNRm5

Les connaisseurs de Widex reconnaitront le fonctionnement typique de la marque : la réduction du bruit et/ou l’activation du mode directionnel est très progressif, mais nettement plus rapide que sur les modèles précédents où il fallait 10 à 15 secondes à l’appareil pour activer ses divers systèmes. Sur cet UNIQUE440, c’est beaucoup plus rapide : environ 7 secondes. Les crêtes semblent bien préservées tout au long de la mesure, n’oublions pas que nous sommes à un RSB de -5dB en entrée.

On écoute ?

 Voici d’abord ce que le micro de référence capte en cabine à RSB -5dB :

REF_CABINE_SNRm5Et ce que ça donne à l’écoute en cabine, sans appareil (il y a de l’ambiance !) :

 Et voici avec l’appareil, toujours à RSB -5dB en entrée, réglage d’audibilité au maximum (c’est l’écoute du visuel avec les zones temporelles entourées) :

On sent très nettement, entre la 12ème et la 15ème seconde, la réduction du bruit. La parole devient alors de plus en plus audible. Est-il plus probable que ce que l’on entende soit dû à l’enclenchement du microphone directionnel et/ou à l’activation d’un réducteur de bruit ? Nous verrons cela plus en détail par la suite… Suspenssssssss inssssssoutenable !!

 Des chiffres (réglage « Audibilité » maximum + micro. dir. fixe avant) :

Juste à noter, un détail : les extractions des signaux issus du Widex UNIQUE 440 ne peuvent se faire qu’avec un alignement par l’enveloppe des signaux SpN, SmN, mSmN et mSpN. Impossible d’avoir des extractions correctes en alignant par la structure fine… à l’inverse des deux autres fabricants testés ! Mystère…

U440_audMax_micDir

On trouve sur ce graphique :

  • ce que capte en parallèle le micro de référence (lignes 10 à 14)
  • les Leq en dBA(30s) respectifs du signal et du bruit (colonnes D et E)
  • lignes 3 à 7 : les extractions avec le UNIQUE 440
  • colonne C3<–>C7 le RSB réel en entrée (issu du micro de réf.)
  • colonne I3<–>I7 le RSB en sortie de l’appareil
  • colonne J17<–>J21 la différence entre le RSB à la sortie de l’appareil et le RSB réel en cabine (mic. de réf.)

La parole est très stable (delta de 3,5dB de RSB +10 à RSB -10), l’appareil « n’emporte pas » le signal avec le réducteur de bruit (ça arrive des fois…). Le bruit varie de 20 dB en entrée pour 17dB en sortie.

L’amélioration du RSB par l’appareil est d’environ 8dB dans ce mode (colonne I – colonne C) de +10 à à 0dB en entrée. Les deltas sont en J17<–>J21.

On est donc face à un appareil très performant dans le bruit, présentant un très efficace mode directionnel, mais couplé à un système qui semblerait préserver (donc différentier ?) le signal utile. Comment mettre en évidence ce système ? S’agit-il plutôt d’un réducteur de bruit ou d’un détecteur/expanseur de parole ?

« Audibilité renforcée » : réglage utile ou gadget ?

Vous vous demandez certainement (comme moi…) si le fait de déplacer un curseur de deux crans va réellement agir sur l’audibilité de la parole. Et quelle est l’action de ce réglage ? Une réduction du bruit dans les silences de la parole permettant une émergence du signal utile (comme le Bernafon) ? Ou au contraire une détection des indices vocaux et une amplification renforcée sélective ?

Une seconde série de mesure à été refaite :

  1. comme la précédente, audibilité max et mic. directionnel avant fixe
  2. réglage « standard » en mode automatique total

AN : le réglages sont très reproductibles, puisque les deux mesures faites en « audibilité max. + mic. dir. » sont quasi-identiques sur les deux mesures.

Réponse avec l’analyse LeqA des divers signaux extraits sur les 30 dernières secondes (de 40″ à 1’10 ») du mix signal + bruit (donc après l’activation du microphone directionnel qui a dû se produire dans les 7 premières secondes) :

U440_STDvsAUDIB

Les réglages des gains sont les mêmes dans les deux conditions :

  • Il n’y a quasiment pas de différence entre les niveaux du bruit (lignes E3/E7 et E11/E15) avec le réglage d’audibilité « moyenne » ou « maximum » : le LeqA(30s) évolue dans les deux conditions de 63 à 80dB environ de +9 à -11dB de RSB(in). Le réglage d’audibilité n’est donc pas principalement un réducteur de bruit.
  • Par contre, on constate un net renforcement du signal de parole entre les deux conditions : +3 à +5dB en « audibilité maximum » par rapport au réglage « standard » (lignes D3/D7 par comparaison à D11/D15).

C’est donc l’action de ce réglage qui explique l’amélioration du RSB entre les deux conditions. Il ne s’agit donc pas d’un réducteur de bruit, mais bien d’une détection spécifique et d’un renforcement du signal de parole.

Voici la progression du UNIQUE 440 :

U440_auto_audib

L’amélioration du RSB est de 4dB environ en « mode auto » (courbe orange), ce que bien des fabricants aimeraient atteindre en mode directionnel fixe et RB au maximum… On notera juste que l’appareil, dans les deux modes de réglages va privilégier le confort plus que l’efficacité sous RSB 0dB.

Par contre en mode d’audibilité renforcée (courbe rouge), l’appareil regagne encore 4dB de RSB, ce qui donne au total une amélioration du RSB de 8dB entre 0 et +10dB et 6 à 7dB environ entre -10 et 0dB. Impressionnant tout de même, c’est le maximum mesuré jusque là entre les divers fabricants en monaural…

Au-delà de la performance pure, certains appareils performants atteignent quasiment ce niveau, mais avec une qualité sonore du signal utile très « artificielle » (je présume, hachée par les compressions). Ici, et c’est souvent le cas chez Widex, la qualité du son reste très bonne. Les extractions (en sortie de l’appareil) donnent un signal de parole clair, comme ici extraite des 30 dernières secondes d’un mix RSB -5dB :

Ca fonctionne quand même bien la méthode de séparation des signaux par opposition de phase… Merci Messieurs Hagerman & Olofsson !

Il faudra un jour que je vous fasse écouter les extractions de parole de 7 fabricants testés, en blind test : nous aurons des surprises dans la qualité sonore… C’est un aspect des choses ignoré, mais qui doit avoir aussi son importance…

Emergence du message

Widex dit utiliser un SII « HD » dans son algorithme. Je ne connais pas de norme SII « HD »… mais la bonne vieille (et toujours en vigueur) norme ANSI S3.5-1997 qui définit le calcul du SII, auquel, c’est vrai, on peut ajouter un calcul (non encore normé) du SII bilatéral. Bref… améliore t-il le SII ? On peut présumer que oui puisque la parole est détectée et amplifiée sélectivement.

Voici ce qui se passerait si l’appareil n’améliorait pas le RSB (situation encore fréquente ces dernières années…) :

U440_SNR0in_SNR0out RSBin_equal_RSBout_corr_KS100Le SII avec l’appareil serait d’environ 0,38 à RSB 0dB.

Et avec l’appareil, dont l’amélioration RSB est d’environ 7,2dB à RSB 0dB en entrée :

U440_SNR0in_SNR7out U440_SIILe SII passe à 0.61 (SII calculé sur base audiogramme KS100, signal à l’avant et bruit arrière, par le logiciel SIP-Toolbox).

On obtient une émergence améliorée de 23% du signal par rapport au bruit. Pour vous donner une idée : un SII de 0,33 est suffisant à un normo-entendant pour répéter 50% des mots de listes dysyllabiques, et 0,4 pour répéter 90% des phrases d’un test (selon la norme SII).

Vous noterez au passage qu’il serait impossible d’obtenir un SII supérieur à 0,8…

Conclusion(s)

  • Le réglage « Audibilité » de ce Widex UNIQUE 440 fonctionne bien comme un détecteur et « expanseur » de parole
  • absence de potentiomètre standard, remplacé par ce réglage croissant de détection de la parole améliore progressivement de RSB; vous êtes gêné pour comprendre dans le bruit = appuyez sur la touche + !!!
  • les meilleurs résultats dans le bruit (+8dB de RSB) sont obtenus avec un programme spécifique, en désactivant le détecteur d’environnements, en mode directionnel fixe et audibilité au maximum, comme sur les modèles testés précédemment. La directionnalité fixe potentialise toujours nettement l’action des algorithmes.

Fichiers et extractions

Pour les incrédules de la méthode (ou des résultats obtenus), ce que je peux comprendre, vous trouverez à l’adresse de ce lien tous les fichiers de calibration des micros de référence (Behringer) et de mesure (DPA) ainsi que les enregistrements avec ce UNIQUE 440 FS, découpages des séquences et extraits correspondants de parole et bruit à chaque RSB. Condition de test : Audibilité max. et mic. dir. fixe avant.

Formule d’usage : l’auteur signale un lien d’intérêt avec le fabricant testé, puisqu’il a accepté de me prêter cet appareil avant sa commercialisation officielle, mais pas dans le but de ces tests. Le « risque » est relativement important pour Widex qui a décidé de prêter quelques appareils à des fins comparatives à des patients déjà équipés de technologies évoluées. Si les résultats n’avaient pas été à la hauteur, je n’en aurait peut-être pas parlé, et chacun se serait fait son idée. Ce n’est pas (à mon humble avis), le cas. Comme d’habitude, n’y voyez aucune malice (et d’ailleurs, j’arrête la diffusion publique de ces tests, en attendant que les facs, en études multi-centriques, prennent le relai avec du matériel professionnel en cours d’installation), ne déduisez rien d’absolu au vu des seuls résultats. L’appareillage auditif est une alchimie entre l’audioprothésiste, son patient et la technologie la plus appropriée qu’ils choisissent en commun.

Ce troisième test conclura donc les billets sur l’analyse du RSB en sortie d’aide auditive par la méthode de séparation des signaux de Hagerman & Olofsson. Elle est cependant incomplète, car potentiellement améliorable par une même mesure, mais en binaural.

Il est intéressant (j’espère) et rassurant de voir que la technologie a énormément évolué ces dernières années. Ce que nous ressentons vaguement dans les dires de nos patients est une réalité tangible et mesurable avec quelques appareils récents.

J’ai entendu parler (mais je ne lis pas ce genre d’articles) qu’un journal de consommateurs assimilait les appareils auditifs à des biens électroniques de grande consommation, et dont le prix ne pouvait que baisser dans le temps, comme tout bien électronique qui se respecte… C’est bien vite oublier que toutes ces améliorations sont le fruit d’algorithmes de plus en plus sophistiqués associés à l’évolution de composants ultra-spécifiques à l’appareillage auditif. Ces derniers ne sont qu’au service des premiers. Car, quelle est la différence entre l’appareil d’il y a 5 ans, et par exemple ce Widex UNIQUE 440 ? Pas le micro directionnel…

Cette recherche, je veux bien le croire, nécessite des moyens colossaux en temps, en cerveaux et technologie.

Les appareils de 2015 n’ont finalement plus grand chose en commun avec ceux de 2005, mais présentent des spécificités importantes de comportement inter-marques.

Entre celui qui privilégie le confort avec une diminution de sonie importante, mais en conservant toujours un RSB amélioré, celui qui mise sur un « nettoyage » du bruit dans les silences de la parole, celui qui va chercher à améliorer la perception des crêtes afin d’améliorer le RSB, et que sais-je encore, les différences de fonctionnement sont très variées et très différentes selon les fabricants.

Pouvons-nous penser un seul instant que tous pourraient s’adapter indifféremment à n’importe quel patient ? Certainement pas…

Malheureusement, la seule lecture des fiches techniques ne nous renseignera pas sur leurs manières d’agir. Et certaines fois, la présentation de ces technologies se résume à une soirée promotionnelle…

A nous d’être curieux 😉

« Send out the Signals… Deep and Loud ! »*

Et pour finir cette série de 5 billets sur une note légère, un peu de musique avec un très beau morceau de Peter Gabriel (* paroles de la chanson) qui colle bien au sujet : Signal to Noise ! Où même le bruit peut devenir signal, si on le décide…

 

 

Encore merci à Franck et François-Xavier !

La technique d’extraction du signal et du bruit à la sortie d’une aide auditive proposée par Hagerman&Olofsson est fréquemment utilisée en mastering audio, sous le nom de « NULL TEST« . Elle permet entre autres, de quantifier la perte de qualité liée à un ré-échantillonage ou compression « lossy » du signal d’origine.

Comme nous l’avons vu précédemment, Miller (2013) utilise 4 signaux pour l’extraction et l’estimation du facteur de qualité de cette extraction, permettent une analyse du RSB assez robuste à la sortie d’une aide auditive :

  • (+S+N) + (+S-N) extrait le signal (+6dB)
  • (+S+N) + (-S+N) extrait le bruit (+6dB)
  • et (+S+N) + (-S-N) extrait… rien !, ou plutôt devrait tendre vers -∞ mais en réalité « doit être 20dB plus faible que le plus faible extrait des deux précédents (parole ou bruit) ». C’est un critère de qualité/d’erreur décrit dans la thèse de Taylor (voir post précédent).

La difficulté majeure de ce type de test vient de l’alignement de tous ces signaux : plus elle est rigoureuse et précise, plus le calcul fera « disparaître » les signaux se retrouvant en opposition de phase. Et ça se joue quelques échantillons près (un échantillon avec une fréquence d’échantillonnage de 96kHz dure… 10μs !).  Les éléments technologiques présents dans les aides auditives actuelles rendent très difficile cet alignement :

  • les anti-larsen notamment ont tendance à inverser la phase du signal pendant le test, et bien sûr, jamais au même moment…
  • Les systèmes « d’aide à la décision » analysant également la scène sonore ont tendance à ne jamais faire exactement la même chose au même moment entre deux mesures.
  • Enfin, entre autres joyeusetés, les appareils peuvent présenter un phénomène de « Time shifting », c’est à dire qu’ils allongent (certes de quelques pouillèmes de sec…) le signal, mais jamais non plus aux mêmes endroits des tests…

Bref, une solution s’impose : se méfier des anti-larsen ( = les désactiver) et fixer les appareils dans un mode programme défini. De là à dire qu’il faudrait faire pareil avec les appareils de nos patients… mais ça pourrait des fois se discuter pour des raisons de qualité sonore !

Alignement précis = élimination précise de la parole ou du bruit = besoin d’un enregistrement « HiRes », c’est à dire en 96kHz/24bits = de bon gros fichiers .wav pour 45′ environ d’enregistrement (RSB testés +10/+5/0/-5/-10dB, pour 4 configurations différentes +S+N, -S-N, +S-N et -S+N).

Bien aligner ensuite tout le monde, pour bien éliminer ce qui doit l’être. Exemple avec l’ISTS et l’IFnoise à RSB -4dB :

 

SpN+SmN

 

Le signal +S+N à l’écoute :

 

Le signal +S-N à l’écoute (aucune différence à l’oreille) :

 

 

Ici deux fichiers +S+N et +S-N se retrouvant strictement synchronisés (configuration Hagerman & Olofsson de 2004), l’addition des deux va donner la parole + 6dB, le bruit en opposition de phase dans +S-N, s’annulant avec +S+N :

 

Parole extraite

 

Pour ceux qui voudraient écouter le signal extrait (extraction médiocre… non conservée) ci-dessus, non trafiqué, même si ça a un petit côté magique :

 

 

Et si vous ne me croyez pas, vous pouvez télécharger ces +S+N et +S-N et les fusionner dans Audacity, vous retrouverez bien la voix extraite ! Et si vous avez tout suivi, et que vous maîtrisez un peu Audacity, avec ces deux extraits, vous pourriez même, connaissant le RSB à l’entrée (-4dB), reconstituer le RSB à la sortie de ce Widex Dream Fashion 440 😉

Allez, je vous aide ! On n’a rien sans rien…

Cet alignement est très long et fastidieux. Si vous avez eu le courage de tenter la manip ci-dessus, vous avez dû comprendre. Et encore, les signaux sont déjà alignés et tous prêts à l’emploi !

Une solution :

mise en place par Franck LECLERE et avant lui, l’institut Fraunhofer (François-Xavier NSABIMANA), a été un traitement par lots (batch processing) des divers fichiers enregistrés à divers RSB avec « alignement automatique », basé soit sur la structure fine, soit l’enveloppe du signal (au choix, selon les appareils) :

 

Décomposition signal_Seewave

 

Pourquoi des signaux mesurés à la sortie de certains appareils s’alignent mieux avec l’enveloppe (une majorité) ou d’autres par la structure fine ? cela reste un mystère…

Donc pour faire court, on obtient :

  • un « train » de 4 signaux à 5 RSB différents (20 combinaisons),
  • enregistrés en 96kHz/24bits,
  • qu’il va falloir découper,
  • puis aligner entre eux afin d’en extraire la substantifique moelle (y’a pas que l’audio dans la vie… vous lisez trop le blog !) :

 

TrainH&O

C’est un algorithme Matlab qui va découper ce train, aligner les signaux (ici sur l’enveloppe) et extraire signal et bruit. Il ne restera plus qu’à recalculer le RSB à la sortie.

Conditions de test :

  • Signal ISTS, bruit IFnoise (même densité spectrale de niveau), téléchargeables sur le site de l’EHIMA
  • Appareil réglé selon méthodologie fabricant, dont le niveau de sortie pour l’ISTS à 65dB SPL d’entrée a été fixé dans un coupleur 2cc sur cible DSL 5.0a (EAR + RECD HA2) sur la base d’un audiogramme normalisé KS100 (sans inconfort entré)
  • Cabine : TR 0,23s et BDF 27dBA
  • HP : 1 à l’avant (émission de l’ISTS) à 0.70m et 2 à l’arrière (émission de l’IFnoise) à 135 et 225°, à 1,5m chacun
  • Etalonnage du niveau d’émission de l’ISTS par sonomètre au niveau du micro de l’AA par Leq 30s en dBA; étalonnage identique pour l’IFnoise
  • Emission du signal numérisé par lecteur Cowon PLENUE 1 relié en optique au convertisseur D/A d’un ampli NAD C375 BEE
  • enregistrement en fond de coupleur HA1 ou HA2 par un microphone DPA 4061 en 96kHz/24bits, en acquisition sur enregistreur Roland R26
  • enregistrement en parallèle (micro de référence) par un microphone BEHRINGER ECM8000 afin de vérifier la RSB à l’entrée
  • Calibration des deux microphones avant enregistrements par calibrateur B&K 4231
  • Découpage, extraction et calcul du RSB à la sortie de l’AA par un code Matlab sur les 30 dernières secondes de chaque mesure (afin de laisser les algos se stabiliser) pour l’enregistrement de l’appareil, et pour l’enregistrement de référence

Le premier testé sera un appareil qui ne prêtera pas à polémique, puisqu’il n’est plus diffusé : un Widex Inteo 19, de 2006 si j’ai bonne mémoire. Il y a eu 3 générations de circuits après cet appareil (puces Mind, Clear puis Dream).

On obtient, par exemple à RSB -10dB, la séparation des signaux :

 

Exemple fig extraction RSB-10dB

 

Voici sa progression :

 

IN19

 

Pas d’amélioration du RSB, sauf à -10dB (lissage du bruit par la compression WDRC, j’en avais parlé dans l’article précédent) et détérioration (légère) du RSB à +10dB par l’effet inverse (= un lissage des crêtes du signal utile).

On retrouve tout à fait les résultats décrits par Taylor & Johannesson en 2009 (le Widex Inteo avait un temps de retour variable, comme le lièvre, mais plutôt long) :

 

Capture

 

Par la même occasion, si vous avez eu la patience de lire la thèse de Miller (2013), les résultats étaient quasi identiques avec son successeur, le Widex Mind 440.

Je précise : les autres fabricants ne faisaient pas mieux à l’époque, voire plutôt moins bien.

 

A suivre…

En audioprothèse, nous nous sommes longtemps contentés d’un affichage en « 2D », c’est à dire Gain/Fréquence ou Niveau de sortie/fréquence.

Exemple classique:

noeud 6K

Les spécialistes reconnaitront le type de mesure… et son erreur !

Ces représentations graphiques étaient valables pour des signaux stables en intensité à une fréquence donnée, c.à.d. ne fluctuant pas au cours du temps. Mais intégrer la « troisième dimension », le temps, ne rendrait pas les choses très faciles non plus; nous aurions accès aux variations temporelles, en perdant les informations spectrales (ici le famous fabricant 1…):

AC9_ISTS_OVG_RSB0_temporal domain

L’utilisation de la parole comme signal de test, fluctuant en intensité, change la donne. Pour s’en convaincre, la mesure du premier graphique à été réalisée avec un signal de parole (l’ISTS). Ce signal, normalisé, présente des fluctuations d’intensité de plus de 30dB. La mesure du graphique ci-dessus également avec le même signal. Nous avons donc deux représentations différentes qui présentent toutes deux des informations intéressantes, mais chacune incomplète.

Comment concilier spectral et temporel en quelque sorte ? Comment obtenir la classique représentation spectrale mais en intégrant le traitement des fluctuations d’intensité par l’aide auditive ?

Les fabricants de matériel de mesure nous apportent aujourd’hui des réponses à ce problème.

En reprenant le premier graphique: la mesure de l’amplification (en gain) par l’oreille nue donnera un gain identique (le REUG) quelle que soit l’intensité de la voix « normale ». La voix « moyenne » (prenons 65dB SPL) peut fluctuer entre 40 et 65dB SPL à 2KHz:

Capture2

L’ensemble Torse/Tête/Pavillon/Conduit présente une amplification linéaire pour les niveaux d’entrée, c’est à dire que les niveaux faibles (vallées) et plus forts (crêtes) sont autant amplifiés les uns que les autres. Donc toujours dans cet exemple à 2KHz, la dynamique d’entrée du signal est de 25dB, en fond de conduit on retrouve bien la même dynamique, on peut considérer que l’on a un facteur de compression de 1.0 (amplitude du signal d’origine = amplitude en fond de conduit).

Dans quel cas aurions-nous une altération ? lors du passage dans une aide auditive, typiquement.

Imaginons une aide auditive dont un point de compression serait à 30dB SPL et un second à 55dB SPL, linéaire de 30 à 55dB SPL et de facteur de compression 1.3 de 55 à 75dB SPL par exemple, lorsque que l’on utilise des systèmes capables de vous donner le gain pour des régions spécifiques en intensités (les percentiles d’intensité), on obtient non pas la première courbe, mais celle-ci (attention ça pique !):

ISTS Gain Fonix

Difficile à croire, mais cette mesure de gain est faite avec le même signal que le premier graphique (l’ISTS), mais passé par une aide auditive, puis analyse séparée pour chaque percentile d’intensité.

La courbe verte est le « LTASS », niveau à long terme moyenné sur le temps de mesure (20 sec. ici). Cette courbe verte correspond à la courbe rouge du premier et du troisième graphique.

La courbe jaune correspond à l’amplification des 30èmes percentiles, c’est à dire en gros, des niveaux environ 18dB moins élevés que le niveau moyen (le LTASS), ou autrement, des niveaux dépassés 70% du temps, que l’on nomme habituellement « les vallées » de la parole.

La courbe bleue correspond à l’amplification des percentiles 99 d’énergie, les niveaux les plus élevés de la voix moyenne, ses crêtes, les niveaux atteints et dépassés 1% du temps.

Que constate t-on: que les vallées de la parole sont plus amplifiées que ses niveaux moyens (en rouge et en vert) que ses crêtes. Si on considère la parole « non-traitée » (comme les oranges après récolte…) comme ayant une dynamique standardisée de 30dB à laquelle on attribue un facteur 1.0 de compression (non comprimée donc), dans ce cas mesuré ici par la chaîne de mesure, les « vallées » ont été remontées et les crêtes, lissées. Sa dynamique de sortie est donc réduite (ce qui est quand même bien dommage pour de la voix moyenne) et donc à la louche elle subit une compression de 1.3 jusqu’à 2KHz dans l’exemple mesuré par la Fonix ci-dessus.

En connaissant donc le gain appliqué à chaque tranche de percentiles d’énergie, vous pouvez alors avoir une action sur une zone de compression bien définie:

  • l’expansion et son mystérieux et jamais renseigné point d’enclenchement…
  • la première compression en entrée (premier TK) qui peut être trop haut (vallées échappant à l’amplification) ou trop bas (plus rare) comme l’exemple ci-dessus
  • la seconde compression au TK mal placé (quasiment pas réglable) ou tranche trop comprimée (percentiles 65 à 99 trop comprimés)
  • Un AGCo trop bas et qui lisse tout

Beaucoup de chaînes de mesure vont aujourd’hui vous donner ces renseignements soit sous la forme d’un gain appliqué à chaque niveau (la Fonix ci-dessus), soit sous la forme d’un taux de compression:

Capture

Ce taux varie de zéro et quelques (rarement sous 0.8) si les niveaux bas ne sont pas assez amplifiés (le plus souvent) à plus de 1 (rarement plus de 1.8) si les niveaux de crête ou les niveau moyens (percentiles 65) sont réduits par la compression ou un système de compression en sortie très agressif et très (trop ?) bas.

Il est très hasardeux de comparer ces taux compression de dynamique aux taux de compressions affichés dans les logiciels de réglage, bien qu’il y ait évidemment un rapport. Sachez cependant qu’il ne serait pas franchement normal de trop comprimer la dynamique de la voix moyenne.

On est donc passé en quelques années d’un affichage en « 2D » (gain ou niveaux de sortie moyen/Fréquence) à un « presque 3D » dans le sens où les systèmes de mesure nous donnent une indication sur la façon dont le signal a été traité au cours du temps, dans ses fluctuations.

Une petite gymnastique de lecture et d’interprétation, mais au final, beaucoup plus d’informations à disposition et d’actions possibles sur les réglages.

Une dernière chose: bonne année 2014 à tous !

Une difficulté rencontrée lors de la mesure in-vivo est de faire coïncider le ratio de compression affiché par le logiciel de réglage et celui, réel, mesuré in-vivo.

Si vous effectuez une mesure in-vivo avec un signal de balayage, une mesure à 65 puis à 75dB SPL vous donnerons une lecture quasi-immédiate de CR par un calcul simple. Mais il est bien dommage, voire impossible d’effectuer aujourd’hui une MIV avec un tel signal. L’ISTS est pour cela hautement recommandé.

Le problème avec un signal de parole, fluctuant par nature, est qu’il devient très délicat d’associer le CR affiché et l’action (bonne ou mauvaise) de ce taux de compression sur le signal vocal. En effet, si le logiciel dit CR=4.0 entre 65dB SPL et 80dB SPL, malgré l’énormité d’une telle compression, il y a de fortes chances que la « voix moyenne » (65dB SPL) et même la voix forte (75dB SPL) ne soient pas impactées par cette compression. Pourquoi ? car même à niveau « moyen », l’énergie par bande de tiers d’octave d’un signal vocal ne dépasse pas 60dB SPL, y compris en crêtes:

Une telle compression (CR de 4.0 à TK=65dB SPL) n’aurait quasiment aucun effet à voix moyenne et à voix forte. Les points d’enclenchement nécessaires à une action sur un signal de parole sont situés entre 30 et 60dB SPL.

Cette difficulté de relier « CR affichés » et « CR réels » lors de l’utilisation d’un signal vocal avait été exploré dans ce très bon article.

Mais cela n’empêche pas la dégradation de la dynamique vocale par les compressions de bas niveau d’entrée et autres expansions dont on ne sait en général pas où elles agissent… Si l’on considère la dynamique vocale non-déformée, on retrouvera une valeur d’environ 30dB, correspondant au LTASS +12dB et LTASS -18dB:

Tout facteur de compression excessif positionné à un TK de 55dB SPL aurait tendance à dégrader les crêtes du signal, et à l’opposé, tout TK de la première compression, situé trop haut (ex: 40dB SPL) aurait pour conséquence de ne pas amplifier les « vallées » de la parole.

De retour du congrès, j’ai donc découvert la possibilité, en temps réel, d’analyser la facteur de compression sur la dynamique de la parole, le tout in-vivo.

Du percentile 30 (vallées) au percentile 99 (crêtes), la chaîne de mesure Affinity calcule en temps réel le ratio de compression, et dans chaque bande de tiers d’octave vous affiche le CR:

Cette analyse est intéressante pour les niveaux élevés de parole (ex: 75dB SPL) et peut être effectuée, au choix, sur la dynamique perc. 30/perc. 99 ou bien perc. 60/perc. 99:

Le taux de compression utilisé reflète donc le traitement du signal appliqué mais peut prendre des valeurs inhabituelles: par exemple, un CR de 0.85 reflèterait un premier TK trop haut, une mauvaise amplification des informations de faible niveau (percentiles 30). Un ratio de compression de 1.0 indique donc une dynamique vocale préservée (30dB en entrée, 30dB en sortie amplifiée). Il va sans dire que cet affichage est TRES intéressant lorsque l’on utilise des appareils censés utiliser un « gain linéaire flottant ». S’il est vraiment « linéaire » ce « gain flottant », la dynamique vocale ne devra pas être détériorée, donc Affinity devrait afficher un CR de 1.0, ou en tout cas décorrélé du CR « classique » ou « affiché »…

Cette fonctionnalité est présente dans la version 2.3 d’Affinity et peut être réalisée in-vivo (exemple précédent) ou au coupleur (exemple ci dessus). Elle correspond à la norme IEC 60318-5.

Je trouve cette mesure extrêmement utile: au-delà de s’assurer qu’il y a « in-vivo » une amplification suffisante, nous allons pouvoir vérifier qu’il n’y a pas de dégradation de la dynamique du signal et que les algorithmes nous assurant un traitement spécifique pour la parole, le font bien.

Pour les puristes, cette version d’Affinity, par simple clic-droit sur le « label » (niveau) de la courbe dans le bandeau de droite, vous donne accès à l’analyse statistique complète des niveaux d’énergie du signal au cours du temps. Preuve en est que nous avons à disposition de bien beaux joujoux !

On progresse toujours…

Vous m’excuserez de ne pas vous parler du Sonalto qui bientôt occupera 95% des posts de ce blog, ni de programmation neuro-linguistique, de consolidation de chiffre d’affaire, etc. Je suis juste un audio…

 

Je pense que si on devait décerner la palme du réglage  » presse-bouton  » dans le genre  » j’appuie-là-et-on-verra-si-c’est-mieux-le-bruit-de-vo’t-frigo-dans-une-semaine-ma-bonne-dame « , l’expansion serait en bonne position de tête !

Avec l’apparition des méthodologies non-linéaires et surtout des anti-larsen performants, il a été possible en théorie (et en pratique), de donner une amplification très importante à faibles niveaux d’entrée. Tellement importante que le risque, comme tout excès, est de noyer le malentendant dans un « brouillard bruité » du type « la VMC, le frigo et la route à 200m ». Alors l’idée géniale a été de proposer un « réglage » d’expansion. Quand je dis réglage, je suis gentil, car souvent on a on/off, 0/1 et même 0/1/2/3 (soyons fous !) ou alors des trucs non traduits du type soft sounds reducer (là forcément en anglais ça marche mieux).

En plus, pour faire simple intellectuellement, off ou 0 ça veut dire au max = le plus de sons faibles !

Techniquement, l’expansion consiste à ne pas amplifier (ou moins amplifier) les sons en dessous d’un certain niveau sonore:

Principe du réglage d'expansion

Effectivement, ça permet aussi de ne pas trop faire entrer dans le circuit divers bruits de fond électroniques tel que celui du microphone.

Le problème comme toujours avec ces systèmes fermés, c’est que le fabricant (pas tous, mais la majorité) ne communique pas sur le fameux « TK bas » ou premier point d’enclenchement de cette expansion. Sur le graphique ci-dessus, il est fixé à 25dB HL, donc on peut imaginer que c’est le seuil audiométrique qui va dicter ou non son enclenchement. 25dB HL, déjà c’est un peu flou: à quelle fréquence ? pareil à toutes les fréquences ? (ça a son importance), dans quelle mesure ? (plus rien après le TK ou un peu moins de gain?) etc. Tout ça pourrait nous intéresser, nous, les audios (et oui, on ne vend pas encore du Sonalto !). Pourquoi ? d’abord par curiosité intellectuelle, et puis même bas, qui dit que ce « TK bas » n’a pas d’influence sur la perception de la parole ?

Si on prend un appareil lambda par exemple, on visualise très légèrement moins de gain à 45dB SPL d’entrée qu’à 65dB SPL:

On peut penser que le point d’expansion est « quelque part » entre 45 et 65dB SPL que que sous ce point d’expansion, le facteur de compression est faible (pas trop de différence entre les deux courbes de gain). On reste quand même dans le flou.

Prenons une autre aide auditive avec un point d’expansion inconnu et un comportement sous le TK lui aussi inconnu. La courbe suivante de niveau de sortie in-vivo (REAR) est mesurée pour un signal d’entrée vocal de 65dB SPL, avec un réglage linéaire sous le premier TK (expansion off ou 0):

REAR 65dB SPL ISTS EXP "off"

Sachant que l’appareil est réglé de façon quasi linéaire, la zone verte claire représente la ligne de crêtes (percentile 99: dépassé 1% du temps) et en partie basse la ligne de « vallées » (percentile 30: dépassé 70% du temps). Cette analyse percentile est censée représenter (si l’appareil est linéaire) une dynamique comprise entre -18 et +12dB par rapport au spectre à long terme (courbe verte). Avec expansion off, c’est bien le cas: la dynamique dans la partie bas niveau (vallées) est respectée.

Si par contre on met le réglage d’origine, à savoir expansion on, donc réduction de gain dans une mesure inconnue, sous un niveau inconnu, on obtient:

REAR 65 expansion ON

Evidemment, les niveaux de crêtes ne sont pas altérés, le spectre à long terme quasiment pas (ce qui aurait pu), mais les bas niveaux « bavent » (je n’ai pas d’autres mots). La dynamique inférieure n’est plus de -18dB mais descend à -25dB, voire plus.

Qu’est-ce que cela signifie ? Les informations de parole passent en permanence au-dessus et en-dessous d’un TK bas vraisemblablement fixé trop haut (45dB SPL ?), et surtout, sous ce TK, la compression est forte. L’appareil s’arrête quasiment sous ce point d’expansion. Ce qui partait à l’origine d’une volonté de protection contre une amplification trop importante des sons faibles à un impact sur la parole à niveau normal: les informations de bas niveau sonores de la parole ne passent plus au-dessus du seuil. On imagine pour une émission plus faible, à 55dB SPL par exemple.

Pour le malentendant, cela se traduit par par des micros ruptures d’amplification selon que l’énergie est sur ou sous ce fameux point d’expansion. Certains le décrivent comme de brusque éclats (augmentation soudaine) de voix.

Même à niveau « normal » (63dB SPL par exemple), le spectre moyen de la parole n’atteint jamais 63dB SPL, mais souvent nettement moins:

Niveaux par bandes d'octaves de la parole à 63dB SPL

L’addition des bandes donne 63dB SPL, mais dès 1600Hz, on passe sous 45dB SPL. Certaines informations de la parole sont extrêmement faibles, et on ne parle que de niveau normal…

Les points d’expansion se doivent donc d’être judicieusement placés, et surtout, le comportement de l’appareil sous ce point est important. Il est dommage que les logiciels et les fabricants ne nous donnent pas plus d’informations sur ces aspects.

Ce billet fait suite aux observations de Cl. GEORGET, audioprothésiste, fournisseur de l’article dont il est fait mention.

Lors de l’adaptation d’une aide auditive, le logiciel fabricant vous donne le facteur de compression dans un canal donné, ce dernier variant en général entre 1.0 et 5.0 ( !!), pour ce qui concerne l’équivalent numérique d’un AGCi.

Chez certains fabricants, deux facteurs de compression (eq. AGCi) sont donnés, un pour les niveaux faibles d’entrée, l’autre pour les niveaux moyens.

Or, jusqu’à ce jour, je ne me préoccupais pas (trop) des niveaux logiciels, mais un rapide calcul des niveaux de sortie in-vivo, sachant que mon signal d’entrée varie de 50 à 75dB, me permettait d’approximer le facteur de compression que j’essaye personnellement de maintenir sous 2.0 dans la dynamique vocale ; les goûts et les couleurs…

Bref, Clément me dit : « Il y a désaccord fréquent entre la mesure en oreille réelle et le logiciel ».

Une recherche, en tombant sur un article de l’AJA (American Journal of Audiology), a effectivement apporté une réponse à cette constatation : les taux annoncés par les logiciels sont en général des taux de compression mesurés au coupleur ou sur Kemar, mais en tout cas, dans des conditions « fabricants » qui vont être parfois très éloignées de vos conditions individuelles.

Au moins trois facteurs influent sur le taux de compression « réel » (mesuré ou effectif in-vivo), c’est à dire que vous risquez avoir un taux de compression en général plus bas que ceux annoncés :

  • Le diamètre de l’évent (grande influence)
  • Le facteur de crête du signal utilisé pour mesurer (intervalle entre le niveau moyen et le niveau de crêtes)
  • La durée du signal de mesure

Je pense que les deux derniers facteurs sont à relativiser à ce jour, car à l’époque de cet article, l’auteur ne disposait pas de signaux vocaux « standardisés » tels que l’ISTS. Ce signal, fruit de la collaboration entre divers fabricants, possède des caractéristiques bien connues de facteur de crête, intervalles de silences, etc. Et aujourd’hui, beaucoup de fabricants testent leurs appareils avec ce signal. On peut dégager quand même quelques grandes lignes :

  • Plus le facteur de crêtes est élevé (dynamique du signal importante, comme l’ISTS), plus le facteur de compression réel sera bas. Si vous testez une aide auditive avec un signal à faible facteur de crête (bruit vocal ou balayage wobulé), le CR sera plus élevé.
  • Plus le stimulus est long, plus le taux de compression (CR) résultant sera élevé, cette condition annulant donc la première… mais il faut relativiser, car les signaux utilisés à l’époque par l’auteur étaient très artificiels.

Si les fluctuations liées au type de signal sont un peu obsolètes, le point sur le diamètre des évents me paraît nettement plus intéressant, car très d’actualité aujourd’hui avec le développement des appareillages « open » : plus le diamètre de l’évent augmente, plus le taux de compression réel in-vivo diminue par rapport à l’affichage logiciel, et ce quel que soit le signal.

Un exemple : avec une aération IROS (conduit quasi-ouvert), pour obtenir un facteur 2.0 de compression, il faudrait afficher 4.0 au niveau logiciel…

Voici la grille proposée par l’auteur, du taux de compression réel in-vivo en fonction du diamètre de l’évent (tous types de signaux confondus) :

CR théoriques et réels en fonction du diamètre de l'évent

On le voit, il est presque impossible d’atteindre des compressions de facteur 2.0 et supérieurs avec un appareillage totalement ouvert.

Ceci est illustré par cet exemple, aide auditive à écouteur déporté (RIC) sur dôme ouvert, le comportement réel de l’appareil et la prédiction du logiciel :

Taux de compression théorique et réel (in-vivo)

On a beaucoup parlé au dernier EPU de l’appareillage ouvert et de l’adaptation sur hyperacousies. Il est très clair que si notre but est de protéger des sons forts (ou moyens), il ne faut pas « ouvrir ».

Tout comme un appareillage ouvert ne permettra pas l’amplification des graves, il n’est pas fait non plus pour efficacement protéger…

Et un super appareil « open » avec tout plein de compressions sur tous les canaux, ça sert à quoi ?

En fait, je pense que tout le monde revient aux fondamentaux à savoir qu’un appareillage « open » n’est pas fait pour corriger les graves, mais pas non plus pour des dynamiques « pincées ». Si un nombre de canaux élevé se justifie pour la restitution des contrastes, ça s’arrête là…

Et dernière interrogation, je me demande si les fabricants capables de mesurer « l’effet d’évent » (par la calibration anti-larsen ou in-vivo), adaptent les taux de compression affichés à la mesure effectuée.

L’article de l’AJA en question (Real Ear Compressio ratios: the effects of venting and adaptative release time – T.W. FORTUNE – AJA – Vol. 6 – 1997).

Pour aller plus loin dans l’appareillage ouvert.

PS : merci Clément…

PS2 : un peu de pub. à Christian BROCARD (et son équipe), qui préparent un super atelier sur l’appareillage ouvert pour le congrès : encore un truc de plus à expérimenter !!!

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel