Catégorie : mesure in vivo

C’est un peu l’absent de nos sessions de réglages in vivo : le MPO.

Je dis l’absent, car si on peut bien sûr visualiser le niveau « logiciel » du niveau de sortie maximum d’une aide auditive, il est souvent bien plus compliqué, hasardeux et inconfortable, de le tester et régler in vivo.

Continue reading

A ma gauche, papy, en pure galalithe, rétractable en 3 parties, garanti 100% analogique. Période environ début XXème :

cornet

On peut estimer qu’à l’époque (autour de la 1ère guerre mondiale), ce cornet était vendu autour de 20 francs (anciens francs donc), ce qui donne aujourd’hui un prix équivalent de 60 à 70€.

Continue reading

Non, ce n’est pas un billet tiré de « philosophie magazine » ou inspiré par une quelconque mouvance « mindfulness », quoique… allez savoir !

Je reviens à nos moutons audioprothétiques, et là normalement vous allez vous dire que le rédacteur de ce billet est totalement obsédé par ce sujet de… dynamique vocale !

Oui, je vais encore aborder le sujet car il me semble important, et même crucial de connaître l’état de cette dynamique à l’entrée de l’aide auditive, et à sa sortie. Surtout à sa sortie : une aide auditive qui lisserait les contrastes temporels de la parole par une compression trop importante des « crêtes » ou une amplification exagérée des « vallées » en réduirait le contraste dynamique, réduisant du même coup les chances du malentendant appareillé d’extraire ces informations dans un bruit par nature souvent plus stationnaire que la parole.

Mais puisque l’on parle de « dynamique », encore faut-il savoir de quoi on parle. Nous avons coutume de considérer que la parole a une dynamique de 30dB environ. C’est à dire que si l’on mesure son niveau par bandes de 1/3 d’octaves à long terme (ex : 1 minute), les crêtes se situent 12dB au-dessus de ce niveau à long terme, et les vallées 18dB en-dessous, environ.

Cette dynamique de 30dB n’est pas « plaquée » autour du LTASS, elle est le résultat d’une analyse statistique de la distribution des niveaux du signal. Dans le cas de la chaîne de mesure in-vivo, pendant toute la durée de la mesure, la chaîne de mesure « classe » les différents niveaux atteints, et va se retrouver avec une courbe de distribution suivant une loi normale (cas de l’ISTS), ou de densité autre (signaux non vocaux par exemple), et dont les niveaux se répartissent autour d’un niveau médian (= dépassé, ou non-atteint 50% du temps), et qui indique, par exemple,  que 10% du temps le signal  a atteint tel niveau, que 30% du temps il a dépassé tel niveau, etc.

C’est une donc ce que l’on appelle l’analyse percentile du signal. Je vous laisse imaginer le calcul processeur nécessaire pour faire cela « à la volée », mais aussi en parallèle compiler et classer sur le long terme (ex : pendant 45 secondes).

Classer les différents niveaux va permette au final de définir la « dynamique » que nous avons l’habitude de visualiser entre le 30ème percentile (dépassé 70% du temps = les vallées) et le 99ème percentile (dépassé 1% du temps = les crêtes). Et on a coutume de dire que cette dynamique 30/99ème percentile est de 30dB.

Oui… mais pas tout à fait ! Ce calcul est totalement dépendant de la fenêtre temporelle d’analyse du signal. Si on voulait utiliser une analogie avec la photographie ce serait le temps d’ouverture de l’objectif de l’analyseur. En photo, plus longtemps vous « ouvrez », plus vous faites entrer de photons sur le capteur. Si vous êtes en plein jour et que vous ouvrez très longtemps, votre photo sera « cramée », c’est à dire blanche…

La chaîne de mesure fonctionne un peu comme un objectif : elle prendra une « photo » selon un temps d’ouverture, et le résultat de l’analyse percentile (et donc la dynamique du signal) sera très dépendant de nombreux facteurs. Parmi ceux ci, il y a la résolution temporelle de la fenêtre de la FFT, et cette dernière peut avoir une influence sur la résolution fréquentielle de la mesure (voir plus loin).

Pour faire savant, si un signal est échantillonné à 44100Hz (Fs) et que la FFT est réalisée avec un bloc de 1024 échantillons (c’est à dire N = 1024 échantillons temporels, correspondant à une taille mémoire imposée par le matériel), la résolution temporelle sera de N/Fs = 1024/44100=23ms, et la résolution fréquentielle sera de Fs/N = 44100/1024=43Hz. N est toujours une puissance de 2 dans les analyseurs physiques. Le principe de la FFT (Fast Fourier Transform) utilisée, entre autres, dans nos chaînes de mesure est donc de prendre ces 1024 échantillons temporels de 23ms et 43Hz de « large » qui vont aller remplir la mémoire de l’analyseur pour ensuite passer dans un algorithme de calcul FFT. Si on voulait avoir une résolution temporelle de 1 seconde, il faudrait remplir une mémoire adéquate avec 44100 échantillons (dans ce cas, le nombre N d’échantillons temporels serait égal à la fréquence d’échantillonnage Fs).

Dans nos chaînes de mesure, il va y avoir, comme dans tout analyseur matériel, plusieurs limitations. L’une est la taille de la mémoire (qui limite le nombre d’échantillons à analyser), l’autre est la vitesse de transmission du port USB qui limite la résolution temporelle de signaux pouvant transiter vers le PC à des blocs de 46ms (donc impossible de faire transiter des informations plus fines en temporel). Ce n’est pas forcément un problème, car l’analyse idéale, définie par la norme IEC 60118-15 (qui régit l’analyse des signaux de mesure in-vivo), souhaiterait que la mesure in-vivo soit réalisée avec une résolution temporelle de 125ms. Mais c’est, pour l’instant, techniquement difficile, car pour y arriver il faudrait, au choix :

  1. diminuer la fréquence d’échantillonnage du signal, et donc sa bande passante (voir la suite)…
  2. ou alors, si on voulait conserver une fréquence d’échantillonnage de 44100Hz afin de ne pas perdre de bande passante mais garder une résolution temporelle de 125ms (0,125sec), effectuer 0,125ms x 44100Hz = 5512,5  blocs temporels pour le calcul de la FFT, soit 5 fois plus qu’actuellement (en fait, ce serait 2 puissance 12 ou 2 puissance 13 blocs temporels pour être exact).

Tout est une question de moyens financiers que l’on veut mettre dans du matériel possédant des capacités aussi importantes… Notez quand même qu’à l’heure actuelle, un matériel distribué en France par la société AURITEC, le Verifit2 d’Audioscan, permet une résolution temporelle de 128ms avec une bande passante (in-vivo et coupleur) de 16kHz, donc 4096 blocs temporels (32000Hz*0,128ms) pour le calcul de la FFT. Il s’agit d’une chaîne autonome (non reliée en USB au PC), tournant sous Linux, avec processeurs dédiés.

Si on applique cette méthode d’analyse idéale (norme IEC 60118-15), donc avec fenêtre de 125ms (donc N=Fs x 0,125ms = 5512,5), pour un signal (ISTS) émis à 65dB SPL, on obtient :

ISTS_30_99_125ms_65dB SPL

En observant l’analyse ci dessus, on constate bien que la dynamique entre les percentiles 30/99 est d’environ 30dB à 3kHz,et d’environ 20dB à 400Hz.

Mais si on avait analysé le signal avec une fenêtre de résolution temporelle 1 seconde (N=44100 échantillons temporels), pour un ISTS toujours à 65dB SPL, on aurait eu :

ISTS_1s

La fenêtre d’analyse étant plus grande, et si on suppose que les zones faibles (comme les fortes) du signal sont très brèves, elles ont été « diluées » en quelque sorte avec les zones moyennes (entre les percentiles 50 et 65), plus représentées statistiquement. La dynamique a été divisée par 2 (env. 15dB à 3kHz). La parole peut être considérée comme un signal stationnaire… (Citation de Franck L. 😉 ).

Poussons le raisonnement à l’inverse, avec une fenêtre de résolution temporelle de 5ms (de l’ordre du phonème, avec N=220,5 écantillons temporels) :

ISTS_5ms

La dynamique du signal passe à 30dB à 400Hz, et environ 37dB à 3000Hz. Mais surtout, vous remarquerez la perte de résolution fréquentielle  dans les basses fréquences. C’est mathématique : la durée de la fenêtre temporelle doit être au moins 5 fois plus longue que la période du signal à analyser : donc ici pour 200Hz, fenêtre temporelle minimale = 5 x (1/200Hz) = 0,025 = 25ms. La fenêtre temporelle de 5ms n’est pas adaptée à l’analyse de signaux de 200Hz, et pour être exact, cette résolution temporelle ne permet même pas une analyse correcte de signaux inférieurs à 900Hz car leur période (= 1/fréq) est supérieure à la résolution temporelle de la fenêtre d’analyse… ce qui veut dire en clair que nous n’aurons jamais accès à des événements brefs (impulsionnels), dans les graves tout au moins avec les méthodes de type analyse FFT utilisées actuellement sur nos chaînes de mesure. Mais d’autres méthodes existent pour ces événements impulsionnels, et peut-être les verrons-nous dans de futurs modèles de chaînes de mesure…

AN : avec une résolution temporelle de 23ms sur une chaîne de mesure, la plus basse fréquence analysable correctement est de 5/0,023 = 217Hz. On comprend mieux pourquoi l’ISTS a été créé avec des voix de femmes et un fondamental laryngé de 200Hz, et pas des voix d’hommes avec un F0 à 125 ou 150Hz…

Et enfin, ce que font nos chaînes de mesure avec une résolution temporelle de 46ms (2 blocs de 23ms moyennés = 2 x 1024 points moyennés) :

ISTS_65dBSPL_46ms
Vous remarquerez que la dynamique percentile 30<–>percentile 99 est un peu plus importante que celle du signal analysé en 125ms. Tout est relatif donc dans ce genre de mesures et d’analyse de la dynamique du signal…

Le facteur temporel d’analyse, qui découle donc de la fenêtre FFT (1024 échantillons sur nos chaînes de mesure), a donc des répercussions sur la lecture des mesures. La dynamique de la parole (ou d’un autre signal) est tout à fait relative, en fonction des paramètres d’analyse, souvent dictés par le matériel. Les audioprothésistes (les fabricants de nos chaînes de mesures…) sont face à un dilemme :

  • nous donner accès à des événements très brefs et potentiellement agressifs pour le patient, en lecture de crêtes, mais en perdant de la résolution fréquentielle et en sachant que ce n’est pas possible en basses fréquences (avec les méthodes d’analyse actuelles)
  • nous donner accès à la meilleure résolution fréquentielle possible pour les réglages en perdant en résolution temporelle, et donc en risquant de ne pas avoir la lecture d’événements potentiellement agressifs…
  • … je résumerais donc ce dilemme avec une maxime de Pierre DAC : « Plus je pédale moins fort, moins j’avance plus vite » !

Il y a donc un compromis dans la mesure, pour l’usage en audioprothèse, et qui va être :

  • de ne pas descendre sous quelques dizaines de ms afin de garder une bonne résolution fréquentielle (en BF),
  • d’aller au-delà de 125ms afin de visualiser l’effet des compressions sur le signal amplifié par la lecture de sa dynamique,
  • … mais tout en sachant que se rapprocher de 125ms permet une bonne résolution fréquentielle (idéale selon la norme)…
  • … donc de se situer dans une fourchette d’analyse 40 <–> 125ms… c’est justement celle choisie par les fabricants de chaînes de mesure !
  • … et tout cela dans la mesure du possible d’une chaîne de mesure reliée à un PC et qui est limitée par son port USB ne pouvant transmettre des segments de plus rapides que 46ms !

On peut imaginer dans un futur pas si lointain la possibilité  de se rapprocher des préconisations de la norme IEC de 125ms, avec un port plus rapide, voire un système autonome (chaîne de mesure ayant une fréquence d’échantillonnage plus importante que 44100Hz, avec processeurs dédiés à l’analyse et tournant sous son propre OS). Allez savoir, il est bien possible que ce soit dans les cartons…

Mais pourquoi tout ce cirque avec une analyse précise de la dynamique ?

A des niveaux « normaux » (efforts vocaux moyens), la lecture précise de la dynamique du signal amplifié est réellement utile, car elle peut être détruite par une compression trop importante qui en lisserait les crêtes, mais, c’est moins connu, également par une amplification trop rapide et importante des vallées (réduction de la dynamique par le bas). C’est ce qu’avait montré Holube en 2007 (interview pour Audiology Online de l’initiatrice de l’ISTS) :

 

 

TA_TR rapides

Le graphique de gauche montre le signal amplifié par une aide auditive à temps d’attaque (TA) et temps de retour (TR) très rapides. Les vallées, dès qu’elles faiblissent, sont amplifiées très rapidement; les crêtes, dès qu’elles apparaissent sont lissées très rapidement également. Il en résulte une très nette diminution de la dynamique par rapport à un système plus lent (graphique de droite). Pour aller plus loin, vous pouvez également consulter ce document très intéressant (enfin, je trouve !).

Attention donc : sur quelques appareils, nous avons encore indirectement la main sur ces facteurs temporels, par le choix (obscur, j’adore !) de la « typologie du malentendant » et notamment un fameux choix « dynamique ». Les connaisseurs de ces fabricants reconnaitrons de qui je veux parler…

Juste pour vous montrer ce que devient le signal extrait d’un RSB 0dB, d’un appareil que j’avais testé précédemment sur ce blog, avant son amplification, puis après (émission à 65dBA, fenêtre d’analyse IEC 60118, de 125ms) :

Dyn ISTS in SNR0Dyn_voix extr SNR0

La dynamique est réduite après amplification, au maximum, d’environ 5dB. Il y a donc un respect de la dynamique du signal, même en milieu bruyant. Ce n’est pas toujours le cas… (des noms ! des noms !). Ce n’était pas du tout le cas il y a quelques années, et c’est là que les choses ont beaucoup évolué, il faut le reconnaître. Notez au passage l’amplification du signal @ 3kHz = 28dB.

Voilà ce que subit le bruit avant et après amplification par le même appareil, extrait du même mix à RSB 0dB :

Dyn ISTSnoise in SNR0

Dyn_bruit extr SNR0

Le bruit n’a pas de dynamique (c’est l’IFnoise), ce qui rend d’ailleurs « l’audition dans les vallées du bruit » très difficile; sa dynamique n’est donc pas affectée… puisqu’il n’en a pas. Notez au passage l’amplification du bruit @ 3kHz = 22dB, alors que les deux signaux ont été émis strictement au même niveau (RSB 0dB) et ont la même densité spectrale de niveau. Le signal est détecté, traité et amplifié de manière sélective (+6dB d’amplification par rapport au bruit).

Imaginons maintenant que la dynamique de sortie du signal n’ait pas été respectée (écrasée), cette différence d’amplification entre le signal et le bruit aurait été réduite à néant, car nous l’avons vu, la dynamique du signal avait déjà été réduite de 5dB par les compressions déjà « douces » (CR env. 1.2); une trop grande compression (protection) de la part de l’audioprothésiste aurait encore réduit cette dynamique, lui faisant perdre ses quelques dB d’émergence.

On le voit donc, la lecture de la dynamique du signal est extrêmement importante. Son respect par les algorithmes de traitement du signal est crucial. Pour info, la plupart des chaînes de mesure utilisent résolution temporelle de 46ms, mais en « overlapping », c’est à dire en faisant se chevaucher plusieurs blocs temporels à 50%, arrivent à 92ms de résolution temporelle, et donc se rapprochent des 125ms de l’idéal standard (j’en avais déjà parlé dans un billet traitant des diverses constantes de temps des chaînes de mesure in-vivo). Vous pouvez accédez à cette fonction dans le paramétrage de vos chaînes de mesure.

Tout cela montre bien la subtilité de toutes ces analyses, mais nous fait aussi prendre conscience (attention : psychologie magazine !) que nous voyons le monde, en général, à travers… une fenêtre !

###############################################

Atelier informatique

###############################################

Pour ceux qui seraient intéressés, cette analyse percentile du signal est réalisable avec une fonction (script) écrite pour le logiciel R.

Ce programme a été écrit par Nathan D. Merchant pour accompagner leur article sur l’acoustique des habitats écologiques. J’en ai modifié le code source afin de l’adapter à l’analyse percentile du signal au audioprothèse. Vous pouvez, si vous le souhaitez, en modifier également les bornes percentiles (ici j’ai défini 30, 50, 65, 95 et 99, dans le fichier Viewer.R). Vous trouverez le script de cette version modifiée ici. Téléchargez les fichiers PAMGuide.R et Viewer.R et mettez-les dans un dossier (votre bureau par exemple). Ouvrez R et définissez ce dossier comme répertoire de travail, puis tapez les commandes suivantes :

source("/votre dossier de destination/PAMGuide.R")

Vous pouvez aussi, sans taper cette commande, accéder au menu « Sourcer fichier » dans R et sélectionner « PAMGuide.R », puis taper :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, Hcut=16000, N=5512.5)

Cette commande déclenche une boîte de dialogue vous demandant de choisir un fichier .wav pour analyse. Cette dernière est effectuée en 1/3 d’octave (TOL), en bande passante de 200 à 16000Hz, et avec fenêtre temporelle de 125ms (N=5512,5). Le paramètre temporel N est fonction de la fréquence d’échantillonnage du signal à analyser : si vous avez 44100Hz de f.e., N=44100 x 0,125 =5512,5. Pour un signal échantillonné à 96000Hz, avec fenêtre d’analyse de 46ms, N = 96000 x 0,046 = 4416. Dans le cas où vous souhaiteriez avoir les valeurs en dB SPL (comme ici) et non pas en dB relatifs, utilisez le paramètre « calib=1 », puis définissez la sensibilité en dB du paramètre Mh en fonction de votre calibration (ici, un fichier .wav de calibration à 94dB SPL a servi de référence pour définir précisément Mh).

Par exemple pour une analyse de l’ISTS (fichier son téléchargeable sur le site de l’EHIMA), en dB absolus (et RMS = 65dB SPL) et fenêtre temporelle de 1 sec. :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=44100, calib=1, Mh=-3.4)

Et pour finir, l’analyse standardisée IEC 60118-15 en audiologie/audioprothèse, pour l’ISTS :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=5512.5, calib=1, Mh=-3.4, winname="Hann", r=50)

Bonjour à tous,

 

Je vous fais part de la demande d’une étudiante de Fougères (Capucine MARMORAT), dans le cadre de son mémoire de fin d’année. Ce mémoire porte sur la pratique de la MIV et les freins éventuels (formation, coût, temps, utilité, etc.) à cette pratique.

Merci d’y consacrer quelques instants. Vous trouverez dans son message le lien pour répondre au questionnaire :

Cher(e) audioprothésiste,

Dans le cadre de mon mémoire, en vue de l’obtention du diplôme d’Etat d’audioprothésiste, je sollicite quelques minutes de votre temps (5 à 10 maximum) pour répondre à un questionnaire.

Mon mémoire a pour sujet : « La pratique de la Mesure In Vivo ».

Je m’interroge sur la place de la MIV, à l’heure actuelle, en France.

Pour cela, j’ai besoin de connaître votre pratique pour faire une étude objective. Elle n’est en aucun cas un jugement de votre façon de travailler.

Bien entendu, toutes les réponses obtenues seront analysées uniquement dans le but de mon mémoire et de manière anonyme. J’insiste sur le fait qu’en aucun cas, votre nom ou vos réponses individuelles n’apparaîtront.

Enfin, si vous êtes intéressé(e) par les résultats de mon étude, je serai heureuse de vous les transmettre.

Pour remplir le questionnaire, il vous suffit de cliquer sur le lien suivant remplissez-le dans Google Forms et de répondre en ligne.

Je vous remercie sincèrement pour toute l’attention et le temps que vous pourrez consacrer à ce questionnaire (d’autant plus que le CNA est intéressé par les résultats).

Bien cordialement,

Capucine MARMORAT,

Etudiante en 3ème année à l’école de Fougères

Square_true

Définition de la mesure in-vivo : moyen technique confirmant que ce que nous pensons être en train de faire est réellement ce que nous sommes en train de faire.

J’ai trouvé dans un résumé de conférence cette définition simple, humoristique et très juste.

Cette conférence aborde le sujet intéressant de la dynamique de la parole, son analyse percentile par les chaînes de mesure et les effets collatéraux sur cette dynamique des temps d’attaque et de retour, TK et compressions…

Mais plus intéressant encore, la présentation rebondit sur un article de Hearing Revue paru cette année, issu d’un travail de mémoire en cours. En 2015, nous pouvons avoir cette fausse sensation de sécurité que les appareils actuels sont tellement bons (et je vais dans ce sens : certains sont vraiment très bons dans le bruit) que ce que vous voyez dans le logiciel (niveau de sortie et compressions) est ce que vous pensez obtenir réellement dans l’oreille.

Grave excès de confiance ! Et bien non, c’est un vieux serpent de mer, même en 2015 : à 10, voire 15dB près, vous ne savez toujours pas ce qui se passe dans le conduit auditif du patient !!! Pire encore : les compressions affichées ne sont pas celles réellement obtenues, avec une erreur moyenne de 10dB (en trop !) pour des niveaux d’entrée de 75dB SPL.

Vous comprendrez aisément que lorsque les fabricants s’échinent à mettre au point des algorithmes capables d’améliorer de 8dB le RSB, il est dommage de ne pas savoir à 10 ou 15dB près ce que nous mettons dans le conduit, au risque de perdre tout ce que peut apporter la technologie…

Comment ont procédé les audiologistes : ils ont pré-réglé 5 appareils en méthodologie NAL-NL2, puis ont tout simplement effectué une mesure in-vivo avec une cible NAL-NL2 à 55, 65 et 75dB SPL en entrée. Et enfin, calculé la différence entre la cible NAL-NL2 et le LTASS réel du signal de mesure amplifié (REAR).

Bien entendu, ces différences ne sont pas liées à NAL-NL2; elles auraient été identiques avec DSL 5.0.

En 2015, cessons de prendre des ronds pour des carrés (et vice versa) ! 😉

La question n’est pas nouvelle pour les audioprothésistes pratiquant la mesure in-vivo : quel est l’impact du positionnement du HP sur la précision de mesure ?

Elle a pris de l’importance plus encore ces dernières années avec les mesures in-vivo de signaux de parole, la MIV d’appareillages open, et le choix qui s’offre à nous entre deux méthodes de pré-calibration, MPCE et MPSE , « Normal » ou « Open-REM ».

La pré-calibration (et les deux méthodes dont j’avais parlé dans ce post), consiste, en gros, à mesurer la distance entre le micro de référence du casque de MIV et le HP, afin d’en déduire l’affaiblissement qui en découle à chaque fréquence et de compenser d’éventuelles résonances. Dans une cabine « idéale » (chambre anéchoïque), le spectre du signal de test sortant du HP n’aurait pas besoin d’être retouché.

Les caractéristiques acoustiques du local de test sont donc mesurées lors de la pré-calibration; la distance et l’emplacement du HP d’émission dans ce local ont donc leur importance. On peut imaginer qu’un HP placé « en vrac » dans un local de mesure plus ou moins réverbérant produira au final un signal de test très déformé, car ce bruit de « chirp » émis avant chaque mesure voyage dans le local, et va être récupéré par le micro de référence avec les résonances présentes. La chaîne de mesure essaiera ensuite, lors de l’émission du signal de test, de soustraire ces résonances mathématiquement, par équalisation. Cette opération ne sera pas sans conséquence sur la qualité du signal de test (l’ISTS par exemple), qui souffrira d’une sonorité peu naturelle à l’écoute.

Voici, par exemple, l’effet de la distance entre le HP et le micro de référence sur le signal de pré-calibration :

Effet_distance_precalibr

C’est clair : plus le HP d’émission est proche du micro de référence, plus vous privilégiez le champ direct, comme ici à 50cm. A 1m50, le champ réverbéré devient prédominant et vous intégrez au signal des pics de résonance (flèches) liés à l’acoustique de la cabine. Un signal de test issu d’une mauvaise pré-calibration sera de mauvaise qualité acoustique, car il aura été très « maquillé » en fréquence et en intensité par la chaîne. Et même une cabine avec une très bonne correction acoustique échappera difficilement à ce problème de distance entre le HP et le micro de référence.

Mais alors, où placer le HP de mesures in-vivo ?

Questions subsidiaires : qu’est-ce que je risque ? un HP de mon champ libre ne fera t-il pas l’affaire ?

Pour tenter de répondre à cette question, j’ai « déterré » un article du temps où il n’y avait pas de signal vocal de test, et donc, pas de « pré-calibration » (mais juste une calibration de la sonde), pas de « MPSE » ou de « MPCE », d' »OCAM » (oups, je m’égare !)… bref, un article de Killion et Revit de 1987 !

Et même s’il est tiré de Ear&Hearing, son auteur en permet son téléchargement légal; donc non, Sébastien : tu n’iras pas encore en prison cette fois ci parce que j’ai mis un article avec copyright sur le blog 😉

Voici donc quelques conseils permettant de placer correctement son HP de test lorsque l’on veut faire de la MIV :
  1. Ca n’est pas l’objet de l’article de Killion et Revit, mais pour les raisons liées à la pré-calibration évoquées plus haut, plus vous éloignez le HP du micro de référence, plus le micro de référence est influencé par les caractéristiques acoustiques de la cabine. Donc, restez en champ le plus direct possible pour tester avec ISTS. Distance maximum HP-patient = 50cm.
  2. L’angle recommandé dans le plan transversal (droite-façe-gauche du patient) est à 45°. Il faudrait donc avoir un HP mobile sur le plan de travail, et le déplacer pour les MIV de droite, puis gauche. On notera que ce point est totalement ignoré par les très vendeuses (mais très pratiques…) mesures in-vivo bilatérales simultanées ! La sensibilité aux mouvements de la tête est d’environ 2dB, au maximum dans les HF. C’est peu, et donc on pourrait, à peu de risques, continuer à 0° (face patient)… et donc en binaural pour les adeptes !
  3. L’angle recommandé dans le plan sagittal (de face à en haut, de face au front à au-dessus de la tête) a beaucoup plus d’incidence sur la qualité de la mesure, dans certaines configurations. Un HP posé sur la table face au conduit auditif du patient  a un angle de 0° dans le plan sagittal. Selon Killion et Revit, cet angle sagittal entraîne une erreur de mesure potentiellement très importante (« explosive » !) dans les HF, de 4 à 6kHz. En cause : l’anti-résonance de la conque à ces fréquences, certes peu corrigées la plupart du temps. Idéalement, l’angle du HP devrait être de 45° dans ce plan, ce qui implique un HP sur pied ou fixé légèrement au-dessus du regard. On gardera donc à l’esprit l’erreur de mesure potentielle dans les HF>3kHz lors d’appareillages ouverts si le HP est à 0° dans ce plan.
  4. Enfin, s’il fallait éviter à tout prix une configuration, ce serait celle d’un haut parleur de champ libre, fixé au plafond ou en haut d’un mur face au patient (90°/0°). L’erreur de mesure de gain d’insertion relevée par les auteurs à l’époque allait jusqu’à 15dB dans les HF…
  5. … et s’il fallait en conseiller une, ce serait 45°/45°, légèrement de côté et en haut. Difficilement possible sans un bras articulé (accessoire FONIX).

Tout ceci semble logique finalement (distance, plans) mais pas forcément facile à mettre en oeuvre… La connaissance de ces contraintes permet cependant d’attribuer les difficultés de test/re-test à notre configuration matérielle plus qu’à de supposés comportements mystérieux des aides auditives; elles sont certes très complexes aujourd’hui, mais pas totalement construites sur de la logique floue !

Finalement, même si la configuration idéale est atteinte, on notera une précision maximale de la mesure in-vivo de l’ordre de 2 à 3dB, gardons-le à l’esprit…

 

 

 

J’en profite pour donner la clé du grenier de Killion, aux plus curieux d’entre-vous : vous y trouverez plein d’articles en téléchargement, de la « préhistoire » jusqu’à nos jours, dont celui cité ici, et dont est tiré le titre de ce post. Une bonne vision de l’évolution de l’audiologie prothétique sur les 30 dernières année.

Et pour le(s) fan(s) français du CORFIG (il sait que je le taquine, là 😉 ) : quelques merveilleux articles sur le sujet !

Si vous avez du temps… ou un peu moins

Bonnes lectures !

La technique d’extraction du signal et du bruit à la sortie d’une aide auditive proposée par Hagerman&Olofsson est fréquemment utilisée en mastering audio, sous le nom de « NULL TEST« . Elle permet entre autres, de quantifier la perte de qualité liée à un ré-échantillonage ou compression « lossy » du signal d’origine.

Comme nous l’avons vu précédemment, Miller (2013) utilise 4 signaux pour l’extraction et l’estimation du facteur de qualité de cette extraction, permettent une analyse du RSB assez robuste à la sortie d’une aide auditive :

  • (+S+N) + (+S-N) extrait le signal (+6dB)
  • (+S+N) + (-S+N) extrait le bruit (+6dB)
  • et (+S+N) + (-S-N) extrait… rien !, ou plutôt devrait tendre vers -∞ mais en réalité « doit être 20dB plus faible que le plus faible extrait des deux précédents (parole ou bruit) ». C’est un critère de qualité/d’erreur décrit dans la thèse de Taylor (voir post précédent).

La difficulté majeure de ce type de test vient de l’alignement de tous ces signaux : plus elle est rigoureuse et précise, plus le calcul fera « disparaître » les signaux se retrouvant en opposition de phase. Et ça se joue quelques échantillons près (un échantillon avec une fréquence d’échantillonnage de 96kHz dure… 10μs !).  Les éléments technologiques présents dans les aides auditives actuelles rendent très difficile cet alignement :

  • les anti-larsen notamment ont tendance à inverser la phase du signal pendant le test, et bien sûr, jamais au même moment…
  • Les systèmes « d’aide à la décision » analysant également la scène sonore ont tendance à ne jamais faire exactement la même chose au même moment entre deux mesures.
  • Enfin, entre autres joyeusetés, les appareils peuvent présenter un phénomène de « Time shifting », c’est à dire qu’ils allongent (certes de quelques pouillèmes de sec…) le signal, mais jamais non plus aux mêmes endroits des tests…

Bref, une solution s’impose : se méfier des anti-larsen ( = les désactiver) et fixer les appareils dans un mode programme défini. De là à dire qu’il faudrait faire pareil avec les appareils de nos patients… mais ça pourrait des fois se discuter pour des raisons de qualité sonore !

Alignement précis = élimination précise de la parole ou du bruit = besoin d’un enregistrement « HiRes », c’est à dire en 96kHz/24bits = de bon gros fichiers .wav pour 45′ environ d’enregistrement (RSB testés +10/+5/0/-5/-10dB, pour 4 configurations différentes +S+N, -S-N, +S-N et -S+N).

Bien aligner ensuite tout le monde, pour bien éliminer ce qui doit l’être. Exemple avec l’ISTS et l’IFnoise à RSB -4dB :

 

SpN+SmN

 

Le signal +S+N à l’écoute :

 

Le signal +S-N à l’écoute (aucune différence à l’oreille) :

 

 

Ici deux fichiers +S+N et +S-N se retrouvant strictement synchronisés (configuration Hagerman & Olofsson de 2004), l’addition des deux va donner la parole + 6dB, le bruit en opposition de phase dans +S-N, s’annulant avec +S+N :

 

Parole extraite

 

Pour ceux qui voudraient écouter le signal extrait (extraction médiocre… non conservée) ci-dessus, non trafiqué, même si ça a un petit côté magique :

 

 

Et si vous ne me croyez pas, vous pouvez télécharger ces +S+N et +S-N et les fusionner dans Audacity, vous retrouverez bien la voix extraite ! Et si vous avez tout suivi, et que vous maîtrisez un peu Audacity, avec ces deux extraits, vous pourriez même, connaissant le RSB à l’entrée (-4dB), reconstituer le RSB à la sortie de ce Widex Dream Fashion 440 😉

Allez, je vous aide ! On n’a rien sans rien…

Cet alignement est très long et fastidieux. Si vous avez eu le courage de tenter la manip ci-dessus, vous avez dû comprendre. Et encore, les signaux sont déjà alignés et tous prêts à l’emploi !

Une solution :

mise en place par Franck LECLERE et avant lui, l’institut Fraunhofer (François-Xavier NSABIMANA), a été un traitement par lots (batch processing) des divers fichiers enregistrés à divers RSB avec « alignement automatique », basé soit sur la structure fine, soit l’enveloppe du signal (au choix, selon les appareils) :

 

Décomposition signal_Seewave

 

Pourquoi des signaux mesurés à la sortie de certains appareils s’alignent mieux avec l’enveloppe (une majorité) ou d’autres par la structure fine ? cela reste un mystère…

Donc pour faire court, on obtient :

  • un « train » de 4 signaux à 5 RSB différents (20 combinaisons),
  • enregistrés en 96kHz/24bits,
  • qu’il va falloir découper,
  • puis aligner entre eux afin d’en extraire la substantifique moelle (y’a pas que l’audio dans la vie… vous lisez trop le blog !) :

 

TrainH&O

C’est un algorithme Matlab qui va découper ce train, aligner les signaux (ici sur l’enveloppe) et extraire signal et bruit. Il ne restera plus qu’à recalculer le RSB à la sortie.

Conditions de test :

  • Signal ISTS, bruit IFnoise (même densité spectrale de niveau), téléchargeables sur le site de l’EHIMA
  • Appareil réglé selon méthodologie fabricant, dont le niveau de sortie pour l’ISTS à 65dB SPL d’entrée a été fixé dans un coupleur 2cc sur cible DSL 5.0a (EAR + RECD HA2) sur la base d’un audiogramme normalisé KS100 (sans inconfort entré)
  • Cabine : TR 0,23s et BDF 27dBA
  • HP : 1 à l’avant (émission de l’ISTS) à 0.70m et 2 à l’arrière (émission de l’IFnoise) à 135 et 225°, à 1,5m chacun
  • Etalonnage du niveau d’émission de l’ISTS par sonomètre au niveau du micro de l’AA par Leq 30s en dBA; étalonnage identique pour l’IFnoise
  • Emission du signal numérisé par lecteur Cowon PLENUE 1 relié en optique au convertisseur D/A d’un ampli NAD C375 BEE
  • enregistrement en fond de coupleur HA1 ou HA2 par un microphone DPA 4061 en 96kHz/24bits, en acquisition sur enregistreur Roland R26
  • enregistrement en parallèle (micro de référence) par un microphone BEHRINGER ECM8000 afin de vérifier la RSB à l’entrée
  • Calibration des deux microphones avant enregistrements par calibrateur B&K 4231
  • Découpage, extraction et calcul du RSB à la sortie de l’AA par un code Matlab sur les 30 dernières secondes de chaque mesure (afin de laisser les algos se stabiliser) pour l’enregistrement de l’appareil, et pour l’enregistrement de référence

Le premier testé sera un appareil qui ne prêtera pas à polémique, puisqu’il n’est plus diffusé : un Widex Inteo 19, de 2006 si j’ai bonne mémoire. Il y a eu 3 générations de circuits après cet appareil (puces Mind, Clear puis Dream).

On obtient, par exemple à RSB -10dB, la séparation des signaux :

 

Exemple fig extraction RSB-10dB

 

Voici sa progression :

 

IN19

 

Pas d’amélioration du RSB, sauf à -10dB (lissage du bruit par la compression WDRC, j’en avais parlé dans l’article précédent) et détérioration (légère) du RSB à +10dB par l’effet inverse (= un lissage des crêtes du signal utile).

On retrouve tout à fait les résultats décrits par Taylor & Johannesson en 2009 (le Widex Inteo avait un temps de retour variable, comme le lièvre, mais plutôt long) :

 

Capture

 

Par la même occasion, si vous avez eu la patience de lire la thèse de Miller (2013), les résultats étaient quasi identiques avec son successeur, le Widex Mind 440.

Je précise : les autres fabricants ne faisaient pas mieux à l’époque, voire plutôt moins bien.

 

A suivre…

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel