Catégorie : Aurical

Vous aviez peut être répondu, par l’intermédiaire de ce blog, au sondage réalisé l’année dernière par Mme Capucine MARMORAT qui faisait alors une collecte d’informations sur la pratique de la mesure in vivo en France dans le cadre de son mémoire de D.E. d’audioprothèse.

Certains d’entre-vous ont également répondu à un questionnaire plus poussé, et peut être aussi demandé à leurs patients leur ressenti sur la pratique de la MIV par leur audioprothésiste.

Je voulais donc revenir, avec Mme MARMORAT, sur les résultats de son mémoire sous la forme d’un « mini-débat ».

Vous pouvez si vous le souhaitez télécharger son travail très instructif.

« Entrevue » :

Continue reading

J’avais déjà abordé ce sujet dans un ancien billet. L’éventualité d’avoir à apporter la preuve de l’efficience d’un appareillage auditif n’est pas exclue dans le futur; de même que la justification du choix d’un modèle face à un financeur (les temps sont durs…). Il faudra donc peut être un jour démontrer l’efficacité des divers systèmes de décalages fréquentiels et d’argumenter nos choix prothétiques. Mais sans y être contraints par qui que ce soit, nous pouvons (simple curiosité) avoir envie de constater l’efficacité de ces systèmes, ou de les démontrer à nos patients.

DSLi/o (laboratoire d’audiologie de l’UWO pour University of Western Ontario), a créé récemment dans ce but des fichiers sons permettant de mesurer l’efficacité des différents systèmes de décalages fréquentiels (transposition, duplication, compression fréquentielle).

Il s’agit de signaux sonores reproduisant le phonème /s/ et /sh/(anglais) ou /ch/(français) noté /∫/ en alphabet phonétique international. Le /∫/ présente un pôle de bruit constant dans la zone 2000-8000Hz; le /s/ présente un pôle de bruit constant dans la zone 4500-10000Hz.

Ces signaux ont été créés à partir de l’ISTS, par extraction des zones fréquentielles respectives du /s/ et du /∫/ dans le signal d’origine, puis filtrage d’un bruit blanc par un filtre issu de ces zones fréquentielle :

ISTS_SH_S

Si vous regardez les spectres de ces fichiers, vous constaterez que ces phonèmes ont un facteur de crête très faible (normal pour ces phonèmes), et qu’en conséquence leur niveau moyen dans les aigus coïncide avec le percentile 99 de l’ISTS dans les zones fréquentielles concernées. C’est un bruit constant, avec les précautions d’usage qui s’imposent avec ce genre de signal.

Hélas, les fichiers .wav mis à disposition par DSL sur leur site (voir lien en début de ce billet), ne sont pas utilisables par les chaînes de mesure distribuées en France, pour des raisons de fréquence d’échantillonnage : ils ont été créés pour la Verifit 2 d’Audioscan.

Mais la maison GENY-DELERCE-MICHEL, qui ne recule devant aucun sacrifice, a créé une StartUp domiciliée au Panama, et alimentée à hauteur de 153,4 millions de dollars par un fonds de pension de retraités de Floride. Et donc :

  • vous les offre en cadeau Bonux et téléchargement dans une fréquence d’échantillonnage adaptée aux chaînes de mesure les plus distribuées chez nous !! Ce sont les deux fichiers NBN S.wav et NBN SH.wav
  • en deuxième cadeau Bonux, avec les 47 millions de $ qui nous restaient, et avant que le fisc nous tombe dessus, vous a créé à partir du spectre des deux fichiers précédents, deux ISTS filtrés : ISTS_SH.wav et ISTS_S.wav. Pour cela, NBN S et NBN SH ont été analysés, et un filtre a été créé correspondant à leurs spectres. Puis ces filtres ont été appliqués à l’ISTS pour créer deux fichiers distincts. Why ? (comme on dirait dans la langue du secoueur d’épieu…..) Parce qu’il est probable que certaines aides auditives prennent les deux premiers signaux comme du bruit. Je vous laisse apprécier le risque, j’attends vos retours, mais vous aurez mon avis sur la question en lisant un peu plus loin… Voici l’analyse spectrale et percentile (puisqu’ils ont une dynamique) de ces signaux maison:

ISTS_filt_SH-S

Vous l’avez compris : dans les deux cas (ISTS filtré ou « bruit phonémique »), on va utiliser le principe de la « zone fréquentielle tronquée » qui va servir de zone « réceptacle » afin de visualiser l’énergie transposée/compressée/dupliquée. Il est donc facile, en deux mesures « décalage pas activé »/ »activé », de vérifier et régler l’effet d’un décalage fréquentiel.

Niveaux d’émission du /∫/ et du /s/ :

En analysant l’ISTS, on peut extraire le /∫/ et le /s/ à respectivement 8,74  et 12,65 secondes du début du signal. On obtient ces niveaux :

CH12_65_S8_74_ISTS

  • Pour le  /∫/ :
  • Pour le /s/ (plusieurs segments mis bout à bout = cigale, peuchère !) :

Le niveau est légèrement plus important pour le /∫/ que le /s/, mais la Sonie est nettement plus importante pour le /∫/, de bande passante plus large.

Précautions d’emploi :

  • Pour arriver au « niveau équivalent de crête » des spectres des fichiers NBN S.wav et NBN SH.wav par rapport à l’ISTS, il ne faudra pas émettre en MIV ces signaux à 65dB SPL, mais :
    • pour le /∫/, 65dB SPL – 6dB = 59dB SPL
    • pour le /s/, 65dB SPL – 10dB = 55dB SPL
  • Pour les fichiers ISTS_S.wav et ISTS_SH.wav, le niveau d’émission « équivalent voix moyenne » sera :
    • pour le /∫/, 65dB SPL – 15dB = 50dB SPL
    • pour le /s/, 65dB SPL – 15dB = 50dB SPL

Vous pouvez enregistrer NBN S.wav, NBN SH.wav, ISTS_S.wav et ISTS_SH.wav dans vos dossiers de fichiers sons REM ad hoc selon votre configuration matérielle, télécharger les tests suivants prédéfinis pour Affinity ou FreeFit, et techter tout cha ! Attention, tests basés sur une audiométrie obtenue aux inserts (à modifier si vous travaillez au casque).

Où enregistrer ces fichiers sons dans vos PC ?

  • Pour Freefit, dans ce dossier :

Chemin Freefit

  • Pour Affinity, dans ce dossier :

Chemin AffinityAttention pour Affinity, le dossier Windows « ProgramData » est un dossier caché. Il faut autoriser Windows dans certains cas à afficher ces dossiers cachés. Penser également à demander à Affinity à rechercher ces nouveaux fichiers dans le répertoire REMSoundFiles.

Questions pratiques

  • DSL fournit un document très exhaustif, à la base pour l’adaptation pédiatrique, mais dont les pages 44 à 62 détaillent l’utilisation de ces signaux en pratique quotidienne.
  • Utiliser plutôt le test REM avec les fichiers bruités de DSL ou l’ISTS filtré ? Pour avoir testé les premiers (de DSL), vous constaterez peut être comme moi que le gain, après quelques secondes d’émission, se met radicalement à diminuer : c’est bien du bruit… C’est pourquoi, sans être présomptueux, je trouve plus intéressant d’utiliser les deux fichiers d’ISTS filtrés par la maison !
  • Le fichier ISTS_S.wav émis à 45dB SPL est-il trop faible ? Vous serez peut être surpris de la faiblesse d’émission (surtout ISTS_S.wav), mais pédagogiquement, il est très intéressant de se rendre compte du très faible niveau du /s/ dans la réalité (45dB SPL). Le /∫/ est moins surprenant. C’est également là que l’on se rend compte du côté un peu illusoire de la perception à 6kHz, même avec une transposition fréquentielle !
  • Freefit permet-il d’utiliser ces fichiers dans PMM « Réponse Avec Aide Auditive » ? Non, ces signaux n’apparaîtront pas dans la liste des signaux de test disponibles. Il faut utiliser le mode « Freestyle » pour y avoir accès dans la banque de données de signaux.
  • Ces signaux sont-ils disponibles d’origine sur les chaînes de mesure ? Pour être précis, les deux fichiers « bruités » de DSL NBN S et NBN SH seront présents dans l’Affinity version 2.8 à partir de juin 2016. Dans Freefit, ils sont déjà présents sous les noms Ling6 S et Ling6 SH. Les fichiers ISTS_S et ISTS_SH, eux, n’existent nulle part : exclusivité du blog !

Exemple

Voici un patient pour qui le seuil à 6kHz en dB SPL au tympan ne permet pas la perception du /s/ (courbe rose-violet). L’activation d’une duplication fréquentielle ici (Bernafon Saphira 5 CPx) permet de visualiser le décalage apporté à la zone 6kHz : la perception devient possible (à défaut d’être souhaitable…).

Dupli_S

On s’aperçoit également que cette duplication est proposée par défaut à un niveau « moyen » par le logiciel, et qu’elle est peut être un peu forte, car supérieure en intensité à la zone d’origine. Un réglage plus léger sera peut être mieux supporté (mais le patient ici vit très bien avec ce réglage depuis maintenant un an).

Conclusion

A l’usage, je pense que le fichier /∫/ est peu utile; on est encore dans la bande passante « utile » de l’appareillage. Le cas de /s/ est plus intéressant pour diverses raisons :

  • le fichier NBN S.wav s’avère quasiment inutilisable chez certains fabricants, le gain lors de l’émission diminuant drastiquement
  • Si on utilise ISTS_S.wav, la mesure devient possible, mais on s’aperçoit qu’il est illusoire de faire percevoir ce phonème dans une grande majorité des cas (surdité trop importante dans la zone d’émission et la zone adjacente)
  • Toujours en utilisant le signal ISTS_S.wav, le niveau d’émission est plutôt faible, et on est en permanence en limite de point d’expansion chez certains fabricants. Vous serez peut être surpris de voir que quelques aides auditives n’appliquent aucun gain à ce signal (la majeure partie du temps sous le point d’expansion), ou des variations de gain « explosives » (à des moments au dessus du point d’expansion, à d’autres en dessous), ou une amplification normale (le signal est en permanence au dessus du point d’expansion, réglé assez bas). Ce phénomène avait été décrit sur le blog Starkey à la suite d’un article de 2009 de Brennan et Souza (la figure 6 montre bien l’effacement de la consonne par la hauteur croissante du point d’expansion).

Bref, pour nous français, chez qui le pluriel et le possessif sont muets, la perception du /s/ n’a pas la même importance que chez les anglo-saxons, puisque l’article donne le plus souvent l’indication d’un pluriel, la suppléance mentale faisant le reste. De plus, toujours pour le /s/, son identification n’est pas du tout la même s’il est en dernier phonème d’un mot (le pluriel anglais) ou au milieu d’un mot. Dans ce dernier cas, sa perception sera facilitée par les transitions formantiques, rendant inutile un décalage fréquentiel.

Le décalage fréquentiel serait-il un réglage adapté aux anglo-saxons en priorité ? Allez savoir…

Bons tests aux plus téméraires !

Non, ce n’est pas un billet tiré de « philosophie magazine » ou inspiré par une quelconque mouvance « mindfulness », quoique… allez savoir !

Je reviens à nos moutons audioprothétiques, et là normalement vous allez vous dire que le rédacteur de ce billet est totalement obsédé par ce sujet de… dynamique vocale !

Oui, je vais encore aborder le sujet car il me semble important, et même crucial de connaître l’état de cette dynamique à l’entrée de l’aide auditive, et à sa sortie. Surtout à sa sortie : une aide auditive qui lisserait les contrastes temporels de la parole par une compression trop importante des « crêtes » ou une amplification exagérée des « vallées » en réduirait le contraste dynamique, réduisant du même coup les chances du malentendant appareillé d’extraire ces informations dans un bruit par nature souvent plus stationnaire que la parole.

Mais puisque l’on parle de « dynamique », encore faut-il savoir de quoi on parle. Nous avons coutume de considérer que la parole a une dynamique de 30dB environ. C’est à dire que si l’on mesure son niveau par bandes de 1/3 d’octaves à long terme (ex : 1 minute), les crêtes se situent 12dB au-dessus de ce niveau à long terme, et les vallées 18dB en-dessous, environ.

Cette dynamique de 30dB n’est pas « plaquée » autour du LTASS, elle est le résultat d’une analyse statistique de la distribution des niveaux du signal. Dans le cas de la chaîne de mesure in-vivo, pendant toute la durée de la mesure, la chaîne de mesure « classe » les différents niveaux atteints, et va se retrouver avec une courbe de distribution suivant une loi normale (cas de l’ISTS), ou de densité autre (signaux non vocaux par exemple), et dont les niveaux se répartissent autour d’un niveau médian (= dépassé, ou non-atteint 50% du temps), et qui indique, par exemple,  que 10% du temps le signal  a atteint tel niveau, que 30% du temps il a dépassé tel niveau, etc.

C’est une donc ce que l’on appelle l’analyse percentile du signal. Je vous laisse imaginer le calcul processeur nécessaire pour faire cela « à la volée », mais aussi en parallèle compiler et classer sur le long terme (ex : pendant 45 secondes).

Classer les différents niveaux va permette au final de définir la « dynamique » que nous avons l’habitude de visualiser entre le 30ème percentile (dépassé 70% du temps = les vallées) et le 99ème percentile (dépassé 1% du temps = les crêtes). Et on a coutume de dire que cette dynamique 30/99ème percentile est de 30dB.

Oui… mais pas tout à fait ! Ce calcul est totalement dépendant de la fenêtre temporelle d’analyse du signal. Si on voulait utiliser une analogie avec la photographie ce serait le temps d’ouverture de l’objectif de l’analyseur. En photo, plus longtemps vous « ouvrez », plus vous faites entrer de photons sur le capteur. Si vous êtes en plein jour et que vous ouvrez très longtemps, votre photo sera « cramée », c’est à dire blanche…

La chaîne de mesure fonctionne un peu comme un objectif : elle prendra une « photo » selon un temps d’ouverture, et le résultat de l’analyse percentile (et donc la dynamique du signal) sera très dépendant de nombreux facteurs. Parmi ceux ci, il y a la résolution temporelle de la fenêtre de la FFT, et cette dernière peut avoir une influence sur la résolution fréquentielle de la mesure (voir plus loin).

Pour faire savant, si un signal est échantillonné à 44100Hz (Fs) et que la FFT est réalisée avec un bloc de 1024 échantillons (c’est à dire N = 1024 échantillons temporels, correspondant à une taille mémoire imposée par le matériel), la résolution temporelle sera de N/Fs = 1024/44100=23ms, et la résolution fréquentielle sera de Fs/N = 44100/1024=43Hz. N est toujours une puissance de 2 dans les analyseurs physiques. Le principe de la FFT (Fast Fourier Transform) utilisée, entre autres, dans nos chaînes de mesure est donc de prendre ces 1024 échantillons temporels de 23ms et 43Hz de « large » qui vont aller remplir la mémoire de l’analyseur pour ensuite passer dans un algorithme de calcul FFT. Si on voulait avoir une résolution temporelle de 1 seconde, il faudrait remplir une mémoire adéquate avec 44100 échantillons (dans ce cas, le nombre N d’échantillons temporels serait égal à la fréquence d’échantillonnage Fs).

Dans nos chaînes de mesure, il va y avoir, comme dans tout analyseur matériel, plusieurs limitations. L’une est la taille de la mémoire (qui limite le nombre d’échantillons à analyser), l’autre est la vitesse de transmission du port USB qui limite la résolution temporelle de signaux pouvant transiter vers le PC à des blocs de 46ms (donc impossible de faire transiter des informations plus fines en temporel). Ce n’est pas forcément un problème, car l’analyse idéale, définie par la norme IEC 60118-15 (qui régit l’analyse des signaux de mesure in-vivo), souhaiterait que la mesure in-vivo soit réalisée avec une résolution temporelle de 125ms. Mais c’est, pour l’instant, techniquement difficile, car pour y arriver il faudrait, au choix :

  1. diminuer la fréquence d’échantillonnage du signal, et donc sa bande passante (voir la suite)…
  2. ou alors, si on voulait conserver une fréquence d’échantillonnage de 44100Hz afin de ne pas perdre de bande passante mais garder une résolution temporelle de 125ms (0,125sec), effectuer 0,125ms x 44100Hz = 5512,5  blocs temporels pour le calcul de la FFT, soit 5 fois plus qu’actuellement (en fait, ce serait 2 puissance 12 ou 2 puissance 13 blocs temporels pour être exact).

Tout est une question de moyens financiers que l’on veut mettre dans du matériel possédant des capacités aussi importantes… Notez quand même qu’à l’heure actuelle, un matériel distribué en France par la société AURITEC, le Verifit2 d’Audioscan, permet une résolution temporelle de 128ms avec une bande passante (in-vivo et coupleur) de 16kHz, donc 4096 blocs temporels (32000Hz*0,128ms) pour le calcul de la FFT. Il s’agit d’une chaîne autonome (non reliée en USB au PC), tournant sous Linux, avec processeurs dédiés.

Si on applique cette méthode d’analyse idéale (norme IEC 60118-15), donc avec fenêtre de 125ms (donc N=Fs x 0,125ms = 5512,5), pour un signal (ISTS) émis à 65dB SPL, on obtient :

ISTS_30_99_125ms_65dB SPL

En observant l’analyse ci dessus, on constate bien que la dynamique entre les percentiles 30/99 est d’environ 30dB à 3kHz,et d’environ 20dB à 400Hz.

Mais si on avait analysé le signal avec une fenêtre de résolution temporelle 1 seconde (N=44100 échantillons temporels), pour un ISTS toujours à 65dB SPL, on aurait eu :

ISTS_1s

La fenêtre d’analyse étant plus grande, et si on suppose que les zones faibles (comme les fortes) du signal sont très brèves, elles ont été « diluées » en quelque sorte avec les zones moyennes (entre les percentiles 50 et 65), plus représentées statistiquement. La dynamique a été divisée par 2 (env. 15dB à 3kHz). La parole peut être considérée comme un signal stationnaire… (Citation de Franck L. 😉 ).

Poussons le raisonnement à l’inverse, avec une fenêtre de résolution temporelle de 5ms (de l’ordre du phonème, avec N=220,5 écantillons temporels) :

ISTS_5ms

La dynamique du signal passe à 30dB à 400Hz, et environ 37dB à 3000Hz. Mais surtout, vous remarquerez la perte de résolution fréquentielle  dans les basses fréquences. C’est mathématique : la durée de la fenêtre temporelle doit être au moins 5 fois plus longue que la période du signal à analyser : donc ici pour 200Hz, fenêtre temporelle minimale = 5 x (1/200Hz) = 0,025 = 25ms. La fenêtre temporelle de 5ms n’est pas adaptée à l’analyse de signaux de 200Hz, et pour être exact, cette résolution temporelle ne permet même pas une analyse correcte de signaux inférieurs à 900Hz car leur période (= 1/fréq) est supérieure à la résolution temporelle de la fenêtre d’analyse… ce qui veut dire en clair que nous n’aurons jamais accès à des événements brefs (impulsionnels), dans les graves tout au moins avec les méthodes de type analyse FFT utilisées actuellement sur nos chaînes de mesure. Mais d’autres méthodes existent pour ces événements impulsionnels, et peut-être les verrons-nous dans de futurs modèles de chaînes de mesure…

AN : avec une résolution temporelle de 23ms sur une chaîne de mesure, la plus basse fréquence analysable correctement est de 5/0,023 = 217Hz. On comprend mieux pourquoi l’ISTS a été créé avec des voix de femmes et un fondamental laryngé de 200Hz, et pas des voix d’hommes avec un F0 à 125 ou 150Hz…

Et enfin, ce que font nos chaînes de mesure avec une résolution temporelle de 46ms (2 blocs de 23ms moyennés = 2 x 1024 points moyennés) :

ISTS_65dBSPL_46ms
Vous remarquerez que la dynamique percentile 30<–>percentile 99 est un peu plus importante que celle du signal analysé en 125ms. Tout est relatif donc dans ce genre de mesures et d’analyse de la dynamique du signal…

Le facteur temporel d’analyse, qui découle donc de la fenêtre FFT (1024 échantillons sur nos chaînes de mesure), a donc des répercussions sur la lecture des mesures. La dynamique de la parole (ou d’un autre signal) est tout à fait relative, en fonction des paramètres d’analyse, souvent dictés par le matériel. Les audioprothésistes (les fabricants de nos chaînes de mesures…) sont face à un dilemme :

  • nous donner accès à des événements très brefs et potentiellement agressifs pour le patient, en lecture de crêtes, mais en perdant de la résolution fréquentielle et en sachant que ce n’est pas possible en basses fréquences (avec les méthodes d’analyse actuelles)
  • nous donner accès à la meilleure résolution fréquentielle possible pour les réglages en perdant en résolution temporelle, et donc en risquant de ne pas avoir la lecture d’événements potentiellement agressifs…
  • … je résumerais donc ce dilemme avec une maxime de Pierre DAC : « Plus je pédale moins fort, moins j’avance plus vite » !

Il y a donc un compromis dans la mesure, pour l’usage en audioprothèse, et qui va être :

  • de ne pas descendre sous quelques dizaines de ms afin de garder une bonne résolution fréquentielle (en BF),
  • d’aller au-delà de 125ms afin de visualiser l’effet des compressions sur le signal amplifié par la lecture de sa dynamique,
  • … mais tout en sachant que se rapprocher de 125ms permet une bonne résolution fréquentielle (idéale selon la norme)…
  • … donc de se situer dans une fourchette d’analyse 40 <–> 125ms… c’est justement celle choisie par les fabricants de chaînes de mesure !
  • … et tout cela dans la mesure du possible d’une chaîne de mesure reliée à un PC et qui est limitée par son port USB ne pouvant transmettre des segments de plus rapides que 46ms !

On peut imaginer dans un futur pas si lointain la possibilité  de se rapprocher des préconisations de la norme IEC de 125ms, avec un port plus rapide, voire un système autonome (chaîne de mesure ayant une fréquence d’échantillonnage plus importante que 44100Hz, avec processeurs dédiés à l’analyse et tournant sous son propre OS). Allez savoir, il est bien possible que ce soit dans les cartons…

Mais pourquoi tout ce cirque avec une analyse précise de la dynamique ?

A des niveaux « normaux » (efforts vocaux moyens), la lecture précise de la dynamique du signal amplifié est réellement utile, car elle peut être détruite par une compression trop importante qui en lisserait les crêtes, mais, c’est moins connu, également par une amplification trop rapide et importante des vallées (réduction de la dynamique par le bas). C’est ce qu’avait montré Holube en 2007 (interview pour Audiology Online de l’initiatrice de l’ISTS) :

 

 

TA_TR rapides

Le graphique de gauche montre le signal amplifié par une aide auditive à temps d’attaque (TA) et temps de retour (TR) très rapides. Les vallées, dès qu’elles faiblissent, sont amplifiées très rapidement; les crêtes, dès qu’elles apparaissent sont lissées très rapidement également. Il en résulte une très nette diminution de la dynamique par rapport à un système plus lent (graphique de droite). Pour aller plus loin, vous pouvez également consulter ce document très intéressant (enfin, je trouve !).

Attention donc : sur quelques appareils, nous avons encore indirectement la main sur ces facteurs temporels, par le choix (obscur, j’adore !) de la « typologie du malentendant » et notamment un fameux choix « dynamique ». Les connaisseurs de ces fabricants reconnaitrons de qui je veux parler…

Juste pour vous montrer ce que devient le signal extrait d’un RSB 0dB, d’un appareil que j’avais testé précédemment sur ce blog, avant son amplification, puis après (émission à 65dBA, fenêtre d’analyse IEC 60118, de 125ms) :

Dyn ISTS in SNR0Dyn_voix extr SNR0

La dynamique est réduite après amplification, au maximum, d’environ 5dB. Il y a donc un respect de la dynamique du signal, même en milieu bruyant. Ce n’est pas toujours le cas… (des noms ! des noms !). Ce n’était pas du tout le cas il y a quelques années, et c’est là que les choses ont beaucoup évolué, il faut le reconnaître. Notez au passage l’amplification du signal @ 3kHz = 28dB.

Voilà ce que subit le bruit avant et après amplification par le même appareil, extrait du même mix à RSB 0dB :

Dyn ISTSnoise in SNR0

Dyn_bruit extr SNR0

Le bruit n’a pas de dynamique (c’est l’IFnoise), ce qui rend d’ailleurs « l’audition dans les vallées du bruit » très difficile; sa dynamique n’est donc pas affectée… puisqu’il n’en a pas. Notez au passage l’amplification du bruit @ 3kHz = 22dB, alors que les deux signaux ont été émis strictement au même niveau (RSB 0dB) et ont la même densité spectrale de niveau. Le signal est détecté, traité et amplifié de manière sélective (+6dB d’amplification par rapport au bruit).

Imaginons maintenant que la dynamique de sortie du signal n’ait pas été respectée (écrasée), cette différence d’amplification entre le signal et le bruit aurait été réduite à néant, car nous l’avons vu, la dynamique du signal avait déjà été réduite de 5dB par les compressions déjà « douces » (CR env. 1.2); une trop grande compression (protection) de la part de l’audioprothésiste aurait encore réduit cette dynamique, lui faisant perdre ses quelques dB d’émergence.

On le voit donc, la lecture de la dynamique du signal est extrêmement importante. Son respect par les algorithmes de traitement du signal est crucial. Pour info, la plupart des chaînes de mesure utilisent résolution temporelle de 46ms, mais en « overlapping », c’est à dire en faisant se chevaucher plusieurs blocs temporels à 50%, arrivent à 92ms de résolution temporelle, et donc se rapprochent des 125ms de l’idéal standard (j’en avais déjà parlé dans un billet traitant des diverses constantes de temps des chaînes de mesure in-vivo). Vous pouvez accédez à cette fonction dans le paramétrage de vos chaînes de mesure.

Tout cela montre bien la subtilité de toutes ces analyses, mais nous fait aussi prendre conscience (attention : psychologie magazine !) que nous voyons le monde, en général, à travers… une fenêtre !

###############################################

Atelier informatique

###############################################

Pour ceux qui seraient intéressés, cette analyse percentile du signal est réalisable avec une fonction (script) écrite pour le logiciel R.

Ce programme a été écrit par Nathan D. Merchant pour accompagner leur article sur l’acoustique des habitats écologiques. J’en ai modifié le code source afin de l’adapter à l’analyse percentile du signal au audioprothèse. Vous pouvez, si vous le souhaitez, en modifier également les bornes percentiles (ici j’ai défini 30, 50, 65, 95 et 99, dans le fichier Viewer.R). Vous trouverez le script de cette version modifiée ici. Téléchargez les fichiers PAMGuide.R et Viewer.R et mettez-les dans un dossier (votre bureau par exemple). Ouvrez R et définissez ce dossier comme répertoire de travail, puis tapez les commandes suivantes :

source("/votre dossier de destination/PAMGuide.R")

Vous pouvez aussi, sans taper cette commande, accéder au menu « Sourcer fichier » dans R et sélectionner « PAMGuide.R », puis taper :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, Hcut=16000, N=5512.5)

Cette commande déclenche une boîte de dialogue vous demandant de choisir un fichier .wav pour analyse. Cette dernière est effectuée en 1/3 d’octave (TOL), en bande passante de 200 à 16000Hz, et avec fenêtre temporelle de 125ms (N=5512,5). Le paramètre temporel N est fonction de la fréquence d’échantillonnage du signal à analyser : si vous avez 44100Hz de f.e., N=44100 x 0,125 =5512,5. Pour un signal échantillonné à 96000Hz, avec fenêtre d’analyse de 46ms, N = 96000 x 0,046 = 4416. Dans le cas où vous souhaiteriez avoir les valeurs en dB SPL (comme ici) et non pas en dB relatifs, utilisez le paramètre « calib=1 », puis définissez la sensibilité en dB du paramètre Mh en fonction de votre calibration (ici, un fichier .wav de calibration à 94dB SPL a servi de référence pour définir précisément Mh).

Par exemple pour une analyse de l’ISTS (fichier son téléchargeable sur le site de l’EHIMA), en dB absolus (et RMS = 65dB SPL) et fenêtre temporelle de 1 sec. :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=44100, calib=1, Mh=-3.4)

Et pour finir, l’analyse standardisée IEC 60118-15 en audiologie/audioprothèse, pour l’ISTS :

PAMGuide(atype="TOL", plottype="Stats", lcut=200, hcut=16000, N=5512.5, calib=1, Mh=-3.4, winname="Hann", r=50)

Les appareillages de surdités légères se multiplient ces dernières années (enfin, je trouve). Dans le même temps, je pense que nous ne sommes pas loin d’adapter quasiment 100% des aides auditives BTE/RIC/RITE avec deux micros, qu’ils soient utilisés dans leurs modes directionnels ou non.

La conjonction de ces deux faits augmente potentiellement le risque de perception de bruit de fond, notamment par un risque accru d’encrassement ou de panne du micro arrière, souvent plus exposé que le micro avant. Le circuit lui-même également génère un bruit de fond lors de son fonctionnement.

S’il est un sujet qui n’est pratiquement plus abordé par les fabricants, c’est bien celui du bruit de fond. On trouve en effet rarement ces données dans les fiches techniques aujourd’hui, alors qu’elles y figuraient encore systématiquement il y a… finalement longtemps ! (longtemps = + de 10ans en audiologie prothétique…). Et pourtant, l’importante amplification des circuits WDRC, voire FDRC actuels est susceptible d’amener ce bruit « brownien » électronique à un niveau perceptible, voire gênant.

Peut-on avoir une base quantitative fiable pour savoir si un bruit de fond se situe dans une limite tolérable ? Encore mieux : en fonction du seuil à chaque fréquence, comment déterminer si un bruit de fond risque d’être perceptible ?

Il est en effet difficile de savoir si 35dB SPL de bruit de fond est un niveau tolérable par un patient. Et même pour un audioprothésiste qui écoute (« L’Art perdu de l’écoute des aides auditives », repris de A. Rosette 😉 ), ou qui mesure ce BDF, où fixer la limite acceptable de qualité des composants électroniques à partir de cette mesure (ou de cette écoute) ?

Une mesure de BDF la plus utilisée en audioprothèse est la mesure du Bruit Equivalent en Entrée, ou en bon anglais « Equivalent Input Noise » ou EIN. La définition de ce terme m’a toujours parue « perchée », mais à la réflexion, elle est robuste (donc c’est moi qui ne suis pas assez perché) :

EIN = Bruit Equivalent  à l’Entrée :

  1. On suppose (c’est fictif) une aide auditive qui ne présenterait aucun BDF, avec un réglage équivalent (gain/fréquence) à celle (réelle) que l’on veut tester
  2. EIN = quantité de bruit qu’il faudrait envoyer à l’entrée de l’aide auditive fictive sans bruit pour avoir le même niveau de sortie (qui comprend l’amplification ET le bruit de fond mélangés) que l’aide auditive testée

Bref, trêve de bavardages, une bonne formule « et pi c’est tout ! » :

BDF dans le silence – Gain max. = EIN

Pourquoi faire intervenir une « aide fictive silencieuse » et donc exprimer le bruit « à l’entrée » plutôt qu’à « la sortie » ? Macrae & Dillon (2001) voient plusieurs intérêts à cela :

  • dans la plupart des aides auditives de bonne qualité de conception (pas les trucs faits en Chine et vendus en pharmacies), le BDF vient en majorité des micros, et le reste, du circuit
  • le BDF s’il était exprimé à la sortie, varierait en fonction de la position du potentiomètre (s’il y en a un); ce n’est pas la cas quand le BDF est exprimé en entrée
  • si le bruit était exprimé en sortie, les aides auditives à faible gain auraient toujours moins de BDF que les aides auditives à gain important

Ce qui veut dire :

  • que tester le BDF en entrée pour des appareils avec un potentiomètre (ou un réglage de gain) permet de s’affranchir du problème de l’augmentation de BDF avec l’augmentation du gain : en effet, si le BDF était testé en sortie, plus le gain serait élevé, plus le BDF le serait aussi. Le fait de retrancher le gain du BDF dans le silence permet de décorréler le BDF du niveau de l’amplification.
  • de même pour les appareils très puissants : s’ils étaient testés en sortie, leur amplification très importante (y compris dans un caisson de mesure très silencieux, mais jamais totalement silencieux) ferait croire à un bruit de fond très important. Le fait de le mesurer en entrée (donc de déduire le gain max.) permet de pouvoir comparer le BDF en entrée d’un « petit » appareil open et d’un surpuissant.

Donc en quelque sorte, la mesure de l’EIN « relativise » le bruit de fond par la soustraction du gain…

Pour calculer l’EIN, la chaîne de mesure va faire deux mesures successives dans chaque bande de tiers d’octave :

  1.  première passe : mesure du gain, en général à bas niveau d’entrée (40/50dB SPL par exemple) pour chaque bande de 1/3 d’octave
  2. deuxième passe : mesure du BDF dans chaque bande de 1/3 d’octave. Donc là, c’est le silence (relatif) dans le caisson, d’où l’intérêt d’avoir un bon caisson de mesures

Et donc ensuite, 2 – 1 = EIN. C’est la courbe bleue que vous voyez sur cette mesure :

Capture

Bon, maintenant que l’on a cette mesure d’un bruit de fond équivalent en entrée, qui est ici comprise entre 20 et 35dB, qu’en faire ? Bien ou pas bien dans ce cas ? Audible par le patient ou inaudible ? Mieux : potentiellement gênant ou non ?

La suite au prochain épisode….

~Entracte~

~Chocolats glacés, Eskimos, cacahuètes, Treets, …~

Once upon a time : des aides auditives qui se réglaient avec des sons Wobulés, au caisson de mesure.

Cela se passait dans des temps forts lointains, où les Elfes, les Ents et les hommes vivaient en bonne harmonie; un temps où Saroumane ne commençait pas à faire n’importe quoi. En ce temps là, les assureurs assuraient, les banquiers banquaient, la sécu remboursait, les Zaudios appareillaient, les opticiens lunettaient, les professions réglementaient (jeu de mots…), etc. « Toute chose à sa place, toute place a sa chose », comme disait ma grand-mère.

Tout allait bien, quoi !

Et chez nous, les Zaudios (ça me fait penser à Claude PONTI et l’île des Zertes), un son « moyen » était à 65dB SPL, un son « faible » à 50dB SPL (allez, je vous le fais à 40dB SPL !) et un son « fort » à 80dB SPL.

C’était le bon temps : de bonnes vieilles valeurs simples, robustes et fiables ! Et qui nous parlaient bien !

Mais tout changea. Quand ? je ne saurais trop le dire… Des tours sont tombées, des bulles ont éclaté, des 4×4 sillonnent des déserts que photographient des drones, le vin français titre désormais à 14,5°, des regroupements/fusions/acquisitions ont eu lieu, etc, etc, etc.

Et désormais « On doit pouvoir s’épanouir en voyant « Fin » en l’air », comme dit la chanson…

Bref, tout a changé dans ce monde, mais un bastion résiste, en dehors des modes et du temps : le logiciel de réglage des Zaudios !!

G_BEG_Wid2G_WidG_STKG_SIG_RSDG_PKG_OT

Mais oui ! Vous l’avez remarqué : dans notre monde terrible de complexité, le logiciel de réglage se compose toujours (en autres, quand même) du bon (= le G65/moyen/modéré), de la brute (G80/fort) et du truand (expansion, G40/G50/faible, carrément fourbe celui-là !). J’oubliai aussi Dieu : le MPO !

C’est simple et de bon aloi, mais un peu tiédasse quand même pour « fort, moyen et faible », pas bien précis en tous cas. Et surtout, ces niveaux d’entrée vaguement flous contrastent furieusement avec la précision diabolique (au dB près) des pas de réglage.

Pour couronner le tout, on ne sait même pas s’il s’agit en entrée de dB SPL, de dB HL, de Sones. Et surtout, je le redis : ça n’a pas bougé depuis… que ces logiciels de réglages existent ! Nuance quand même : depuis que les circuits WDRC à trois points d’enclenchements existent, c’est à dire depuis peu pour certains 😉 .

  • A quoi correspondent aujourd’hui ces réglages hérités des temps anciens, lorsque par exemple, un patient va nous dire : « Les voix fortes sont un peu trop fortes » ? Les fabricants veulent-ils que nous touchions le « G80 » ? le « Fort » ?
  • Pour augmenter la perception de la voix « moyenne », faut-il toucher « Modéré » ou « G65 »  ?
  • Où commence et finit la zone couverte par « Modéré » ? de 50 à 70dB SPL ?
  • Et les autres zones ?

Avant éventuellement d’apporter un peu de précisions, on présumera (mais ce n’est pas explicite…) que ce qu’affiche un logiciel de réglage sous la forme « Expansion », G40/50/65 et 80 ou autres « Faible, Modéré, Fort » concerne les niveaux d’entrée. Puisque on part du principe qu’aujourd’hui, toutes les aides auditives ont des compressions en entrée (AGCi) et en sortie (AGCo/MPO); donc tout ce qui est inférieur à 80dB (SPL ? Oui !) en entrée est régit par les AGCi.

C’est de là que vient la grande ambiguïté : une discordance entre l’affichage logiciel et/ou in-vivo qui est un niveau de sortie, et le niveau d’entrée, souvent invisible. Lorsque l’audioprothésiste règle une aide auditive, il voit çà sur son logiciel de réglage :

SPL_PK_TARGET

Et/ou éventuellement il voit ça en mesure in vivo :

REAR_65

Dans les deux cas ci dessus, le logiciel ou la mesure donnent le niveau de sortie prévu ou mesuré dans le conduit auditif pour la voix « moyenne » (65dB SPL) en entrée, qui est ici (zone entourée) de 90dB SPL entre 2 et 4KHz.

Donc si on voulait, par exemple, augmenter cette fameuse zone 2/4KHz, il faudrait :

  • augmenter le G80, puisqu’on est à 90dB SPL in vivo ?
  • augmenter le G65, puisqu’on est à voix moyenne en entrée ?
  • autre chose ?

Réponse : augmenter le gain entre 40 et 50dB d’entrée…

… parce que la voix moyenne (pour le niveau à long terme, c’est à dire le niveau de la cible donnée par telle ou telle méthodologie) est à environ +/- 50dB SPL en entrée.

Toute la difficulté est là :

  1. Raisonner en entrée alors que nous visualisons en sortie
  2. Se dépatouiller avec des niveaux « logiciels » qui n’ont rien à voir avec les niveaux réels de la parole en entrée

J’ai voulu essayer de donner une correspondance entre le signal d’entrée (ce signal étant une voix), et l’action à entreprendre dans les logiciels pour avoir un impact sur ses différents niveaux d’énergie (classés en percentiles) et dans quatre zones fréquentielles différentes.

Vous trouverez donc ci dessous les niveaux logiciels intervenants dans les réglages spécifiques de la parole, pour les zones 250/500Hz, 500/1000Hz, 1000/2000Hz et 2000/4000Hz; trois percentiles de parole (crêtes=  percentile 99 , long terme= LTASS = env. percentile 65 et vallées = percentiles 30), le tout à trois niveaux d’entrée (faible, moyenne et forte):

Voix faible (55dB SPL)

V55

Télécharger ce fichier « 55dB SPL »

Voix moyenne (65dB SPL)

V65

Télécharger ce fichier « 65dB SPL »

 

Voix forte (75dB SPL)

V80

Télécharger ce fichier « 75dB SPL »

Et là, oui, ça va mieux : on commence à comprendre que le « G80 » ne va pas servir à grand chose, et que même le « G65 » est finalement peu utilisé. Il va donc falloir faire attention à sélectionner des aides auditives dont le premier TK sera réglable, ou réputées avoir une expansion de très bas niveau, car même la voix « moyenne » est constituée d’indices de très faibles niveaux…

Mais attention : ces différentes zones dynamiques sont très approximatives, et surtout, différentes d’un fabricant à l’autre. Il faudrait connaître les TK exacts et donc pour cela avoir les courbes de transfert (entrée/sortie) qui sont bien souvent absentes… Et même quand ces courbes I/O sont présentes, la plupart commencent leur affichage à 40dB SPL (rien à voir et à savoir en dessous ?). Dommage…

Et Dieu dans tout ça ? (le MPO !)

Et bien lui, il ne fait jamais rien comme les autres, c’est connu ! Si vous reprenez la mesure in-vivo ci-dessus, vous constaterez qu’un MPO peut agir, disons dès 90dB SPL et que les crêtes de la voix moyenne dans la zone 2/4KHz, qui sont régies en entrée par le gain à 50/65dB SPL peuvent être atteintes (et détruites) par un MPO trop bas ou trop actif (ou volontairement réglé comme cela). Donc on aurait finalement deux informations à surveiller : le niveau en entrée, souvent inférieur à 65dB SPL dans une bande de fréquence, et le niveau en sortie, affiché par le logiciel ou la mesure in vivo.

La balle est maintenant dans le camp des fabricants. Il est temps de nous donner un choix d’affichage plus « réaliste » pour les niveaux vocaux en entrée :

  • Pourquoi ne pas proposer (en option dans les logiciels) des réglages adaptés aux niveaux d’énergie de la parole ? Je suggère « G35 », « G50 » et « G65 » par exemple qui couvriraient la voix faible à forte.
  • Pourquoi ne pas permettre d’afficher (à la demande) les spectres en entrée de la voix faible, ou moyenne ou forte, dans la fenêtre de niveau de sortie ? Certains, comme OTICON le proposent (voix moyenne).
  • Enfin, en mesure in vivo, pourquoi ne pas afficher lors d’une mesure vocale, le spectre en entrée correspondant ? FreeFit le propose à chaque niveau, Interacoustics, pour un seul niveau (voix moyenne).

Voilà, voilà. J’en ai fini avec mes récriminations qui, je l’espère, feront avancer le shmilblick (vous aurez remarqué deux très jolis mots placés dans une même phrase !).

Merci d’être parvenus jusqu’à la fin de ce loooooonnnng post, et bonne année 2015 !

 

Crédit image pour les spectres à long terme de la parole : Aurical FreeFit.

Les méthodes in vivo, après avoir s’être cantonnées strictement à l’application de méthodologies, se retrouvent partout : simulation acoustique, vérification phonétiques (usage du test ling6), vérification des critères de réglages hors méthodologies (compression fréquentielle, MPO, etc….). On peut désormais les utiliser pour la réalisation d’un mixing point hyper précis pour le traitement des acouphènes (même si je n’aime pas le terme de traitement…) :

mixing point acouphène blog audioprothésiste audition geny

schémas du mixing point

Je partage ici une manoeuvre expérimentale que je réalise avec le système Astera et freefit d’Otometrics. Plusieurs améliorations permettent désormais de réaliser efficacement et rapidement le masquage d’un acouphène (compter un bon trois quart d’heure pour réaliser cette technique). Pour le bien de la démonstration, j’utilise un appareil PURE MICOM 3 MI, écouteur de taille S de la marque SIEMENS.

Cette procédure est utile pour bien « monitorer » la réalisation du point de mélange masquage/acouphène. Elle doit bien évidemment être accompagnée de nombreuses explications sur les acouphènes et de questionnaires type THI pour « scorer » la sensation d’acouphène, sa répercussion sur la qualité de vie  et l’évolution dans le temps. Cette méthode fonctionne dans 60/70 %, même chez les sujets ne présentant qu’une très légère augmentation des seuils auditifs (panel de 16 personnes). j’aborderai ici que la partie technique.

Pour paraphraser mon ami Xavier DERLECE, une bonne audiométrie est une audiométrie faite aux inserts ! Alors ne nous dévoyons pas, dans le cadre d’une prise en charge d’un acouphénique, soyons le plus précis possible, eu égard à la souffrance ressentie par le client/patient ! Je ne reviendrais pas sur cette approche, pour plus d’infos consultez les pages suivantes >>ICI<<

A noter que je pratique une audiométrie par 1/6ème d’octave ce qui facilite par la suite la recherche de la hauteur de l’acouphène.

Dans un second temps, ASTERA permet, via le module « acouphène », d’enregistrer les caractéristiques clefs de l’acouphène : hauteur, intensité, masquabilité, qualité du masque, mixing point. les acouphènes larges bandes restent néanmoins difficile à préciser. Dans ces cas là, je définis les bornes fréquentielles de l’acouphène. De même pour les acouphènes qui varient (l’important est d’être facilement accessible pour l’acouphénique pour enregistrer les valeurs « hautes » de l’acouphènes, en cas de « crise »).

2013-12-14_1152

Dans ce cas, nous enregistrons un acouphène à +/- 4KHz avec une intensité de 6 dB SL. Lors de l’acouphénométrie, l’acouphène était masqué à 10 dB SL avec un bruit NB. Il est remarquable, quasi systématiquement, d’enregistrer des valeurs d’intensité très faibles : entre 0 et 6 dB SL…

Une fois que les caractéristiques précises de l’acouphène sont établies le plus précisément possible, j’utilise le module freestyle du freefit pour visualiser en fréquence et en intensité le « masquage » de l’acouphène procuré par l’aide auditive comme suit :

enregistrement réglage anti acouphène astera audition geny

Au niveau de l’audiométrie SPL droite ci dessus, je manipule les curseurs de réglage du PURE pour générer un pic plus large en fréquence que l’acouphène avec une intensité plus ou moins égale dans un premier remis à l’acouphène percu (vous pouvez remarquer, autour du 4KHZ, l’émergence de la courbe orange qui correspond au « masquage »). Après moult réglage, cette personne admet ressentir une amélioration de sa qualité de vie (THI à l’appui).

Conclusion : sans supprimer la présence de l’acouphène, on peut désormais quantifier et qualifier l’acouphène précisément et rigoureusement, apporter des solutions dans plus de 50 % du temps. Encore une victoire de canard 🙂

En 2000, B.C.J. Moore présentait un nouveau test audiométrique tonal, le TEN-Test, censé être aussi efficace  que l’utilisation des courbes psycho-acoustiques d’accord (85% environ aussi précis, selon ses travaux) dans la détection de « Zones Mortes cochléaires ». Une « Zone Morte » étant définie par l’absence ou une importante raréfaction des cellules cilliées internes (CCI) dans la cochlée, rendant toute amplification prothétique inutile, voire nuisible à l’intelligibilité selon certains auteurs à l’époque.

Ce test est un test d’audiométrie tonale, d’abord effectuée dans le silence (classique…), puis ré-effectuée dans un bruit envoyé de manière ipsilatérale. On demande alors au sujet testé de déterminer son seuil de perception au milieu de ce bruit, appelé « TEN ». TEN= « Threshold-Equalising Noise », ou « Bruit Egalisateur de Seuil ».

C’est justement dans ce « bruit » que réside tout  le test. Son élaboration repose sur des fondements psycho-acoustiques relativement récents. Son but est donc « d’égaliser/équaliser » le seuil à son niveau. Par exemple pour une surdité en pente régulière:

L’audiométrie a d’abord été réalisée au casque (ronds rouges) sans le bruit, par pas de 2dB. Elle est ensuite refaite avec présente du TEN, ici envoyé à 70dB/ERB. Les seuils « tombent » alors à l’intensité d’émission du TEN, et devraient s’aligner aux environs de 70dB HL pour chaque fréquence testée. Aucun autre signal masquant ne permet cela, ni le bruit blanc, ni le bruit rose. Le TEN est en effet élaboré de telle sorte qu’il a un pouvoir masquant égal dans chaque ERB, son intensité n’est pas donnée strictement en dB HL, mais en dB/ERB.

ERB ?

Si vous vous faites le test et que vous utilisez un TEN à 70dB/ERB, vous vous apercevrez que c’est fort et à 80dB/ERB vraiment très fort. ERB signifie « Equivalent Rectangular Bandwidth » ou en gros, « Bande de largeur rectangulaire équivalente ». Sous-entendu: « équivalente à un filtre auditif ».

Ces « filtres auditifs » sont en fait les « Bandes critiques » (mais pas exactement pour Moore), décrites par Fletcher dans les années 1940, au nombre de 24 (échelle des Barks). Elles correspondent à des « filtres cochléaires » présentant de nombreuses particularités. Par exemple, pour un son pur à 1000Hz dans la bande critique 1000Hz (qui fait 160Hz de large); l’ajout d’un second son pur de même intensité à une fréquence proche du premier (ex: 1010Hz) mais dans la même bande critique (compris dans cette bande de 160Hz) ne provoquera pas d’augmentation de sonie. Si le second son pur « sort » de la bande critique 1000Hz, il provoquera un changement de sonie. Ces propriétés (et d’autres encore) ont été étudiées et affinées depuis Fletcher et Zwicker, et il est apparu plus simple de modéliser ces « filtres auditifs » qui ont une forme de cloche (sommet en pointe et extrêmes aplatis), par leur « équivalent rectangulaire » (équivalent rectangulaire de la surface ou aire du filtre auditif):

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007
Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Mais B.C.J. Moore dans les années 80 a entrepris (avec d’autres) de re-mesurer la largeur des filtres cochléaires en utilisant une technique dite du « bruit à encoche », donnant une meilleure précision dans la détermination de leur largeur en fonction des fréquences. Je précise qu’il n’y a bien entendu ni « 24 bandes critiques », ni « emplacements ERB » fixes et bien délimités dans la cochlée, mais un continuum chevauchant de filtres cochléaires. Si l’on prend une fréquence quelconque, par exemple toujours 1000Hz, on s’aperçoit que la bande critique suivante (voir propriétés plus haut) est à 1770Hz, le filtre précédent à 840Hz, etc. Ceci est valable pour les bandes critiques et les ERB (fréq. centrales différentes pour ces dernières).

Les ERB (échelle en « Cams », par opposition aux « Barks ») sont un peu plus étroites que les bandes critiques, notamment dans les aigus:

BC, ERB et 1/3 d'octave. XD 2012.

Pour une revue détaillée du concept de « filtres cochléaires » et de leurs propriétés (la machine humaine et son oreille en particulier sont incroyables…), la dernière édition de Psychology of Hearing de BCJ Moore est extrêmement détaillée, très didactique et progressive dans l’approche de concepts psycho-acoustiques pas toujours évidents (il appelle ça « Introduction » mais ça fait plus de 400 pages…). Vous trouverez également dans ce document libre (p. 421 à 427) divers développements sur les BC et ERB.

Donc lorsque l’on utilise le TEN à 70dB, il s’agit donc de 70dB dans chaque ERB, d’où le niveau ressenti: fort !

Le but décrit par Moore avec l’utilisation du TEN est d’éviter « l’écoute hors fréquence » (« Off Frequency Listening »). En présumant qu’une zone cochléaire est « morte » selon les critères décrits plus haut, l’augmentation du niveau du son pur de test entraîne un « pattern d’excitation » qui s’élargit sur la membrane basilaire, permettant au final à des cellules cilliées situées plus loin de la zone testée, de « répondre » à la place de la fréquence testée. On obtient alors un « faux-positif » audiométrique faisant penser à une perception réelle dans la zone. En réalité, le patient aura perçu un stimulus plus large bande (type bruit filtré), mais pas le son pur envoyé.

Le but du TEN-Test est donc d’utiliser un bruit masquant (le TEN), étudié spécifiquement pour donner la même intensité de masque dans chaque ERB. En présence du bruit masquant, les seuils doivent donc « tomber » au niveau du bruit puisqu’en saturant chaque ERB, il empêche « l’écoute hors fréquence ». Et ça fonctionne (l’égalisation du seuil au niveau du TEN), validant au passage de manière indirecte le concept d’ERB face au concept de bandes critiques.

Imaginons maintenant qu’une zone cochléaire ne possède plus de CCI. Nous testons (sans bruit masquant) en augmentant le signal de test, le pattern d’excitation augmente et les régions « saines » les plus proches finissent par répondre. Faux-positif. Le re-test en présence du TEN empêche la détection hors fréquence: le seuil masqué « tombe ». Exemple (réel, on en reparle plus bas):

 

TEN-Test
TEN-Test 70dB/ERB

 

Sans masque, le seuil de ce patient est représenté par les croix. Le TEN est ensuite appliqué à 70dB/ERB. Les fréquences 500 à 1000Hz tombent à 76 et 74dB HL, la fréquence 1500Hz tombe à 80dB HL (TEN + 10dB). La fréquence 2000Hz tombe à 86dB HL (TEN + 16dB). Les fréquences 3 et 4KHz ne « bougent » pas (mais elles auraient pu…).

B.C.J. Moore défini le critère de zone morte ainsi:

  • Pour les seuils dans le calme (sans TEN) inférieurs au TEN (ici, inférieurs=meilleurs que 70dB, donc de 500 à 2000Hz compris): Zone Morte Cocléaire (ZMC) si le « seuil masqué » est au moins 10dB au dessus du seuil « non-masqué » et 10dB au-dessus du bruit. Ici, le 1500Hz est « limite » et le 2000Hz est « positif » (ZMC @ 2KHz).
  • Pour les seuils dans le calme (sans TEN) supérieurs au TEN (ici le 3 et 4KHz): ZMC si le « seuil masqué » est juste supérieur au « seuil non-masqué » (ici si le 3KHz était passé de 86dB à 88dB HL et le 4K de 98 à 100dB HL). En réalité, il est conseillé dans ce cas d’utiliser pour ces deux fréquence un TEN plus élevé (80dB/ERB) pour voir si l’on obtient un décalage plus important des seuils masqués…
Et donc dans ce cas, on utiliserait uniquement la bande jusqu’à 1500Hz pour corriger, toute information apportée à partir de 2000Hz étant jugée inutile, voire nuisible à l’intelligibilité.
Voir pour plus de détails le PHONAK Focus 38 (PHONAK fait des trucs très bien 😉 )sur le sujet.

« Mais ça, c’était avant… » (Nous interrompons notre programme par une page de pub !).

Le TEN-Test est facile et rapide à administrer. Ses conclusions, binaires (Mort/Pas mort). Une littérature surabondante sur le sujet a été produite ces dix dernières années. Passé la première période de doute sur les résultats du test, de nombreux audiologistes ont tenté de dégager une règle d’amplification pour les sujets présentant une ZMC ou un TEN-Test positif. La » règle du 1.7Fe » a semblé s’imposer: si une zone morte est dépistée à xHz (appelé Fe), la bande passante de l’amplification ne devra pas dépasser 1.7*Fe.

Cette règle (les anglo-saxons aiment bien ce genre de trucs…) se basait aussi sur des travaux ayant mis en évidence une dégradation de l’intelligibilité chez des patients présentant des ZMC et chez qui la bande passante d’amplification n’avait pas été réduite (Vickers, Moore, Baer, 2001).
Des études plus récentes, et notamment l’article de Cox et al. en 2011, tendent cependant à minimiser l’impact négatif de l’amplification HF chez des sujets présentant des TEN-Tests positifs dans ces régions cochléaires. Une amplification HF maintenue resterait bénéfique dans ces cas. Ces auteurs réitèrent d’ailleurs dans un article à paraître bientôt: il n’est pas si évident que la réduction de bande passante d’amplification soit une bonne solution lors de TEN-Tests positifs.
Un résumé de leurs articles est disponible sur le blog Starkey.

Alors quoi ?

On fait un TEN-Test, il est positif. Certains auteurs disent « Pas d’amplification sur une supposée ZMC ! » et d’autres « Allez-y. Au pire ça ne fera que légèrement baisser le confort, au mieux, améliorer l’intelligibilité ! ».

Faire ou ne pas faire de TEN-Test ? That is the question !

J’enfonce le clou: certaines équipes de neuro-physiologie françaises sont très dubitatives sur le résultat immédiat du TEN-Test et son interprétation très « on/off » si je puis dire.

Je m’explique. En reprenant le patient précédent (oreille gauche). Ce monsieur a été testé lors du premier RDV de bilan pré-prothétique. Donc TEN-Test douteux à 1.5K et positif à 2K. Puis ce patient a été re-testé après deux mois d’appareillage (et donc de stimulation):

Là, on ne joue plus: les carrés gris = premier test, carrés bleus = second test (post-app. 2 mois). Le 1.5K est passé « négatif », le 2K est passé « limite ». TEN-Test en gros « négatif », amplification jusqu’à 2.5/3K environ supportée sans aucun problème.

Certes, le premier TEN-Test aura permis de démarrer une correction réduite en bande passante et s’élargissant ensuite. Le second TEN-Test n’aura fait que confirmer une sensation d’utilité d’une zone qui n’avait plus été stimulée depuis bien longtemps, mais qui était dans une moindre mesure certes, fonctionnelle. Je ne suis pas neuro-biologiste, mais sans trop m’avancer, le premier TEN-Test aura certainement mis en évidence une désafférentation de cette zone cochléaire, et le second, l’effet de la simulation sur la même zone et au-delà. J’attends avec impatience l’audiologiste qui pourra mener un test/re-test en pré/post-appareillage sur un échantillon conséquent et significatif…

Le TEN-Test est aujourd’hui disponible en routine sur le Nouvel Aurical, Affinity, et c’est tant mieux. Il est un outil de diagnostique irremplaçable pour l’audioprothésiste, permettant un accompagnement progressif dans la correction. L’adaptation prothétique reprend tout son sens: un acte professionnel sur le long terme. Pas un « objet ». Mais il doit être interprété avec prudence, notamment sur des résultats peu marqués.

XD.

PS: @ Maëlgad: j’y aurais mis le temps, mais je n’avais pas oublié que je devais t’envoyer ces infos 😉

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel