Catégorie : Investigations audiologiques

Progressivement, cet article va évoluer, par mise en ligne de divers documents sur la mesure in-vivo. Revenez faire un tour régulièrement…

L’atelier (fr) « La mesure in-vivo d’efficacité de l’appareillage auditif » du congrès UNSAF 2010.

Le (fr) document fil directeur de l’atelier.

Une (fr) synthèse (toute personnelle) du processus réglages et mesures.

A la demande de certain(e)s, (fr) un fichier .iax de configuration de test REM pour Affinity (version logicielle 2.0.4 minimum): à télécharger et importer comme test dans votre Affinity.

Concernant les diverses sources de renseignements au sujet de la mesure in-vivo:

Terminologie:

  • On commence en Français (!) par (fr) un document établi par Marco TORREANI (Widex), avec humour parfois, sur les principaux termes de la mesure in-vivo (juste un point de détail: RETSPL ne signifie pas « real ear threshold… » mais « reference equivalent threshold… », voilà, c’est dit !)
  • toujours du même auteur, (fr) un descriptif des bruits ICRA, mais ces derniers vont être supplantés par l’utilisation de l’ISTS (voir plus bas)

Les sites internet:

Concernant les bases de la MIV, c’est à dire acoustique et psychoacoustique (intégration des sons complexes type parole):

  • un chouette site (fr) sur les ondes stationnaires et résonateurs 1/2 onde (le conduit auditif ouvert)… des révisions !
  • … et un conduit fermé par un embout avec évent, ça devient un (fr) résonateur de Helmoltz, ce que l’on mesure en in-vivo appareil arrêté et en place sur l’oreille (le REOR/REOG)
  • Un cours très intéressant sur (fr) la sonie des sons complexes, en français (!), abordable et qui donne une bonne compréhension de la perception par l’oreille humaine de la parole, de la largeur des bandes critiques ou des ERB (B.C.J. Moore) et du pourquoi de l’analyse en 1/3 d’octave de la parole par les chaînes de mesure in-vivo et des cibles de REAR pour un signal de parole
  • Concernant la résonance du CAE chez l’enfant, ainsi que le phénomène de « noeud à 6000Hz »: « MAGERA P., LURQUIN P. Evolution de la résonance du conduit auditif externe chez le nouveau-né et le jeune enfant ». Cahiers de l’audition n°88.
  • Les (fr) effets produits par un mauvais placement de la sonde

La transposition des données de l’audiométrie (dB HL) en dB SPL au tympan (SPLoGramme):

Le SPLoGramme est un terme initialement utilisé par le groupe DSL.

La difficuté en appareillage auditif est de connaître la quantité d’énergie au tympan, en dBSPL, nécessaire à déclencher la sensation auditive, alors que l’on travaille en dB HL sur des bases coupleurs (6cc pour le casque, 2cc pour les inserts). Des moyens existent pour « approcher » ces valeurs du SPLoGramme, soit par estimation à partir des normes ISO, extrapolation du MAP (voir plus loin), Inserts et RECD, …

  • Quelques exemples de dérivation des données HL vers le SPLoGramme récapitulées (fr) dans ce pdf
  • L’usage du SPLoGramme pour DSL (fr), tirée du (en) site DSL
  • Le passage HL–>SPL est régit par (en) différentes normes ISO selon les transducteurs de mesure utilisés…
  • … mais formules de calcul et fabricants utilisent fréquemment le MAP (Minimum Audible Pressure) pour leurs estimations des niveaux sonores au tympan: un article de (en) Killion (1978) et (en) plus récent, du même
  • Vous trouverez dans ce document Interacoustics les (en) dérivations utilisées pour passer du champ libre aux dB SPL au tympan, tableaux de conversions tirés de BENTLER et PAVLOVIC
  • Des dérivations HL–>SPL individualisées sont possibles (souhaitables ?), comme l’usage (en) du REDD, du (en) RECD, voire la (fr) mesure directe en dB SPL dans le conduit
  • En général, l’usage des (en) inserts (EAR 5A) en audiométrie et l’utilisation des RECD,(fr) mesurés ou (fr) statistiques, outre les avantages inhérents à ce type de matériel, permettent une bonne approche de la réalité acoustique en fond de conduit, en restant facilement utilisables en usage quotidien
  • Vous trouverez dans (fr) cet article une approche de la problématique des transformations (dérivations) HL->SPL(tympan) et les solutions pour approcher au mieux le SPLoGramme.

Bref, la MIV, réputée comme « juge de paix » de l’appareillage se base (cibles et SPLoGramme) sur des approximations parfois importantes. Il faudra accepter cette erreur ou chercher à la réduire par les moyens cités plus haut.

Mesure in-vivo de signaux de parole:

La mesure in-vivo de la parole, surtout en niveaux de sortie est appelée à (en) devenir une mesure incontournable (attention: document CONFIDENTIEL, c’est marqué dessus!!!!), notamment avec les évolutions logicielles des chaînes de mesure actuelles permettant le calcul de la dynamique du signal (crêtes et autres niveaux d’énergie). De plus la mise au point de nouveaux signaux vocaux, standardisés, permet une utilisation universelle et réaliste des performances des AA, toujours dans le but de ne pas désactiver les réducteurs de bruit.

  • l’article incontournable de ce genre de mesure est en français (chouette!!): « Spectre à long terme de la parole en valeurs crêtes » de Hilaire, Renard, De Bock, Vervoort, Lurquin, et Lefevre, paru dans les cahiers de l’audition Vol. 4, N°3, mai-juin 2002. Ne boudons pas notre plaisir pour une fois qu’un tel article est disponible en français. Il permet de bien appréhender la difficulté de travailler en REAR à la voix et de bien cerner l’apport des informations de crêtes.
  • concernant les nouveaux signaux vocaux, on citera l’ISTS (fr) décrit dans ce blog, et téléchargeable sur le (fr) site de l’EHIMA
  • La visualisation de signaux vocaux dans le champ dynamique du malentendant porte le nom de Speech Mapping, Visible Speech, etc., vous trouverez dans (en) ce document Audioscan la description de cette mesure et le pourquoi de l’analyse par 1/3 d’octave. La dynamique du signal par analyse percentile est également très intéressante.
  • l’analyse percentile du signal permet d’en visualiser l’énergie dans la dynamique souhaitée. En général, on représentera la zone d’énergie +12/-18dB par rapport au niveau moyen, ce qui correspond aux percentiles 99 (niveau dépassé 1% du temps= les crêtes) et 30 (dépassé 70% du temps= -18dB). Vous trouverez dans ce document quelques grandes lignes sur la lecture des zones d’énergies de la parole mesurée in-vivo.
  • La norme IEC 60118-15 (en) (http://shop.bsigroup.com/en/ProductDetail/?pid=000000000030206924), détaille la façon dont l’analyse percentile doit être conduite: soit par analyse FFT sur 1024 points , soit la prise en compte de 50 mesures conduites sur une fenêtre de temps de temps de 100ms (sources et détails: A. GAULT, Widex)
  • De l’émergence du niveau moyen (analyse FFT par 1/3 d’octave) par rapport au seuil (SPLoGramme point par point en 1/2 octave), on définira l’intelligibilité de la parole: le (en) SII (Speech Intelligibility Index). Ce SII noté en %, représente les « chances » d’intelligibilité. Par exemple, le niveau moyen de la parole juste sur le seuil donne un SII de 33%,on attendrait donc un SRT (50% d’intelligibilité) à ce niveau. Pourcentages obtenu par tests sur des normoentendants… mais ce SII est certainement utilisé par les AA récentes afin de maximiser l’intelligibilité en situations bruyantes (le petit programme téléchargeable sur le site SII).
  • Lors d’une mesure in-vivo d’un signal de parole en niveau de sortie (REAR), ce dernier, analysé en FFT par 1/3 d’octave (par exemple), est affiché sur le SPLoGramme qui lui, représente le seuil au tympan mesuré point par point… Cette superposition  est rendu possible par l’utilisation de pondérations spécifiques.
  • Pour une revue technique des différents signaux utilisés en MIV depuis les débuts jusqu’à l’ISTS, voir l’article d’ A. GAULT et X. DELERCE.

Mesure in-vivo et appareillages « ouverts »:

L’appareillage ouvert, sans occlusion ou occlusion partielle du conduit auditif, le plus souvent sur des surdités légères à moyennes, n’est pas anodin sur le plan de la correction. D’une part, chez ces sujets peu gênés, la moindre erreur est vite fatale (rejet de l’appareillage), d’autre part, tous les facteurs acoustiques propres au conduit ouvert sont réunis pour rendre compliquée la mesure. En effet, si le conduit est totalement ouvert, la MIV risque se faire dans un noeud de longueur d’onde à proximité du tympan (voir premiers docs de cet article); également, qui dit conduit ouvert dit fuite acoustique du signal amplifié vers le micro de référence (voir idem); enfin, pour des patients peu malentendant, la perte de résonance du conduit auditif par occlusion partielle ou totale peut s’avérer être une perte d’identité acoustique. Vous trouverez ci-dessous quelques articles sur ces aspects:

  • Tout d’abord, il est incontournable de lire l’article de Clément SANCHEZ sur la mesure in-vivo d’appareillage ouvert, tout en considérant bien que cette méthode de mesure concerne (et concernera de plus en plus) TOUS les appareillages dont l’anti-larsen est performant, et l’appareil, puissant.
  • un article très intéressant sur  l’appareillage ouvert et les méthodes de mesure (GI ou REAR ?), l’occlusion, la fuite acoustique… bref, en (en) « 10 conseils à emporter », Mueller et Ricketts dressent un tableau de la MIV de l’appareillage ouvert très clair (merci Clément).
  • concernant la notion de « perte d’insertion » liée à l’introduction d’un appareillage auditif dans le conduit, totalement ou peu occlusif, cet (en) article intéressant de Wang, qui rejoint le précédent.
  • « Mythes et réalités » (en) concernant la mesure électroacoustique des AA open
  • Un « technical topic » de Bernafon qui se demande (en) « Où est allé mon gain ? » et pose le problème des fuites acoustiques propres aux appareillages ouverts et des phénomènes acoustiques en résultant (opposition de phase entre signal « sortant » et « entrant » par l’aération, impossibilité de correction des graves dès 2mm d’aération, etc…)
  • Où va le gain sur un GROS évent ? (fr) là !!, ou ailleurs (fr), voir les effets moyens d’évents courts (RIC et autres) et longs (embouts « classiques »)

Mesure in-vivo et appareillage de l’enfant:

Voilà pour un premier tour d’horizon des possibilités actuelles de la mesure in-vivo. Si vous avez des documents intéressants, c’est avec grand plaisir qu’il seront ajoutés à la bibliothèque en ligne. Je l’enrichirai progressivement de mon côté au fil de mes « découvertes ».

Merci à Alexandre GAULT et Jean-Baptiste DELANDE (Widex), Nadège DURAND, Clément GEORGET, Matthieu FOURNIER (pour son oreille !), Catherine CATELIN (idem !), Ph. MICHEL-POISSON (pour ses remarques), Philippe GADAUD, Sébastien GENY.

XD.

Juste un petit post rapide pour vous signaler la parution du Science et Vie Junior (SVJ) de Février 2010 avec un dossier « Les étranges pouvoirs du son ». Egalement un article en page 52 « Génération mp3: bientôt tous sourds ? », très didactique, pas trop gnan-gnan (ce n’est pas rien pour le public visé), avec des jolies photos… de zones mortes !

La prochaine fois, j’espère vous parler du gadget n° 1102 de Pif-Gadget de juin 2052 « Fais pousser tes cellules ciliées dans un verre d’Orangina ! »

Glop ? pas glop !

Le TEN (Threshold Equivalent Noise = bruit égalisateur de seuil) est le signal utilisé  pour effectuer un TEN-Test, ou test de zones mortes cochléaires.

Mis au point par B.C.J. Moore en 2000, ses caractéristiques spectrales (spectre et densité) permettent de pratiquer un masquage ipsilatéral qui va faire « tomber » le seuil à la valeur d’émission du TEN (voire plus bas si une zone morte est présente): c’est à dire que si vous avez un seuil à 10dB HL sur toutes les fréquences (on présume que vous n’avez pas de ZMC !) et que vous envoyez le TEN à 70dB HL par exemple, votre seuil en présence de ce bruit va tomber à 70dB HL sur toutes les fréquences (500 à 4000Hz).

Ce type de masquage n’est ABSOLUMENT pas possible avec un bruit blanc ou même un Speech Noise (de spectre pourtant proche).

Spectre du TEN(HL)
Spectre du TEN(HL)

Le TEN-Test était jusque là disponible en CD de test, l’un en HL, l’autre en SPL.

Pour la première fois (à ma connaissance), le TEN est disponible sur une chaîne de mesure (Affinity, à partir de la version 2.04) au même titre q’un WN ou SN !

Il faut faire activer cette fonction (payant, environ 200€ en MAJ) et surtout calibrer ce signal (donc retour à la case étalonnage) pour pouvoir l’utiliser.

Il va donc pouvoir être possible de faire « en routine » des tests de zones mortes (ou « inertes », « désafférentées »… avant d’être déclarées définitivement perdues, après période de stimulation par appareillage !).

L’intégration du TEN(HL) Test sur Affinity 2.0.4 (par B.C.J. Moore).

Pour en savoir un peu plus sur la procédure, vous trouverez des détails sur le résumé des conférences et ateliers du Congrès 2004: pages 20 et suivantes, la conférence de Moore, et pages 51 et suivantes, l’atelier.

Pour les possesseurs d’Affinity (avec l’option REM) en version 1.x ou 2.0x, il est possible d’importer un test déjà prédéfini sous la forme d’un fichier .iax .

Si vous êtes intéressés, à la fois par les mesures in-vivo (c’est un minimum !) et par le fait de tester in-vivo les aides auditives sans avoir à désactiver les algoritmes de traitement du signal ou sans utiliser les fonctions type « test-REM » des logiciels fabricants, il est possible pour celà d’utiliser le Signal Vocal International de Test (ISTS).

Ce signal est téléchargeable sur le site de l’EHIMA sous la forme d’un fichier .wav que vous copierez ensuite dans le dossier « Mes documents ». L’avantage énorme d’Affinity est de pouvoir utiliser comme signal de mesure n’importe quel fichier .wav que vous lui fournirez (le meilleur comme le pire, donc !), mais justement, l’ISTS est calibré, son spectre est connu, c’est de la voix « réelle », bref, un excellent candidat pour la mesure in-vivo ou chaîne de mesure (caisson).

Sur Affinity 1.x, on peut mesurer le niveau de sortie oreille nue (REUR), le gain étymotique (GNO ou REUG) sera automatiquement calculé. Le calcul du gain d’insertion est fait dès la mesure avec appareil, mais le niveau de sortie appareillé (REAR) n’est pas de lecture aisée, d’une part car sur cette version logicielle d’Affinity le seuil en dB SPL n’est pas représenté (c’est pour le moins gênant…), également, cette version logicielle ne permet pas la visualisation des crêtes et creux du signal. On travaillera essentiellement en gain d’insertion (REIG) sur cette version et c’est bien dommage.

Sur Affinity 2.0x, le logiciel a été totalement refondu et permet la visualisation des niveaux de sortie avec appareil (REAR) avec signal vocal en entrée, notamment grace à l’excellente possibilité d’affichage de la dynamique du signal (fonction « display peaks and valleys »). Sur Affinity 2.0x l’ ISTS est inclus dans la liste des signaux, pas besoin d’aller le récupérer dans les fichiers sons comme dans la version 1.x.

Après plusieurs mois de tatonnements, essais en tous genres, recherche de différents modes de lissage, étalonnages, etc… je suis arrivé sous Affinity 2.0 à créer un test qui me semble tenir la route, assez exhaustif (REUR, REUG, REAR, REIG, RECD, y’en aura pout tout le monde !!), et uniquement au signal vocal.

Surtout, je le redis, rien que pour l’affichage des niveaux de sortie (REAR) à la voix (ISTS) et affichage de la dynamique, on ne peut pas mieux faire pour savoir ce que le patient entend vraiment (pour le « comprend vraiment », c’est autre chose…):

Niveau de sortie appareillé ISTS
Niveaux de sortie avec AA et ISTS en entrée 62/75dB SPL

Si ça vous dit, vous pouvez télécharger ce test (fichier .iax) et l’importer sur votre Affinity 2 (voir plus bas).

Description et « trucs et astuces »:

  • L’étalonnage des sondes doit se faire face au HP, en dehors de la tête du patient, en tenant le casque REM à 40cm du HP (pour avoir testé, cette méthode donne de meilleurs résultats sur l’émission du signal)
  • Le test commence par la mesure du REUR (réponse du conduit nu). Avant cette mesure, une équalisation en fréquence se fera une fois pour toutes et le micro de référence s’arrêtera ensuite pour le reste des tests: pendant cette équalisation, veillez à ce que le patient regarde le HP, ne bouge pas et soit TRES silencieux.
  • Le REUG (gain naturel de l’oreille) est calculé automatiquement à partir de la mesure précédente.
  • Si ça vous dit, vous pouvez ensuite effectuer les mesures de gain d’insertion (un seul niveau prédéfini à 62dB SPL, mais vous pouvez faire varier l’intensité d’entrée).
  • Et surtout, la mesure des niveaux de sortie appareillé (REAR) avec affichage de la dynamique vocale vous renseignera sur la perception de votre patient pour trois niveaux: 55, 62 et 75dB SPL d’entrée (image plus haut).
  • Eventuellement, mesure Visible Speech (attention, moyenne obtenue après 8sec et facteur de lissage 7)
  • Et RECD si besoin…

Quelques précautions:

  • Tous les tests sont en mode « continu »: vous devez les arrêter vous-même, idéalement après un 10aine de secondes (après le mot « poderos » par exemple, bon courage 😉 ) pour qu’une intégration correcte puisse se faire (y compris pour le REUR).
  • Ma sortie son est définie sur FF2, si vous utilisez une autre sortie, veuillez la renseigner.
  • Le calque d’impression est créé.
  • J’utilise DSL V. 5 adulte et signal voix, je ne discuterai pas politique… mais vous pouvez changer la formule.
  • Téléchargez ce test, copiez le dans « mes documents » ou ailleurs et dans le module REM faites « Menu »–> » »Configuration »–> »Configuration REM440″–> »Importer » et allez chercher le fichier REM ISTS.iax.

Voilà, aucune excuse maintenant pour ne pas utiliser la fonction REM de ce merveilleux joujou !

XD

Tout un programme!

A noter: il n’existe aucune norme, standard ou définition « officielle » du RECD ou des techniques et matériels nécessaire à sa mesure. Chaque fabricant de matériel audiologique propose ce qu’il veut (matériel), comme il veut (protocoles)…

La mesure RECD (Real Ear to Coupler Difference) est une mesure qui a pour but de relever le niveau de sortie dans un conduit auditif puis de comparer ce niveau de sortie avec celui obtenu dans le coupleur 2cc. Elle permet donc ensuite:

  • de faire les réglages « au coupleur », via le logiciel de mesure in-vivo, en renseignant la chaîne de mesure (et:ou le logiciel de réglage) sur ces fameuses valeurs du RECD, donc de « simuler l’oreille » au coupleur (sous réserve d’indiquer correctement quel type d’appareil vous utiliser afin de simuler l’effet du positionnement du micro de l’AA).
  • en audiométrie, de connaître les niveaux en dB SPL au tympan (SPLoGramme) correspondant au niveau HL envoyé par l’audiomètre (à condition que les seuils soient mesurés aux inserts).

Le RECD peut prendre des valeurs négatives (moins de puissance dans le conduit que dans le coupleur, souvent dans le cas d’une aération laissant échapper les basses fréquences), ou positives (plus de puissance dans le conduit que dans le coupleur, en général car le volume résiduel est plus petit que 2cc).

L’apparition des mesures RECD par les aides auditives a débuté avec Phonak (Supéro) qui a depuis abandonné cette méthode, puis est réapparue avec Starkey sur ses aides auditives Destiny (une première encore inégalée sur un intra) et maintenant sa nouvelle gamme S-Series, et Widex a développé cette fonctionalité sur sa gamme MIND-9 (les contours piles 13) depuis quelques mois.

Je ne pratique pas ce qu’on appelle « régulièrement » la mesure RECD, mais quand je le fais, c ‘est en général lors d’appareillages où elle s’avère indispensable et où le droit à l’erreur doit être minimisé autant que possible. Donc, autant la faire correctement… et justement, alors que je croyais le processus de mesure RECD « gravé dans le marbre » et d’une totale fiabilité et reproductibilité (reproductibilité selon les transducteurs utilisés, pas dans le temps), quelques éléments sont venus troubler mes certitudes. Je suis tombé sur des articles mettant en cause l’usage de tel ou tel coupleur, de tel ou tel transducteur, critiquant les jonctions tubes/tubes, etc…

Je me suis également posé la question de la « validité » des mesures RECD par un appareil auditif et vous trouverez quelques réponses très intéressantes à ce sujet (mais vous imaginez bien que si des fabricants dépensent des fortunes en « jus de cerveau » pour l’implémenter sur leurs appareils, ça doit valoir le coup!).

Je vous livre un peu en vrac mon cheminement :

  • les coupleurs : jusqu’à présent mon matériel standard pour mesurer le RECD consistait en un écouteur insert (celui du casque in-vivo) auquel était relié un tube flexible de quelques centimètres terminé par un petit adaptateur en plastique qui se connectait au tube de l’embout puis au tube du coupleur contour dans un second temps. En parallèle bien sûr était monté le microphone sonde de mesure dans le conduit pour la première étape.

Voici le montage en question (document Interacoustics) :

Etapes de la mesure RECD sur HA2

Mais un jour, le logiciel de la chaîne de mesure et les logiciels fabricants se sont mis (presque en même temps) à demander des précisions sur le type de coupleur utilisé, à savoir HA1 ou HA2 ( ?). J’ai passé outre au départ en me disant « encore un truc d’audiologistes américains hyper pointus », mais quand même, pour ne pas mourir idiot, j’ai trouvé (document Prodition) :

Coupleurs HA1 et HA2

Le coupleur dénommé HA1 est celui qui correspond à notre coupleur intra et le HA2 au coupleur contour, c’était tout bête !

Et je me suis demandé :

Pourquoi, alors que l’on a un embout sur mesure sous la main, utilise t-on un écouteur + mousse EAR, et donc un coupleur intra (le dénommé HA1) pour faire une mesure RECD ? Pourquoi, alors que la première mesure a été réalisé avec l’embout personnel, utiliser ensuite le coupleur intra (HA1), en fixant l’embout avec de la pâte pour la partie « mesure coupleur », et pas le coupleur HA2 ?

Quelques recherches auprès de mon ami Google et quelques coups de téléphone à des gens mieux informés que moi m’ont amené à mettre le doigt sur un problème de reproductibilité en fonction des coupleurs utilisés (HA1/HA2), des couplages utilisés (embout sur mesure, mousse type EAR, sonde de type tympanométrique), etc…

  • la fiabilité, la reproductibilité : mais là j’exagère, car une mesure RECD est reproductible… si on la mesure toujours de la même façon, et dans un même laps de temps !

Si on compare la mesure du RECD avec la mesure du gain étymotique (la « résonance » du conduit auditif externe), cette dernière est fonction de la longueur du CAE et ne varie pas en fonction du matériel de mesure utilisé. Mais pour ce qui est du RECD, que l’on peut aussi considérer comme une « signature acoustique » individuelle du conduit fermé, sa valeur dépendrait de ses conditions de mesure, jusqu’à 10dB, ce qui est gênant pour une mesure censée améliorer la précision des réglages… C’est à dire que si vous mesurez le RECD avec trois transducteurs différents, vous obtenez trois mesures (légèrement, certes) différentes (Munro, « Measuring the Real-Ear to Coupler Difference Transfer Function With an Insert Earphone and a Hearing Instrument: Are They the Same? », E&H, 2005).

Ce que j’en retiens, c’est que lors de la mesure RECD « classique » (Aurical, Affinity, etc…) comme sur les photos plus haut, l’embout du patient est utilisé lors de la première étape, puis enlevé et « remplacé » par le simulateur d’embout que constitue le coupleur contour (HA2) généralement utilisé. On remplace donc l’embout du patient par l’embout « artificiel » du coupleur pour la seconde étape… pas besoin d’être acousticien chevronné pour s’imaginer où est la source d’erreur potentielle.

En conséquence, certains audiologistes ont tendance à conseiller la mesure RECD avec embout sur coupleur intra (HA1) (Munro, 2005), pour l’étape coupleur, tout en reconnaissant les risques de fuites acoustiques des basses fréquences d’une telle méthode. Et effectivement, un rapide essai m’a permis de constater une différence de 5dB (en plus) sur coupleur HA1 dans les aigus. Pas énorme, mais il y a bien une différence…

  • Occlusion totale ou pas : pour certains auteurs, la mesure du RECD devrait s’effectuer conduit auditif le plus hermétiquement fermé et préconisent donc la mesure avec une mousse type EAR (document plus haut, sur coupleur intra/HA1) ou un embout fermé type tympanométrie (embouts du ME-intra de l’Aurical et embouts du SPL60 de l’Affinity).Pour moi, la mesure s’effectuait si possible avec l’embout sur mesure… et ses fuites acoustiques (évent ou effet d’évent du moulage) afin de les reproduire sur coupleur.

Mais la mesure du RECD peut aussi servir à établir un SPLoGramme: à partir d’un seuil mesuré aux inserts en dB HL (donc occlusion totale du conduit), par la formule Seuil dB HL (casque EAR) + CDD (coupler to dial difference = différence pour passer du HL au 2cc SPL) + RECD = Seuil dB SPL dans le conduit (vous trouverez l’explication détaillée dans le Phonak Focus 33 cité plus bas).

Effectivement, par la méthode de mesure du RECD conduit totalement fermé, on élimine toute fuite acoustique, et on obtiendra donc un seuil in-situ très fiable. Reste ensuite à effectuer la mesure in-vivo, avec son effet d’évent. RECD plus mesure in-vivo ensuite, c’est un peu « ceinture plus bretelles », mais bon…

But plus « prothétique » (simuler sur coupleur un appareillage) ou diagnostique (établir un SPLoGramme), la mesure RECD peut servir aux deux, je ne le savais pas.

  • La multiplication des transducteurs. Une mesure RECD « de base » utilise trois transducteurs (l’écouteur d’émission du casque, le micro de mesure du casque, le micro de mesure du coupleur) et remplace l’embout par le coupleur contour pour la deuxième étape de la mesure. Il va sans dire que tout ce petit monde doit être vraiment bien calibré. Et peut-on affirmer que la calibration de l’écouteur du casque in-vivo ou du micro du coupleur sont choses courantes (au moins une fois par an) ? Donc, une erreur de 5 à 10dB est vite arrivée de ce côté…

Donc si on récapitule (avantages/inconvénients tirés de l’article de Munro et Toal de 2005 cité plus haut, et que vous avez peut-être téléchargé):

  • la mesure RECD par mousses EAR ou embouts type tympanométriques est celle qui donne la meilleure approximation d’un SPLogramme mais ne reproduit pas les caractéristiques acoustiques des embouts.
  • la mesure RECD avec étape coupleur HA2 (contour) est fiable au niveau fuites acoustiques mais simule l’embout par le coupleur, source potentielle de variations de mesures. De plus, les différentes variations de diamètres peuvent entraîner des variations dans les mesures.
  • la mesure RECD avec étape coupleur HA1 (intra) semble la plus se rapprocher de la mesure réelle dans le conduit, avec pour principal avantage de minimiser les jonctions et d’utiliser l’embout du patient. Elle a pour inconvénient une nécessité d’étanchéité sans faille pour l’étape coupleur sous peine de fuite des basses fréquences.
  • Et surprise: la mesure RECD par l’aide auditive, en minimisant les transducteurs, voire carrément l’étape coupleur pour les appareils récents, semble la plus proche de la réalité acoustique dans le conduit (et pour cause!).

Si avec tout ça vous n’êtes pas découragés de faire une mesure RECD !

Mais non, juste un chiffre glané dans le Phonak Focus 33 : une étude de 2003 de Saunders et Morgan sur 1814 adultes a montré des disparités in-vivo de 40dB à la même fréquence pour un niveau fixe délivré par l’audiomètre. Qui est prêt à prendre le risque de 10,20 ou 30dB d’erreur dans un petit conduit auditif ? Même conscient des quelques décibels d’erreur de la technique RECD, ça vaut donc toujours la peine.

J’insiste aussi sur l’avancée très intéressante apportée par les fabricants qui se sont lancés dans la mesure RECD par les appareils. Initiée puis abandonnée par Phonak avec le Supéro, Starkey ensuite (qui a renommé sa technique en « mesure in-vivo »), puis Widex avec le RECD par l’appareil sur la série MIND 3 et MIND 4. On utilise un micro et un écouteur (ceux de l’aide auditive), l’embout du patient, et pas d’étape coupleur. Cette mesure prend au maximum 5 minutes. Et même si on n’adapte pas le MIND par exemple, les valeurs du RECD peuvent être relevées pour être utilisées avec un autre appareil (contour). Beaucoup d’avantages, et les courbes obtenues semblent très fiables, car la technique du RECD par les appareils semble la plus « robuste », c’est à dire la plus proche de la mesure in-vivo.

Il y a fort à parier que cette technique se développe chez quasiment tous les fabricants ces prochaînes années tant elle est porteuse de précision.

A quoi ressemble un RECD « standard » ? En fait, pour une même personnes, on obtient plusieurs résultats selon la façon de mesurer:

  • vous trouverez ici l’analyse d’une mesure RECD pratiquée sur embout avec évent
  • et dans ce document la comparaison de la mesure précédente et d’une mesure RECD faite par insert EAR et mousse occlusive

Pour aller un peu plus loin, un pdf très didactique sur toutes ces conversions barbares comme RECD, REDD, CDD,… et la création d’un SPLogramme.

La bible du RECD (attention, usage du Guronzan(tm) recommandé!).

Merci à Rémy BOURGON (Phonak), pour sa « French version » du Phonak Focus, à M. TORREANI (Widex) pour sa mise en garde sur le caractère « absolu » du RECD, à Alexandre GAULT et Jean-Baptiste DELANDE (Widex) pour leurs infos sur la mesure RECD MIND et certains documents cités ici. Merci à « CG » (qui avance masqué!) pour ses remarques.

XD.

PS: mesurer un RECD n’est utile que si l’audiométrie préalable a été réalisée aux INSERTS (EAR 3 ou 5A); ce matériel audiométrique présente beaucoup d’avantages (suite au prochain épisode…).

C’est l’histoire d’un « serpent de mer » de l’audioprothèse : les fabricants utilisent-ils les seuils subjectifs d’inconfort que nous prenons la peine de mesurer ?

Et je pense que beaucoup de monde a fait la même chose : saisir un audiogramme tonal à 60dB HL plat à droite, sans inconfort, et le même à gauche avec un SSI (Seuil Subjectif d’Inconfort) à 90dB HL sur toutes les fréquences. On rentre dans un logiciel d’adaptation, on choisi le même appareil des deux côtés, et on regarde ce qui se passe avec la formule par défaut du fabricant…

Et là, trois possibilités :

  • Aucune différence de réglages entre les deux oreilles (assez courant)
  • Aucune différence dans le réglage des compressions MAIS le niveau de sortie maximum, si le réglage existe, est corrélé au SSI (a tendance à se développer)
  • L’oreille présentant la dynamique réduite a des réglages adaptés en compression et niveau maximum de sortie (assez rare par défaut)

Donc on peut en déduire que majoritairement, les fabricants n’utilisent pas les seuils d’inconfort mesurés par les audioprothésistes, en tout cas pour leur calcul des compressions et autres points d’enclenchements.

Ce n’est pas tout à fait surprenant car la formule de calcul utilisée est souvent NAL-NL1 ou une adaptation « maison » de NAL-NL1. Or la formule australienne utilise un seuil d’inconfort statistique. Un peu vexant pour les audios qui pratiquent la mesure du SSI !

L’apparition de systèmes de gestion des bruits impulsionnels en entrée a modifié un peu cette approche puisque certains fabricants proposant ces systèmes proposent des « mix » entre un calcul des compressions basé sur la dynamique statistique et un MPO ou « pseudo-écrêtage » basé sur le SSI. C’est mieux, mais on ne nous laisse pas encore toutes les clés de la maison…

Par contre, il est toujours possible d’utiliser des formules de calcul intégrant le SSI mesuré dans le calcul des compression et MPO, c’est le cas de DSL I/O par exemple, souvent proposée par défaut lors des appareillages pédiatriques, bien qu’il ne soit pas évident d’obtenir un SSI avant 10ans.

Il faut reconnaître aussi que la mesure d’un seuil d’inconfort est très subjective (c’est le cas de le dire) : elle dépend presque autant du patient, de sa peur ou au contraire de sa bravoure (!), que du testeur et de sa limite posée (douleur ? limite du supportable ? réflexe cochléo-palpébral ?…). Pour ma part, après une consigne assez sommaire type « limite du supportable », je trouve que l’observation du visage est assez précise, et un re-test quelques années après donne souvent des résultats assez proches. Le seuil d’inconfort n’évoluerait donc pas trop avec le temps, ce qui n’est pas le cas du seuil de confort (que je ne mesure pas) mais qui semble évoluer à mesure que les patients nous demandent plus de gain « pour les voix », donc à niveau « moyen ». Ce fameux passage de courbes de transfert « concaves » à « convexes » qui rendait difficile il y a quelques années un renouvellement du Siemens Prisma 4D (courbes de transfert « convexes » à l’époque), et qui fait que les Widex sont très confortables au début (courbes de tranfert très « concaves ») mais un peu « mous » après quelques semaines (il faut redonner du gain à niveau moyen).

Mais le « grand maître » du seuil d’inconfort statistique est toujours sur son trône depuis les années 80 : c’est PASCOE la plupart du temps qui décide du seuil d’inconfort de votre patient. Ses recherches ont donné en 1988 des abaques de corrélation entre seuil d’audition et seuil d’inconfort par mesures de progression de la sensation sonore (tests LGOB). Et depuis, beaucoup de fabricants utilisent ces tables si vous ne rentrez pas de seuil d’inconfort, et même si vous en rentrez un d’ailleurs (pour certains) !!

Des études plus récentes ont affiné ce « seuil d’inconfort statistique » de Pascoe, et je suis surpris du « nuage statistique » dans lequel on fait passer ces droites de régression qui serviront de base à ces inconforts statistiques…

Et ces fameux « nuages statistiques », nous les voyons tous les jours : les patients sans aucun inconfort, ceux aux aigus insupportables, aux graves très gênants (ça arrive), etc… et pour des seuils HL finalement pas si éloignés. Alors au final, c’est vrai, il doit bien exister une « droite » qui passe par le centre de gravité de tous ces cas particuliers. Et ce que cherchent les fabricants qui utilisent ces statistiques n’est peut-être pas dénué de fondement : il vaut mieux une statistique 70% du temps juste plutôt qu’un inconfort 70% du temps mal mesuré (= aide auditive 100% mal réglée pour son porteur !).

Et si même, ne seraient-ce que 90% de nos évaluations du SSI étaient assez bonnes (pas moins bonnes que celles de Mr Pascoe en tout cas), je crois que de toutes façons nous n’avons rien à perdre à « individualiser » l’adaptation.

Vous trouverez en téchargement ici une étude sur l’utilisation des seuils d’inconforts saisis pour différents logiciels de réglages. Plusieurs choses ont été analysées: si un seuil d’inconfort est trouvé par le logiciel, l’utilise t-il pour le calcul des compressions ? juste pour le calcul du MPO/PC/SSPL90 ? pas du tout ? quelques surprises…

Article et étude rédigés conjointement par Thibaut DUVAL (pour l’étude des logiciels et tableau), Sébastien GENY et Xavier DELERCE.