Catégorie : Audiologie

Je viens de découvrir (on apprend tous les jours !) des enregistrements réalisés avec microphone binaural. J’ai écouté ces fichiers sons sans d’abord trop m’attarder sur le côté technique de la chose, presque de façon dubitative, mais j’ai été « bluffé » par la restitution sonore, et j’ai décidé de gratter un peu la chose…

Tout d’abord il faut savoir que le but premier d’une telle technique d’enregistrement n’est pas d’en améliorer la qualité pure, mais plutôt la restitution; de rendre la perception sonore « naturelle », dans le sens physiologique ou morphologique du terme. Ouh là ! le Xavier a fumé…

Je m’explique: l’écoute musicale stéréophonique sur support numérique ou analogique est le fruit d’un enregistrement par microphones légèrement décalés en phase, ou plus subtil, légèrement décalés en intensité, ceci afin de simuler l’existence d’un « espace sonore » dans le premier cas et dans le second, de simuler une différence inter-aurale de niveau avec le même effet recherché. On s’est satisfait de cette écoute pendant longtemps (et encore pour longtemps !), mais l’écoute stéréophonique n’est pas l’écoute binaurale, cette dernière étant la seule naturelle.

L’écoute binaurale, amie proche de l’audioprothésiste, est beaucoup plus complexe dans le sens où elle intègre (entre autres) des facteurs morphologiques et donc acoustiques (longueur et forme des conduits auditifs et du pavillon, incidence du son sur la tête et le torse, …), des facteurs temporels (un son arrivant à une oreille avant l’autre), d’intensité (la tête fait « écran » à l’oreille opposée à une source sonore), et j’en passe…

On le voit donc, le passage de la stéréophonie à la binauralité, en reproduction sonore, est un saut très qualitatif, rapprochant l’auditeur d’une situation d’écoute « live », comme si sa tête avait servi de microphone.

D’ailleurs, l’enregistrement binaural n’est pas une affaire qui semble simple: deux micros (spécifiques) doivent se placer sur une tête, humaine (!!!) ou artificielle type KEMAR, le plus proche possible des conques, voire dans les conques:

Mister KEMAR fait un enregistrement binaural

Ces micros sont omnidirectionnels (la tête produisant son ombre d’atténuation), doivent être écartés strictement, le tout placé judicieusement dans l’espace sonore à enregistrer, et certainement d’autres choses plus pointues que pourrait mieux décrire que moi un ingénieur du son (Y a t-il un ingénieur du son dans la salle ?).

Pour tout ceci, je vous recommande la lecture de l’excellent article de Wikipédia (une fois n’est pas coutume) sur le sujet.

Et parce qu’un exemple vaut souvent mieux qu’un long discours, vous trouverez ci-après différents exemples d’enregistrements binauraux. Mais avant tout, veuillez noter que l’écoute de ce genre de fichiers n’est pas franchement convaincante sur de médiocres HP d’ordinateur, et même sur des HP tout court ! Vous aurez vraiment l’impression « d’y être » avec un casque ou de bons écouteurs intra-auriculaires, donc à vos branchements, l’écoute d’un enregistrement binaural est un truc d’égoïste ! Autre point aussi, la plupart des fichiers suivants sont « lossless » (sans perte de données à la compression), à savoir Flac, WavPack, ou au pire Ogg (pour Wikipédia) qui est « lossy » mais meilleur qu’un mp3 (je milite !).

Voici donc:

Par curiosité, regardez la forme d’onde de chaque piste sur un logiciel type Audacity : elles sont souvent très différentes l’une de l’autre, alors que pour un enregistrement stéréo elles présentent moins d’écart entre elles.

Et tout ceci, me direz-vous, pour quoi faire ?

Fermer les conduits auditifs, même partiellement, utiliser des aides auditives présentant un décalage temporel (temps de traitement du signal), ne pas restituer exactement d’équilibre (au moins en intensité) inter-aural, etc… tout ceci pourrait expliquer certaines difficultés rencontrées lors d’appareillages: un patient, même malentendant, conserve peut-être toute ou  une partie de son audition binaurale, et la perd(rait) avec l’interposition d’un système « correcteur »…

Imaginez deux aides auditives (ça, c’est OK), imaginez qu’elle communiquent entre elles (ça existe déjà), elles ont des microphones omnidirectionnels (basique), les caractéristiques acoustiques individuelles (gain étymotique) du patient sont mesurées (ça existe, reste à l’adapter à l’oreille nue), une rapide calibration aides auditives en place mesure atténuation inter-aurale et décalage temporel inter-aural (faisable), les aides auditives s’échangent en temps réel les informations sur les signaux incidents et au besoin recréent une directivité naturelle (il va falloir que les processeurs se musclent !!). Bref, voilà des patients qui récupèreraient non seulement l’audition mais aussi une binauralité (et pas une stéréophonie) les rapprochant d’une perception naturelle.

Donc finalement, l’appareillage des surdités légères en conservant le conduit totalement ouvert ne dégrade pas (trop) l’écoute binaurale, mais ce n’est pas le cas lorsque le seuil diminue, que les conduits sont fermés, etc… voilà qui, une fois de plus, milite pour une prise en charge précoce de la déficience auditive !

Cette technique de compensation binaurale dans les aides auditives dans 5 à 10 ans ? ou avant, qui sait…

Je rajoute un lien très intéressant sur les conseils de Brice Jantzem, le site de l’IRCAM proposant une 50aine de modélisations « tête/cou/torse », à vous de trouver celle qui correspond à la votre, lorsque le son sera au centre ! (allez m’sieurs dames, faites entrer la bille dans le trou !).

Fan de la in vivo, j’ai essayé les systèmes type visual speech. Et j’avoue avoir un regard dubitatif sur ce type de matériel qui reste lourd à utiliser ! Le protocole n’est pas évident et les résultats difficiles à reproduire. L’élaboration d’un protocole n’est pas évident. La base de fichiers sonores ICRA livrée avec le matériel est exhaustive, mais j’avoue n’avoir jamais été vraiment à l’aise. Ceci dit, je n’ai pas essayé le freefit qui semble prometteur ! 😉

L’année dernière l’équipe technique UNITY de Siemens m’envoit la mise à jour : de nouvelles icônes, une interface élargie, des options à gogo. J’élaborai le programme du DU management de la santé, parcours audio et j’avoue avoir été dépassé par les événements. Ainsi la découverte approfondie de la nouvelle version était repoussée aux calendres grecques ! Au gré des réglages, je découvrais les arcanes du logiciels une à une. Cependant, mon oeil restait rivé au bouton « SM » (sic !) fiérement accroché à la barre des tests !

Et la découverte du LTASS quotidien a modifié mon approche de la dynamique résiduelle du malentendant ! Fan de l’in vivo et possesseur de unity, tu succomberas au plaisir du speech mapping. L’usage est simple, rapide (une mesure est réalisée en 1m 30) et permet donc d’anticiper le résultat à moyen terme. La représentation par percentile me semble la plus lisible (par rapport à la visualisation des pics du LTASS). Elle permet de déterminer la bande d’oscillation du spectre de la voix dans le temps. On n’est plus dans la mesure « statique » à un moment donné du niveau de sortie de l’aide auditive, mais dans une mesure dynamique de ce même niveau de sortie dans le temps. J’ai l’impression de mieux maîtrisé le comportement de l’appareil.

L’usage systématique est facilité par une superposition des courbes qui permet de séances en séances de valider l’amplification.

Je rejoins Xavier qui préconise un signal reproductible le plus proche de la voix (pour éviter l’enclenchement de certains débruiteurs), le choix se porte évidemment sur l’ISTS.

L’avantage du système (même si unity sur d’autres tests ou fonctionnalités est inférieur à ses confrères AURICAL FREE FIT et AFFINITY) est de proposer avec la même sonde un module in vivo et un mapping de la voix corrigé !

Personnellement, j’utilise donc l’in vivo classique (en suivant le protocole suivant) pour la période initiale de réglage. Et en validation, à la dernière séance de réglage et une fois par an, le LTASS avec une stimulation vocale type ISTS pour visualiser la présence à long terme de la voix dans la dynamique cochléaire résiduelle.

C’était un sondage récent de ce blog.

C’est (j’espère) un encouragement donné par le blog.

Je voulais juste vous faire découvrir une tout récente (c’est encore chaud !!) présentation de Gabrielle Filips au AAA 2010 de San Diego. Il s’agit d’une revue de détail de tous les freins à la mesure in-vivo, préjugés, peur de l’inconnu, etc… mais aussi ce que l’on risque (ou rate) à ne pas en faire.

Sur tous ces points, les américains ont les mêmes réticences que les européens, alors même que l’on pourrait penser que chez eux, tout est fait pour être performant sur ce point. Cette communication met également en parallèle les pratiques des audiologistes et des HIS (équivalent des audioprothésistes), et aborde point par point les différents aspects de la MIV.

Quelques chiffres glanés dans ce document:

  • une étude de consommateurs de 2009 a conclu que 2/3 des AA sont mal adaptées et pourraient mieux l’être après mesure in-vivo (très puissantes associations aux USA)
  • 40% des audiologistes (oui, des audiologistes !!) font de la mesure in-vivo « toujours » ou « souvent » (seulement…)
  • de 1995 à 2010, le nombre de « pratiquants » n’a pas augmenté
  • les cibles sont atteintes à 35% sans mesure (réglage logiciel direct), à 85% avec mesure in-vivo
  • les audiologistes ne pratiquent quasiment pas plus l’in-vivo que les audios (HIS)
  • etc…

Tout y passe… pour démythifier cette procédure, et même, soyons fous, donner envie !!!

Un lien sur l’article du Hearing Journal de mai 2010 abordant ce sujet (Cl. SANCHEZ)

Progressivement, cet article va évoluer, par mise en ligne de divers documents sur la mesure in-vivo. Revenez faire un tour régulièrement…

L’atelier (fr) « La mesure in-vivo d’efficacité de l’appareillage auditif » du congrès UNSAF 2010.

Le (fr) document fil directeur de l’atelier.

Une (fr) synthèse (toute personnelle) du processus réglages et mesures.

A la demande de certain(e)s, (fr) un fichier .iax de configuration de test REM pour Affinity (version logicielle 2.0.4 minimum): à télécharger et importer comme test dans votre Affinity.

Concernant les diverses sources de renseignements au sujet de la mesure in-vivo:

Terminologie:

  • On commence en Français (!) par (fr) un document établi par Marco TORREANI (Widex), avec humour parfois, sur les principaux termes de la mesure in-vivo (juste un point de détail: RETSPL ne signifie pas « real ear threshold… » mais « reference equivalent threshold… », voilà, c’est dit !)
  • toujours du même auteur, (fr) un descriptif des bruits ICRA, mais ces derniers vont être supplantés par l’utilisation de l’ISTS (voir plus bas)

Les sites internet:

Concernant les bases de la MIV, c’est à dire acoustique et psychoacoustique (intégration des sons complexes type parole):

  • un chouette site (fr) sur les ondes stationnaires et résonateurs 1/2 onde (le conduit auditif ouvert)… des révisions !
  • … et un conduit fermé par un embout avec évent, ça devient un (fr) résonateur de Helmoltz, ce que l’on mesure en in-vivo appareil arrêté et en place sur l’oreille (le REOR/REOG)
  • Un cours très intéressant sur (fr) la sonie des sons complexes, en français (!), abordable et qui donne une bonne compréhension de la perception par l’oreille humaine de la parole, de la largeur des bandes critiques ou des ERB (B.C.J. Moore) et du pourquoi de l’analyse en 1/3 d’octave de la parole par les chaînes de mesure in-vivo et des cibles de REAR pour un signal de parole
  • Concernant la résonance du CAE chez l’enfant, ainsi que le phénomène de « noeud à 6000Hz »: « MAGERA P., LURQUIN P. Evolution de la résonance du conduit auditif externe chez le nouveau-né et le jeune enfant ». Cahiers de l’audition n°88.
  • Les (fr) effets produits par un mauvais placement de la sonde

La transposition des données de l’audiométrie (dB HL) en dB SPL au tympan (SPLoGramme):

Le SPLoGramme est un terme initialement utilisé par le groupe DSL.

La difficuté en appareillage auditif est de connaître la quantité d’énergie au tympan, en dBSPL, nécessaire à déclencher la sensation auditive, alors que l’on travaille en dB HL sur des bases coupleurs (6cc pour le casque, 2cc pour les inserts). Des moyens existent pour « approcher » ces valeurs du SPLoGramme, soit par estimation à partir des normes ISO, extrapolation du MAP (voir plus loin), Inserts et RECD, …

  • Quelques exemples de dérivation des données HL vers le SPLoGramme récapitulées (fr) dans ce pdf
  • L’usage du SPLoGramme pour DSL (fr), tirée du (en) site DSL
  • Le passage HL–>SPL est régit par (en) différentes normes ISO selon les transducteurs de mesure utilisés…
  • … mais formules de calcul et fabricants utilisent fréquemment le MAP (Minimum Audible Pressure) pour leurs estimations des niveaux sonores au tympan: un article de (en) Killion (1978) et (en) plus récent, du même
  • Vous trouverez dans ce document Interacoustics les (en) dérivations utilisées pour passer du champ libre aux dB SPL au tympan, tableaux de conversions tirés de BENTLER et PAVLOVIC
  • Des dérivations HL–>SPL individualisées sont possibles (souhaitables ?), comme l’usage (en) du REDD, du (en) RECD, voire la (fr) mesure directe en dB SPL dans le conduit
  • En général, l’usage des (en) inserts (EAR 5A) en audiométrie et l’utilisation des RECD,(fr) mesurés ou (fr) statistiques, outre les avantages inhérents à ce type de matériel, permettent une bonne approche de la réalité acoustique en fond de conduit, en restant facilement utilisables en usage quotidien
  • Vous trouverez dans (fr) cet article une approche de la problématique des transformations (dérivations) HL->SPL(tympan) et les solutions pour approcher au mieux le SPLoGramme.

Bref, la MIV, réputée comme « juge de paix » de l’appareillage se base (cibles et SPLoGramme) sur des approximations parfois importantes. Il faudra accepter cette erreur ou chercher à la réduire par les moyens cités plus haut.

Mesure in-vivo de signaux de parole:

La mesure in-vivo de la parole, surtout en niveaux de sortie est appelée à (en) devenir une mesure incontournable (attention: document CONFIDENTIEL, c’est marqué dessus!!!!), notamment avec les évolutions logicielles des chaînes de mesure actuelles permettant le calcul de la dynamique du signal (crêtes et autres niveaux d’énergie). De plus la mise au point de nouveaux signaux vocaux, standardisés, permet une utilisation universelle et réaliste des performances des AA, toujours dans le but de ne pas désactiver les réducteurs de bruit.

  • l’article incontournable de ce genre de mesure est en français (chouette!!): « Spectre à long terme de la parole en valeurs crêtes » de Hilaire, Renard, De Bock, Vervoort, Lurquin, et Lefevre, paru dans les cahiers de l’audition Vol. 4, N°3, mai-juin 2002. Ne boudons pas notre plaisir pour une fois qu’un tel article est disponible en français. Il permet de bien appréhender la difficulté de travailler en REAR à la voix et de bien cerner l’apport des informations de crêtes.
  • concernant les nouveaux signaux vocaux, on citera l’ISTS (fr) décrit dans ce blog, et téléchargeable sur le (fr) site de l’EHIMA
  • La visualisation de signaux vocaux dans le champ dynamique du malentendant porte le nom de Speech Mapping, Visible Speech, etc., vous trouverez dans (en) ce document Audioscan la description de cette mesure et le pourquoi de l’analyse par 1/3 d’octave. La dynamique du signal par analyse percentile est également très intéressante.
  • l’analyse percentile du signal permet d’en visualiser l’énergie dans la dynamique souhaitée. En général, on représentera la zone d’énergie +12/-18dB par rapport au niveau moyen, ce qui correspond aux percentiles 99 (niveau dépassé 1% du temps= les crêtes) et 30 (dépassé 70% du temps= -18dB). Vous trouverez dans ce document quelques grandes lignes sur la lecture des zones d’énergies de la parole mesurée in-vivo.
  • La norme IEC 60118-15 (en) (http://shop.bsigroup.com/en/ProductDetail/?pid=000000000030206924), détaille la façon dont l’analyse percentile doit être conduite: soit par analyse FFT sur 1024 points , soit la prise en compte de 50 mesures conduites sur une fenêtre de temps de temps de 100ms (sources et détails: A. GAULT, Widex)
  • De l’émergence du niveau moyen (analyse FFT par 1/3 d’octave) par rapport au seuil (SPLoGramme point par point en 1/2 octave), on définira l’intelligibilité de la parole: le (en) SII (Speech Intelligibility Index). Ce SII noté en %, représente les « chances » d’intelligibilité. Par exemple, le niveau moyen de la parole juste sur le seuil donne un SII de 33%,on attendrait donc un SRT (50% d’intelligibilité) à ce niveau. Pourcentages obtenu par tests sur des normoentendants… mais ce SII est certainement utilisé par les AA récentes afin de maximiser l’intelligibilité en situations bruyantes (le petit programme téléchargeable sur le site SII).
  • Lors d’une mesure in-vivo d’un signal de parole en niveau de sortie (REAR), ce dernier, analysé en FFT par 1/3 d’octave (par exemple), est affiché sur le SPLoGramme qui lui, représente le seuil au tympan mesuré point par point… Cette superposition  est rendu possible par l’utilisation de pondérations spécifiques.
  • Pour une revue technique des différents signaux utilisés en MIV depuis les débuts jusqu’à l’ISTS, voir l’article d’ A. GAULT et X. DELERCE.

Mesure in-vivo et appareillages « ouverts »:

L’appareillage ouvert, sans occlusion ou occlusion partielle du conduit auditif, le plus souvent sur des surdités légères à moyennes, n’est pas anodin sur le plan de la correction. D’une part, chez ces sujets peu gênés, la moindre erreur est vite fatale (rejet de l’appareillage), d’autre part, tous les facteurs acoustiques propres au conduit ouvert sont réunis pour rendre compliquée la mesure. En effet, si le conduit est totalement ouvert, la MIV risque se faire dans un noeud de longueur d’onde à proximité du tympan (voir premiers docs de cet article); également, qui dit conduit ouvert dit fuite acoustique du signal amplifié vers le micro de référence (voir idem); enfin, pour des patients peu malentendant, la perte de résonance du conduit auditif par occlusion partielle ou totale peut s’avérer être une perte d’identité acoustique. Vous trouverez ci-dessous quelques articles sur ces aspects:

  • Tout d’abord, il est incontournable de lire l’article de Clément SANCHEZ sur la mesure in-vivo d’appareillage ouvert, tout en considérant bien que cette méthode de mesure concerne (et concernera de plus en plus) TOUS les appareillages dont l’anti-larsen est performant, et l’appareil, puissant.
  • un article très intéressant sur  l’appareillage ouvert et les méthodes de mesure (GI ou REAR ?), l’occlusion, la fuite acoustique… bref, en (en) « 10 conseils à emporter », Mueller et Ricketts dressent un tableau de la MIV de l’appareillage ouvert très clair (merci Clément).
  • concernant la notion de « perte d’insertion » liée à l’introduction d’un appareillage auditif dans le conduit, totalement ou peu occlusif, cet (en) article intéressant de Wang, qui rejoint le précédent.
  • « Mythes et réalités » (en) concernant la mesure électroacoustique des AA open
  • Un « technical topic » de Bernafon qui se demande (en) « Où est allé mon gain ? » et pose le problème des fuites acoustiques propres aux appareillages ouverts et des phénomènes acoustiques en résultant (opposition de phase entre signal « sortant » et « entrant » par l’aération, impossibilité de correction des graves dès 2mm d’aération, etc…)
  • Où va le gain sur un GROS évent ? (fr) là !!, ou ailleurs (fr), voir les effets moyens d’évents courts (RIC et autres) et longs (embouts « classiques »)

Mesure in-vivo et appareillage de l’enfant:

Voilà pour un premier tour d’horizon des possibilités actuelles de la mesure in-vivo. Si vous avez des documents intéressants, c’est avec grand plaisir qu’il seront ajoutés à la bibliothèque en ligne. Je l’enrichirai progressivement de mon côté au fil de mes « découvertes ».

Merci à Alexandre GAULT et Jean-Baptiste DELANDE (Widex), Nadège DURAND, Clément GEORGET, Matthieu FOURNIER (pour son oreille !), Catherine CATELIN (idem !), Ph. MICHEL-POISSON (pour ses remarques), Philippe GADAUD, Sébastien GENY.

XD.

Le TEN (Threshold Equivalent Noise = bruit égalisateur de seuil) est le signal utilisé  pour effectuer un TEN-Test, ou test de zones mortes cochléaires.

Mis au point par B.C.J. Moore en 2000, ses caractéristiques spectrales (spectre et densité) permettent de pratiquer un masquage ipsilatéral qui va faire « tomber » le seuil à la valeur d’émission du TEN (voire plus bas si une zone morte est présente): c’est à dire que si vous avez un seuil à 10dB HL sur toutes les fréquences (on présume que vous n’avez pas de ZMC !) et que vous envoyez le TEN à 70dB HL par exemple, votre seuil en présence de ce bruit va tomber à 70dB HL sur toutes les fréquences (500 à 4000Hz).

Ce type de masquage n’est ABSOLUMENT pas possible avec un bruit blanc ou même un Speech Noise (de spectre pourtant proche).

Spectre du TEN(HL)
Spectre du TEN(HL)

Le TEN-Test était jusque là disponible en CD de test, l’un en HL, l’autre en SPL.

Pour la première fois (à ma connaissance), le TEN est disponible sur une chaîne de mesure (Affinity, à partir de la version 2.04) au même titre q’un WN ou SN !

Il faut faire activer cette fonction (payant, environ 200€ en MAJ) et surtout calibrer ce signal (donc retour à la case étalonnage) pour pouvoir l’utiliser.

Il va donc pouvoir être possible de faire « en routine » des tests de zones mortes (ou « inertes », « désafférentées »… avant d’être déclarées définitivement perdues, après période de stimulation par appareillage !).

L’intégration du TEN(HL) Test sur Affinity 2.0.4 (par B.C.J. Moore).

Pour en savoir un peu plus sur la procédure, vous trouverez des détails sur le résumé des conférences et ateliers du Congrès 2004: pages 20 et suivantes, la conférence de Moore, et pages 51 et suivantes, l’atelier.

J’avais déjà attiré l’attention de nos lecteurs sur l’inititative porté par la société OTICON : l’IDA institut. boîte à idées dédiée à l’audiologie, l’IDA Institut permet de mettre autour d’une même table des audiologistes du monde entier, des médecins ORL, des spécialistes de la communication, des ingénieurs, des anthropologistes… En somme, l’objectif est de mixer les compétences et de les mettre à disposition du monde de l’audition… En un mot, j’adore !

IDA a mis en ligne depuis quelques jours des outils dédiés aux audioprothésistes et aux audiologistes, afin d’améliorer la communication avec le patient/client malentendant.

Le premier d’entre eux est une analyse de son approche personnel aux patients/clients. Cet outil permet de mieux appréhender les moments forts que nous avons eu avec le patient/client et ainsi de reproduire les bonnes pratiques à moyen terme. C’est surtout une méthode de travail qui oblige à se poser quelques minutes (très difficile dans mon cas ;-)) et à se remémorer les points clefs de la réussite ou d’un échec d’un appareillage. A utilise. J’attends vos retours.

http://www.idainstitute.com/fileadmin/user_upload/documents/Reflective_Journal_web_final_nov.pdf

C’est l’histoire d’un « serpent de mer » de l’audioprothèse : les fabricants utilisent-ils les seuils subjectifs d’inconfort que nous prenons la peine de mesurer ?

Et je pense que beaucoup de monde a fait la même chose : saisir un audiogramme tonal à 60dB HL plat à droite, sans inconfort, et le même à gauche avec un SSI (Seuil Subjectif d’Inconfort) à 90dB HL sur toutes les fréquences. On rentre dans un logiciel d’adaptation, on choisi le même appareil des deux côtés, et on regarde ce qui se passe avec la formule par défaut du fabricant…

Et là, trois possibilités :

  • Aucune différence de réglages entre les deux oreilles (assez courant)
  • Aucune différence dans le réglage des compressions MAIS le niveau de sortie maximum, si le réglage existe, est corrélé au SSI (a tendance à se développer)
  • L’oreille présentant la dynamique réduite a des réglages adaptés en compression et niveau maximum de sortie (assez rare par défaut)

Donc on peut en déduire que majoritairement, les fabricants n’utilisent pas les seuils d’inconfort mesurés par les audioprothésistes, en tout cas pour leur calcul des compressions et autres points d’enclenchements.

Ce n’est pas tout à fait surprenant car la formule de calcul utilisée est souvent NAL-NL1 ou une adaptation « maison » de NAL-NL1. Or la formule australienne utilise un seuil d’inconfort statistique. Un peu vexant pour les audios qui pratiquent la mesure du SSI !

L’apparition de systèmes de gestion des bruits impulsionnels en entrée a modifié un peu cette approche puisque certains fabricants proposant ces systèmes proposent des « mix » entre un calcul des compressions basé sur la dynamique statistique et un MPO ou « pseudo-écrêtage » basé sur le SSI. C’est mieux, mais on ne nous laisse pas encore toutes les clés de la maison…

Par contre, il est toujours possible d’utiliser des formules de calcul intégrant le SSI mesuré dans le calcul des compression et MPO, c’est le cas de DSL I/O par exemple, souvent proposée par défaut lors des appareillages pédiatriques, bien qu’il ne soit pas évident d’obtenir un SSI avant 10ans.

Il faut reconnaître aussi que la mesure d’un seuil d’inconfort est très subjective (c’est le cas de le dire) : elle dépend presque autant du patient, de sa peur ou au contraire de sa bravoure (!), que du testeur et de sa limite posée (douleur ? limite du supportable ? réflexe cochléo-palpébral ?…). Pour ma part, après une consigne assez sommaire type « limite du supportable », je trouve que l’observation du visage est assez précise, et un re-test quelques années après donne souvent des résultats assez proches. Le seuil d’inconfort n’évoluerait donc pas trop avec le temps, ce qui n’est pas le cas du seuil de confort (que je ne mesure pas) mais qui semble évoluer à mesure que les patients nous demandent plus de gain « pour les voix », donc à niveau « moyen ». Ce fameux passage de courbes de transfert « concaves » à « convexes » qui rendait difficile il y a quelques années un renouvellement du Siemens Prisma 4D (courbes de transfert « convexes » à l’époque), et qui fait que les Widex sont très confortables au début (courbes de tranfert très « concaves ») mais un peu « mous » après quelques semaines (il faut redonner du gain à niveau moyen).

Mais le « grand maître » du seuil d’inconfort statistique est toujours sur son trône depuis les années 80 : c’est PASCOE la plupart du temps qui décide du seuil d’inconfort de votre patient. Ses recherches ont donné en 1988 des abaques de corrélation entre seuil d’audition et seuil d’inconfort par mesures de progression de la sensation sonore (tests LGOB). Et depuis, beaucoup de fabricants utilisent ces tables si vous ne rentrez pas de seuil d’inconfort, et même si vous en rentrez un d’ailleurs (pour certains) !!

Des études plus récentes ont affiné ce « seuil d’inconfort statistique » de Pascoe, et je suis surpris du « nuage statistique » dans lequel on fait passer ces droites de régression qui serviront de base à ces inconforts statistiques…

Et ces fameux « nuages statistiques », nous les voyons tous les jours : les patients sans aucun inconfort, ceux aux aigus insupportables, aux graves très gênants (ça arrive), etc… et pour des seuils HL finalement pas si éloignés. Alors au final, c’est vrai, il doit bien exister une « droite » qui passe par le centre de gravité de tous ces cas particuliers. Et ce que cherchent les fabricants qui utilisent ces statistiques n’est peut-être pas dénué de fondement : il vaut mieux une statistique 70% du temps juste plutôt qu’un inconfort 70% du temps mal mesuré (= aide auditive 100% mal réglée pour son porteur !).

Et si même, ne seraient-ce que 90% de nos évaluations du SSI étaient assez bonnes (pas moins bonnes que celles de Mr Pascoe en tout cas), je crois que de toutes façons nous n’avons rien à perdre à « individualiser » l’adaptation.

Vous trouverez en téchargement ici une étude sur l’utilisation des seuils d’inconforts saisis pour différents logiciels de réglages. Plusieurs choses ont été analysées: si un seuil d’inconfort est trouvé par le logiciel, l’utilise t-il pour le calcul des compressions ? juste pour le calcul du MPO/PC/SSPL90 ? pas du tout ? quelques surprises…

Article et étude rédigés conjointement par Thibaut DUVAL (pour l’étude des logiciels et tableau), Sébastien GENY et Xavier DELERCE.

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel