Catégorie : Etude de cas

RemFit désigne la passerelle entre le logiciel Bernafon Oasis (version 19) et Affinity (version maxi 2.3).

Bernafon et les autres (sauf Starkey et Widex…) récupèrent déjà les données REM type REUR et RECD, mais le concept va plus loin en pilotant directement la mesure in-vivo d’Affinity par le logiciel de réglage. A noter que Siemens fait déjà ça et même Widex, il y a très lontemps pilotait Aurical depuis Compass (et ça marchait !).

Le but: appuyez sur le bouton « Start » et le logiciel vous met l’appareil sur cibles. Magnifique !

Test !!

Le patient test:

image1

Bien sûr, comme tout le monde, quand on teste un nouvel appareil ou une nouvelle fonctionnalité, on prend le pire de nos patients (le pire des audiogrammes). C’est de bonne guerre !

Dans ce cas précis, les appareils choisis sont des Acriva 7 Rite adapté en dômes ouverts. Le TEN-Test est positif dès 3KHz, donc la correction se fera jusqu’à 2KHz et transposition fréquentielle (pardon « Frequency Composition » !) sur l’intervalle de mon choix (voir post sur le sujet plus bas).

Que fait RemFit:

REMFit

Un conseil: faire la calibration anti-larsen avant la MIV, le gain disponible réel étant bien supérieur des fois à l’estimation logicielle.

Il faut d’abord mettre des sondes in-vivo sur le casque REM et les calibrer par le logiciel Oasis:

Calib Sondes

Les sondes sont calibrées comme en MIV « classique »: sonde de mesure devant le micro de référence, le tout face au HP.

La MIV par le logiciel se fait par défaut à 65dB SPL d’entrée, mais on peut ajouter les intensités 50 et 80dB SPL par défaut dans le logiciel ou à la demande:

REAG cible

Le petit côté magique: en fait à Berne, des milliers de marmottes, au moment où vous appuyez sur « Droit », « Gauche » ou « Les deux », prennent le contrôle de votre PC et vont faire les mesures, plusieurs fois s’il le faut, automatiquement, jusqu’à ce que les cibles soient atteintes au mieux !

Ah non, les marmottes qui plient le papier d’alu, c’est un autre truc Suisse…

Bref ! Ca marche effectivement tout seul et vous voyez de façon miraculeuse les appareils se régler seuls en plusieurs étapes automatiques. Pour peu que vous ayez fait votre audiométrie aux inserts, que le logiciel ait récupéré un RECD, et donc que vos cibles soient précises au tympan, tout devrait donc coller au mieux:

REMFit ajustés

Ici, le niveau 80dB n’a pas pu être émis (c’est trop fort, il faudrait plutôt 75dB SPL max.), et il faut le décocher pour ne pas bloquer le test. Le logiciel n’est pas content car il n’est pas « sur cibles » (à 3K et plus), et c’est là que l’on voit la différence entre un cerveau humain (« Mais c’est ce que je voulais ! ») et la machine (« J’ai pas pu taper le 3 et 4KHz dans les cibles. End of message ! »), donc avertissement. Mais nous savons, nous les humains, que c’est mort/désafférenté au-delà de 3KHz, et qu’il n’est pas important d’aller y mettre de l’information ! Rage against the machine !

Et ça marche ?

REAR REMFit

Et oui ! Pile poile ce que je voulais.

Avouons quand même: une MIV avec ISTS et calcul des CR de la dynamique vocale, vous avez plus d’information qu’avec REMFit, non ?

Donc oui, ça marche, mais quitte à mettre une sonde, pourquoi ne pas passer directement sur la chaîne de mesure avec toutes les subtilités et les informations apportées par les signaux vocaux réels.

D’autant plus qu’ici, la transposition était proposée par le logiciel à partir de 2.9KHz, en plein dans la zone inaudible pour le patient, et seule une « vraie MIV » pouvait mettre en évidence qu’il fallait rabaisser son point de départ:

FC REMFit

Pour ce qui est de la mesure in-vivo de l’énergie transposée, voir ce post.

Bravo quand même à Bernafon, beau travail d’interface Oasis/Affinity. Seul regret: les courbes de MIV ne sont pas stockées dans Noah.

Prochain test: Oticon et sa MIV intégrée, qui, elle, permet l’utilisation de signaux vocaux. A suivre…

Malgré le raffinement et la très grande diversité des tests à la disposition des audioprothésistes aujourd’hui, nous ne faisons qu’une « photographie », très imparfaite de l’état du système auditif.

L’audiométrie, tonale ou vocale ne s’avère ne tester que les capacités auditives résiduelles, sans nous donner d’informations « au-delà de la quantité ». Des fois, nous aimerions savoir « où » et « quoi » est touché. Ceci ne nous avancerait peut être pas dans nos réglages, mais aurait au moins le mérite de donner une probabilité de chance ou d’échec d’une amplification.

Pour illustrer ce propos, je voulais vous soumettre le cas d’un patient avec deux tentatives d’appareillage sur les dix dernières années. La première en 2003, soldée par un échec, la seconde en cours, et soldée… je me demande bien encore par quoi !

Ce monsieur consulte en 2003 pour une sensation de déséquilibre OD/OG et volonté d’appareiller son oreille la plus basse, son oreille droite:

2003

Je vous passe les détails, mais après deux mois d’essais en tous genres, stratégies diverses, etc., ce patient n’a aucun apport avec une amplification à droite. Pire: cette oreille droite appareillée se révèle perturber l’intelligibilité relativement préservée à gauche. Force est de constater que la fusion binaurale n’intervient pas. Mais comment l’interpréter ? Ca coince quelque part, mais l’audiométrie ne renseigne en rien sur l’origine…

Arrêt de l’adaptation sur un échec à droite en 2003.

Ce patient revient en 2013 (pas rancunier !), pour « un appareillage à gauche, la droite est morte ». Effectivement:

2013

Plus de seuil en tonale en 2013, intelligibilité nulle de ce côté. Ca me laisse penser qu’en 2003, j’avais tenté de m’attaquer à une oreille interne en train de dégénérer, et dont l’audition à fini par totalement disparaître. D’où cet échec je présume.

L’audition à gauche s’est relativement bien maintenue, ainsi que la vocale, très légèrement en baisse, mais pas si mauvaise quand même (LAFON cochléaires).

Nous repartons pour une adaptation à gauche. Je me dis que la technologie actuelle, 15 canaux, directivité, etc. etc., tout cela devrait donner quelque chose de bien:

MIV 2013

C’est beau, c’est carré, pas comprimé, dans la dynamique, écrêté où il faut, programme 2 anti-bruité, anti-larsenné, réducto-bruité, confortable, porté, supporté, etc.

Une « petite » tonale:

CL 2013

Persiste quand même toujours une sensation « métallique » et « claquante », en régression après un mois de port. Tout essai d’amplification plus importante de 2 à 4KHz se solde par un inconfort au quotidien.

Ce patient n’a quand même pas l’air très emballé par l’apport qualitatif. Les discussions sont « à peine plus faciles », la TV « un tout petit peu mieux ».

La vocale:

CL voc 2013

Sans appareil: bleu. Avec appareil: rouge. Pas de quoi pavoiser. Il faut se rendre à l’évidence: l’amplification ne débouche nulle part en quelque sorte. La zone stimulée (1.5-6KHz) ne semble pas « coder » pour l’intelligibilité chez ce patient. Ce qui pourrait être le cas en présence d’une zone morte cochléaire.

Arme ultime, le TEN-Test:

TEN

Le TEN est émis à 80dB/ERB et de 1KHz (!) à 3KHz, si ce n’est pas franchement positif, ce n’est pas non plus négatif. On peut supposer qu’il y a encore des CCI, peut-être, mais fonctionnent-elles correctement ? Et que s’est-il passé à droite en 10 ans ? Y a t-il un rapport avec la disparition de l’OD et le fonctionnement erratique de l’OG ? Qu’a testé l’audiométrie ?

OU EST LE PROBLEME ?

Des questions, des questions, des questions. Pas de réponses. Tout s’améliore aujourd’hui, nos techniques, nos mesures, nos appareils, mais nous ne testons que la périphérie, avec peu de tests capables de nous donner une indication précise du point de dysfonctionnement.

Rendez-vous en 2023 ?

En 2000, B.C.J. Moore présentait un nouveau test audiométrique tonal, le TEN-Test, censé être aussi efficace  que l’utilisation des courbes psycho-acoustiques d’accord (85% environ aussi précis, selon ses travaux) dans la détection de « Zones Mortes cochléaires ». Une « Zone Morte » étant définie par l’absence ou une importante raréfaction des cellules cilliées internes (CCI) dans la cochlée, rendant toute amplification prothétique inutile, voire nuisible à l’intelligibilité selon certains auteurs à l’époque.

Ce test est un test d’audiométrie tonale, d’abord effectuée dans le silence (classique…), puis ré-effectuée dans un bruit envoyé de manière ipsilatérale. On demande alors au sujet testé de déterminer son seuil de perception au milieu de ce bruit, appelé « TEN ». TEN= « Threshold-Equalising Noise », ou « Bruit Egalisateur de Seuil ».

C’est justement dans ce « bruit » que réside tout  le test. Son élaboration repose sur des fondements psycho-acoustiques relativement récents. Son but est donc « d’égaliser/équaliser » le seuil à son niveau. Par exemple pour une surdité en pente régulière:

L’audiométrie a d’abord été réalisée au casque (ronds rouges) sans le bruit, par pas de 2dB. Elle est ensuite refaite avec présente du TEN, ici envoyé à 70dB/ERB. Les seuils « tombent » alors à l’intensité d’émission du TEN, et devraient s’aligner aux environs de 70dB HL pour chaque fréquence testée. Aucun autre signal masquant ne permet cela, ni le bruit blanc, ni le bruit rose. Le TEN est en effet élaboré de telle sorte qu’il a un pouvoir masquant égal dans chaque ERB, son intensité n’est pas donnée strictement en dB HL, mais en dB/ERB.

ERB ?

Si vous vous faites le test et que vous utilisez un TEN à 70dB/ERB, vous vous apercevrez que c’est fort et à 80dB/ERB vraiment très fort. ERB signifie « Equivalent Rectangular Bandwidth » ou en gros, « Bande de largeur rectangulaire équivalente ». Sous-entendu: « équivalente à un filtre auditif ».

Ces « filtres auditifs » sont en fait les « Bandes critiques » (mais pas exactement pour Moore), décrites par Fletcher dans les années 1940, au nombre de 24 (échelle des Barks). Elles correspondent à des « filtres cochléaires » présentant de nombreuses particularités. Par exemple, pour un son pur à 1000Hz dans la bande critique 1000Hz (qui fait 160Hz de large); l’ajout d’un second son pur de même intensité à une fréquence proche du premier (ex: 1010Hz) mais dans la même bande critique (compris dans cette bande de 160Hz) ne provoquera pas d’augmentation de sonie. Si le second son pur « sort » de la bande critique 1000Hz, il provoquera un changement de sonie. Ces propriétés (et d’autres encore) ont été étudiées et affinées depuis Fletcher et Zwicker, et il est apparu plus simple de modéliser ces « filtres auditifs » qui ont une forme de cloche (sommet en pointe et extrêmes aplatis), par leur « équivalent rectangulaire » (équivalent rectangulaire de la surface ou aire du filtre auditif):

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007
Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Mais B.C.J. Moore dans les années 80 a entrepris (avec d’autres) de re-mesurer la largeur des filtres cochléaires en utilisant une technique dite du « bruit à encoche », donnant une meilleure précision dans la détermination de leur largeur en fonction des fréquences. Je précise qu’il n’y a bien entendu ni « 24 bandes critiques », ni « emplacements ERB » fixes et bien délimités dans la cochlée, mais un continuum chevauchant de filtres cochléaires. Si l’on prend une fréquence quelconque, par exemple toujours 1000Hz, on s’aperçoit que la bande critique suivante (voir propriétés plus haut) est à 1770Hz, le filtre précédent à 840Hz, etc. Ceci est valable pour les bandes critiques et les ERB (fréq. centrales différentes pour ces dernières).

Les ERB (échelle en « Cams », par opposition aux « Barks ») sont un peu plus étroites que les bandes critiques, notamment dans les aigus:

BC, ERB et 1/3 d'octave. XD 2012.

Pour une revue détaillée du concept de « filtres cochléaires » et de leurs propriétés (la machine humaine et son oreille en particulier sont incroyables…), la dernière édition de Psychology of Hearing de BCJ Moore est extrêmement détaillée, très didactique et progressive dans l’approche de concepts psycho-acoustiques pas toujours évidents (il appelle ça « Introduction » mais ça fait plus de 400 pages…). Vous trouverez également dans ce document libre (p. 421 à 427) divers développements sur les BC et ERB.

Donc lorsque l’on utilise le TEN à 70dB, il s’agit donc de 70dB dans chaque ERB, d’où le niveau ressenti: fort !

Le but décrit par Moore avec l’utilisation du TEN est d’éviter « l’écoute hors fréquence » (« Off Frequency Listening »). En présumant qu’une zone cochléaire est « morte » selon les critères décrits plus haut, l’augmentation du niveau du son pur de test entraîne un « pattern d’excitation » qui s’élargit sur la membrane basilaire, permettant au final à des cellules cilliées situées plus loin de la zone testée, de « répondre » à la place de la fréquence testée. On obtient alors un « faux-positif » audiométrique faisant penser à une perception réelle dans la zone. En réalité, le patient aura perçu un stimulus plus large bande (type bruit filtré), mais pas le son pur envoyé.

Le but du TEN-Test est donc d’utiliser un bruit masquant (le TEN), étudié spécifiquement pour donner la même intensité de masque dans chaque ERB. En présence du bruit masquant, les seuils doivent donc « tomber » au niveau du bruit puisqu’en saturant chaque ERB, il empêche « l’écoute hors fréquence ». Et ça fonctionne (l’égalisation du seuil au niveau du TEN), validant au passage de manière indirecte le concept d’ERB face au concept de bandes critiques.

Imaginons maintenant qu’une zone cochléaire ne possède plus de CCI. Nous testons (sans bruit masquant) en augmentant le signal de test, le pattern d’excitation augmente et les régions « saines » les plus proches finissent par répondre. Faux-positif. Le re-test en présence du TEN empêche la détection hors fréquence: le seuil masqué « tombe ». Exemple (réel, on en reparle plus bas):

 

TEN-Test
TEN-Test 70dB/ERB

 

Sans masque, le seuil de ce patient est représenté par les croix. Le TEN est ensuite appliqué à 70dB/ERB. Les fréquences 500 à 1000Hz tombent à 76 et 74dB HL, la fréquence 1500Hz tombe à 80dB HL (TEN + 10dB). La fréquence 2000Hz tombe à 86dB HL (TEN + 16dB). Les fréquences 3 et 4KHz ne « bougent » pas (mais elles auraient pu…).

B.C.J. Moore défini le critère de zone morte ainsi:

  • Pour les seuils dans le calme (sans TEN) inférieurs au TEN (ici, inférieurs=meilleurs que 70dB, donc de 500 à 2000Hz compris): Zone Morte Cocléaire (ZMC) si le « seuil masqué » est au moins 10dB au dessus du seuil « non-masqué » et 10dB au-dessus du bruit. Ici, le 1500Hz est « limite » et le 2000Hz est « positif » (ZMC @ 2KHz).
  • Pour les seuils dans le calme (sans TEN) supérieurs au TEN (ici le 3 et 4KHz): ZMC si le « seuil masqué » est juste supérieur au « seuil non-masqué » (ici si le 3KHz était passé de 86dB à 88dB HL et le 4K de 98 à 100dB HL). En réalité, il est conseillé dans ce cas d’utiliser pour ces deux fréquence un TEN plus élevé (80dB/ERB) pour voir si l’on obtient un décalage plus important des seuils masqués…
Et donc dans ce cas, on utiliserait uniquement la bande jusqu’à 1500Hz pour corriger, toute information apportée à partir de 2000Hz étant jugée inutile, voire nuisible à l’intelligibilité.
Voir pour plus de détails le PHONAK Focus 38 (PHONAK fait des trucs très bien 😉 )sur le sujet.

« Mais ça, c’était avant… » (Nous interrompons notre programme par une page de pub !).

Le TEN-Test est facile et rapide à administrer. Ses conclusions, binaires (Mort/Pas mort). Une littérature surabondante sur le sujet a été produite ces dix dernières années. Passé la première période de doute sur les résultats du test, de nombreux audiologistes ont tenté de dégager une règle d’amplification pour les sujets présentant une ZMC ou un TEN-Test positif. La » règle du 1.7Fe » a semblé s’imposer: si une zone morte est dépistée à xHz (appelé Fe), la bande passante de l’amplification ne devra pas dépasser 1.7*Fe.

Cette règle (les anglo-saxons aiment bien ce genre de trucs…) se basait aussi sur des travaux ayant mis en évidence une dégradation de l’intelligibilité chez des patients présentant des ZMC et chez qui la bande passante d’amplification n’avait pas été réduite (Vickers, Moore, Baer, 2001).
Des études plus récentes, et notamment l’article de Cox et al. en 2011, tendent cependant à minimiser l’impact négatif de l’amplification HF chez des sujets présentant des TEN-Tests positifs dans ces régions cochléaires. Une amplification HF maintenue resterait bénéfique dans ces cas. Ces auteurs réitèrent d’ailleurs dans un article à paraître bientôt: il n’est pas si évident que la réduction de bande passante d’amplification soit une bonne solution lors de TEN-Tests positifs.
Un résumé de leurs articles est disponible sur le blog Starkey.

Alors quoi ?

On fait un TEN-Test, il est positif. Certains auteurs disent « Pas d’amplification sur une supposée ZMC ! » et d’autres « Allez-y. Au pire ça ne fera que légèrement baisser le confort, au mieux, améliorer l’intelligibilité ! ».

Faire ou ne pas faire de TEN-Test ? That is the question !

J’enfonce le clou: certaines équipes de neuro-physiologie françaises sont très dubitatives sur le résultat immédiat du TEN-Test et son interprétation très « on/off » si je puis dire.

Je m’explique. En reprenant le patient précédent (oreille gauche). Ce monsieur a été testé lors du premier RDV de bilan pré-prothétique. Donc TEN-Test douteux à 1.5K et positif à 2K. Puis ce patient a été re-testé après deux mois d’appareillage (et donc de stimulation):

Là, on ne joue plus: les carrés gris = premier test, carrés bleus = second test (post-app. 2 mois). Le 1.5K est passé « négatif », le 2K est passé « limite ». TEN-Test en gros « négatif », amplification jusqu’à 2.5/3K environ supportée sans aucun problème.

Certes, le premier TEN-Test aura permis de démarrer une correction réduite en bande passante et s’élargissant ensuite. Le second TEN-Test n’aura fait que confirmer une sensation d’utilité d’une zone qui n’avait plus été stimulée depuis bien longtemps, mais qui était dans une moindre mesure certes, fonctionnelle. Je ne suis pas neuro-biologiste, mais sans trop m’avancer, le premier TEN-Test aura certainement mis en évidence une désafférentation de cette zone cochléaire, et le second, l’effet de la simulation sur la même zone et au-delà. J’attends avec impatience l’audiologiste qui pourra mener un test/re-test en pré/post-appareillage sur un échantillon conséquent et significatif…

Le TEN-Test est aujourd’hui disponible en routine sur le Nouvel Aurical, Affinity, et c’est tant mieux. Il est un outil de diagnostique irremplaçable pour l’audioprothésiste, permettant un accompagnement progressif dans la correction. L’adaptation prothétique reprend tout son sens: un acte professionnel sur le long terme. Pas un « objet ». Mais il doit être interprété avec prudence, notamment sur des résultats peu marqués.

XD.

PS: @ Maëlgad: j’y aurais mis le temps, mais je n’avais pas oublié que je devais t’envoyer ces infos 😉

Juste pour info, patient du début de semaine.

Voici la tonale:

Voici la vocale (cochléaires LAFON):

Là, ça ressemble à ce que tu as eu, Sébastien…

En « grattant » un peu, c’est à dire avec un TEN-Test:

L’OD n’est même pas montrée (tout est positif après 1K). L’OG, après utilisation du TEN à 80dB HL (barre noire rajoutée), fait plonger le 1.5K, puis le 3K. La cochlée est « trouée » ou en tout cas bien désafférentée (flèches).

Que faire ? Pas grand chose, sinon au moins pouvoir expliquer le problème, sans solutions (évidentes)…

Le TEN-Test: 5 min. de passation, des heures de galère évitées !

 

L’autre jour, je reçois la visite d’une cliente, 82 ans,  qui porte ses aides auditives depuis déjà quelques années (10+ ans). Elle a déjà renouvelé ses aides auditives, il y a 6 ans en contours d’oreille.  Elle souhaite renouveler… Alors, je me suis dis que je pouvais demander à la vaste communauté des audioprothésistes qui lisent le blog de me donner leurs conseils en cas de courbes de type rétrocochléaire. Pour détails, cette personne présente 2 tonals symétriques plates aux alentours de 60 dB HL de perte. La dynamique résiduelle est pourtant respectable eu égard à la vocale de fournier ci-dessous (UCL à +/- 115 dB HL).

L’orthophonie, à cette âge avancée, ne me paraît pas d’une grande aide et la manipulation d’un microphone bluetooth est difficile à réaliser…

Vocale de Fournier avec et sans aides auditives

Alors qu’en pensez vous ? des suggestions sur le gain et les compressions ? des remarques ou des expériences sur des sujets similaires ?!

 

Ca porte en général un doux nom du type « Sound Recover » (SR) ou « Audibility Extender » (AE). Le terme générique souvent utilisé est « frequency shifting » ou « frequency lowering » (décalage ou rabaissement fréquentiel).
On peut considérer que ces techniques ont franchement changé la vie des utilisateurs de ces systèmes, même si on peut discuter de l’apport d’intelligibilité (la masse d’articles sur le sujet est assez impressionnante).

Le principe de ces système, la zone 3, non audible pour causes multiples va être ramenée dans la zone 2 (AE) ou en lisière audible de la zone 2 (SR):

Un zone fréquentielle non audible (3) va être "décalée" vers une zone audible

Mais… (sinon il n’y aurait pas d’article !), comment « objectiver » (pas joli ce mot) ces systèmes ? Où démarrer ? Où s’arrêter ? Que transposer/compresser ? Et surtout: comment observer l’effet produit sur la parole amplifiée ?
A titre personnel, j’ai assez vite pu mettre en évidence la transposition fréquentielle (AE) par le Visible Speech, sur une voix « live ». Le plus frappant est de prononcer un /s/, en général bien ciblé vers 5/6KHz et de le voir se décaler vers 3KHz. C’est frappant, mais un peu « appuyé » comme démonstration…
Quant à la compression fréquentielle (SR), je faisais confiance… bref je séchais !
Alors Zorro est arrivé ! Zorro ce n’est pas moi, c’est un constructeur de chaînes de mesure: Audioscan. Non distribué en France, ce constructeur a mis au point un signal (trois signaux pour être exact) de mesure (signaux vocaux) afin de tester les appareils à décalages fréquentiels. Ca fait déjà quelques mois de ça quand même, mais les nouvelles d’Amérique me sont amenées par les mouettes qui font la traversée, désolé…
Donc je reprends: la manip. consiste à créer un signal vocal dont les médiums sont « amputés » et dont seule une bande dans les aiguës est laissée, 4000 ou 5000 ou 6300Hz:

Le « creux » dans les médiums sert en fait à mettre en évidence le rabaissement fréquentiel induit par l’appareil (transposition ou compression); c’est à dire que la zone « enlevée » permettra de ne pas « polluer » la visualisation (mesure in-vivo) du glissement fréquentiel. Le but étant de tester d’abord sans le système de décalage fréquentiel, puis avec.

Le choix de signal 4KHz, 5KHz ou 6.3KHz se fait (à mon avis) surtout pour les systèmes à transposition, en fonction de la fréquence de démarrage. Pour les systèmes à compression fréquentielle, le signal filtré 4 ou 5KHz semble suffire (encore mon avis).

Et ces signaux ? Comme souvent Audacity est l’ami des audios, l’ISTS est passé à la casserolle:

Donc trois fichiers wave distincts selon le filtre passe-bande souhaité, intégrés dans la chaîne de mesure.

Intégrés à la chaîne de mesure, ça donne un test « test REM décalages fréquentiels » que vous pouvez télécharger pour Affinity (2.0.4 sp2). Voyons voir si ça marche… va t-on enfin visualiser tout le travail de ces systèmes ? Est-ce que ça marche ? Quelques surprises…

  • La transposition fréquentielle:

Le principe est connu, rétrograder d’une octave une bande fréquentielle:

Principe de la transposition fréquentielle

Là, je dirais que l’effet est tellement ENOOOORME qu’il a toujours été facile de le mettre en évidence in-vivo. Il suffisait de produire un son situé dans la zone transposée et de le chercher une octave plus basse.

Par exemple sur ce patient:

NS in-vivo sans transposition

La perception est nulle pour la zone 6KHz (le /s/ par exemple). Si on active un programme de transposition de la zone:

Proposition logicielle de transposition

En utilisant l’ISTS filtré sur 6.3KHz, on obtient:

Transposition du 6KHz

On voit bien que la zone 3KHz est plus élevée que sans la transposition (à comparer avec la courbe verte de la mesure REM précédente). Est-ce que ce réglage sera toléré sans problème, c’est encore une autre histoire… mais la visualisation est possible, le système est objectivable (ah ! ce mot !). Par contre, la zone transposée « s’ajoute » en intensité à la zone « saine », d’où la nécessité parfois soit de minimiser l’AE (c’est réglable), soit de diminuer le gain de la zone à transposer dans le programme sans transposition.

L’avantage d’un signal vocal filtré, je le redis, est de mieux visualiser la zone transposée puisqu’elle se retrouve seule dans les médiums/aigus.

  • La compression fréquentielle:

Alors là, il y a du boulot. A titre personnel, je n’avais jamais réussi à visualiser l’effet de ce système en action. Ca restait « noyé » dans les fréquences contiguës en mesure in-vivo jusqu’à maintenant.

Allez zou:

Voici l’audiogramme du gentil « cobaye ».

Et voici le réglage logiciel proposé:

Réglage défaut du Sound Recover
Réglage défaut du SoundRecover

Il est donc proposé de démarrer la compression fréquentielle à 4.8KHz. Si je ne doute pas que certains sons soient perçus dans cette zone, j’ai nettement plus de doutes pour les indices vocaux, et effectivement, mesure in-vivo à la voix (ISTS):

NS in-vivo voix moyenne

Aucune information ne passe au-delà de 4KHz: le choix d’une fréquence « receveuse » à 4.8KHz n’est pas judicieux si on veut faire passer des informations vocales dan cette zone.

Donc première chose: si on se sert de la compression fréquentielle pour améliorer la perception vocale des zones fréquentielles aiguës, il est quasiment indispensable de réaliser une mesure in-vivo de niveau de sortie (REAR avec ISTS par exemple) afin de bien déterminer à quel endroit exact on enclenche le système. Dans le cas ci dessus, la zone 3K/3.5Khz semble appropriée si on ne veut pas plus augmenter le gain à 4KHz (zones mortes par exemple…). Le principe de la compression fréquentielle étant de démarrer en « lisière » de la bande passante audible, autant bien calculer sa zone de réception, la fameuse « cut-off frequency » de l’illustration suivante:

Le principe de la compression fréquentielle

Et après essais à 3.9 puis 3.3KHz pour le patient suivant, on obtient:

REAR ISTS filtré 4KHz sans et avec SoundRecover démarré à 3.3KHz

J’explique la mesure: la courbe fine orange est le signal filtré 4KHz sans activation du SoundRecover, la courbe grasse après activation. On constate une élévation du niveau de sortie (légère, environ 5 dB) vers 3.5KHz provoquée par le rabaissement fréquenciel de la zone 4KHz et plus.

Donc léger « glissement » en fréquence et augmentation de niveau.

  • Discussion:

A l’usage, on peut tous le constater, la transposition est très efficace, « visible » et audible et permet à certains patients de retrouver des sons totalement oubliés et inaccessibles autrement. De là à dire que la transposition est un système plus dédié aux « zones mortes » ou pentes audiométriques importantes, il n’y a qu’un pas… que je ne franchis pas ! Toujours est-il que la transposition demandera un temps d’apprentissage.

La compression, elle, est plus discrète, moins surprenante pour les patients que la transposition. En essayant de tester in-vivo par le moyen de signaux filtrés, on s’aperçoit qu’elle est peut-être moins « visible » que la transposition pour les pentes fortes, donc peut-être moins adaptée. Mais à l’inverse, elle permet d’enrichir les informations vocales dans des zones en général inaccessibles (4K et au-delà), sans choquer. L’usage d’un tel système sur une surdité plate et moyenne est très facile à mettre en évidence avec ces signaux (voir l’article de Phonak suivant).

Donc transpo ? compression fréquentielle ? Vous avez des éléments de réponse. A vos tests !

  • A propos du test:

Vous trouverez en téléchargement un test prédéfini pour Affinity 2.0.4 sp2, il suffit de placer les signaux filtré, téléchargeables ici dans un dossier quelconque et de paramétrer le test pour aller les chercher.

Pour les autres chaînes de mesure récentes (Unity 2 ou FreeFit), je pense qu’il est possible aussi d’intégrer ces signaux wave.

Bibliographie:

Présentation du test mis au point par Audioscan (c’est vers la fin).

Le test Affinity à importer.

Les signaux à télécharger.

Un article de PHONAK sur les tests in-vivo d’efficacité du SoundRecover, très impressionant pour les surdités « plates »… ça marche !

Une « contre-étude » d’un fabricant (!!!) sur les systèmes de rabaissement fréquentiels. Censuré ! (non, je blague, je ne le retrouve plus !).

Un article du Kuk qui met au point un test vocal tentant de mettre en évidence les effets de ces systèmes de décalages fréquentiels: le test ORCA.

Du même auteur, un article sur les tests des systèmes de rabaissement fréquentiel.

Merci à Jean-Baptiste BARON pour les manips.

Pas grave…

J’ai classé ce post dans la catégorie « étude de cas », mais c’est plus une constatation qu’une étude de cas.

Il s’agit d’une dame présentant de otites chroniques avec période de rémission de quelques semaines à (rarement) quelques mois.

Des drains trans-tympaniques ont été posés des deux côtés, à plusieurs reprises. Le droit est tombé depuis 2 mois laissant une perforation (bien utile, finalement) tympanique ; le gauche se trouvait dans le conduit le jour des tests, le tympan refermé.

Voici le seuil à gauche : petit Rinne dans les graves.

Le seuil à droite :

Cette dame possède des appareils depuis plusieurs années, et à droite, son embout présente une aération « spiralée », sorte de rainurage en colimaçon tout le long du conduit, permettant une aération minimale tout en évitant trop de fuites acoustiques.

Cela étant, ses derniers appareils, après calibration du système anti-larsen, indiquent « l’effet d’évent », c’est à dire non seulement le diamètre de l’évent mais aussi les fuites acoustiques sur les bords de l’embout. A droite, cet effet d’évent est mesuré à 1mm.

Depuis qu’elle est appareillée, cette patiente n’a jamais pu avoir d’amplification des graves à droite, quasiment jusqu’à 750Hz, quand bien même les appareils le permettaient.

Certes, il est impossible d’avoir une amplification correcte de cette zone fréquentielle (250/750Hz) avec un évent de plus de 1.5mm. Mais ce n’est pas le cas ici, l’amplification de cette zone, quel que soit le gain apporté, se « perd ». Je ne retrouve rien à la mesure in-vivo (même avec gel autour de la sonde, pour ne pas créer un effet d’évent lors de la mesure).

Voici la mesure du niveau de sortie in-vivo (REAR ISTS à 65 et 75dB SPL d’entrée) :

Aucune correction des graves, quel que soit le réglage, quel que soit l’appareil…

Pour info, j’ai pratiqué une mesure RECD (différence de comportement acoustique entre le coupleur et l’oreille) et REUG (gain naturel de l’oreille).

Le REUG :

Le RECD :

La mesure du REUG met en évidence une anti-résonance vers 750Hz, même si elle est légère. Cet aspect d’un comportement acoustique d’un conduit à tympan perforé avait été évoqué ici, mais il est peu marqué dans ce cas présent.

Par contre, le RECD (mesuré à la base pour calculer le SPLoGramme) est assez particulier. Il a été mesuré avec mousse occlusive, pré-étalonné sur coupleur intra (appelée mesure RECD HA1 « mousse ») et ne devrait normalement en aucun cas être négatif (moins de puissance dans l’oreille que dans le coupleur), puisque l’oreille est totalement occluse. Or ici, on est entre -10 et -15dB selon les fréquences dans les graves. Il y a bien « fuite », mais pas vers l’extérieur (perte d’étanchéité), mais vers l’oreille moyenne, par la perforation. Fuite ? défaut d’admittance du tympan ? autre ?

Bref, ce genre de mesure met en évidence une impossibilité quasi-physique d’amplification des graves, au-delà de tout problème d’étanchéité ou de puissance de l’appareil: il faut renoncer à cette zone fréquentielle, sous peine de trop fermer un conduit déjà fragile, ou de « fatiguer » un écouteur qui au final n’apportera quasiment rien de mieux.

A la rigueur, cette dame aurait un évent plus gros (sous réserve de ne pas présenter de larsen), celà ne changerait rien.

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel