« Dark Side of the Head »* Réglage objectif d’un système CROS/BiCROS

Written by xavdelerce on . Posted in Affinity, Astuces sur les appareils, BICROS, Chaînes de mesure, CROS, Marques, mesure in vivo, mesure in-vivo, Réglages des appareils, WIDEX

J’avais déjà évoqué la possibilité sur Affinity d’activer le microphone de référence opposé à la mesure in-vivo, et de l’intérêt de cette technique de mesure dans l’évaluation de l’ombre de la tête et de sa compensation par un système CROS.

Voici un cas clinique de validation de la mesure avec un patient appareillé dans un premier temps avec un Widex DREAM Fusion 330 à gauche, et cophose à droite:

Aud_CROS

Ce monsieur, très actif dans sa commune, participe à de nombreuses réunions et autres joyeuses activités associatives à base de canard gras dont Les Landes ont le secret…

Bref, sans surprise, il n’entend pas son voisin de droite, et ça l’embête bien. Donc une adaptation est programmée pour l’essai d’un système CROS Widex, qui en l’occurrence dans ce cas est un système BiCROS puisque son côté « bon » nécessite un appareillage.

La mise en évidence de l’ombre de la tête et le réglage de la balance microphonique se fait en trois étapes:

  1. Mesure in-vivo de la bonne oreille (Cas du CROS) ou de l’oreille appareillée (cas du BiCROS) avec HP à 90° (pile face à l’oreille)
  2. On laisse la sonde dans l’oreille et on fait tourner le patient de manière à présenter son oreille cophotique face au HP (mesure à 270°), MAIS on active le micro de référence opposé à la mesure =  mesure in-vivo oreille OK, mais micro de référence activé oreille cophotique –> on obtient l’ombre de la tête.
  3. Même mesure que 2 (toujours avec micro de référence activé à l’opposé de la mesure in-vivo), mais on place et on active le système CROS: si tout va bien on doit revenir à la mesure 1, sinon on ajuste le niveau de transmission dans le logiciel Compass GPS (ou Target ;-) ).

Démonstration pour ce patient:

REM_shadow

La partie colorée en jaune correspond pour ce patient à l’ombre de la tête.

On active le micro:

CROS_REM

La courbe bleue montre la captation de la bonne oreille/de l’oreille appareillée lorsque le son arrive du côté cophotique : l’ombre de la tête a été compensée.

Eventuellement, la balance microphonique permettra d’ajuster le niveau de la courbe bleue, jusqu’à coller à la noire:

CROX Dex

CQFD. Il restera à savoir si le patient en tire un bénéfice dans sa vie sociale.

Donc en résumé:

  • ça semble fonctionner et c’est un des rares moyens de mesurer cet « effet ombre »
  • ça permet d’ajuster la sensibilité du micro CROS avec précision et en connaissance de cause
  • permet de démontrer au patient le problème et la solution proposée…
  • attention aux appareils adaptatifs dans le cas du BiCROS, qui ont tendance, à l’opposé du HP, à augmenter l’amplification et donc à « gommer » l’ombre de la tête

Vous trouverez sous ce lien le fichier .iax pour Affinity permettant cette mesure. Attention: l’activation du micro de réf. opposé (en orange sur les copies d’écran) est à faire manuellement pour les étapes 2 et 3.

Mesures et création du test: Xavier DELERCE et Gilles ASSOULANT.

 

* The Pink CROS …

Du pressentiment à la preuve

Written by xavdelerce on . Posted in appareillage de l'enfant, Audiologie, formation, Qualité de services, Réglages des appareils

Pour toute spécialité médicale ou para-médicale, le besoin de preuves scientifique s’accroit ces dernières années.

La prudence vis à vis de tel ou tel traitement augmente, une méthode ou pratique évolue au gré de nouvelles connaissances. Nous le constatons tous les jours, par exemple avec ces listes de médicaments « à faible bénéfice » voire « bénéfice nul » qui s’allongent d’année en année. Et ce n’est pas uniquement pour faire plaisir à la sécurité sociale: ces changements s’appuient sur des études ou méta-analyses d’études scientifiques.

L’audiologie prothétique échappe t-elle à ce mouvement ? Non, bien sûr. Et ce mouvement a même un nom: la pratique de l’audiologie basée sur des preuves (Evidence based practice).

Par exemple, aux questions: « Un réducteur de bruit est-il efficace ? dans quelle mesure ? », « Le microphone directionnel est-il recommandé chez l’enfant ? », « La pratique de la mesure in-vivo améliore t-elle significativement la précision de réglage ? », « L’utilisation d’un seuil d’inconfort statistique au lieu de le mesurer induit-elle un appareillage significativement moins confortable ? », etc.

Que répondre ? Sur quelles bases ? Notre « ressenti », notre intuition ou notre expérience (alias nos plus ou moins bonnes habitudes…) ? Non, ce n’est pas acceptable. Ce n’est PLUS acceptable.

Au jour d’aujourd’hui, nous devons prouver que ce que nous faisons s’appuie sur des bases scientifiques. Certes, un patient n’est pas une règle de calcul millimétrée, mais nous devons être capables aujourd’hui de lui PROUVER que ce que nous avons fait pour lui est un choix rationnel, pensé et établi sur des pratiques validées scientifiquement. C’est un peu le sens de l’imminente certification AFNOR NF, qui à mon avis ne va pas assez loin dans la pratique obligatoire (mesure in-vivo par exemple), mais qui est un excellent début.

Mais la certification valide un service minimal de qualité, pas une pratique scientifique. Pour cela, il faudrait que chacun d’entre nous se plonge dans les revues scientifiques, en extraient les articles intéressants, les traduisent, les confrontent, en analysent leur robustesse statistique, etc. Vous m’avez compris…

Et bien, des audiologistes l’ont fait pour nous ! Dans le cadre de l’appareillage de l’enfant, mais par extension chez l’adulte également.

Car plus que tout autre appareillage, l’appareillage de l’enfant ne tolère pas l’approximation. Le « Pediatric Amplification 2013 » fait suite à sa précédente version publiée 10 ans plus tôt:

Pediatric amplification 2013

Ce guide est en fait une revue de littérature donnant des réponses claires sur des questions techniques concernant l’appareillage de l’enfant. Chaque point est analysé, en fonction du nombre d’articles publiés sur un sujet particulier, mais aussi et surtout en fonction de la robustesse statistique de ces articles.

Par exemple, aux questions suivantes, vous avez les preuves associées, avec le nombre d’articles publiés, leurs références:

  • Le réducteur de bruit est-il souhaitable chez l’enfant ?
  • Une compression WDRC améliore t-elle l’intelligibilité ?
  • L’appareillage d’un oreille cophotique chez l’enfant est-il meilleur en CROS ou en aide FM sur la bonne oreille ?
  • La transposition fréquentielle est-elle utile à l’enfant ?
  • Le microphone directionnel adaptatif doit-il être activé chez le tout petit ? Et en grandissant ?
  • etc., etc.

Vous avez des 10aines de points de ce genre abordés. On parle ici de l’appareillage de l’enfant, mais vous constaterez qu’une grande majorité des articles cités ont été obtenus sur des tests faits avec adultes (les études extrapolées à l’enfant sont indiquées). Nous avons donc ces réponses pour les adultes également.

Pour ne plus jamais dire « J’ai l’impression que… » !

La troisème dimension (presque…)

Written by xavdelerce on . Posted in Affinity, Astuces sur les appareils, Chaînes de mesure, Fonix, La compression, mesure in-vivo

En audioprothèse, nous nous sommes longtemps contentés d’un affichage en « 2D », c’est à dire Gain/Fréquence ou Niveau de sortie/fréquence.

Exemple classique:

noeud 6K

Les spécialistes reconnaitront le type de mesure… et son erreur !

Ces représentations graphiques étaient valables pour des signaux stables en intensité à une fréquence donnée, c.à.d. ne fluctuant pas au cours du temps. Mais intégrer la « troisième dimension », le temps, ne rendrait pas les choses très faciles non plus; nous aurions accès aux variations temporelles, en perdant les informations spectrales (ici le famous fabricant 1…):

AC9_ISTS_OVG_RSB0_temporal domain

L’utilisation de la parole comme signal de test, fluctuant en intensité, change la donne. Pour s’en convaincre, la mesure du premier graphique à été réalisée avec un signal de parole (l’ISTS). Ce signal, normalisé, présente des fluctuations d’intensité de plus de 30dB. La mesure du graphique ci-dessus également avec le même signal. Nous avons donc deux représentations différentes qui présentent toutes deux des informations intéressantes, mais chacune incomplète.

Comment concilier spectral et temporel en quelque sorte ? Comment obtenir la classique représentation spectrale mais en intégrant le traitement des fluctuations d’intensité par l’aide auditive ?

Les fabricants de matériel de mesure nous apportent aujourd’hui des réponses à ce problème.

En reprenant le premier graphique: la mesure de l’amplification (en gain) par l’oreille nue donnera un gain identique (le REUG) quelle que soit l’intensité de la voix « normale ». La voix « moyenne » (prenons 65dB SPL) peut fluctuer entre 40 et 65dB SPL à 2KHz:

Capture2

L’ensemble Torse/Tête/Pavillon/Conduit présente une amplification linéaire pour les niveaux d’entrée, c’est à dire que les niveaux faibles (vallées) et plus forts (crêtes) sont autant amplifiés les uns que les autres. Donc toujours dans cet exemple à 2KHz, la dynamique d’entrée du signal est de 25dB, en fond de conduit on retrouve bien la même dynamique, on peut considérer que l’on a un facteur de compression de 1.0 (amplitude du signal d’origine = amplitude en fond de conduit).

Dans quel cas aurions-nous une altération ? lors du passage dans une aide auditive, typiquement.

Imaginons une aide auditive dont un point de compression serait à 30dB SPL et un second à 55dB SPL, linéaire de 30 à 55dB SPL et de facteur de compression 1.3 de 55 à 75dB SPL par exemple, lorsque que l’on utilise des systèmes capables de vous donner le gain pour des régions spécifiques en intensités (les percentiles d’intensité), on obtient non pas la première courbe, mais celle-ci (attention ça pique !):

ISTS Gain Fonix

Difficile à croire, mais cette mesure de gain est faite avec le même signal que le premier graphique (l’ISTS), mais passé par une aide auditive, puis analyse séparée pour chaque percentile d’intensité.

La courbe verte est le « LTASS », niveau à long terme moyenné sur le temps de mesure (20 sec. ici). Cette courbe verte correspond à la courbe rouge du premier et du troisième graphique.

La courbe jaune correspond à l’amplification des 30èmes percentiles, c’est à dire en gros, des niveaux environ 18dB moins élevés que le niveau moyen (le LTASS), ou autrement, des niveaux dépassés 70% du temps, que l’on nomme habituellement « les vallées » de la parole.

La courbe bleue correspond à l’amplification des percentiles 99 d’énergie, les niveaux les plus élevés de la voix moyenne, ses crêtes, les niveaux atteints et dépassés 1% du temps.

Que constate t-on: que les vallées de la parole sont plus amplifiées que ses niveaux moyens (en rouge et en vert) que ses crêtes. Si on considère la parole « non-traitée » (comme les oranges après récolte…) comme ayant une dynamique standardisée de 30dB à laquelle on attribue un facteur 1.0 de compression (non comprimée donc), dans ce cas mesuré ici par la chaîne de mesure, les « vallées » ont été remontées et les crêtes, lissées. Sa dynamique de sortie est donc réduite (ce qui est quand même bien dommage pour de la voix moyenne) et donc à la louche elle subit une compression de 1.3 jusqu’à 2KHz dans l’exemple mesuré par la Fonix ci-dessus.

En connaissant donc le gain appliqué à chaque tranche de percentiles d’énergie, vous pouvez alors avoir une action sur une zone de compression bien définie:

  • l’expansion et son mystérieux et jamais renseigné point d’enclenchement…
  • la première compression en entrée (premier TK) qui peut être trop haut (vallées échappant à l’amplification) ou trop bas (plus rare) comme l’exemple ci-dessus
  • la seconde compression au TK mal placé (quasiment pas réglable) ou tranche trop comprimée (percentiles 65 à 99 trop comprimés)
  • Un AGCo trop bas et qui lisse tout

Beaucoup de chaînes de mesure vont aujourd’hui vous donner ces renseignements soit sous la forme d’un gain appliqué à chaque niveau (la Fonix ci-dessus), soit sous la forme d’un taux de compression:

Capture

Ce taux varie de zéro et quelques (rarement sous 0.8) si les niveaux bas ne sont pas assez amplifiés (le plus souvent) à plus de 1 (rarement plus de 1.8) si les niveaux de crête ou les niveau moyens (percentiles 65) sont réduits par la compression ou un système de compression en sortie très agressif et très (trop ?) bas.

Il est très hasardeux de comparer ces taux compression de dynamique aux taux de compressions affichés dans les logiciels de réglage, bien qu’il y ait évidemment un rapport. Sachez cependant qu’il ne serait pas franchement normal de trop comprimer la dynamique de la voix moyenne.

On est donc passé en quelques années d’un affichage en « 2D » (gain ou niveaux de sortie moyen/Fréquence) à un « presque 3D » dans le sens où les systèmes de mesure nous donnent une indication sur la façon dont le signal a été traité au cours du temps, dans ses fluctuations.

Une petite gymnastique de lecture et d’interprétation, mais au final, beaucoup plus d’informations à disposition et d’actions possibles sur les réglages.

Une dernière chose: bonne année 2014 à tous !

REMFit Bernafon – Le fait-il bien ?

Written by xavdelerce on . Posted in Affinity, BERNAFON, Chaînes de mesure, Etude de cas, Marques, mesure in vivo, mesure in-vivo, RECD, SPLoGramme, TEN-Test, transposition fréquentielle

RemFit désigne la passerelle entre le logiciel Bernafon Oasis (version 19) et Affinity (version maxi 2.3).

Bernafon et les autres (sauf Starkey et Widex…) récupèrent déjà les données REM type REUR et RECD, mais le concept va plus loin en pilotant directement la mesure in-vivo d’Affinity par le logiciel de réglage. A noter que Siemens fait déjà ça et même Widex, il y a très lontemps pilotait Aurical depuis Compass (et ça marchait !).

Le but: appuyez sur le bouton « Start » et le logiciel vous met l’appareil sur cibles. Magnifique !

Test !!

Le patient test:

image1

Bien sûr, comme tout le monde, quand on teste un nouvel appareil ou une nouvelle fonctionnalité, on prend le pire de nos patients (le pire des audiogrammes). C’est de bonne guerre !

Dans ce cas précis, les appareils choisis sont des Acriva 7 Rite adapté en dômes ouverts. Le TEN-Test est positif dès 3KHz, donc la correction se fera jusqu’à 2KHz et transposition fréquentielle (pardon « Frequency Composition » !) sur l’intervalle de mon choix (voir post sur le sujet plus bas).

Que fait RemFit:

REMFit

Un conseil: faire la calibration anti-larsen avant la MIV, le gain disponible réel étant bien supérieur des fois à l’estimation logicielle.

Il faut d’abord mettre des sondes in-vivo sur le casque REM et les calibrer par le logiciel Oasis:

Calib Sondes

Les sondes sont calibrées comme en MIV « classique »: sonde de mesure devant le micro de référence, le tout face au HP.

La MIV par le logiciel se fait par défaut à 65dB SPL d’entrée, mais on peut ajouter les intensités 50 et 80dB SPL par défaut dans le logiciel ou à la demande:

REAG cible

Le petit côté magique: en fait à Berne, des milliers de marmottes, au moment où vous appuyez sur « Droit », « Gauche » ou « Les deux », prennent le contrôle de votre PC et vont faire les mesures, plusieurs fois s’il le faut, automatiquement, jusqu’à ce que les cibles soient atteintes au mieux !

Ah non, les marmottes qui plient le papier d’alu, c’est un autre truc Suisse…

Bref ! Ca marche effectivement tout seul et vous voyez de façon miraculeuse les appareils se régler seuls en plusieurs étapes automatiques. Pour peu que vous ayez fait votre audiométrie aux inserts, que le logiciel ait récupéré un RECD, et donc que vos cibles soient précises au tympan, tout devrait donc coller au mieux:

REMFit ajustés

Ici, le niveau 80dB n’a pas pu être émis (c’est trop fort, il faudrait plutôt 75dB SPL max.), et il faut le décocher pour ne pas bloquer le test. Le logiciel n’est pas content car il n’est pas « sur cibles » (à 3K et plus), et c’est là que l’on voit la différence entre un cerveau humain (« Mais c’est ce que je voulais ! ») et la machine (« J’ai pas pu taper le 3 et 4KHz dans les cibles. End of message ! »), donc avertissement. Mais nous savons, nous les humains, que c’est mort/désafférenté au-delà de 3KHz, et qu’il n’est pas important d’aller y mettre de l’information ! Rage against the machine !

Et ça marche ?

REAR REMFit

Et oui ! Pile poile ce que je voulais.

Avouons quand même: une MIV avec ISTS et calcul des CR de la dynamique vocale, vous avez plus d’information qu’avec REMFit, non ?

Donc oui, ça marche, mais quitte à mettre une sonde, pourquoi ne pas passer directement sur la chaîne de mesure avec toutes les subtilités et les informations apportées par les signaux vocaux réels.

D’autant plus qu’ici, la transposition était proposée par le logiciel à partir de 2.9KHz, en plein dans la zone inaudible pour le patient, et seule une « vraie MIV » pouvait mettre en évidence qu’il fallait rabaisser son point de départ:

FC REMFit

Pour ce qui est de la mesure in-vivo de l’énergie transposée, voir ce post.

Bravo quand même à Bernafon, beau travail d’interface Oasis/Affinity. Seul regret: les courbes de MIV ne sont pas stockées dans Noah.

Prochain test: Oticon et sa MIV intégrée, qui, elle, permet l’utilisation de signaux vocaux. A suivre…

Ratio de compression in-vivo

Written by xavdelerce on . Posted in Affinity, Chaînes de mesure, La compression, mesure in-vivo

Une difficulté rencontrée lors de la mesure in-vivo est de faire coïncider le ratio de compression affiché par le logiciel de réglage et celui, réel, mesuré in-vivo.

Si vous effectuez une mesure in-vivo avec un signal de balayage, une mesure à 65 puis à 75dB SPL vous donnerons une lecture quasi-immédiate de CR par un calcul simple. Mais il est bien dommage, voire impossible d’effectuer aujourd’hui une MIV avec un tel signal. L’ISTS est pour cela hautement recommandé.

Le problème avec un signal de parole, fluctuant par nature, est qu’il devient très délicat d’associer le CR affiché et l’action (bonne ou mauvaise) de ce taux de compression sur le signal vocal. En effet, si le logiciel dit CR=4.0 entre 65dB SPL et 80dB SPL, malgré l’énormité d’une telle compression, il y a de fortes chances que la « voix moyenne » (65dB SPL) et même la voix forte (75dB SPL) ne soient pas impactées par cette compression. Pourquoi ? car même à niveau « moyen », l’énergie par bande de tiers d’octave d’un signal vocal ne dépasse pas 60dB SPL, y compris en crêtes:

Une telle compression (CR de 4.0 à TK=65dB SPL) n’aurait quasiment aucun effet à voix moyenne et à voix forte. Les points d’enclenchement nécessaires à une action sur un signal de parole sont situés entre 30 et 60dB SPL.

Cette difficulté de relier « CR affichés » et « CR réels » lors de l’utilisation d’un signal vocal avait été exploré dans ce très bon article.

Mais cela n’empêche pas la dégradation de la dynamique vocale par les compressions de bas niveau d’entrée et autres expansions dont on ne sait en général pas où elles agissent… Si l’on considère la dynamique vocale non-déformée, on retrouvera une valeur d’environ 30dB, correspondant au LTASS +12dB et LTASS -18dB:

Tout facteur de compression excessif positionné à un TK de 55dB SPL aurait tendance à dégrader les crêtes du signal, et à l’opposé, tout TK de la première compression, situé trop haut (ex: 40dB SPL) aurait pour conséquence de ne pas amplifier les « vallées » de la parole.

De retour du congrès, j’ai donc découvert la possibilité, en temps réel, d’analyser la facteur de compression sur la dynamique de la parole, le tout in-vivo.

Du percentile 30 (vallées) au percentile 99 (crêtes), la chaîne de mesure Affinity calcule en temps réel le ratio de compression, et dans chaque bande de tiers d’octave vous affiche le CR:

Cette analyse est intéressante pour les niveaux élevés de parole (ex: 75dB SPL) et peut être effectuée, au choix, sur la dynamique perc. 30/perc. 99 ou bien perc. 60/perc. 99:

Le taux de compression utilisé reflète donc le traitement du signal appliqué mais peut prendre des valeurs inhabituelles: par exemple, un CR de 0.85 reflèterait un premier TK trop haut, une mauvaise amplification des informations de faible niveau (percentiles 30). Un ratio de compression de 1.0 indique donc une dynamique vocale préservée (30dB en entrée, 30dB en sortie amplifiée). Il va sans dire que cet affichage est TRES intéressant lorsque l’on utilise des appareils censés utiliser un « gain linéaire flottant ». S’il est vraiment « linéaire » ce « gain flottant », la dynamique vocale ne devra pas être détériorée, donc Affinity devrait afficher un CR de 1.0, ou en tout cas décorrélé du CR « classique » ou « affiché »…

Cette fonctionnalité est présente dans la version 2.3 d’Affinity et peut être réalisée in-vivo (exemple précédent) ou au coupleur (exemple ci dessus). Elle correspond à la norme IEC 60318-5.

Je trouve cette mesure extrêmement utile: au-delà de s’assurer qu’il y a « in-vivo » une amplification suffisante, nous allons pouvoir vérifier qu’il n’y a pas de dégradation de la dynamique du signal et que les algorithmes nous assurant un traitement spécifique pour la parole, le font bien.

Pour les puristes, cette version d’Affinity, par simple clic-droit sur le « label » (niveau) de la courbe dans le bandeau de droite, vous donne accès à l’analyse statistique complète des niveaux d’énergie du signal au cours du temps. Preuve en est que nous avons à disposition de bien beaux joujoux !

On progresse toujours…

Les commentaires récents

fly mobile games

|

Excellent post but I was wondering if you could write a litte more
on this subject? I’d be very grateful if you could elaborate a little bit more.
Thank you!

camping in kiffisia

|

Hi there, just wanted to mention, I enjoyed this post.

It was helpful. Keep on posting!

xavdelerce

|

MAJ

xavdelerce

|

Merci, c’est vrai que ce serait pas mal de traduire ce document. Il faudrait mettre en place un groupe de traduction collaboratif comme ça se fait pour certains journaux type Linux Mag.

Des « volunteers » ?

Instagram @Audioprothese