Catégorie : Affinity

* Vous le savez maintenant, les jeux de mots débiles à la Achille Talon sont ma spécialité… (sinon vous ne lisez pas !)

J’avais évoqué il y a quelques temps la mort de l’écrêtage avec la mort de l’amplification analogique. Pour cause, toute amplification numérique ayant un délai de traitement du signal, même minime, les sons impulsionnels mettaient un certain temps à être pris en compte par le système (alors qu’un écrêtage de « old school » analogique est instantané). Certains patients sont sensibles à cela (« les couverts et les assiettes » !), et lorsque le circuit présente ce genre d’imperfection, l’enclenchement plus bas des compressions, la diminution du MPO ou l’augmentation des CR n’y changeront pas grand chose…

La parade a donc consisté à concevoir des systèmes de « gestion des bruits impulsionnels en entrée », à savoir, ne pas faire entrer dans le système certains bruits. A ce jour, beaucoup de fabricants proposent ce type de système ou cette fonction « réduction des bruits impulsionnels ».

Un exemple très frappant dernièrement a été donné par le Chronos de BERNAFON. Ce système, à l’écoute, est tout bonnement stupéfiant: les bruits d’impact et notamment l’over-shoot (pic lié au temps d’enclenchement du système) sont réellement réduits.

L’efficacité de ce système peut être mesurée par les chaînes de mesure.

Je me suis demandé si cette fonction était:

  1. efficace (tout simplement)
  2. non-destructrice (on verra ça ensuite)

Trois modèles ont été programmés « logiciel » sur une audiométrie à dynamique « pincée » (40dB max.). Il s’agit:

  1. du BERNAFON Chronos 7 CP
  2. du PHONAK Ambra micro P
  3. du WIDEX Clear 3 Fusion (éc. M)

Ces trois modèles sont censés réduire les bruits impulsionnels et cette fonction a été testée sur « off », « moyen » et « max ». La séquence de test consiste en l’émission d’un son à 40dB SPL avec une montée brutale à 100dB SPL, puis relâchement:

 

 

Principe du test

Le graphe ci-dessus illustre le principe du test et une mesure (avec un très vilain AA dont je tairai la marque).

Le but du test est de vérifier si l’over-shoot (le pic à la montée en intensité du signal) est diminué, et quelles sont les conséquences éventuelles (dommages collatéraux) de ce traitement.

Pour BERNAFON:

 


Déjà, le pic (over-shoot) est important lorsque le système est désenclenché (courbe fine du haut). L’activation « moyenne » (proposée par défaut, courbe grasse) le réduit très efficacement de quasiment 20dB mais laisse apparaître un tout petit temps de latence du système pour revenir au gain optimal après enclenchement. L’activation « maxi » ne réduit pas plus l’over-shoot, mais en plus, retarde la remonté en gain sur quasiment 150ms. A déconseiller en « maxi » semble t-il, et déjà très efficace en « moyen », donc.

Pour PHONAK:

 


L’over-shoot est très présent en « off »: le système est vraiment nécessaire. De fait, il s’avère très efficace en « moyen » (courbe grasse) en réduisant de plus de 20dB le pic, pas nettement mieux en « max », mais sans temps de latence de retour.

Pour WIDEX:

 


Là, on a un cas d’école, puisque d’emblée (système en « off »), l’appareil ne présente pas d’over-shoot, donc théoriquement pas besoin de ce traitement de signal. De fait, l’enclenchement du système ne fait pas varier le pic, puisqu’il n’y en a pas. On introduit juste une latence de retour là où il n’y en avait pas. La technique de réduction de bruits impulsionnels en entrée (ne pas les faire entrer dans le système) semble déjà bien marcher.

 

Donc ces systèmes fonctionnent bien (ouf !), voire n’ont pas lieu d’être (la classe !).

Mais attention aux limites: ces systèmes sont très performants. A utiliser en toute connaissance de cause, voire, à brider par les fabricants (les enclenchements « max » semblent n’apporter rien de mieux sur les modèles testés). Le « super -écrêtage », semble, dans certains cas, introduire une latence de retour à l’équilibre, avec des conséquences potentielles sur l’intelligibilité.

Priver le malentendant des informations « extrêmes » de la parole n’est pas sans conséquences sur la perception de la parole: une voix considérée comme « moyenne » véhicule des informations utiles dont l’intensité varie dans une gamme très large de niveaux sonores. Une fois amplifiés, les pics (pour parler d’eux) seront souvent les seules informations vraiment accessibles à un malentendant, et plus encore en situation bruitée.

Imaginons un malentendant dans un restaurant: des voix et des fourchettes dans les assiettes… Les fabricants nous promettent de différencier les bruits d’impacts de la parole. On espère pour les plosives !

Pour tenter d’apporter une réponse à la question première « faut-il écrêter ? », je pense qu’il faut rester prudent avec ces systèmes, qui sont, faut-il le rappeler, ici pour palier aux imperfections des circuits. En cherchant à tout prix à « lisser » le signal, on risque en supprimer les contrastes avec des systèmes poussés à leurs maxima.

Les crêtes d’un signal vocal sont d’ailleurs considérées comme les informations les plus utiles, y compris chez le normo-entendant, voir cet article de Drullman.

Récemment, on m’a montré le « FreeFit » de GN-Otometrics et notamment son mode test « mise en évidence des réducteurs de bruit ».

Sympa… Juste une remarque quand même: cette démo était faite avec un bruit rose. Un peu facile… (pour les appareils).

Bref, la piste stéréo gauche du CD de vocale du Collège contient un bien joli bruit de cocktail qui s’est retrouvé dans ma machine sous la forme d’un fichier .wav « cocktail ». Un test mesurant le gain avec un signal de parole (ISTS) puis le bruit (cocktail) a été créé. Les deux sont envoyés à 70dB SPL pendant 35sec chacun, d’abord l’ISTS, puis le cocktail.

Le but est de visualiser la différence (éventuelle) de gain d’insertion.

Eventuelle ? Oui, car des fois (souvent…) il n’y a pas de différence entre le GI « à la voix » et le GI « au bruit ». Je me résigne en me disant que les micros directionnels font moultes prouesses que je ne peux pas mesurer… L’espoir fait vivre…

Mais dans le cas de cet appareil, ça vaut le détour:

La courbe violette correspond au gain avec le « bruit de cocktail » à 70dB SPL, la bleue au gain mesuré avec ISTS au même niveau d’entrée. Presque 10dB de plus avec signal de bruit pour certaines fréquences…

Magnifique: le premier (sûr ?) appareil auditif qui amplifie plus le bruit que la parole !

Vous allez me dire « C’est un appareil à un canal et demi ! ». Non, c’est un appareil à 16 canaux, microphones « intelligents » (vachement…), sélecteur automatique de programmes, réducteur de bruit (!!), etc.

On est bien en présence du premier « réducteur de parole » sur le marché, encore un appareil à collectionner pour Brice 😉

Je crois qu’il va falloir faire des tests type « auto-journal » régulièrement pour un peu casser le marketing ambiant un jour…

Vous voulez le modèle ?

Dès l’apparition du logiciel PHONAK TARGET, une fonctionnalité alléchante a été mise en avant: la mesure RECD par le test de larsen.

Idée très intéressante sur le papier: mettons qu’un appareil ait été étalonné sur un coupleur de 1,26cc par exemple en usine, la « mesure RECD par calibration anti-larsen » permettrait de connaître la différence entre le niveau atteint dans le conduit (mesuré par le micro lors de la calibration du larsen) et la valeur de référence usine. Une sorte de RECD (différence oreille/coupleur), donc.

Bon, alors on y va:

Voici le sujet test, monsieur présentant une agénésie multi-reconstruite (6 fois) avec tympano-plastie. Le tympan est resté perforé.

Son audiogramme:

L’inconfort à 4 et 6K fait littéralement « mal »… Et ce patient qui a souffert déjà pas mal psychologiquement refuse l’ancrage osseux. Il a déjà été appareillé il y a quelques années. Pas d’audition à droite.

Voilà la « photo » de son conduit:

Ce scan montre le rétrécissement vers le haut du conduit auditif dans la partie osseuse. Scan réalisé pour la fabrication d’un écouteur déporté.

Mais l’adaptation a débuté avec un embout classique (tubé 1.4mm) avant de passer à l’écouteur déporté. Et justement, le RECD avait été mesuré sur cet embout, après une audiométrie avec insert sur ce même embout.

Voici la fameuse mesure RECD:

L’étanchéité est quasi-totale (ce qui s’est avéré être un tort…) malgré un évent (qui a bien du mal à déboucher dans ce tout petit conduit). La déflation vers 1900Hz est typique d’une perforation tympanique. Le volume résiduel du conduit est très faible: on atteint 20 à 30dB de RECD de 4 à 6KHz (20 à 30dB plus fort dans l’oreille que dans le coupleur).

Que dit TARGET avec mesure sur ce même embout:

 

Là on est en droit de se demander si je n’ai pas trafiqué l’article. Mais non: même patient, même embout, même jour.

Certes, les transducteurs  de mesure sont différents (écouteur insert EAR et écouteur de l’AA), ce qui peut avoir une influence acoustique.

Mais les caractéristiques propres à ce patient, à savoir:

  • RECD négatif (perfo. tympanique)
  • RECD élevé de 3 à 6KHz

n’ont pas été mesurées.

Comment aurait-il pu en être autrement ? Comment faire, en quelque sorte, de la mesure in-vivo sans sonde ?

En conclusion: OK pour les performances, OK pour l’anti-larsen, peut-être OK pour l’estimation de l’effet d’évent, pas du tout OK pour la mesure (ou l’estimation) du RECD sans y mettre une sonde. C’est comme ça: pas (encore) de raisin sans vin, pas (encore) de mesure au tympan sans sonde !

Encore un empêcheur de « marketter » en rond…

PS: merci à Mylène pour son aide dans les mesures.

Ca porte en général un doux nom du type « Sound Recover » (SR) ou « Audibility Extender » (AE). Le terme générique souvent utilisé est « frequency shifting » ou « frequency lowering » (décalage ou rabaissement fréquentiel).
On peut considérer que ces techniques ont franchement changé la vie des utilisateurs de ces systèmes, même si on peut discuter de l’apport d’intelligibilité (la masse d’articles sur le sujet est assez impressionnante).

Le principe de ces système, la zone 3, non audible pour causes multiples va être ramenée dans la zone 2 (AE) ou en lisière audible de la zone 2 (SR):

Un zone fréquentielle non audible (3) va être "décalée" vers une zone audible

Mais… (sinon il n’y aurait pas d’article !), comment « objectiver » (pas joli ce mot) ces systèmes ? Où démarrer ? Où s’arrêter ? Que transposer/compresser ? Et surtout: comment observer l’effet produit sur la parole amplifiée ?
A titre personnel, j’ai assez vite pu mettre en évidence la transposition fréquentielle (AE) par le Visible Speech, sur une voix « live ». Le plus frappant est de prononcer un /s/, en général bien ciblé vers 5/6KHz et de le voir se décaler vers 3KHz. C’est frappant, mais un peu « appuyé » comme démonstration…
Quant à la compression fréquentielle (SR), je faisais confiance… bref je séchais !
Alors Zorro est arrivé ! Zorro ce n’est pas moi, c’est un constructeur de chaînes de mesure: Audioscan. Non distribué en France, ce constructeur a mis au point un signal (trois signaux pour être exact) de mesure (signaux vocaux) afin de tester les appareils à décalages fréquentiels. Ca fait déjà quelques mois de ça quand même, mais les nouvelles d’Amérique me sont amenées par les mouettes qui font la traversée, désolé…
Donc je reprends: la manip. consiste à créer un signal vocal dont les médiums sont « amputés » et dont seule une bande dans les aiguës est laissée, 4000 ou 5000 ou 6300Hz:

Le « creux » dans les médiums sert en fait à mettre en évidence le rabaissement fréquentiel induit par l’appareil (transposition ou compression); c’est à dire que la zone « enlevée » permettra de ne pas « polluer » la visualisation (mesure in-vivo) du glissement fréquentiel. Le but étant de tester d’abord sans le système de décalage fréquentiel, puis avec.

Le choix de signal 4KHz, 5KHz ou 6.3KHz se fait (à mon avis) surtout pour les systèmes à transposition, en fonction de la fréquence de démarrage. Pour les systèmes à compression fréquentielle, le signal filtré 4 ou 5KHz semble suffire (encore mon avis).

Et ces signaux ? Comme souvent Audacity est l’ami des audios, l’ISTS est passé à la casserolle:

Donc trois fichiers wave distincts selon le filtre passe-bande souhaité, intégrés dans la chaîne de mesure.

Intégrés à la chaîne de mesure, ça donne un test « test REM décalages fréquentiels » que vous pouvez télécharger pour Affinity (2.0.4 sp2). Voyons voir si ça marche… va t-on enfin visualiser tout le travail de ces systèmes ? Est-ce que ça marche ? Quelques surprises…

  • La transposition fréquentielle:

Le principe est connu, rétrograder d’une octave une bande fréquentielle:

Principe de la transposition fréquentielle

Là, je dirais que l’effet est tellement ENOOOORME qu’il a toujours été facile de le mettre en évidence in-vivo. Il suffisait de produire un son situé dans la zone transposée et de le chercher une octave plus basse.

Par exemple sur ce patient:

NS in-vivo sans transposition

La perception est nulle pour la zone 6KHz (le /s/ par exemple). Si on active un programme de transposition de la zone:

Proposition logicielle de transposition

En utilisant l’ISTS filtré sur 6.3KHz, on obtient:

Transposition du 6KHz

On voit bien que la zone 3KHz est plus élevée que sans la transposition (à comparer avec la courbe verte de la mesure REM précédente). Est-ce que ce réglage sera toléré sans problème, c’est encore une autre histoire… mais la visualisation est possible, le système est objectivable (ah ! ce mot !). Par contre, la zone transposée « s’ajoute » en intensité à la zone « saine », d’où la nécessité parfois soit de minimiser l’AE (c’est réglable), soit de diminuer le gain de la zone à transposer dans le programme sans transposition.

L’avantage d’un signal vocal filtré, je le redis, est de mieux visualiser la zone transposée puisqu’elle se retrouve seule dans les médiums/aigus.

  • La compression fréquentielle:

Alors là, il y a du boulot. A titre personnel, je n’avais jamais réussi à visualiser l’effet de ce système en action. Ca restait « noyé » dans les fréquences contiguës en mesure in-vivo jusqu’à maintenant.

Allez zou:

Voici l’audiogramme du gentil « cobaye ».

Et voici le réglage logiciel proposé:

Réglage défaut du Sound Recover
Réglage défaut du SoundRecover

Il est donc proposé de démarrer la compression fréquentielle à 4.8KHz. Si je ne doute pas que certains sons soient perçus dans cette zone, j’ai nettement plus de doutes pour les indices vocaux, et effectivement, mesure in-vivo à la voix (ISTS):

NS in-vivo voix moyenne

Aucune information ne passe au-delà de 4KHz: le choix d’une fréquence « receveuse » à 4.8KHz n’est pas judicieux si on veut faire passer des informations vocales dan cette zone.

Donc première chose: si on se sert de la compression fréquentielle pour améliorer la perception vocale des zones fréquentielles aiguës, il est quasiment indispensable de réaliser une mesure in-vivo de niveau de sortie (REAR avec ISTS par exemple) afin de bien déterminer à quel endroit exact on enclenche le système. Dans le cas ci dessus, la zone 3K/3.5Khz semble appropriée si on ne veut pas plus augmenter le gain à 4KHz (zones mortes par exemple…). Le principe de la compression fréquentielle étant de démarrer en « lisière » de la bande passante audible, autant bien calculer sa zone de réception, la fameuse « cut-off frequency » de l’illustration suivante:

Le principe de la compression fréquentielle

Et après essais à 3.9 puis 3.3KHz pour le patient suivant, on obtient:

REAR ISTS filtré 4KHz sans et avec SoundRecover démarré à 3.3KHz

J’explique la mesure: la courbe fine orange est le signal filtré 4KHz sans activation du SoundRecover, la courbe grasse après activation. On constate une élévation du niveau de sortie (légère, environ 5 dB) vers 3.5KHz provoquée par le rabaissement fréquenciel de la zone 4KHz et plus.

Donc léger « glissement » en fréquence et augmentation de niveau.

  • Discussion:

A l’usage, on peut tous le constater, la transposition est très efficace, « visible » et audible et permet à certains patients de retrouver des sons totalement oubliés et inaccessibles autrement. De là à dire que la transposition est un système plus dédié aux « zones mortes » ou pentes audiométriques importantes, il n’y a qu’un pas… que je ne franchis pas ! Toujours est-il que la transposition demandera un temps d’apprentissage.

La compression, elle, est plus discrète, moins surprenante pour les patients que la transposition. En essayant de tester in-vivo par le moyen de signaux filtrés, on s’aperçoit qu’elle est peut-être moins « visible » que la transposition pour les pentes fortes, donc peut-être moins adaptée. Mais à l’inverse, elle permet d’enrichir les informations vocales dans des zones en général inaccessibles (4K et au-delà), sans choquer. L’usage d’un tel système sur une surdité plate et moyenne est très facile à mettre en évidence avec ces signaux (voir l’article de Phonak suivant).

Donc transpo ? compression fréquentielle ? Vous avez des éléments de réponse. A vos tests !

  • A propos du test:

Vous trouverez en téléchargement un test prédéfini pour Affinity 2.0.4 sp2, il suffit de placer les signaux filtré, téléchargeables ici dans un dossier quelconque et de paramétrer le test pour aller les chercher.

Pour les autres chaînes de mesure récentes (Unity 2 ou FreeFit), je pense qu’il est possible aussi d’intégrer ces signaux wave.

Bibliographie:

Présentation du test mis au point par Audioscan (c’est vers la fin).

Le test Affinity à importer.

Les signaux à télécharger.

Un article de PHONAK sur les tests in-vivo d’efficacité du SoundRecover, très impressionant pour les surdités « plates »… ça marche !

Une « contre-étude » d’un fabricant (!!!) sur les systèmes de rabaissement fréquentiels. Censuré ! (non, je blague, je ne le retrouve plus !).

Un article du Kuk qui met au point un test vocal tentant de mettre en évidence les effets de ces systèmes de décalages fréquentiels: le test ORCA.

Du même auteur, un article sur les tests des systèmes de rabaissement fréquentiel.

Merci à Jean-Baptiste BARON pour les manips.

Pré-requis:

  1. vous êtes l’heureux (ou pas !) possesseur d’un Affinity
  2. paramétrer l’engin vous fait peur mais vous aimeriez l’exploiter au mieux
  3. vous avez du temps à y consacrer (mais du temps à gagner au final…)
  4. vous adorez qu’on vous parle anglais (ne partez pas !!! 😉 )
  5. et enfin, vous n’avez pas… RTFM !

Affinity est un merveilleux joujou mais encore faut-il bien paramétrer ses tests d’usage quotidien, car ceux proposés par défaut sont trop anglo-saxons (à mon goût) et par forcément adaptés à votre pratique quotidienne.

Mais seulement, autant vous pourrez demander à cette machine de faire tout ce que vous voulez, et comme vous voulez, autant créer ses propres tests et les impressions qui vont avec peut s’avérer délicat. Et je ne parle pas de la maîtrise de l’engin et de l’interprétation des données… on ne dompte pas une bête de course du jour au lendemain !

Interacoustics a dû avoir des échos sur ces points car il propose sur son site des vidéos d’entrainement sur des aspects très variés de la machine:

Tout celà est tiré de la section « Resources » d’Interacoustics, allez y faire un tour de temps en temps, de nombreux articles intéressants sur de nombreux sujets audiologiques s’y trouvent.

Le SPLoGram est la transformation en décibels SPL d’une audiométrie réalisée en dB HL, dans le but d’une utilisation pour la mesure des niveaux de sortie avec appareils auditifs. Ca c’est le côté « logiciel », effectué par les fabricants pour convertir nos audiométries HL.

Le SPLoGramme est censé représenter l’énergie sonore au tympan, en dB SPL, déclenchant une sensation auditive (seuil, inconfort, etc…)
Contrairement à l’Aurical qui propose la mesure par ME-intra donnant un résultat direct en dB SPL (par REDD), Affinity, comme la plupart des chaînes de mesure, propose des mesures audiométriques à l’insert EAR 3/5A, en dB HL.
Mais pour passer en dB SPL, il ne suffit pas d’utiliser les tableaux de conversion HL–>SPL, car le SPLoGram « idéal » est une représentation graphique des seuils en dB SPL dans le conduit auditif de votre patient, avec les phénomènes acoustiques propres à son volume, car les conduits auditifs font rarement 2cc (volume du coupleur servant à étalonner les inserts).
Deux solutions existent en fait pour effectuer cette conversion:
Le REDD (Real Ear Direct Dial) qui consiste à pratiquer une audiométrie en mesurant simultanément le niveau en dB SPL atteint au fond du conduit par une sonde in-vivo lorsque le patient répond. Cette technique est peut-être plus délicate au casque, mais elle est en revanche simplissime avec inserts sur Aurical (voir post sur ce blog « l’audiométrie en dB SPL sur Aurical »).
Le RECD (Real Ear to Coupleur Difference), utilisé ici: différence entre un signal mesuré au fond du conduit et au coupleur.
Sur Affinity, vous avez deux façons de mesurer le RECD: par l’embout ou par « tétine » en silicone de type tympanométrique reliée à un porte-sondes appelé « SPL60 ». L’avantage de ce dernier matériel est que vous n’avez pas à placer la sonde (elle est intégrée dans le matériel), l’inconvénient est de ne pas utiliser l’embout… à vous de voir. Si on utilise ce porte-sondes SPL60, il faudra alors utiliser un coupleur particulier SPL60 pour l’étape coupleur.
Vous sélectionnez une audiométrie réalisée aux inserts EAR 5A et vous passez dans l’onglet REM: la mesure RECD vous demandera ensuite si vous souhaitez réaliser la mesure par l’embout, par le SPL60 ou bien utiliser des valeurs RECD « standards ». Vous voudrez peut-être aussi transposer une mesure faite sur une oreille à l’autre oreille (dans le cas où ça bouge en cabine…).

Donc vous avez réalisé un RECD d’une session précédente et vous voulez l’intégrer à votre session de REM actuelle pour avoir des courbes personnalisées en dB SPL au tympan (SPLoGramme), il suffit de faire un clic droit sur le RECD du patient et de sélectionner « transfert sur actuel »:

 

Le SPLoGramme statistique (issus d’un RECD moyen) sera recalculé en fonction du RECD de votre patient:


Une fois la mesure RECD réalisée, les mesures REAR (Real Ear Aided Response) seront proposées soit en mesure in-vivo classique, soit au coupleur pondéré par le RECD. Le SPLoGramme lu est donc bien le rsultat du seuil en dB HL + RETSPL 2cc (pour passer du HL au SPL coupleur) + RECD mesuré: vous avez un SPLoGramme individualisé, et non plus estimé.

Attention toutefois à passer en mode « oreille » plutôt que « coupleur » si vous voulez faire une MIV sur le patient plutôt que simulée au coupleur (S-REM):


C’est maintenant aussi facile qu’avec Aurical…
C’était peu clair: ils vous le diront mieux que moi…

XAVIER DELERCE

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel