Catégorie : Affinity

… suite de la première partie.

En reprenant l’exemple suivant :

Capture

 

Environ 30dB SPL de bruit de fond (EINLevel) à 3KHz peuvent-ils être considérés comme gênants pour ce patient ?

On peut penser (mais je n’en ai pas la confirmation) que lorsqu’un fabricant met un modèle sur le marché, de surcroît s’il est censé pouvoir s’adapter sur des surdités légères à moyennes, il connait les limites de BDF acceptables issues de la littérature. Enfin, on espère…

Une solution radicale pour se garantir de toute perception de BDF serait de placer le 1er TK en entrée assez haut, mais pas trop quand même car il y aurait un risque de sous-amplifier les zones failles de la parole; disons 30/35dB SPL. C’est étrange, en explorant les courbes entrée/sortie (si par chance vous les avez), c’est justement la limite très commune d’expansion !

Un seul fabricant, depuis fort longtemps s’est quand même aventuré à passer sous cette barre : Widex, depuis le premier Senso. Mais quand vous voulez amplifier des niveaux très bas (5 à 30dB SPL) pour éventuellement les faire émerger au-dessus du seuil, il va falloir énormément de gain (si le larsen vous le permet). Et donc vous pouvez amener par la même occasion le bruit de fond en même temps que l’information dans la zone audible. Je crois me souvenir que tout avait été pensé chez ce fabricant pour maintenir le niveau du BDF toujours sous le meilleur seuil, notamment par la mesure du « sensogramme » qui était (est toujours) quasi obligatoire, comme celle du larsen. Très rapidement, l’effet d’évent (et pas uniquement son seul diamètre) a été également mesuré afin d’estimer la limite basse de TK sans larsen et/ou sans risque de BDF perceptible dans les BF.

Bref, pour passer sous la barre des 30dB SPL en entrée sans craindre une perception de BDF avec une méthodologie d’amplification non-linéaire, il vaut mieux avoir confiance en sa technologie…

Macrae et Dillon ont établi des niveaux de BDF acceptables en fonction du gain apporté (donc en fonction du seuil d’audition) à diverses fréquences, et mesuré dans un coupleur HA1 (intra). Pour donner quelques exemples (mais vous pouvez les retrouver sur l’article téléchargeable de la première partie) :

@1KHz, de 0 à 50dB de gain : env. 17,5dB SPL

@250Hz, de 0 à 45dB de gain : env. 37dB SPL

@2KHz, de 0 à 60dB de gain : env. 13dB SPL

Attention : il s’agit de bruit de fond à l’entrée, comme vu dans la première partie. On constate une gêne survenant plus rapidement après 1KHz. Etrangement, la « tolérance » au BDF semblerait importante dans les BF, mais ces zones fréquentielles sont souvent masquées (et le BDF avec) par le bruit ambiant, la « rumeur ». Et d’autant plus  l’appareillage présente un évent : le bruit ambiant entrant par l’évent minimise la perception du BDF de l’appareil.

Je vous passe les calculs éprouvants des auteurs, mais je reprendrais le résumé de leur méthode de calcul du EIN acceptable en fonction de la surdité : considérant un seuil à une fréquence donnée, ce seuil doit être corrigé avec NAL (et oui, c’est Dillon quand même !). Attention, ici, c’est NAL « old school » = formule linéaire d’avant NAL-NL1, c’est à dire NAL-R.

On a :

 EINL = Max( HTL + MAP – CG – Corr – 15,EINL0 )   (1)

Et là, oui, c’est beaucoup plus clair n’est-ce pas ?

En fait, NAL ne fournissant pas de cibles de niveaux de sortie en dB SPL au tympan (REAR), contrairement à DSL, Macrae et Dillon on converti la perte auditive (HTL), en niveau au tympan. Ils ont donc pour ceci ajouté au seuil HTL, le MAP (qui est le niveau d’audition minimal mesuré en dB SPL au niveau du tympan), ce qui a converti en quelque sorte le seuil HTL en seuil SPL au tympan. Mais comme la valeur du gain (CG) est donnée dans le coupleur d’intra (le HA1), ils ont ajouté une correction (Corr) pour passer du coupleur au tympan. Pour les puristes, cette valeur de correction provient de diverses tables de conversion toujours utilisées et très souvent citées dans la littérature : les valeurs de conversions (ou fonction de transfert) de Bentler & Pavlovic, et leur pendant en champ diffus. Aride… mais sachez quand même que ces valeurs se cachent encore dans tous nos logiciels de réglages et jusque dans nos chaînes de mesure (tables 1 & 2). Et enfin, la soustraction de l’EIN tolérable (EINL0) donnant 0dB SL (Sensation Level).

Vous retrouverez dans l’article (Table 6.) les valeurs de l’EIN max. acceptable, en fonction du seuil d’audition pour chaque bande de 1/3 d’octave.

Ce qui est intéressant, c’est de pouvoir saisir ces valeurs dans votre chaîne de mesure, comme ici pour un seuil de 0dB HL (ligne pleine) et un seuil, par exemple, de 50dB HL (carrés) :

Limites EIN

Par contre, il faut relativiser cette mesure, par l’apport de bruit de fond extérieur : performance du caisson de mesures (isolation) et BDF des transducteurs de mesure (microphones de mesure et de référence). Par exemple dans un caisson très performant, Bruël&Kjaer/Interacoustics TBS25 avec la config suivante:

20150306_173214

On obtient, au plus bas, cet EIN:

EIN TBS25 micros

Pour conclure, j’ouvrirais le débat sur les valeurs de Macrae et Dillon qui ont été obtenues à l’époque sur la base d’une formule linéaire (NAL-R). Il serait très intéressant d’avoir des valeurs aujourd’hui avec des formules de correction non-linéaires (NAL-NL et DSL) puisque les sons faibles sont nettement plus amplifiés qu’avec NAL-R, et que l’EIN risque donc potentiellement d’augmenter car le facteur CG de l’équation (1) augmente.

Avis aux étudiants de D.E. ou M1/2 en recherche de mémoire…

Les appareillages de surdités légères se multiplient ces dernières années (enfin, je trouve). Dans le même temps, je pense que nous ne sommes pas loin d’adapter quasiment 100% des aides auditives BTE/RIC/RITE avec deux micros, qu’ils soient utilisés dans leurs modes directionnels ou non.

La conjonction de ces deux faits augmente potentiellement le risque de perception de bruit de fond, notamment par un risque accru d’encrassement ou de panne du micro arrière, souvent plus exposé que le micro avant. Le circuit lui-même également génère un bruit de fond lors de son fonctionnement.

S’il est un sujet qui n’est pratiquement plus abordé par les fabricants, c’est bien celui du bruit de fond. On trouve en effet rarement ces données dans les fiches techniques aujourd’hui, alors qu’elles y figuraient encore systématiquement il y a… finalement longtemps ! (longtemps = + de 10ans en audiologie prothétique…). Et pourtant, l’importante amplification des circuits WDRC, voire FDRC actuels est susceptible d’amener ce bruit « brownien » électronique à un niveau perceptible, voire gênant.

Peut-on avoir une base quantitative fiable pour savoir si un bruit de fond se situe dans une limite tolérable ? Encore mieux : en fonction du seuil à chaque fréquence, comment déterminer si un bruit de fond risque d’être perceptible ?

Il est en effet difficile de savoir si 35dB SPL de bruit de fond est un niveau tolérable par un patient. Et même pour un audioprothésiste qui écoute (« L’Art perdu de l’écoute des aides auditives », repris de A. Rosette 😉 ), ou qui mesure ce BDF, où fixer la limite acceptable de qualité des composants électroniques à partir de cette mesure (ou de cette écoute) ?

Une mesure de BDF la plus utilisée en audioprothèse est la mesure du Bruit Equivalent en Entrée, ou en bon anglais « Equivalent Input Noise » ou EIN. La définition de ce terme m’a toujours parue « perchée », mais à la réflexion, elle est robuste (donc c’est moi qui ne suis pas assez perché) :

EIN = Bruit Equivalent  à l’Entrée :

  1. On suppose (c’est fictif) une aide auditive qui ne présenterait aucun BDF, avec un réglage équivalent (gain/fréquence) à celle (réelle) que l’on veut tester
  2. EIN = quantité de bruit qu’il faudrait envoyer à l’entrée de l’aide auditive fictive sans bruit pour avoir le même niveau de sortie (qui comprend l’amplification ET le bruit de fond mélangés) que l’aide auditive testée

Bref, trêve de bavardages, une bonne formule « et pi c’est tout ! » :

BDF dans le silence – Gain max. = EIN

Pourquoi faire intervenir une « aide fictive silencieuse » et donc exprimer le bruit « à l’entrée » plutôt qu’à « la sortie » ? Macrae & Dillon (2001) voient plusieurs intérêts à cela :

  • dans la plupart des aides auditives de bonne qualité de conception (pas les trucs faits en Chine et vendus en pharmacies), le BDF vient en majorité des micros, et le reste, du circuit
  • le BDF s’il était exprimé à la sortie, varierait en fonction de la position du potentiomètre (s’il y en a un); ce n’est pas la cas quand le BDF est exprimé en entrée
  • si le bruit était exprimé en sortie, les aides auditives à faible gain auraient toujours moins de BDF que les aides auditives à gain important

Ce qui veut dire :

  • que tester le BDF en entrée pour des appareils avec un potentiomètre (ou un réglage de gain) permet de s’affranchir du problème de l’augmentation de BDF avec l’augmentation du gain : en effet, si le BDF était testé en sortie, plus le gain serait élevé, plus le BDF le serait aussi. Le fait de retrancher le gain du BDF dans le silence permet de décorréler le BDF du niveau de l’amplification.
  • de même pour les appareils très puissants : s’ils étaient testés en sortie, leur amplification très importante (y compris dans un caisson de mesure très silencieux, mais jamais totalement silencieux) ferait croire à un bruit de fond très important. Le fait de le mesurer en entrée (donc de déduire le gain max.) permet de pouvoir comparer le BDF en entrée d’un « petit » appareil open et d’un surpuissant.

Donc en quelque sorte, la mesure de l’EIN « relativise » le bruit de fond par la soustraction du gain…

Pour calculer l’EIN, la chaîne de mesure va faire deux mesures successives dans chaque bande de tiers d’octave :

  1.  première passe : mesure du gain, en général à bas niveau d’entrée (40/50dB SPL par exemple) pour chaque bande de 1/3 d’octave
  2. deuxième passe : mesure du BDF dans chaque bande de 1/3 d’octave. Donc là, c’est le silence (relatif) dans le caisson, d’où l’intérêt d’avoir un bon caisson de mesures

Et donc ensuite, 2 – 1 = EIN. C’est la courbe bleue que vous voyez sur cette mesure :

Capture

Bon, maintenant que l’on a cette mesure d’un bruit de fond équivalent en entrée, qui est ici comprise entre 20 et 35dB, qu’en faire ? Bien ou pas bien dans ce cas ? Audible par le patient ou inaudible ? Mieux : potentiellement gênant ou non ?

La suite au prochain épisode….

~Entracte~

~Chocolats glacés, Eskimos, cacahuètes, Treets, …~

Un peu pour information, un peu pour une question, voici le résultat de mesures audiométriques (tonale/vocale) et acoustiques sur un patient présentant une cavité d’évidement et des cryptes à droite.

Séquelles de coups dans l’enfance… OD et OG opérées à de multiples reprises (7 fois en tout).

L’audiométrie tonale (merci les inserts: pas de masking nécessaire même sur ces seuils, en tonale):

CA

La nature étant bien faite, ce patient réussit quand même (OG masquée) à obtenir ce score en listes cochléaires de LAFON:

Voc

Les mesures acoustiques des CAE mettent en évidence des valeurs totalement atypiques à droite, liées à l’évidement (longueur et volume hors norme).

La mesure oreille nue (REUG):

REUG

On a à droite un pic à 1600Hz, ce qui donne une approximation de longueur de conduit de (340000/1600)/4 = 53,1mm !!!

5 cm de conduit, ou plutôt de cavité(s)…

La mesure RECD:

RECD

Le coupleur fait 2cc. Un RECD HA1 « standard » (courbe bleue en pointillés) est à environ 12dB à 4KHz, ce qui fait une différence de volume de facteur 4 entre le coupleur et le conduit auditif bouché par la mousse (volume conduit 4 fois plus petit que le volume coupleur, soit 0,5/0,6cc, valeurs admises chez l’adulte).

Ici à droite, le RECD est d’environ -6dB, voire moins encore, ce qui signifie que le volume résiduel (résiduel, façon de parler !) du « conduit » ou de ce qu’il en reste est 2 fois plus important que le volume coupleur, donc entre 4 et 5cc, dû aux 3 cryptes que j’ai pu y voir.

Il est évident que si un appareillage était nécessaire à droite (ce que je ne ferai pas), toute approximation statistique logicielle serait totalement à la rue.

Je conclurai par une question simple : en sachant qu’il n’est pas recommandé de fermer l’oreille gauche, toujours plus ou moins humide et que ce patient a perdu depuis bien longtemps la localisation spatiale, appareilleriez-vous cette oreille gauche, de 2K à 3KHz, et qui présente 90% d’intelligibilité à 40dB HL ?

That is the question…

La mesure in vivo est souvent vue comme une mesure du spectre à long terme d’un signal après son amplification par l’appareil auditif. Donc une mesure spectrale.

Les cibles de gain ou de niveau de sortie nous donnent des indications afin, dans chaque bande de tiers d’octave, de fournir tel ou tel gain ou niveau de sortie.

Mais si un bruit blanc ou rose est constant dans le temps (que son spectre soit mesuré sur 1 ou 30″, il est le même), cela fait bien longtemps que l’on ne teste plus les appareils avec ce genre de signal. Aujourd’hui, le signal de test le plus utilisé est l’ISTS, au caisson ou in vivo. Ce signal est un signal de parole, très fluctuant dans le temps et dont le spectre dans les premières secondes n’est pas forcément représentatif du spectre à long terme (sur 1 minute par exemple) :

istsLorsque l’on regarde ce signal, plusieurs interrogations :

  • Combien de temps mesurer ? la minute complète du signal ou 5 secondes ?
  • Comment avoir une idée de la répartition de l’énergie dans le temps ? (en clair, est-il possible d’avoir une représentation temporelle et non spectrale du signal)
  • Doit-on faire la mesure sur la moyenne des derniers événements acoustiques qui se sont passés dans la seconde ? Des 5 dernières secondes ? Plus ?

 

  • La mesure du spectre à « long » terme :

En mesure in-vivo du niveau de sortie appareillé (REAR) la cible (DSL ou NAL) correspond au spectre moyenné sur le long terme. Mais « long terme » combien ? Si vous mettez « 1 seconde », le spectre va changer en permanence en fonction de la composition fréquentielle au cours du temps, et si vous mettez « 30 secondes » votre courbe sera certes être très stable, mais après un changement de réglage pendant la mesure, il vous faudra 30 secondes pour en voir l’effet…

L’astuce consiste alors à effectuer une moyenne glissante : la mesure se fait en continu (case « Mesure continue » cochée), mais, par exemple ici, seuls les événements des 8 dernières secondes comptent dans la moyenne (« Temps de mesure 8s. » + « Mesure continue » = temps d’intégration (moyenne) glissant(e) sur 8 secondes) :

RéglagesREAR65

  • Combien de temps mesurer :

Là, ce n’est pas paramétrable, ou alors il faut définir le paramètre « Temps de mesure » et décocher « Mesure continue » : la mesure s’arrêtera quand le temps sera atteint. Dans ce cas, le spectre à long terme serait intégré sur 8 secondes puis la mesure s’arrêterait.

Une autre solution consiste à laisser le signal tourner en boucle avec « Mesure continue », et à arrêter ni trop tôt ni trop… quoi ? J’en avais déjà parlé : il est important de laisser la mesure en niveau de sortie appareillé (REAR) se faire au moins 18 secondes, et laisser passer le phonème /ch/ présent dans l’ISTS et qui fait littéralement exploser le niveau de sortie à 2/4KHz avec certains appareils dont le premier TK dans la zone 2/4kHz est un peu trop haut; il est présent vers 12/15 secondes.

En conséquence, une mesure sur 15 à 20 secondes semble bien et permet de modifier un ou deux réglages et d’avoir le temps d’en visualiser l’effet (8 secondes après dans l’illustration ci-dessus). Le temps de mesure se fait au jugé par l’audioprothésiste, et en général, on peut se fixer un repère d’arrêt, par exemple vers ce qui ressemble à « poderos » dans l’ISTS (env. 18 secondes).

AN: bien sûr, en mesure de gain d’insertion, le temps n’est pas aussi important puisqu’en général le REIG est le même au cours du temps (à 1 ou 2dB près). Les premières secondes de la mesure donnent la « bonne » mesure. Compter donc 5 à 10 secondes de mesure en REIG pour laisser à l’appareil le temps de se stabiliser.

  • Analyse temporelle « de base » = min/max :

Jusqu’à maintenant c’est du spectral (niveau/fréquence), mais la chaîne de mesure peut analyser, dans le temps et dans chaque tiers d’octave, les événements les plus forts (les crêtes du signal, niveaux dépassés seulement 1% du temps) et de plus faibles intensités (les vallées du signal, niveaux dépassés 70% du temps).

Case à cocher: « Afficher min. -max », sans cocher aucune des autres cases (très important). Vous obtiendrez alors la dynamique du signal de parole (à environ +12/-18dB du spectre à long terme). Cette dynamique n’est pas calculée avec la même moyenne que « Temps de mesure » (ici les 8 dernières secondes du signal mesuré en sortie), mais elle a sa propre constante de mesure, qui est d’environ 5 secondes. Donc vous pouvez avoir une constante de mesure pour le spectre à long terme, alors que les événements « min/max » (vallées/crêtes) ont leur propre constante de temps de 4,6 secondes. Pourquoi 4,6 secondes ? parce que la fenêtre temporelle d’analyse est de 23ms, mais que le câble USB ne pouvant pas transporter autant d’informations, deux blocs d’analyse de 23ms sont moyennés, ce qui donne une fenêtre globale de 46ms (information reprise brute d’Interacoustics). Et comme il faut faire au minimum 100 mesures pour faire une analyse percentile a minima, on a donc 100*46ms= environ 4,6 secondes, temps minimal d’intégration.

Cet affichage vous donne la dynamique du signal avec une résolution fréquentielle de 43Hz.

  • Analyse temporelle « renforcée » :

Au lieu de cocher « Afficher min. _max », qui correspond à des valeurs « percentile 30<–>percentile 99 », vous souhaitez définir vous même l’analyse percentile du signal. Vous allez donc cocher et définir les zones qui vous intéressent dans « Analyse percentile ». En passant, si vous cochez 30% et 99%, ça revient au même que «  »Afficher min. _max »…

Donc à réserver à ceux d’entre nous qui veulent plus… pointu, genre analyse du 39ème percentile !

Cette analyse se fait sur les mêmes constantes que « min/max. »= 4,6 secondes, quelle que soit la constante de temps utilisée pour l’intégration du LTASS, et pour les mêmes raisons citées précédemment.

 

  • Analyse percentile « idéale » (normalisée IEC 60118-15) :

Toutes les chaînes de mesure analysent le signal par fenêtres temporelles successives. La fenêtre temporelle est fonction de la fréquence d’échantillonnage du signal, et du nombre de FFT chaque secondes. Par exemple, en échantillonnant à 44100Hz avec 1024 échantillons (FFT), on obtient une résolution temporelle de 1024/44100=23ms. C’est le cas de l’Affinity qui peut réaliser une analyse toutes les 23ms, mais dont le port USB limite en réalité la vitesse à 46ms. Deux blocs de 23ms sont donc « moyennés » afin de pouvoir être transmis par la connexion USB. Comme son nom ne l’indique pas vraiment, l’analyse percentile analyse le signal dans le temps (ce n’est plus du spectral) afin d’en donner la répartition des différents niveaux en pourcentage, par tranches de 1%.

Après une analyse percentile en règle, la chaîne de mesure sera capable de vous dire que 37% du temps, le signal a dépassé telle valeur; que 2% du temps il a dépassé telle valeur, etc.

Donc, pour faire une analyse percentile correcte, il faut faire 100 mesures, au minimum. C’est ce à quoi correspond la case à cocher « Centiles pour mesure complète ». Certes, vous le remarquerez, la chaîne de mesure affichera bien la dynamique du signal sous forme de petits rectangles dans chaque bande de tiers d’octave (voir graphique ci-dessous pour analyse percentile 30/99) avant d’avoir atteint 18 secondes, mais cette analyse percentile ne sera complète (et donc fiable) qu’à partir de 46 secondes, car 100 perceptibles x 10 échantillons de chaque x une fenêtre temporelle de 46ms = 46 secondes (les crêtes et vallées se figent alors progressivement au cours de la mesure):

REAR65

Ce qui implique que si vous décidez de cocher cette option (recommandée…), vous avez alors deux constantes de temps en jeu: le spectre à long terme qui évolue ici dans une fenêtre glissante de 8 seconde, et l’analyse percentile qui elle, évolue dans un autre espace-temps (Igor et Grichka BOGDANOV, sortez de ce corps !!!!!), de 15 à 46 secondes. Vous l’avez peut être expérimenté: vos changements de réglages se voyaient relativement vite sur le LTASS, mais très lentement sur les crêtes/vallées en cochant « Centiles pour mesure complète » ou « Régler les paramètres sur IEC 60118-15 ». Mais peut être n’aviez-vous pas osé…

AN: sans cocher cette option, il ne sera pas possible de cocher et donc d’obtenir la valeur suivante « Ratio de compression de la dynamique vocale ».

A l’écran, la zone dynamique donne progressivement la sensation de se « figer » au fur et à mesure que le test progresse. Une modification de réglage ne se visualisera alors quasiment pas sur la dynamique (à moins de refaire une mesure) alors qu’elle se visualise plus rapidement sur le spectre à long terme.

***Astuce quand même : vous pouvez relancer la moyenne glissante sans relancer la mesure en cliquant pendant le test sur « l’ascenseur de niveau » (sous 65dB) à la droite du graphique !!!***

  • 1/3 octave and overlapping time windows:

Paramètre modifiant la zone temporelle d’analyse, en l’élargissant sur une fenêtre de 92ms, ce qui se rapproche de la norme de mesure IEC 60118-15. Cette norme définit les paramètres de mesure permettant une analyse percentile standardisée, mais également, pour ce qui suit, le calcul du ratio de compression de la dynamique vocale. Surtout, elle définit une fenêtre temporelle de 125ms, qui en l’état technique actuel, est très difficilement atteignable à un coût raisonnable avec nos chaînes de mesure, si on veut conserver une fréquence d’échantillonnage de 44100Hz. En effet, pour obtenir une résolution fréquentielle de 125ms, il faudrait recueillir 0,125ms x 44100Hz = 5512,5 échantillons.

L’overlapping consiste à effectuer un chevauchement de plusieurs fenêtres temporelles afin de se rapprocher au plus près de la fenêtre idéale normalisée de 125ms. Si on raisonne par blocs temporels de 46ms, deux blocs successifs forment bien un  bloc de 92ms, mais entre deux FFT, le convertisseur est « aveugle ». Le chevauchement (« overlapping ») consiste donc à appliquer un fenêtrage temporel de manière à ce que deux blocs temporels successifs se chevauchent de 50%. On ne perd donc pas d’informations comme avec deux blocs successifs.

Vous trouverez des informations sur ces points dans ce document de travail qui a précédé la norme IEC 60118-15.

Cet affichage vous donne la dynamique du signal avec une résolution fréquentielle d’un tiers d’octave (bandes d’analyse de 43Hz à l’origine, mais pondérées par calcul en 1/3 d’octaves).

  • Ratio de compression de la dynamique vocale:

Ca c’est encore une autre histoire et je vous en avais déjà parlé.

Il s’agit de la case à cocher « Show dynamic compression ratio » qui vous donne dans chaque tiers d’octave la compression de la dynamique vocale entre l’entrée et la sortie sous forme de chiffres de 0.xx à plus de 2 (mais rarement plus de 2 quand même). Ce calcul n’est pas possible sans avoir modifié la fenêtre temporelle d’analyse à 92ms par le paramètre « 1/3 octave and overlapping time window ».

Afin de pouvoir mesurer le ratio de compression du signal à la sortie par rapport au signal à l’entrée, il va falloir que la chaîne de mesure les aligne temporellement de façon très précise (précision du décalage inférieure à 10ms), afin d’être sûr que l’on compare bien les même échantillons temporels:

T_shift_speech_signalSans cet alignement, les mêmes zones temporelles (et donc spectrales) ne seraient pas analysées avant/après, ne permettant pas un calcul fiable du ratio de compression de la dynamique vocale.

AN: ce calcul de ratio nécessitant de connaître le signal à l’entrée pour le comparer au signal de sortie (d’où l’alignement des deux signaux), la chaîne de mesure crée alors un fichier .spectra avant la mesure. Il n’est donc pas possible d’effectuer ce calcul « à la volée », c’est à dire en live avec le Visible Speech.

Cet alignement est absolument nécessaire également au calcul du gain.

Pour aller plus loin dans la compréhension de ces analyseurs spectraux et temporels que sont nos chaînes de mesure, je vous conseille la lecture de ce document passionnant in french dans le texte pour une fois (merci Franck 😉 ).

 

Bons paramétrages !

Et bon WE à tous !!

Merci à Dennis Mistry (Interacoustics) pour ses explications.

J’avais déjà évoqué la possibilité sur Affinity d’activer le microphone de référence opposé à la mesure in-vivo, et de l’intérêt de cette technique de mesure dans l’évaluation de l’ombre de la tête et de sa compensation par un système CROS.

Voici un cas clinique de validation de la mesure avec un patient appareillé dans un premier temps avec un Widex DREAM Fusion 330 à gauche, et cophose à droite:

Aud_CROS

Ce monsieur, très actif dans sa commune, participe à de nombreuses réunions et autres joyeuses activités associatives à base de canard gras dont Les Landes ont le secret…

Bref, sans surprise, il n’entend pas son voisin de droite, et ça l’embête bien. Donc une adaptation est programmée pour l’essai d’un système CROS Widex, qui en l’occurrence dans ce cas est un système BiCROS puisque son côté « bon » nécessite un appareillage.

La mise en évidence de l’ombre de la tête et le réglage de la balance microphonique se fait en trois étapes:

  1. Mesure in-vivo de la bonne oreille (Cas du CROS) ou de l’oreille appareillée (cas du BiCROS) avec HP à 90° (pile face à l’oreille)
  2. On laisse la sonde dans l’oreille et on fait tourner le patient de manière à présenter son oreille cophotique face au HP (mesure à 270°), MAIS on active le micro de référence opposé à la mesure =  mesure in-vivo oreille OK, mais micro de référence activé oreille cophotique –> on obtient l’ombre de la tête.
  3. Même mesure que 2 (toujours avec micro de référence activé à l’opposé de la mesure in-vivo), mais on place et on active le système CROS: si tout va bien on doit revenir à la mesure 1, sinon on ajuste le niveau de transmission dans le logiciel Compass GPS (ou Target 😉 ).

Démonstration pour ce patient:

REM_shadow

La partie colorée en jaune correspond pour ce patient à l’ombre de la tête.

On active le micro:

CROS_REM

La courbe bleue montre la captation de la bonne oreille/de l’oreille appareillée lorsque le son arrive du côté cophotique : l’ombre de la tête a été compensée.

Eventuellement, la balance microphonique permettra d’ajuster le niveau de la courbe bleue, jusqu’à coller à la noire:

CROX Dex

CQFD. Il restera à savoir si le patient en tire un bénéfice dans sa vie sociale.

Donc en résumé:

  • ça semble fonctionner et c’est un des rares moyens de mesurer cet « effet ombre »
  • ça permet d’ajuster la sensibilité du micro CROS avec précision et en connaissance de cause
  • permet de démontrer au patient le problème et la solution proposée…
  • attention aux appareils adaptatifs dans le cas du BiCROS, qui ont tendance, à l’opposé du HP, à augmenter l’amplification et donc à « gommer » l’ombre de la tête

Vous trouverez sous ce lien le fichier .iax pour Affinity permettant cette mesure. Attention: l’activation du micro de réf. opposé (en orange sur les copies d’écran) est à faire manuellement pour les étapes 2 et 3.

Mesures et création du test: Xavier DELERCE et Gilles ASSOULANT.

 

* The Pink CROS …

En audioprothèse, nous nous sommes longtemps contentés d’un affichage en « 2D », c’est à dire Gain/Fréquence ou Niveau de sortie/fréquence.

Exemple classique:

noeud 6K

Les spécialistes reconnaitront le type de mesure… et son erreur !

Ces représentations graphiques étaient valables pour des signaux stables en intensité à une fréquence donnée, c.à.d. ne fluctuant pas au cours du temps. Mais intégrer la « troisième dimension », le temps, ne rendrait pas les choses très faciles non plus; nous aurions accès aux variations temporelles, en perdant les informations spectrales (ici le famous fabricant 1…):

AC9_ISTS_OVG_RSB0_temporal domain

L’utilisation de la parole comme signal de test, fluctuant en intensité, change la donne. Pour s’en convaincre, la mesure du premier graphique à été réalisée avec un signal de parole (l’ISTS). Ce signal, normalisé, présente des fluctuations d’intensité de plus de 30dB. La mesure du graphique ci-dessus également avec le même signal. Nous avons donc deux représentations différentes qui présentent toutes deux des informations intéressantes, mais chacune incomplète.

Comment concilier spectral et temporel en quelque sorte ? Comment obtenir la classique représentation spectrale mais en intégrant le traitement des fluctuations d’intensité par l’aide auditive ?

Les fabricants de matériel de mesure nous apportent aujourd’hui des réponses à ce problème.

En reprenant le premier graphique: la mesure de l’amplification (en gain) par l’oreille nue donnera un gain identique (le REUG) quelle que soit l’intensité de la voix « normale ». La voix « moyenne » (prenons 65dB SPL) peut fluctuer entre 40 et 65dB SPL à 2KHz:

Capture2

L’ensemble Torse/Tête/Pavillon/Conduit présente une amplification linéaire pour les niveaux d’entrée, c’est à dire que les niveaux faibles (vallées) et plus forts (crêtes) sont autant amplifiés les uns que les autres. Donc toujours dans cet exemple à 2KHz, la dynamique d’entrée du signal est de 25dB, en fond de conduit on retrouve bien la même dynamique, on peut considérer que l’on a un facteur de compression de 1.0 (amplitude du signal d’origine = amplitude en fond de conduit).

Dans quel cas aurions-nous une altération ? lors du passage dans une aide auditive, typiquement.

Imaginons une aide auditive dont un point de compression serait à 30dB SPL et un second à 55dB SPL, linéaire de 30 à 55dB SPL et de facteur de compression 1.3 de 55 à 75dB SPL par exemple, lorsque que l’on utilise des systèmes capables de vous donner le gain pour des régions spécifiques en intensités (les percentiles d’intensité), on obtient non pas la première courbe, mais celle-ci (attention ça pique !):

ISTS Gain Fonix

Difficile à croire, mais cette mesure de gain est faite avec le même signal que le premier graphique (l’ISTS), mais passé par une aide auditive, puis analyse séparée pour chaque percentile d’intensité.

La courbe verte est le « LTASS », niveau à long terme moyenné sur le temps de mesure (20 sec. ici). Cette courbe verte correspond à la courbe rouge du premier et du troisième graphique.

La courbe jaune correspond à l’amplification des 30èmes percentiles, c’est à dire en gros, des niveaux environ 18dB moins élevés que le niveau moyen (le LTASS), ou autrement, des niveaux dépassés 70% du temps, que l’on nomme habituellement « les vallées » de la parole.

La courbe bleue correspond à l’amplification des percentiles 99 d’énergie, les niveaux les plus élevés de la voix moyenne, ses crêtes, les niveaux atteints et dépassés 1% du temps.

Que constate t-on: que les vallées de la parole sont plus amplifiées que ses niveaux moyens (en rouge et en vert) que ses crêtes. Si on considère la parole « non-traitée » (comme les oranges après récolte…) comme ayant une dynamique standardisée de 30dB à laquelle on attribue un facteur 1.0 de compression (non comprimée donc), dans ce cas mesuré ici par la chaîne de mesure, les « vallées » ont été remontées et les crêtes, lissées. Sa dynamique de sortie est donc réduite (ce qui est quand même bien dommage pour de la voix moyenne) et donc à la louche elle subit une compression de 1.3 jusqu’à 2KHz dans l’exemple mesuré par la Fonix ci-dessus.

En connaissant donc le gain appliqué à chaque tranche de percentiles d’énergie, vous pouvez alors avoir une action sur une zone de compression bien définie:

  • l’expansion et son mystérieux et jamais renseigné point d’enclenchement…
  • la première compression en entrée (premier TK) qui peut être trop haut (vallées échappant à l’amplification) ou trop bas (plus rare) comme l’exemple ci-dessus
  • la seconde compression au TK mal placé (quasiment pas réglable) ou tranche trop comprimée (percentiles 65 à 99 trop comprimés)
  • Un AGCo trop bas et qui lisse tout

Beaucoup de chaînes de mesure vont aujourd’hui vous donner ces renseignements soit sous la forme d’un gain appliqué à chaque niveau (la Fonix ci-dessus), soit sous la forme d’un taux de compression:

Capture

Ce taux varie de zéro et quelques (rarement sous 0.8) si les niveaux bas ne sont pas assez amplifiés (le plus souvent) à plus de 1 (rarement plus de 1.8) si les niveaux de crête ou les niveau moyens (percentiles 65) sont réduits par la compression ou un système de compression en sortie très agressif et très (trop ?) bas.

Il est très hasardeux de comparer ces taux compression de dynamique aux taux de compressions affichés dans les logiciels de réglage, bien qu’il y ait évidemment un rapport. Sachez cependant qu’il ne serait pas franchement normal de trop comprimer la dynamique de la voix moyenne.

On est donc passé en quelques années d’un affichage en « 2D » (gain ou niveaux de sortie moyen/Fréquence) à un « presque 3D » dans le sens où les systèmes de mesure nous donnent une indication sur la façon dont le signal a été traité au cours du temps, dans ses fluctuations.

Une petite gymnastique de lecture et d’interprétation, mais au final, beaucoup plus d’informations à disposition et d’actions possibles sur les réglages.

Une dernière chose: bonne année 2014 à tous !

RemFit désigne la passerelle entre le logiciel Bernafon Oasis (version 19) et Affinity (version maxi 2.3).

Bernafon et les autres (sauf Starkey et Widex…) récupèrent déjà les données REM type REUR et RECD, mais le concept va plus loin en pilotant directement la mesure in-vivo d’Affinity par le logiciel de réglage. A noter que Siemens fait déjà ça et même Widex, il y a très lontemps pilotait Aurical depuis Compass (et ça marchait !).

Le but: appuyez sur le bouton « Start » et le logiciel vous met l’appareil sur cibles. Magnifique !

Test !!

Le patient test:

image1

Bien sûr, comme tout le monde, quand on teste un nouvel appareil ou une nouvelle fonctionnalité, on prend le pire de nos patients (le pire des audiogrammes). C’est de bonne guerre !

Dans ce cas précis, les appareils choisis sont des Acriva 7 Rite adapté en dômes ouverts. Le TEN-Test est positif dès 3KHz, donc la correction se fera jusqu’à 2KHz et transposition fréquentielle (pardon « Frequency Composition » !) sur l’intervalle de mon choix (voir post sur le sujet plus bas).

Que fait RemFit:

REMFit

Un conseil: faire la calibration anti-larsen avant la MIV, le gain disponible réel étant bien supérieur des fois à l’estimation logicielle.

Il faut d’abord mettre des sondes in-vivo sur le casque REM et les calibrer par le logiciel Oasis:

Calib Sondes

Les sondes sont calibrées comme en MIV « classique »: sonde de mesure devant le micro de référence, le tout face au HP.

La MIV par le logiciel se fait par défaut à 65dB SPL d’entrée, mais on peut ajouter les intensités 50 et 80dB SPL par défaut dans le logiciel ou à la demande:

REAG cible

Le petit côté magique: en fait à Berne, des milliers de marmottes, au moment où vous appuyez sur « Droit », « Gauche » ou « Les deux », prennent le contrôle de votre PC et vont faire les mesures, plusieurs fois s’il le faut, automatiquement, jusqu’à ce que les cibles soient atteintes au mieux !

Ah non, les marmottes qui plient le papier d’alu, c’est un autre truc Suisse…

Bref ! Ca marche effectivement tout seul et vous voyez de façon miraculeuse les appareils se régler seuls en plusieurs étapes automatiques. Pour peu que vous ayez fait votre audiométrie aux inserts, que le logiciel ait récupéré un RECD, et donc que vos cibles soient précises au tympan, tout devrait donc coller au mieux:

REMFit ajustés

Ici, le niveau 80dB n’a pas pu être émis (c’est trop fort, il faudrait plutôt 75dB SPL max.), et il faut le décocher pour ne pas bloquer le test. Le logiciel n’est pas content car il n’est pas « sur cibles » (à 3K et plus), et c’est là que l’on voit la différence entre un cerveau humain (« Mais c’est ce que je voulais ! ») et la machine (« J’ai pas pu taper le 3 et 4KHz dans les cibles. End of message ! »), donc avertissement. Mais nous savons, nous les humains, que c’est mort/désafférenté au-delà de 3KHz, et qu’il n’est pas important d’aller y mettre de l’information ! Rage against the machine !

Et ça marche ?

REAR REMFit

Et oui ! Pile poile ce que je voulais.

Avouons quand même: une MIV avec ISTS et calcul des CR de la dynamique vocale, vous avez plus d’information qu’avec REMFit, non ?

Donc oui, ça marche, mais quitte à mettre une sonde, pourquoi ne pas passer directement sur la chaîne de mesure avec toutes les subtilités et les informations apportées par les signaux vocaux réels.

D’autant plus qu’ici, la transposition était proposée par le logiciel à partir de 2.9KHz, en plein dans la zone inaudible pour le patient, et seule une « vraie MIV » pouvait mettre en évidence qu’il fallait rabaisser son point de départ:

FC REMFit

Pour ce qui est de la mesure in-vivo de l’énergie transposée, voir ce post.

Bravo quand même à Bernafon, beau travail d’interface Oasis/Affinity. Seul regret: les courbes de MIV ne sont pas stockées dans Noah.

Prochain test: Oticon et sa MIV intégrée, qui, elle, permet l’utilisation de signaux vocaux. A suivre…

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel