Catégorie : mesure in-vivo

Square_true

Définition de la mesure in-vivo : moyen technique confirmant que ce que nous pensons être en train de faire est réellement ce que nous sommes en train de faire.

J’ai trouvé dans un résumé de conférence cette définition simple, humoristique et très juste.

Cette conférence aborde le sujet intéressant de la dynamique de la parole, son analyse percentile par les chaînes de mesure et les effets collatéraux sur cette dynamique des temps d’attaque et de retour, TK et compressions…

Mais plus intéressant encore, la présentation rebondit sur un article de Hearing Revue paru cette année, issu d’un travail de mémoire en cours. En 2015, nous pouvons avoir cette fausse sensation de sécurité que les appareils actuels sont tellement bons (et je vais dans ce sens : certains sont vraiment très bons dans le bruit) que ce que vous voyez dans le logiciel (niveau de sortie et compressions) est ce que vous pensez obtenir réellement dans l’oreille.

Grave excès de confiance ! Et bien non, c’est un vieux serpent de mer, même en 2015 : à 10, voire 15dB près, vous ne savez toujours pas ce qui se passe dans le conduit auditif du patient !!! Pire encore : les compressions affichées ne sont pas celles réellement obtenues, avec une erreur moyenne de 10dB (en trop !) pour des niveaux d’entrée de 75dB SPL.

Vous comprendrez aisément que lorsque les fabricants s’échinent à mettre au point des algorithmes capables d’améliorer de 8dB le RSB, il est dommage de ne pas savoir à 10 ou 15dB près ce que nous mettons dans le conduit, au risque de perdre tout ce que peut apporter la technologie…

Comment ont procédé les audiologistes : ils ont pré-réglé 5 appareils en méthodologie NAL-NL2, puis ont tout simplement effectué une mesure in-vivo avec une cible NAL-NL2 à 55, 65 et 75dB SPL en entrée. Et enfin, calculé la différence entre la cible NAL-NL2 et le LTASS réel du signal de mesure amplifié (REAR).

Bien entendu, ces différences ne sont pas liées à NAL-NL2; elles auraient été identiques avec DSL 5.0.

En 2015, cessons de prendre des ronds pour des carrés (et vice versa) ! 😉

La question n’est pas nouvelle pour les audioprothésistes pratiquant la mesure in-vivo : quel est l’impact du positionnement du HP sur la précision de mesure ?

Elle a pris de l’importance plus encore ces dernières années avec les mesures in-vivo de signaux de parole, la MIV d’appareillages open, et le choix qui s’offre à nous entre deux méthodes de pré-calibration, MPCE et MPSE , « Normal » ou « Open-REM ».

La pré-calibration (et les deux méthodes dont j’avais parlé dans ce post), consiste, en gros, à mesurer la distance entre le micro de référence du casque de MIV et le HP, afin d’en déduire l’affaiblissement qui en découle à chaque fréquence et de compenser d’éventuelles résonances. Dans une cabine « idéale » (chambre anéchoïque), le spectre du signal de test sortant du HP n’aurait pas besoin d’être retouché.

Les caractéristiques acoustiques du local de test sont donc mesurées lors de la pré-calibration; la distance et l’emplacement du HP d’émission dans ce local ont donc leur importance. On peut imaginer qu’un HP placé « en vrac » dans un local de mesure plus ou moins réverbérant produira au final un signal de test très déformé, car ce bruit de « chirp » émis avant chaque mesure voyage dans le local, et va être récupéré par le micro de référence avec les résonances présentes. La chaîne de mesure essaiera ensuite, lors de l’émission du signal de test, de soustraire ces résonances mathématiquement, par équalisation. Cette opération ne sera pas sans conséquence sur la qualité du signal de test (l’ISTS par exemple), qui souffrira d’une sonorité peu naturelle à l’écoute.

Voici, par exemple, l’effet de la distance entre le HP et le micro de référence sur le signal de pré-calibration :

Effet_distance_precalibr

C’est clair : plus le HP d’émission est proche du micro de référence, plus vous privilégiez le champ direct, comme ici à 50cm. A 1m50, le champ réverbéré devient prédominant et vous intégrez au signal des pics de résonance (flèches) liés à l’acoustique de la cabine. Un signal de test issu d’une mauvaise pré-calibration sera de mauvaise qualité acoustique, car il aura été très « maquillé » en fréquence et en intensité par la chaîne. Et même une cabine avec une très bonne correction acoustique échappera difficilement à ce problème de distance entre le HP et le micro de référence.

Mais alors, où placer le HP de mesures in-vivo ?

Questions subsidiaires : qu’est-ce que je risque ? un HP de mon champ libre ne fera t-il pas l’affaire ?

Pour tenter de répondre à cette question, j’ai « déterré » un article du temps où il n’y avait pas de signal vocal de test, et donc, pas de « pré-calibration » (mais juste une calibration de la sonde), pas de « MPSE » ou de « MPCE », d' »OCAM » (oups, je m’égare !)… bref, un article de Killion et Revit de 1987 !

Et même s’il est tiré de Ear&Hearing, son auteur en permet son téléchargement légal; donc non, Sébastien : tu n’iras pas encore en prison cette fois ci parce que j’ai mis un article avec copyright sur le blog 😉

Voici donc quelques conseils permettant de placer correctement son HP de test lorsque l’on veut faire de la MIV :
  1. Ca n’est pas l’objet de l’article de Killion et Revit, mais pour les raisons liées à la pré-calibration évoquées plus haut, plus vous éloignez le HP du micro de référence, plus le micro de référence est influencé par les caractéristiques acoustiques de la cabine. Donc, restez en champ le plus direct possible pour tester avec ISTS. Distance maximum HP-patient = 50cm.
  2. L’angle recommandé dans le plan transversal (droite-façe-gauche du patient) est à 45°. Il faudrait donc avoir un HP mobile sur le plan de travail, et le déplacer pour les MIV de droite, puis gauche. On notera que ce point est totalement ignoré par les très vendeuses (mais très pratiques…) mesures in-vivo bilatérales simultanées ! La sensibilité aux mouvements de la tête est d’environ 2dB, au maximum dans les HF. C’est peu, et donc on pourrait, à peu de risques, continuer à 0° (face patient)… et donc en binaural pour les adeptes !
  3. L’angle recommandé dans le plan sagittal (de face à en haut, de face au front à au-dessus de la tête) a beaucoup plus d’incidence sur la qualité de la mesure, dans certaines configurations. Un HP posé sur la table face au conduit auditif du patient  a un angle de 0° dans le plan sagittal. Selon Killion et Revit, cet angle sagittal entraîne une erreur de mesure potentiellement très importante (« explosive » !) dans les HF, de 4 à 6kHz. En cause : l’anti-résonance de la conque à ces fréquences, certes peu corrigées la plupart du temps. Idéalement, l’angle du HP devrait être de 45° dans ce plan, ce qui implique un HP sur pied ou fixé légèrement au-dessus du regard. On gardera donc à l’esprit l’erreur de mesure potentielle dans les HF>3kHz lors d’appareillages ouverts si le HP est à 0° dans ce plan.
  4. Enfin, s’il fallait éviter à tout prix une configuration, ce serait celle d’un haut parleur de champ libre, fixé au plafond ou en haut d’un mur face au patient (90°/0°). L’erreur de mesure de gain d’insertion relevée par les auteurs à l’époque allait jusqu’à 15dB dans les HF…
  5. … et s’il fallait en conseiller une, ce serait 45°/45°, légèrement de côté et en haut. Difficilement possible sans un bras articulé (accessoire FONIX).

Tout ceci semble logique finalement (distance, plans) mais pas forcément facile à mettre en oeuvre… La connaissance de ces contraintes permet cependant d’attribuer les difficultés de test/re-test à notre configuration matérielle plus qu’à de supposés comportements mystérieux des aides auditives; elles sont certes très complexes aujourd’hui, mais pas totalement construites sur de la logique floue !

Finalement, même si la configuration idéale est atteinte, on notera une précision maximale de la mesure in-vivo de l’ordre de 2 à 3dB, gardons-le à l’esprit…

 

 

 

J’en profite pour donner la clé du grenier de Killion, aux plus curieux d’entre-vous : vous y trouverez plein d’articles en téléchargement, de la « préhistoire » jusqu’à nos jours, dont celui cité ici, et dont est tiré le titre de ce post. Une bonne vision de l’évolution de l’audiologie prothétique sur les 30 dernières année.

Et pour le(s) fan(s) français du CORFIG (il sait que je le taquine, là 😉 ) : quelques merveilleux articles sur le sujet !

Si vous avez du temps… ou un peu moins

Bonnes lectures !

Suite du premier et second billet.

Second test après celui ci.

Deuxième candidat : BERNAFON JUNA 9 CP. Couleur beige… mais ça, bon…

Il s’agit d’un contour d’oreille pile 13, successeur de l’ACRIVA 9, appareil que je trouvait assez difficile à mesurer en in-vivo car ultra-réactif au « chirp » de pré-calibration.

Les appareils de la marque peuvent paraître entourés d’un certain mystère quant à leur fonctionnement « sans canaux » (en Schwyzerdütsch on dit « Channel Free »). Si vous avez la patience d’attaquer un bouquin pareil, leur anatomie est un peu dévoilée par leur créateur, Arthur Schaub, dans Digital Hearing Aids.

L’Acriva était réputé pour un réducteur de bruit très très efficace, mais une pointe d’agressivité aux bruits impulsionnels. Son successeur le JUNA propose désormais deux modes de détection de la parole dans le bruit, basés soit sur la structure fine, soit sur l’enveloppe (mode testé ici) qui est, selon le fabricant, moins générateur d’inconfort pour les personnes les plus sensibles à des transitoires « explosifs ».

Appareil testé sur un pré-réglage avec méthodologie propriétaire (Bernafit NL), base audiogramme KS100, réducteur de bruit au max (mais pas « ultra confort ») et microphone directionnel fixe, et priorité « parole dans le bruit » + « enveloppe ». Ouf !

Les résultats « visuels » à RSB -10dB :

JUNA9_RBmax_MicDir_env_Beyer

Il ne faut que 3 à 4 secondes au RB pour intervenir (zone entourée noire). Rappelons que dans cette configuration, la parole (ISTS) est envoyée à 65dBA (Leq sur 30sec.) et le bruit (IFNoise) est à 75dBA (idem). Ce qui frappe, c’est la conservation, voire même le réhaussement, des crêtes du signal : les 8.5 premières secondes (ISTS seul) n’atteignent pas 0.5 d’amplitude relative puis l’apparition du bruit « efface » totalement les crêtes jusqu’à ce que le RB s’enclenche totalement; les crêtes ré-apparaissent, nettement plus amplifiées qu’au début de la mesure.

On écoute ?

Avec le Juna 9 :

Contrairement à l’appareil testé précédemment (le STARKEY), on sent moins le réducteur de bruit, mais le signal vocal semble (c’est une sensation) plus audible.

Quand même pour comparaison, voici ce qui se passe en cabine en même temps, capté par le micro de référence :

Qui a dit qu’en 2015 un appareil auditif ne fonctionne pas dans le bruit ? Il faudra penser un jour à arrêter le « Hearing Aid Bashing« , accepter un minimum de payer une recherche qui aboutit à ces résultats…

Des chiffres :

JUNA9_env_beyer

Cela confirme l’écoute : quand le Starkey diminuait le signal vocal de plus de 7dB avec l’augmentation du bruit, le JUNA 9 le diminue très peu (env. 3dB de G3 à G7), et ce, quel que soit le niveau du RSB. On est donc en présence plus d’un « extracteur » de parole que d’un « réducteur de bruit ». Lorsque l’on regarde les enregistrements, on constate assez nettement ce renforcement du contraste temporel (réhaussement des pics de la parole). Bernafon communique depuis des années sur cette technologie, qui semble donc effective.

Voici, pour s’en convaincre, l’enregistrement fait en parallèle par le micro de référence, celui en écoute plus haut (à RSB -10dB) :

5_DPA_ref_JUNA9_env_beyer_SNRm10_Aligned_Signals

… difficile de distinguer la parole dans ce « magma » de bruit…

 

Et au même RSB, l’enregistrement du JUNA :

5_JUNA9_env_beyer_SNRm10_Aligned_Signals

… les crêtes ré-apparaissent. Merci le micro directionnel (mais on a vu que ce n’était pas suffisant avec des modèles d’il y a plusieurs années) et surtout merci les algorithmes !

AN : Les deux enregistrements plus haut sont les signaux « SpN » des graphiques ci-dessus.

Voici sa progression :

JUNA9

L’amélioration du RSB est constante dans cette configuration de réglages, d’environ +6.7dB en moyenne, quel que soit le RSB en entrée.

Emergence du message

Voici l’émergence du signal par rapport au bruit, calculé sur 30sec. (merci Franck) sans passer par l’appareil (capté par le micro de référence), à RSB 0dB :

SII_DPA_ref_JUNA9_RSB0dB

Et avec l’appareil :

SII_JUNA9_RSB0dB

On obtient bien une émergence améliorée de 15% du signal par rapport au bruit.

 

Conclusion(s)

On le voit, deux marques, deux stratégies totalement différentes. La première (STARKEY) est axée sur le confort (avec tout de même 5dB d’amélioration constante du RSB), quand BERNAFON avec le JUNA recherche une extraction constante de la parole, que que soit le RSB en apportant quasiment 7dB d’amélioration du RSB. Deux fonctionnements très différents, deux typologies de clientèles ?

On finira par entendre mieux dans le bruit avec un appareil auditif que sans !

Quels progrès depuis 5 à 10ans, ne boudons pas notre plaisir.

 

Formule d’usage : l’auteur ne signale aucun lien d’intérêt avec le fabricant testé. N’y voyez aucune malice, ne déduisez rien d’absolu au vu des seuls résultats. L’appareillage auditif est une alchimie entre l’audioprothésiste, son patient et la technologie la plus appropriée qu’ils choisissent en commun.

 

Où s’arrêteront les fabricants ? jusqu’où vont les performances actuelles ?

Vous le saurez (peut-être) dans une troisième et dernier épisode fin septembre…

 

Allez, zou ! en vacances !! Vous lisez trop le blog 😉

La technique d’extraction du signal et du bruit à la sortie d’une aide auditive proposée par Hagerman&Olofsson est fréquemment utilisée en mastering audio, sous le nom de « NULL TEST« . Elle permet entre autres, de quantifier la perte de qualité liée à un ré-échantillonage ou compression « lossy » du signal d’origine.

Comme nous l’avons vu précédemment, Miller (2013) utilise 4 signaux pour l’extraction et l’estimation du facteur de qualité de cette extraction, permettent une analyse du RSB assez robuste à la sortie d’une aide auditive :

  • (+S+N) + (+S-N) extrait le signal (+6dB)
  • (+S+N) + (-S+N) extrait le bruit (+6dB)
  • et (+S+N) + (-S-N) extrait… rien !, ou plutôt devrait tendre vers -∞ mais en réalité « doit être 20dB plus faible que le plus faible extrait des deux précédents (parole ou bruit) ». C’est un critère de qualité/d’erreur décrit dans la thèse de Taylor (voir post précédent).

La difficulté majeure de ce type de test vient de l’alignement de tous ces signaux : plus elle est rigoureuse et précise, plus le calcul fera « disparaître » les signaux se retrouvant en opposition de phase. Et ça se joue quelques échantillons près (un échantillon avec une fréquence d’échantillonnage de 96kHz dure… 10μs !).  Les éléments technologiques présents dans les aides auditives actuelles rendent très difficile cet alignement :

  • les anti-larsen notamment ont tendance à inverser la phase du signal pendant le test, et bien sûr, jamais au même moment…
  • Les systèmes « d’aide à la décision » analysant également la scène sonore ont tendance à ne jamais faire exactement la même chose au même moment entre deux mesures.
  • Enfin, entre autres joyeusetés, les appareils peuvent présenter un phénomène de « Time shifting », c’est à dire qu’ils allongent (certes de quelques pouillèmes de sec…) le signal, mais jamais non plus aux mêmes endroits des tests…

Bref, une solution s’impose : se méfier des anti-larsen ( = les désactiver) et fixer les appareils dans un mode programme défini. De là à dire qu’il faudrait faire pareil avec les appareils de nos patients… mais ça pourrait des fois se discuter pour des raisons de qualité sonore !

Alignement précis = élimination précise de la parole ou du bruit = besoin d’un enregistrement « HiRes », c’est à dire en 96kHz/24bits = de bon gros fichiers .wav pour 45′ environ d’enregistrement (RSB testés +10/+5/0/-5/-10dB, pour 4 configurations différentes +S+N, -S-N, +S-N et -S+N).

Bien aligner ensuite tout le monde, pour bien éliminer ce qui doit l’être. Exemple avec l’ISTS et l’IFnoise à RSB -4dB :

 

SpN+SmN

 

Le signal +S+N à l’écoute :

 

Le signal +S-N à l’écoute (aucune différence à l’oreille) :

 

 

Ici deux fichiers +S+N et +S-N se retrouvant strictement synchronisés (configuration Hagerman & Olofsson de 2004), l’addition des deux va donner la parole + 6dB, le bruit en opposition de phase dans +S-N, s’annulant avec +S+N :

 

Parole extraite

 

Pour ceux qui voudraient écouter le signal extrait (extraction médiocre… non conservée) ci-dessus, non trafiqué, même si ça a un petit côté magique :

 

 

Et si vous ne me croyez pas, vous pouvez télécharger ces +S+N et +S-N et les fusionner dans Audacity, vous retrouverez bien la voix extraite ! Et si vous avez tout suivi, et que vous maîtrisez un peu Audacity, avec ces deux extraits, vous pourriez même, connaissant le RSB à l’entrée (-4dB), reconstituer le RSB à la sortie de ce Widex Dream Fashion 440 😉

Allez, je vous aide ! On n’a rien sans rien…

Cet alignement est très long et fastidieux. Si vous avez eu le courage de tenter la manip ci-dessus, vous avez dû comprendre. Et encore, les signaux sont déjà alignés et tous prêts à l’emploi !

Une solution :

mise en place par Franck LECLERE et avant lui, l’institut Fraunhofer (François-Xavier NSABIMANA), a été un traitement par lots (batch processing) des divers fichiers enregistrés à divers RSB avec « alignement automatique », basé soit sur la structure fine, soit l’enveloppe du signal (au choix, selon les appareils) :

 

Décomposition signal_Seewave

 

Pourquoi des signaux mesurés à la sortie de certains appareils s’alignent mieux avec l’enveloppe (une majorité) ou d’autres par la structure fine ? cela reste un mystère…

Donc pour faire court, on obtient :

  • un « train » de 4 signaux à 5 RSB différents (20 combinaisons),
  • enregistrés en 96kHz/24bits,
  • qu’il va falloir découper,
  • puis aligner entre eux afin d’en extraire la substantifique moelle (y’a pas que l’audio dans la vie… vous lisez trop le blog !) :

 

TrainH&O

C’est un algorithme Matlab qui va découper ce train, aligner les signaux (ici sur l’enveloppe) et extraire signal et bruit. Il ne restera plus qu’à recalculer le RSB à la sortie.

Conditions de test :

  • Signal ISTS, bruit IFnoise (même densité spectrale de niveau), téléchargeables sur le site de l’EHIMA
  • Appareil réglé selon méthodologie fabricant, dont le niveau de sortie pour l’ISTS à 65dB SPL d’entrée a été fixé dans un coupleur 2cc sur cible DSL 5.0a (EAR + RECD HA2) sur la base d’un audiogramme normalisé KS100 (sans inconfort entré)
  • Cabine : TR 0,23s et BDF 27dBA
  • HP : 1 à l’avant (émission de l’ISTS) à 0.70m et 2 à l’arrière (émission de l’IFnoise) à 135 et 225°, à 1,5m chacun
  • Etalonnage du niveau d’émission de l’ISTS par sonomètre au niveau du micro de l’AA par Leq 30s en dBA; étalonnage identique pour l’IFnoise
  • Emission du signal numérisé par lecteur Cowon PLENUE 1 relié en optique au convertisseur D/A d’un ampli NAD C375 BEE
  • enregistrement en fond de coupleur HA1 ou HA2 par un microphone DPA 4061 en 96kHz/24bits, en acquisition sur enregistreur Roland R26
  • enregistrement en parallèle (micro de référence) par un microphone BEHRINGER ECM8000 afin de vérifier la RSB à l’entrée
  • Calibration des deux microphones avant enregistrements par calibrateur B&K 4231
  • Découpage, extraction et calcul du RSB à la sortie de l’AA par un code Matlab sur les 30 dernières secondes de chaque mesure (afin de laisser les algos se stabiliser) pour l’enregistrement de l’appareil, et pour l’enregistrement de référence

Le premier testé sera un appareil qui ne prêtera pas à polémique, puisqu’il n’est plus diffusé : un Widex Inteo 19, de 2006 si j’ai bonne mémoire. Il y a eu 3 générations de circuits après cet appareil (puces Mind, Clear puis Dream).

On obtient, par exemple à RSB -10dB, la séparation des signaux :

 

Exemple fig extraction RSB-10dB

 

Voici sa progression :

 

IN19

 

Pas d’amélioration du RSB, sauf à -10dB (lissage du bruit par la compression WDRC, j’en avais parlé dans l’article précédent) et détérioration (légère) du RSB à +10dB par l’effet inverse (= un lissage des crêtes du signal utile).

On retrouve tout à fait les résultats décrits par Taylor & Johannesson en 2009 (le Widex Inteo avait un temps de retour variable, comme le lièvre, mais plutôt long) :

 

Capture

 

Par la même occasion, si vous avez eu la patience de lire la thèse de Miller (2013), les résultats étaient quasi identiques avec son successeur, le Widex Mind 440.

Je précise : les autres fabricants ne faisaient pas mieux à l’époque, voire plutôt moins bien.

 

A suivre…

Un peu pour information, un peu pour une question, voici le résultat de mesures audiométriques (tonale/vocale) et acoustiques sur un patient présentant une cavité d’évidement et des cryptes à droite.

Séquelles de coups dans l’enfance… OD et OG opérées à de multiples reprises (7 fois en tout).

L’audiométrie tonale (merci les inserts: pas de masking nécessaire même sur ces seuils, en tonale):

CA

La nature étant bien faite, ce patient réussit quand même (OG masquée) à obtenir ce score en listes cochléaires de LAFON:

Voc

Les mesures acoustiques des CAE mettent en évidence des valeurs totalement atypiques à droite, liées à l’évidement (longueur et volume hors norme).

La mesure oreille nue (REUG):

REUG

On a à droite un pic à 1600Hz, ce qui donne une approximation de longueur de conduit de (340000/1600)/4 = 53,1mm !!!

5 cm de conduit, ou plutôt de cavité(s)…

La mesure RECD:

RECD

Le coupleur fait 2cc. Un RECD HA1 « standard » (courbe bleue en pointillés) est à environ 12dB à 4KHz, ce qui fait une différence de volume de facteur 4 entre le coupleur et le conduit auditif bouché par la mousse (volume conduit 4 fois plus petit que le volume coupleur, soit 0,5/0,6cc, valeurs admises chez l’adulte).

Ici à droite, le RECD est d’environ -6dB, voire moins encore, ce qui signifie que le volume résiduel (résiduel, façon de parler !) du « conduit » ou de ce qu’il en reste est 2 fois plus important que le volume coupleur, donc entre 4 et 5cc, dû aux 3 cryptes que j’ai pu y voir.

Il est évident que si un appareillage était nécessaire à droite (ce que je ne ferai pas), toute approximation statistique logicielle serait totalement à la rue.

Je conclurai par une question simple : en sachant qu’il n’est pas recommandé de fermer l’oreille gauche, toujours plus ou moins humide et que ce patient a perdu depuis bien longtemps la localisation spatiale, appareilleriez-vous cette oreille gauche, de 2K à 3KHz, et qui présente 90% d’intelligibilité à 40dB HL ?

That is the question…

La mesure in vivo est souvent vue comme une mesure du spectre à long terme d’un signal après son amplification par l’appareil auditif. Donc une mesure spectrale.

Les cibles de gain ou de niveau de sortie nous donnent des indications afin, dans chaque bande de tiers d’octave, de fournir tel ou tel gain ou niveau de sortie.

Mais si un bruit blanc ou rose est constant dans le temps (que son spectre soit mesuré sur 1 ou 30″, il est le même), cela fait bien longtemps que l’on ne teste plus les appareils avec ce genre de signal. Aujourd’hui, le signal de test le plus utilisé est l’ISTS, au caisson ou in vivo. Ce signal est un signal de parole, très fluctuant dans le temps et dont le spectre dans les premières secondes n’est pas forcément représentatif du spectre à long terme (sur 1 minute par exemple) :

istsLorsque l’on regarde ce signal, plusieurs interrogations :

  • Combien de temps mesurer ? la minute complète du signal ou 5 secondes ?
  • Comment avoir une idée de la répartition de l’énergie dans le temps ? (en clair, est-il possible d’avoir une représentation temporelle et non spectrale du signal)
  • Doit-on faire la mesure sur la moyenne des derniers événements acoustiques qui se sont passés dans la seconde ? Des 5 dernières secondes ? Plus ?

 

  • La mesure du spectre à « long » terme :

En mesure in-vivo du niveau de sortie appareillé (REAR) la cible (DSL ou NAL) correspond au spectre moyenné sur le long terme. Mais « long terme » combien ? Si vous mettez « 1 seconde », le spectre va changer en permanence en fonction de la composition fréquentielle au cours du temps, et si vous mettez « 30 secondes » votre courbe sera certes être très stable, mais après un changement de réglage pendant la mesure, il vous faudra 30 secondes pour en voir l’effet…

L’astuce consiste alors à effectuer une moyenne glissante : la mesure se fait en continu (case « Mesure continue » cochée), mais, par exemple ici, seuls les événements des 8 dernières secondes comptent dans la moyenne (« Temps de mesure 8s. » + « Mesure continue » = temps d’intégration (moyenne) glissant(e) sur 8 secondes) :

RéglagesREAR65

  • Combien de temps mesurer :

Là, ce n’est pas paramétrable, ou alors il faut définir le paramètre « Temps de mesure » et décocher « Mesure continue » : la mesure s’arrêtera quand le temps sera atteint. Dans ce cas, le spectre à long terme serait intégré sur 8 secondes puis la mesure s’arrêterait.

Une autre solution consiste à laisser le signal tourner en boucle avec « Mesure continue », et à arrêter ni trop tôt ni trop… quoi ? J’en avais déjà parlé : il est important de laisser la mesure en niveau de sortie appareillé (REAR) se faire au moins 18 secondes, et laisser passer le phonème /ch/ présent dans l’ISTS et qui fait littéralement exploser le niveau de sortie à 2/4KHz avec certains appareils dont le premier TK dans la zone 2/4kHz est un peu trop haut; il est présent vers 12/15 secondes.

En conséquence, une mesure sur 15 à 20 secondes semble bien et permet de modifier un ou deux réglages et d’avoir le temps d’en visualiser l’effet (8 secondes après dans l’illustration ci-dessus). Le temps de mesure se fait au jugé par l’audioprothésiste, et en général, on peut se fixer un repère d’arrêt, par exemple vers ce qui ressemble à « poderos » dans l’ISTS (env. 18 secondes).

AN: bien sûr, en mesure de gain d’insertion, le temps n’est pas aussi important puisqu’en général le REIG est le même au cours du temps (à 1 ou 2dB près). Les premières secondes de la mesure donnent la « bonne » mesure. Compter donc 5 à 10 secondes de mesure en REIG pour laisser à l’appareil le temps de se stabiliser.

  • Analyse temporelle « de base » = min/max :

Jusqu’à maintenant c’est du spectral (niveau/fréquence), mais la chaîne de mesure peut analyser, dans le temps et dans chaque tiers d’octave, les événements les plus forts (les crêtes du signal, niveaux dépassés seulement 1% du temps) et de plus faibles intensités (les vallées du signal, niveaux dépassés 70% du temps).

Case à cocher: « Afficher min. -max », sans cocher aucune des autres cases (très important). Vous obtiendrez alors la dynamique du signal de parole (à environ +12/-18dB du spectre à long terme). Cette dynamique n’est pas calculée avec la même moyenne que « Temps de mesure » (ici les 8 dernières secondes du signal mesuré en sortie), mais elle a sa propre constante de mesure, qui est d’environ 5 secondes. Donc vous pouvez avoir une constante de mesure pour le spectre à long terme, alors que les événements « min/max » (vallées/crêtes) ont leur propre constante de temps de 4,6 secondes. Pourquoi 4,6 secondes ? parce que la fenêtre temporelle d’analyse est de 23ms, mais que le câble USB ne pouvant pas transporter autant d’informations, deux blocs d’analyse de 23ms sont moyennés, ce qui donne une fenêtre globale de 46ms (information reprise brute d’Interacoustics). Et comme il faut faire au minimum 100 mesures pour faire une analyse percentile a minima, on a donc 100*46ms= environ 4,6 secondes, temps minimal d’intégration.

Cet affichage vous donne la dynamique du signal avec une résolution fréquentielle de 43Hz.

  • Analyse temporelle « renforcée » :

Au lieu de cocher « Afficher min. _max », qui correspond à des valeurs « percentile 30<–>percentile 99 », vous souhaitez définir vous même l’analyse percentile du signal. Vous allez donc cocher et définir les zones qui vous intéressent dans « Analyse percentile ». En passant, si vous cochez 30% et 99%, ça revient au même que «  »Afficher min. _max »…

Donc à réserver à ceux d’entre nous qui veulent plus… pointu, genre analyse du 39ème percentile !

Cette analyse se fait sur les mêmes constantes que « min/max. »= 4,6 secondes, quelle que soit la constante de temps utilisée pour l’intégration du LTASS, et pour les mêmes raisons citées précédemment.

 

  • Analyse percentile « idéale » (normalisée IEC 60118-15) :

Toutes les chaînes de mesure analysent le signal par fenêtres temporelles successives. La fenêtre temporelle est fonction de la fréquence d’échantillonnage du signal, et du nombre de FFT chaque secondes. Par exemple, en échantillonnant à 44100Hz avec 1024 échantillons (FFT), on obtient une résolution temporelle de 1024/44100=23ms. C’est le cas de l’Affinity qui peut réaliser une analyse toutes les 23ms, mais dont le port USB limite en réalité la vitesse à 46ms. Deux blocs de 23ms sont donc « moyennés » afin de pouvoir être transmis par la connexion USB. Comme son nom ne l’indique pas vraiment, l’analyse percentile analyse le signal dans le temps (ce n’est plus du spectral) afin d’en donner la répartition des différents niveaux en pourcentage, par tranches de 1%.

Après une analyse percentile en règle, la chaîne de mesure sera capable de vous dire que 37% du temps, le signal a dépassé telle valeur; que 2% du temps il a dépassé telle valeur, etc.

Donc, pour faire une analyse percentile correcte, il faut faire 100 mesures, au minimum. C’est ce à quoi correspond la case à cocher « Centiles pour mesure complète ». Certes, vous le remarquerez, la chaîne de mesure affichera bien la dynamique du signal sous forme de petits rectangles dans chaque bande de tiers d’octave (voir graphique ci-dessous pour analyse percentile 30/99) avant d’avoir atteint 18 secondes, mais cette analyse percentile ne sera complète (et donc fiable) qu’à partir de 46 secondes, car 100 perceptibles x 10 échantillons de chaque x une fenêtre temporelle de 46ms = 46 secondes (les crêtes et vallées se figent alors progressivement au cours de la mesure):

REAR65

Ce qui implique que si vous décidez de cocher cette option (recommandée…), vous avez alors deux constantes de temps en jeu: le spectre à long terme qui évolue ici dans une fenêtre glissante de 8 seconde, et l’analyse percentile qui elle, évolue dans un autre espace-temps (Igor et Grichka BOGDANOV, sortez de ce corps !!!!!), de 15 à 46 secondes. Vous l’avez peut être expérimenté: vos changements de réglages se voyaient relativement vite sur le LTASS, mais très lentement sur les crêtes/vallées en cochant « Centiles pour mesure complète » ou « Régler les paramètres sur IEC 60118-15 ». Mais peut être n’aviez-vous pas osé…

AN: sans cocher cette option, il ne sera pas possible de cocher et donc d’obtenir la valeur suivante « Ratio de compression de la dynamique vocale ».

A l’écran, la zone dynamique donne progressivement la sensation de se « figer » au fur et à mesure que le test progresse. Une modification de réglage ne se visualisera alors quasiment pas sur la dynamique (à moins de refaire une mesure) alors qu’elle se visualise plus rapidement sur le spectre à long terme.

***Astuce quand même : vous pouvez relancer la moyenne glissante sans relancer la mesure en cliquant pendant le test sur « l’ascenseur de niveau » (sous 65dB) à la droite du graphique !!!***

  • 1/3 octave and overlapping time windows:

Paramètre modifiant la zone temporelle d’analyse, en l’élargissant sur une fenêtre de 92ms, ce qui se rapproche de la norme de mesure IEC 60118-15. Cette norme définit les paramètres de mesure permettant une analyse percentile standardisée, mais également, pour ce qui suit, le calcul du ratio de compression de la dynamique vocale. Surtout, elle définit une fenêtre temporelle de 125ms, qui en l’état technique actuel, est très difficilement atteignable à un coût raisonnable avec nos chaînes de mesure, si on veut conserver une fréquence d’échantillonnage de 44100Hz. En effet, pour obtenir une résolution fréquentielle de 125ms, il faudrait recueillir 0,125ms x 44100Hz = 5512,5 échantillons.

L’overlapping consiste à effectuer un chevauchement de plusieurs fenêtres temporelles afin de se rapprocher au plus près de la fenêtre idéale normalisée de 125ms. Si on raisonne par blocs temporels de 46ms, deux blocs successifs forment bien un  bloc de 92ms, mais entre deux FFT, le convertisseur est « aveugle ». Le chevauchement (« overlapping ») consiste donc à appliquer un fenêtrage temporel de manière à ce que deux blocs temporels successifs se chevauchent de 50%. On ne perd donc pas d’informations comme avec deux blocs successifs.

Vous trouverez des informations sur ces points dans ce document de travail qui a précédé la norme IEC 60118-15.

Cet affichage vous donne la dynamique du signal avec une résolution fréquentielle d’un tiers d’octave (bandes d’analyse de 43Hz à l’origine, mais pondérées par calcul en 1/3 d’octaves).

  • Ratio de compression de la dynamique vocale:

Ca c’est encore une autre histoire et je vous en avais déjà parlé.

Il s’agit de la case à cocher « Show dynamic compression ratio » qui vous donne dans chaque tiers d’octave la compression de la dynamique vocale entre l’entrée et la sortie sous forme de chiffres de 0.xx à plus de 2 (mais rarement plus de 2 quand même). Ce calcul n’est pas possible sans avoir modifié la fenêtre temporelle d’analyse à 92ms par le paramètre « 1/3 octave and overlapping time window ».

Afin de pouvoir mesurer le ratio de compression du signal à la sortie par rapport au signal à l’entrée, il va falloir que la chaîne de mesure les aligne temporellement de façon très précise (précision du décalage inférieure à 10ms), afin d’être sûr que l’on compare bien les même échantillons temporels:

T_shift_speech_signalSans cet alignement, les mêmes zones temporelles (et donc spectrales) ne seraient pas analysées avant/après, ne permettant pas un calcul fiable du ratio de compression de la dynamique vocale.

AN: ce calcul de ratio nécessitant de connaître le signal à l’entrée pour le comparer au signal de sortie (d’où l’alignement des deux signaux), la chaîne de mesure crée alors un fichier .spectra avant la mesure. Il n’est donc pas possible d’effectuer ce calcul « à la volée », c’est à dire en live avec le Visible Speech.

Cet alignement est absolument nécessaire également au calcul du gain.

Pour aller plus loin dans la compréhension de ces analyseurs spectraux et temporels que sont nos chaînes de mesure, je vous conseille la lecture de ce document passionnant in french dans le texte pour une fois (merci Franck 😉 ).

 

Bons paramétrages !

Et bon WE à tous !!

Merci à Dennis Mistry (Interacoustics) pour ses explications.

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel