Qui sommes nous ?

Nous sommes un collectif d'audioprothésistes, depuis 2006, qui cherchent à améliorer l'image et la diffusion de connaissances techniques à destination des audioprothésistes ! L'exercice nous permet de commenter et également d'améliorer nos connaissances. Il faut bien le dire ce blog bouillonne de bonnes idées !!!! Si toi aussi tu as envie de partager ton expérience ! Alors rejoins nous !

2 – Le Saint Graal de l’audioprothèse : mesurer le RSB en sortie d’aide auditive – Mise en place d’un test

La technique d’extraction du signal et du bruit à la sortie d’une aide auditive proposée par Hagerman&Olofsson est fréquemment utilisée en mastering audio, sous le nom de « NULL TEST« . Elle permet entre autres, de quantifier la perte de qualité liée à un ré-échantillonage du signal d’origine. Comme nous l’avons vu précédemment, Miller (2013) utilise 4 signaux pour l’extraction et l’estimation du facteur de qualité de cette extraction, permettent une analyse du RSB assez robuste à la sortie d’une aide auditive : (+S+N) + (+S-N) extrait le signal (+S+N) + (-S+N) extrait le bruit et (+S+N) + (-S-N) extrait… rien !, ou plutôt devrait tendre vers -∞ mais en réalité doit être 20dB plus faible que le plus faible extrait des deux précédents. C’est un critère de qualité/d’erreur. La difficulté majeure de ce type de test vient de l’alignement de tous ces signaux : plus elle est rigoureuse et précise, plus le calcul fera « disparaître » les signaux se retrouvant en opposition de phase. Et ça se joue quelques échantillons près (un échantillon avec une fréquence d’échantillonnage de 96kHz dure… 10μs !).  Les éléments technologiques présents dans les aides auditives actuelles rendent très difficile cet alignement : les anti-larsen notamment ont tendance à inverser la phase du signal pendant le test, et bien sûr, jamais au même moment… Les systèmes « d’aide à la décision » analysant également la scène sonore ont tendance à ne jamais faire exactement la même chose au même moment entre deux mesures. Enfin, entre autres joyeusetés, les appareils peuvent présenter un phénomène de « Time shifting », c’est à dire qu’ils allongent (certes de quelques ms) le signal, mais jamais non plus aux mêmes endroits des tests… Bref, une solution s’impose : se méfier des anti-larsen ( = les désactiver) et fixer les appareils dans un mode programme défini. De là à dire qu’il faudrait faire pareil avec les appareils de nos patients… mais ça pourrait des fois se discuter pour des raisons de qualité sonore ! Alignement précis = élimination précise de la parole ou du bruit = besoin d’un enregistrement « HiRes », c’est à dire en 96kHz/24bits = de bon gros fichiers .wav pour 45′ environ d’enregistrement (RSB testés +10/+5/0/-5/-10dB, pour 4 configurations différentes +S+N, -S-N, +S-N et -S+N). Bien aligner ensuite tout le monde, pour bien éliminer ce qui doit l’être. Exemple avec l’ISTS et l’IFnoise à RSB -4dB :   SpN+SmN   Le signal +S+N à l’écoute :   Le signal +S-N à l’écoute (aucune différence à l’oreille) :     Ici deux fichiers +S+N et +S-N se retrouvant strictement synchronisés (configuration Hagerman & Olofsson de 2004), l’addition des deux va donner la parole + 6dB, le bruit, en opposition de phase dans +S-N, s’annulant avec +S+N :   Parole extraite   Pour ceux qui voudraient écouter le signal extrait (extraction médiocre… non conservée) ci-dessus, non trafiqué, même si ça a un petit côté magique :     Et si vous ne me croyez pas, vous pouvez télécharger ces +S+N et +S-N et les fusionner dans Audacity, vous retrouverez bien la voix extraite ! Et si vous avez tout suivi, et que vous maîtrisez un peu Audacity, avec ces deux extraits, vous pourriez même, connaissant le RSB à l’entrée (-4dB), reconstituer le RSB à la sortie de ce Widex Dream Fashion 440 😉 Allez, je vous aide ! On n’a rien sans rien… Cet alignement est très long et fastidieux. Si vous avez eu le courage de tenter la manip ci-dessus, vous avez dû comprendre. Et encore, les signaux sont déjà alignés et tous prêts à l’emploi ! Une solution mise en place par Franck LECLERE et avant lui, l’institut Fraunhofer, a été un traitement par lots (batch processing) des divers fichiers enregistrés à divers RSB avec « alignement automatique » basé sur la structure fine ou bien l’enveloppe du signal (au choix, selon les appareils) :   Décomposition signal_Seewave   Pourquoi des signaux mesurés à la sortie de certains appareils s’alignent mieux avec l’enveloppe (une majorité) ou d’autres par la structure fine ? cela reste un mystère… Donc pour faire court, on obtient un « train » de 4 signaux à 5 RSB différents (20 combinaisons), enregistrés en 96kHz/24bits qu’il va falloir découper, puis aligner entre eux afin d’en extraire la substantifique moelle (y’a pas que l’audio dans la vie… vous lisez trop le blog !) :   TrainH&O C’est un algorithme qui va découper ce train, aligner les signaux (ici sur l’enveloppe) et extraire signal et bruit. Il ne restera plus qu’à recalculer le RSB à la sortie. Conditions de test :
  • Signal ISTS, bruit IFnoise (même densité spectrale de niveau), téléchargeables sur le site de l’EHIMA
  • Appareil réglé selon méthodologie fabricant, dont le niveau de sortie pour l’ISTS à 65dB SPL d’entrée a été fixé dans un coupleur 2cc sur cible DSL 5.0a (EAR + RECD HA2) sur la base d’un audiogramme normalisé KS100 (sans inconfort entré)
  • Cabine : TR 0,23s et BDF 27dBA
  • HP : 1 à l’avant (émission de l’ISTS) à 0.70m et 2 à l’arrière (émission de l’IFnoise) à 135 et 225°, à 1,5m chacun
  • Etalonnage du niveau d’émission de l’ISTS par sonomètre au niveau du micro de l’AA par Leq 30s en dBA; étalonnage identique pour l’IFnoise
  • enregistrement en fond de coupleur par un microphone DPA 4061 en 96kHz/24bits, en acquisition sur carte Echo 2 en USB et Audacity en mode natif sous Mac
  • enregistrement en parallèle par enregistreur Roland R26 afin de vérifier la RSB à l’entrée
  • Découpage, extraction par un code Matlab sur les 30 dernières secondes de chaque mesure (afin de laisser les algos se stabiliser) pour l’enregistrement de l’appareil, et pour l’enregistrement de référence
Le premier testé sera un appareil qui ne prêtera pas à polémique, puisqu’il n’est plus diffusé : un Widex Inteo 19, de 2006 si j’ai bonne mémoire. Il y a eu 3 générations de circuits après cet appareil (puces Mind, Clear puis Dream). On obtient, par exemple à RSB -10dB, la séparation des signaux :   Exemple fig extraction RSB-10dB   Voici sa progression :   IN19   Pas d’amélioration du RSB, sauf à -10dB (lissage du bruit par la compression WDRC, j’en avais parlé dans l’article précédent) et détérioration (légère) du RSB à +10dB par l’effet inverse (= un lissage des crêtes du signal utile). On retrouve tout à fait les résultats décrits par Taylor & Johannesson en 2009 (le Widex Inteo avait un temps de retour variable, comme le lièvre, mais plutôt long) :   Capture   Par la même occasion, si vous avez eu la patience de lire la thèse de Miller (2013), les résultats étaient quasi identiques avec son successeur, le Widex Mind 440. Je précise : les autres fabricants ne faisaient pas mieux à l’époque, voire plutôt moins bien.   A suivre…

EIN ? saison 2

… suite de la première partie. En reprenant l’exemple suivant : Capture   Environ 30dB SPL de bruit de fond (EINLevel) à 3KHz peuvent-ils être considérés comme gênants pour ce patient ? On peut penser (mais je n’en ai pas la confirmation) que lorsqu’un fabricant met un modèle sur le marché, de surcroît s’il est censé pouvoir s’adapter sur des surdités légères à moyennes, il connait les limites de BDF acceptables issues de la littérature. Enfin, on espère… Une solution radicale pour se garantir de toute perception de BDF serait de placer le 1er TK en entrée assez haut, mais pas trop quand même car il y aurait un risque de sous-amplifier les zones failles de la parole; disons 30/35dB SPL. C’est étrange, en explorant les courbes entrée/sortie (si par chance vous les avez), c’est justement la limite très commune d’expansion ! Un seul fabricant, depuis fort longtemps s’est quand même aventuré à passer sous cette barre : Widex, depuis le premier Senso. Mais quand vous voulez amplifier des niveaux très bas (5 à 30dB SPL) pour éventuellement les faire émerger au-dessus du seuil, il va falloir énormément de gain (si le larsen vous le permet). Et donc vous pouvez amener par la même occasion le bruit de fond en même temps que l’information dans la zone audible. Je crois me souvenir que tout avait été pensé chez ce fabricant pour maintenir le niveau du BDF toujours sous le meilleur seuil, notamment par la mesure du « sensogramme » qui était (est toujours) quasi obligatoire, comme celle du larsen. Très rapidement, l’effet d’évent (et pas uniquement son seul diamètre) a été également mesuré afin d’estimer la limite basse de TK sans larsen et/ou sans risque de BDF perceptible dans les BF. Bref, pour passer sous la barre des 30dB SPL en entrée sans craindre une perception de BDF avec une méthodologie d’amplification non-linéaire, il vaut mieux avoir confiance en sa technologie… Macrae et Dillon ont établi des niveaux de BDF acceptables en fonction du gain apporté (donc en fonction du seuil d’audition) à diverses fréquences, et mesuré dans un coupleur HA1 (intra). Pour donner quelques exemples (mais vous pouvez les retrouver sur l’article téléchargeable de la première partie) :

@1KHz, de 0 à 50dB de gain : env. 17,5dB SPL

@250Hz, de 0 à 45dB de gain : env. 37dB SPL

@2KHz, de 0 à 60dB de gain : env. 13dB SPL

Attention : il s’agit de bruit de fond à l’entrée, comme vu dans la première partie. On constate une gêne survenant plus rapidement après 1KHz. Etrangement, la « tolérance » au BDF semblerait importante dans les BF, mais ces zones fréquentielles sont souvent masquées (et le BDF avec) par le bruit ambiant, la « rumeur ». Et d’autant plus  l’appareillage présente un évent : le bruit ambiant entrant par l’évent minimise la perception du BDF de l’appareil.

Je vous passe les calculs éprouvants des auteurs, mais je reprendrais le résumé de leur méthode de calcul du EIN acceptable en fonction de la surdité : considérant un seuil à une fréquence donnée, ce seuil doit être corrigé avec NAL (et oui, c’est Dillon quand même !). Attention, ici, c’est NAL « old school » = formule linéaire d’avant NAL-NL1, c’est à dire NAL-R.

On a :

 EINL = Max( HTL + MAP – CG – Corr – 15,EINL0 )   (1)

Et là, oui, c’est beaucoup plus clair n’est-ce pas ?

En fait, NAL ne fournissant pas de cibles de niveaux de sortie en dB SPL au tympan (REAR), contrairement à DSL, Macrae et Dillon on converti la perte auditive (HTL), en niveau au tympan. Ils ont donc pour ceci ajouté au seuil HTL, le MAP (qui est le niveau d’audition minimal mesuré en dB SPL au niveau du tympan), ce qui a converti en quelque sorte le seuil HTL en seuil SPL au tympan. Mais comme la valeur du gain (CG) est donnée dans le coupleur d’intra (le HA1), ils ont ajouté une correction (Corr) pour passer du coupleur au tympan. Pour les puristes, cette valeur de correction provient de diverses tables de conversion toujours utilisées et très souvent citées dans la littérature : les valeurs de conversions (ou fonction de transfert) de Bentler & Pavlovic, et leur pendant en champ diffus. Aride… mais sachez quand même que ces valeurs se cachent encore dans tous nos logiciels de réglages et jusque dans nos chaînes de mesure (tables 1 & 2). Et enfin, la soustraction de l’EIN tolérable (EINL0) donnant 0dB SL (Sensation Level).

Vous retrouverez dans l’article (Table 6.) les valeurs de l’EIN max. acceptable, en fonction du seuil d’audition pour chaque bande de 1/3 d’octave.

Ce qui est intéressant, c’est de pouvoir saisir ces valeurs dans votre chaîne de mesure, comme ici pour un seuil de 0dB HL (ligne pleine) et un seuil, par exemple, de 50dB HL (carrés) :

Limites EIN

Par contre, il faut relativiser cette mesure, par l’apport de bruit de fond extérieur : performance du caisson de mesures (isolation) et BDF des transducteurs de mesure (microphones de mesure et de référence). Par exemple dans un caisson très performant, Bruël&Kjaer/Interacoustics TBS25 avec la config suivante:

20150306_173214

On obtient, au plus bas, cet EIN:

EIN TBS25 micros

Pour conclure, j’ouvrirais le débat sur les valeurs de Macrae et Dillon qui ont été obtenues à l’époque sur la base d’une formule linéaire (NAL-R). Il serait très intéressant d’avoir des valeurs aujourd’hui avec des formules de correction non-linéaires (NAL-NL et DSL) puisque les sons faibles sont nettement plus amplifiés qu’avec NAL-R, et que l’EIN risque donc potentiellement d’augmenter car le facteur CG de l’équation (1) augmente.

Avis aux étudiants de D.E. ou M1/2 en recherche de mémoire…

« Dark Side of the Head »* Réglage objectif d’un système CROS/BiCROS

J’avais déjà évoqué la possibilité sur Affinity d’activer le microphone de référence opposé à la mesure in-vivo, et de l’intérêt de cette technique de mesure dans l’évaluation de l’ombre de la tête et de sa compensation par un système CROS. Voici un cas clinique de validation de la mesure avec un patient appareillé dans un premier temps avec un Widex DREAM Fusion 330 à gauche, et cophose à droite: Aud_CROS Ce monsieur, très actif dans sa commune, participe à de nombreuses réunions et autres joyeuses activités associatives à base de canard gras dont Les Landes ont le secret… Bref, sans surprise, il n’entend pas son voisin de droite, et ça l’embête bien. Donc une adaptation est programmée pour l’essai d’un système CROS Widex, qui en l’occurrence dans ce cas est un système BiCROS puisque son côté « bon » nécessite un appareillage. La mise en évidence de l’ombre de la tête et le réglage de la balance microphonique se fait en trois étapes:
  1. Mesure in-vivo de la bonne oreille (Cas du CROS) ou de l’oreille appareillée (cas du BiCROS) avec HP à 90° (pile face à l’oreille)
  2. On laisse la sonde dans l’oreille et on fait tourner le patient de manière à présenter son oreille cophotique face au HP (mesure à 270°), MAIS on active le micro de référence opposé à la mesure =  mesure in-vivo oreille OK, mais micro de référence activé oreille cophotique –> on obtient l’ombre de la tête.
  3. Même mesure que 2 (toujours avec micro de référence activé à l’opposé de la mesure in-vivo), mais on place et on active le système CROS: si tout va bien on doit revenir à la mesure 1, sinon on ajuste le niveau de transmission dans le logiciel Compass GPS (ou Target 😉 ).
Démonstration pour ce patient:

REM_shadow

La partie colorée en jaune correspond pour ce patient à l’ombre de la tête.

On active le micro:

CROS_REM

La courbe bleue montre la captation de la bonne oreille/de l’oreille appareillée lorsque le son arrive du côté cophotique : l’ombre de la tête a été compensée.

Eventuellement, la balance microphonique permettra d’ajuster le niveau de la courbe bleue, jusqu’à coller à la noire:

CROX Dex

CQFD. Il restera à savoir si le patient en tire un bénéfice dans sa vie sociale.

Donc en résumé:

  • ça semble fonctionner et c’est un des rares moyens de mesurer cet « effet ombre »
  • ça permet d’ajuster la sensibilité du micro CROS avec précision et en connaissance de cause
  • permet de démontrer au patient le problème et la solution proposée…
  • attention aux appareils adaptatifs dans le cas du BiCROS, qui ont tendance, à l’opposé du HP, à augmenter l’amplification et donc à « gommer » l’ombre de la tête
Vous trouverez sous ce lien le fichier .iax pour Affinity permettant cette mesure. Attention: l’activation du micro de réf. opposé (en orange sur les copies d’écran) est à faire manuellement pour les étapes 2 et 3. Mesures et création du test: Xavier DELERCE et Gilles ASSOULANT.   * The Pink CROS …

Vous préférez « Tuuuuuuuuuuuut » ou « Têêêêêêêêêêêêêt » ?

L’audioprothésiste adapte des aides auditives dont les capacités sont de plus en plus évoluées. De l’anti-larsen à la directionnalité adaptative , les algorithmes semblent progresser d’année en année. Un bon vieux réflexe persiste cependant dans notre profession, héritage d’une époque bénie/révolue/archaïque (rayez la mention inutile) où les réseaux de soins n’existaient pas, l’audioprothésiste écoute les aides auditives. Des fois (ça devient rare) nous en trouvons le son « clair » ou « agréable »; souvent… pas du tout ! Comment quantifier cette sensation d’écoute ? Le domaine spectral (mesure en caisson, mesures in-vivo, logiciels de réglages) ne nous donnera aucune indication. Je vous livre ici une mesure temporelle (pression acoustique en fonction du temps) de trois aides auditives très récentes et performantes, de trois fabricants différents, lors de l’émission d’un son pur de 880Hz. Le micro de mesure 1/2 pouce placé dans le coupleur, je le précise, est de haute qualité (DPA) et ne peut pas être responsable de ce qui va suivre… Fabricant 1: Une sinusoïde chez fab1     Fabricant 2: Une sinusoïde chez fab2     Fabricant 3:

Une sinusoïde chez fab3

    Devinez quel appareil est le plus agréable à l’écoute ? Mais si, vous avez une petite idée !

Techtez les décalages fréquenchiels !

Ca porte en général un doux nom du type « Sound Recover » (SR) ou « Audibility Extender » (AE). Le terme générique souvent utilisé est « frequency shifting » ou « frequency lowering » (décalage ou rabaissement fréquentiel). On peut considérer que ces techniques ont franchement changé la vie des utilisateurs de ces systèmes, même si on peut discuter de l’apport d’intelligibilité (la masse d’articles sur le sujet est assez impressionnante). Le principe de ces système, la zone 3, non audible pour causes multiples va être ramenée dans la zone 2 (AE) ou en lisière audible de la zone 2 (SR):

Un zone fréquentielle non audible (3) va être "décalée" vers une zone audible

Mais… (sinon il n’y aurait pas d’article !), comment « objectiver » (pas joli ce mot) ces systèmes ? Où démarrer ? Où s’arrêter ? Que transposer/compresser ? Et surtout: comment observer l’effet produit sur la parole amplifiée ? A titre personnel, j’ai assez vite pu mettre en évidence la transposition fréquentielle (AE) par le Visible Speech, sur une voix « live ». Le plus frappant est de prononcer un /s/, en général bien ciblé vers 5/6KHz et de le voir se décaler vers 3KHz. C’est frappant, mais un peu « appuyé » comme démonstration… Quant à la compression fréquentielle (SR), je faisais confiance… bref je séchais ! Alors Zorro est arrivé ! Zorro ce n’est pas moi, c’est un constructeur de chaînes de mesure: Audioscan. Non distribué en France, ce constructeur a mis au point un signal (trois signaux pour être exact) de mesure (signaux vocaux) afin de tester les appareils à décalages fréquentiels. Ca fait déjà quelques mois de ça quand même, mais les nouvelles d’Amérique me sont amenées par les mouettes qui font la traversée, désolé… Donc je reprends: la manip. consiste à créer un signal vocal dont les médiums sont « amputés » et dont seule une bande dans les aiguës est laissée, 4000 ou 5000 ou 6300Hz:

Le « creux » dans les médiums sert en fait à mettre en évidence le rabaissement fréquentiel induit par l’appareil (transposition ou compression); c’est à dire que la zone « enlevée » permettra de ne pas « polluer » la visualisation (mesure in-vivo) du glissement fréquentiel. Le but étant de tester d’abord sans le système de décalage fréquentiel, puis avec. Le choix de signal 4KHz, 5KHz ou 6.3KHz se fait (à mon avis) surtout pour les systèmes à transposition, en fonction de la fréquence de démarrage. Pour les systèmes à compression fréquentielle, le signal filtré 4 ou 5KHz semble suffire (encore mon avis). Et ces signaux ? Comme souvent Audacity est l’ami des audios, l’ISTS est passé à la casserolle:

Donc trois fichiers wave distincts selon le filtre passe-bande souhaité, intégrés dans la chaîne de mesure. Intégrés à la chaîne de mesure, ça donne un test « test REM décalages fréquentiels » que vous pouvez télécharger pour Affinity (2.0.4 sp2). Voyons voir si ça marche… va t-on enfin visualiser tout le travail de ces systèmes ? Est-ce que ça marche ? Quelques surprises…
  • La transposition fréquentielle:
Le principe est connu, rétrograder d’une octave une bande fréquentielle:

Principe de la transposition fréquentielle

Là, je dirais que l’effet est tellement ENOOOORME qu’il a toujours été facile de le mettre en évidence in-vivo. Il suffisait de produire un son situé dans la zone transposée et de le chercher une octave plus basse. Par exemple sur ce patient:

NS in-vivo sans transposition

La perception est nulle pour la zone 6KHz (le /s/ par exemple). Si on active un programme de transposition de la zone:

Proposition logicielle de transposition

En utilisant l’ISTS filtré sur 6.3KHz, on obtient:

Transposition du 6KHz

On voit bien que la zone 3KHz est plus élevée que sans la transposition (à comparer avec la courbe verte de la mesure REM précédente). Est-ce que ce réglage sera toléré sans problème, c’est encore une autre histoire… mais la visualisation est possible, le système est objectivable (ah ! ce mot !). Par contre, la zone transposée « s’ajoute » en intensité à la zone « saine », d’où la nécessité parfois soit de minimiser l’AE (c’est réglable), soit de diminuer le gain de la zone à transposer dans le programme sans transposition. L’avantage d’un signal vocal filtré, je le redis, est de mieux visualiser la zone transposée puisqu’elle se retrouve seule dans les médiums/aigus.
  • La compression fréquentielle:
Alors là, il y a du boulot. A titre personnel, je n’avais jamais réussi à visualiser l’effet de ce système en action. Ca restait « noyé » dans les fréquences contiguës en mesure in-vivo jusqu’à maintenant. Allez zou:

Voici l’audiogramme du gentil « cobaye ».

Et voici le réglage logiciel proposé:
Réglage défaut du Sound Recover

Réglage défaut du SoundRecover

Il est donc proposé de démarrer la compression fréquentielle à 4.8KHz. Si je ne doute pas que certains sons soient perçus dans cette zone, j’ai nettement plus de doutes pour les indices vocaux, et effectivement, mesure in-vivo à la voix (ISTS):

NS in-vivo voix moyenne

Aucune information ne passe au-delà de 4KHz: le choix d’une fréquence « receveuse » à 4.8KHz n’est pas judicieux si on veut faire passer des informations vocales dan cette zone.

Donc première chose: si on se sert de la compression fréquentielle pour améliorer la perception vocale des zones fréquentielles aiguës, il est quasiment indispensable de réaliser une mesure in-vivo de niveau de sortie (REAR avec ISTS par exemple) afin de bien déterminer à quel endroit exact on enclenche le système. Dans le cas ci dessus, la zone 3K/3.5Khz semble appropriée si on ne veut pas plus augmenter le gain à 4KHz (zones mortes par exemple…). Le principe de la compression fréquentielle étant de démarrer en « lisière » de la bande passante audible, autant bien calculer sa zone de réception, la fameuse « cut-off frequency » de l’illustration suivante:

Le principe de la compression fréquentielle

Et après essais à 3.9 puis 3.3KHz pour le patient suivant, on obtient:

REAR ISTS filtré 4KHz sans et avec SoundRecover démarré à 3.3KHz

J’explique la mesure: la courbe fine orange est le signal filtré 4KHz sans activation du SoundRecover, la courbe grasse après activation. On constate une élévation du niveau de sortie (légère, environ 5 dB) vers 3.5KHz provoquée par le rabaissement fréquenciel de la zone 4KHz et plus. Donc léger « glissement » en fréquence et augmentation de niveau.
  • Discussion:
A l’usage, on peut tous le constater, la transposition est très efficace, « visible » et audible et permet à certains patients de retrouver des sons totalement oubliés et inaccessibles autrement. De là à dire que la transposition est un système plus dédié aux « zones mortes » ou pentes audiométriques importantes, il n’y a qu’un pas… que je ne franchis pas ! Toujours est-il que la transposition demandera un temps d’apprentissage. La compression, elle, est plus discrète, moins surprenante pour les patients que la transposition. En essayant de tester in-vivo par le moyen de signaux filtrés, on s’aperçoit qu’elle est peut-être moins « visible » que la transposition pour les pentes fortes, donc peut-être moins adaptée. Mais à l’inverse, elle permet d’enrichir les informations vocales dans des zones en général inaccessibles (4K et au-delà), sans choquer. L’usage d’un tel système sur une surdité plate et moyenne est très facile à mettre en évidence avec ces signaux (voir l’article de Phonak suivant). Donc transpo ? compression fréquentielle ? Vous avez des éléments de réponse. A vos tests !
  • A propos du test:
Vous trouverez en téléchargement un test prédéfini pour Affinity 2.0.4 sp2, il suffit de placer les signaux filtré, téléchargeables ici dans un dossier quelconque et de paramétrer le test pour aller les chercher. Pour les autres chaînes de mesure récentes (Unity 2 ou FreeFit), je pense qu’il est possible aussi d’intégrer ces signaux wave. Bibliographie: Présentation du test mis au point par Audioscan (c’est vers la fin). Le test Affinity à importer. Les signaux à télécharger. Un article de PHONAK sur les tests in-vivo d’efficacité du SoundRecover, très impressionant pour les surdités « plates »… ça marche ! Une « contre-étude » d’un fabricant (!!!) sur les systèmes de rabaissement fréquentiels. Censuré ! (non, je blague, je ne le retrouve plus !). Un article du Kuk qui met au point un test vocal tentant de mettre en évidence les effets de ces systèmes de décalages fréquentiels: le test ORCA. Du même auteur, un article sur les tests des systèmes de rabaissement fréquentiel. Merci à Jean-Baptiste BARON pour les manips.