You have activated a Bronze+ WP Symposium feature, but you have not entered your Activation Code. Get one on the Membership page on the WP Symposium website.

EIN ? saison 2

Written by xavdelerce on . Posted in Affinity, anti larsen, Astuces sur les appareils, Audioprothese, Chaînes de mesure, Expansion, Le gain, Marques, Méthodologie, Réglages des appareils, Tests au coupleur, Tests au coupleur, WIDEX

… suite de la première partie.

En reprenant l’exemple suivant :

Capture

 

Environ 30dB SPL de bruit de fond (EINLevel) à 3KHz peuvent-ils être considérés comme gênants pour ce patient ?

On peut penser (mais je n’en ai pas la confirmation) que lorsqu’un fabricant met un modèle sur le marché, de surcroît s’il est censé pouvoir s’adapter sur des surdités légères à moyennes, il connait les limites de BDF acceptables issues de la littérature. Enfin, on espère…

Une solution radicale pour se garantir de toute perception de BDF serait de placer le 1er TK en entrée assez haut, mais pas trop quand même car il y aurait un risque de sous-amplifier les zones failles de la parole; disons 30/35dB SPL. C’est étrange, en explorant les courbes entrée/sortie (si par chance vous les avez), c’est justement la limite très commune d’expansion !

Un seul fabricant, depuis fort longtemps s’est quand même aventuré à passer sous cette barre : Widex, depuis le premier Senso. Mais quand vous voulez amplifier des niveaux très bas (5 à 30dB SPL) pour éventuellement les faire émerger au-dessus du seuil, il va falloir énormément de gain (si le larsen vous le permet). Et donc vous pouvez amener par la même occasion le bruit de fond en même temps que l’information dans la zone audible. Je crois me souvenir que tout avait été pensé chez ce fabricant pour maintenir le niveau du BDF toujours sous le meilleur seuil, notamment par la mesure du « sensogramme » qui était (est toujours) quasi obligatoire, comme celle du larsen. Très rapidement, l’effet d’évent (et pas uniquement son seul diamètre) a été également mesuré afin d’estimer la limite basse de TK sans larsen et/ou sans risque de BDF perceptible dans les BF.

Bref, pour passer sous la barre des 30dB SPL en entrée sans craindre une perception de BDF avec une méthodologie d’amplification non-linéaire, il vaut mieux avoir confiance en sa technologie…

Macrae et Dillon ont établi des niveaux de BDF acceptables en fonction du gain apporté (donc en fonction du seuil d’audition) à diverses fréquences, et mesuré dans un coupleur HA1 (intra). Pour donner quelques exemples (mais vous pouvez les retrouver sur l’article téléchargeable de la première partie) :

@1KHz, de 0 à 50dB de gain : env. 17,5dB SPL

@250Hz, de 0 à 45dB de gain : env. 37dB SPL

@2KHz, de 0 à 60dB de gain : env. 13dB SPL

Attention : il s’agit de bruit de fond à l’entrée, comme vu dans la première partie. On constate une gêne survenant plus rapidement après 1KHz. Etrangement, la « tolérance » au BDF semblerait importante dans les BF, mais ces zones fréquentielles sont souvent masquées (et le BDF avec) par le bruit ambiant, la « rumeur ». Et d’autant plus  l’appareillage présente un évent : le bruit ambiant entrant par l’évent minimise la perception du BDF de l’appareil.

Je vous passe les calculs éprouvants des auteurs, mais je reprendrais le résumé de leur méthode de calcul du EIN acceptable en fonction de la surdité : considérant un seuil à une fréquence donnée, ce seuil doit être corrigé avec NAL (et oui, c’est Dillon quand même !). Attention, ici, c’est NAL « old school » = formule linéaire d’avant NAL-NL1, c’est à dire NAL-R.

On a :

 EINL = Max( HTL + MAP – CG – Corr – 15,EINL0 )   (1)

Et là, oui, c’est beaucoup plus clair n’est-ce pas ?

En fait, NAL ne fournissant pas de cibles de niveaux de sortie en dB SPL au tympan (REAR), contrairement à DSL, Macrae et Dillon on converti la perte auditive (HTL), en niveau au tympan. Ils ont donc pour ceci ajouté au seuil HTL, le MAP (qui est le niveau d’audition minimal mesuré en dB SPL au niveau du tympan), ce qui a converti en quelque sorte le seuil HTL en seuil SPL au tympan. Mais comme la valeur du gain (CG) est donnée dans le coupleur d’intra (le HA1), ils ont ajouté une correction (Corr) pour passer du coupleur au tympan. Pour les puristes, cette valeur de correction provient de diverses tables de conversion toujours utilisées et très souvent citées dans la littérature : les valeurs de conversions (ou fonction de transfert) de Bentler & Pavlovic, et leur pendant en champ diffus. Aride… mais sachez quand même que ces valeurs se cachent encore dans tous nos logiciels de réglages et jusque dans nos chaînes de mesure (tables 1 & 2). Et enfin, la soustraction de l’EIN tolérable (EINL0) donnant 0dB SL (Sensation Level).

Vous retrouverez dans l’article (Table 6.) les valeurs de l’EIN max. acceptable, en fonction du seuil d’audition pour chaque bande de 1/3 d’octave.

Ce qui est intéressant, c’est de pouvoir saisir ces valeurs dans votre chaîne de mesure, comme ici pour un seuil de 0dB HL (ligne pleine) et un seuil, par exemple, de 50dB HL (carrés) :

Limites EIN

Par contre, il faut relativiser cette mesure, par l’apport de bruit de fond extérieur : performance du caisson de mesures (isolation) et BDF des transducteurs de mesure (microphones de mesure et de référence). Par exemple dans un caisson très performant, Bruël&Kjaer/Interacoustics TBS25 avec la config suivante:

20150306_173214

On obtient, au plus bas, cet EIN:

EIN TBS25 micros

Pour conclure, j’ouvrirais le débat sur les valeurs de Macrae et Dillon qui ont été obtenues à l’époque sur la base d’une formule linéaire (NAL-R). Il serait très intéressant d’avoir des valeurs aujourd’hui avec des formules de correction non-linéaires (NAL-NL et DSL) puisque les sons faibles sont nettement plus amplifiés qu’avec NAL-R, et que l’EIN risque donc potentiellement d’augmenter car le facteur CG de l’équation (1) augmente.

Avis aux étudiants de D.E. ou M1/2 en recherche de mémoire…

« Dark Side of the Head »* Réglage objectif d’un système CROS/BiCROS

Written by xavdelerce on . Posted in Affinity, Astuces sur les appareils, BICROS, Chaînes de mesure, CROS, Marques, mesure in vivo, mesure in-vivo, Réglages des appareils, WIDEX

J’avais déjà évoqué la possibilité sur Affinity d’activer le microphone de référence opposé à la mesure in-vivo, et de l’intérêt de cette technique de mesure dans l’évaluation de l’ombre de la tête et de sa compensation par un système CROS.

Voici un cas clinique de validation de la mesure avec un patient appareillé dans un premier temps avec un Widex DREAM Fusion 330 à gauche, et cophose à droite:

Aud_CROS

Ce monsieur, très actif dans sa commune, participe à de nombreuses réunions et autres joyeuses activités associatives à base de canard gras dont Les Landes ont le secret…

Bref, sans surprise, il n’entend pas son voisin de droite, et ça l’embête bien. Donc une adaptation est programmée pour l’essai d’un système CROS Widex, qui en l’occurrence dans ce cas est un système BiCROS puisque son côté « bon » nécessite un appareillage.

La mise en évidence de l’ombre de la tête et le réglage de la balance microphonique se fait en trois étapes:

  1. Mesure in-vivo de la bonne oreille (Cas du CROS) ou de l’oreille appareillée (cas du BiCROS) avec HP à 90° (pile face à l’oreille)
  2. On laisse la sonde dans l’oreille et on fait tourner le patient de manière à présenter son oreille cophotique face au HP (mesure à 270°), MAIS on active le micro de référence opposé à la mesure =  mesure in-vivo oreille OK, mais micro de référence activé oreille cophotique –> on obtient l’ombre de la tête.
  3. Même mesure que 2 (toujours avec micro de référence activé à l’opposé de la mesure in-vivo), mais on place et on active le système CROS: si tout va bien on doit revenir à la mesure 1, sinon on ajuste le niveau de transmission dans le logiciel Compass GPS (ou Target ;-) ).

Démonstration pour ce patient:

REM_shadow

La partie colorée en jaune correspond pour ce patient à l’ombre de la tête.

On active le micro:

CROS_REM

La courbe bleue montre la captation de la bonne oreille/de l’oreille appareillée lorsque le son arrive du côté cophotique : l’ombre de la tête a été compensée.

Eventuellement, la balance microphonique permettra d’ajuster le niveau de la courbe bleue, jusqu’à coller à la noire:

CROX Dex

CQFD. Il restera à savoir si le patient en tire un bénéfice dans sa vie sociale.

Donc en résumé:

  • ça semble fonctionner et c’est un des rares moyens de mesurer cet « effet ombre »
  • ça permet d’ajuster la sensibilité du micro CROS avec précision et en connaissance de cause
  • permet de démontrer au patient le problème et la solution proposée…
  • attention aux appareils adaptatifs dans le cas du BiCROS, qui ont tendance, à l’opposé du HP, à augmenter l’amplification et donc à « gommer » l’ombre de la tête

Vous trouverez sous ce lien le fichier .iax pour Affinity permettant cette mesure. Attention: l’activation du micro de réf. opposé (en orange sur les copies d’écran) est à faire manuellement pour les étapes 2 et 3.

Mesures et création du test: Xavier DELERCE et Gilles ASSOULANT.

 

* The Pink CROS …

Vous préférez « Tuuuuuuuuuuuut » ou « Têêêêêêêêêêêêêt » ?

Written by xavdelerce on . Posted in Audioprothese, Audioprothesiste, BERNAFON, Humour, PHONAK, WIDEX

L’audioprothésiste adapte des aides auditives dont les capacités sont de plus en plus évoluées.

De l’anti-larsen à la directionnalité adaptative , les algorithmes semblent progresser d’année en année. Un bon vieux réflexe persiste cependant dans notre profession, héritage d’une époque bénie/révolue/archaïque (rayez la mention inutile) où les réseaux de soins n’existaient pas, l’audioprothésiste écoute les aides auditives.

Des fois (ça devient rare) nous en trouvons le son « clair » ou « agréable »; souvent… pas du tout ! Comment quantifier cette sensation d’écoute ? Le domaine spectral (mesure en caisson, mesures in-vivo, logiciels de réglages) ne nous donnera aucune indication.

Je vous livre ici une mesure temporelle (pression acoustique en fonction du temps) de trois aides auditives très récentes et performantes, de trois fabricants différents, lors de l’émission d’un son pur de 880Hz. Le micro de mesure 1/2 pouce placé dans le coupleur, je le précise, est de haute qualité (DPA) et ne peut pas être responsable de ce qui va suivre…

Fabricant 1:

Une sinusoïde chez fab1

 

 

Fabricant 2:

Une sinusoïde chez fab2

 

 

Fabricant 3:

Une sinusoïde chez fab3

 

 

Devinez quel appareil est le plus agréable à l’écoute ? Mais si, vous avez une petite idée !

Techtez les décalages fréquenchiels !

Written by xavdelerce on . Posted in Affinity, Audioscan, compression fréquentielle, Etude de cas, mesure in vivo, mesure in-vivo, PHONAK, transposition fréquentielle, WIDEX

Ca porte en général un doux nom du type « Sound Recover » (SR) ou « Audibility Extender » (AE). Le terme générique souvent utilisé est « frequency shifting » ou « frequency lowering » (décalage ou rabaissement fréquentiel).
On peut considérer que ces techniques ont franchement changé la vie des utilisateurs de ces systèmes, même si on peut discuter de l’apport d’intelligibilité (la masse d’articles sur le sujet est assez impressionnante).

Le principe de ces système, la zone 3, non audible pour causes multiples va être ramenée dans la zone 2 (AE) ou en lisière audible de la zone 2 (SR):

Un zone fréquentielle non audible (3) va être "décalée" vers une zone audible

Mais… (sinon il n’y aurait pas d’article !), comment « objectiver » (pas joli ce mot) ces systèmes ? Où démarrer ? Où s’arrêter ? Que transposer/compresser ? Et surtout: comment observer l’effet produit sur la parole amplifiée ?
A titre personnel, j’ai assez vite pu mettre en évidence la transposition fréquentielle (AE) par le Visible Speech, sur une voix « live ». Le plus frappant est de prononcer un /s/, en général bien ciblé vers 5/6KHz et de le voir se décaler vers 3KHz. C’est frappant, mais un peu « appuyé » comme démonstration…
Quant à la compression fréquentielle (SR), je faisais confiance… bref je séchais !
Alors Zorro est arrivé ! Zorro ce n’est pas moi, c’est un constructeur de chaînes de mesure: Audioscan. Non distribué en France, ce constructeur a mis au point un signal (trois signaux pour être exact) de mesure (signaux vocaux) afin de tester les appareils à décalages fréquentiels. Ca fait déjà quelques mois de ça quand même, mais les nouvelles d’Amérique me sont amenées par les mouettes qui font la traversée, désolé…
Donc je reprends: la manip. consiste à créer un signal vocal dont les médiums sont « amputés » et dont seule une bande dans les aiguës est laissée, 4000 ou 5000 ou 6300Hz:

Le « creux » dans les médiums sert en fait à mettre en évidence le rabaissement fréquentiel induit par l’appareil (transposition ou compression); c’est à dire que la zone « enlevée » permettra de ne pas « polluer » la visualisation (mesure in-vivo) du glissement fréquentiel. Le but étant de tester d’abord sans le système de décalage fréquentiel, puis avec.

Le choix de signal 4KHz, 5KHz ou 6.3KHz se fait (à mon avis) surtout pour les systèmes à transposition, en fonction de la fréquence de démarrage. Pour les systèmes à compression fréquentielle, le signal filtré 4 ou 5KHz semble suffire (encore mon avis).

Et ces signaux ? Comme souvent Audacity est l’ami des audios, l’ISTS est passé à la casserolle:

Donc trois fichiers wave distincts selon le filtre passe-bande souhaité, intégrés dans la chaîne de mesure.

Intégrés à la chaîne de mesure, ça donne un test « test REM décalages fréquentiels » que vous pouvez télécharger pour Affinity (2.0.4 sp2). Voyons voir si ça marche… va t-on enfin visualiser tout le travail de ces systèmes ? Est-ce que ça marche ? Quelques surprises…

  • La transposition fréquentielle:

Le principe est connu, rétrograder d’une octave une bande fréquentielle:

Principe de la transposition fréquentielle

Là, je dirais que l’effet est tellement ENOOOORME qu’il a toujours été facile de le mettre en évidence in-vivo. Il suffisait de produire un son situé dans la zone transposée et de le chercher une octave plus basse.

Par exemple sur ce patient:

NS in-vivo sans transposition

La perception est nulle pour la zone 6KHz (le /s/ par exemple). Si on active un programme de transposition de la zone:

Proposition logicielle de transposition

En utilisant l’ISTS filtré sur 6.3KHz, on obtient:

Transposition du 6KHz

On voit bien que la zone 3KHz est plus élevée que sans la transposition (à comparer avec la courbe verte de la mesure REM précédente). Est-ce que ce réglage sera toléré sans problème, c’est encore une autre histoire… mais la visualisation est possible, le système est objectivable (ah ! ce mot !). Par contre, la zone transposée « s’ajoute » en intensité à la zone « saine », d’où la nécessité parfois soit de minimiser l’AE (c’est réglable), soit de diminuer le gain de la zone à transposer dans le programme sans transposition.

L’avantage d’un signal vocal filtré, je le redis, est de mieux visualiser la zone transposée puisqu’elle se retrouve seule dans les médiums/aigus.

  • La compression fréquentielle:

Alors là, il y a du boulot. A titre personnel, je n’avais jamais réussi à visualiser l’effet de ce système en action. Ca restait « noyé » dans les fréquences contiguës en mesure in-vivo jusqu’à maintenant.

Allez zou:

Voici l’audiogramme du gentil « cobaye ».

Et voici le réglage logiciel proposé:

Réglage défaut du Sound Recover

Réglage défaut du SoundRecover

Il est donc proposé de démarrer la compression fréquentielle à 4.8KHz. Si je ne doute pas que certains sons soient perçus dans cette zone, j’ai nettement plus de doutes pour les indices vocaux, et effectivement, mesure in-vivo à la voix (ISTS):

NS in-vivo voix moyenne

Aucune information ne passe au-delà de 4KHz: le choix d’une fréquence « receveuse » à 4.8KHz n’est pas judicieux si on veut faire passer des informations vocales dan cette zone.

Donc première chose: si on se sert de la compression fréquentielle pour améliorer la perception vocale des zones fréquentielles aiguës, il est quasiment indispensable de réaliser une mesure in-vivo de niveau de sortie (REAR avec ISTS par exemple) afin de bien déterminer à quel endroit exact on enclenche le système. Dans le cas ci dessus, la zone 3K/3.5Khz semble appropriée si on ne veut pas plus augmenter le gain à 4KHz (zones mortes par exemple…). Le principe de la compression fréquentielle étant de démarrer en « lisière » de la bande passante audible, autant bien calculer sa zone de réception, la fameuse « cut-off frequency » de l’illustration suivante:

Le principe de la compression fréquentielle

Et après essais à 3.9 puis 3.3KHz pour le patient suivant, on obtient:

REAR ISTS filtré 4KHz sans et avec SoundRecover démarré à 3.3KHz

J’explique la mesure: la courbe fine orange est le signal filtré 4KHz sans activation du SoundRecover, la courbe grasse après activation. On constate une élévation du niveau de sortie (légère, environ 5 dB) vers 3.5KHz provoquée par le rabaissement fréquenciel de la zone 4KHz et plus.

Donc léger « glissement » en fréquence et augmentation de niveau.

  • Discussion:

A l’usage, on peut tous le constater, la transposition est très efficace, « visible » et audible et permet à certains patients de retrouver des sons totalement oubliés et inaccessibles autrement. De là à dire que la transposition est un système plus dédié aux « zones mortes » ou pentes audiométriques importantes, il n’y a qu’un pas… que je ne franchis pas ! Toujours est-il que la transposition demandera un temps d’apprentissage.

La compression, elle, est plus discrète, moins surprenante pour les patients que la transposition. En essayant de tester in-vivo par le moyen de signaux filtrés, on s’aperçoit qu’elle est peut-être moins « visible » que la transposition pour les pentes fortes, donc peut-être moins adaptée. Mais à l’inverse, elle permet d’enrichir les informations vocales dans des zones en général inaccessibles (4K et au-delà), sans choquer. L’usage d’un tel système sur une surdité plate et moyenne est très facile à mettre en évidence avec ces signaux (voir l’article de Phonak suivant).

Donc transpo ? compression fréquentielle ? Vous avez des éléments de réponse. A vos tests !

  • A propos du test:

Vous trouverez en téléchargement un test prédéfini pour Affinity 2.0.4 sp2, il suffit de placer les signaux filtré, téléchargeables ici dans un dossier quelconque et de paramétrer le test pour aller les chercher.

Pour les autres chaînes de mesure récentes (Unity 2 ou FreeFit), je pense qu’il est possible aussi d’intégrer ces signaux wave.

Bibliographie:

Présentation du test mis au point par Audioscan (c’est vers la fin).

Le test Affinity à importer.

Les signaux à télécharger.

Un article de PHONAK sur les tests in-vivo d’efficacité du SoundRecover, très impressionant pour les surdités « plates »… ça marche !

Une « contre-étude » d’un fabricant (!!!) sur les systèmes de rabaissement fréquentiels. Censuré ! (non, je blague, je ne le retrouve plus !).

Un article du Kuk qui met au point un test vocal tentant de mettre en évidence les effets de ces systèmes de décalages fréquentiels: le test ORCA.

Du même auteur, un article sur les tests des systèmes de rabaissement fréquentiel.

Merci à Jean-Baptiste BARON pour les manips.

ZEN et acouphènes

Written by 480bionics on . Posted in WIDEX

Selon les sources de France Acouphène,  10% à 17% des Français seraient susceptibles d’être sujets à une expérience de perception d’acouphènes. Cette analyse est tout aussi comparable dans les études menées aux Etats-Unis. Selon  kochkin et al.7, où 10% à 15% des gens souffrent d’acouphènes et 50% d’entre eux en ressentent une gêne quotidienne. Cette même étude démontre aussi que 39% des malentendants non-appareillés ont négligé le besoin d’une aide auditive justement parce qu’ils présentaient une gêne notable liée aux acouphènes.

Outre les traitements par médecine classique ou par habituation, il existe des alternatives audioprothétiques, pouvant être associés à d’autres soutiens.

En l’absence de perte d’acuité auditive, il est possible d’adapter un dispositif générant un bruit de fond à une faible intensité. Cette adaptation a pour but de potentiellement masquer la perception de l’acouphène.

En cas de perte de sensibilité auditive, l’adaptation d’une aide auditive conventionnelle permet déjà de réduire sensiblement la perception de l’acouphène. L’amplification, en elle-même, suffit la plupart du temps à masquer le signal perturbant en restituant simplement le signal des environnements sonores de façon plus intense. Dans certains cas où l’amplification conventionnelle n’est pas suffisante, il est aussi possible d’adapter une aide combinant une amplification à un générateur de bruit large bande.

Aujourd’hui, seul 60% des personnes malentendantes et appareillées ressentent un avantage lié au port de l’aide auditive pour réduire la gêne de l’acouphène. On pourrait ainsi se demander si d’autres alternatives seraient susceptibles d’augmenter l’effectif des personnes qui pourrait tirer bénéfice de l’appareillage pour contrer la gêne occasionnée par les acouphènes.

Zen et acouphènes

La fonction ZEN a été initialement conçue dans le but de réduire le stress lié aux conséquences d’une augmentation des difficultés de communication. Pour palier à ce phénomène, cette fonction offre une technique de relaxation, superposée ou non aux fonctions classiques de l’aide auditive, sans pour autant masquer les environnements sonores capturés.

En rapport à une étude clinique en vue de démontrer l’efficacité de la fonction ZEN, La FDA (Food and Drugs Administration) a confirmé que la fonction ZEN peut être proposée à des utilisateurs souhaitant bénéficier d’un programme d’écoute d’un signal sonore de fond dans le but de se relaxer. En outre, cette nouvelle option offre une efficacité intrinsèque similaire aux traitements audioprothétiques de l’acouphène actuellement disponibles.  Cette innovation Widex n’a néanmoins pas été spécifiquement conçue pour le traitement des acouphènes. Il pourrait donc être intéressant de déduire que la fonction ZEN serait susceptible de soulager la gêne de l’acouphène par l’écoute du signal sonore en lui-même, mais aussi par le phénomène de relaxation pouvant réduire le stress induit par l’acouphène.

Depuis sa mise sur le marché en France, cette fonction a déjà été proposée à de nombreux utilisateurs.  Son efficacité a été démontrée non pas uniquement pour une application dédiée à la décontraction ou bien la concentration : de multiples témoignages ont prouvé les effets des signaux ZEN pour la diminution significative de la perception des acouphènes sur des sujets pour lesquelles les solutions jusqu’alors disponibles n’apportaient pas de bénéfice notables.

Générateur de bruit ZEN

Depuis peu, la fonction ZEN est désormais agrémentée d’une option permettant de proposer un générateur de bruit dont le signal large bande a été conçu de telle sorte que sa distribution spectrale à long terme, en dessous de 1500 Hz, se rapproche de celle proposée par les harmonies ZEN. Pour des fréquences supérieures à 1500 Hz, le bruit ZEN présente des particularités spectrales dont le but est d’induire des phénomènes de masquage fréquentiel applicable à de fréquences aigues soit pour plus de 75% des personnes sujettes à des acouphènes dont le signal perçu est un son pur.

Les options de réglage permettent en outre de désactiver la capture microphonique pouvant ainsi transformer l’aide auditive en un générateur de bruit unique.


Les commentaires récents

Anonyme

|

Bonjour Xavier,
Merci pour ta question très pertinente.

Je ne pense pas que cela ait été fait car il faut savoir utiliser, à la fois, la liste de recrutement et le TEN TEST.

Pour ma part, je ne pratique (malheureusement) pas, pour l’instant, le TEN TEST et ceux qui pratiquent le TEN TEST ne connaissent peut-être pas l’existence de la liste de recrutement.

Sans aucun doute un très bon sujet de mémoire pour un étudiant de troisième année.
J’espère que ta question va susciter une (ou plusieurs) recherche en ce sens

xavdelerce

|

Bonjour Jean-Yves, et merci pour toutes tes remises à niveau.

Une éventuelle corrélation a t-elle déjà été recherchée entre un mauvais résultat au test de recrutement et un TEN Test positif ?

Jean-Yves MICHEL

|

Bonjour Xavier,
Merci pour tes questions.

1/ Le Professeur LAFON écrit, pour la liste cochléaire émise en exploration du champ auditif, en page 141 de son livre « le test phonétique et la mesure de l’audition » :
« La mesure est effectuée pour chaque oreille séparément, si la surdité est asymétrique, elle peut-être faite en biauriculaire pour deux courbes tonales identiques ».
Donc on peut comprendre que l’émission puisse être faite au casque.
J’ai choisi le champ libre car cela me permet de visualiser le gain prothétique vocal (différence entre le nombre d’erreur phonétique sans appareil versus avec appareil) alors que je ne le pourrai pas si la liste avait été émise au casque.
A l’appui de mon option champ libre je peux citer l’exemple en page 201-202 du Bulletin d’Audiophonologie année 1972 Volume 2 « Le Test Phonétique Théorie et Pratique » :
« …Atteinte auditive bilatérale d’étiologie inconnue. La perte moyenne est de 60 dB à droite comme à gauche. Appareillage biauriculaire par deux contours d’oreille. Le test phonétique montre une nette distorsion liminaire avec cependant une atteinte du champ auditif puisque l’on trouve à droite et à gauche une distorsion de 6 à 10% à 100 dB. L’usage des prothèses est bon, il ne reste que 4% d’erreurs avec les deux contours d’oreille 18% et 16% respectivement à droite et à gauche avec chaque contour utilisé isolément. Ce résultat montre que lorsque la distorsion n’est pas trop importante l’appareillage des deux oreilles séparément par contour améliore très nettement la perception de la parole (erreurs réduites des trois quart)… »

2/ Je balaye systématiquement, sans appareil, de 90 dB SPL jusqu’à 40 dB SPL sauf si avant 40 dB SPL j’atteins les 100% d’erreurs phonétiques, auquel cas je m’arrête là évidemment. Avec appareil, j’émets à nouveau les mêmes éléments aux mêmes niveaux. Je n’ai donc pas d’intensité de « départ » calculée à « seuil 2K + 10dB » ou autre.

3/ J’accorde une importance aux hauts niveaux (80 – 90 dB SPL) car il me semble important que mon appareillage ne génère pas plus d’erreurs phonétiques que ce que la personne en fait sans appareil. Je le vérifie donc.

J’espère avoir répondu à tes questions.

JYM

xavdelerce

|

Bonjour Jean-Yves

J’ai plusieurs interrogations:
1/ tu parles de niveaux d’émission en dB SPL pour l’administration des listes. Est-ce que ça veut dire que le test doit se faire en champ libre (ce que tu fais) ?
2/ comment est calculée l’intensité de « départ » (le confort) ? J’avais entendu dire « seuil 2K + 10dB » ?
3/ est-il réaliste de tester, à ton avis, l’intelligibilité au-delà de 75dB HL (au casque/inserts), en sachant alors que l’on va stimuler plusieurs bandes critiques avec l’augmentation globale de niveau, perdant du même coup en résolution fréquentielle et alors que l’appareillage, lui, n’aura pas une augmentation de niveau identique à toutes les fréquences et toutes les intensités ? Ce qui était valable à l’époque du Pr LAFON (technologie linéaire) avec une augmentation de niveau est-il valable aujourd’hui ?

Instagram @Audioprothese

 
hair growth pills for men
viagra sans ordonnance luxembourg
vente viagra sans ordonnance belgique
acheter viagra ligne
acheter cialis le vrai
achat de viagra pfizer
prilosec vs zantac
buy viagra new york
internal melanoma
commander du cialis achat
acheter kamagra gel pas cher
viagra con receta medica
zantac vs prevacid
acheter du cialis sans ordonnance forum
cialis sans ordonnance en suisse
viagra sans ordonnance forum
comprar cialis madrid
get cialis
acheter levitra 5 mg
what is metoprolol used for
precio de viagra en mexico
ranitidine injection