Catégorie : Aurical

En 2000, B.C.J. Moore présentait un nouveau test audiométrique tonal, le TEN-Test, censé être aussi efficace  que l’utilisation des courbes psycho-acoustiques d’accord (85% environ aussi précis, selon ses travaux) dans la détection de « Zones Mortes cochléaires ». Une « Zone Morte » étant définie par l’absence ou une importante raréfaction des cellules cilliées internes (CCI) dans la cochlée, rendant toute amplification prothétique inutile, voire nuisible à l’intelligibilité selon certains auteurs à l’époque.

Ce test est un test d’audiométrie tonale, d’abord effectuée dans le silence (classique…), puis ré-effectuée dans un bruit envoyé de manière ipsilatérale. On demande alors au sujet testé de déterminer son seuil de perception au milieu de ce bruit, appelé « TEN ». TEN= « Threshold-Equalising Noise », ou « Bruit Egalisateur de Seuil ».

C’est justement dans ce « bruit » que réside tout  le test. Son élaboration repose sur des fondements psycho-acoustiques relativement récents. Son but est donc « d’égaliser/équaliser » le seuil à son niveau. Par exemple pour une surdité en pente régulière:

L’audiométrie a d’abord été réalisée au casque (ronds rouges) sans le bruit, par pas de 2dB. Elle est ensuite refaite avec présente du TEN, ici envoyé à 70dB/ERB. Les seuils « tombent » alors à l’intensité d’émission du TEN, et devraient s’aligner aux environs de 70dB HL pour chaque fréquence testée. Aucun autre signal masquant ne permet cela, ni le bruit blanc, ni le bruit rose. Le TEN est en effet élaboré de telle sorte qu’il a un pouvoir masquant égal dans chaque ERB, son intensité n’est pas donnée strictement en dB HL, mais en dB/ERB.

ERB ?

Si vous vous faites le test et que vous utilisez un TEN à 70dB/ERB, vous vous apercevrez que c’est fort et à 80dB/ERB vraiment très fort. ERB signifie « Equivalent Rectangular Bandwidth » ou en gros, « Bande de largeur rectangulaire équivalente ». Sous-entendu: « équivalente à un filtre auditif ».

Ces « filtres auditifs » sont en fait les « Bandes critiques » (mais pas exactement pour Moore), décrites par Fletcher dans les années 1940, au nombre de 24 (échelle des Barks). Elles correspondent à des « filtres cochléaires » présentant de nombreuses particularités. Par exemple, pour un son pur à 1000Hz dans la bande critique 1000Hz (qui fait 160Hz de large); l’ajout d’un second son pur de même intensité à une fréquence proche du premier (ex: 1010Hz) mais dans la même bande critique (compris dans cette bande de 160Hz) ne provoquera pas d’augmentation de sonie. Si le second son pur « sort » de la bande critique 1000Hz, il provoquera un changement de sonie. Ces propriétés (et d’autres encore) ont été étudiées et affinées depuis Fletcher et Zwicker, et il est apparu plus simple de modéliser ces « filtres auditifs » qui ont une forme de cloche (sommet en pointe et extrêmes aplatis), par leur « équivalent rectangulaire » (équivalent rectangulaire de la surface ou aire du filtre auditif):

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007
Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Mais B.C.J. Moore dans les années 80 a entrepris (avec d’autres) de re-mesurer la largeur des filtres cochléaires en utilisant une technique dite du « bruit à encoche », donnant une meilleure précision dans la détermination de leur largeur en fonction des fréquences. Je précise qu’il n’y a bien entendu ni « 24 bandes critiques », ni « emplacements ERB » fixes et bien délimités dans la cochlée, mais un continuum chevauchant de filtres cochléaires. Si l’on prend une fréquence quelconque, par exemple toujours 1000Hz, on s’aperçoit que la bande critique suivante (voir propriétés plus haut) est à 1770Hz, le filtre précédent à 840Hz, etc. Ceci est valable pour les bandes critiques et les ERB (fréq. centrales différentes pour ces dernières).

Les ERB (échelle en « Cams », par opposition aux « Barks ») sont un peu plus étroites que les bandes critiques, notamment dans les aigus:

BC, ERB et 1/3 d'octave. XD 2012.

Pour une revue détaillée du concept de « filtres cochléaires » et de leurs propriétés (la machine humaine et son oreille en particulier sont incroyables…), la dernière édition de Psychology of Hearing de BCJ Moore est extrêmement détaillée, très didactique et progressive dans l’approche de concepts psycho-acoustiques pas toujours évidents (il appelle ça « Introduction » mais ça fait plus de 400 pages…). Vous trouverez également dans ce document libre (p. 421 à 427) divers développements sur les BC et ERB.

Donc lorsque l’on utilise le TEN à 70dB, il s’agit donc de 70dB dans chaque ERB, d’où le niveau ressenti: fort !

Le but décrit par Moore avec l’utilisation du TEN est d’éviter « l’écoute hors fréquence » (« Off Frequency Listening »). En présumant qu’une zone cochléaire est « morte » selon les critères décrits plus haut, l’augmentation du niveau du son pur de test entraîne un « pattern d’excitation » qui s’élargit sur la membrane basilaire, permettant au final à des cellules cilliées situées plus loin de la zone testée, de « répondre » à la place de la fréquence testée. On obtient alors un « faux-positif » audiométrique faisant penser à une perception réelle dans la zone. En réalité, le patient aura perçu un stimulus plus large bande (type bruit filtré), mais pas le son pur envoyé.

Le but du TEN-Test est donc d’utiliser un bruit masquant (le TEN), étudié spécifiquement pour donner la même intensité de masque dans chaque ERB. En présence du bruit masquant, les seuils doivent donc « tomber » au niveau du bruit puisqu’en saturant chaque ERB, il empêche « l’écoute hors fréquence ». Et ça fonctionne (l’égalisation du seuil au niveau du TEN), validant au passage de manière indirecte le concept d’ERB face au concept de bandes critiques.

Imaginons maintenant qu’une zone cochléaire ne possède plus de CCI. Nous testons (sans bruit masquant) en augmentant le signal de test, le pattern d’excitation augmente et les régions « saines » les plus proches finissent par répondre. Faux-positif. Le re-test en présence du TEN empêche la détection hors fréquence: le seuil masqué « tombe ». Exemple (réel, on en reparle plus bas):

 

TEN-Test
TEN-Test 70dB/ERB

 

Sans masque, le seuil de ce patient est représenté par les croix. Le TEN est ensuite appliqué à 70dB/ERB. Les fréquences 500 à 1000Hz tombent à 76 et 74dB HL, la fréquence 1500Hz tombe à 80dB HL (TEN + 10dB). La fréquence 2000Hz tombe à 86dB HL (TEN + 16dB). Les fréquences 3 et 4KHz ne « bougent » pas (mais elles auraient pu…).

B.C.J. Moore défini le critère de zone morte ainsi:

  • Pour les seuils dans le calme (sans TEN) inférieurs au TEN (ici, inférieurs=meilleurs que 70dB, donc de 500 à 2000Hz compris): Zone Morte Cocléaire (ZMC) si le « seuil masqué » est au moins 10dB au dessus du seuil « non-masqué » et 10dB au-dessus du bruit. Ici, le 1500Hz est « limite » et le 2000Hz est « positif » (ZMC @ 2KHz).
  • Pour les seuils dans le calme (sans TEN) supérieurs au TEN (ici le 3 et 4KHz): ZMC si le « seuil masqué » est juste supérieur au « seuil non-masqué » (ici si le 3KHz était passé de 86dB à 88dB HL et le 4K de 98 à 100dB HL). En réalité, il est conseillé dans ce cas d’utiliser pour ces deux fréquence un TEN plus élevé (80dB/ERB) pour voir si l’on obtient un décalage plus important des seuils masqués…
Et donc dans ce cas, on utiliserait uniquement la bande jusqu’à 1500Hz pour corriger, toute information apportée à partir de 2000Hz étant jugée inutile, voire nuisible à l’intelligibilité.
Voir pour plus de détails le PHONAK Focus 38 (PHONAK fait des trucs très bien 😉 )sur le sujet.

« Mais ça, c’était avant… » (Nous interrompons notre programme par une page de pub !).

Le TEN-Test est facile et rapide à administrer. Ses conclusions, binaires (Mort/Pas mort). Une littérature surabondante sur le sujet a été produite ces dix dernières années. Passé la première période de doute sur les résultats du test, de nombreux audiologistes ont tenté de dégager une règle d’amplification pour les sujets présentant une ZMC ou un TEN-Test positif. La » règle du 1.7Fe » a semblé s’imposer: si une zone morte est dépistée à xHz (appelé Fe), la bande passante de l’amplification ne devra pas dépasser 1.7*Fe.

Cette règle (les anglo-saxons aiment bien ce genre de trucs…) se basait aussi sur des travaux ayant mis en évidence une dégradation de l’intelligibilité chez des patients présentant des ZMC et chez qui la bande passante d’amplification n’avait pas été réduite (Vickers, Moore, Baer, 2001).
Des études plus récentes, et notamment l’article de Cox et al. en 2011, tendent cependant à minimiser l’impact négatif de l’amplification HF chez des sujets présentant des TEN-Tests positifs dans ces régions cochléaires. Une amplification HF maintenue resterait bénéfique dans ces cas. Ces auteurs réitèrent d’ailleurs dans un article à paraître bientôt: il n’est pas si évident que la réduction de bande passante d’amplification soit une bonne solution lors de TEN-Tests positifs.
Un résumé de leurs articles est disponible sur le blog Starkey.

Alors quoi ?

On fait un TEN-Test, il est positif. Certains auteurs disent « Pas d’amplification sur une supposée ZMC ! » et d’autres « Allez-y. Au pire ça ne fera que légèrement baisser le confort, au mieux, améliorer l’intelligibilité ! ».

Faire ou ne pas faire de TEN-Test ? That is the question !

J’enfonce le clou: certaines équipes de neuro-physiologie françaises sont très dubitatives sur le résultat immédiat du TEN-Test et son interprétation très « on/off » si je puis dire.

Je m’explique. En reprenant le patient précédent (oreille gauche). Ce monsieur a été testé lors du premier RDV de bilan pré-prothétique. Donc TEN-Test douteux à 1.5K et positif à 2K. Puis ce patient a été re-testé après deux mois d’appareillage (et donc de stimulation):

Là, on ne joue plus: les carrés gris = premier test, carrés bleus = second test (post-app. 2 mois). Le 1.5K est passé « négatif », le 2K est passé « limite ». TEN-Test en gros « négatif », amplification jusqu’à 2.5/3K environ supportée sans aucun problème.

Certes, le premier TEN-Test aura permis de démarrer une correction réduite en bande passante et s’élargissant ensuite. Le second TEN-Test n’aura fait que confirmer une sensation d’utilité d’une zone qui n’avait plus été stimulée depuis bien longtemps, mais qui était dans une moindre mesure certes, fonctionnelle. Je ne suis pas neuro-biologiste, mais sans trop m’avancer, le premier TEN-Test aura certainement mis en évidence une désafférentation de cette zone cochléaire, et le second, l’effet de la simulation sur la même zone et au-delà. J’attends avec impatience l’audiologiste qui pourra mener un test/re-test en pré/post-appareillage sur un échantillon conséquent et significatif…

Le TEN-Test est aujourd’hui disponible en routine sur le Nouvel Aurical, Affinity, et c’est tant mieux. Il est un outil de diagnostique irremplaçable pour l’audioprothésiste, permettant un accompagnement progressif dans la correction. L’adaptation prothétique reprend tout son sens: un acte professionnel sur le long terme. Pas un « objet ». Mais il doit être interprété avec prudence, notamment sur des résultats peu marqués.

XD.

PS: @ Maëlgad: j’y aurais mis le temps, mais je n’avais pas oublié que je devais t’envoyer ces infos 😉

/Ma life, on/

Je vais au congrès (c’était moi le gars tout seul dans les allées 😉 ) et dans ma « sacoche cadeau », je trouve un AudioInfos n°170 avec l’article de Clément SANCHEZ « La mesure in-vivo et les appareillages ouvert« . C’est bien. Le lendemain de reprends le train. Le train c’est bien.

Oui, le train c’est bien.

Bref, surtout ça permet de rentrer chez soi…

… (si, si, ce post a un sujet !)… et surtout c’est le seul moyen de rentrer dans ma contrée éloignée, surtout qu’après 4h30 de train, j’ai une heure de voiture, 20min de mulet et deux kilomètres à pieds, vu que le mulet est syndiqué et qu’il veut pas faire plus que le trajet syndical, le c…

Bref, dans le train, vu que c’est long, je me dis que je vais lire AudioInfos, et là je tombe sur l’article de Clément, « bercé par le ron-ron de l’air conditionné » (ah, non, ça c’est de « Téléphone » !). Et là, révélation !! Je pense avoir la réponse à « Mais pourquoi quand je fais certaines mesures in-vivo, et souvent avec des AA open ou sur des embouts à gros évents, mon ISTS est « pourri » ?

Le train, c’est long, et on a vraiment le temps de s’en poser des questions existentielles…

/Ma life, off/

Et bien, lisez l’article de Clément, et vous saurez. Vous saurez que votre meilleur allié, le micro de référence, est votre pire ennemi potentiel.

Parce que lors de l’utilisation de signaux fluctuants en intensité (L’ISTS par exemple), le micro de référence est étalonné une seule fois avant chaque (ou les) mesure(s), puis coupé ensuite pour ne pas interférer sur le niveau d’émission fluctuant. Le problème, c’est que lors d’un appareillage « ouvert » et même dès 2mm de diamètre d’évent, lors de cette précalibration (le grésillement avant l’émission du signal), si l’aide auditive n’est pas arrêtée, le signal amplifié ressortant du conduit risque de perturber la calibration du micro de référence, et donc le niveau ou l’équalisation en fréquence de l’ISTS. D’où un son distordu, ou une intensité d’émission peu réaliste.

Regardez ces deux mesures (j’ai viré l’analyse percentile de dynamique pour ne garder que le niveau de spectre à long terme):

 

La courbe rouge a été obtenue avec ISTS 65dB SPL d’émission, sans utiliser la fonction « calibrate for open-fit », la verte en activant cette fonction.

De quoi s’agit-il: dans ce cas précis, il ne s’agit pas d’un appareillage ouvert, mais d’un embout vieillot avec évent 1mm mais certainement effet d’évent plus important. Il y a fuite de l’amplification HF vers l’extérieur, donc vers le micro de référence.

  • Dans la première mesure, lors de la précalibration (le chirp noise avant émission du signal), l’aide auditive était en marche, et le micro de réf. a capté la fuite, d’où une mesure faussée (rouge), et un son avec distorsions: le micro de référence a été influencé par la fuite des HF, et a baissé en conséquence le niveau d’émission, avec détérioration du signal en prime.
  • Dans la seconde mesure, la fonction « calibrate for open fit » a été utilisée. L’aide auditive était à l’arrêt, et la précalibration a eu lieu avec émission d’une seconde de l’ISTS. L’aide auditive a ensuite été rallumée, le micro de réf. est resté éteint mais n’avait pas été perturbé par la fuite lors de la précalibration. D’où un son vraiment meilleur (croyez-moi) et un niveau de sortie (REAR) très différent (je jure que je n’ai pas triché !).

Merci, s’il passe par là (il rôde le soir…), à Clément SANCHEZ de nous expliquer ça mieux que moi, et de donner également aux possesseurs du « Nouvel AURICAL » la recette chez eux.

Donc: évent de 2mm et plus = Open REM ! Ces fonctions ne sont pas des gadgets (ce que j’ai cru avant ma « révélation Clément »). L’amélioration exceptionnelle des anti-larsen ces dernières années ne doit pas nous faire oublier que ce n’est pas parce que ça ne siffle pas, que ça ne fuit pas…

Alléluia !!! Noël ! Joie ! SNCF !

MAJ: open… mais pas que !!

Sur un appareil surpuissant d’une marque Helvète (il y en a deux, pas compliqué !), 125 voire 130dB SPL au tympan, forcément, un embout même très étanche (jamais plus de 40dB d’atténuation) laisse passer une majorité de l’amplification. L’anti-larsen fait tellement bien son travail que ça ne siffle pas. Mais ça ne veut pas dire que ça ne fuit pas:

La courbe en gras a été obtenue sans éteindre l’appareil lors de la pré-calibration de l’ISTS. La fuite acoustique lors de l’émission du chirp d’équalisation a perturbé le micro de référence, qui a abaissé son niveau dans les zones de fuite les plus importantes, ce qui au final a donné une mesure faussée.

La courbe fine avec un protocole de précalibration « Open fit », l’appareil était éteint, le micro de réf. n’a pas été perturbé. Mesure exacte.

En conclusion: la méthodologie de pré-calibration « open fit » n’est pas que pour les appareillages open, mais par extension, toutes les MIV avec AA possédant un bon anti-larsen et dont la puissance est susceptible d’être captée par un moyen ou un autre par le micro de référence.

Help !

Je ne taris pas d’éloge pour le logiciel d’OTICON dénommé très intelligemment GENIE ! (hum, hum…). Hélas, j’ai relevé un petit bug (de rien du tout, à moins que je n’ai pas tout bien compris depuis le début ;-))… En effet, le fait de mesure le REUG du client produit une courbe RECD… Exemple :

Vous remarquerez que la première étape se déroule correctement puisque que les données mesurées sont importés directement via le module de mesure REM. Etrangement, la mesure RECD apparaît alors qu’aucune mesure aux inserts n’a été effectuée…

De plus, l’encoche qui apparaît est signe d’un problème d’insertion des inserts (manque de profondeur dans l’insertion de la sonde)… glups.

Help, quelqu’un a-t-il compris pourquoi (est il si méchant ;-)) ? Alors vrai bug ou mauvaise compréhension de la mesure ?

Ah oui, j’utilise AURICAL+, merci d’avance

Merci à mon ami Clément SANCHEZ, de la société otometric otometrics (il ne faut pas oublier le « s »), qui nous envoie une vidéo, venue tout droit des « states », sur les PMM*. Otometrics propose via AURICAL FREEFIT™ différentes mesures du CAE avec ou sans appareils auditifs, de façon à valider les réglages des appareils auditifs et de visualiser via une carte de la dynamique auditive résiduelle le positionnement acoustique des différents sons de la vie quotidienne, y compris la voix !

Au passage, OTOMETRICS propose un channel sur youtube : http://www.youtube.com/user/OtometricsTV

Bonne année audiologique !

* PMM : Potentiels Microphoniques

Un petit message de soutien de la part de tous nos lecteurs pour que tu continues à nous abreuver de ton savoir de tes tatonnements sur la RECD, l’in-vivo et tutti quanti ! Et quelques questions aussi ! j’avoue humblement quelque fois avoir des questions et le temps n’aidant pas, je ne commente pas ! Alors voici un question réponse (en décalé) :

SG : Alors pour commencer (comme ça paf !) et si je te suis bien, tu proposes d’utiliser systématiquement la RECD au détriment de la mesure in vivo classique ? quels sont les avantages ?

XD : Non, nous faisons RECD ET in-vivo !!! (ceinture plus bretelles ?). Je t’explique: nous mesurons nos seuils aux inserts EAR 5A. Les inserts ont pas mal d’avantages (isolations aux bruits extérieurs, transferts trans-crâniens plus limités, etc…) mais surtout, comme ils sont étalonnés sur coupleur 2cc; et tu sais que le RECD est la différence entre le niveau dans le coupleur et celui dans l’oreille, alors la mesure du RECD nous permet, en gardant la même mousse, de savoir en dB SPL au tympan quel est le niveau qui a fait répondre « oui » à un patient. Le RECD est donc utilisé ici pour construire le SPLoGramme et avoir des cibles en dB SPL au tympan mesurées et non statistiques. Mais on pourrait utiliser les RECD statistiques des formules de mesure, ça collerait déjà pas mal.

Le RECD pourrait aussi servir à « simuler l’oreille au coupleur » en renseignant le coupleur sur les niveaux mesurés in-vivo, mais ce n’est pas le but premier recherché, même si cette démarche est utile avec des enfants chez qui la MIV est impossible.

Les logiciels font ensuite (devraient faire…): SPL tympan = HL + RETSPL EAR 5A + RECD , c’est automatique si tu fournis HL et RECD. Mais si tu ne fournis que les données audiométriques HL (sans avoir mesuré de RECD), les logiciels appliqueront un RECD statistique en fonction de l’âge, et même dans certains cas en fonction de leurs propres mesures en labo (avec effet d’insertion, évent, etc…).

Mais quand on travaille aux inserts, il faut SURTOUT dire à tous les logiciels et au REM que les seuils sont issus d’inserts, car les dérivations sont très différentes selon qu’il s’agit du casque ou d’inserts.

Pourquoi les inserts ? (question que tu n’as pas posée 😉 )

Car les « dérivations HL–>SPL tympan », c’est à dire les stats de conversion HL–>SPL de NAL ou DSL, pour les casques, bof…

Je m’explique: en fouillant un peu, on s’aperçoit que plus le « coupleur d’étalonnage » est grand (env. 6cc pour le casque), plus le niveau estimé au tympan en dB SPL sera TRES aléatoire, car la variabilité inter-individuelle est énorme (et je parle d’adultes là… tu imagines les enfants !). Et pour le casque il n’existe que difficilement des tests permettant de savoir si xdB HL sont émis par l’audiomètre, quel est le niveau en dB SPL résultant au tympan: seule une mesure, la REDD, permettrait ceci. Le matériel est rare, la procédure de mesure, un peu délicate…

Pour l’insert (calibré sur 2cc), c’est donc un volume résiduel plus petit, donc un risque de variabilité plus faible. Et en tout cas, si vraiment on voulait être précis, il est plus courant (et aisé ?) de mesurer un RECD qu’un REDD…

Tout ça pour dire que faire de la mesure in-vivo c’est bien, mais ce n’est pas suffisant en soi si on ne connait pas précisément en dB SPL en fond de conduit ce que perçoit le patient. Et je pense que l’audiométrie aux inserts, qui ne change finalement pas grand chose à nos habitudes, permet plus de précision dans ce sens.

J’enfonce le clou: par exemple, DSL dit « préférer » (et NAL aussi d’ailleurs…) les inserts. Mais on les comprend bien, car dans dans le cas d’une audiométrie faite au casque:

  • NAL va passer en dB SPL par la formule SPL tympan = HL + REDD. Ce REDD est statistique (pages 18 et 57), propre au NAL, mesuré sur x patients (en espérant que le votre soit dans la moyenne !!).
  • DSL va passer en dB SPL  par SPL tympan = HL +RETSPL (de HL à SPL pour oreille artificielle) + Coupleur 6cc au tympan. La dernière valeur (coupleur 6cc au tympan) est le résultat d’une étude de Cox en 1986 portant sur 5 femmes et 5 hommes… pas beaucoup !

Le casque est « historiquement » ancré dans les habitudes, mais l’insert serait plus approprié pour l’audio, qui lui, est plus intéressé par le niveau en fond de conduit.

Je reviens juste sur le RECD: utile ou pas ? Fiable ? « Répétable ? Symétrique ? Munro vous dira tout !

Donc le RECD ne sert QUE si tu mesures tes seuils aux inserts, faut-il le rappeler.

On peut aussi mesurer le RECD avec l’embout (HA1 ou HA2 embout) pour simuler au coupleur le comportement in-vivo (pour les enfants). Je ne le fais pas pour les adultes. Thierry RENGLET a fait une présentation au congrès 2010 sur toutes les façons d’utiliser audiométrie aux inserts et le RECD (pages 78 à 83).

Note: sur Aurical, tu peux directement mesurer en dB SPL au tympan par le ME-intra ou inserts EAR… très classe ! Il faut le redire aux possesseurs d’Aurical qui font de la MIV: c’est un des rares matériels disponible en France à pouvoir mesurer directement en SPL fond de conduit (/page pub off/).

SG : J’avoue humblement que j’ai des difficultés quelquefois à évaluer les différences techniques dues à l’usage de l’ISTS (que j’utilise systématiquement, c’est logique ;-)) et des sweep tonaux. Quel est l’avantage à utiliser un glissement fréquentiel ?

XD : l’ISTS permet de ne pas désactiver les RB et autres systèmes sur les AA. A l’atelier du congrès, j’avais montré le comportement en sweep et à l’ISTS d’un appareil: +15dB de gain à l’ISTS avec certains appareils récents et orientés détection de la parole. Ca permet aussi de faire quelque chose de didactique aux gens: « voici les consonnes sifflantes…que vous n’entendez pas ! et les voyelles, etc… ». Et enfin, avec de tels signaux, l’audio peut « voir » à quel point la parole est quelque chose de ténu, fluctuant, etc… et à quel point la moindre baisse d’audition prive une personne très rapidement d’informations vers le 6KHz, ou de bas niveau.

Quand j’entends parler de bandes passantes jusqu’à 6, 8 ou 10KHz, je rigole doucement ! Avec l’utilisation de signaux vocaux tel l’ISTS en MIV, si le 4KHz passe, c’est déjà bien… Et ce n’est pas un argument « bidon » que de dire aux gens « Appareillez-vous le plus tôt possible » car quand tu utilises la voix comme signal de test, tu t’aperçois vite que le meilleur appareil, c’est l’oreille pas encore trop dégradée !

SG à XD : MERCI !

XD à SG : PAREIL !

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel