You have activated a Bronze+ WP Symposium feature, but you have not entered your Activation Code. Get one on the Membership page on the WP Symposium website.

La troisème dimension (presque…)

Written by xavdelerce on . Posted in Affinity, Astuces sur les appareils, Chaînes de mesure, Fonix, La compression, mesure in-vivo

En audioprothèse, nous nous sommes longtemps contentés d’un affichage en « 2D », c’est à dire Gain/Fréquence ou Niveau de sortie/fréquence.

Exemple classique:

noeud 6K

Les spécialistes reconnaitront le type de mesure… et son erreur !

Ces représentations graphiques étaient valables pour des signaux stables en intensité à une fréquence donnée, c.à.d. ne fluctuant pas au cours du temps. Mais intégrer la « troisième dimension », le temps, ne rendrait pas les choses très faciles non plus; nous aurions accès aux variations temporelles, en perdant les informations spectrales (ici le famous fabricant 1…):

AC9_ISTS_OVG_RSB0_temporal domain

L’utilisation de la parole comme signal de test, fluctuant en intensité, change la donne. Pour s’en convaincre, la mesure du premier graphique à été réalisée avec un signal de parole (l’ISTS). Ce signal, normalisé, présente des fluctuations d’intensité de plus de 30dB. La mesure du graphique ci-dessus également avec le même signal. Nous avons donc deux représentations différentes qui présentent toutes deux des informations intéressantes, mais chacune incomplète.

Comment concilier spectral et temporel en quelque sorte ? Comment obtenir la classique représentation spectrale mais en intégrant le traitement des fluctuations d’intensité par l’aide auditive ?

Les fabricants de matériel de mesure nous apportent aujourd’hui des réponses à ce problème.

En reprenant le premier graphique: la mesure de l’amplification (en gain) par l’oreille nue donnera un gain identique (le REUG) quelle que soit l’intensité de la voix « normale ». La voix « moyenne » (prenons 65dB SPL) peut fluctuer entre 40 et 65dB SPL à 2KHz:

Capture2

L’ensemble Torse/Tête/Pavillon/Conduit présente une amplification linéaire pour les niveaux d’entrée, c’est à dire que les niveaux faibles (vallées) et plus forts (crêtes) sont autant amplifiés les uns que les autres. Donc toujours dans cet exemple à 2KHz, la dynamique d’entrée du signal est de 25dB, en fond de conduit on retrouve bien la même dynamique, on peut considérer que l’on a un facteur de compression de 1.0 (amplitude du signal d’origine = amplitude en fond de conduit).

Dans quel cas aurions-nous une altération ? lors du passage dans une aide auditive, typiquement.

Imaginons une aide auditive dont un point de compression serait à 30dB SPL et un second à 55dB SPL, linéaire de 30 à 55dB SPL et de facteur de compression 1.3 de 55 à 75dB SPL par exemple, lorsque que l’on utilise des systèmes capables de vous donner le gain pour des régions spécifiques en intensités (les percentiles d’intensité), on obtient non pas la première courbe, mais celle-ci (attention ça pique !):

ISTS Gain Fonix

Difficile à croire, mais cette mesure de gain est faite avec le même signal que le premier graphique (l’ISTS), mais passé par une aide auditive, puis analyse séparée pour chaque percentile d’intensité.

La courbe verte est le « LTASS », niveau à long terme moyenné sur le temps de mesure (20 sec. ici). Cette courbe verte correspond à la courbe rouge du premier et du troisième graphique.

La courbe jaune correspond à l’amplification des 30èmes percentiles, c’est à dire en gros, des niveaux environ 18dB moins élevés que le niveau moyen (le LTASS), ou autrement, des niveaux dépassés 70% du temps, que l’on nomme habituellement « les vallées » de la parole.

La courbe bleue correspond à l’amplification des percentiles 99 d’énergie, les niveaux les plus élevés de la voix moyenne, ses crêtes, les niveaux atteints et dépassés 1% du temps.

Que constate t-on: que les vallées de la parole sont plus amplifiées que ses niveaux moyens (en rouge et en vert) que ses crêtes. Si on considère la parole « non-traitée » (comme les oranges après récolte…) comme ayant une dynamique standardisée de 30dB à laquelle on attribue un facteur 1.0 de compression (non comprimée donc), dans ce cas mesuré ici par la chaîne de mesure, les « vallées » ont été remontées et les crêtes, lissées. Sa dynamique de sortie est donc réduite (ce qui est quand même bien dommage pour de la voix moyenne) et donc à la louche elle subit une compression de 1.3 jusqu’à 2KHz dans l’exemple mesuré par la Fonix ci-dessus.

En connaissant donc le gain appliqué à chaque tranche de percentiles d’énergie, vous pouvez alors avoir une action sur une zone de compression bien définie:

  • l’expansion et son mystérieux et jamais renseigné point d’enclenchement…
  • la première compression en entrée (premier TK) qui peut être trop haut (vallées échappant à l’amplification) ou trop bas (plus rare) comme l’exemple ci-dessus
  • la seconde compression au TK mal placé (quasiment pas réglable) ou tranche trop comprimée (percentiles 65 à 99 trop comprimés)
  • Un AGCo trop bas et qui lisse tout

Beaucoup de chaînes de mesure vont aujourd’hui vous donner ces renseignements soit sous la forme d’un gain appliqué à chaque niveau (la Fonix ci-dessus), soit sous la forme d’un taux de compression:

Capture

Ce taux varie de zéro et quelques (rarement sous 0.8) si les niveaux bas ne sont pas assez amplifiés (le plus souvent) à plus de 1 (rarement plus de 1.8) si les niveaux de crête ou les niveau moyens (percentiles 65) sont réduits par la compression ou un système de compression en sortie très agressif et très (trop ?) bas.

Il est très hasardeux de comparer ces taux compression de dynamique aux taux de compressions affichés dans les logiciels de réglage, bien qu’il y ait évidemment un rapport. Sachez cependant qu’il ne serait pas franchement normal de trop comprimer la dynamique de la voix moyenne.

On est donc passé en quelques années d’un affichage en « 2D » (gain ou niveaux de sortie moyen/Fréquence) à un « presque 3D » dans le sens où les systèmes de mesure nous donnent une indication sur la façon dont le signal a été traité au cours du temps, dans ses fluctuations.

Une petite gymnastique de lecture et d’interprétation, mais au final, beaucoup plus d’informations à disposition et d’actions possibles sur les réglages.

Une dernière chose: bonne année 2014 à tous !

Ratio de compression in-vivo

Written by xavdelerce on . Posted in Affinity, Chaînes de mesure, La compression, mesure in-vivo

Une difficulté rencontrée lors de la mesure in-vivo est de faire coïncider le ratio de compression affiché par le logiciel de réglage et celui, réel, mesuré in-vivo.

Si vous effectuez une mesure in-vivo avec un signal de balayage, une mesure à 65 puis à 75dB SPL vous donnerons une lecture quasi-immédiate de CR par un calcul simple. Mais il est bien dommage, voire impossible d’effectuer aujourd’hui une MIV avec un tel signal. L’ISTS est pour cela hautement recommandé.

Le problème avec un signal de parole, fluctuant par nature, est qu’il devient très délicat d’associer le CR affiché et l’action (bonne ou mauvaise) de ce taux de compression sur le signal vocal. En effet, si le logiciel dit CR=4.0 entre 65dB SPL et 80dB SPL, malgré l’énormité d’une telle compression, il y a de fortes chances que la « voix moyenne » (65dB SPL) et même la voix forte (75dB SPL) ne soient pas impactées par cette compression. Pourquoi ? car même à niveau « moyen », l’énergie par bande de tiers d’octave d’un signal vocal ne dépasse pas 60dB SPL, y compris en crêtes:

Une telle compression (CR de 4.0 à TK=65dB SPL) n’aurait quasiment aucun effet à voix moyenne et à voix forte. Les points d’enclenchement nécessaires à une action sur un signal de parole sont situés entre 30 et 60dB SPL.

Cette difficulté de relier « CR affichés » et « CR réels » lors de l’utilisation d’un signal vocal avait été exploré dans ce très bon article.

Mais cela n’empêche pas la dégradation de la dynamique vocale par les compressions de bas niveau d’entrée et autres expansions dont on ne sait en général pas où elles agissent… Si l’on considère la dynamique vocale non-déformée, on retrouvera une valeur d’environ 30dB, correspondant au LTASS +12dB et LTASS -18dB:

Tout facteur de compression excessif positionné à un TK de 55dB SPL aurait tendance à dégrader les crêtes du signal, et à l’opposé, tout TK de la première compression, situé trop haut (ex: 40dB SPL) aurait pour conséquence de ne pas amplifier les « vallées » de la parole.

De retour du congrès, j’ai donc découvert la possibilité, en temps réel, d’analyser la facteur de compression sur la dynamique de la parole, le tout in-vivo.

Du percentile 30 (vallées) au percentile 99 (crêtes), la chaîne de mesure Affinity calcule en temps réel le ratio de compression, et dans chaque bande de tiers d’octave vous affiche le CR:

Cette analyse est intéressante pour les niveaux élevés de parole (ex: 75dB SPL) et peut être effectuée, au choix, sur la dynamique perc. 30/perc. 99 ou bien perc. 60/perc. 99:

Le taux de compression utilisé reflète donc le traitement du signal appliqué mais peut prendre des valeurs inhabituelles: par exemple, un CR de 0.85 reflèterait un premier TK trop haut, une mauvaise amplification des informations de faible niveau (percentiles 30). Un ratio de compression de 1.0 indique donc une dynamique vocale préservée (30dB en entrée, 30dB en sortie amplifiée). Il va sans dire que cet affichage est TRES intéressant lorsque l’on utilise des appareils censés utiliser un « gain linéaire flottant ». S’il est vraiment « linéaire » ce « gain flottant », la dynamique vocale ne devra pas être détériorée, donc Affinity devrait afficher un CR de 1.0, ou en tout cas décorrélé du CR « classique » ou « affiché »…

Cette fonctionnalité est présente dans la version 2.3 d’Affinity et peut être réalisée in-vivo (exemple précédent) ou au coupleur (exemple ci dessus). Elle correspond à la norme IEC 60318-5.

Je trouve cette mesure extrêmement utile: au-delà de s’assurer qu’il y a « in-vivo » une amplification suffisante, nous allons pouvoir vérifier qu’il n’y a pas de dégradation de la dynamique du signal et que les algorithmes nous assurant un traitement spécifique pour la parole, le font bien.

Pour les puristes, cette version d’Affinity, par simple clic-droit sur le « label » (niveau) de la courbe dans le bandeau de droite, vous donne accès à l’analyse statistique complète des niveaux d’énergie du signal au cours du temps. Preuve en est que nous avons à disposition de bien beaux joujoux !

On progresse toujours…

Expansion, piège à sons…

Written by xavdelerce on . Posted in Affinity, Chaînes de mesure, Expansion, La compression, Marques, Réglages des appareils

Vous m’excuserez de ne pas vous parler du Sonalto qui bientôt occupera 95% des posts de ce blog, ni de programmation neuro-linguistique, de consolidation de chiffre d’affaire, etc. Je suis juste un audio…

 

Je pense que si on devait décerner la palme du réglage  » presse-bouton  » dans le genre  » j’appuie-là-et-on-verra-si-c’est-mieux-le-bruit-de-vo’t-frigo-dans-une-semaine-ma-bonne-dame « , l’expansion serait en bonne position de tête !

Avec l’apparition des méthodologies non-linéaires et surtout des anti-larsen performants, il a été possible en théorie (et en pratique), de donner une amplification très importante à faibles niveaux d’entrée. Tellement importante que le risque, comme tout excès, est de noyer le malentendant dans un « brouillard bruité » du type « la VMC, le frigo et la route à 200m ». Alors l’idée géniale a été de proposer un « réglage » d’expansion. Quand je dis réglage, je suis gentil, car souvent on a on/off, 0/1 et même 0/1/2/3 (soyons fous !) ou alors des trucs non traduits du type soft sounds reducer (là forcément en anglais ça marche mieux).

En plus, pour faire simple intellectuellement, off ou 0 ça veut dire au max = le plus de sons faibles !

Techniquement, l’expansion consiste à ne pas amplifier (ou moins amplifier) les sons en dessous d’un certain niveau sonore:

Principe du réglage d'expansion

Effectivement, ça permet aussi de ne pas trop faire entrer dans le circuit divers bruits de fond électroniques tel que celui du microphone.

Le problème comme toujours avec ces systèmes fermés, c’est que le fabricant (pas tous, mais la majorité) ne communique pas sur le fameux « TK bas » ou premier point d’enclenchement de cette expansion. Sur le graphique ci-dessus, il est fixé à 25dB HL, donc on peut imaginer que c’est le seuil audiométrique qui va dicter ou non son enclenchement. 25dB HL, déjà c’est un peu flou: à quelle fréquence ? pareil à toutes les fréquences ? (ça a son importance), dans quelle mesure ? (plus rien après le TK ou un peu moins de gain?) etc. Tout ça pourrait nous intéresser, nous, les audios (et oui, on ne vend pas encore du Sonalto !). Pourquoi ? d’abord par curiosité intellectuelle, et puis même bas, qui dit que ce « TK bas » n’a pas d’influence sur la perception de la parole ?

Si on prend un appareil lambda par exemple, on visualise très légèrement moins de gain à 45dB SPL d’entrée qu’à 65dB SPL:

On peut penser que le point d’expansion est « quelque part » entre 45 et 65dB SPL que que sous ce point d’expansion, le facteur de compression est faible (pas trop de différence entre les deux courbes de gain). On reste quand même dans le flou.

Prenons une autre aide auditive avec un point d’expansion inconnu et un comportement sous le TK lui aussi inconnu. La courbe suivante de niveau de sortie in-vivo (REAR) est mesurée pour un signal d’entrée vocal de 65dB SPL, avec un réglage linéaire sous le premier TK (expansion off ou 0):

REAR 65dB SPL ISTS EXP "off"

Sachant que l’appareil est réglé de façon quasi linéaire, la zone verte claire représente la ligne de crêtes (percentile 99: dépassé 1% du temps) et en partie basse la ligne de « vallées » (percentile 30: dépassé 70% du temps). Cette analyse percentile est censée représenter (si l’appareil est linéaire) une dynamique comprise entre -18 et +12dB par rapport au spectre à long terme (courbe verte). Avec expansion off, c’est bien le cas: la dynamique dans la partie bas niveau (vallées) est respectée.

Si par contre on met le réglage d’origine, à savoir expansion on, donc réduction de gain dans une mesure inconnue, sous un niveau inconnu, on obtient:

REAR 65 expansion ON

Evidemment, les niveaux de crêtes ne sont pas altérés, le spectre à long terme quasiment pas (ce qui aurait pu), mais les bas niveaux « bavent » (je n’ai pas d’autres mots). La dynamique inférieure n’est plus de -18dB mais descend à -25dB, voire plus.

Qu’est-ce que cela signifie ? Les informations de parole passent en permanence au-dessus et en-dessous d’un TK bas vraisemblablement fixé trop haut (45dB SPL ?), et surtout, sous ce TK, la compression est forte. L’appareil s’arrête quasiment sous ce point d’expansion. Ce qui partait à l’origine d’une volonté de protection contre une amplification trop importante des sons faibles à un impact sur la parole à niveau normal: les informations de bas niveau sonores de la parole ne passent plus au-dessus du seuil. On imagine pour une émission plus faible, à 55dB SPL par exemple.

Pour le malentendant, cela se traduit par par des micros ruptures d’amplification selon que l’énergie est sur ou sous ce fameux point d’expansion. Certains le décrivent comme de brusque éclats (augmentation soudaine) de voix.

Même à niveau « normal » (63dB SPL par exemple), le spectre moyen de la parole n’atteint jamais 63dB SPL, mais souvent nettement moins:

Niveaux par bandes d'octaves de la parole à 63dB SPL

L’addition des bandes donne 63dB SPL, mais dès 1600Hz, on passe sous 45dB SPL. Certaines informations de la parole sont extrêmement faibles, et on ne parle que de niveau normal…

Les points d’expansion se doivent donc d’être judicieusement placés, et surtout, le comportement de l’appareil sous ce point est important. Il est dommage que les logiciels et les fabricants ne nous donnent pas plus d’informations sur ces aspects.

Facteurs de compression théoriques (logiciels) et réels (in-vivo)

Written by xavdelerce on . Posted in Appareillage ouvert, La compression, mesure in-vivo

Ce billet fait suite aux observations de Cl. GEORGET, audioprothésiste, fournisseur de l’article dont il est fait mention.

Lors de l’adaptation d’une aide auditive, le logiciel fabricant vous donne le facteur de compression dans un canal donné, ce dernier variant en général entre 1.0 et 5.0 ( !!), pour ce qui concerne l’équivalent numérique d’un AGCi.

Chez certains fabricants, deux facteurs de compression (eq. AGCi) sont donnés, un pour les niveaux faibles d’entrée, l’autre pour les niveaux moyens.

Or, jusqu’à ce jour, je ne me préoccupais pas (trop) des niveaux logiciels, mais un rapide calcul des niveaux de sortie in-vivo, sachant que mon signal d’entrée varie de 50 à 75dB, me permettait d’approximer le facteur de compression que j’essaye personnellement de maintenir sous 2.0 dans la dynamique vocale ; les goûts et les couleurs…

Bref, Clément me dit : « Il y a désaccord fréquent entre la mesure en oreille réelle et le logiciel ».

Une recherche, en tombant sur un article de l’AJA (American Journal of Audiology), a effectivement apporté une réponse à cette constatation : les taux annoncés par les logiciels sont en général des taux de compression mesurés au coupleur ou sur Kemar, mais en tout cas, dans des conditions « fabricants » qui vont être parfois très éloignées de vos conditions individuelles.

Au moins trois facteurs influent sur le taux de compression « réel » (mesuré ou effectif in-vivo), c’est à dire que vous risquez avoir un taux de compression en général plus bas que ceux annoncés :

  • Le diamètre de l’évent (grande influence)
  • Le facteur de crête du signal utilisé pour mesurer (intervalle entre le niveau moyen et le niveau de crêtes)
  • La durée du signal de mesure

Je pense que les deux derniers facteurs sont à relativiser à ce jour, car à l’époque de cet article, l’auteur ne disposait pas de signaux vocaux « standardisés » tels que l’ISTS. Ce signal, fruit de la collaboration entre divers fabricants, possède des caractéristiques bien connues de facteur de crête, intervalles de silences, etc. Et aujourd’hui, beaucoup de fabricants testent leurs appareils avec ce signal. On peut dégager quand même quelques grandes lignes :

  • Plus le facteur de crêtes est élevé (dynamique du signal importante, comme l’ISTS), plus le facteur de compression réel sera bas. Si vous testez une aide auditive avec un signal à faible facteur de crête (bruit vocal ou balayage wobulé), le CR sera plus élevé.
  • Plus le stimulus est long, plus le taux de compression (CR) résultant sera élevé, cette condition annulant donc la première… mais il faut relativiser, car les signaux utilisés à l’époque par l’auteur étaient très artificiels.

Si les fluctuations liées au type de signal sont un peu obsolètes, le point sur le diamètre des évents me paraît nettement plus intéressant, car très d’actualité aujourd’hui avec le développement des appareillages « open » : plus le diamètre de l’évent augmente, plus le taux de compression réel in-vivo diminue par rapport à l’affichage logiciel, et ce quel que soit le signal.

Un exemple : avec une aération IROS (conduit quasi-ouvert), pour obtenir un facteur 2.0 de compression, il faudrait afficher 4.0 au niveau logiciel…

Voici la grille proposée par l’auteur, du taux de compression réel in-vivo en fonction du diamètre de l’évent (tous types de signaux confondus) :

CR théoriques et réels en fonction du diamètre de l'évent

On le voit, il est presque impossible d’atteindre des compressions de facteur 2.0 et supérieurs avec un appareillage totalement ouvert.

Ceci est illustré par cet exemple, aide auditive à écouteur déporté (RIC) sur dôme ouvert, le comportement réel de l’appareil et la prédiction du logiciel :

Taux de compression théorique et réel (in-vivo)

On a beaucoup parlé au dernier EPU de l’appareillage ouvert et de l’adaptation sur hyperacousies. Il est très clair que si notre but est de protéger des sons forts (ou moyens), il ne faut pas « ouvrir ».

Tout comme un appareillage ouvert ne permettra pas l’amplification des graves, il n’est pas fait non plus pour efficacement protéger…

Et un super appareil « open » avec tout plein de compressions sur tous les canaux, ça sert à quoi ?

En fait, je pense que tout le monde revient aux fondamentaux à savoir qu’un appareillage « open » n’est pas fait pour corriger les graves, mais pas non plus pour des dynamiques « pincées ». Si un nombre de canaux élevé se justifie pour la restitution des contrastes, ça s’arrête là…

Et dernière interrogation, je me demande si les fabricants capables de mesurer « l’effet d’évent » (par la calibration anti-larsen ou in-vivo), adaptent les taux de compression affichés à la mesure effectuée.

L’article de l’AJA en question (Real Ear Compressio ratios: the effects of venting and adaptative release time – T.W. FORTUNE – AJA – Vol. 6 – 1997).

Pour aller plus loin dans l’appareillage ouvert.

PS : merci Clément…

PS2 : un peu de pub. à Christian BROCARD (et son équipe), qui préparent un super atelier sur l’appareillage ouvert pour le congrès : encore un truc de plus à expérimenter !!!

Le seuil d’inconfort statistique : Pascoe a toujours raison !

Written by xavdelerce on . Posted in Audiologie, Audiométrie tonale, Audioprothese, BELTONE, BERNAFON, GN RESOUND, Investigations audiologiques, La compression, Le niveau de sortie Max., Marques, Mesure de la sonie, Méthodologie, OTICON, PHONAK, Réglages des appareils, SIEMENS AUDIOLOGIE

C’est l’histoire d’un « serpent de mer » de l’audioprothèse : les fabricants utilisent-ils les seuils subjectifs d’inconfort que nous prenons la peine de mesurer ?

Et je pense que beaucoup de monde a fait la même chose : saisir un audiogramme tonal à 60dB HL plat à droite, sans inconfort, et le même à gauche avec un SSI (Seuil Subjectif d’Inconfort) à 90dB HL sur toutes les fréquences. On rentre dans un logiciel d’adaptation, on choisi le même appareil des deux côtés, et on regarde ce qui se passe avec la formule par défaut du fabricant…

Et là, trois possibilités :

  • Aucune différence de réglages entre les deux oreilles (assez courant)
  • Aucune différence dans le réglage des compressions MAIS le niveau de sortie maximum, si le réglage existe, est corrélé au SSI (a tendance à se développer)
  • L’oreille présentant la dynamique réduite a des réglages adaptés en compression et niveau maximum de sortie (assez rare par défaut)

Donc on peut en déduire que majoritairement, les fabricants n’utilisent pas les seuils d’inconfort mesurés par les audioprothésistes, en tout cas pour leur calcul des compressions et autres points d’enclenchements.

Ce n’est pas tout à fait surprenant car la formule de calcul utilisée est souvent NAL-NL1 ou une adaptation « maison » de NAL-NL1. Or la formule australienne utilise un seuil d’inconfort statistique. Un peu vexant pour les audios qui pratiquent la mesure du SSI !

L’apparition de systèmes de gestion des bruits impulsionnels en entrée a modifié un peu cette approche puisque certains fabricants proposant ces systèmes proposent des « mix » entre un calcul des compressions basé sur la dynamique statistique et un MPO ou « pseudo-écrêtage » basé sur le SSI. C’est mieux, mais on ne nous laisse pas encore toutes les clés de la maison…

Par contre, il est toujours possible d’utiliser des formules de calcul intégrant le SSI mesuré dans le calcul des compression et MPO, c’est le cas de DSL I/O par exemple, souvent proposée par défaut lors des appareillages pédiatriques, bien qu’il ne soit pas évident d’obtenir un SSI avant 10ans.

Il faut reconnaître aussi que la mesure d’un seuil d’inconfort est très subjective (c’est le cas de le dire) : elle dépend presque autant du patient, de sa peur ou au contraire de sa bravoure (!), que du testeur et de sa limite posée (douleur ? limite du supportable ? réflexe cochléo-palpébral ?…). Pour ma part, après une consigne assez sommaire type « limite du supportable », je trouve que l’observation du visage est assez précise, et un re-test quelques années après donne souvent des résultats assez proches. Le seuil d’inconfort n’évoluerait donc pas trop avec le temps, ce qui n’est pas le cas du seuil de confort (que je ne mesure pas) mais qui semble évoluer à mesure que les patients nous demandent plus de gain « pour les voix », donc à niveau « moyen ». Ce fameux passage de courbes de transfert « concaves » à « convexes » qui rendait difficile il y a quelques années un renouvellement du Siemens Prisma 4D (courbes de transfert « convexes » à l’époque), et qui fait que les Widex sont très confortables au début (courbes de tranfert très « concaves ») mais un peu « mous » après quelques semaines (il faut redonner du gain à niveau moyen).

Mais le « grand maître » du seuil d’inconfort statistique est toujours sur son trône depuis les années 80 : c’est PASCOE la plupart du temps qui décide du seuil d’inconfort de votre patient. Ses recherches ont donné en 1988 des abaques de corrélation entre seuil d’audition et seuil d’inconfort par mesures de progression de la sensation sonore (tests LGOB). Et depuis, beaucoup de fabricants utilisent ces tables si vous ne rentrez pas de seuil d’inconfort, et même si vous en rentrez un d’ailleurs (pour certains) !!

Des études plus récentes ont affiné ce « seuil d’inconfort statistique » de Pascoe, et je suis surpris du « nuage statistique » dans lequel on fait passer ces droites de régression qui serviront de base à ces inconforts statistiques…

Et ces fameux « nuages statistiques », nous les voyons tous les jours : les patients sans aucun inconfort, ceux aux aigus insupportables, aux graves très gênants (ça arrive), etc… et pour des seuils HL finalement pas si éloignés. Alors au final, c’est vrai, il doit bien exister une « droite » qui passe par le centre de gravité de tous ces cas particuliers. Et ce que cherchent les fabricants qui utilisent ces statistiques n’est peut-être pas dénué de fondement : il vaut mieux une statistique 70% du temps juste plutôt qu’un inconfort 70% du temps mal mesuré (= aide auditive 100% mal réglée pour son porteur !).

Et si même, ne seraient-ce que 90% de nos évaluations du SSI étaient assez bonnes (pas moins bonnes que celles de Mr Pascoe en tout cas), je crois que de toutes façons nous n’avons rien à perdre à « individualiser » l’adaptation.

Vous trouverez en téchargement ici une étude sur l’utilisation des seuils d’inconforts saisis pour différents logiciels de réglages. Plusieurs choses ont été analysées: si un seuil d’inconfort est trouvé par le logiciel, l’utilise t-il pour le calcul des compressions ? juste pour le calcul du MPO/PC/SSPL90 ? pas du tout ? quelques surprises…

Article et étude rédigés conjointement par Thibaut DUVAL (pour l’étude des logiciels et tableau), Sébastien GENY et Xavier DELERCE.

Les commentaires récents

Frank

|

Awesome blog! Is your theme custom made or did you download it from somewhere?
A design like yours with a few simple tweeks would really make my blog stand
out. Please let me know where you got your design. Cheers

Lucille

|

The water park also has plenty of kid-friendly attractions like the « Bubble Up » inflatable bouncer and the tipping bucket, shallows and slides of the « Kids Park ».

This is also the Era where mammals started to appear in the oceans as
well. ATV camping survival does not need to be rocket science but like everything else not
being prepared can ruin a great adventure. Jurassic Park:
A combination of robotic puppets and computer-generated images enhanced the realism of this film.
However, to be clear, the video does not include footage
that will appear in the final film. Zion Narrows is a river gorge where the walls are only 24 feet apart and
over 1,000 feet high. If failure did not exist, and you only knew success, how would you know your were successful.
I used to think I was a good swimmer, till the undertow at
the beach in Copa dragged me down and out. – The artificial islands are one of
the most visited. The stacks here were formed by constant wind and tide erosion processes
against the limestone cliffs that occurred over millions of years.

homepage

|

Wonderful, what a weblog it is! This webpage gives
valuable data to us, keep it up.

cochonne mature

|

Voսs faîtes toujours ɗeѕ postes fascinants

Instagram @Audioprothese