Catégorie : La compression

Ce billet fait suite aux observations de Cl. GEORGET, audioprothésiste, fournisseur de l’article dont il est fait mention.

Lors de l’adaptation d’une aide auditive, le logiciel fabricant vous donne le facteur de compression dans un canal donné, ce dernier variant en général entre 1.0 et 5.0 ( !!), pour ce qui concerne l’équivalent numérique d’un AGCi.

Chez certains fabricants, deux facteurs de compression (eq. AGCi) sont donnés, un pour les niveaux faibles d’entrée, l’autre pour les niveaux moyens.

Or, jusqu’à ce jour, je ne me préoccupais pas (trop) des niveaux logiciels, mais un rapide calcul des niveaux de sortie in-vivo, sachant que mon signal d’entrée varie de 50 à 75dB, me permettait d’approximer le facteur de compression que j’essaye personnellement de maintenir sous 2.0 dans la dynamique vocale ; les goûts et les couleurs…

Bref, Clément me dit : « Il y a désaccord fréquent entre la mesure en oreille réelle et le logiciel ».

Une recherche, en tombant sur un article de l’AJA (American Journal of Audiology), a effectivement apporté une réponse à cette constatation : les taux annoncés par les logiciels sont en général des taux de compression mesurés au coupleur ou sur Kemar, mais en tout cas, dans des conditions « fabricants » qui vont être parfois très éloignées de vos conditions individuelles.

Au moins trois facteurs influent sur le taux de compression « réel » (mesuré ou effectif in-vivo), c’est à dire que vous risquez avoir un taux de compression en général plus bas que ceux annoncés :

  • Le diamètre de l’évent (grande influence)
  • Le facteur de crête du signal utilisé pour mesurer (intervalle entre le niveau moyen et le niveau de crêtes)
  • La durée du signal de mesure

Je pense que les deux derniers facteurs sont à relativiser à ce jour, car à l’époque de cet article, l’auteur ne disposait pas de signaux vocaux « standardisés » tels que l’ISTS. Ce signal, fruit de la collaboration entre divers fabricants, possède des caractéristiques bien connues de facteur de crête, intervalles de silences, etc. Et aujourd’hui, beaucoup de fabricants testent leurs appareils avec ce signal. On peut dégager quand même quelques grandes lignes :

  • Plus le facteur de crêtes est élevé (dynamique du signal importante, comme l’ISTS), plus le facteur de compression réel sera bas. Si vous testez une aide auditive avec un signal à faible facteur de crête (bruit vocal ou balayage wobulé), le CR sera plus élevé.
  • Plus le stimulus est long, plus le taux de compression (CR) résultant sera élevé, cette condition annulant donc la première… mais il faut relativiser, car les signaux utilisés à l’époque par l’auteur étaient très artificiels.

Si les fluctuations liées au type de signal sont un peu obsolètes, le point sur le diamètre des évents me paraît nettement plus intéressant, car très d’actualité aujourd’hui avec le développement des appareillages « open » : plus le diamètre de l’évent augmente, plus le taux de compression réel in-vivo diminue par rapport à l’affichage logiciel, et ce quel que soit le signal.

Un exemple : avec une aération IROS (conduit quasi-ouvert), pour obtenir un facteur 2.0 de compression, il faudrait afficher 4.0 au niveau logiciel…

Voici la grille proposée par l’auteur, du taux de compression réel in-vivo en fonction du diamètre de l’évent (tous types de signaux confondus) :

CR théoriques et réels en fonction du diamètre de l'évent

On le voit, il est presque impossible d’atteindre des compressions de facteur 2.0 et supérieurs avec un appareillage totalement ouvert.

Ceci est illustré par cet exemple, aide auditive à écouteur déporté (RIC) sur dôme ouvert, le comportement réel de l’appareil et la prédiction du logiciel :

Taux de compression théorique et réel (in-vivo)

On a beaucoup parlé au dernier EPU de l’appareillage ouvert et de l’adaptation sur hyperacousies. Il est très clair que si notre but est de protéger des sons forts (ou moyens), il ne faut pas « ouvrir ».

Tout comme un appareillage ouvert ne permettra pas l’amplification des graves, il n’est pas fait non plus pour efficacement protéger…

Et un super appareil « open » avec tout plein de compressions sur tous les canaux, ça sert à quoi ?

En fait, je pense que tout le monde revient aux fondamentaux à savoir qu’un appareillage « open » n’est pas fait pour corriger les graves, mais pas non plus pour des dynamiques « pincées ». Si un nombre de canaux élevé se justifie pour la restitution des contrastes, ça s’arrête là…

Et dernière interrogation, je me demande si les fabricants capables de mesurer « l’effet d’évent » (par la calibration anti-larsen ou in-vivo), adaptent les taux de compression affichés à la mesure effectuée.

L’article de l’AJA en question (Real Ear Compressio ratios: the effects of venting and adaptative release time – T.W. FORTUNE – AJA – Vol. 6 – 1997).

Pour aller plus loin dans l’appareillage ouvert.

PS : merci Clément…

PS2 : un peu de pub. à Christian BROCARD (et son équipe), qui préparent un super atelier sur l’appareillage ouvert pour le congrès : encore un truc de plus à expérimenter !!!

C’est l’histoire d’un « serpent de mer » de l’audioprothèse : les fabricants utilisent-ils les seuils subjectifs d’inconfort que nous prenons la peine de mesurer ?

Et je pense que beaucoup de monde a fait la même chose : saisir un audiogramme tonal à 60dB HL plat à droite, sans inconfort, et le même à gauche avec un SSI (Seuil Subjectif d’Inconfort) à 90dB HL sur toutes les fréquences. On rentre dans un logiciel d’adaptation, on choisi le même appareil des deux côtés, et on regarde ce qui se passe avec la formule par défaut du fabricant…

Et là, trois possibilités :

  • Aucune différence de réglages entre les deux oreilles (assez courant)
  • Aucune différence dans le réglage des compressions MAIS le niveau de sortie maximum, si le réglage existe, est corrélé au SSI (a tendance à se développer)
  • L’oreille présentant la dynamique réduite a des réglages adaptés en compression et niveau maximum de sortie (assez rare par défaut)

Donc on peut en déduire que majoritairement, les fabricants n’utilisent pas les seuils d’inconfort mesurés par les audioprothésistes, en tout cas pour leur calcul des compressions et autres points d’enclenchements.

Ce n’est pas tout à fait surprenant car la formule de calcul utilisée est souvent NAL-NL1 ou une adaptation « maison » de NAL-NL1. Or la formule australienne utilise un seuil d’inconfort statistique. Un peu vexant pour les audios qui pratiquent la mesure du SSI !

L’apparition de systèmes de gestion des bruits impulsionnels en entrée a modifié un peu cette approche puisque certains fabricants proposant ces systèmes proposent des « mix » entre un calcul des compressions basé sur la dynamique statistique et un MPO ou « pseudo-écrêtage » basé sur le SSI. C’est mieux, mais on ne nous laisse pas encore toutes les clés de la maison…

Par contre, il est toujours possible d’utiliser des formules de calcul intégrant le SSI mesuré dans le calcul des compression et MPO, c’est le cas de DSL I/O par exemple, souvent proposée par défaut lors des appareillages pédiatriques, bien qu’il ne soit pas évident d’obtenir un SSI avant 10ans.

Il faut reconnaître aussi que la mesure d’un seuil d’inconfort est très subjective (c’est le cas de le dire) : elle dépend presque autant du patient, de sa peur ou au contraire de sa bravoure (!), que du testeur et de sa limite posée (douleur ? limite du supportable ? réflexe cochléo-palpébral ?…). Pour ma part, après une consigne assez sommaire type « limite du supportable », je trouve que l’observation du visage est assez précise, et un re-test quelques années après donne souvent des résultats assez proches. Le seuil d’inconfort n’évoluerait donc pas trop avec le temps, ce qui n’est pas le cas du seuil de confort (que je ne mesure pas) mais qui semble évoluer à mesure que les patients nous demandent plus de gain « pour les voix », donc à niveau « moyen ». Ce fameux passage de courbes de transfert « concaves » à « convexes » qui rendait difficile il y a quelques années un renouvellement du Siemens Prisma 4D (courbes de transfert « convexes » à l’époque), et qui fait que les Widex sont très confortables au début (courbes de tranfert très « concaves ») mais un peu « mous » après quelques semaines (il faut redonner du gain à niveau moyen).

Mais le « grand maître » du seuil d’inconfort statistique est toujours sur son trône depuis les années 80 : c’est PASCOE la plupart du temps qui décide du seuil d’inconfort de votre patient. Ses recherches ont donné en 1988 des abaques de corrélation entre seuil d’audition et seuil d’inconfort par mesures de progression de la sensation sonore (tests LGOB). Et depuis, beaucoup de fabricants utilisent ces tables si vous ne rentrez pas de seuil d’inconfort, et même si vous en rentrez un d’ailleurs (pour certains) !!

Des études plus récentes ont affiné ce « seuil d’inconfort statistique » de Pascoe, et je suis surpris du « nuage statistique » dans lequel on fait passer ces droites de régression qui serviront de base à ces inconforts statistiques…

Et ces fameux « nuages statistiques », nous les voyons tous les jours : les patients sans aucun inconfort, ceux aux aigus insupportables, aux graves très gênants (ça arrive), etc… et pour des seuils HL finalement pas si éloignés. Alors au final, c’est vrai, il doit bien exister une « droite » qui passe par le centre de gravité de tous ces cas particuliers. Et ce que cherchent les fabricants qui utilisent ces statistiques n’est peut-être pas dénué de fondement : il vaut mieux une statistique 70% du temps juste plutôt qu’un inconfort 70% du temps mal mesuré (= aide auditive 100% mal réglée pour son porteur !).

Et si même, ne seraient-ce que 90% de nos évaluations du SSI étaient assez bonnes (pas moins bonnes que celles de Mr Pascoe en tout cas), je crois que de toutes façons nous n’avons rien à perdre à « individualiser » l’adaptation.

Vous trouverez en téchargement ici une étude sur l’utilisation des seuils d’inconforts saisis pour différents logiciels de réglages. Plusieurs choses ont été analysées: si un seuil d’inconfort est trouvé par le logiciel, l’utilise t-il pour le calcul des compressions ? juste pour le calcul du MPO/PC/SSPL90 ? pas du tout ? quelques surprises…

Article et étude rédigés conjointement par Thibaut DUVAL (pour l’étude des logiciels et tableau), Sébastien GENY et Xavier DELERCE.

Dans son livre « La machine à écouter » (Masson, 1977), l’acousticien E. LEIPP décrivait un cas (p. 166) rapporté par un certain RADAU en… 1867:
(je cite) « Une dame, assez sourde pour ne pas comprendre la parole normale, se faisait accompagner par sa bonne qui jouait du tambourin pendant qu’on lui parlait: elle percevait alors chaque mot ! ». A l’époque, cette dame passait au mieux, pour une « originale », au pire, pour une folle !
Le cas avait cependant intrigué ce monsieur RADAU, au point qu’il le cite dans son ouvrage « Acoustique », en 1867 donc.
A partir des années 60, quand l’usage des sonagrammes s’est répandu, il est devenu possible de « voir » la parole et du même coup, l’effet du bruit sur la perception de la parole. LEIPP à cette époque décrit la perception dans le bruit qui dégrade le message vocal, mais se demande si dans certains cas, notamment pour les sujets présentant une baisse du seuil d’audition, le bruit de fond, à faible niveau, ne « comblerait pas les vides entre les syllabes », évitant à ces personnes une perception hachée quasi-inintelligible.
Je m’explique: l’enchainement des syllabes, très variable en intensité se situe tantôt au-dessus du seuil, tantôt au-dessous, créant ainsi des « micro-interruptions » du signal; très pénalisantes pour le malentendant. LEIP se demandait alors si le tambourin de la vieille dame, avec son spectre large, ne comblait pas ces vides, le cerveau se chargeant de faire le reste…
Sans aller jusqu’à rajouter du bruit, on pourrait obtenir le même phénomène d’interruptions (temporelles) avec des compressions agissant dans la gamme énergétique du signal vocal. On ferait alors plus de mal que de bien !
Bien entendu, on ne connaissait pas encore à l’époque l’importance des transitions de formants, permettant de percevoir certains phonèmes même sans les entendre, mais l’hypothèse audacieuse s’est révélée juste: la vieille dame n’était pas folle !
Pourquoi je vous dis tout ça: car je viens de recevoir « Essentiel D6 » n° 22 – juin 2009 de SIEMENS (bientôt téléchargeable sur France Audiologie), et oh, surprise ! en page 2 on y parle des effets néfastes de l’interruption syllabique par des réducteurs de bruit inappropriés.
Merci, vieille dame inconnue !

Xavier DELERCE.

PHONAK a lancé il y a quelques années un algoritme dédié aux surdités sévères à profondes : le bass boost. En complément du système de supercompression, il vient s’enclencher pour améliorer l’audibilité en milieu bruyant.

Une étude au sujet du bass boost mt en évidence une amélioration du seuil de compréhension en milieu bruyant pour les porteurs d’aides auditives dites POWER. En augmentant le niveau de sortie (+6 dB) des fréquences basses (<1KHz), le benchmark mené par PHONAK met en évidence une amélioration significative de la compréhension en milieu bruyant.

Fonctionnement du bassboost

Cette effet est permis par une augmentation de la sensation sonore dans les basses fréquences (ce qui correspond à la perception des premiers formants des voyelles).

A noter que Bassboost était une option qui existait sur les anciennes gammes d’appareils PHONAK. Couplé au Savia Art, on obtient un algoritme qui s’enclenche précisément dans les séquences bruyantes de la vie quotidienne des malentendants.

PHONAK explique, que cette option réservée aux patients les plus malentendants, est essentiel à plusieurs titres :

  • Les patients atteints de surdités sévères et plus ont une réserve cochléaire de pauvre qualité dans les hautes fréquences bien souvent. Bassboost ne fonctionnant que sur les fréquences les plus basses est un outil adapté.
  • Les patients atteints de perte auditive sévère compense la maigre qualité de leurs hautes fréquences par une amélioration significative de leur discrimination fréquentielle sur les basses fréquences. Une fois encore Bassboost en s’intéressant aux fréquences les plus basses est un outil idéal pour réhausser les fréquences des premiers formants vocaliques (turner et Cummings, 1999).

Comparaison entre plusieurs algorithmes et leur résultat en terme de SNR

Les chiffres sont probants. L’algoritme BASSBOOST améliore le SNR d’environ 1 dB SPL. Le SRT également tant en contours qu’en intras. Ce que je trouve rigolo qui est curieux, c’est que cette option soit débrayable sous iPFG, au regard de la qualité d’écoute obtenue.

A mon avis c’est une option à enclencher systématiquement en cas de surdités au moins sévères avec une dégradation des hautes fréquences.

En tout cas, ce système doit permettre aux porteurs d’anciens appareils auditifs de renouveler pour une vrai innovation en matière de compréhension dans le bruit.

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel