Catégorie : Physiologie

Malgré le raffinement et la très grande diversité des tests à la disposition des audioprothésistes aujourd’hui, nous ne faisons qu’une « photographie », très imparfaite de l’état du système auditif.

L’audiométrie, tonale ou vocale ne s’avère ne tester que les capacités auditives résiduelles, sans nous donner d’informations « au-delà de la quantité ». Des fois, nous aimerions savoir « où » et « quoi » est touché. Ceci ne nous avancerait peut être pas dans nos réglages, mais aurait au moins le mérite de donner une probabilité de chance ou d’échec d’une amplification.

Pour illustrer ce propos, je voulais vous soumettre le cas d’un patient avec deux tentatives d’appareillage sur les dix dernières années. La première en 2003, soldée par un échec, la seconde en cours, et soldée… je me demande bien encore par quoi !

Ce monsieur consulte en 2003 pour une sensation de déséquilibre OD/OG et volonté d’appareiller son oreille la plus basse, son oreille droite:

2003

Je vous passe les détails, mais après deux mois d’essais en tous genres, stratégies diverses, etc., ce patient n’a aucun apport avec une amplification à droite. Pire: cette oreille droite appareillée se révèle perturber l’intelligibilité relativement préservée à gauche. Force est de constater que la fusion binaurale n’intervient pas. Mais comment l’interpréter ? Ca coince quelque part, mais l’audiométrie ne renseigne en rien sur l’origine…

Arrêt de l’adaptation sur un échec à droite en 2003.

Ce patient revient en 2013 (pas rancunier !), pour « un appareillage à gauche, la droite est morte ». Effectivement:

2013

Plus de seuil en tonale en 2013, intelligibilité nulle de ce côté. Ca me laisse penser qu’en 2003, j’avais tenté de m’attaquer à une oreille interne en train de dégénérer, et dont l’audition à fini par totalement disparaître. D’où cet échec je présume.

L’audition à gauche s’est relativement bien maintenue, ainsi que la vocale, très légèrement en baisse, mais pas si mauvaise quand même (LAFON cochléaires).

Nous repartons pour une adaptation à gauche. Je me dis que la technologie actuelle, 15 canaux, directivité, etc. etc., tout cela devrait donner quelque chose de bien:

MIV 2013

C’est beau, c’est carré, pas comprimé, dans la dynamique, écrêté où il faut, programme 2 anti-bruité, anti-larsenné, réducto-bruité, confortable, porté, supporté, etc.

Une « petite » tonale:

CL 2013

Persiste quand même toujours une sensation « métallique » et « claquante », en régression après un mois de port. Tout essai d’amplification plus importante de 2 à 4KHz se solde par un inconfort au quotidien.

Ce patient n’a quand même pas l’air très emballé par l’apport qualitatif. Les discussions sont « à peine plus faciles », la TV « un tout petit peu mieux ».

La vocale:

CL voc 2013

Sans appareil: bleu. Avec appareil: rouge. Pas de quoi pavoiser. Il faut se rendre à l’évidence: l’amplification ne débouche nulle part en quelque sorte. La zone stimulée (1.5-6KHz) ne semble pas « coder » pour l’intelligibilité chez ce patient. Ce qui pourrait être le cas en présence d’une zone morte cochléaire.

Arme ultime, le TEN-Test:

TEN

Le TEN est émis à 80dB/ERB et de 1KHz (!) à 3KHz, si ce n’est pas franchement positif, ce n’est pas non plus négatif. On peut supposer qu’il y a encore des CCI, peut-être, mais fonctionnent-elles correctement ? Et que s’est-il passé à droite en 10 ans ? Y a t-il un rapport avec la disparition de l’OD et le fonctionnement erratique de l’OG ? Qu’a testé l’audiométrie ?

OU EST LE PROBLEME ?

Des questions, des questions, des questions. Pas de réponses. Tout s’améliore aujourd’hui, nos techniques, nos mesures, nos appareils, mais nous ne testons que la périphérie, avec peu de tests capables de nous donner une indication précise du point de dysfonctionnement.

Rendez-vous en 2023 ?

Le nain sourd de Bilbo le Hobbit en mode « super-directionnel »

 

Devant l’apparition ces derniers temps de « solutions auditives non-prothétiques » comme leurs distributeurs aiment à les appeler, sortes d’amplificateurs en accès direct en pharmacies ou par correspondance, vendus sans bilan, sans adaptation, sans suivi… et sans honte (!), je voulais vous relater une étude assez récente du NAL.

On présente souvent la baisse d’audition légère comme une baisse d’audition également « légère à corriger »; c’est à dire « simple » à corriger et donc ne nécessitant finalement qu’une amplification de faible niveau pour être « compensée ». Mais alors, pourquoi dépenser 300€ en pharmacie et s’acheter un S…..O, alors que pour beaucoup moins cher (24,95€) chez Nature et Découvertes, vous avez le canon à sons (et en semi-stéréo s’il vous plait !):

Là c’est clair, vous allez briller en société. Finalement, c’est vrai, vous ne serez plus gêné par les conversations dans le bruit, car celles ci cesseront dès que vous paraîtrez avec l’engin au poing, en même temps que les regards se porteront sur vous !

Bref ! J’ai découvert cette étude du NAL (Mild Hearing Loss is  Serious Business) pour un tout autre sujet, mais l’analyse de fond (faut-il une réponse simple à un problème « léger » ?) est très intéressante.

Car au final, la surdité légère est-elle un problème simple ? Une « banale » amplification suffira t-elle ? Les tenants de la solution « péri-prothétique », vous dirons que ces amplificateurs sont une solution de démarrage, un « pied à l’étrier » en quelque sorte, en attendant de passer le pas vers le « vrai » appareillage auditif. Et même (c’est un comble…), le BUCODES a publié ces derniers mois un communiqué de presse vantant les mérites des amplificateurs de sons pour les surdités débutantes ! Là, pour un organisme censé apporter un éclairage informé sur l’audition à destination du grand public, cela dénote une connaissance très « 19éme siècle » de la physiologie cochléaire !

Non: la perte auditive, même légère, n’est pas assimilable à la presbytie. La perte auditive, dès son apparition, n’est que le reflet apparent d’une somme de dérèglements physiologiques. Je vous laisse lire cette présentation du NAL pour une revue (non-exhaustive) des atteintes neuro-physiologiques présentes dès la perte auditive légère.

  1. Sur le dégénérescence « légère » du système auditif: je pense que le mot « dégénérescence » n’est pas exagéré. On emploierait le même s’il s’agissait de la rétine subissant les mêmes phénomènes (DMLA). Perte des cellules sensorielles, cellules ciliées externes, et même dans certains cas, des cellules ciliées internes. Si la perte des secondes interdit toute intervention, la surdité légère est surtout le résultat d’une réduction du nombre de CCE. Dans ce cas, il va falloir, on pourrait le penser, « mettre le son plus fort », ce sera au détriment de la sélectivité fréquentielle.
  2. Augmentation du temps de traitement temporel des informations auditives, et également (lié ?), augmentation de l’intervalle de temps minimal perceptible (quasiment doublé).
  3. Perte des informations de structure temporelle fine.
  4. Dégradations de l’intelligibilité dans le bruit.
  5. Etc.

Juste un rappel: on parle ici de surdité LEGERE….

Le NAL, pour cette étude aura mis à contribution toute une région de l’Australie, les Blue Mountains, et des milliers de patients appareillés, centralisation du secteur audiologique oblige, et s’est surtout intéressé à ce qui touche en premier lieu les patients présentant une surdité légère: l’intelligibilité en milieu bruyant. Ils ont mesuré pour cela les apports respectifs:

  1. d’une correction et captation par micro omnidirectionnel
  2. d’une correction et captation par micro directionnel (adaptatif, j’imagine)
  3. d’une correction et captation par réseau de micro super-directionnels (du pays de la vache violette…)
  4. et enfin d’une correction, captation par micro super-directionnel avec adaptation « spéciale NAL » (du suspens !!!!)
  5. … le tout comparé à l’intelligibilité dans le bruit de sujets normo-entendants

Correction d’une surdité légère par des moyens classiques (appareillage open, comparatif des micro omni. et dir.:

Surdité légère corrigée en mic. omni. et dir. (reprise données NAL)

 

Petites surdités, mais déjà perte conséquente en milieu bruyant. Par rapport à la normale, de 10 à 50% d’intelligibilité en moins ! L’apport de la captation directionnelle est relativement limité, au maximum 1dB de S/B gagné. Et la différence entre le mode microphonique omni. et directionnel est insignifiante. Comme dirait Bashung, « Y’a un truc qui fait masse ! », mais les lecteurs de Dillon savent déjà quoi…

Donc, sortons la grosse artillerie et tentons la captation « Super-directionnelle », disponible depuis quelques années.

Correction d’une surdité légère par des moyens classiques (appareillage open, comparatif des micro omni., directionnels et super-directionnels:

Surd. légère et trt par micro super-directionnel (reprise données NAL)

 

Comme dirait Bertrand dans « Des Chiffres et des Lettres » (j’ai ma culture !): « Pas mieux ! ». Mais enfin, toute cette technologie pour rien ? N’oublions pas que les sujets testés ont une surdité légère, appareillée en open (gros indice, là…).

Et donc les gens du NAL ont repris les mêmes patients, en appareillage « Super-directionnel », mais ont juste modifié, non pas le réglage, mais un « petit quelque chose », et là:

 

Surd. légère et appareillage super-directionnel « spécial » (reprise données NAL)

 

Ca y est ! Là, nos patients pourraient vraiment penser qu’ils ont retrouvée une audition « normale » dans le bruit.

Comment a fait le NAL pour arriver à ce résultat ? En réalité, ils ont trouvé le moyen d’utiliser cette super-directivité dans les basses fréquences, mais vous en saurez plus en lisant ce ppt de 120 dias environ ! Le premier qui trouve gagne un abonnement à « Teckel magazine ». (AN: CG, tu es hors-concours !).

 

C’était aussi un clin d’oeil du NAL: la surdité légère, « Serious Business » = « Affaires florissantes » ou « Sujet sérieux » ?

En 2000, B.C.J. Moore présentait un nouveau test audiométrique tonal, le TEN-Test, censé être aussi efficace  que l’utilisation des courbes psycho-acoustiques d’accord (85% environ aussi précis, selon ses travaux) dans la détection de « Zones Mortes cochléaires ». Une « Zone Morte » étant définie par l’absence ou une importante raréfaction des cellules cilliées internes (CCI) dans la cochlée, rendant toute amplification prothétique inutile, voire nuisible à l’intelligibilité selon certains auteurs à l’époque.

Ce test est un test d’audiométrie tonale, d’abord effectuée dans le silence (classique…), puis ré-effectuée dans un bruit envoyé de manière ipsilatérale. On demande alors au sujet testé de déterminer son seuil de perception au milieu de ce bruit, appelé « TEN ». TEN= « Threshold-Equalising Noise », ou « Bruit Egalisateur de Seuil ».

C’est justement dans ce « bruit » que réside tout  le test. Son élaboration repose sur des fondements psycho-acoustiques relativement récents. Son but est donc « d’égaliser/équaliser » le seuil à son niveau. Par exemple pour une surdité en pente régulière:

L’audiométrie a d’abord été réalisée au casque (ronds rouges) sans le bruit, par pas de 2dB. Elle est ensuite refaite avec présente du TEN, ici envoyé à 70dB/ERB. Les seuils « tombent » alors à l’intensité d’émission du TEN, et devraient s’aligner aux environs de 70dB HL pour chaque fréquence testée. Aucun autre signal masquant ne permet cela, ni le bruit blanc, ni le bruit rose. Le TEN est en effet élaboré de telle sorte qu’il a un pouvoir masquant égal dans chaque ERB, son intensité n’est pas donnée strictement en dB HL, mais en dB/ERB.

ERB ?

Si vous vous faites le test et que vous utilisez un TEN à 70dB/ERB, vous vous apercevrez que c’est fort et à 80dB/ERB vraiment très fort. ERB signifie « Equivalent Rectangular Bandwidth » ou en gros, « Bande de largeur rectangulaire équivalente ». Sous-entendu: « équivalente à un filtre auditif ».

Ces « filtres auditifs » sont en fait les « Bandes critiques » (mais pas exactement pour Moore), décrites par Fletcher dans les années 1940, au nombre de 24 (échelle des Barks). Elles correspondent à des « filtres cochléaires » présentant de nombreuses particularités. Par exemple, pour un son pur à 1000Hz dans la bande critique 1000Hz (qui fait 160Hz de large); l’ajout d’un second son pur de même intensité à une fréquence proche du premier (ex: 1010Hz) mais dans la même bande critique (compris dans cette bande de 160Hz) ne provoquera pas d’augmentation de sonie. Si le second son pur « sort » de la bande critique 1000Hz, il provoquera un changement de sonie. Ces propriétés (et d’autres encore) ont été étudiées et affinées depuis Fletcher et Zwicker, et il est apparu plus simple de modéliser ces « filtres auditifs » qui ont une forme de cloche (sommet en pointe et extrêmes aplatis), par leur « équivalent rectangulaire » (équivalent rectangulaire de la surface ou aire du filtre auditif):

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007
Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Mais B.C.J. Moore dans les années 80 a entrepris (avec d’autres) de re-mesurer la largeur des filtres cochléaires en utilisant une technique dite du « bruit à encoche », donnant une meilleure précision dans la détermination de leur largeur en fonction des fréquences. Je précise qu’il n’y a bien entendu ni « 24 bandes critiques », ni « emplacements ERB » fixes et bien délimités dans la cochlée, mais un continuum chevauchant de filtres cochléaires. Si l’on prend une fréquence quelconque, par exemple toujours 1000Hz, on s’aperçoit que la bande critique suivante (voir propriétés plus haut) est à 1770Hz, le filtre précédent à 840Hz, etc. Ceci est valable pour les bandes critiques et les ERB (fréq. centrales différentes pour ces dernières).

Les ERB (échelle en « Cams », par opposition aux « Barks ») sont un peu plus étroites que les bandes critiques, notamment dans les aigus:

BC, ERB et 1/3 d'octave. XD 2012.

Pour une revue détaillée du concept de « filtres cochléaires » et de leurs propriétés (la machine humaine et son oreille en particulier sont incroyables…), la dernière édition de Psychology of Hearing de BCJ Moore est extrêmement détaillée, très didactique et progressive dans l’approche de concepts psycho-acoustiques pas toujours évidents (il appelle ça « Introduction » mais ça fait plus de 400 pages…). Vous trouverez également dans ce document libre (p. 421 à 427) divers développements sur les BC et ERB.

Donc lorsque l’on utilise le TEN à 70dB, il s’agit donc de 70dB dans chaque ERB, d’où le niveau ressenti: fort !

Le but décrit par Moore avec l’utilisation du TEN est d’éviter « l’écoute hors fréquence » (« Off Frequency Listening »). En présumant qu’une zone cochléaire est « morte » selon les critères décrits plus haut, l’augmentation du niveau du son pur de test entraîne un « pattern d’excitation » qui s’élargit sur la membrane basilaire, permettant au final à des cellules cilliées situées plus loin de la zone testée, de « répondre » à la place de la fréquence testée. On obtient alors un « faux-positif » audiométrique faisant penser à une perception réelle dans la zone. En réalité, le patient aura perçu un stimulus plus large bande (type bruit filtré), mais pas le son pur envoyé.

Le but du TEN-Test est donc d’utiliser un bruit masquant (le TEN), étudié spécifiquement pour donner la même intensité de masque dans chaque ERB. En présence du bruit masquant, les seuils doivent donc « tomber » au niveau du bruit puisqu’en saturant chaque ERB, il empêche « l’écoute hors fréquence ». Et ça fonctionne (l’égalisation du seuil au niveau du TEN), validant au passage de manière indirecte le concept d’ERB face au concept de bandes critiques.

Imaginons maintenant qu’une zone cochléaire ne possède plus de CCI. Nous testons (sans bruit masquant) en augmentant le signal de test, le pattern d’excitation augmente et les régions « saines » les plus proches finissent par répondre. Faux-positif. Le re-test en présence du TEN empêche la détection hors fréquence: le seuil masqué « tombe ». Exemple (réel, on en reparle plus bas):

 

TEN-Test
TEN-Test 70dB/ERB

 

Sans masque, le seuil de ce patient est représenté par les croix. Le TEN est ensuite appliqué à 70dB/ERB. Les fréquences 500 à 1000Hz tombent à 76 et 74dB HL, la fréquence 1500Hz tombe à 80dB HL (TEN + 10dB). La fréquence 2000Hz tombe à 86dB HL (TEN + 16dB). Les fréquences 3 et 4KHz ne « bougent » pas (mais elles auraient pu…).

B.C.J. Moore défini le critère de zone morte ainsi:

  • Pour les seuils dans le calme (sans TEN) inférieurs au TEN (ici, inférieurs=meilleurs que 70dB, donc de 500 à 2000Hz compris): Zone Morte Cocléaire (ZMC) si le « seuil masqué » est au moins 10dB au dessus du seuil « non-masqué » et 10dB au-dessus du bruit. Ici, le 1500Hz est « limite » et le 2000Hz est « positif » (ZMC @ 2KHz).
  • Pour les seuils dans le calme (sans TEN) supérieurs au TEN (ici le 3 et 4KHz): ZMC si le « seuil masqué » est juste supérieur au « seuil non-masqué » (ici si le 3KHz était passé de 86dB à 88dB HL et le 4K de 98 à 100dB HL). En réalité, il est conseillé dans ce cas d’utiliser pour ces deux fréquence un TEN plus élevé (80dB/ERB) pour voir si l’on obtient un décalage plus important des seuils masqués…
Et donc dans ce cas, on utiliserait uniquement la bande jusqu’à 1500Hz pour corriger, toute information apportée à partir de 2000Hz étant jugée inutile, voire nuisible à l’intelligibilité.
Voir pour plus de détails le PHONAK Focus 38 (PHONAK fait des trucs très bien 😉 )sur le sujet.

« Mais ça, c’était avant… » (Nous interrompons notre programme par une page de pub !).

Le TEN-Test est facile et rapide à administrer. Ses conclusions, binaires (Mort/Pas mort). Une littérature surabondante sur le sujet a été produite ces dix dernières années. Passé la première période de doute sur les résultats du test, de nombreux audiologistes ont tenté de dégager une règle d’amplification pour les sujets présentant une ZMC ou un TEN-Test positif. La » règle du 1.7Fe » a semblé s’imposer: si une zone morte est dépistée à xHz (appelé Fe), la bande passante de l’amplification ne devra pas dépasser 1.7*Fe.

Cette règle (les anglo-saxons aiment bien ce genre de trucs…) se basait aussi sur des travaux ayant mis en évidence une dégradation de l’intelligibilité chez des patients présentant des ZMC et chez qui la bande passante d’amplification n’avait pas été réduite (Vickers, Moore, Baer, 2001).
Des études plus récentes, et notamment l’article de Cox et al. en 2011, tendent cependant à minimiser l’impact négatif de l’amplification HF chez des sujets présentant des TEN-Tests positifs dans ces régions cochléaires. Une amplification HF maintenue resterait bénéfique dans ces cas. Ces auteurs réitèrent d’ailleurs dans un article à paraître bientôt: il n’est pas si évident que la réduction de bande passante d’amplification soit une bonne solution lors de TEN-Tests positifs.
Un résumé de leurs articles est disponible sur le blog Starkey.

Alors quoi ?

On fait un TEN-Test, il est positif. Certains auteurs disent « Pas d’amplification sur une supposée ZMC ! » et d’autres « Allez-y. Au pire ça ne fera que légèrement baisser le confort, au mieux, améliorer l’intelligibilité ! ».

Faire ou ne pas faire de TEN-Test ? That is the question !

J’enfonce le clou: certaines équipes de neuro-physiologie françaises sont très dubitatives sur le résultat immédiat du TEN-Test et son interprétation très « on/off » si je puis dire.

Je m’explique. En reprenant le patient précédent (oreille gauche). Ce monsieur a été testé lors du premier RDV de bilan pré-prothétique. Donc TEN-Test douteux à 1.5K et positif à 2K. Puis ce patient a été re-testé après deux mois d’appareillage (et donc de stimulation):

Là, on ne joue plus: les carrés gris = premier test, carrés bleus = second test (post-app. 2 mois). Le 1.5K est passé « négatif », le 2K est passé « limite ». TEN-Test en gros « négatif », amplification jusqu’à 2.5/3K environ supportée sans aucun problème.

Certes, le premier TEN-Test aura permis de démarrer une correction réduite en bande passante et s’élargissant ensuite. Le second TEN-Test n’aura fait que confirmer une sensation d’utilité d’une zone qui n’avait plus été stimulée depuis bien longtemps, mais qui était dans une moindre mesure certes, fonctionnelle. Je ne suis pas neuro-biologiste, mais sans trop m’avancer, le premier TEN-Test aura certainement mis en évidence une désafférentation de cette zone cochléaire, et le second, l’effet de la simulation sur la même zone et au-delà. J’attends avec impatience l’audiologiste qui pourra mener un test/re-test en pré/post-appareillage sur un échantillon conséquent et significatif…

Le TEN-Test est aujourd’hui disponible en routine sur le Nouvel Aurical, Affinity, et c’est tant mieux. Il est un outil de diagnostique irremplaçable pour l’audioprothésiste, permettant un accompagnement progressif dans la correction. L’adaptation prothétique reprend tout son sens: un acte professionnel sur le long terme. Pas un « objet ». Mais il doit être interprété avec prudence, notamment sur des résultats peu marqués.

XD.

PS: @ Maëlgad: j’y aurais mis le temps, mais je n’avais pas oublié que je devais t’envoyer ces infos 😉

 

En janvier 2012, l’agence américaine des médicaments (Food and Drug Administration, FDA) a donné son feu vert à un essai clinique visant à traiter la surdité congénitale des nourrissons à partir de cellules souches du sang de cordon ombilical. Cet essai de phase I, conduit par le Dr Sami Fakhri, de la Faculté de Médecine du Texas à Houston, consistera à évaluer la sûreté de la greffe de ces cellules souches chez les bébés. Touchant 6 enfants sur 1000, la surdité congénitale provient d’une lésion des organes sensoriels, notamment des cellules de l’oreille interne et du nerf cochléaire. 10 nourrissons ayant entre 6 semaines et 18 mois participeront à cet essai.

 

La décision de la FDA d’autoriser cet essai s’appuie sur les résultats d’études prometteuses menées chez des souris : des greffes de cellules souches issues du sang de cordon ont permis chez elles de reconstituer la structure de l’oreille interne.
Ayant déjà été appliquée pour traiter d’autres pathologies, cette greffe a en outre permis, dans certains cas, de restaurer l’ouïe d’enfants atteints de surdité de perception. Finn MCGrath, une petit garçon de 2 ans, a reçu cette greffe pour traiter sa paralysie cérébrale. Il aurait ainsi retrouvé l’ouïe après avoir reçu une première greffe à l’âge de 7 semaines, une deuxième greffe 6 mois plus tard et une dernière à l’âge de 1 an, en septembre 2010.
Le Dr. Fakhri estime donc que « cette thérapie cellulaire pourrait potentiellement restaurer une audition normale » chez les enfants touchés de surdité congénitale.

 

Lu dans Les Echos.fr (Kerry Sheridan) 11/02/12- Le Parisien.fr 13/02/12 – Maxisciences.com 13/02/12 – Terra Femina.com (Elodie Vergelati) 13/02/12


Comme vous le savez (ou peut être pas), le CSA (Conseil Supérieur de l’Audiovisuel) s’est doté d’un nouvel outil de mesure du niveau (quantitatif, pas qualitatif !!!) des émissions de télé.

CSA - Conseil supérieur de l'audiovisuel - République Française

Le but premier est d’éviter les tripatouillages psycho-acoustiques réalisés par les publicitaires afin de faire émerger leurs messages (« LA REPONSE EST LA !!, LE-MONSIEUR-ENROUE-TE-DIT-QUE-LA-REPONSE-EST-LA !!!!!), au prix d’une sensation d’intensité accrue pour le téléspectateur, et surtout le téléspectateur âgé dont vous connaissez la croissance pathologique de sonie.

Les fameux tripatouillages en question sont, entre autres: détermination d’un ou plusieurs points d’enclenchement « bas », les niveaux faibles sont augmentés pour être audibles, les sons forts diminués, la bande passante retravaillée, etc., et donc le niveau ressenti s’en trouve nettement augmenté, alors qu’un sonomètre n’indiquerait aucune différence de niveau. En gros, le signal émis voit sa dynamique réduite (bande passante numérique oblige) et ne contient plus ou pas de « silences » ou « micro-coupures », la dynamique entre crêtes et vallées du signal s’amenuise: la stimulation de  l’oreille est donc permanente ce qui a pour effet d’augmenter la sonie.

Vous trouverez sur le site du CSA un tour d’horizon de cette problématique, et la délibération prise au sujet de la régulation du niveau ressenti des émissions, qui interviendra en deux temps, de janvier 2012 à janvier 2013.

Vous constaterez que l’on ne parle pas de dB, quelle que soit l’échelle, mais de LUFS (Loudness Units Full Scale), unité de mesure (négative) censée représenter la sensation perçue. On aura par exemple un maximum autorisé de -23LUFS (-2/+3) du niveau long terme des émissions.

Pour les petits curieux, je mets un lien sur la norme et l’algo de mesure.

Un aspect très important, et à mon sens passé sous silence, est de pouvoir mesurer la sonie et donc une éventuelle nocivité des signaux compressés. Toutes les recommandations de prudence sur le niveau des baladeurs et autres musiques amplifiées reposent sur des hypothèses d’un signal analogique non compressé, mesuré par voie analogique (sonomètre, à long terme ou en crête). Qu’en est-il pour les signaux numérisés ? Un signal compressé en mp3 ou autre lossy est-il l’équivalent pour l’oreille, à même niveau mesuré, que ce même signal en wav ou lossless ? Faut-il revoir les abaques de nocivité ? Cette nouvelle échelle de mesure permettra peut-être de nouvelles voies de recherches en la matière.

J’avais déjà évoqué dans un post précédent les recherches militaires sur l’usage du son dans la « gestion des masses hostiles » (très jolie expression, vraiment !).

De joyeux esprits ont planché dès la seconde guerre mondiale sur l’inaudible. Le domaine des infra- et ultra-sons a semblé longtemps très prometteur. Comme un banc de baleines s’échoue sur la plage après un traumatisme lié aux très basses fréquences générées par diverses activités sous-marines humaines, des fabricants d’armement pensaient envisageable de faire échouer un groupe de « manifestants hostiles » sur les pavés (sous les pavés, la plage…), pris d’une violente envie de vomir par exemple.

Ces recherches ont d’ailleurs inspiré les écrivains jusqu’à la chute du mur de Berlin, comme Larry COLLINS dans Dédale, qui décrivait des ondes censées « entrer en résonance avec les ondes cérébrales ». Utopie ou paranoïa de l’époque. Stephen KING dans Cellulaire décrivait plus récemment un « virus sonore » se transmettant par les portables.

Beaucoup d’idées fausses, d’annonces spectaculaires et de fantaisies ont été véhiculées sur ces armes d’un nouveau genre, prouvant l’ignorance du grand public sur l’acoustique en général et les effets du son en particulier. Au passage, cette ignorance semble avoir été très bien exploitée par les fabricants d’armes afin d’obtenir des crédits, pendant des années, de la part de gouvernements friands d’obtenir « l’arme propre » qu’aurait pu constituer un générateur des sons inaudibles mais traumatisants.

Après de multiples tentatives avec les infra-sons jusqu’à cette dernière décennie, ils semble que la voie ait été abandonnée au profit des hauts niveaux sonores dans la gamme fréquentielle audible. Des « canons à sons » très directionnels, les LRAD (Long Range Acoustic Devices) ont fait leur apparition chez les forces de police lors de manifestations du rue ces dernières années.

Vous retrouverez toute l’histoire de ces « armes sonores » à la lecture du livre suivant, qui analyse les diverses techniques à l’étude ou abouties sur le sujet:

Le Son comme arme, de Juliette VOLCLER

Vous pouvez, sur le site de l’éditeur, en consulter quelques pages.

Je vous recommande également la lecture du blog (de combat) article XI (billets 1/4 à 4/4).

Ah ! quel beau monde que celui dans lequel on vit !!!

Que restera-t-il aux « masses hostiles » face à ces armes ? L’opposition !… de phase !!

La perte auditive peut être soit un marqueur de la démence à un stade précoce soit un facteur direct de risque de démence. C’est l’histoire de l’oeuf ou de la poule… En effet une étude Américaine met en évidence, de façon précise, que :

  • pour chaque tranche de 10 décibels de perte auditive, il y a augmentation de 27% du risque de développer une démence plus tard au cours de la vie. Menée par des chercheurs de l’École de médecine Johns Hopkins, cofinancée par le National Institute on Aging (NIA), cette étude est publiée dans l’édition du 2 février des Archives of Neurology.

Cette étude (http://bit.ly/fA69kx) a suivi 639 adultes âgés de 39-90 ans, durant une moyenne de 12 années pour voir si la perte auditive est susceptible d’annoncer le développement d’une démence.

Les participants avec la perte auditive la plus importante au début de l’étude sont plus susceptibles une fois plus âgés de développer une démence. Ainsi, au cours du suivi, 58 personnes (9,1%) ont développé une démence dont 37 cas de maladie d’Alzheimer.

·         Dans le groupe audition normale, 4,4% ont développé une démence,

·         Dans le groupe perte auditive légère, 16,8% ont développé une démence,

·         Dans le groupe perte auditive moyenne, 28,3% ont développé une démence,

·         Dans le groupe une perte auditive sévère, 33,3%  ont développé une démence.

Cette étude nous rappelle (cocorico) que des chercheurs Français (étude acoudem) avaient déjà trouvé des corrélats entre démence et perte auditive en 2007. Cette étude démontrait que le port d’une aide auditive divisée le risque de développer une démence par 2 !

Les chercheurs concluent que la perte auditive est associée de manière indépendante à la démence mais des études supplémentaires restent nécessaires pour déterminer si la perte auditive peut être un marqueur de la démence à un stade précoce, ou si la perte auditive impacte directement le risque de démence.

Bienvenu

Bienvenu chez Blog-Audioprothesiste.fr !

Qui Sommes nous ?

Contactez nous !

Je contacte Sébastien
Je contacte Xavier
Je contacte Jean Michel