REMFit Bernafon – Le fait-il bien ?

Written by xavdelerce on . Posted in Affinity, BERNAFON, Chaînes de mesure, Etude de cas, Marques, mesure in vivo, mesure in-vivo, RECD, SPLoGramme, TEN-Test, transposition fréquentielle

RemFit désigne la passerelle entre le logiciel Bernafon Oasis (version 19) et Affinity (version maxi 2.3).

Bernafon et les autres (sauf Starkey et Widex…) récupèrent déjà les données REM type REUR et RECD, mais le concept va plus loin en pilotant directement la mesure in-vivo d’Affinity par le logiciel de réglage. A noter que Siemens fait déjà ça et même Widex, il y a très lontemps pilotait Aurical depuis Compass (et ça marchait !).

Le but: appuyez sur le bouton « Start » et le logiciel vous met l’appareil sur cibles. Magnifique !

Test !!

Le patient test:

image1

Bien sûr, comme tout le monde, quand on teste un nouvel appareil ou une nouvelle fonctionnalité, on prend le pire de nos patients (le pire des audiogrammes). C’est de bonne guerre !

Dans ce cas précis, les appareils choisis sont des Acriva 7 Rite adapté en dômes ouverts. Le TEN-Test est positif dès 3KHz, donc la correction se fera jusqu’à 2KHz et transposition fréquentielle (pardon « Frequency Composition » !) sur l’intervalle de mon choix (voir post sur le sujet plus bas).

Que fait RemFit:

REMFit

Un conseil: faire la calibration anti-larsen avant la MIV, le gain disponible réel étant bien supérieur des fois à l’estimation logicielle.

Il faut d’abord mettre des sondes in-vivo sur le casque REM et les calibrer par le logiciel Oasis:

Calib Sondes

Les sondes sont calibrées comme en MIV « classique »: sonde de mesure devant le micro de référence, le tout face au HP.

La MIV par le logiciel se fait par défaut à 65dB SPL d’entrée, mais on peut ajouter les intensités 50 et 80dB SPL par défaut dans le logiciel ou à la demande:

REAG cible

Le petit côté magique: en fait à Berne, des milliers de marmottes, au moment où vous appuyez sur « Droit », « Gauche » ou « Les deux », prennent le contrôle de votre PC et vont faire les mesures, plusieurs fois s’il le faut, automatiquement, jusqu’à ce que les cibles soient atteintes au mieux !

Ah non, les marmottes qui plient le papier d’alu, c’est un autre truc Suisse…

Bref ! Ca marche effectivement tout seul et vous voyez de façon miraculeuse les appareils se régler seuls en plusieurs étapes automatiques. Pour peu que vous ayez fait votre audiométrie aux inserts, que le logiciel ait récupéré un RECD, et donc que vos cibles soient précises au tympan, tout devrait donc coller au mieux:

REMFit ajustés

Ici, le niveau 80dB n’a pas pu être émis (c’est trop fort, il faudrait plutôt 75dB SPL max.), et il faut le décocher pour ne pas bloquer le test. Le logiciel n’est pas content car il n’est pas « sur cibles » (à 3K et plus), et c’est là que l’on voit la différence entre un cerveau humain (« Mais c’est ce que je voulais ! ») et la machine (« J’ai pas pu taper le 3 et 4KHz dans les cibles. End of message ! »), donc avertissement. Mais nous savons, nous les humains, que c’est mort/désafférenté au-delà de 3KHz, et qu’il n’est pas important d’aller y mettre de l’information ! Rage against the machine !

Et ça marche ?

REAR REMFit

Et oui ! Pile poile ce que je voulais.

Avouons quand même: une MIV avec ISTS et calcul des CR de la dynamique vocale, vous avez plus d’information qu’avec REMFit, non ?

Donc oui, ça marche, mais quitte à mettre une sonde, pourquoi ne pas passer directement sur la chaîne de mesure avec toutes les subtilités et les informations apportées par les signaux vocaux réels.

D’autant plus qu’ici, la transposition était proposée par le logiciel à partir de 2.9KHz, en plein dans la zone inaudible pour le patient, et seule une « vraie MIV » pouvait mettre en évidence qu’il fallait rabaisser son point de départ:

FC REMFit

Pour ce qui est de la mesure in-vivo de l’énergie transposée, voir ce post.

Bravo quand même à Bernafon, beau travail d’interface Oasis/Affinity. Seul regret: les courbes de MIV ne sont pas stockées dans Noah.

Prochain test: Oticon et sa MIV intégrée, qui, elle, permet l’utilisation de signaux vocaux. A suivre…

Là où s’arrête l’audiométrie; là où commence la physiologie.

Written by xavdelerce on . Posted in Affinity, Audiologie, Audiométrie tonale, Audiométrie vocale, Audition binaurale, Chaînes de mesure, Etude de cas, mesure in-vivo, Physiologie, Stéréophonie, TEN-Test

Malgré le raffinement et la très grande diversité des tests à la disposition des audioprothésistes aujourd’hui, nous ne faisons qu’une « photographie », très imparfaite de l’état du système auditif.

L’audiométrie, tonale ou vocale ne s’avère ne tester que les capacités auditives résiduelles, sans nous donner d’informations « au-delà de la quantité ». Des fois, nous aimerions savoir « où » et « quoi » est touché. Ceci ne nous avancerait peut être pas dans nos réglages, mais aurait au moins le mérite de donner une probabilité de chance ou d’échec d’une amplification.

Pour illustrer ce propos, je voulais vous soumettre le cas d’un patient avec deux tentatives d’appareillage sur les dix dernières années. La première en 2003, soldée par un échec, la seconde en cours, et soldée… je me demande bien encore par quoi !

Ce monsieur consulte en 2003 pour une sensation de déséquilibre OD/OG et volonté d’appareiller son oreille la plus basse, son oreille droite:

2003

Je vous passe les détails, mais après deux mois d’essais en tous genres, stratégies diverses, etc., ce patient n’a aucun apport avec une amplification à droite. Pire: cette oreille droite appareillée se révèle perturber l’intelligibilité relativement préservée à gauche. Force est de constater que la fusion binaurale n’intervient pas. Mais comment l’interpréter ? Ca coince quelque part, mais l’audiométrie ne renseigne en rien sur l’origine…

Arrêt de l’adaptation sur un échec à droite en 2003.

Ce patient revient en 2013 (pas rancunier !), pour « un appareillage à gauche, la droite est morte ». Effectivement:

2013

Plus de seuil en tonale en 2013, intelligibilité nulle de ce côté. Ca me laisse penser qu’en 2003, j’avais tenté de m’attaquer à une oreille interne en train de dégénérer, et dont l’audition à fini par totalement disparaître. D’où cet échec je présume.

L’audition à gauche s’est relativement bien maintenue, ainsi que la vocale, très légèrement en baisse, mais pas si mauvaise quand même (LAFON cochléaires).

Nous repartons pour une adaptation à gauche. Je me dis que la technologie actuelle, 15 canaux, directivité, etc. etc., tout cela devrait donner quelque chose de bien:

MIV 2013

C’est beau, c’est carré, pas comprimé, dans la dynamique, écrêté où il faut, programme 2 anti-bruité, anti-larsenné, réducto-bruité, confortable, porté, supporté, etc.

Une « petite » tonale:

CL 2013

Persiste quand même toujours une sensation « métallique » et « claquante », en régression après un mois de port. Tout essai d’amplification plus importante de 2 à 4KHz se solde par un inconfort au quotidien.

Ce patient n’a quand même pas l’air très emballé par l’apport qualitatif. Les discussions sont « à peine plus faciles », la TV « un tout petit peu mieux ».

La vocale:

CL voc 2013

Sans appareil: bleu. Avec appareil: rouge. Pas de quoi pavoiser. Il faut se rendre à l’évidence: l’amplification ne débouche nulle part en quelque sorte. La zone stimulée (1.5-6KHz) ne semble pas « coder » pour l’intelligibilité chez ce patient. Ce qui pourrait être le cas en présence d’une zone morte cochléaire.

Arme ultime, le TEN-Test:

TEN

Le TEN est émis à 80dB/ERB et de 1KHz (!) à 3KHz, si ce n’est pas franchement positif, ce n’est pas non plus négatif. On peut supposer qu’il y a encore des CCI, peut-être, mais fonctionnent-elles correctement ? Et que s’est-il passé à droite en 10 ans ? Y a t-il un rapport avec la disparition de l’OD et le fonctionnement erratique de l’OG ? Qu’a testé l’audiométrie ?

OU EST LE PROBLEME ?

Des questions, des questions, des questions. Pas de réponses. Tout s’améliore aujourd’hui, nos techniques, nos mesures, nos appareils, mais nous ne testons que la périphérie, avec peu de tests capables de nous donner une indication précise du point de dysfonctionnement.

Rendez-vous en 2023 ?

Temps mort – Le TEN-Test

Written by xavdelerce on . Posted in Affinity, Audiométrie tonale, Aurical, Chaînes de mesure, Etude de cas, Investigations audiologiques, Physiologie, TEN-Test

En 2000, B.C.J. Moore présentait un nouveau test audiométrique tonal, le TEN-Test, censé être aussi efficace  que l’utilisation des courbes psycho-acoustiques d’accord (85% environ aussi précis, selon ses travaux) dans la détection de « Zones Mortes cochléaires ». Une « Zone Morte » étant définie par l’absence ou une importante raréfaction des cellules cilliées internes (CCI) dans la cochlée, rendant toute amplification prothétique inutile, voire nuisible à l’intelligibilité selon certains auteurs à l’époque.

Ce test est un test d’audiométrie tonale, d’abord effectuée dans le silence (classique…), puis ré-effectuée dans un bruit envoyé de manière ipsilatérale. On demande alors au sujet testé de déterminer son seuil de perception au milieu de ce bruit, appelé « TEN ». TEN= « Threshold-Equalising Noise », ou « Bruit Egalisateur de Seuil ».

C’est justement dans ce « bruit » que réside tout  le test. Son élaboration repose sur des fondements psycho-acoustiques relativement récents. Son but est donc « d’égaliser/équaliser » le seuil à son niveau. Par exemple pour une surdité en pente régulière:

L’audiométrie a d’abord été réalisée au casque (ronds rouges) sans le bruit, par pas de 2dB. Elle est ensuite refaite avec présente du TEN, ici envoyé à 70dB/ERB. Les seuils « tombent » alors à l’intensité d’émission du TEN, et devraient s’aligner aux environs de 70dB HL pour chaque fréquence testée. Aucun autre signal masquant ne permet cela, ni le bruit blanc, ni le bruit rose. Le TEN est en effet élaboré de telle sorte qu’il a un pouvoir masquant égal dans chaque ERB, son intensité n’est pas donnée strictement en dB HL, mais en dB/ERB.

ERB ?

Si vous vous faites le test et que vous utilisez un TEN à 70dB/ERB, vous vous apercevrez que c’est fort et à 80dB/ERB vraiment très fort. ERB signifie « Equivalent Rectangular Bandwidth » ou en gros, « Bande de largeur rectangulaire équivalente ». Sous-entendu: « équivalente à un filtre auditif ».

Ces « filtres auditifs » sont en fait les « Bandes critiques » (mais pas exactement pour Moore), décrites par Fletcher dans les années 1940, au nombre de 24 (échelle des Barks). Elles correspondent à des « filtres cochléaires » présentant de nombreuses particularités. Par exemple, pour un son pur à 1000Hz dans la bande critique 1000Hz (qui fait 160Hz de large); l’ajout d’un second son pur de même intensité à une fréquence proche du premier (ex: 1010Hz) mais dans la même bande critique (compris dans cette bande de 160Hz) ne provoquera pas d’augmentation de sonie. Si le second son pur « sort » de la bande critique 1000Hz, il provoquera un changement de sonie. Ces propriétés (et d’autres encore) ont été étudiées et affinées depuis Fletcher et Zwicker, et il est apparu plus simple de modéliser ces « filtres auditifs » qui ont une forme de cloche (sommet en pointe et extrêmes aplatis), par leur « équivalent rectangulaire » (équivalent rectangulaire de la surface ou aire du filtre auditif):

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Filtre auditif et ERB. C. Jurado, D. Robledano - 2007

Mais B.C.J. Moore dans les années 80 a entrepris (avec d’autres) de re-mesurer la largeur des filtres cochléaires en utilisant une technique dite du « bruit à encoche », donnant une meilleure précision dans la détermination de leur largeur en fonction des fréquences. Je précise qu’il n’y a bien entendu ni « 24 bandes critiques », ni « emplacements ERB » fixes et bien délimités dans la cochlée, mais un continuum chevauchant de filtres cochléaires. Si l’on prend une fréquence quelconque, par exemple toujours 1000Hz, on s’aperçoit que la bande critique suivante (voir propriétés plus haut) est à 1770Hz, le filtre précédent à 840Hz, etc. Ceci est valable pour les bandes critiques et les ERB (fréq. centrales différentes pour ces dernières).

Les ERB (échelle en « Cams », par opposition aux « Barks ») sont un peu plus étroites que les bandes critiques, notamment dans les aigus:

BC, ERB et 1/3 d'octave. XD 2012.

Pour une revue détaillée du concept de « filtres cochléaires » et de leurs propriétés (la machine humaine et son oreille en particulier sont incroyables…), la dernière édition de Psychology of Hearing de BCJ Moore est extrêmement détaillée, très didactique et progressive dans l’approche de concepts psycho-acoustiques pas toujours évidents (il appelle ça « Introduction » mais ça fait plus de 400 pages…). Vous trouverez également dans ce document libre (p. 421 à 427) divers développements sur les BC et ERB.

Donc lorsque l’on utilise le TEN à 70dB, il s’agit donc de 70dB dans chaque ERB, d’où le niveau ressenti: fort !

Le but décrit par Moore avec l’utilisation du TEN est d’éviter « l’écoute hors fréquence » (« Off Frequency Listening »). En présumant qu’une zone cochléaire est « morte » selon les critères décrits plus haut, l’augmentation du niveau du son pur de test entraîne un « pattern d’excitation » qui s’élargit sur la membrane basilaire, permettant au final à des cellules cilliées situées plus loin de la zone testée, de « répondre » à la place de la fréquence testée. On obtient alors un « faux-positif » audiométrique faisant penser à une perception réelle dans la zone. En réalité, le patient aura perçu un stimulus plus large bande (type bruit filtré), mais pas le son pur envoyé.

Le but du TEN-Test est donc d’utiliser un bruit masquant (le TEN), étudié spécifiquement pour donner la même intensité de masque dans chaque ERB. En présence du bruit masquant, les seuils doivent donc « tomber » au niveau du bruit puisqu’en saturant chaque ERB, il empêche « l’écoute hors fréquence ». Et ça fonctionne (l’égalisation du seuil au niveau du TEN), validant au passage de manière indirecte le concept d’ERB face au concept de bandes critiques.

Imaginons maintenant qu’une zone cochléaire ne possède plus de CCI. Nous testons (sans bruit masquant) en augmentant le signal de test, le pattern d’excitation augmente et les régions « saines » les plus proches finissent par répondre. Faux-positif. Le re-test en présence du TEN empêche la détection hors fréquence: le seuil masqué « tombe ». Exemple (réel, on en reparle plus bas):

 

TEN-Test

TEN-Test 70dB/ERB

 

Sans masque, le seuil de ce patient est représenté par les croix. Le TEN est ensuite appliqué à 70dB/ERB. Les fréquences 500 à 1000Hz tombent à 76 et 74dB HL, la fréquence 1500Hz tombe à 80dB HL (TEN + 10dB). La fréquence 2000Hz tombe à 86dB HL (TEN + 16dB). Les fréquences 3 et 4KHz ne « bougent » pas (mais elles auraient pu…).

B.C.J. Moore défini le critère de zone morte ainsi:

  • Pour les seuils dans le calme (sans TEN) inférieurs au TEN (ici, inférieurs=meilleurs que 70dB, donc de 500 à 2000Hz compris): Zone Morte Cocléaire (ZMC) si le « seuil masqué » est au moins 10dB au dessus du seuil « non-masqué » et 10dB au-dessus du bruit. Ici, le 1500Hz est « limite » et le 2000Hz est « positif » (ZMC @ 2KHz).
  • Pour les seuils dans le calme (sans TEN) supérieurs au TEN (ici le 3 et 4KHz): ZMC si le « seuil masqué » est juste supérieur au « seuil non-masqué » (ici si le 3KHz était passé de 86dB à 88dB HL et le 4K de 98 à 100dB HL). En réalité, il est conseillé dans ce cas d’utiliser pour ces deux fréquence un TEN plus élevé (80dB/ERB) pour voir si l’on obtient un décalage plus important des seuils masqués…
Et donc dans ce cas, on utiliserait uniquement la bande jusqu’à 1500Hz pour corriger, toute information apportée à partir de 2000Hz étant jugée inutile, voire nuisible à l’intelligibilité.
Voir pour plus de détails le PHONAK Focus 38 (PHONAK fait des trucs très bien ;-) )sur le sujet.

« Mais ça, c’était avant… » (Nous interrompons notre programme par une page de pub !).

Le TEN-Test est facile et rapide à administrer. Ses conclusions, binaires (Mort/Pas mort). Une littérature surabondante sur le sujet a été produite ces dix dernières années. Passé la première période de doute sur les résultats du test, de nombreux audiologistes ont tenté de dégager une règle d’amplification pour les sujets présentant une ZMC ou un TEN-Test positif. La » règle du 1.7Fe » a semblé s’imposer: si une zone morte est dépistée à xHz (appelé Fe), la bande passante de l’amplification ne devra pas dépasser 1.7*Fe.

Cette règle (les anglo-saxons aiment bien ce genre de trucs…) se basait aussi sur des travaux ayant mis en évidence une dégradation de l’intelligibilité chez des patients présentant des ZMC et chez qui la bande passante d’amplification n’avait pas été réduite (Vickers, Moore, Baer, 2001).
Des études plus récentes, et notamment l’article de Cox et al. en 2011, tendent cependant à minimiser l’impact négatif de l’amplification HF chez des sujets présentant des TEN-Tests positifs dans ces régions cochléaires. Une amplification HF maintenue resterait bénéfique dans ces cas. Ces auteurs réitèrent d’ailleurs dans un article à paraître bientôt: il n’est pas si évident que la réduction de bande passante d’amplification soit une bonne solution lors de TEN-Tests positifs.
Un résumé de leurs articles est disponible sur le blog Starkey.

Alors quoi ?

On fait un TEN-Test, il est positif. Certains auteurs disent « Pas d’amplification sur une supposée ZMC ! » et d’autres « Allez-y. Au pire ça ne fera que légèrement baisser le confort, au mieux, améliorer l’intelligibilité ! ».

Faire ou ne pas faire de TEN-Test ? That is the question !

J’enfonce le clou: certaines équipes de neuro-physiologie françaises sont très dubitatives sur le résultat immédiat du TEN-Test et son interprétation très « on/off » si je puis dire.

Je m’explique. En reprenant le patient précédent (oreille gauche). Ce monsieur a été testé lors du premier RDV de bilan pré-prothétique. Donc TEN-Test douteux à 1.5K et positif à 2K. Puis ce patient a été re-testé après deux mois d’appareillage (et donc de stimulation):

Là, on ne joue plus: les carrés gris = premier test, carrés bleus = second test (post-app. 2 mois). Le 1.5K est passé « négatif », le 2K est passé « limite ». TEN-Test en gros « négatif », amplification jusqu’à 2.5/3K environ supportée sans aucun problème.

Certes, le premier TEN-Test aura permis de démarrer une correction réduite en bande passante et s’élargissant ensuite. Le second TEN-Test n’aura fait que confirmer une sensation d’utilité d’une zone qui n’avait plus été stimulée depuis bien longtemps, mais qui était dans une moindre mesure certes, fonctionnelle. Je ne suis pas neuro-biologiste, mais sans trop m’avancer, le premier TEN-Test aura certainement mis en évidence une désafférentation de cette zone cochléaire, et le second, l’effet de la simulation sur la même zone et au-delà. J’attends avec impatience l’audiologiste qui pourra mener un test/re-test en pré/post-appareillage sur un échantillon conséquent et significatif…

Le TEN-Test est aujourd’hui disponible en routine sur le Nouvel Aurical, Affinity, et c’est tant mieux. Il est un outil de diagnostique irremplaçable pour l’audioprothésiste, permettant un accompagnement progressif dans la correction. L’adaptation prothétique reprend tout son sens: un acte professionnel sur le long terme. Pas un « objet ». Mais il doit être interprété avec prudence, notamment sur des résultats peu marqués.

XD.

PS: @ Maëlgad: j’y aurais mis le temps, mais je n’avais pas oublié que je devais t’envoyer ces infos ;-)

And the winner is…

Written by xavdelerce on . Posted in TEN-Test

La revue Ear and Hearing vient de décerner son prix annuel du meilleur article scientifique. Pour l’année 2011, il s’agit d’un article pouvant nous intéresser en pratique quotidienne (c’est loin d’être toujours le cas pour les articles de cette revue…):

Cochlear Dead Regions in Typical Hearing Aid Candidates: Prevalence and Implications for Use of High-Frequency Speech Cues

Cox, Robyn M.1; Alexander, Genevieve C.1,2; Johnson, Jani1; Rivera, Izel3

Vous pouvez le télécharger directement .

Le panel testé est large (170 personnes), ce qui en fait, quand on connait la difficulté à recruter des sujets potentiels, une étude solide sur ce plan là.

Le mode d’administration du test est différent de celui accessible par les audios, car il a été réalisé aux inserts, ce qui a ainsi évité les transferts transcrâniens lors de l’utilisation de fortes intensités. Et d’ailleurs, Moore a récemment développé une version du TEN-Test pour inserts.

Autre chose, le critère de « positivité » retenu pour le TEN-Test est très strict: TEN systématiquement supérieur aux seuils non-masqués et décalage masqué/non-masqué strictement supérieur à 10dB pour déclarer le TEN-Test positif.

Avec ces critères, la prévalence de ZMC était de 31% des sujets testés, pour des pertes mesurées de 60 à 90dB HL.

Les chercheurs ont ensuite posé une question: « Faut-il maintenir une amplification dans la (supposée) zone morte ? »

En clair, les individus présentant un TEN-Test positif peuvent-ils utiliser des indices « hautes fréquences » alors que la cochlée n’est pas capable de les analyser ? Faut-il arrêter l’amplification au début le la zone morte ? Qu’y a t-il à perdre en faisant une restriction de bande passante ou en démarrant un décalage fréquentiel (trop) tôt ?

Et bien contre toute attente, les individus présentant un TEN-Test positif ont mieux répondu aux tests d’intelligibilité dans le bruit AVEC une amplification des HF que sans amplification des HF.

Les auteurs conseillent donc une certaine prudence dans la restriction stricte de bande passante, même en cas de ZMC présumée. Une information délivrée dans les aigus, si elle n’altère pas le confort, apporte des informations analysées probablement dans d’autres zones cochléaires que celles altérés, avec amélioration potentielle des scores de reconnaissance verbale. Et même en cas de suspicion forte de ZMC, il n’est pas inutile de poursuivre une amplification jusqu’à 1.7 fois plus loin que la fréquence de départ de la supposée ZMC.

Je vous l’ai faite courte, mais c’est effectivement une très (longue et) belle étude. Avec implications dans notre quotidien…

 

Une vocale comme on ne les aime pas (part 2)

Written by xavdelerce on . Posted in Affinity, Astuces sur les appareils, Audiométrie tonale, Audiométrie vocale, Chaînes de mesure, Etude de cas, Investigations audiologiques, TEN-Test

Juste pour info, patient du début de semaine.

Voici la tonale:

Voici la vocale (cochléaires LAFON):

Là, ça ressemble à ce que tu as eu, Sébastien…

En « grattant » un peu, c’est à dire avec un TEN-Test:

L’OD n’est même pas montrée (tout est positif après 1K). L’OG, après utilisation du TEN à 80dB HL (barre noire rajoutée), fait plonger le 1.5K, puis le 3K. La cochlée est « trouée » ou en tout cas bien désafférentée (flèches).

Que faire ? Pas grand chose, sinon au moins pouvoir expliquer le problème, sans solutions (évidentes)…

Le TEN-Test: 5 min. de passation, des heures de galère évitées !

 

Les commentaires récents

download million dollar arm

|

Thankfulness to my father who shared with me concerning this web site, this webpage is genuinely amazing.

download for no good reason free

|

Hey there exceptional blog! Does running a blog similar to this require
a large amount of work? I’ve no expertise in programming but I had been hoping to start my
own blog soon. Anyhow, should you have any ideas or tips for new blog owners please share.
I understand this is off topic nevertheless I simply wanted to ask.
Many thanks!

Petra

|

Link exchange is nothing else however it is just placing the other person’s website link on your page at proper place and other person will also do
similar in support of you.|

telecharger subway surfers

|

I’ve learn a few excellent stuff here. Definitely value bookmarking for revisiting.
I wonder how much effort you put to create one of these excellent informative web site.

Instagram @Audioprothese