Hauptmenü
Home
Die Zeitschrift
Über uns
Impressum
Kontakt
Autorenhinweise
Artikel-Archiv
Aus der Z-Audiol
Datenschutz
Anmelde-Formular





Passwort vergessen?
Noch kein Benutzerkonto?
Registrieren
Aus der Z-Audiol
Z Audiol 2016; 55 (4) 138-145 – Thomas Steffens Drucken

Zur korrekten Umrechnung von Sprachsignalen für deren Darstellung im Tonaudiogramm

 

On the correct conversion of speech signals for their representation in the pure tone audiogram

 

Thomas Steffens

 

Zusammenfassung: In diesem Beitrag wird das Verfahren zur korrekten Umrechnung der Terzpegel von Sprache oder anderen breitbandigen Signalen für die Darstellung im Tonaudiogramm zur Beurteilung deren Hörbarkeit in Relation zu den individuellen Hörschwellen vorgestellt. Anhand der repräsentativen langzeitgemittelten Terzpegelspektren für nor¬mallaute englische Sprache des genormten SII-Verfahrens werden alle Schritte zur Umrechnung der Terzpegel in Spektral¬pegel und in Hearing Level ausführlich beschrieben, um den Bezug zu den Hörschwellen des Tonaudiogramms herstellen zu können. Das resultierende korrekte Sprachpegelfeld im Tonaudiogramm für normallaute englische Sprache wird mit dem Sprachpegelfeld für die deutsche Sprache aus der Untersuchung zum internationalen langzeitgemittelten Sprachpegel¬spektrum (LTASS) verglichen. Unter Berücksichtigung der natürlichen Variabilität akustischer Parameter der Stimmen und der gesprochenen Sprache erscheinen die geringen Pegelunterschiede zwischen der Pegelverteilung der englischen und deutschen Sprache von im Mittel 1 dB vernachlässigbar und beide Spektren gleichwertig verwendbar.

 

Schlüsselwörter: Sprachpegel, Hörschwelle, Tonaudiogramm, Sprachpegelspektrum

 

Abstract: In this paper, the calculation steps needed for an estimation of speech audibility relative to pure-tone audiogram thresholds are described in detail. This procedure includes all calculations for the correct conversion of one-third octave levels of speech signals into speech spectrum hearing levels. Two examples of long-term average speech spectra (LTASS) correctly converted into the pure-tone audiogram are presented. The first example, being calculated step-by-step in this paper, describes the conversion of one-third octave speech levels of English language spoken with normal vocal effort, as reported in the standardized SII procedure. The second example shows the converted LTASS of German language also spoken with normal vocal effort. Calculations have been performed using the data measured for the international LTASS project organized by the National Acoustic Laboratories back in 1994. As both LTASS differ only marginally (mean difference of 1 dB), and in the light of the individual variations of acoustical voice and speech parameters both the English and German speech spectrum can be regarded as being identical for clinical applications.

 

Keywords: Speech intelligibility, auditory threshold, pure-tone audiogram, long-term average speech spectrum

 
Z Audiol 2016; 55 (2) 80-84 – Peter Sickert Drucken

Moderner Gehörschutz am Arbeitsplatz und bei Freizeitlärm

 

Modern hearing protectors for workplaces and noisy recreational activities

 

Peter Sickert

 

Fachbereich Persönliche Schutzausrüstungen der DGUV, Sachgebiet Gehörschutz, Berufsgenossenschaft Holz und Metall, Nürnberg

 

Zusammenfassung: Früher war die Benutzungsquote von Gehörschutz in Firmen eher gering. Heute ist das Schutzbedürfnis gestiegen. Auch wird Gehörschutz oft mit elektronischen Zusatzeinrichtungen zur Kommunikation oder auch zum Hören von Musik kombiniert. Außerdem gibt es Produkte, die Personen mit Hörminderung am Arbeitsplatz die Verständigung erleichtern und so die Weiterbeschäftigung sichern. Dazu zählt Gehörschutz mit pegelabhängiger Dämmung und Schallwiedergabesystem oder Gehörschutz in Kombination mit einem Hörgerät. Außerdem wird Gehörschutz anwendungsorientierter produziert. So gibt es z. B. Gehörschutz für Musiker, für Piloten oder für den Polizeieinsatz. Auch wird Gehörschutz häufig im privaten Bereich verwendet. Verstärkt kommt er ebenfalls an Arbeitsplätzen unter 80 dB(A) zum Einsatz (z. B. im Büro), wo er eine reine Komfortfunktion hat. Großer Wert wird dabei auf die tatsächliche Schutzwirkung, die Kommunikationsfähigkeit und das Hören von Warnsignalen gelegt. Der Beitrag beschreibt die modernen Möglichkeiten der Gehörschutznutzung, die Auswahl und die Methoden der Wirksamkeitskontrolle.

 

Schlüsselwörter: Begrenzung der Lärmexposition, Gehörschutzauswahl, spezielle Einsatzsituationen, Freizeitlärm, spezielle Personengruppen, Wirksamkeitskontrolle

 

Abstract: In the past, the use rate of hearing protection at work places was rather low. This has changed over time and the need for protection has increased. Today, hearing protectors are frequently equipped with additional electronic features to enable communication or listening to music. There are also products for hearing impaired users facilitating communication in working environments and helping them to keep their jobs. Among those are hearing protectors with level-dependent sound attenuation and sound restoration as well as protectors being integrated in hearing aids. Furthermore, hearing protectors are designed more applicationoriented today. Special hearing protectors are available for musicians, pilots or police personnel. Even in the private sector hearing protection is increasingly used. This applies also to work places with noise levels below 80 dB(A) (e.g. offices); here the protectors are used just for comfort reasons. Modern hearing protection concepts are focusing on the actual protection effect, communication abilities and the audibility of warning signals. This paper describes modern hearing protectors and their use, selection criteria and methods to assess the actual effectiveness.

 

Keywords: Limitation of noise exposure, selection of hearing protectors, special applications, noise from recreational activities, special risk groups, effectiveness check

 

 Lesen Sie »hier den ganzen Beitrag«


 
Z Audiol 2021; 60 (3) 94–103 – Winkler/Schlüter/Gebauer/Seifert/Tuschen/Radeloff/Holube Drucken

Einfluss von Sprechtempo und Störgeräusch auf das Sprachverstehen im Göttinger und im HSM-Satztest


Impact of speech rate and noise on speech recognition in Göttingen and HSM sentence test

 

Alexandra Winkler1,3, Anne Schlüter1,3, Tina Gebauer1, Josephine Seifert1, Laura Tuschen1, Andreas Radeloff2,3,4, Inga Holube1,3
1 Institut für Hörtechnik und Audiologie, Jade Hochschule Oldenburg
2 Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus Oldenburg, Carl von Ossietzky Universität, Oldenburg
3 Exzellenzcluster „Hearing4All“, Oldenburg
4 Forschungszentrum Neurosensorik, Carl von Ossietzky Universität, Oldenburg

 

Zusammenfassung: Das Sprachverstehen von Cochlea-Implantat(CI)-Trägern kann u. a. mit dem Hochmair-Schulz-Moser(HSM)-Satztest oder dem Göttinger Satztest (GÖSA) überprüft werden. Beide Satztests bestehen aus Alltagssätzen, unterscheiden sich aber in der Artikulation, im Sprechtempo, im verwendeten Störgeräusch und in der Kalibrierung. Im klinischen Alltag wird der GÖSA im Vergleich zum HSM für CI-Träger teilweise als zu schwierig angesehen. Die Sprechrate als Maß für das Sprechtempo ist mit 279 Silben/min beim GÖSA höher als beim HSM mit 222 Silben/min. Die standardmäßig verwendeten Störgeräusche (CCITT-Rauschen beim HSM und GÖnoise beim GÖSA) bewirken eine unterschiedliche Verdeckung des Sprachmaterials. Um den Einfluss des Störgeräuschs und des Sprechtempos zu erfassen, wurde das Sprachverstehen bei CI-Trägern und bei einer Kontrollgruppe ohne Hörbeeinträchtigung (NH-Gruppe) mit beiden Sprachtests bestimmt. Als Störgeräusche dienten in beiden Sprachtests das CCITT-Rauschen und ein sprachsimulierendes Rauschen (GÖnoise im GÖSA und ein aus seinem Sprachmaterial generiertes Störgeräusch im HSM). Weiterhin wurde die Sprechrate der Sprachmaterialien so verändert, dass der HSM und der GÖSA jeweils eine Sprechrate von 222 und von 279 Silben/min aufwiesen. Pro Satztest wurden damit die Schwellen für ein Sprachverstehen von 50 % (SRT50) bei zwei verschiedenen Sprechraten und zwei verschiedenen Störgeräuschen, also vier Messkonditionen, ermittelt. Die Darbietung der Signale erfolgte in einer gedämmten Freifeldkabine über einen Lautsprecher, der sich frontal vor dem Probanden befand. Die SRT50-Werte im GÖSA unterschieden sich für die vier Messkonfigurationen weder für die CI-Träger noch für die NH-Gruppe signifikant voneinander. Beim HSM hingegen hatten die Sprechrate und das verwendete Störgeräusch einen signifikanten Einfluss auf das Sprachverstehen. Mit zunehmender Sprechrate erhöhte (verschlechterte) sich der SRT50. Das sprachsimulierende Rauschen führte im Vergleich zum CCITT-Rauschen zu besseren SRT50-Werten bei den CI-Trägern, während sich die SRT50-Werte für die NH-Gruppe verschlechterten. Bei Verwendung der gleichen Kalibrierung sind die SRT50-Werte für den HSM mit erhöhter Sprechrate in der NH-Gruppe für das sprachsimulierende Rauschen und in der CI-Gruppe für das CCITT-Rauschen mit den SRT50-Werten für den GÖSA vergleichbar.

 

Stichwörter: HSM, GÖSA, CI, Sprechtempo, Zeitkompression, Störgeräusch, Sprachverstehen

 

Abstract: Speech recognition for cochlear implant (CI) users can be derived using the Hochmair-Schulz-Moser(HSM) sentence test or the Göttingen sentence test (GÖSA). Both tests use everyday sentences, but they differ in articulation, speech tempo, interfering noise and calibration. The GÖSA is regarded in clinical practice as being more difficult to understand for CI users than HSM. Speech rate as a measure of speech tempo of GÖSA is 279 syllables/min and higher than the speech rate of HSM (222 syllables/min). The typical interfering noises, which are used (CCITT noise for HSM and GÖnoise for GÖSA), cause different masking patterns of speech material. Speech recognition was determined using different noises and speech rates for HSM and GÖSA for CI users and people without hearing impairment (NH). CCITT noise and speech simulating noises (GÖnoise for GÖSA and a noise generated from the speech material of HSM) were used for GÖSA and HSM. Speech rate of GÖSA and HSM was changed to present both speech materials at 222 and 279 syllables/min. Therefore, speech recognition thresholds (SRT50) for a score of 50 % correct were measured for four different conditions per speech test (two different noises and two different speech rates). All signals (noise and speech) were presented in a sound attenuated booth using one loudspeaker, which was placed in front of the listeners. There was no significant difference in SRT50-values for all GÖSA conditions for both groups of participants. SRT50-values in HSM significantly differed depending on speech rate and noise. SRT50-values increased with increasing speech rate. CI users showed significantly increased SRT50-values in CCITT whereas for group NH, decreasing SRT50-values in CCITT were observed. When using the same calibration, SRT50-values for HSM with higher speech rate were comparable to those for GÖSA for group NH in speech simulating noise and for group CI in CCITT.

 

Keywords: HSM, GÖSA, CI, speech rate, time compression, noise, speech recognition



 
Z Audiol 2021; 60 (3) 104–107 – Mühler Drucken

Registrierung stationärer Potenziale des auditorischen Systems (ASSR) in Echtzeit mit einem Lock-in-Verstärker


Recording of auditory steady-state evoked responses (ASSR) in real-time using a lock-in amplifier

 

Roland Mühler
Abteilung für Experimentelle Audiologie, Otto-von-Guericke-Universität Magdeburg

 

Zusammenfassung: Stationäre Potenziale des auditorischen Systems (ASSR) findet man bei periodischer Stimulation des Hörsystems im EEG-Spektrum als Spektrallinien mit exakt der Reizrate. Benutzt man zur Trennung von Signal und Störung die für transiente Potenziale übliche Mittelung reizsynchroner EEG-Abschnitte, wird die besondere Eigenschaft der stationären Potenziale, die exakte Kenntnis ihrer Frequenz, nicht beachtet. Ein Monitoring der ASSR in Echtzeit ist bei Anwendung des Mittelungsverfahrens nur eingeschränkt möglich. Diese Arbeit greift eine Idee von Schacham et al. [1] auf und beschreibt einen experimentellen Aufbau, der es erlaubt, stationäre Potenziale des auditorischen Systems mithilfe eines kommerziellen Lock-in-Verstärkers (Stanford Research 830) in Echtzeit darzustellen. In einem Lock-in-Verstärker wird das verrauschte Nutzsignal mit einem Referenzsignal mit der Frequenz des Nutzsignals multipliziert. Ein Tiefpass eliminiert alle nicht zur Nutzfrequenz synchronen Rauschanteile, sodass am Ausgang des Lock-in-Verstärkers eine dem Nutzsignal proportionale Gleichspannung anliegt. Das hier erstmals vorgestellte Messprinzip eignet sich für die Darstellung stationärer evozierte Potenziale bekannter Frequenz besonders gut. Für Chirpreize mit 40 pps und 50 dB nHL Reizpegel wurden an einer erwachsenen normalhörenden Probandin erfolgreich Amplituden-Zeit-Verläufe mit Zeitkonstanten von wenigen Sekunden registriert.

 

Stichwörter: evozierte Potenziale, stationäre Potenziale, ASSR, Lock-in-Verstärker

 

Abstract: Human auditory steady-state responses (ASSRs) are represented in the Electroencephalogram (EEG) by single spectral lines at the stimulus repetition rate. To increase the small signal-to-noise ratio of these responses, commercial ASSR systems usually average several segments of the EEG signal prior to be converted from the time domain into the frequency domain. The averaging process however does not allow for a recording of ASSR in real time. This paper describes an experimental setup which replaces averaging and frequency analysis by a lock-in amplifier. Lock-in amplifiers are widely used in experimental physics to extract small signals of known frequency from an extremely noisy background. A lock-in amplifier multiplies the (noisy) input signal by a reference signal. Subsequent integration with a time constant of a few seconds results in a DC signal. In our setup, with a reference signal at the same frequency as the stimulus repetition rate, the DC output is proportional to the ASSR amplitude.

Auditory steady-state responses were evoked in one normal hearing female adult by presenting wide-band chirp stimuli at 40 Hz repetition rate and 50 dB nHL presentation level through an insert earphone. The amplified and band pass filtered EEG signal was fed to the input channel of a Stanford Research Type 830 lock-in amplifier. A reference signal phase locked to the stimulus was fed to the amplifier’s reference input. The DC output was maximized by manually shifting the phase of the reference signal. A Digital Multimeter (Keysight DMM34460A) and a Data Acquisition Application (Keysight BenchVue) were used to record the time course of the DC output proportional to the ASSR amplitude. Switching the acoustical stimulus on and off periodically, the DC output follows the response amplitude in real time. Typical examples for time constants of 1 s and 3 s are presented.

This paper presents a feasibility analysis of a recording setup for auditory steady-state responses using a lock-in amplifier. The proposed method could be of some interest for intraoperative monitoring of the auditory nerve during implantation of middle ear protheses, neurosurgical procedures, and for brain-computer interfaces (BCI).

 

Keywords: auditory steady-state responses, ASSR, lock-in amplifier



 
Z Audiol 2020; 59 (4) 138–145 – Eichenauer/Baumann/Weißgerber Drucken

Implementierung und Evaluation einer akustischen Raumsimulation für audiologische Testungen


Implementation and evaluation of acoustic room simulation for audiological testing

 

Anja Eichenauer, Uwe Baumann, Tobias Weißgerber
Audiologische Akustik, Klinik für HNO-Heilkunde, Universitätsklinikum Frankfurt am Main

 

Zusammenfassung: In alltäglichen Hörsituationen ist die akustische Kommunikation von verschiedenen, anspruchsvollen akustischen Umgebungen geprägt. In der Regel treten Nebengeräusche auf und zusätzlich wird der Schall in Räumen von Wänden und Gegenständen reflektiert. Reflexionen haben einen Einfluss auf die Diskrimination von Sprachinformationen, jedoch werden audiologische Routinemessungen weitgehend in Messkabinen mit geringer Nachhallzeit durchgeführt. Das Ziel dieser Arbeit war die Implementierung und Evaluation eines Raumsimulationssystems zur Untersuchung der Hörleistung in alltagsnahen Hörsituationen mit unterschiedlicher Raumakustik und Nachhall.

Mithilfe einer Raumsimulations-Software wurde die Schallausbreitung in Abhängigkeit der Raumgeometrie und der Raumakustik berechnet. Über ein Multikanal-Wiedergabesystem mit 128 Lautsprechern werden den Ergebnissen der Simulation folgend der Anteil des Direktschalls und der Raumreflexionen wiedergegeben. Somit können beliebige Räume unter realitätsnahen und kontrollierten akustischen Bedingungen im Labor rekonstruiert werden.

Das Verfahren wurde anhand eines Raummodells eines leeren Hörsaals für verschiedene Absorptionsgrade evaluiert. Technische Messungen der Nachhallzeit (RT) und des Deutlichkeitgrades (D50) zeigten gute Übereinstimmung mit den Modellvorgaben. Zusätzlich wurden interaurale Pegeldifferenzen (ILDs) aufgezeichnet und in Bezug zu Sprachverständlichkeitsschwellen gebracht. Es zeigte sich, dass die ILDs mit zunehmendem Nachhall um bis zu 10 dB abnehmen. Gleichzeitig ist im Vergleich zwischen Freifeld und Nachhallkondition eine Verschlechterung des spatial release from masking (SRM) um bis zu 5,5 dB SNR zu verzeichnen.

Die Untersuchung der Diskrimination von Sprache mittels des vorgestellten Raumsimulations-Systems erweist sich als sinnvolle Ergänzung zu etablierten audiologischen Messverfahren. Ein unter bestimmten raumakustischen Bedingungen erzieltes Sprachverstehen kann reproduzierbar und zuverlässig untersucht werden.

Stichwörter: Raumsimulation, Nachhall, Sprachverstehen, räumliche Entmaskierung, SRM, interaural level difference, ILD

 

Abstract: Communication in everyday life listening situations is characterized by a variety of challenging acoustic scenes. Usually, background noise sources are present and, additionally, direct sound in rooms is reflected from walls and surfaces. These reflections affect speech perception. However, audiological assessments are usually performed in audiometric booths with very short reverberation time. The present study aims at implementing and evaluating a room simulation system to examine hearing ability in everyday life listening situations with different acoustic properties and reverberation.

By means of a room simulation software sound propagation was calculated in relation to room geometry and acoustic room parameters. The direct sound and its reflections are presented according to their direction by using a multichannel playback system with 128 loudspeakers. The setup is able to simulate desired room characteristics in the laboratory under realistic and controllable acoustic conditions.

The room simulation procedure was evaluated using an empty auditorium with different degrees of absorption properties. Technical measurements of reverberation time (RT) and distinctness (D50) showed good agreement with the model data. Additionally, interaural level differences (ILDs) were recorded and correlated with speech reception thresholds. ILDs are reduced up to 10 dB with increasing reverberation. At the same time, spatial release from masking (SRM) compared to free field conditions decreased up to 5.5 dB SNR.

The determination of speech discrimination using the presented room simulation system is a useful complement to established audiological measurements. Hearing performance can be determined reproducibly and reliably under defined acoustic properties.

 

Keywords: Room simulation, reverberation, speech perception, spatial release from masking, SRM, interaural level difference, ILD



 
Z Audiol 2020; 59 (3) 106–116 – Ibelings/Michael Schulte/Melanie Krüger/Inga Holube Drucken

Audiovisuelle Realisierung des subjektiven Höranstrengungsmessverfahrens ACALES


Audiovisual realization of the subjective listening effort measurement method ACALES

 

Saskia Ibelings1,2, Michael Schulte1,3, Melanie Krüger1,3, Inga Holube2,3
1 Hörzentrum Oldenburg GmbH, Oldenburg, Deutschland
2 Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
3 Exzellenzcluster „Hearing4all“, Oldenburg, Deutschland

 

Zusammenfassung: Das Sprachverstehen kann durch die Kombination von auditiven und visuellen Sprachmerkmalen positiv beeinflusst werden. Dabei profitieren nicht nur Personen mit einer Hörbeeinträchtigung von den zusätzlichen Informationen durch das Mundbild, sondern auch Normalhörende. Hinsichtlich der Höranstrengung ergaben sich bisher jedoch unterschiedliche Ergebnisse. So zeigt eine Studie eine Abnahme, eine andere hingegen eine Zunahme der Höranstrengung bei zusätzlicher Präsentation des Mundbildes. Ziel der vorliegenden Studie war die Messung der subjektiven Höranstrengung bei audiovisueller Darbietung im Vergleich zur rein akustischen Präsentation. Als Messverfahren wurde die adaptive Skalierungsmethode ACALES (Adaptive CAtegorical Listening Effort Scaling, siehe Krueger et al. [15]) verwendet. Da ACALES bisher nur für rein akustische Stimuli genutzt wurde, war vorab eine Erweiterung des Verfahrens um die Wiedergabe audiovisueller Stimuli notwendig. Sowohl in der akustischen als auch in der audiovisuellen Kondition wurden Sätze des Oldenburger Satztestes (OLSA) bei Anwesenheit verschiedener Hintergrundgeräusche dargeboten. Zusätzlich wurde in der audiovisuellen Kondition das entsprechende Mundbild der Sprecherin auf einem Bildschirm gezeigt. Die Messungen wurden mit 15 jungen Personen mit normalem Hörvermögen und zehn älteren Personen mit Hörbeeinträchtigung durchgeführt. Basierend auf den Messungen der Höranstrengung in der akustischen und audiovisuellen Kondition für verschiedene Maskierer wurden die intra- und interindividuelle Standardabweichung sowie die Test-Retest-Reliabilität bestimmt. Für beide Konditionen ergab sich eine Abhängigkeit vom Maskierer. Neben einem signifikanten Unterschied zwischen audiovisueller und akustischer Kondition wurde ein signifikanter Unterschied zwischen den Probandengruppen ermittelt. Das Messverfahren eignet sich zur Erfassung interindividueller Unterschiede in der Bewertung der Höranstrengung und weist eine gute Reliabilität auf.

Stichwörter: Höranstrengung, ACALES, audiovisuell, Hörbeeinträchtigung, Sprache im Störgeräusch

 

Abstract: Speech intelligibility can be positively influenced by the combination of auditory and visual speech information. Not only do people with hearing difficulties benefit from the additional information provided by the mouth image, but also those with normal hearing. However, the results regarding listening effort have so far been ambiguous. Although one study showed a decrease in listening effort, another showed an increase in listening effort when the mouse image was also presented. The aim of the current study was to measure subjective listening effort in an audiovisual situation when compared to a purely acoustic presentation. The adaptive scaling method ACALES (Adaptive CAtegorical Listening Effort Scaling, see Krueger et al. [15]) was used. Since ACALES has previously only been used for purely acoustic stimuli, it was first necessary to extend the method to play videos. In the acoustic as well as in the audiovisual condition, sentences of the Oldenburg sentence test (OLSA) were presented in the presence of different background noises. Additionally, in the audiovisual condition the corresponding mouth image of the speaker was shown on a screen. The measurements were performed with 15 young participants that had normal hearing and ten older participants with hearing impairment. Besides measuring listening effort in acoustic and audiovisual conditions for different maskers, the intra- and interindividual standard deviation, as well as the test-retest-reliability, were determined. A dependence on the masker was found for both conditions. In addition to a significant difference between audiovisual and acoustic conditions, there was also a significant difference between the subject groups. The measurement method is suitable for recording interindividual differences in the evaluation of listening effort and has a good reliability.

 

Keywords: listening effort, ACLES, audiovisual, hearing impairment, speech in noise


*  Online Erstveröffentlichung im GMS Z Audiol (Audiol Acoust). doi: 10.3205/zaud000008

 
Z Audiol 2020; 59 (3) 95–104 – Neumayer/Adel/Baumann Drucken

Radiologische Bestimmung der Position von Cochlea-Implantat-Elektroden und deren Frequenzzuordnung nach unterschiedlichen Modellen


Radiological determination of the position of cochlear implant electrodes and their frequency assignment according to different models

 

Hannah-Lina Neumayer, Youssef Adel, Uwe Baumann
Audiologische Akustik, Klinik für HNO-Heilkunde, Universitätsklinikum Frankfurt, Frankfurt am Main

 

Zusammenfassung: Cochlea-Implantate (CI) sind heute das Mittel der Wahl, um bei ertaubten oder hochgradig schwerhörigen Patienten die Hörfunktion in Teilen wiederherzustellen. Durch den in die Cochlea eingebrachten Elektrodenträger können Spiralganglienneurone elektrisch stimuliert werden. Der von den Reizelektroden überspannte Stimulationsbereich hängt stark von der Elektrodenlänge, der Elektrodenbauform und den individuellen anatomischen Verhältnissen der Cochlea ab. Die Verteilung der den einzelnen Elektroden zugeordneten Bandpassfilterfrequenzen zeigt im Vergleich zur regulären Verteilung der Elektrodenposition-Frequenzzuordnung (Ep-Fz) auf der Basilarmembran einen Frequenzversatz (FV), der von der erreichten Insertionstiefe des Elektrodenträgers abhängt.

In der vorliegenden Arbeit wurden zur Untersuchung des FV postoperative digitale Volumentomographie-Aufnahmen (DVT) genutzt, welche zur Lagekontrolle des Elektrodenträgers (MED-EL FLEX28, Innsbruck, Österreich) bei N = 32 Ohren angefertigt wurden. Des Weiteren wurden die individuellen Einstellungen der CI-Prozessoren (MED-EL Sonnet) bezüglich der Zuordnung der Bandpassfilterfrequenzen herangezogen. Zur Bestimmung der individuellen Länge des ductus cochlearis (cochlear duct length, CDL) wurden mehrere Schichtbilder übereinandergelegt. Nach der Bestimmung der Referenzpunkte nach Escudé.et.al. (2006) [2] wurde individuell der CDL berechnet. Die in dieser Arbeit ermittelten CDL-Daten sind in Bezug auf die Verteilung mit den Ergebnissen von Escudé et al. vergleichbar. Ebenfalls konnten aus den DVT-Schnittbildern die Insertionswinkel der einzelnen Elektrodenkontakte bestimmt werden. Über die Insertionswinkel wurde die Ep-Fz mithilfe der Greenwood-Modellfunktion [4] der einzelnen Kontakte unter Zuhilfenahme der Modelle von Escudé et al. [2] sowie Stakhovskaya et.al. (2007) [3] berechnet. Der Vergleich der auf diese Weise ermittelten Ep-Fz mit der Frequenzbandzuordnung der individuell angepassten CI-Prozessoren zeigte einen FV zwischen 175,8 Hz und 5,48 kHz, der im apikalen stärker als im basalen Bereich ausfiel.

Insgesamt zeigte sich, dass mit der Berechnung nach Stakhovskaya et al. [3] mit Bezugspunkt Corti-Organ der Interquartilabstand der Ep-Fz-Differenz am geringsten ausfiel, was einer geringeren Streuung im Vergleich zum individualisierten Modell nach Escudé entspricht. Hieraus lässt sich schließen, dass für die untersuchte Elektrodenbauform (Elektrodenkontakte in Nähe der lateralen Wand) mit dem Bezugspunkt Corti-Organ eine individuellere Bestimmung der Ep-Fz möglich ist.

Stichwörter: Cochlea-Implantate, Cochlea-Implantat-Elektroden, Frequenzzuordnung

 

Abstract: Cochlear implants (CIs) are currently the therapy of choice to regain hearing sensation in patients with severe or complete hearing loss. The electrode carrier inserted into the cochlea can electrically stimulate auditory nerve fibers at different locations. The stimulated population depends on the length and design of the electrode, as well as the individual anatomical variations of the cochlea. The frequency mismatch between the bandpass filter frequency assigned to each electrode and the normal tonotopic distribution of characteristic frequencies along the basilar membrane depends mainly on the insertion depth of the electrode array.

In this study, cone-beam CT was collected from 32 ears after cochlear implantation (MED-EL FLEX28, Innsbruck, Austria) to assess electrode placement. CT images were analyzed to determine electrode positions and to calculate individual frequency mismatch. An overlay of selected slices was used to estimate individual cochlear duct length (CDL). CDL was calculated after setting reference points according to Escudé et al. (2006) [2]. CDL results were generally comparable with the data presented by Escudé et al. [2]. Furthermore, insertion angles of all electrodes were measured. Using the insertion angles, the tonotopic assignment according to Greenwood [4] (electrode position to frequency map, Ep-Fm) of the individual electrode contacts was determined using the models of Escudé et al. [2] as well as Stakhovskaya et al. (2007) [3]. The comparison of these results with the frequency band assignment of the individual CI processor fitting (MED-EL SONNET) showed a frequency mismatch between 175.8 Hz and 5.48 kHz, which was higher in the apical than in the basal region.

The results of this study showed that the calculation proposed by Stakhovskaya et al. [3] with the organ of Corti as the reference point yielded the minimal interquartile range of the Ep-Fm difference from the individualized model according to Escudé. Thus it can be concluded that for electrode locations close to the lateral wall this method allows a more accurate determination of characteristic frequency allocations.

 

Keywords: cochlear implants, cochlear implant electrodes, frequency assignment


*  Online Erstveröffentlichung im GMS Z Audiol (Audiol Acoust). doi: 10.3205/zaud000006

 
<< Anfang < Vorherige 1 2 3 4 5 6 Nächste > Ende >>

Ergebnisse 34 - 44 von 56
© 2021 Zeitschrift für Audiologie / Audiological Acoustics