Hauptmenü
Home
Die Zeitschrift
Über uns
Impressum
Kontakt
Autorenhinweise
Artikel-Archiv
Aus der Z-Audiol
Datenschutz
Anmelde-Formular





Passwort vergessen?
Noch kein Benutzerkonto?
Registrieren
Aus der Z-Audiol
Z Audiol 2022; 61 (1) 16–26 – Kerner/Winkler/Holube Drucken

Untersuchung des Einflusses der Störgeräuschrichtung auf das Sprachverstehen mit Richtmikrofonsystem 


Exploration of the influence of noise direction on speech recognition with a directional microphone system

 

Maximilian Kerner, Alexandra Winkler, Inga Holube 
Institut für Hörtechnik und Audiologie, Jade Hochschule und Exzellenzcluster „Hearing4All“, Oldenburg

 

Zusammenfassung: Im Rahmen der Hörgeräteversorgung werden zur Erfolgskontrolle Messungen des Sprachverstehens im Störgeräusch durchgeführt. In der Hilfsmittel-Richtlinie ist die minimal zu erreichende Verbesserung, aber nicht die räumliche Messanordnung der Sprach- und Störgeräuschsignale vorgegeben. Um den Einfluss der räumlichen Anordnung abschätzen zu können, wurde die Abhängigkeit des Sprachverstehens von verschiedenen Störgeräuschrichtungen und die jeweilige Verbesserung des Signal-Rausch-Abstands (SNR) durch ein typischerweise in Hörgeräten verwendetes Richtmikrofon untersucht. Hierfür wurde eine virtuelle akustische Umgebung mit der Toolbox for Acoustic Scene Creation and Rendering (TASCAR) erstellt. In der Kombination mit Außenohrübertragungsfunktionen und dem Master Hearing Aid (MHA) wurde eine möglichst realitätsnahe Hörsituation über Kopfhörer simuliert. Die Messungen wurden mit jungen Probanden ohne Hörbeeinträchtigung durchgeführt, sodass das MHA für die Messungen nur eine Richtmikrofonimplementierung beinhaltete.

Das Störgeräusch wurde aus den in der Praxis häufig verwendeten Richtungen 0°, 90°, 180°, aus der in DIN EN ISO 8253-3 spezifizierten Richtung ±45°, aus ±135° und aus allen Richtungen gleichzeitig (diffus) präsentiert. Als Sprachtests wurden der Oldenburger Satztest (OLSA) und der Freiburger Einsilbertest (FBE) verwendet, wobei das Sprachsignal immer frontal dargeboten wurde. Für den OLSA wurde für jede Kondition (sechs Störgeräuschrichtungen jeweils mit und ohne Richtmikrofonsystem) die Schwelle ermittelt, bei der die Probanden ein Sprachverstehen von 50 % erreichten (SRT50). Beim FBE wurde für jede Kondition (fünf Störgeräuschrichtungen, ohne ±45°) das prozentuale Sprachverstehen bei einem festen SNR ermittelt. Für den OLSA wurde außerdem die SNR-Verbesserung durch das Richtmikrofonsystem berechnet. Die Ergebnisse zeigen sowohl mit als auch ohne Richtmikrofonsystem einen Einfluss der Störgeräuschrichtung auf das Sprachverstehen. Die perzeptiven Verbesserungen im Sprachverstehen stimmten mit den richtungsabhängigen gemessenen SNR-Verbesserungen durch das Richtmikrofonsystem überein. Aufgrund dieser Ergebnisse mit jungen Probanden ohne Hörbeeinträchtigung sollten weitere Studien mit Probanden mit Hörbeeinträchtigung folgen, um die fehlende einheitliche Angabe der Sprach- und Störgeräuschrichtung in der Hilfsmittel-Richtlinie zu diskutieren.

 

Stichwörter: Hilfsmittel-Richtlinie, Störgeräuschrichtung, Freiburger Einsilbertest, Oldenburger Satztest, Toolbox for Acoustic Scene Creation and Rendering, Master Hearing Aid, Richtmikrofon

 

Abstract: Within the scope of the hearing aid fitting, measurements of speech recognition in noise are carried out to validate the success of the fitting. The guideline for hearing aid provision in Germany specifies the minimum improvement to be achieved, but not the spatial measurement condition of speech and noise signals. To estimate the influence of the spatial conditions, speech recognition was examined in its dependence on different noise directions and the respective improvement in signal-to-noise ratio (SNR) when using a typical directional microphone in hearing aids. Therefore, a virtual acoustic environment was created using the Toolbox for Acoustic Scene Creation and Rendering (TASCAR). In combination with Head-Related Transfer Functions and the Master Hearing Aid (MHA), a listening situation, as realistic as possible, was simulated via headphones. The measurements were performed by young participants with normal hearing. The MHA included only a directional microphone implementation.

The noise was presented from the directions 0°, 90°, 180°, the direction ±45° as specified in DIN EN ISO 8253-3, ±135°, and from all directions simultaneously (diffuse). The speech signal was always presented from the frontal direction. The Oldenburg sentence test (OLSA) and the Freiburg monosyllabic speech test (FBE) were used. For OLSA, speech recognition thresholds for scores of 50 % (SRT50) were measured for each condition (six noise directions, each with and without MHA). For FBE, speech recognition was determined as a percentage score at different fixed SNR for each condition (five noise directions, without ±45°). For OLSA, the SNR improvement due to the directional microphone was also calculated. The results showed that, regardless of the use of the directional microphone, the noise direction had an influence on speech recognition. The perceptual improvements in speech recognition were consistent with the directional SNR improvements measured by the directional microphone system. Based on these results with young participants without hearing impairment, further studies with participants with hearing impairment should follow to discuss the missing standardization of speech and noise direction in the guideline for hearing-aid provision in Germany.

 

Keywords: German guidelines for hearing-aid provision, noise direction, Freiburg monosyllabic speech test, Oldenburg sentence test, toolbox for acoustic scene creation and rendering, master hearing aid, directional microphone

 

Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) DOI: 10.3205/zaud000017

 
Z Audiol 2021; 60 (4) 138–148 – Zinner/Winkler/Holube Drucken

Vergleich von fünf Sprachtests im sprachsimulierenden Störgeräusch 


Comparison of five speech tests in speech-simulating noise

 

Christina Zinner, Alexandra Winkler, Inga Holube 
Institut für Hörtechnik und Audiologie, Jade Hochschule, und Exzellenzcluster „Hearing4All“, Oldenburg

 

Zusammenfassung: In Deutschland stehen mehrere Sprachtestverfahren zur Verfügung, die jeweils mit unterschiedlichen Störgeräuschen und teils auch verschiedenen Kalibrierungsverfahren verwendet werden. Dadurch können Vergleiche zwischen den Ergebnissen der jeweiligen Sprachtests nur bedingt erfolgen. Zur Untersuchung der Unterschiede zwischen dem Freiburger Einsilbertest, dem Oldenburger Satztest, dem Göttinger Satztest, dem Hochmair-Schulz-Moser-Satztest und dem Reimtest nach von Wallenberg und Kollmeier wurden deshalb die Messbedingungen angeglichen. Zum einen wurden alle Sprachmaterialien auf den gleichen mittleren Langzeitpegel kalibriert. Zum anderen wurden neue sprachsimulierende Rauschen (Speech-Adjusted Noise (SAN)) durch 30fache Überlagerung des jeweiligen Sprachmaterials generiert. Diese SAN-Rauschen weichen zum Teil deutlich vom Spektrum der standardmäßig verwendeten Rauschen (STD-Rauschen) ab. Das Sprachverstehen in SAN- und in STD-Rauschen wurde mit 22 jungen Probanden ohne Hörbeeinträchtigungen im Freifeld ermittelt. Sowohl die Sprache als auch die Störgeräusche wurden über einen Lautsprecher aus der 0°-Richtung dargeboten. Jedes der fünf Sprachmaterialien wurde in den Störgeräuschen bei mindestens drei Signal-Rausch-Abständen präsentiert. An die Messergebnisse wurden Diskriminationsfunktionen angepasst und die Schwelle für 50 %iges Sprachverstehen (SRT50) mit der entsprechenden Steigung ermittelt. Die Differenz zwischen den SRT50-Werten für die STD-Rauschen und die SAN-Rauschen war für den Hochmair-Schulz-Moser-Satztest mit 4,0 dB am größten und für den Göttinger Satztest mit 0,7 dB am geringsten. Bei Verwendung der SAN-Rauschen und gleichem Kalibrierverfahren wichen die SRT50-Werte der fünf Sprachmaterialien um maximal 2,7 dB voneinander ab. Die Steigungen der Diskriminationsfunktionen unterschieden sich im STD-Rauschen um bis zu 15,1 %-Punkte/dB. Diese Diskrepanz reduzierte sich im SAN-Rauschen innerhalb der Satztests auf 1,8 %-Punkte/dB sowie innerhalb der Worttests auf 0,2 %-Punkte/dB und war für die Satztestverfahren signifikant steiler als für die Worttests.

 

Stichwörter: Sprachtests, Sprache im Störgeräusch, sprachsimulierendes Störgeräusch, Kalibrierung, OLSA, FBE, GÖSA, WAKO, HSM

 

Abstract: There are several speech recognition tests available in Germany. They are often used with different background noises and with different calibration methods. Therefore, comparisons between the resulting speech recognition scores can only be made conditionally. Here, measurement conditions were adjusted to examine the differences in speech recognition using the Freiburg monosyllabic speech test, Oldenburg and Göttingen sentence test, Hochmair-Schulz-Moser sentence test, and monosyllabic rhyme test according to von Wallenberg and Kollmeier. First, all speech data sets were calibrated to the same average long-term level. Second, new speech-simulating noises (speech-adjusted noise (SAN)) were generated from the speech materials. For this purpose, each set of speech material was superimposed 30 times. These SAN noises differ substantially from the spectrum of standard (STD) noises. The speech recognition thresholds in STD and SAN noises were measured with 22 young listeners without hearing deficits in the free field. Both speech and background noise were presented via one loudspeaker from the 0° direction. Each of the five speech tests was presented in background noise with at least three signal-to-noise ratios. Discrimination functions were fitted to the results and the thresholds for a speech recognition score of 50 % (SRT50) and the corresponding slopes were determined. The difference in SRT50 between STD and SAN noise was largest (4.0 dB) for the Hochmair-Schulz-Moser sentence test and was only 0.7 dB for the Göttingen sentence test. When using SAN noise and the same calibration method, the SRT50 values of the five speech sets deviated from each another by maximally 2.7 dB. The slopes of the discrimination functions differed by up to 15.1%-points/dB in STD noise. This deviation was reduced in SAN noise to 1.8%-points/dB within the sentence tests and to 0.2%-points/dB within the word tests. In addition, the slopes were significantly steeper for the sentence tests than for the word tests.

 

Keywords: speech test, speech in background noise, speech-simulating noise, calibration, OLSA, FBE, GÖSA, WAKO, HSM


Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) doi: 10.3205/zaud000016



 
Z Audiol 2021; 60 (3) 94–103 – Winkler/Schlüter/Gebauer/Seifert/Tuschen/Radeloff/Holube Drucken

Einfluss von Sprechtempo und Störgeräusch auf das Sprachverstehen im Göttinger und im HSM-Satztest


Impact of speech rate and noise on speech recognition in Göttingen and HSM sentence test

 

Alexandra Winkler1,3, Anne Schlüter1,3, Tina Gebauer1, Josephine Seifert1, Laura Tuschen1, Andreas Radeloff2,3,4, Inga Holube1,3
1 Institut für Hörtechnik und Audiologie, Jade Hochschule Oldenburg
2 Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus Oldenburg, Carl von Ossietzky Universität, Oldenburg
3 Exzellenzcluster „Hearing4All“, Oldenburg
4 Forschungszentrum Neurosensorik, Carl von Ossietzky Universität, Oldenburg

 

Zusammenfassung: Das Sprachverstehen von Cochlea-Implantat(CI)-Trägern kann u. a. mit dem Hochmair-Schulz-Moser(HSM)-Satztest oder dem Göttinger Satztest (GÖSA) überprüft werden. Beide Satztests bestehen aus Alltagssätzen, unterscheiden sich aber in der Artikulation, im Sprechtempo, im verwendeten Störgeräusch und in der Kalibrierung. Im klinischen Alltag wird der GÖSA im Vergleich zum HSM für CI-Träger teilweise als zu schwierig angesehen. Die Sprechrate als Maß für das Sprechtempo ist mit 279 Silben/min beim GÖSA höher als beim HSM mit 222 Silben/min. Die standardmäßig verwendeten Störgeräusche (CCITT-Rauschen beim HSM und GÖnoise beim GÖSA) bewirken eine unterschiedliche Verdeckung des Sprachmaterials. Um den Einfluss des Störgeräuschs und des Sprechtempos zu erfassen, wurde das Sprachverstehen bei CI-Trägern und bei einer Kontrollgruppe ohne Hörbeeinträchtigung (NH-Gruppe) mit beiden Sprachtests bestimmt. Als Störgeräusche dienten in beiden Sprachtests das CCITT-Rauschen und ein sprachsimulierendes Rauschen (GÖnoise im GÖSA und ein aus seinem Sprachmaterial generiertes Störgeräusch im HSM). Weiterhin wurde die Sprechrate der Sprachmaterialien so verändert, dass der HSM und der GÖSA jeweils eine Sprechrate von 222 und von 279 Silben/min aufwiesen. Pro Satztest wurden damit die Schwellen für ein Sprachverstehen von 50 % (SRT50) bei zwei verschiedenen Sprechraten und zwei verschiedenen Störgeräuschen, also vier Messkonditionen, ermittelt. Die Darbietung der Signale erfolgte in einer gedämmten Freifeldkabine über einen Lautsprecher, der sich frontal vor dem Probanden befand. Die SRT50-Werte im GÖSA unterschieden sich für die vier Messkonfigurationen weder für die CI-Träger noch für die NH-Gruppe signifikant voneinander. Beim HSM hingegen hatten die Sprechrate und das verwendete Störgeräusch einen signifikanten Einfluss auf das Sprachverstehen. Mit zunehmender Sprechrate erhöhte (verschlechterte) sich der SRT50. Das sprachsimulierende Rauschen führte im Vergleich zum CCITT-Rauschen zu besseren SRT50-Werten bei den CI-Trägern, während sich die SRT50-Werte für die NH-Gruppe verschlechterten. Bei Verwendung der gleichen Kalibrierung sind die SRT50-Werte für den HSM mit erhöhter Sprechrate in der NH-Gruppe für das sprachsimulierende Rauschen und in der CI-Gruppe für das CCITT-Rauschen mit den SRT50-Werten für den GÖSA vergleichbar.

 

Stichwörter: HSM, GÖSA, CI, Sprechtempo, Zeitkompression, Störgeräusch, Sprachverstehen

 

Abstract: Speech recognition for cochlear implant (CI) users can be derived using the Hochmair-Schulz-Moser(HSM) sentence test or the Göttingen sentence test (GÖSA). Both tests use everyday sentences, but they differ in articulation, speech tempo, interfering noise and calibration. The GÖSA is regarded in clinical practice as being more difficult to understand for CI users than HSM. Speech rate as a measure of speech tempo of GÖSA is 279 syllables/min and higher than the speech rate of HSM (222 syllables/min). The typical interfering noises, which are used (CCITT noise for HSM and GÖnoise for GÖSA), cause different masking patterns of speech material. Speech recognition was determined using different noises and speech rates for HSM and GÖSA for CI users and people without hearing impairment (NH). CCITT noise and speech simulating noises (GÖnoise for GÖSA and a noise generated from the speech material of HSM) were used for GÖSA and HSM. Speech rate of GÖSA and HSM was changed to present both speech materials at 222 and 279 syllables/min. Therefore, speech recognition thresholds (SRT50) for a score of 50 % correct were measured for four different conditions per speech test (two different noises and two different speech rates). All signals (noise and speech) were presented in a sound attenuated booth using one loudspeaker, which was placed in front of the listeners. There was no significant difference in SRT50-values for all GÖSA conditions for both groups of participants. SRT50-values in HSM significantly differed depending on speech rate and noise. SRT50-values increased with increasing speech rate. CI users showed significantly increased SRT50-values in CCITT whereas for group NH, decreasing SRT50-values in CCITT were observed. When using the same calibration, SRT50-values for HSM with higher speech rate were comparable to those for GÖSA for group NH in speech simulating noise and for group CI in CCITT.

 

Keywords: HSM, GÖSA, CI, speech rate, time compression, noise, speech recognition



 
Z Audiol 2021; 60 (3) 104–107 – Mühler Drucken

Registrierung stationärer Potenziale des auditorischen Systems (ASSR) in Echtzeit mit einem Lock-in-Verstärker


Recording of auditory steady-state evoked responses (ASSR) in real-time using a lock-in amplifier

 

Roland Mühler
Abteilung für Experimentelle Audiologie, Otto-von-Guericke-Universität Magdeburg

 

Zusammenfassung: Stationäre Potenziale des auditorischen Systems (ASSR) findet man bei periodischer Stimulation des Hörsystems im EEG-Spektrum als Spektrallinien mit exakt der Reizrate. Benutzt man zur Trennung von Signal und Störung die für transiente Potenziale übliche Mittelung reizsynchroner EEG-Abschnitte, wird die besondere Eigenschaft der stationären Potenziale, die exakte Kenntnis ihrer Frequenz, nicht beachtet. Ein Monitoring der ASSR in Echtzeit ist bei Anwendung des Mittelungsverfahrens nur eingeschränkt möglich. Diese Arbeit greift eine Idee von Schacham et al. [1] auf und beschreibt einen experimentellen Aufbau, der es erlaubt, stationäre Potenziale des auditorischen Systems mithilfe eines kommerziellen Lock-in-Verstärkers (Stanford Research 830) in Echtzeit darzustellen. In einem Lock-in-Verstärker wird das verrauschte Nutzsignal mit einem Referenzsignal mit der Frequenz des Nutzsignals multipliziert. Ein Tiefpass eliminiert alle nicht zur Nutzfrequenz synchronen Rauschanteile, sodass am Ausgang des Lock-in-Verstärkers eine dem Nutzsignal proportionale Gleichspannung anliegt. Das hier erstmals vorgestellte Messprinzip eignet sich für die Darstellung stationärer evozierte Potenziale bekannter Frequenz besonders gut. Für Chirpreize mit 40 pps und 50 dB nHL Reizpegel wurden an einer erwachsenen normalhörenden Probandin erfolgreich Amplituden-Zeit-Verläufe mit Zeitkonstanten von wenigen Sekunden registriert.

 

Stichwörter: evozierte Potenziale, stationäre Potenziale, ASSR, Lock-in-Verstärker

 

Abstract: Human auditory steady-state responses (ASSRs) are represented in the Electroencephalogram (EEG) by single spectral lines at the stimulus repetition rate. To increase the small signal-to-noise ratio of these responses, commercial ASSR systems usually average several segments of the EEG signal prior to be converted from the time domain into the frequency domain. The averaging process however does not allow for a recording of ASSR in real time. This paper describes an experimental setup which replaces averaging and frequency analysis by a lock-in amplifier. Lock-in amplifiers are widely used in experimental physics to extract small signals of known frequency from an extremely noisy background. A lock-in amplifier multiplies the (noisy) input signal by a reference signal. Subsequent integration with a time constant of a few seconds results in a DC signal. In our setup, with a reference signal at the same frequency as the stimulus repetition rate, the DC output is proportional to the ASSR amplitude.

Auditory steady-state responses were evoked in one normal hearing female adult by presenting wide-band chirp stimuli at 40 Hz repetition rate and 50 dB nHL presentation level through an insert earphone. The amplified and band pass filtered EEG signal was fed to the input channel of a Stanford Research Type 830 lock-in amplifier. A reference signal phase locked to the stimulus was fed to the amplifier’s reference input. The DC output was maximized by manually shifting the phase of the reference signal. A Digital Multimeter (Keysight DMM34460A) and a Data Acquisition Application (Keysight BenchVue) were used to record the time course of the DC output proportional to the ASSR amplitude. Switching the acoustical stimulus on and off periodically, the DC output follows the response amplitude in real time. Typical examples for time constants of 1 s and 3 s are presented.

This paper presents a feasibility analysis of a recording setup for auditory steady-state responses using a lock-in amplifier. The proposed method could be of some interest for intraoperative monitoring of the auditory nerve during implantation of middle ear protheses, neurosurgical procedures, and for brain-computer interfaces (BCI).

 

Keywords: auditory steady-state responses, ASSR, lock-in amplifier



 
Z Audiol 2020; 59 (4) 138–145 – Eichenauer/Baumann/Weißgerber Drucken

Implementierung und Evaluation einer akustischen Raumsimulation für audiologische Testungen


Implementation and evaluation of acoustic room simulation for audiological testing

 

Anja Eichenauer, Uwe Baumann, Tobias Weißgerber
Audiologische Akustik, Klinik für HNO-Heilkunde, Universitätsklinikum Frankfurt am Main

 

Zusammenfassung: In alltäglichen Hörsituationen ist die akustische Kommunikation von verschiedenen, anspruchsvollen akustischen Umgebungen geprägt. In der Regel treten Nebengeräusche auf und zusätzlich wird der Schall in Räumen von Wänden und Gegenständen reflektiert. Reflexionen haben einen Einfluss auf die Diskrimination von Sprachinformationen, jedoch werden audiologische Routinemessungen weitgehend in Messkabinen mit geringer Nachhallzeit durchgeführt. Das Ziel dieser Arbeit war die Implementierung und Evaluation eines Raumsimulationssystems zur Untersuchung der Hörleistung in alltagsnahen Hörsituationen mit unterschiedlicher Raumakustik und Nachhall.

Mithilfe einer Raumsimulations-Software wurde die Schallausbreitung in Abhängigkeit der Raumgeometrie und der Raumakustik berechnet. Über ein Multikanal-Wiedergabesystem mit 128 Lautsprechern werden den Ergebnissen der Simulation folgend der Anteil des Direktschalls und der Raumreflexionen wiedergegeben. Somit können beliebige Räume unter realitätsnahen und kontrollierten akustischen Bedingungen im Labor rekonstruiert werden.

Das Verfahren wurde anhand eines Raummodells eines leeren Hörsaals für verschiedene Absorptionsgrade evaluiert. Technische Messungen der Nachhallzeit (RT) und des Deutlichkeitgrades (D50) zeigten gute Übereinstimmung mit den Modellvorgaben. Zusätzlich wurden interaurale Pegeldifferenzen (ILDs) aufgezeichnet und in Bezug zu Sprachverständlichkeitsschwellen gebracht. Es zeigte sich, dass die ILDs mit zunehmendem Nachhall um bis zu 10 dB abnehmen. Gleichzeitig ist im Vergleich zwischen Freifeld und Nachhallkondition eine Verschlechterung des spatial release from masking (SRM) um bis zu 5,5 dB SNR zu verzeichnen.

Die Untersuchung der Diskrimination von Sprache mittels des vorgestellten Raumsimulations-Systems erweist sich als sinnvolle Ergänzung zu etablierten audiologischen Messverfahren. Ein unter bestimmten raumakustischen Bedingungen erzieltes Sprachverstehen kann reproduzierbar und zuverlässig untersucht werden.

Stichwörter: Raumsimulation, Nachhall, Sprachverstehen, räumliche Entmaskierung, SRM, interaural level difference, ILD

 

Abstract: Communication in everyday life listening situations is characterized by a variety of challenging acoustic scenes. Usually, background noise sources are present and, additionally, direct sound in rooms is reflected from walls and surfaces. These reflections affect speech perception. However, audiological assessments are usually performed in audiometric booths with very short reverberation time. The present study aims at implementing and evaluating a room simulation system to examine hearing ability in everyday life listening situations with different acoustic properties and reverberation.

By means of a room simulation software sound propagation was calculated in relation to room geometry and acoustic room parameters. The direct sound and its reflections are presented according to their direction by using a multichannel playback system with 128 loudspeakers. The setup is able to simulate desired room characteristics in the laboratory under realistic and controllable acoustic conditions.

The room simulation procedure was evaluated using an empty auditorium with different degrees of absorption properties. Technical measurements of reverberation time (RT) and distinctness (D50) showed good agreement with the model data. Additionally, interaural level differences (ILDs) were recorded and correlated with speech reception thresholds. ILDs are reduced up to 10 dB with increasing reverberation. At the same time, spatial release from masking (SRM) compared to free field conditions decreased up to 5.5 dB SNR.

The determination of speech discrimination using the presented room simulation system is a useful complement to established audiological measurements. Hearing performance can be determined reproducibly and reliably under defined acoustic properties.

 

Keywords: Room simulation, reverberation, speech perception, spatial release from masking, SRM, interaural level difference, ILD



 
Z Audiol 2020; 59 (3) 106–116 – Ibelings/Michael Schulte/Melanie Krüger/Inga Holube Drucken

Audiovisuelle Realisierung des subjektiven Höranstrengungsmessverfahrens ACALES


Audiovisual realization of the subjective listening effort measurement method ACALES

 

Saskia Ibelings1,2, Michael Schulte1,3, Melanie Krüger1,3, Inga Holube2,3
1 Hörzentrum Oldenburg GmbH, Oldenburg, Deutschland
2 Institut für Hörtechnik und Audiologie, Jade Hochschule, Oldenburg, Deutschland
3 Exzellenzcluster „Hearing4all“, Oldenburg, Deutschland

 

Zusammenfassung: Das Sprachverstehen kann durch die Kombination von auditiven und visuellen Sprachmerkmalen positiv beeinflusst werden. Dabei profitieren nicht nur Personen mit einer Hörbeeinträchtigung von den zusätzlichen Informationen durch das Mundbild, sondern auch Normalhörende. Hinsichtlich der Höranstrengung ergaben sich bisher jedoch unterschiedliche Ergebnisse. So zeigt eine Studie eine Abnahme, eine andere hingegen eine Zunahme der Höranstrengung bei zusätzlicher Präsentation des Mundbildes. Ziel der vorliegenden Studie war die Messung der subjektiven Höranstrengung bei audiovisueller Darbietung im Vergleich zur rein akustischen Präsentation. Als Messverfahren wurde die adaptive Skalierungsmethode ACALES (Adaptive CAtegorical Listening Effort Scaling, siehe Krueger et al. [15]) verwendet. Da ACALES bisher nur für rein akustische Stimuli genutzt wurde, war vorab eine Erweiterung des Verfahrens um die Wiedergabe audiovisueller Stimuli notwendig. Sowohl in der akustischen als auch in der audiovisuellen Kondition wurden Sätze des Oldenburger Satztestes (OLSA) bei Anwesenheit verschiedener Hintergrundgeräusche dargeboten. Zusätzlich wurde in der audiovisuellen Kondition das entsprechende Mundbild der Sprecherin auf einem Bildschirm gezeigt. Die Messungen wurden mit 15 jungen Personen mit normalem Hörvermögen und zehn älteren Personen mit Hörbeeinträchtigung durchgeführt. Basierend auf den Messungen der Höranstrengung in der akustischen und audiovisuellen Kondition für verschiedene Maskierer wurden die intra- und interindividuelle Standardabweichung sowie die Test-Retest-Reliabilität bestimmt. Für beide Konditionen ergab sich eine Abhängigkeit vom Maskierer. Neben einem signifikanten Unterschied zwischen audiovisueller und akustischer Kondition wurde ein signifikanter Unterschied zwischen den Probandengruppen ermittelt. Das Messverfahren eignet sich zur Erfassung interindividueller Unterschiede in der Bewertung der Höranstrengung und weist eine gute Reliabilität auf.

Stichwörter: Höranstrengung, ACALES, audiovisuell, Hörbeeinträchtigung, Sprache im Störgeräusch

 

Abstract: Speech intelligibility can be positively influenced by the combination of auditory and visual speech information. Not only do people with hearing difficulties benefit from the additional information provided by the mouth image, but also those with normal hearing. However, the results regarding listening effort have so far been ambiguous. Although one study showed a decrease in listening effort, another showed an increase in listening effort when the mouse image was also presented. The aim of the current study was to measure subjective listening effort in an audiovisual situation when compared to a purely acoustic presentation. The adaptive scaling method ACALES (Adaptive CAtegorical Listening Effort Scaling, see Krueger et al. [15]) was used. Since ACALES has previously only been used for purely acoustic stimuli, it was first necessary to extend the method to play videos. In the acoustic as well as in the audiovisual condition, sentences of the Oldenburg sentence test (OLSA) were presented in the presence of different background noises. Additionally, in the audiovisual condition the corresponding mouth image of the speaker was shown on a screen. The measurements were performed with 15 young participants that had normal hearing and ten older participants with hearing impairment. Besides measuring listening effort in acoustic and audiovisual conditions for different maskers, the intra- and interindividual standard deviation, as well as the test-retest-reliability, were determined. A dependence on the masker was found for both conditions. In addition to a significant difference between audiovisual and acoustic conditions, there was also a significant difference between the subject groups. The measurement method is suitable for recording interindividual differences in the evaluation of listening effort and has a good reliability.

 

Keywords: listening effort, ACLES, audiovisual, hearing impairment, speech in noise


*  Online Erstveröffentlichung im GMS Z Audiol (Audiol Acoust). doi: 10.3205/zaud000008

 
Z Audiol 2020; 59 (3) 95–104 – Neumayer/Adel/Baumann Drucken

Radiologische Bestimmung der Position von Cochlea-Implantat-Elektroden und deren Frequenzzuordnung nach unterschiedlichen Modellen


Radiological determination of the position of cochlear implant electrodes and their frequency assignment according to different models

 

Hannah-Lina Neumayer, Youssef Adel, Uwe Baumann
Audiologische Akustik, Klinik für HNO-Heilkunde, Universitätsklinikum Frankfurt, Frankfurt am Main

 

Zusammenfassung: Cochlea-Implantate (CI) sind heute das Mittel der Wahl, um bei ertaubten oder hochgradig schwerhörigen Patienten die Hörfunktion in Teilen wiederherzustellen. Durch den in die Cochlea eingebrachten Elektrodenträger können Spiralganglienneurone elektrisch stimuliert werden. Der von den Reizelektroden überspannte Stimulationsbereich hängt stark von der Elektrodenlänge, der Elektrodenbauform und den individuellen anatomischen Verhältnissen der Cochlea ab. Die Verteilung der den einzelnen Elektroden zugeordneten Bandpassfilterfrequenzen zeigt im Vergleich zur regulären Verteilung der Elektrodenposition-Frequenzzuordnung (Ep-Fz) auf der Basilarmembran einen Frequenzversatz (FV), der von der erreichten Insertionstiefe des Elektrodenträgers abhängt.

In der vorliegenden Arbeit wurden zur Untersuchung des FV postoperative digitale Volumentomographie-Aufnahmen (DVT) genutzt, welche zur Lagekontrolle des Elektrodenträgers (MED-EL FLEX28, Innsbruck, Österreich) bei N = 32 Ohren angefertigt wurden. Des Weiteren wurden die individuellen Einstellungen der CI-Prozessoren (MED-EL Sonnet) bezüglich der Zuordnung der Bandpassfilterfrequenzen herangezogen. Zur Bestimmung der individuellen Länge des ductus cochlearis (cochlear duct length, CDL) wurden mehrere Schichtbilder übereinandergelegt. Nach der Bestimmung der Referenzpunkte nach Escudé.et.al. (2006) [2] wurde individuell der CDL berechnet. Die in dieser Arbeit ermittelten CDL-Daten sind in Bezug auf die Verteilung mit den Ergebnissen von Escudé et al. vergleichbar. Ebenfalls konnten aus den DVT-Schnittbildern die Insertionswinkel der einzelnen Elektrodenkontakte bestimmt werden. Über die Insertionswinkel wurde die Ep-Fz mithilfe der Greenwood-Modellfunktion [4] der einzelnen Kontakte unter Zuhilfenahme der Modelle von Escudé et al. [2] sowie Stakhovskaya et.al. (2007) [3] berechnet. Der Vergleich der auf diese Weise ermittelten Ep-Fz mit der Frequenzbandzuordnung der individuell angepassten CI-Prozessoren zeigte einen FV zwischen 175,8 Hz und 5,48 kHz, der im apikalen stärker als im basalen Bereich ausfiel.

Insgesamt zeigte sich, dass mit der Berechnung nach Stakhovskaya et al. [3] mit Bezugspunkt Corti-Organ der Interquartilabstand der Ep-Fz-Differenz am geringsten ausfiel, was einer geringeren Streuung im Vergleich zum individualisierten Modell nach Escudé entspricht. Hieraus lässt sich schließen, dass für die untersuchte Elektrodenbauform (Elektrodenkontakte in Nähe der lateralen Wand) mit dem Bezugspunkt Corti-Organ eine individuellere Bestimmung der Ep-Fz möglich ist.

Stichwörter: Cochlea-Implantate, Cochlea-Implantat-Elektroden, Frequenzzuordnung

 

Abstract: Cochlear implants (CIs) are currently the therapy of choice to regain hearing sensation in patients with severe or complete hearing loss. The electrode carrier inserted into the cochlea can electrically stimulate auditory nerve fibers at different locations. The stimulated population depends on the length and design of the electrode, as well as the individual anatomical variations of the cochlea. The frequency mismatch between the bandpass filter frequency assigned to each electrode and the normal tonotopic distribution of characteristic frequencies along the basilar membrane depends mainly on the insertion depth of the electrode array.

In this study, cone-beam CT was collected from 32 ears after cochlear implantation (MED-EL FLEX28, Innsbruck, Austria) to assess electrode placement. CT images were analyzed to determine electrode positions and to calculate individual frequency mismatch. An overlay of selected slices was used to estimate individual cochlear duct length (CDL). CDL was calculated after setting reference points according to Escudé et al. (2006) [2]. CDL results were generally comparable with the data presented by Escudé et al. [2]. Furthermore, insertion angles of all electrodes were measured. Using the insertion angles, the tonotopic assignment according to Greenwood [4] (electrode position to frequency map, Ep-Fm) of the individual electrode contacts was determined using the models of Escudé et al. [2] as well as Stakhovskaya et al. (2007) [3]. The comparison of these results with the frequency band assignment of the individual CI processor fitting (MED-EL SONNET) showed a frequency mismatch between 175.8 Hz and 5.48 kHz, which was higher in the apical than in the basal region.

The results of this study showed that the calculation proposed by Stakhovskaya et al. [3] with the organ of Corti as the reference point yielded the minimal interquartile range of the Ep-Fm difference from the individualized model according to Escudé. Thus it can be concluded that for electrode locations close to the lateral wall this method allows a more accurate determination of characteristic frequency allocations.

 

Keywords: cochlear implants, cochlear implant electrodes, frequency assignment


*  Online Erstveröffentlichung im GMS Z Audiol (Audiol Acoust). doi: 10.3205/zaud000006

 
<< Anfang < Vorherige 1 2 3 4 5 6 7 Nächste > Ende >>

Ergebnisse 45 - 55 von 67
© 2023 Zeitschrift für Audiologie / Audiological Acoustics