Hauptmenü
Home
Die Zeitschrift
Über uns
Impressum
Kontakt
Autorenhinweise
Artikel-Archiv
Aus der Z-Audiol
Datenschutz
Anmelde-Formular





Passwort vergessen?
Noch kein Benutzerkonto?
Registrieren
Herzlich Willkommen

Wir freuen uns über Ihren Besuch auf www.z-audiol.de

 

Diese älteste mitteleuropäische Zeitschrift dieser Thematik informiert über aktuelle wissenschaftliche Erkenntnisse durch Originalarbeiten und Tutorials, Nachrichten, Reportagen, Interviews, Kommentare, Rezensionen, Personalia und Veranstaltungshinweise, kurzum: In der »Zeitschrift für Audiologie« steht alles Wissenswerte aus diesem und den benachbarten Fachbereichen wie der Pädaudiologie, Logopädie, HNO-Heilkunde, Hörakustik, Audiometrie, Hörgeschädigtenpädagogik etc. Darüber hinaus verbreitet die Zeitschrift die Mitteilungen der Deutschen Gesellschaft für Audiologie.

 

Dem internationalen Charakter entsprechend, erscheinen die Originalarbeiten und Tutorials in der »Zeitschrift für Audiologie« optional in englischer Sprache (mit deutscher Kurzfassung) oder deutschsprachig (mit Summaries in Englisch). Die Tabellen- und Bildlegenden sind stets zweisprachig.

 

Für die Qualität des redaktionellen Inhalts bürgt ein Expertenteam der verschiedenen Fakultäten aus dem In- und Ausland.

 

Die Online-Plattform ist das Zentralarchiv aller wissenschaftlichen Beiträge der Fachzeitschrift und steht allen DGA-Mitgliedern und Abonnenten kostenlos im geschlossenen Bereich zur Verfügung. 

 
Audiological Acoustics | Aus der aktuellen Zeitschrift für Audiologie
Z Audiol 2021; 60 (4) 138–148 – Zinner/Winkler/Holube

Vergleich von fünf Sprachtests im sprachsimulierenden Störgeräusch 


Comparison of five speech tests in speech-simulating noise

 

Christina Zinner, Alexandra Winkler, Inga Holube 
Institut für Hörtechnik und Audiologie, Jade Hochschule, und Exzellenzcluster „Hearing4All“, Oldenburg

 

Zusammenfassung: In Deutschland stehen mehrere Sprachtestverfahren zur Verfügung, die jeweils mit unterschiedlichen Störgeräuschen und teils auch verschiedenen Kalibrierungsverfahren verwendet werden. Dadurch können Vergleiche zwischen den Ergebnissen der jeweiligen Sprachtests nur bedingt erfolgen. Zur Untersuchung der Unterschiede zwischen dem Freiburger Einsilbertest, dem Oldenburger Satztest, dem Göttinger Satztest, dem Hochmair-Schulz-Moser-Satztest und dem Reimtest nach von Wallenberg und Kollmeier wurden deshalb die Messbedingungen angeglichen. Zum einen wurden alle Sprachmaterialien auf den gleichen mittleren Langzeitpegel kalibriert. Zum anderen wurden neue sprachsimulierende Rauschen (Speech-Adjusted Noise (SAN)) durch 30fache Überlagerung des jeweiligen Sprachmaterials generiert. Diese SAN-Rauschen weichen zum Teil deutlich vom Spektrum der standardmäßig verwendeten Rauschen (STD-Rauschen) ab. Das Sprachverstehen in SAN- und in STD-Rauschen wurde mit 22 jungen Probanden ohne Hörbeeinträchtigungen im Freifeld ermittelt. Sowohl die Sprache als auch die Störgeräusche wurden über einen Lautsprecher aus der 0°-Richtung dargeboten. Jedes der fünf Sprachmaterialien wurde in den Störgeräuschen bei mindestens drei Signal-Rausch-Abständen präsentiert. An die Messergebnisse wurden Diskriminationsfunktionen angepasst und die Schwelle für 50 %iges Sprachverstehen (SRT50) mit der entsprechenden Steigung ermittelt. Die Differenz zwischen den SRT50-Werten für die STD-Rauschen und die SAN-Rauschen war für den Hochmair-Schulz-Moser-Satztest mit 4,0 dB am größten und für den Göttinger Satztest mit 0,7 dB am geringsten. Bei Verwendung der SAN-Rauschen und gleichem Kalibrierverfahren wichen die SRT50-Werte der fünf Sprachmaterialien um maximal 2,7 dB voneinander ab. Die Steigungen der Diskriminationsfunktionen unterschieden sich im STD-Rauschen um bis zu 15,1 %-Punkte/dB. Diese Diskrepanz reduzierte sich im SAN-Rauschen innerhalb der Satztests auf 1,8 %-Punkte/dB sowie innerhalb der Worttests auf 0,2 %-Punkte/dB und war für die Satztestverfahren signifikant steiler als für die Worttests.

 

Stichwörter: Sprachtests, Sprache im Störgeräusch, sprachsimulierendes Störgeräusch, Kalibrierung, OLSA, FBE, GÖSA, WAKO, HSM

 

Abstract: There are several speech recognition tests available in Germany. They are often used with different background noises and with different calibration methods. Therefore, comparisons between the resulting speech recognition scores can only be made conditionally. Here, measurement conditions were adjusted to examine the differences in speech recognition using the Freiburg monosyllabic speech test, Oldenburg and Göttingen sentence test, Hochmair-Schulz-Moser sentence test, and monosyllabic rhyme test according to von Wallenberg and Kollmeier. First, all speech data sets were calibrated to the same average long-term level. Second, new speech-simulating noises (speech-adjusted noise (SAN)) were generated from the speech materials. For this purpose, each set of speech material was superimposed 30 times. These SAN noises differ substantially from the spectrum of standard (STD) noises. The speech recognition thresholds in STD and SAN noises were measured with 22 young listeners without hearing deficits in the free field. Both speech and background noise were presented via one loudspeaker from the 0° direction. Each of the five speech tests was presented in background noise with at least three signal-to-noise ratios. Discrimination functions were fitted to the results and the thresholds for a speech recognition score of 50 % (SRT50) and the corresponding slopes were determined. The difference in SRT50 between STD and SAN noise was largest (4.0 dB) for the Hochmair-Schulz-Moser sentence test and was only 0.7 dB for the Göttingen sentence test. When using SAN noise and the same calibration method, the SRT50 values of the five speech sets deviated from each another by maximally 2.7 dB. The slopes of the discrimination functions differed by up to 15.1%-points/dB in STD noise. This deviation was reduced in SAN noise to 1.8%-points/dB within the sentence tests and to 0.2%-points/dB within the word tests. In addition, the slopes were significantly steeper for the sentence tests than for the word tests.

 

Keywords: speech test, speech in background noise, speech-simulating noise, calibration, OLSA, FBE, GÖSA, WAKO, HSM


Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) doi: 10.3205/zaud000016



 
Z Audiol 2021; 60 (3) 94–103 – Winkler/Schlüter/Gebauer/Seifert/Tuschen/Radeloff/Holube

Einfluss von Sprechtempo und Störgeräusch auf das Sprachverstehen im Göttinger und im HSM-Satztest


Impact of speech rate and noise on speech recognition in Göttingen and HSM sentence test

 

Alexandra Winkler1,3, Anne Schlüter1,3, Tina Gebauer1, Josephine Seifert1, Laura Tuschen1, Andreas Radeloff2,3,4, Inga Holube1,3
1 Institut für Hörtechnik und Audiologie, Jade Hochschule Oldenburg
2 Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus Oldenburg, Carl von Ossietzky Universität, Oldenburg
3 Exzellenzcluster „Hearing4All“, Oldenburg
4 Forschungszentrum Neurosensorik, Carl von Ossietzky Universität, Oldenburg

 

Zusammenfassung: Das Sprachverstehen von Cochlea-Implantat(CI)-Trägern kann u. a. mit dem Hochmair-Schulz-Moser(HSM)-Satztest oder dem Göttinger Satztest (GÖSA) überprüft werden. Beide Satztests bestehen aus Alltagssätzen, unterscheiden sich aber in der Artikulation, im Sprechtempo, im verwendeten Störgeräusch und in der Kalibrierung. Im klinischen Alltag wird der GÖSA im Vergleich zum HSM für CI-Träger teilweise als zu schwierig angesehen. Die Sprechrate als Maß für das Sprechtempo ist mit 279 Silben/min beim GÖSA höher als beim HSM mit 222 Silben/min. Die standardmäßig verwendeten Störgeräusche (CCITT-Rauschen beim HSM und GÖnoise beim GÖSA) bewirken eine unterschiedliche Verdeckung des Sprachmaterials. Um den Einfluss des Störgeräuschs und des Sprechtempos zu erfassen, wurde das Sprachverstehen bei CI-Trägern und bei einer Kontrollgruppe ohne Hörbeeinträchtigung (NH-Gruppe) mit beiden Sprachtests bestimmt. Als Störgeräusche dienten in beiden Sprachtests das CCITT-Rauschen und ein sprachsimulierendes Rauschen (GÖnoise im GÖSA und ein aus seinem Sprachmaterial generiertes Störgeräusch im HSM). Weiterhin wurde die Sprechrate der Sprachmaterialien so verändert, dass der HSM und der GÖSA jeweils eine Sprechrate von 222 und von 279 Silben/min aufwiesen. Pro Satztest wurden damit die Schwellen für ein Sprachverstehen von 50 % (SRT50) bei zwei verschiedenen Sprechraten und zwei verschiedenen Störgeräuschen, also vier Messkonditionen, ermittelt. Die Darbietung der Signale erfolgte in einer gedämmten Freifeldkabine über einen Lautsprecher, der sich frontal vor dem Probanden befand. Die SRT50-Werte im GÖSA unterschieden sich für die vier Messkonfigurationen weder für die CI-Träger noch für die NH-Gruppe signifikant voneinander. Beim HSM hingegen hatten die Sprechrate und das verwendete Störgeräusch einen signifikanten Einfluss auf das Sprachverstehen. Mit zunehmender Sprechrate erhöhte (verschlechterte) sich der SRT50. Das sprachsimulierende Rauschen führte im Vergleich zum CCITT-Rauschen zu besseren SRT50-Werten bei den CI-Trägern, während sich die SRT50-Werte für die NH-Gruppe verschlechterten. Bei Verwendung der gleichen Kalibrierung sind die SRT50-Werte für den HSM mit erhöhter Sprechrate in der NH-Gruppe für das sprachsimulierende Rauschen und in der CI-Gruppe für das CCITT-Rauschen mit den SRT50-Werten für den GÖSA vergleichbar.

 

Stichwörter: HSM, GÖSA, CI, Sprechtempo, Zeitkompression, Störgeräusch, Sprachverstehen

 

Abstract: Speech recognition for cochlear implant (CI) users can be derived using the Hochmair-Schulz-Moser(HSM) sentence test or the Göttingen sentence test (GÖSA). Both tests use everyday sentences, but they differ in articulation, speech tempo, interfering noise and calibration. The GÖSA is regarded in clinical practice as being more difficult to understand for CI users than HSM. Speech rate as a measure of speech tempo of GÖSA is 279 syllables/min and higher than the speech rate of HSM (222 syllables/min). The typical interfering noises, which are used (CCITT noise for HSM and GÖnoise for GÖSA), cause different masking patterns of speech material. Speech recognition was determined using different noises and speech rates for HSM and GÖSA for CI users and people without hearing impairment (NH). CCITT noise and speech simulating noises (GÖnoise for GÖSA and a noise generated from the speech material of HSM) were used for GÖSA and HSM. Speech rate of GÖSA and HSM was changed to present both speech materials at 222 and 279 syllables/min. Therefore, speech recognition thresholds (SRT50) for a score of 50 % correct were measured for four different conditions per speech test (two different noises and two different speech rates). All signals (noise and speech) were presented in a sound attenuated booth using one loudspeaker, which was placed in front of the listeners. There was no significant difference in SRT50-values for all GÖSA conditions for both groups of participants. SRT50-values in HSM significantly differed depending on speech rate and noise. SRT50-values increased with increasing speech rate. CI users showed significantly increased SRT50-values in CCITT whereas for group NH, decreasing SRT50-values in CCITT were observed. When using the same calibration, SRT50-values for HSM with higher speech rate were comparable to those for GÖSA for group NH in speech simulating noise and for group CI in CCITT.

 

Keywords: HSM, GÖSA, CI, speech rate, time compression, noise, speech recognition



 
Z Audiol 2021; 60 (3) 104–107 – Mühler

Registrierung stationärer Potenziale des auditorischen Systems (ASSR) in Echtzeit mit einem Lock-in-Verstärker


Recording of auditory steady-state evoked responses (ASSR) in real-time using a lock-in amplifier

 

Roland Mühler
Abteilung für Experimentelle Audiologie, Otto-von-Guericke-Universität Magdeburg

 

Zusammenfassung: Stationäre Potenziale des auditorischen Systems (ASSR) findet man bei periodischer Stimulation des Hörsystems im EEG-Spektrum als Spektrallinien mit exakt der Reizrate. Benutzt man zur Trennung von Signal und Störung die für transiente Potenziale übliche Mittelung reizsynchroner EEG-Abschnitte, wird die besondere Eigenschaft der stationären Potenziale, die exakte Kenntnis ihrer Frequenz, nicht beachtet. Ein Monitoring der ASSR in Echtzeit ist bei Anwendung des Mittelungsverfahrens nur eingeschränkt möglich. Diese Arbeit greift eine Idee von Schacham et al. [1] auf und beschreibt einen experimentellen Aufbau, der es erlaubt, stationäre Potenziale des auditorischen Systems mithilfe eines kommerziellen Lock-in-Verstärkers (Stanford Research 830) in Echtzeit darzustellen. In einem Lock-in-Verstärker wird das verrauschte Nutzsignal mit einem Referenzsignal mit der Frequenz des Nutzsignals multipliziert. Ein Tiefpass eliminiert alle nicht zur Nutzfrequenz synchronen Rauschanteile, sodass am Ausgang des Lock-in-Verstärkers eine dem Nutzsignal proportionale Gleichspannung anliegt. Das hier erstmals vorgestellte Messprinzip eignet sich für die Darstellung stationärer evozierte Potenziale bekannter Frequenz besonders gut. Für Chirpreize mit 40 pps und 50 dB nHL Reizpegel wurden an einer erwachsenen normalhörenden Probandin erfolgreich Amplituden-Zeit-Verläufe mit Zeitkonstanten von wenigen Sekunden registriert.

 

Stichwörter: evozierte Potenziale, stationäre Potenziale, ASSR, Lock-in-Verstärker

 

Abstract: Human auditory steady-state responses (ASSRs) are represented in the Electroencephalogram (EEG) by single spectral lines at the stimulus repetition rate. To increase the small signal-to-noise ratio of these responses, commercial ASSR systems usually average several segments of the EEG signal prior to be converted from the time domain into the frequency domain. The averaging process however does not allow for a recording of ASSR in real time. This paper describes an experimental setup which replaces averaging and frequency analysis by a lock-in amplifier. Lock-in amplifiers are widely used in experimental physics to extract small signals of known frequency from an extremely noisy background. A lock-in amplifier multiplies the (noisy) input signal by a reference signal. Subsequent integration with a time constant of a few seconds results in a DC signal. In our setup, with a reference signal at the same frequency as the stimulus repetition rate, the DC output is proportional to the ASSR amplitude.

Auditory steady-state responses were evoked in one normal hearing female adult by presenting wide-band chirp stimuli at 40 Hz repetition rate and 50 dB nHL presentation level through an insert earphone. The amplified and band pass filtered EEG signal was fed to the input channel of a Stanford Research Type 830 lock-in amplifier. A reference signal phase locked to the stimulus was fed to the amplifier’s reference input. The DC output was maximized by manually shifting the phase of the reference signal. A Digital Multimeter (Keysight DMM34460A) and a Data Acquisition Application (Keysight BenchVue) were used to record the time course of the DC output proportional to the ASSR amplitude. Switching the acoustical stimulus on and off periodically, the DC output follows the response amplitude in real time. Typical examples for time constants of 1 s and 3 s are presented.

This paper presents a feasibility analysis of a recording setup for auditory steady-state responses using a lock-in amplifier. The proposed method could be of some interest for intraoperative monitoring of the auditory nerve during implantation of middle ear protheses, neurosurgical procedures, and for brain-computer interfaces (BCI).

 

Keywords: auditory steady-state responses, ASSR, lock-in amplifier



 
<< Anfang < Vorherige 1 2 3 4 5 6 7 8 9 10 Nächste > Ende >>

Ergebnisse 7 - 9 von 61
© 2022 Zeitschrift für Audiologie / Audiological Acoustics