Hauptmenü
Home
Die Zeitschrift
Über uns
Impressum
Kontakt
Autorenhinweise
Artikel-Archiv
Aus der Z-Audiol
Datenschutz
Anmelde-Formular





Passwort vergessen?
Noch kein Benutzerkonto?
Registrieren
Aus der Z-Audiol
Z Audiol 2019; 58 (4) 148–151 – Hoth Drucken

OAE in Klinik und Praxis – Neue Bewertung etablierter Regeln

 

Sebastian Hoth
Univ.-HNO-Klinik Heidelberg

 

Zusammenfassung: Die otoakustischen Emissionen (OAE) leisten einen bedeutenden Beitrag zur praktischen audiologischen Diagnostik. Dieser beruht wesentlich auf der Anwendung von Regeln, die den Nachweis des physiologischen Signals und seine audiologische Deutung betreffen. Für die TEOAE (transitorisch evozierte OAE) und die DPOAE (otoakustische Distorsionsprodukte) wurden diese Regeln anhand einer großen klinischen Stichprobe von N = 1000 Ohren überprüft. Die weithin angewendeten Regeln „TEOAE können als nachgewiesen angesehen werden, wenn ihre Reproduzierbarkeit 60 % oder mehr beträgt“ (Regel 1) und „TEOAE sind nachweisbar, solange der Hörverlust die Grenze von 30 dB nicht überschreitet“ (Regel 2 – für die DPOAE analog mit 50 anstelle von 30 dB) wurden auf ihre statistische Gültigkeit überprüft. Es zeigt sich, dass die Gültigkeit dieser Regeln in hohem Maße von der Reststörung abhängt. Wird für diese Reststörung gefordert, dass sie eine Obergrenze von -1.5 dB SPL nicht überschreitet, und wird das Urteil eines in Bezug auf Hörschwelle und Reproduzierbarkeit verblindeten Experten als Goldstandard verwendet, dann ist Regel 1 in 94 % der Fälle und Regel 2 in 84 % der Fälle (für die TEOAE) bzw. letztere in 75 % - 89 % - 86 % der Fälle (für die DPOAE bei 1, 2 und 4 kHz) erfüllt. Ohne Einschränkung in Bezug auf die Reststörung liegen diese Zahlen signifikant niedriger. Für die klinische und praktische Anwendung ergibt sich hieraus die Konsequenz, dass bei Nutzung der OAE ohne Beachtung der Reststörung zu einem unzulässig hohen Prozentsatz falsch positive und falsch negative Ergebnisse auftreten. Diese Erkenntnis führt im Idealfall dazu, dass die Bedeutung einer durch entsprechende Signalverarbeitung garantierten Mindestqualität von den Herstellern aufgegriffen und in der Produktentwicklung berücksichtigt wird.

 

Stichwörter: Otoakustische Emissionen, Signalnachweis, Qualitätskriterien, audiologische Diagnostik, Sensitivität, Spezifität

 

 
Z Audiol 2016; 55 (4) 138-145 – Thomas Steffens Drucken

Zur korrekten Umrechnung von Sprachsignalen für deren Darstellung im Tonaudiogramm

 

On the correct conversion of speech signals for their representation in the pure tone audiogram

 

Thomas Steffens

 

Zusammenfassung: In diesem Beitrag wird das Verfahren zur korrekten Umrechnung der Terzpegel von Sprache oder anderen breitbandigen Signalen für die Darstellung im Tonaudiogramm zur Beurteilung deren Hörbarkeit in Relation zu den individuellen Hörschwellen vorgestellt. Anhand der repräsentativen langzeitgemittelten Terzpegelspektren für nor¬mallaute englische Sprache des genormten SII-Verfahrens werden alle Schritte zur Umrechnung der Terzpegel in Spektral¬pegel und in Hearing Level ausführlich beschrieben, um den Bezug zu den Hörschwellen des Tonaudiogramms herstellen zu können. Das resultierende korrekte Sprachpegelfeld im Tonaudiogramm für normallaute englische Sprache wird mit dem Sprachpegelfeld für die deutsche Sprache aus der Untersuchung zum internationalen langzeitgemittelten Sprachpegel¬spektrum (LTASS) verglichen. Unter Berücksichtigung der natürlichen Variabilität akustischer Parameter der Stimmen und der gesprochenen Sprache erscheinen die geringen Pegelunterschiede zwischen der Pegelverteilung der englischen und deutschen Sprache von im Mittel 1 dB vernachlässigbar und beide Spektren gleichwertig verwendbar.

 

Schlüsselwörter: Sprachpegel, Hörschwelle, Tonaudiogramm, Sprachpegelspektrum

 

Abstract: In this paper, the calculation steps needed for an estimation of speech audibility relative to pure-tone audiogram thresholds are described in detail. This procedure includes all calculations for the correct conversion of one-third octave levels of speech signals into speech spectrum hearing levels. Two examples of long-term average speech spectra (LTASS) correctly converted into the pure-tone audiogram are presented. The first example, being calculated step-by-step in this paper, describes the conversion of one-third octave speech levels of English language spoken with normal vocal effort, as reported in the standardized SII procedure. The second example shows the converted LTASS of German language also spoken with normal vocal effort. Calculations have been performed using the data measured for the international LTASS project organized by the National Acoustic Laboratories back in 1994. As both LTASS differ only marginally (mean difference of 1 dB), and in the light of the individual variations of acoustical voice and speech parameters both the English and German speech spectrum can be regarded as being identical for clinical applications.

 

Keywords: Speech intelligibility, auditory threshold, pure-tone audiogram, long-term average speech spectrum

 
Z Audiol 2016; 55 (2) 80-84 – Peter Sickert Drucken

Moderner Gehörschutz am Arbeitsplatz und bei Freizeitlärm

 

Modern hearing protectors for workplaces and noisy recreational activities

 

Peter Sickert

 

Fachbereich Persönliche Schutzausrüstungen der DGUV, Sachgebiet Gehörschutz, Berufsgenossenschaft Holz und Metall, Nürnberg

 

Zusammenfassung: Früher war die Benutzungsquote von Gehörschutz in Firmen eher gering. Heute ist das Schutzbedürfnis gestiegen. Auch wird Gehörschutz oft mit elektronischen Zusatzeinrichtungen zur Kommunikation oder auch zum Hören von Musik kombiniert. Außerdem gibt es Produkte, die Personen mit Hörminderung am Arbeitsplatz die Verständigung erleichtern und so die Weiterbeschäftigung sichern. Dazu zählt Gehörschutz mit pegelabhängiger Dämmung und Schallwiedergabesystem oder Gehörschutz in Kombination mit einem Hörgerät. Außerdem wird Gehörschutz anwendungsorientierter produziert. So gibt es z. B. Gehörschutz für Musiker, für Piloten oder für den Polizeieinsatz. Auch wird Gehörschutz häufig im privaten Bereich verwendet. Verstärkt kommt er ebenfalls an Arbeitsplätzen unter 80 dB(A) zum Einsatz (z. B. im Büro), wo er eine reine Komfortfunktion hat. Großer Wert wird dabei auf die tatsächliche Schutzwirkung, die Kommunikationsfähigkeit und das Hören von Warnsignalen gelegt. Der Beitrag beschreibt die modernen Möglichkeiten der Gehörschutznutzung, die Auswahl und die Methoden der Wirksamkeitskontrolle.

 

Schlüsselwörter: Begrenzung der Lärmexposition, Gehörschutzauswahl, spezielle Einsatzsituationen, Freizeitlärm, spezielle Personengruppen, Wirksamkeitskontrolle

 

Abstract: In the past, the use rate of hearing protection at work places was rather low. This has changed over time and the need for protection has increased. Today, hearing protectors are frequently equipped with additional electronic features to enable communication or listening to music. There are also products for hearing impaired users facilitating communication in working environments and helping them to keep their jobs. Among those are hearing protectors with level-dependent sound attenuation and sound restoration as well as protectors being integrated in hearing aids. Furthermore, hearing protectors are designed more applicationoriented today. Special hearing protectors are available for musicians, pilots or police personnel. Even in the private sector hearing protection is increasingly used. This applies also to work places with noise levels below 80 dB(A) (e.g. offices); here the protectors are used just for comfort reasons. Modern hearing protection concepts are focusing on the actual protection effect, communication abilities and the audibility of warning signals. This paper describes modern hearing protectors and their use, selection criteria and methods to assess the actual effectiveness.

 

Keywords: Limitation of noise exposure, selection of hearing protectors, special applications, noise from recreational activities, special risk groups, effectiveness check

 

 Lesen Sie »hier den ganzen Beitrag«


 
Z Audiol 2022; 61 (1) 16–26 – Kerner/Winkler/Holube Drucken

Untersuchung des Einflusses der Störgeräuschrichtung auf das Sprachverstehen mit Richtmikrofonsystem 


Exploration of the influence of noise direction on speech recognition with a directional microphone system

 

Maximilian Kerner, Alexandra Winkler, Inga Holube 
Institut für Hörtechnik und Audiologie, Jade Hochschule und Exzellenzcluster „Hearing4All“, Oldenburg

 

Zusammenfassung: Im Rahmen der Hörgeräteversorgung werden zur Erfolgskontrolle Messungen des Sprachverstehens im Störgeräusch durchgeführt. In der Hilfsmittel-Richtlinie ist die minimal zu erreichende Verbesserung, aber nicht die räumliche Messanordnung der Sprach- und Störgeräuschsignale vorgegeben. Um den Einfluss der räumlichen Anordnung abschätzen zu können, wurde die Abhängigkeit des Sprachverstehens von verschiedenen Störgeräuschrichtungen und die jeweilige Verbesserung des Signal-Rausch-Abstands (SNR) durch ein typischerweise in Hörgeräten verwendetes Richtmikrofon untersucht. Hierfür wurde eine virtuelle akustische Umgebung mit der Toolbox for Acoustic Scene Creation and Rendering (TASCAR) erstellt. In der Kombination mit Außenohrübertragungsfunktionen und dem Master Hearing Aid (MHA) wurde eine möglichst realitätsnahe Hörsituation über Kopfhörer simuliert. Die Messungen wurden mit jungen Probanden ohne Hörbeeinträchtigung durchgeführt, sodass das MHA für die Messungen nur eine Richtmikrofonimplementierung beinhaltete.

Das Störgeräusch wurde aus den in der Praxis häufig verwendeten Richtungen 0°, 90°, 180°, aus der in DIN EN ISO 8253-3 spezifizierten Richtung ±45°, aus ±135° und aus allen Richtungen gleichzeitig (diffus) präsentiert. Als Sprachtests wurden der Oldenburger Satztest (OLSA) und der Freiburger Einsilbertest (FBE) verwendet, wobei das Sprachsignal immer frontal dargeboten wurde. Für den OLSA wurde für jede Kondition (sechs Störgeräuschrichtungen jeweils mit und ohne Richtmikrofonsystem) die Schwelle ermittelt, bei der die Probanden ein Sprachverstehen von 50 % erreichten (SRT50). Beim FBE wurde für jede Kondition (fünf Störgeräuschrichtungen, ohne ±45°) das prozentuale Sprachverstehen bei einem festen SNR ermittelt. Für den OLSA wurde außerdem die SNR-Verbesserung durch das Richtmikrofonsystem berechnet. Die Ergebnisse zeigen sowohl mit als auch ohne Richtmikrofonsystem einen Einfluss der Störgeräuschrichtung auf das Sprachverstehen. Die perzeptiven Verbesserungen im Sprachverstehen stimmten mit den richtungsabhängigen gemessenen SNR-Verbesserungen durch das Richtmikrofonsystem überein. Aufgrund dieser Ergebnisse mit jungen Probanden ohne Hörbeeinträchtigung sollten weitere Studien mit Probanden mit Hörbeeinträchtigung folgen, um die fehlende einheitliche Angabe der Sprach- und Störgeräuschrichtung in der Hilfsmittel-Richtlinie zu diskutieren.

 

Stichwörter: Hilfsmittel-Richtlinie, Störgeräuschrichtung, Freiburger Einsilbertest, Oldenburger Satztest, Toolbox for Acoustic Scene Creation and Rendering, Master Hearing Aid, Richtmikrofon

 

Abstract: Within the scope of the hearing aid fitting, measurements of speech recognition in noise are carried out to validate the success of the fitting. The guideline for hearing aid provision in Germany specifies the minimum improvement to be achieved, but not the spatial measurement condition of speech and noise signals. To estimate the influence of the spatial conditions, speech recognition was examined in its dependence on different noise directions and the respective improvement in signal-to-noise ratio (SNR) when using a typical directional microphone in hearing aids. Therefore, a virtual acoustic environment was created using the Toolbox for Acoustic Scene Creation and Rendering (TASCAR). In combination with Head-Related Transfer Functions and the Master Hearing Aid (MHA), a listening situation, as realistic as possible, was simulated via headphones. The measurements were performed by young participants with normal hearing. The MHA included only a directional microphone implementation.

The noise was presented from the directions 0°, 90°, 180°, the direction ±45° as specified in DIN EN ISO 8253-3, ±135°, and from all directions simultaneously (diffuse). The speech signal was always presented from the frontal direction. The Oldenburg sentence test (OLSA) and the Freiburg monosyllabic speech test (FBE) were used. For OLSA, speech recognition thresholds for scores of 50 % (SRT50) were measured for each condition (six noise directions, each with and without MHA). For FBE, speech recognition was determined as a percentage score at different fixed SNR for each condition (five noise directions, without ±45°). For OLSA, the SNR improvement due to the directional microphone was also calculated. The results showed that, regardless of the use of the directional microphone, the noise direction had an influence on speech recognition. The perceptual improvements in speech recognition were consistent with the directional SNR improvements measured by the directional microphone system. Based on these results with young participants without hearing impairment, further studies with participants with hearing impairment should follow to discuss the missing standardization of speech and noise direction in the guideline for hearing-aid provision in Germany.

 

Keywords: German guidelines for hearing-aid provision, noise direction, Freiburg monosyllabic speech test, Oldenburg sentence test, toolbox for acoustic scene creation and rendering, master hearing aid, directional microphone

 

Korrespondenzadresse:
Maximilian Kerner, Jade Hochschule, Institut für Hörtechnik und Audiologie, Ofener Straße 16/19, 26121 Oldenburg
E-Mail: Diese E-Mail-Adresse ist gegen Spam Bots geschützt, Sie müssen JavaScript aktivieren, damit Sie es sehen können

 

Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) DOI: 10.3205/zaud000017

 
Z Audiol 2021; 60 (4) 138–148 – Zinner/Winkler/Holube Drucken

Vergleich von fünf Sprachtests im sprachsimulierenden Störgeräusch 


Comparison of five speech tests in speech-simulating noise

 

Christina Zinner, Alexandra Winkler, Inga Holube 
Institut für Hörtechnik und Audiologie, Jade Hochschule, und Exzellenzcluster „Hearing4All“, Oldenburg

 

Zusammenfassung: In Deutschland stehen mehrere Sprachtestverfahren zur Verfügung, die jeweils mit unterschiedlichen Störgeräuschen und teils auch verschiedenen Kalibrierungsverfahren verwendet werden. Dadurch können Vergleiche zwischen den Ergebnissen der jeweiligen Sprachtests nur bedingt erfolgen. Zur Untersuchung der Unterschiede zwischen dem Freiburger Einsilbertest, dem Oldenburger Satztest, dem Göttinger Satztest, dem Hochmair-Schulz-Moser-Satztest und dem Reimtest nach von Wallenberg und Kollmeier wurden deshalb die Messbedingungen angeglichen. Zum einen wurden alle Sprachmaterialien auf den gleichen mittleren Langzeitpegel kalibriert. Zum anderen wurden neue sprachsimulierende Rauschen (Speech-Adjusted Noise (SAN)) durch 30fache Überlagerung des jeweiligen Sprachmaterials generiert. Diese SAN-Rauschen weichen zum Teil deutlich vom Spektrum der standardmäßig verwendeten Rauschen (STD-Rauschen) ab. Das Sprachverstehen in SAN- und in STD-Rauschen wurde mit 22 jungen Probanden ohne Hörbeeinträchtigungen im Freifeld ermittelt. Sowohl die Sprache als auch die Störgeräusche wurden über einen Lautsprecher aus der 0°-Richtung dargeboten. Jedes der fünf Sprachmaterialien wurde in den Störgeräuschen bei mindestens drei Signal-Rausch-Abständen präsentiert. An die Messergebnisse wurden Diskriminationsfunktionen angepasst und die Schwelle für 50 %iges Sprachverstehen (SRT50) mit der entsprechenden Steigung ermittelt. Die Differenz zwischen den SRT50-Werten für die STD-Rauschen und die SAN-Rauschen war für den Hochmair-Schulz-Moser-Satztest mit 4,0 dB am größten und für den Göttinger Satztest mit 0,7 dB am geringsten. Bei Verwendung der SAN-Rauschen und gleichem Kalibrierverfahren wichen die SRT50-Werte der fünf Sprachmaterialien um maximal 2,7 dB voneinander ab. Die Steigungen der Diskriminationsfunktionen unterschieden sich im STD-Rauschen um bis zu 15,1 %-Punkte/dB. Diese Diskrepanz reduzierte sich im SAN-Rauschen innerhalb der Satztests auf 1,8 %-Punkte/dB sowie innerhalb der Worttests auf 0,2 %-Punkte/dB und war für die Satztestverfahren signifikant steiler als für die Worttests.

 

Stichwörter: Sprachtests, Sprache im Störgeräusch, sprachsimulierendes Störgeräusch, Kalibrierung, OLSA, FBE, GÖSA, WAKO, HSM

 

Abstract: There are several speech recognition tests available in Germany. They are often used with different background noises and with different calibration methods. Therefore, comparisons between the resulting speech recognition scores can only be made conditionally. Here, measurement conditions were adjusted to examine the differences in speech recognition using the Freiburg monosyllabic speech test, Oldenburg and Göttingen sentence test, Hochmair-Schulz-Moser sentence test, and monosyllabic rhyme test according to von Wallenberg and Kollmeier. First, all speech data sets were calibrated to the same average long-term level. Second, new speech-simulating noises (speech-adjusted noise (SAN)) were generated from the speech materials. For this purpose, each set of speech material was superimposed 30 times. These SAN noises differ substantially from the spectrum of standard (STD) noises. The speech recognition thresholds in STD and SAN noises were measured with 22 young listeners without hearing deficits in the free field. Both speech and background noise were presented via one loudspeaker from the 0° direction. Each of the five speech tests was presented in background noise with at least three signal-to-noise ratios. Discrimination functions were fitted to the results and the thresholds for a speech recognition score of 50 % (SRT50) and the corresponding slopes were determined. The difference in SRT50 between STD and SAN noise was largest (4.0 dB) for the Hochmair-Schulz-Moser sentence test and was only 0.7 dB for the Göttingen sentence test. When using SAN noise and the same calibration method, the SRT50 values of the five speech sets deviated from each another by maximally 2.7 dB. The slopes of the discrimination functions differed by up to 15.1%-points/dB in STD noise. This deviation was reduced in SAN noise to 1.8%-points/dB within the sentence tests and to 0.2%-points/dB within the word tests. In addition, the slopes were significantly steeper for the sentence tests than for the word tests.

 

Keywords: speech test, speech in background noise, speech-simulating noise, calibration, OLSA, FBE, GÖSA, WAKO, HSM

 

Korrespondenzadresse:
Christina Zinner; Institut für Hörtechnik und Audiologie; Jade Hochschule; Ofener Straße 16/19; 26121 Oldenburg
Tel. +49 441 7708-3741; E-Mail: Diese E-Mail-Adresse ist gegen Spam Bots geschützt, Sie müssen JavaScript aktivieren, damit Sie es sehen können

 

Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) doi: 10.3205/zaud000016



 
Z Audiol 2021; 60 (3) 94–103 – Winkler/Schlüter/Gebauer/Seifert/Tuschen/Radeloff/Holube Drucken

Einfluss von Sprechtempo und Störgeräusch auf das Sprachverstehen im Göttinger und im HSM-Satztest


Impact of speech rate and noise on speech recognition in Göttingen and HSM sentence test

 

Alexandra Winkler1,3, Anne Schlüter1,3, Tina Gebauer1, Josephine Seifert1, Laura Tuschen1, Andreas Radeloff2,3,4, Inga Holube1,3
1 Institut für Hörtechnik und Audiologie, Jade Hochschule Oldenburg
2 Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus Oldenburg, Carl von Ossietzky Universität, Oldenburg
3 Exzellenzcluster „Hearing4All“, Oldenburg
4 Forschungszentrum Neurosensorik, Carl von Ossietzky Universität, Oldenburg

 

Zusammenfassung: Das Sprachverstehen von Cochlea-Implantat(CI)-Trägern kann u. a. mit dem Hochmair-Schulz-Moser(HSM)-Satztest oder dem Göttinger Satztest (GÖSA) überprüft werden. Beide Satztests bestehen aus Alltagssätzen, unterscheiden sich aber in der Artikulation, im Sprechtempo, im verwendeten Störgeräusch und in der Kalibrierung. Im klinischen Alltag wird der GÖSA im Vergleich zum HSM für CI-Träger teilweise als zu schwierig angesehen. Die Sprechrate als Maß für das Sprechtempo ist mit 279 Silben/min beim GÖSA höher als beim HSM mit 222 Silben/min. Die standardmäßig verwendeten Störgeräusche (CCITT-Rauschen beim HSM und GÖnoise beim GÖSA) bewirken eine unterschiedliche Verdeckung des Sprachmaterials. Um den Einfluss des Störgeräuschs und des Sprechtempos zu erfassen, wurde das Sprachverstehen bei CI-Trägern und bei einer Kontrollgruppe ohne Hörbeeinträchtigung (NH-Gruppe) mit beiden Sprachtests bestimmt. Als Störgeräusche dienten in beiden Sprachtests das CCITT-Rauschen und ein sprachsimulierendes Rauschen (GÖnoise im GÖSA und ein aus seinem Sprachmaterial generiertes Störgeräusch im HSM). Weiterhin wurde die Sprechrate der Sprachmaterialien so verändert, dass der HSM und der GÖSA jeweils eine Sprechrate von 222 und von 279 Silben/min aufwiesen. Pro Satztest wurden damit die Schwellen für ein Sprachverstehen von 50 % (SRT50) bei zwei verschiedenen Sprechraten und zwei verschiedenen Störgeräuschen, also vier Messkonditionen, ermittelt. Die Darbietung der Signale erfolgte in einer gedämmten Freifeldkabine über einen Lautsprecher, der sich frontal vor dem Probanden befand. Die SRT50-Werte im GÖSA unterschieden sich für die vier Messkonfigurationen weder für die CI-Träger noch für die NH-Gruppe signifikant voneinander. Beim HSM hingegen hatten die Sprechrate und das verwendete Störgeräusch einen signifikanten Einfluss auf das Sprachverstehen. Mit zunehmender Sprechrate erhöhte (verschlechterte) sich der SRT50. Das sprachsimulierende Rauschen führte im Vergleich zum CCITT-Rauschen zu besseren SRT50-Werten bei den CI-Trägern, während sich die SRT50-Werte für die NH-Gruppe verschlechterten. Bei Verwendung der gleichen Kalibrierung sind die SRT50-Werte für den HSM mit erhöhter Sprechrate in der NH-Gruppe für das sprachsimulierende Rauschen und in der CI-Gruppe für das CCITT-Rauschen mit den SRT50-Werten für den GÖSA vergleichbar.

 

Stichwörter: HSM, GÖSA, CI, Sprechtempo, Zeitkompression, Störgeräusch, Sprachverstehen

 

Abstract: Speech recognition for cochlear implant (CI) users can be derived using the Hochmair-Schulz-Moser(HSM) sentence test or the Göttingen sentence test (GÖSA). Both tests use everyday sentences, but they differ in articulation, speech tempo, interfering noise and calibration. The GÖSA is regarded in clinical practice as being more difficult to understand for CI users than HSM. Speech rate as a measure of speech tempo of GÖSA is 279 syllables/min and higher than the speech rate of HSM (222 syllables/min). The typical interfering noises, which are used (CCITT noise for HSM and GÖnoise for GÖSA), cause different masking patterns of speech material. Speech recognition was determined using different noises and speech rates for HSM and GÖSA for CI users and people without hearing impairment (NH). CCITT noise and speech simulating noises (GÖnoise for GÖSA and a noise generated from the speech material of HSM) were used for GÖSA and HSM. Speech rate of GÖSA and HSM was changed to present both speech materials at 222 and 279 syllables/min. Therefore, speech recognition thresholds (SRT50) for a score of 50 % correct were measured for four different conditions per speech test (two different noises and two different speech rates). All signals (noise and speech) were presented in a sound attenuated booth using one loudspeaker, which was placed in front of the listeners. There was no significant difference in SRT50-values for all GÖSA conditions for both groups of participants. SRT50-values in HSM significantly differed depending on speech rate and noise. SRT50-values increased with increasing speech rate. CI users showed significantly increased SRT50-values in CCITT whereas for group NH, decreasing SRT50-values in CCITT were observed. When using the same calibration, SRT50-values for HSM with higher speech rate were comparable to those for GÖSA for group NH in speech simulating noise and for group CI in CCITT.

 

Keywords: HSM, GÖSA, CI, speech rate, time compression, noise, speech recognition



 
Z Audiol 2021; 60 (3) 104–107 – Mühler Drucken

Registrierung stationärer Potenziale des auditorischen Systems (ASSR) in Echtzeit mit einem Lock-in-Verstärker


Recording of auditory steady-state evoked responses (ASSR) in real-time using a lock-in amplifier

 

Roland Mühler
Abteilung für Experimentelle Audiologie, Otto-von-Guericke-Universität Magdeburg

 

Zusammenfassung: Stationäre Potenziale des auditorischen Systems (ASSR) findet man bei periodischer Stimulation des Hörsystems im EEG-Spektrum als Spektrallinien mit exakt der Reizrate. Benutzt man zur Trennung von Signal und Störung die für transiente Potenziale übliche Mittelung reizsynchroner EEG-Abschnitte, wird die besondere Eigenschaft der stationären Potenziale, die exakte Kenntnis ihrer Frequenz, nicht beachtet. Ein Monitoring der ASSR in Echtzeit ist bei Anwendung des Mittelungsverfahrens nur eingeschränkt möglich. Diese Arbeit greift eine Idee von Schacham et al. [1] auf und beschreibt einen experimentellen Aufbau, der es erlaubt, stationäre Potenziale des auditorischen Systems mithilfe eines kommerziellen Lock-in-Verstärkers (Stanford Research 830) in Echtzeit darzustellen. In einem Lock-in-Verstärker wird das verrauschte Nutzsignal mit einem Referenzsignal mit der Frequenz des Nutzsignals multipliziert. Ein Tiefpass eliminiert alle nicht zur Nutzfrequenz synchronen Rauschanteile, sodass am Ausgang des Lock-in-Verstärkers eine dem Nutzsignal proportionale Gleichspannung anliegt. Das hier erstmals vorgestellte Messprinzip eignet sich für die Darstellung stationärer evozierte Potenziale bekannter Frequenz besonders gut. Für Chirpreize mit 40 pps und 50 dB nHL Reizpegel wurden an einer erwachsenen normalhörenden Probandin erfolgreich Amplituden-Zeit-Verläufe mit Zeitkonstanten von wenigen Sekunden registriert.

 

Stichwörter: evozierte Potenziale, stationäre Potenziale, ASSR, Lock-in-Verstärker

 

Abstract: Human auditory steady-state responses (ASSRs) are represented in the Electroencephalogram (EEG) by single spectral lines at the stimulus repetition rate. To increase the small signal-to-noise ratio of these responses, commercial ASSR systems usually average several segments of the EEG signal prior to be converted from the time domain into the frequency domain. The averaging process however does not allow for a recording of ASSR in real time. This paper describes an experimental setup which replaces averaging and frequency analysis by a lock-in amplifier. Lock-in amplifiers are widely used in experimental physics to extract small signals of known frequency from an extremely noisy background. A lock-in amplifier multiplies the (noisy) input signal by a reference signal. Subsequent integration with a time constant of a few seconds results in a DC signal. In our setup, with a reference signal at the same frequency as the stimulus repetition rate, the DC output is proportional to the ASSR amplitude.

Auditory steady-state responses were evoked in one normal hearing female adult by presenting wide-band chirp stimuli at 40 Hz repetition rate and 50 dB nHL presentation level through an insert earphone. The amplified and band pass filtered EEG signal was fed to the input channel of a Stanford Research Type 830 lock-in amplifier. A reference signal phase locked to the stimulus was fed to the amplifier’s reference input. The DC output was maximized by manually shifting the phase of the reference signal. A Digital Multimeter (Keysight DMM34460A) and a Data Acquisition Application (Keysight BenchVue) were used to record the time course of the DC output proportional to the ASSR amplitude. Switching the acoustical stimulus on and off periodically, the DC output follows the response amplitude in real time. Typical examples for time constants of 1 s and 3 s are presented.

This paper presents a feasibility analysis of a recording setup for auditory steady-state responses using a lock-in amplifier. The proposed method could be of some interest for intraoperative monitoring of the auditory nerve during implantation of middle ear protheses, neurosurgical procedures, and for brain-computer interfaces (BCI).

 

Keywords: auditory steady-state responses, ASSR, lock-in amplifier



 
<< Anfang < Vorherige 1 2 3 4 5 6 Nächste > Ende >>

Ergebnisse 34 - 44 von 59
© 2022 Zeitschrift für Audiologie / Audiological Acoustics