Z Audiol 2016; 55 (4) 138-145 – Thomas Steffens |
|
Zur korrekten Umrechnung von Sprachsignalen für deren
Darstellung im Tonaudiogramm
On the
correct conversion of speech signals for their representation in the pure tone
audiogram
Thomas
Steffens Zusammenfassung: In diesem Beitrag wird das Verfahren zur
korrekten Umrechnung der Terzpegel von Sprache oder anderen breitbandigen
Signalen für die Darstellung im Tonaudiogramm zur Beurteilung deren Hörbarkeit
in Relation zu den individuellen Hörschwellen vorgestellt. Anhand der
repräsentativen langzeitgemittelten Terzpegelspektren für nor¬mallaute
englische Sprache des genormten SII-Verfahrens werden alle Schritte zur
Umrechnung der Terzpegel in Spektral¬pegel und in Hearing Level ausführlich
beschrieben, um den Bezug zu den Hörschwellen des Tonaudiogramms herstellen zu
können. Das resultierende korrekte Sprachpegelfeld im Tonaudiogramm für
normallaute englische Sprache wird mit dem Sprachpegelfeld für die deutsche
Sprache aus der Untersuchung zum internationalen langzeitgemittelten
Sprachpegel¬spektrum (LTASS) verglichen. Unter Berücksichtigung der natürlichen
Variabilität akustischer Parameter der Stimmen und der gesprochenen Sprache
erscheinen die geringen Pegelunterschiede zwischen der Pegelverteilung der
englischen und deutschen Sprache von im Mittel 1 dB vernachlässigbar und beide
Spektren gleichwertig verwendbar.
Schlüsselwörter: Sprachpegel, Hörschwelle, Tonaudiogramm,
Sprachpegelspektrum Abstract:
In this paper, the calculation steps needed for an estimation of speech
audibility relative to pure-tone audiogram thresholds are described in detail.
This procedure includes all calculations for the correct conversion of
one-third octave levels of speech signals into speech spectrum hearing levels.
Two examples of long-term average speech spectra (LTASS) correctly converted
into the pure-tone audiogram are presented. The first example, being calculated
step-by-step in this paper, describes the conversion of one-third octave speech
levels of English language spoken with normal vocal effort, as reported in the
standardized SII procedure. The second example shows the converted LTASS of
German language also spoken with normal vocal effort. Calculations have been
performed using the data measured for the international LTASS project organized
by the National Acoustic Laboratories back in 1994. As both LTASS differ only
marginally (mean difference of 1 dB), and in the light of the individual
variations of acoustical voice and speech parameters both the English and
German speech spectrum can be regarded as being identical for clinical
applications. Keywords:
Speech intelligibility, auditory threshold, pure-tone audiogram, long-term
average speech spectrum |
|
Z Audiol 2016; 55 (2) 80-84 – Peter Sickert |
|
Moderner Gehörschutz am Arbeitsplatz und bei Freizeitlärm
Modern
hearing protectors for workplaces and noisy recreational activities
Peter Sickert
Fachbereich Persönliche Schutzausrüstungen der DGUV,
Sachgebiet Gehörschutz, Berufsgenossenschaft Holz und Metall, Nürnberg
Zusammenfassung: Früher war die Benutzungsquote von
Gehörschutz in Firmen eher gering. Heute ist das Schutzbedürfnis gestiegen.
Auch wird Gehörschutz oft mit elektronischen Zusatzeinrichtungen zur
Kommunikation oder auch zum Hören von Musik kombiniert. Außerdem gibt es
Produkte, die Personen mit Hörminderung am Arbeitsplatz die Verständigung
erleichtern und so die Weiterbeschäftigung sichern. Dazu zählt Gehörschutz mit
pegelabhängiger Dämmung und Schallwiedergabesystem oder Gehörschutz in
Kombination mit einem Hörgerät. Außerdem wird Gehörschutz
anwendungsorientierter produziert. So gibt es z. B. Gehörschutz für Musiker,
für Piloten oder für den Polizeieinsatz. Auch wird Gehörschutz häufig im
privaten Bereich verwendet. Verstärkt kommt er ebenfalls an Arbeitsplätzen
unter 80 dB(A) zum Einsatz (z. B. im Büro), wo er eine reine Komfortfunktion
hat. Großer Wert wird dabei auf die tatsächliche Schutzwirkung, die
Kommunikationsfähigkeit und das Hören von Warnsignalen gelegt. Der Beitrag
beschreibt die modernen Möglichkeiten der Gehörschutznutzung, die Auswahl und
die Methoden der Wirksamkeitskontrolle.
Schlüsselwörter: Begrenzung der Lärmexposition,
Gehörschutzauswahl, spezielle Einsatzsituationen, Freizeitlärm, spezielle
Personengruppen, Wirksamkeitskontrolle
Abstract:
In the past, the use rate of hearing protection at work places was rather low.
This has changed over time and the need for protection has increased. Today,
hearing protectors are frequently equipped with additional electronic features
to enable communication or listening to music. There are also products for
hearing impaired users facilitating communication in working environments and
helping them to keep their jobs. Among those are hearing protectors with
level-dependent sound attenuation and sound restoration as well as protectors
being integrated in hearing aids. Furthermore, hearing protectors are designed
more applicationoriented today. Special hearing protectors are available for
musicians, pilots or police personnel. Even in the private sector hearing
protection is increasingly used. This applies also to work places with noise
levels below 80 dB(A) (e.g. offices); here the protectors are used just for
comfort reasons. Modern hearing protection concepts are focusing on the actual
protection effect, communication abilities and the audibility of warning
signals. This paper describes modern hearing protectors and their use,
selection criteria and methods to assess the actual effectiveness.
Keywords:
Limitation of noise exposure, selection of hearing protectors, special
applications, noise from recreational activities, special risk groups,
effectiveness check Lesen Sie »hier den ganzen Beitrag«
|
|
Z Audiol 2022; 61 (1) 16–26 – Kerner/Winkler/Holube |
|
Untersuchung des Einflusses der Störgeräuschrichtung auf das Sprachverstehen mit Richtmikrofonsystem
Exploration of the influence of noise direction on speech recognition with a directional microphone system
Maximilian Kerner, Alexandra Winkler, Inga Holube Institut für Hörtechnik und Audiologie, Jade Hochschule und Exzellenzcluster „Hearing4All“, Oldenburg
Zusammenfassung: Im Rahmen der Hörgeräteversorgung werden zur Erfolgskontrolle Messungen des Sprachverstehens im Störgeräusch durchgeführt. In der Hilfsmittel-Richtlinie ist die minimal zu erreichende Verbesserung, aber nicht die räumliche Messanordnung der Sprach- und Störgeräuschsignale vorgegeben. Um den Einfluss der räumlichen Anordnung abschätzen zu können, wurde die Abhängigkeit des Sprachverstehens von verschiedenen Störgeräuschrichtungen und die jeweilige Verbesserung des Signal-Rausch-Abstands (SNR) durch ein typischerweise in Hörgeräten verwendetes Richtmikrofon untersucht. Hierfür wurde eine virtuelle akustische Umgebung mit der Toolbox for Acoustic Scene Creation and Rendering (TASCAR) erstellt. In der Kombination mit Außenohrübertragungsfunktionen und dem Master Hearing Aid (MHA) wurde eine möglichst realitätsnahe Hörsituation über Kopfhörer simuliert. Die Messungen wurden mit jungen Probanden ohne Hörbeeinträchtigung durchgeführt, sodass das MHA für die Messungen nur eine Richtmikrofonimplementierung beinhaltete.
Das Störgeräusch wurde aus den in der Praxis häufig verwendeten Richtungen 0°, 90°, 180°, aus der in DIN EN ISO 8253-3 spezifizierten Richtung ±45°, aus ±135° und aus allen Richtungen gleichzeitig (diffus) präsentiert. Als Sprachtests wurden der Oldenburger Satztest (OLSA) und der Freiburger Einsilbertest (FBE) verwendet, wobei das Sprachsignal immer frontal dargeboten wurde. Für den OLSA wurde für jede Kondition (sechs Störgeräuschrichtungen jeweils mit und ohne Richtmikrofonsystem) die Schwelle ermittelt, bei der die Probanden ein Sprachverstehen von 50 % erreichten (SRT50). Beim FBE wurde für jede Kondition (fünf Störgeräuschrichtungen, ohne ±45°) das prozentuale Sprachverstehen bei einem festen SNR ermittelt. Für den OLSA wurde außerdem die SNR-Verbesserung durch das Richtmikrofonsystem berechnet. Die Ergebnisse zeigen sowohl mit als auch ohne Richtmikrofonsystem einen Einfluss der Störgeräuschrichtung auf das Sprachverstehen. Die perzeptiven Verbesserungen im Sprachverstehen stimmten mit den richtungsabhängigen gemessenen SNR-Verbesserungen durch das Richtmikrofonsystem überein. Aufgrund dieser Ergebnisse mit jungen Probanden ohne Hörbeeinträchtigung sollten weitere Studien mit Probanden mit Hörbeeinträchtigung folgen, um die fehlende einheitliche Angabe der Sprach- und Störgeräuschrichtung in der Hilfsmittel-Richtlinie zu diskutieren.
Stichwörter: Hilfsmittel-Richtlinie, Störgeräuschrichtung, Freiburger Einsilbertest, Oldenburger Satztest, Toolbox for Acoustic Scene Creation and Rendering, Master Hearing Aid, Richtmikrofon Abstract: Within the scope of the hearing aid fitting, measurements of speech recognition in noise are carried out to validate the success of the fitting. The guideline for hearing aid provision in Germany specifies the minimum improvement to be achieved, but not the spatial measurement condition of speech and noise signals. To estimate the influence of the spatial conditions, speech recognition was examined in its dependence on different noise directions and the respective improvement in signal-to-noise ratio (SNR) when using a typical directional microphone in hearing aids. Therefore, a virtual acoustic environment was created using the Toolbox for Acoustic Scene Creation and Rendering (TASCAR). In combination with Head-Related Transfer Functions and the Master Hearing Aid (MHA), a listening situation, as realistic as possible, was simulated via headphones. The measurements were performed by young participants with normal hearing. The MHA included only a directional microphone implementation.
The noise was presented from the directions 0°, 90°, 180°, the direction ±45° as specified in DIN EN ISO 8253-3, ±135°, and from all directions simultaneously (diffuse). The speech signal was always presented from the frontal direction. The Oldenburg sentence test (OLSA) and the Freiburg monosyllabic speech test (FBE) were used. For OLSA, speech recognition thresholds for scores of 50 % (SRT50) were measured for each condition (six noise directions, each with and without MHA). For FBE, speech recognition was determined as a percentage score at different fixed SNR for each condition (five noise directions, without ±45°). For OLSA, the SNR improvement due to the directional microphone was also calculated. The results showed that, regardless of the use of the directional microphone, the noise direction had an influence on speech recognition. The perceptual improvements in speech recognition were consistent with the directional SNR improvements measured by the directional microphone system. Based on these results with young participants without hearing impairment, further studies with participants with hearing impairment should follow to discuss the missing standardization of speech and noise direction in the guideline for hearing-aid provision in Germany. Keywords: German guidelines for hearing-aid provision, noise direction, Freiburg monosyllabic speech test, Oldenburg sentence test, toolbox for acoustic scene creation and rendering, master hearing aid, directional microphone Korrespondenzadresse: Maximilian Kerner, Jade Hochschule, Institut für Hörtechnik und Audiologie, Ofener Straße 16/19, 26121 Oldenburg E-Mail:
Diese E-Mail-Adresse ist gegen Spam Bots geschützt, Sie müssen JavaScript aktivieren, damit Sie es sehen können
Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) DOI: 10.3205/zaud000017
|
|
Z Audiol 2021; 60 (4) 138–148 – Zinner/Winkler/Holube |
|
Vergleich von fünf Sprachtests im sprachsimulierenden Störgeräusch
Comparison of five speech tests in speech-simulating noise
Christina Zinner, Alexandra Winkler, Inga Holube Institut für Hörtechnik und Audiologie, Jade Hochschule, und Exzellenzcluster „Hearing4All“, Oldenburg Zusammenfassung: In Deutschland stehen mehrere Sprachtestverfahren zur Verfügung, die jeweils mit unterschiedlichen Störgeräuschen und teils auch verschiedenen Kalibrierungsverfahren verwendet werden. Dadurch können Vergleiche zwischen den Ergebnissen der jeweiligen Sprachtests nur bedingt erfolgen. Zur Untersuchung der Unterschiede zwischen dem Freiburger Einsilbertest, dem Oldenburger Satztest, dem Göttinger Satztest, dem Hochmair-Schulz-Moser-Satztest und dem Reimtest nach von Wallenberg und Kollmeier wurden deshalb die Messbedingungen angeglichen. Zum einen wurden alle Sprachmaterialien auf den gleichen mittleren Langzeitpegel kalibriert. Zum anderen wurden neue sprachsimulierende Rauschen (Speech-Adjusted Noise (SAN)) durch 30fache Überlagerung des jeweiligen Sprachmaterials generiert. Diese SAN-Rauschen weichen zum Teil deutlich vom Spektrum der standardmäßig verwendeten Rauschen (STD-Rauschen) ab. Das Sprachverstehen in SAN- und in STD-Rauschen wurde mit 22 jungen Probanden ohne Hörbeeinträchtigungen im Freifeld ermittelt. Sowohl die Sprache als auch die Störgeräusche wurden über einen Lautsprecher aus der 0°-Richtung dargeboten. Jedes der fünf Sprachmaterialien wurde in den Störgeräuschen bei mindestens drei Signal-Rausch-Abständen präsentiert. An die Messergebnisse wurden Diskriminationsfunktionen angepasst und die Schwelle für 50 %iges Sprachverstehen (SRT50) mit der entsprechenden Steigung ermittelt. Die Differenz zwischen den SRT50-Werten für die STD-Rauschen und die SAN-Rauschen war für den Hochmair-Schulz-Moser-Satztest mit 4,0 dB am größten und für den Göttinger Satztest mit 0,7 dB am geringsten. Bei Verwendung der SAN-Rauschen und gleichem Kalibrierverfahren wichen die SRT50-Werte der fünf Sprachmaterialien um maximal 2,7 dB voneinander ab. Die Steigungen der Diskriminationsfunktionen unterschieden sich im STD-Rauschen um bis zu 15,1 %-Punkte/dB. Diese Diskrepanz reduzierte sich im SAN-Rauschen innerhalb der Satztests auf 1,8 %-Punkte/dB sowie innerhalb der Worttests auf 0,2 %-Punkte/dB und war für die Satztestverfahren signifikant steiler als für die Worttests.
Stichwörter: Sprachtests, Sprache im Störgeräusch, sprachsimulierendes Störgeräusch, Kalibrierung, OLSA, FBE, GÖSA, WAKO, HSM Abstract: There are several speech recognition tests available in Germany. They are often used with different background noises and with different calibration methods. Therefore, comparisons between the resulting speech recognition scores can only be made conditionally. Here, measurement conditions were adjusted to examine the differences in speech recognition using the Freiburg monosyllabic speech test, Oldenburg and Göttingen sentence test, Hochmair-Schulz-Moser sentence test, and monosyllabic rhyme test according to von Wallenberg and Kollmeier. First, all speech data sets were calibrated to the same average long-term level. Second, new speech-simulating noises (speech-adjusted noise (SAN)) were generated from the speech materials. For this purpose, each set of speech material was superimposed 30 times. These SAN noises differ substantially from the spectrum of standard (STD) noises. The speech recognition thresholds in STD and SAN noises were measured with 22 young listeners without hearing deficits in the free field. Both speech and background noise were presented via one loudspeaker from the 0° direction. Each of the five speech tests was presented in background noise with at least three signal-to-noise ratios. Discrimination functions were fitted to the results and the thresholds for a speech recognition score of 50 % (SRT50) and the corresponding slopes were determined. The difference in SRT50 between STD and SAN noise was largest (4.0 dB) for the Hochmair-Schulz-Moser sentence test and was only 0.7 dB for the Göttingen sentence test. When using SAN noise and the same calibration method, the SRT50 values of the five speech sets deviated from each another by maximally 2.7 dB. The slopes of the discrimination functions differed by up to 15.1%-points/dB in STD noise. This deviation was reduced in SAN noise to 1.8%-points/dB within the sentence tests and to 0.2%-points/dB within the word tests. In addition, the slopes were significantly steeper for the sentence tests than for the word tests. Keywords: speech test, speech in background noise, speech-simulating noise, calibration, OLSA, FBE, GÖSA, WAKO, HSM Korrespondenzadresse: Christina Zinner; Institut für Hörtechnik und Audiologie; Jade Hochschule; Ofener Straße 16/19; 26121 Oldenburg Tel. +49 441 7708-3741; E-Mail:
Diese E-Mail-Adresse ist gegen Spam Bots geschützt, Sie müssen JavaScript aktivieren, damit Sie es sehen können
Online-Erstveröffentlichung in GMS Z Audiol (Audiol Acoust) doi: 10.3205/zaud000016
|
|
Z Audiol 2021; 60 (3) 94–103 – Winkler/Schlüter/Gebauer/Seifert/Tuschen/Radeloff/Holube |
|
Einfluss von Sprechtempo und Störgeräusch auf das Sprachverstehen im Göttinger und im HSM-Satztest
Impact of speech rate and noise on speech recognition in Göttingen and HSM sentence test
Alexandra Winkler1,3, Anne Schlüter1,3, Tina Gebauer1, Josephine Seifert1, Laura Tuschen1, Andreas Radeloff2,3,4, Inga Holube1,3 1 Institut für Hörtechnik und Audiologie, Jade Hochschule Oldenburg 2 Universitätsklinik für Hals-Nasen-Ohren-Heilkunde am Evangelischen Krankenhaus Oldenburg, Carl von Ossietzky Universität, Oldenburg 3 Exzellenzcluster „Hearing4All“, Oldenburg 4 Forschungszentrum Neurosensorik, Carl von Ossietzky Universität, Oldenburg Zusammenfassung: Das Sprachverstehen von Cochlea-Implantat(CI)-Trägern kann u. a. mit dem Hochmair-Schulz-Moser(HSM)-Satztest oder dem Göttinger Satztest (GÖSA) überprüft werden. Beide Satztests bestehen aus Alltagssätzen, unterscheiden sich aber in der Artikulation, im Sprechtempo, im verwendeten Störgeräusch und in der Kalibrierung. Im klinischen Alltag wird der GÖSA im Vergleich zum HSM für CI-Träger teilweise als zu schwierig angesehen. Die Sprechrate als Maß für das Sprechtempo ist mit 279 Silben/min beim GÖSA höher als beim HSM mit 222 Silben/min. Die standardmäßig verwendeten Störgeräusche (CCITT-Rauschen beim HSM und GÖnoise beim GÖSA) bewirken eine unterschiedliche Verdeckung des Sprachmaterials. Um den Einfluss des Störgeräuschs und des Sprechtempos zu erfassen, wurde das Sprachverstehen bei CI-Trägern und bei einer Kontrollgruppe ohne Hörbeeinträchtigung (NH-Gruppe) mit beiden Sprachtests bestimmt. Als Störgeräusche dienten in beiden Sprachtests das CCITT-Rauschen und ein sprachsimulierendes Rauschen (GÖnoise im GÖSA und ein aus seinem Sprachmaterial generiertes Störgeräusch im HSM). Weiterhin wurde die Sprechrate der Sprachmaterialien so verändert, dass der HSM und der GÖSA jeweils eine Sprechrate von 222 und von 279 Silben/min aufwiesen. Pro Satztest wurden damit die Schwellen für ein Sprachverstehen von 50 % (SRT50) bei zwei verschiedenen Sprechraten und zwei verschiedenen Störgeräuschen, also vier Messkonditionen, ermittelt. Die Darbietung der Signale erfolgte in einer gedämmten Freifeldkabine über einen Lautsprecher, der sich frontal vor dem Probanden befand. Die SRT50-Werte im GÖSA unterschieden sich für die vier Messkonfigurationen weder für die CI-Träger noch für die NH-Gruppe signifikant voneinander. Beim HSM hingegen hatten die Sprechrate und das verwendete Störgeräusch einen signifikanten Einfluss auf das Sprachverstehen. Mit zunehmender Sprechrate erhöhte (verschlechterte) sich der SRT50. Das sprachsimulierende Rauschen führte im Vergleich zum CCITT-Rauschen zu besseren SRT50-Werten bei den CI-Trägern, während sich die SRT50-Werte für die NH-Gruppe verschlechterten. Bei Verwendung der gleichen Kalibrierung sind die SRT50-Werte für den HSM mit erhöhter Sprechrate in der NH-Gruppe für das sprachsimulierende Rauschen und in der CI-Gruppe für das CCITT-Rauschen mit den SRT50-Werten für den GÖSA vergleichbar. Stichwörter: HSM, GÖSA, CI, Sprechtempo, Zeitkompression, Störgeräusch, Sprachverstehen Abstract: Speech recognition for cochlear implant (CI) users can be derived using the Hochmair-Schulz-Moser(HSM) sentence test or the Göttingen sentence test (GÖSA). Both tests use everyday sentences, but they differ in articulation, speech tempo, interfering noise and calibration. The GÖSA is regarded in clinical practice as being more difficult to understand for CI users than HSM. Speech rate as a measure of speech tempo of GÖSA is 279 syllables/min and higher than the speech rate of HSM (222 syllables/min). The typical interfering noises, which are used (CCITT noise for HSM and GÖnoise for GÖSA), cause different masking patterns of speech material. Speech recognition was determined using different noises and speech rates for HSM and GÖSA for CI users and people without hearing impairment (NH). CCITT noise and speech simulating noises (GÖnoise for GÖSA and a noise generated from the speech material of HSM) were used for GÖSA and HSM. Speech rate of GÖSA and HSM was changed to present both speech materials at 222 and 279 syllables/min. Therefore, speech recognition thresholds (SRT50) for a score of 50 % correct were measured for four different conditions per speech test (two different noises and two different speech rates). All signals (noise and speech) were presented in a sound attenuated booth using one loudspeaker, which was placed in front of the listeners. There was no significant difference in SRT50-values for all GÖSA conditions for both groups of participants. SRT50-values in HSM significantly differed depending on speech rate and noise. SRT50-values increased with increasing speech rate. CI users showed significantly increased SRT50-values in CCITT whereas for group NH, decreasing SRT50-values in CCITT were observed. When using the same calibration, SRT50-values for HSM with higher speech rate were comparable to those for GÖSA for group NH in speech simulating noise and for group CI in CCITT. Keywords: HSM, GÖSA, CI, speech rate, time compression, noise, speech recognition
|
|
Z Audiol 2021; 60 (3) 104–107 – Mühler |
|
Registrierung stationärer Potenziale des auditorischen Systems (ASSR) in Echtzeit mit einem Lock-in-Verstärker
Recording of auditory steady-state evoked responses (ASSR) in real-time using a lock-in amplifier
Roland Mühler Abteilung für Experimentelle Audiologie, Otto-von-Guericke-Universität Magdeburg Zusammenfassung: Stationäre Potenziale des auditorischen Systems (ASSR) findet man bei periodischer Stimulation des Hörsystems im EEG-Spektrum als Spektrallinien mit exakt der Reizrate. Benutzt man zur Trennung von Signal und Störung die für transiente Potenziale übliche Mittelung reizsynchroner EEG-Abschnitte, wird die besondere Eigenschaft der stationären Potenziale, die exakte Kenntnis ihrer Frequenz, nicht beachtet. Ein Monitoring der ASSR in Echtzeit ist bei Anwendung des Mittelungsverfahrens nur eingeschränkt möglich. Diese Arbeit greift eine Idee von Schacham et al. [1] auf und beschreibt einen experimentellen Aufbau, der es erlaubt, stationäre Potenziale des auditorischen Systems mithilfe eines kommerziellen Lock-in-Verstärkers (Stanford Research 830) in Echtzeit darzustellen. In einem Lock-in-Verstärker wird das verrauschte Nutzsignal mit einem Referenzsignal mit der Frequenz des Nutzsignals multipliziert. Ein Tiefpass eliminiert alle nicht zur Nutzfrequenz synchronen Rauschanteile, sodass am Ausgang des Lock-in-Verstärkers eine dem Nutzsignal proportionale Gleichspannung anliegt. Das hier erstmals vorgestellte Messprinzip eignet sich für die Darstellung stationärer evozierte Potenziale bekannter Frequenz besonders gut. Für Chirpreize mit 40 pps und 50 dB nHL Reizpegel wurden an einer erwachsenen normalhörenden Probandin erfolgreich Amplituden-Zeit-Verläufe mit Zeitkonstanten von wenigen Sekunden registriert. Stichwörter: evozierte Potenziale, stationäre Potenziale, ASSR, Lock-in-Verstärker Abstract: Human auditory steady-state responses (ASSRs) are represented in the Electroencephalogram (EEG) by single spectral lines at the stimulus repetition rate. To increase the small signal-to-noise ratio of these responses, commercial ASSR systems usually average several segments of the EEG signal prior to be converted from the time domain into the frequency domain. The averaging process however does not allow for a recording of ASSR in real time. This paper describes an experimental setup which replaces averaging and frequency analysis by a lock-in amplifier. Lock-in amplifiers are widely used in experimental physics to extract small signals of known frequency from an extremely noisy background. A lock-in amplifier multiplies the (noisy) input signal by a reference signal. Subsequent integration with a time constant of a few seconds results in a DC signal. In our setup, with a reference signal at the same frequency as the stimulus repetition rate, the DC output is proportional to the ASSR amplitude.
Auditory steady-state responses were evoked in one normal hearing female adult by presenting wide-band chirp stimuli at 40 Hz repetition rate and 50 dB nHL presentation level through an insert earphone. The amplified and band pass filtered EEG signal was fed to the input channel of a Stanford Research Type 830 lock-in amplifier. A reference signal phase locked to the stimulus was fed to the amplifier’s reference input. The DC output was maximized by manually shifting the phase of the reference signal. A Digital Multimeter (Keysight DMM34460A) and a Data Acquisition Application (Keysight BenchVue) were used to record the time course of the DC output proportional to the ASSR amplitude. Switching the acoustical stimulus on and off periodically, the DC output follows the response amplitude in real time. Typical examples for time constants of 1 s and 3 s are presented.
This paper presents a feasibility analysis of a recording setup for auditory steady-state responses using a lock-in amplifier. The proposed method could be of some interest for intraoperative monitoring of the auditory nerve during implantation of middle ear protheses, neurosurgical procedures, and for brain-computer interfaces (BCI). Keywords: auditory steady-state responses, ASSR, lock-in amplifier
|
|
|