P2

EEG-Analyse zur Beurteilung der auditiven Aufmerksamkeit beim Hören

Haizhou Li
Andreas Radeloff

Der Prozess des Hörens basiert auf der Interaktion zwischen Gehör und Gehirn. Derzeitige technische Hörhilfen (z.B. Hörgeräte) modifizieren zwar den Schall, können jedoch nicht mit dem menschlichen Gehirn interagieren. Da die Interaktion zwischen Gehör und Gehirn eine entscheidende Rolle bei der Hörwahrnehmung von Objekten im täglichen Leben spielt, z.B. über die auditive Aufmerksamkeit, ist die Wirksamkeit eines Hörgeräts ohne Interaktion zwischen Gehirn und auditorischen System stark limitiert. Studien unseres Teams haben gezeigt, dass eine Zielstimme aus einem monauralen Sprachgemisch mit mehreren Sprechern extrahiert werden kann, indem wir ein akustisches (Xu et al., 2020) oder visuelles Bild der Zielstimme als Referenz verwenden. Ferner ist es uns möglich, in einer akustischen Umgebung mit mehreren Sprechern die auditive Aufmerksamkeit des Menschen zu erkennen, entweder in Richtung des Sprechers oder des Ortes der Schallquelle (Cai et al., 2021b).
In dieser Studie werden Techniken des maschinellen Lernens eingesetzt (Su et al., 2022), um die Interaktion zwischen dem menschlichen Gehirn (über EEG-Signale) und Hörgeräten (unter Verwendung von Sprecherextraktionsalgorithmen als Hörassistenzsysteme) zu modellieren, um die Erfahrung der auditiven Wahrnehmung sowohl für Hörgeschädigte als auch für gesunde Nutzer und Nutzerinnen zu verbessern. Dabei gehen wir zwei Herausforderungen an:

Wie können wir EEG-Signale als Referenzsignale verwenden, um eine Zielstimme zu extrahieren?
Wie können wir von der binauralen Sprecherextraktion aus einer Sprachmischung mit mehreren Sprechern profitieren?
Nach oben scrollen