[0001] Die Erfindung betrifft ein binaurales Verfahren und eine binaurale Anordnung zur
Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten und einem zweiten
Hörgerät. Unter Hörgerät werden neben den Hörhilfen für Hörgeschädigte auch Tinnitus-Marker
und Anti-Stotter-Hilfen verstanden.
[0002] Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler,
einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein
Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z.
B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler,
z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer,
realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert.
Dieser prinzipielle Aufbau ist in Figur 1 am Beispiel eines Hinter-dem-Ohr Hörgeräts
1 dargestellt. In ein Hörgerätegehäuse 2 zum Tragen hinter dem Ohr sind üblicherweise
zwei Mikrofone 3 zur Aufnahme des Schalls aus der Umgebung eingebaut. Oberhalb der
Mikrofone 3 sind Mikrofonöffnungen 7 in dem Hörgerätegehäuse 2 ausgebildet. Durch
die Mikrofonöffnungen 7 kann der Schall zu den Mikrofonen 3 im Inneren des Hörgerätegehäuses
2 gelangen. Eine Signalverarbeitungseinheit 4, die ebenfalls in das Hörgerätegehäuse
2 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal
der Signalverarbeitungseinheit 4 wird an einen Lautsprecher bzw. Hörer 5 übertragen,
der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen nicht
dargestellten Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum
Trommelfell des Hörgeräteträgers übertragen. Die Energieversorgung des Hörgeräts 1
und insbesondere die der Signalverarbeitungseinheit 4 erfolgt durch eine ebenfalls
ins Hörgerätegehäuse 2 integrierte Batterie 6.
[0003] Unter einer binauralen Versorgung eines Hörgeschädigten wird die Versorgung mit einem
rechten und einem linken Hörgerät bezeichnet. Dadurch können die Hörverluste beider
Ohren individuell ausgeglichen werden. Damit die Vorteile einer binauralen Versorgung
optimal genutzt werden können, kommunizieren diese drahtlos miteinander und tauschen
Daten aus. In der
US 2004/0037442 A1 wird eine derartige binaurale Hörgeräteanordnung beschrieben.
[0004] Untersuchungen der Anmelderin belegen, dass eine Sprachsteuerung von Hörgeräten den
Tragekomfort deutlich verbessert. Die oft lästige Bedienung mittels einer Fernbedienung
oder kleinen Einstellknöpfen am Hörgerät kann so oftmals vermieden werden. Die
DE 10 2007 056 221 A1 gibt eine Lösung an, wie die für eine Sprachsteuerung benötigte Spracherkennung auch
mit der verfügbaren Rechenleistung eines Hörgeräts realisiert werden kann. Trotzdem
lässt die Erkennungsrate im Alltag zu wünschen übrig. Zu viele "Fehlalarme" treten
auf, d.h. dass das Hörgerät einen gültigen Befehl erkennt, obwohl kein Befehl vom
Hörgeräteträger gesprochen wurde. Ursache ist, dass die bekannten Spracherkennungsalgorithmen
an die Anwendung bei Hörgeräten noch nicht optimal angepasst sind bzw. mit vertretbarem
Aufwand nicht anpassbar werden können.
[0005] Es ist Aufgabe der Erfindung "Fehlalarme" zu vermeiden und ein Verfahren sowie eine
Anordnung anzugeben, die eine Sprachsteuerung von Hörgeräten verbessern.
[0006] Gemäß der Erfindung wird die gestellte Aufgabe mit dem Verfahren und der Anordnung
der unabhängigen Patentansprüche gelöst.
[0007] Die Erfindung beansprucht ein Verfahren zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen
mit einem ersten Hörgerät und einem zweiten Hörgerät in binauraler Anordnung. Dabei
verwendet ein erstes Spracherkennungsverfahren des ersten Hörgeräts zur Erkennung
der Sprachbefehle Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten
Hörgeräts. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen
("Fehlalarme") verringert wird bei einer gleichzeitigen Beibehaltung der Trefferquote.
[0008] In einer Weiterbildung des Verfahrens können die Informationsdaten einen von dem
zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen. Eine Sprachsteuerung
wird dadurch fehlerfreier und robuster.
[0009] In einer weiteren Ausführungsform des Verfahrens kann ein Sprachbefehl nur dann zur
Sprachsteuerung verwendet werden, wenn der zweite Sprachbefehl mit einem von dem ersten
Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
[0010] Des Weiteren können die Informationsdaten akustische Parameter, Ergebnisse einer
Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen
umfassen.
[0011] In einer weiteren Ausführungsform kann das zweite Spracherkennungsverfahren gleich
dem ersten Spracherkennungsverfahren sein.
[0012] Außerdem können die Informationsdaten vom ersten Hörgerät drahtlos an das zweite
Hörgerät übertragen werden.
[0013] Die Erfindung beansprucht auch eine binaurale Anordnung mit einem ersten und einem
zweiten Hörgerät zur Sprachsteuerung von Hörgeräten durch Sprachbefehle. Die Anordnung
umfasst ein erstes Spracherkennungsmodul in dem ersten Hörgerät und ein zweites Spracherkennungsmodul
in dem zweiten Hörgerät, das Informationsdaten des ersten Spracherkennungsmoduls zur
Erkennung der Sprachbefehle verwendet.
[0014] In einer Weiterbildung der Anordnung können die Informationsdaten einen von dem ersten
Spracherkennungsmodul erkannten ersten Sprachbefehl umfassen.
[0015] In einer weiteren Ausführungsform der Anordnung kann ein Sprachbefehl nur dann zur
Sprachsteuerung verwendet werden, wenn der erste Sprachbefehl mit einem von dem zweiten
Spracherkennungsmodul erkannten zweiten Sprachbefehl übereinstimmt.
[0016] Des Weiteren können die Informationsdaten der Anordnung akustische Parameter, Ergebnisse
einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen
umfassen.
[0017] In einer weiteren Ausführungsform kann die Anordnung einen ersten Spracherkennungsalgorithmus
in dem ersten Spracherkennungsmodul und einen zweiten Spracherkennungsalgorithmus
in dem zweiten Spracherkennungsmodul umfassen.
[0018] In einer Weiterbildung der Anordnung kann der erste Spracherkennungsalgorithmus gleich
dem zweiten Spracherkennungsalgorithmus sein.
[0019] Außerdem kann die Anordnung ein erstes Funkmodul in dem ersten Hörgerät und ein zweites
Funkmodul in dem zweiten Hörgerät umfassen, wobei das erste Funkmodul die Informationsdaten
an das zweite Funkmodul überträgt.
[0020] Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen
mehrerer Ausführungsbeispiele anhand von schematischen Zeichnungen ersichtlich.
[0021] Es zeigen:
- Figur 1:
- ein Hinter-dem-Ohr Hörgerät gemäß Stand der Technik,
- Figur 2:
- ein Ablaufdiagramm einer binauralen Sprachsteuerung und
- Figur 3:
- eine Anordnung mit zwei Hörgeräten zur binauralen Spracherkennung.
[0022] Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens zur Sprachsteuerung eines Hörgeräts
10, 20 mit Sprachbefehlen. Erfindungsgemäß werden dazu ein erstes und ein zweites
Hörgerät 10, 20 in einer binauralen Anordnung eingesetzt. Das erste Hörgerät 10 versorgt
das linke Ohr und das zweite Hörgerät 20 das rechte Ohr eines Hörgeräteträgers. Im
ersten Hörgerät 10 ist ein erstes Spracherkennungsverfahren und im zweiten Hörgerät
20 ein zweites Spracherkennungsverfahren implementiert. Die Spracherkennungsverfahren
können gleich sein. Sie weisen gängige oder Hörgeräte-spezifische Spracherkennungsalgorithmen
auf. Die Anzahl der zu erkennenden Sprachbefehle ist beschränkt und umfasst in der
Regel fünf bis maximal zwanzig Befehle.
[0023] Im ersten Schritt 100 warten die Hörgeräte 10, 20 auf die Abgabe eines Sprachbefehls
durch den Hörgeräteträger. Dazu werden laufend die akustischen Eingangssignale analysiert.
Im folgenden Schritt 101 erkennt das erste Hörgerät 10 einen ersten Sprachbefehl und
sendet diesen im folgenden Schritt 102 an das zweite Hörgerät mit Hilfe drahtloser
Kommunikation. Im Schritt 103 empfängt das zweite Hörgerät 20 den ersten Sprachbefehl.
Das zweite Hörgerät 20 hat gleichzeitig zu Schritt 101 im Schritt 104 einen zweiten
Sprachbefehl erkannt.
[0024] Im Schritt 105 vergleicht das zweite Hörgerät 20 den selbst ermittelten zweiten Sprachbefehl
mit dem vom ersten Hörgerät 10 empfangenen ersten Sprachbefehl. Stimmen die beiden
Sprachbefehle überein, wird im Schritt 106 der erste bzw. der zweite Sprachbefehl
ausgeführt. Anschließend springt das Verfahren zu Schritt 100 zurück. Stimmen die
beiden Sprachbefehle nicht überein, geht das Verfahren sofort mit Verfahrensschritt
100 weiter.
[0025] Das Verfahren kann selbstverständlich auch gleichzeitig in umgekehrter Richtung ablaufen,
d.h. das zweite Hörgerät 20 überträgt seinen erkannten zweiten Sprachbefehl an das
erste Hörgerät 10. Das erste Hörgerät führt den Sprachbefehl aus, wenn der selbst
ermittelte erste Sprachbefehl mit dem empfangenen zweiten Sprachbefehl übereinstimmt.
[0026] Anstatt des Ergebnisses der Spracherkennung in Form von ersten oder zweiten Sprachbefehlen
können in Ergänzung oder alternativ auch andere Informationsdaten des ersten bzw.
zweiten Spracherkennungsverfahrens an das andere Hörgerät übertragen werden. Diese
"Rohdaten" werden dann im anderen ersten bzw. zweiten Spracherkennungsverfahren bei
einer Spracherkennung mitberücksichtigt.
[0027] Figur 3 zeigt ein Blockschaltbild einer erfindungsgemäßen binauralen Anordnung mit
einem ersten Hörgerät 10 und einem zweiten Hörgerät 20, die über eine Funkkommunikation
30 Daten austauschen können. Das erste Hörgerät 10 umfasst eine erste Signalverarbeitungseinheit
14, die von einem ersten Mikrofon 13 aufgenommene akustische Signale in Form von elektrischen
Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen ersten Hörer
15 weiterleitet. Mit Hilfe eines ersten Spracherkennungsmoduls 11 wird das Mikrofonsignal
des ersten Mikrofons 13 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert.
Die Sprecherkennung erfolgt mithilfe eines ersten Spracherkennungsalgorithmus 12 im
ersten Spracherkennungsmodul 11. Mit einem ersten Funkmodul 16 kann das erste Hörgerät
10 mit dem zweiten Hörgerät 20 drahtlos Daten austauschen.
[0028] Das zweite Hörgerät 20 umfasst eine zweite Signalverarbeitungseinheit 24, die von
einem zweiten Mikrofon 23 aufgenommene akustische Signale in Form von elektrischen
Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen zweiten Hörer
25 weiterleitet. Mit Hilfe eines zweiten Spracherkennungsmoduls 21 wird das Mikrofonsignal
des zweiten Mikrofons 23 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert.
Die Sprecherkennung erfolgt mithilfe eines zweiten Spracherkennungsalgorithmus 22
im zweiten Spracherkennungsmodul 21. Mit einem zweiten Funkmodul 26 kann das zweite
Hörgerät 20 mit dem ersten Hörgerät 10 drahtlos Daten austauschen.
[0029] Wird ein erster Sprachbefehl durch das erste Spracherkennungsmodul 11 erkannt, sendet
das erste Hörgerät 10 mithilfe des ersten Funkmoduls den erkannten ersten Sprachbefehl
an das zweite Hörgerät 20, das diesen ersten Sprachbefehl mithilfe des zweiten Funkmoduls
26 empfängt. Das zweite Spracherkennungsmodul 21 hat wiederum selbst einen zweiten
Sprachbefehl erkannt. Das zweite Spracherkennungsmodul 21 vergleicht nun den ersten
und den zweiten Sprachbefehl und steuert die zweite Signalverarbeitungseinheit 24
mit dem zweiten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl
übereinstimmen.
[0030] Die binaurale Anordnung funktioniert analog in umgekehrter Richtung. Das erste Spracherkennungsmodul
11 vergleicht den ersten und den zweiten Sprachbefehl und steuert die erste Signalverarbeitungseinheit
14 mit dem ersten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl
übereinstimmen.
[0031] Anstelle von oder zusätzlich zu erkannten ersten und zweiten Sprachbefehlen können
mit der Funkkommunikation 30 auch andere Informationsdaten, wie beispielweise akustische
Parameter, Ergebnisse einer Voice Activity Detection oder Wahrscheinlichkeiten von
erkannten Sprachbefehlen, ausgetauscht werden.
Bezugszeichenliste
[0032]
- 1
- Hinter-dem-Ohr Hörgerät
- 2
- Hörgerätegehäuse
- 3
- Mikrofon
- 4
- Signalverarbeitungseinheit
- 5
- Hörer
- 6
- Batterie
- 7
- Mikrofonöffnung im Hörgerätegehäuse 2
- 10
- erstes Hörgerät
- 11
- erstes Spracherkennungsmodul
- 12
- erster Spracherkennungsalgorithmus
- 13
- erstes Mikrofon
- 14
- erste Signalverarbeitungseinheit
- 15
- erster Hörer
- 16
- erstes Funkmodul
- 20
- zweites Hörgerät
- 21
- zweites Spracherkennungsmodul
- 22
- zweiter Spracherkennungsalgorithmus
- 23
- zweites Mikrofon
- 24
- zweite Signalverarbeitungseinheit
- 25
- zweiter Hörer
- 26
- zweites Funkmodul
- 30
- Funkkommunikation
- 100
- Warten auf Sprachbefehl
- 101
- Erster Sprachbefehl erkannt
- 102
- Senden des ersten Sprachbefehls
- 103
- Empfangen des ersten Sprachbefehls
- 104
- Zweiter Sprachbefehl erkannt
- 105
- Vergleich erster und zweiter Sprachbefehl
- 106
- Ausführen des Sprachbefehls
1. Verfahren zur Sprachsteuerung von Hörgeräten (10, 20) mit Sprachbefehlen mit einem
ersten Hörgerät (10) und einem zweiten Hörgerät (20) in binauraler Anordnung,
dadurch gekennzeichnet,
dass ein erstes Spracherkennungsverfahren des ersten Hörgeräts (10) Informationsdaten
eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts (20) zur Erkennung
der Sprachbefehle verwendet.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten
Sprachbefehl umfassen.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der zweite Sprachbefehl
mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
4. Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet,
dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection
und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren
ist.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass die Informationsdaten vom ersten Hörgerät (10) drahtlos an das zweite Hörgerät (20)
übertragen werden.
7. Binaurale Anordnung zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle
mit einem ersten und einem zweiten Hörgerät (10, 20) ,
gekennzeichnet durch:
- ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und
- ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20), das Informationsdaten
des ersten Spracherkennungsmoduls (11) zur Erkennung der Sprachbefehle verwendet.
8. Anordnung nach Anspruch 7,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten
Sprachbefehl umfassen.
9. Anordnung nach Anspruch 8,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl
mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl
übereinstimmt.
10. Anordnung nach einem der Ansprüche 7 bis 9,
dadurch gekennzeichnet,
dass die Informationensdaten akustische Parameter, Ergebnisse einer Voice Activity Detection
und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
11. Anordnung nach einem der Ansprüche 7 bis 10,
gekennzeichnet durch:
- einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul
(11) und
- einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul
(21).
12. Anordnung nach Anspruch 11,
dadurch gekennzeichnet,
dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus
(22) ist.
13. Anordnung nach einem der Ansprüche 7 bis 12,
gekennzeichnet durch:
- ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und
- ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul
(16) die Informationsdaten an das zweite Funkmodul (26) überträgt.
Geänderte Patentansprüche gemäss Regel 137(2) EPÜ.
8. Binaurale Anordnung nach Anspruch 7,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten
Sprachbefehl umfassen.
9. Binaurale Anordnung nach Anspruch 8,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl
mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl
übereinstimmt.
10. Binaurale Anordnung nach einem der Ansprüche 7 bis 9,
dadurch gekennzeichnet,
dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection
und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
11. Binaurale Anordnung nach einem der Ansprüche 7 bis 10,
gekennzeichnet durch:
- einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul
(11) und
- einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul
(21).
12. Binaurale Anordnung nach Anspruch 11,
dadurch gekennzeichnet,
dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus
(22) ist.
13. Binaurale Anordnung nach einem der Ansprüche 7 bis 12,
gekennzeichnet durch:
- ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und
- ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul
(16) die Informationsdaten an das zweite Funkmodul (26) überträgt.