(19)
(11) EP 2 373 064 A1

(12) EUROPÄISCHE PATENTANMELDUNG

(43) Veröffentlichungstag:
05.10.2011  Patentblatt  2011/40

(21) Anmeldenummer: 11154775.8

(22) Anmeldetag:  17.02.2011
(51) Internationale Patentklassifikation (IPC): 
H04R 25/00(2006.01)
(84) Benannte Vertragsstaaten:
AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR
Benannte Erstreckungsstaaten:
BA ME

(30) Priorität: 24.03.2010 DE 102010012622

(71) Anmelder: Siemens Medical Instruments Pte. Ltd.
Singapore 139959 (SG)

(72) Erfinder:
  • Barthel, Roland
    91056 Erlangen (DE)

(74) Vertreter: Maier, Daniel Oliver 
Siemens Aktiengesellschaft Postfach 22 16 34
80506 München
80506 München (DE)

 
Bemerkungen:
Geänderte Patentansprüche gemäss Regel 137(2) EPÜ.
 


(54) Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten


(57) Die Erfindung gibt eine binaurale Anordnung und ein zugehöriges Verfahren mit einem ersten und einem zweiten Hörgerät (10, 20) zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle an. Die Anordnung umfasst ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20). Das zweite Spracherkennungsmodul (21) verwendet Informationsdaten des ersten Spracherkennungsmoduls (11) zum Erkennen der Sprachbefehle. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen ("Fehlalarme") verringert wird.




Beschreibung


[0001] Die Erfindung betrifft ein binaurales Verfahren und eine binaurale Anordnung zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten und einem zweiten Hörgerät. Unter Hörgerät werden neben den Hörhilfen für Hörgeschädigte auch Tinnitus-Marker und Anti-Stotter-Hilfen verstanden.

[0002] Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in Figur 1 am Beispiel eines Hinter-dem-Ohr Hörgeräts 1 dargestellt. In ein Hörgerätegehäuse 2 zum Tragen hinter dem Ohr sind üblicherweise zwei Mikrofone 3 zur Aufnahme des Schalls aus der Umgebung eingebaut. Oberhalb der Mikrofone 3 sind Mikrofonöffnungen 7 in dem Hörgerätegehäuse 2 ausgebildet. Durch die Mikrofonöffnungen 7 kann der Schall zu den Mikrofonen 3 im Inneren des Hörgerätegehäuses 2 gelangen. Eine Signalverarbeitungseinheit 4, die ebenfalls in das Hörgerätegehäuse 2 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 4 wird an einen Lautsprecher bzw. Hörer 5 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen nicht dargestellten Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Hörgeräteträgers übertragen. Die Energieversorgung des Hörgeräts 1 und insbesondere die der Signalverarbeitungseinheit 4 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 2 integrierte Batterie 6.

[0003] Unter einer binauralen Versorgung eines Hörgeschädigten wird die Versorgung mit einem rechten und einem linken Hörgerät bezeichnet. Dadurch können die Hörverluste beider Ohren individuell ausgeglichen werden. Damit die Vorteile einer binauralen Versorgung optimal genutzt werden können, kommunizieren diese drahtlos miteinander und tauschen Daten aus. In der US 2004/0037442 A1 wird eine derartige binaurale Hörgeräteanordnung beschrieben.

[0004] Untersuchungen der Anmelderin belegen, dass eine Sprachsteuerung von Hörgeräten den Tragekomfort deutlich verbessert. Die oft lästige Bedienung mittels einer Fernbedienung oder kleinen Einstellknöpfen am Hörgerät kann so oftmals vermieden werden. Die DE 10 2007 056 221 A1 gibt eine Lösung an, wie die für eine Sprachsteuerung benötigte Spracherkennung auch mit der verfügbaren Rechenleistung eines Hörgeräts realisiert werden kann. Trotzdem lässt die Erkennungsrate im Alltag zu wünschen übrig. Zu viele "Fehlalarme" treten auf, d.h. dass das Hörgerät einen gültigen Befehl erkennt, obwohl kein Befehl vom Hörgeräteträger gesprochen wurde. Ursache ist, dass die bekannten Spracherkennungsalgorithmen an die Anwendung bei Hörgeräten noch nicht optimal angepasst sind bzw. mit vertretbarem Aufwand nicht anpassbar werden können.

[0005] Es ist Aufgabe der Erfindung "Fehlalarme" zu vermeiden und ein Verfahren sowie eine Anordnung anzugeben, die eine Sprachsteuerung von Hörgeräten verbessern.

[0006] Gemäß der Erfindung wird die gestellte Aufgabe mit dem Verfahren und der Anordnung der unabhängigen Patentansprüche gelöst.

[0007] Die Erfindung beansprucht ein Verfahren zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten Hörgerät und einem zweiten Hörgerät in binauraler Anordnung. Dabei verwendet ein erstes Spracherkennungsverfahren des ersten Hörgeräts zur Erkennung der Sprachbefehle Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen ("Fehlalarme") verringert wird bei einer gleichzeitigen Beibehaltung der Trefferquote.

[0008] In einer Weiterbildung des Verfahrens können die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen. Eine Sprachsteuerung wird dadurch fehlerfreier und robuster.

[0009] In einer weiteren Ausführungsform des Verfahrens kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.

[0010] Des Weiteren können die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.

[0011] In einer weiteren Ausführungsform kann das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren sein.

[0012] Außerdem können die Informationsdaten vom ersten Hörgerät drahtlos an das zweite Hörgerät übertragen werden.

[0013] Die Erfindung beansprucht auch eine binaurale Anordnung mit einem ersten und einem zweiten Hörgerät zur Sprachsteuerung von Hörgeräten durch Sprachbefehle. Die Anordnung umfasst ein erstes Spracherkennungsmodul in dem ersten Hörgerät und ein zweites Spracherkennungsmodul in dem zweiten Hörgerät, das Informationsdaten des ersten Spracherkennungsmoduls zur Erkennung der Sprachbefehle verwendet.

[0014] In einer Weiterbildung der Anordnung können die Informationsdaten einen von dem ersten Spracherkennungsmodul erkannten ersten Sprachbefehl umfassen.

[0015] In einer weiteren Ausführungsform der Anordnung kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul erkannten zweiten Sprachbefehl übereinstimmt.

[0016] Des Weiteren können die Informationsdaten der Anordnung akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.

[0017] In einer weiteren Ausführungsform kann die Anordnung einen ersten Spracherkennungsalgorithmus in dem ersten Spracherkennungsmodul und einen zweiten Spracherkennungsalgorithmus in dem zweiten Spracherkennungsmodul umfassen.

[0018] In einer Weiterbildung der Anordnung kann der erste Spracherkennungsalgorithmus gleich dem zweiten Spracherkennungsalgorithmus sein.

[0019] Außerdem kann die Anordnung ein erstes Funkmodul in dem ersten Hörgerät und ein zweites Funkmodul in dem zweiten Hörgerät umfassen, wobei das erste Funkmodul die Informationsdaten an das zweite Funkmodul überträgt.

[0020] Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen mehrerer Ausführungsbeispiele anhand von schematischen Zeichnungen ersichtlich.

[0021] Es zeigen:
Figur 1:
ein Hinter-dem-Ohr Hörgerät gemäß Stand der Technik,
Figur 2:
ein Ablaufdiagramm einer binauralen Sprachsteuerung und
Figur 3:
eine Anordnung mit zwei Hörgeräten zur binauralen Spracherkennung.


[0022] Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens zur Sprachsteuerung eines Hörgeräts 10, 20 mit Sprachbefehlen. Erfindungsgemäß werden dazu ein erstes und ein zweites Hörgerät 10, 20 in einer binauralen Anordnung eingesetzt. Das erste Hörgerät 10 versorgt das linke Ohr und das zweite Hörgerät 20 das rechte Ohr eines Hörgeräteträgers. Im ersten Hörgerät 10 ist ein erstes Spracherkennungsverfahren und im zweiten Hörgerät 20 ein zweites Spracherkennungsverfahren implementiert. Die Spracherkennungsverfahren können gleich sein. Sie weisen gängige oder Hörgeräte-spezifische Spracherkennungsalgorithmen auf. Die Anzahl der zu erkennenden Sprachbefehle ist beschränkt und umfasst in der Regel fünf bis maximal zwanzig Befehle.

[0023] Im ersten Schritt 100 warten die Hörgeräte 10, 20 auf die Abgabe eines Sprachbefehls durch den Hörgeräteträger. Dazu werden laufend die akustischen Eingangssignale analysiert. Im folgenden Schritt 101 erkennt das erste Hörgerät 10 einen ersten Sprachbefehl und sendet diesen im folgenden Schritt 102 an das zweite Hörgerät mit Hilfe drahtloser Kommunikation. Im Schritt 103 empfängt das zweite Hörgerät 20 den ersten Sprachbefehl. Das zweite Hörgerät 20 hat gleichzeitig zu Schritt 101 im Schritt 104 einen zweiten Sprachbefehl erkannt.

[0024] Im Schritt 105 vergleicht das zweite Hörgerät 20 den selbst ermittelten zweiten Sprachbefehl mit dem vom ersten Hörgerät 10 empfangenen ersten Sprachbefehl. Stimmen die beiden Sprachbefehle überein, wird im Schritt 106 der erste bzw. der zweite Sprachbefehl ausgeführt. Anschließend springt das Verfahren zu Schritt 100 zurück. Stimmen die beiden Sprachbefehle nicht überein, geht das Verfahren sofort mit Verfahrensschritt 100 weiter.

[0025] Das Verfahren kann selbstverständlich auch gleichzeitig in umgekehrter Richtung ablaufen, d.h. das zweite Hörgerät 20 überträgt seinen erkannten zweiten Sprachbefehl an das erste Hörgerät 10. Das erste Hörgerät führt den Sprachbefehl aus, wenn der selbst ermittelte erste Sprachbefehl mit dem empfangenen zweiten Sprachbefehl übereinstimmt.

[0026] Anstatt des Ergebnisses der Spracherkennung in Form von ersten oder zweiten Sprachbefehlen können in Ergänzung oder alternativ auch andere Informationsdaten des ersten bzw. zweiten Spracherkennungsverfahrens an das andere Hörgerät übertragen werden. Diese "Rohdaten" werden dann im anderen ersten bzw. zweiten Spracherkennungsverfahren bei einer Spracherkennung mitberücksichtigt.

[0027] Figur 3 zeigt ein Blockschaltbild einer erfindungsgemäßen binauralen Anordnung mit einem ersten Hörgerät 10 und einem zweiten Hörgerät 20, die über eine Funkkommunikation 30 Daten austauschen können. Das erste Hörgerät 10 umfasst eine erste Signalverarbeitungseinheit 14, die von einem ersten Mikrofon 13 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen ersten Hörer 15 weiterleitet. Mit Hilfe eines ersten Spracherkennungsmoduls 11 wird das Mikrofonsignal des ersten Mikrofons 13 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines ersten Spracherkennungsalgorithmus 12 im ersten Spracherkennungsmodul 11. Mit einem ersten Funkmodul 16 kann das erste Hörgerät 10 mit dem zweiten Hörgerät 20 drahtlos Daten austauschen.

[0028] Das zweite Hörgerät 20 umfasst eine zweite Signalverarbeitungseinheit 24, die von einem zweiten Mikrofon 23 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen zweiten Hörer 25 weiterleitet. Mit Hilfe eines zweiten Spracherkennungsmoduls 21 wird das Mikrofonsignal des zweiten Mikrofons 23 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines zweiten Spracherkennungsalgorithmus 22 im zweiten Spracherkennungsmodul 21. Mit einem zweiten Funkmodul 26 kann das zweite Hörgerät 20 mit dem ersten Hörgerät 10 drahtlos Daten austauschen.

[0029] Wird ein erster Sprachbefehl durch das erste Spracherkennungsmodul 11 erkannt, sendet das erste Hörgerät 10 mithilfe des ersten Funkmoduls den erkannten ersten Sprachbefehl an das zweite Hörgerät 20, das diesen ersten Sprachbefehl mithilfe des zweiten Funkmoduls 26 empfängt. Das zweite Spracherkennungsmodul 21 hat wiederum selbst einen zweiten Sprachbefehl erkannt. Das zweite Spracherkennungsmodul 21 vergleicht nun den ersten und den zweiten Sprachbefehl und steuert die zweite Signalverarbeitungseinheit 24 mit dem zweiten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.

[0030] Die binaurale Anordnung funktioniert analog in umgekehrter Richtung. Das erste Spracherkennungsmodul 11 vergleicht den ersten und den zweiten Sprachbefehl und steuert die erste Signalverarbeitungseinheit 14 mit dem ersten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.

[0031] Anstelle von oder zusätzlich zu erkannten ersten und zweiten Sprachbefehlen können mit der Funkkommunikation 30 auch andere Informationsdaten, wie beispielweise akustische Parameter, Ergebnisse einer Voice Activity Detection oder Wahrscheinlichkeiten von erkannten Sprachbefehlen, ausgetauscht werden.

Bezugszeichenliste



[0032] 
1
Hinter-dem-Ohr Hörgerät
2
Hörgerätegehäuse
3
Mikrofon
4
Signalverarbeitungseinheit
5
Hörer
6
Batterie
7
Mikrofonöffnung im Hörgerätegehäuse 2
10
erstes Hörgerät
11
erstes Spracherkennungsmodul
12
erster Spracherkennungsalgorithmus
13
erstes Mikrofon
14
erste Signalverarbeitungseinheit
15
erster Hörer
16
erstes Funkmodul
20
zweites Hörgerät
21
zweites Spracherkennungsmodul
22
zweiter Spracherkennungsalgorithmus
23
zweites Mikrofon
24
zweite Signalverarbeitungseinheit
25
zweiter Hörer
26
zweites Funkmodul
30
Funkkommunikation
100
Warten auf Sprachbefehl
101
Erster Sprachbefehl erkannt
102
Senden des ersten Sprachbefehls
103
Empfangen des ersten Sprachbefehls
104
Zweiter Sprachbefehl erkannt
105
Vergleich erster und zweiter Sprachbefehl
106
Ausführen des Sprachbefehls



Ansprüche

1. Verfahren zur Sprachsteuerung von Hörgeräten (10, 20) mit Sprachbefehlen mit einem ersten Hörgerät (10) und einem zweiten Hörgerät (20) in binauraler Anordnung,
dadurch gekennzeichnet,
dass ein erstes Spracherkennungsverfahren des ersten Hörgeräts (10) Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts (20) zur Erkennung der Sprachbefehle verwendet.
 
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen.
 
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
 
4. Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet,
dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
 
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren ist.
 
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass die Informationsdaten vom ersten Hörgerät (10) drahtlos an das zweite Hörgerät (20) übertragen werden.
 
7. Binaurale Anordnung zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle mit einem ersten und einem zweiten Hörgerät (10, 20) ,
gekennzeichnet durch:

- ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und

- ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20), das Informationsdaten des ersten Spracherkennungsmoduls (11) zur Erkennung der Sprachbefehle verwendet.


 
8. Anordnung nach Anspruch 7,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten Sprachbefehl umfassen.
 
9. Anordnung nach Anspruch 8,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl übereinstimmt.
 
10. Anordnung nach einem der Ansprüche 7 bis 9,
dadurch gekennzeichnet,
dass die Informationensdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
 
11. Anordnung nach einem der Ansprüche 7 bis 10, gekennzeichnet durch:

- einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul (11) und

- einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul (21).


 
12. Anordnung nach Anspruch 11,
dadurch gekennzeichnet,
dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus (22) ist.
 
13. Anordnung nach einem der Ansprüche 7 bis 12, gekennzeichnet durch:

- ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und

- ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul (16) die Informationsdaten an das zweite Funkmodul (26) überträgt.


 


Geänderte Patentansprüche gemäss Regel 137(2) EPÜ.


8. Binaurale Anordnung nach Anspruch 7,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten Sprachbefehl umfassen.
 
9. Binaurale Anordnung nach Anspruch 8,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl übereinstimmt.
 
10. Binaurale Anordnung nach einem der Ansprüche 7 bis 9,
dadurch gekennzeichnet,
dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
 
11. Binaurale Anordnung nach einem der Ansprüche 7 bis 10, gekennzeichnet durch:

- einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul (11) und

- einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul (21).


 
12. Binaurale Anordnung nach Anspruch 11,
dadurch gekennzeichnet,
dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus (22) ist.
 
13. Binaurale Anordnung nach einem der Ansprüche 7 bis 12, gekennzeichnet durch:

- ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und

- ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul (16) die Informationsdaten an das zweite Funkmodul (26) überträgt.


 




Zeichnung










Recherchenbericht










Angeführte Verweise

IN DER BESCHREIBUNG AUFGEFÜHRTE DOKUMENTE



Diese Liste der vom Anmelder aufgeführten Dokumente wurde ausschließlich zur Information des Lesers aufgenommen und ist nicht Bestandteil des europäischen Patentdokumentes. Sie wurde mit größter Sorgfalt zusammengestellt; das EPA übernimmt jedoch keinerlei Haftung für etwaige Fehler oder Auslassungen.

In der Beschreibung aufgeführte Patentdokumente