[0001] Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben einer Hörgerätevorrichtung
durch einen Nutzer. Darüber hinaus betrifft die vorliegende Erfindung eine Hörgerätevorrichtung
für einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens
einem weiteren Gerät. Unter einer Hörgerätevorrichtung wird hier jedes im oder am
Ohr tragbare, eine Hörhilfefunktion erfüllende Gerät verstanden, insbesondere ein
binaurales Hörsystem.
[0002] Hörgeräte sind tragbare Hörvorrichtungen, die zur Versorgung von Schwerhörenden dienen.
Um den zahlreichen individuellen Bedürfnissen entgegenzukommen, werden unterschiedliche
Bauformen von Hörgeräten wie Hinter-dem-Ohr-Hörgeräte (HdO), Hörgerät mit externem
Hörer (RIC: receiver in the canal) und In-dem-Ohr-Hörgeräte (IdO), z.B. auch Concha-Hörgeräte
oder Kanal-Hörgeräte (ITE, CIC), bereitgestellt. Die beispielhaft aufgeführten Hörgeräte
werden am Außenohr oder im Gehörgang getragen. Darüber hinaus stehen auf dem Markt
aber auch Knochenleitungshörhilfen, implantierbare oder vibrotaktile Hörhilfen zur
Verfügung. Dabei erfolgt die Stimulation des geschädigten Gehörs entweder mechanisch
oder elektrisch.
[0003] Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler,
einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein
Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z.
B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler,
z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer,
realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert.
Dieser prinzipielle Aufbau ist in FIG 1 am Beispiel eines Hinter-dem-Ohr-Hörgeräts
dargestellt. In ein Hörgerätegehäuse 1 zum Tragen hinter dem Ohr sind ein oder mehrere
Mikrofone 2 zur Aufnahme des Schalls aus der Umgebung eingebaut. Eine Signalverarbeitungseinheit
3, die ebenfalls in das Hörgerätegehäuse 1 integriert ist, verarbeitet die Mikrofonsignale
und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 3 wird an einen
Lautsprecher bzw. Hörer 4 übertragen, der ein akustisches Signal ausgibt. Der Schall
wird gegebenenfalls über einen Schallschlauch, der mit einer Otoplastik im Gehörgang
fixiert ist, zum Trommelfell des Geräteträgers übertragen. Die Energieversorgung des
Hörgeräts und insbesondere die der Signalverarbeitungseinheit 3 erfolgt durch eine
ebenfalls ins Hörgerätegehäuse 1 integrierte Batterie 5.
[0004] Zahlreiche elektronische Geräte verfügen über mehrere Einstellmöglichkeiten. Um die
Einstellungsmöglichkeiten dem Nutzer darbieten zu können, werden sie häufig optisch
in einer Menüstruktur dargeboten. Als Nutzerschnittstelle zum Bedienen des Menüs dient
beispielsweise ein Touchscreen, der z. B. bei so genannten Smartphones zur Menüsteuerung
verwendet wird. Dabei werden Optionen durch Gesten oder Wischbewegungen auf dem Bildschirm
gewählt.
[0005] Hörgeräte besitzen jedoch nicht entsprechend gestaltete Oberflächen, um solche Gesten
bzw. Wischbewegungen detektieren zu können. Dennoch wäre es wünschenswert, wenn auch
Hörgeräte über Gesten intuitiv steuerbar wären.
[0006] Darüber hinaus bieten Smartphones die Möglichkeiten, Text oder Telefonnummern mittels
Spracherkennung einzugeben. Auch hierzu hat der Nutzer jedoch das Gerät mithilfe des
Touchscreen zu aktivieren.
[0007] Des Weiteren ist bekannt, Hörgeräte mit einem so genannten "Toggle" oder einen Druckknopf
auf dem Gerät, aber auch mit einer Fernbedienung zu betätigen. Auf diese Weise kann
z. B. ein Hörgeräteprogramm gewählt werden. Einige Geräte geben die gewählte Programmnummer
oder Funktion mittels Sprache dem Benutzer wieder.
[0008] Aus der Druckschrift
EP 1 619 928 A1 ist ein Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen bekannt.
Dem Benutzer dieses Systems soll eine leichtere Zuordnung bzw. Unterscheidung in dem
System erzeugter akustischer Signale zur Information des Benutzers über aktuelle Einstellungen
bzw. Zustände des Systems ermöglicht werden. Hierzu erfolgt die Signalabgabe durch
das Hörhilfe- oder Kommunikationssystem derart, dass für den Benutzer die Signale
aus unterschiedlichen Signalquellen aus dem den Benutzer umgebenden Raum zu kommen
scheinen. Die akustischen Signale tragen dadurch eine von dem Benutzer bewusst oder
unbewusst wahrnehmbare zusätzliche Information.
[0009] Die Aufgabe der vorliegenden Erfindung besteht darin, das Betreiben einer Hörgerätevorrichtung
komfortabler zu gestalten.
[0010] Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Betreiben einer
Hörgerätevorrichtung durch einen Nutzer, durch Darbieten eines ersten akustischen
Signals mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position
stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung
repräsentiert, und Darbieten eines zweiten akustischen Signals mittels der Hörgerätevorrichtung
als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal
eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert, Bewegen eines Körperteils
des Nutzers zu der ersten oder zweiten virtuellen Position, Detektieren einer Position
oder Bewegung des Körperteils des Nutzers, automatisches Zuordnen der detektierten
Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position,
wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt
ist.
[0011] Darüber hinaus wird erfindungsgemäß bereitgestellt eine Hörgerätevorrichtung für
einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens
einem weiteren Gerät, wobei die Hörgeräte optional zusammen mit dem mindestens einen
weiteren Gerät ausgebildet sind zum Darbieten eines ersten akustischen Signals als
von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine
erste Einstelloption der Hörgerätevorrichtung repräsentiert, Darbieten eines zweiten
akustischen Signals als von einer zweiten virtuellen Position stammend, wobei das
zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,
Detektieren einer Position oder Bewegung eines Körperteils des Nutzers, und automatisches
Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder
zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende
Einstelloption gewählt ist.
[0012] In vorteilhafter Weise werden also mehrere Einstelloptionen akustisch einem Nutzer
dadurch aufgezeigt, dass Repräsentanten für die jeweiligen Einstellungen als Schallreiz
von unterschiedlichen räumlichen Positionen erzeugt werden. Dadurch wird jeder Einstelloption
ein Ort im Raum zugeordnet. Auf diesen Ort kann dann einfach intuitiv durch Positionieren,
Ausrichten oder Bewegen eines Körperteils hingewiesen werden. Dieses Hinweisen lässt
sich automatisch detektieren und der jeweiligen Einstelloption zuordnen. Damit ist
eine sehr komfortable Wahlmöglichkeit von Einstelloptionen der Hörgerätevorrichtung
gegeben.
[0013] Vorzugsweise werden das erste und zweite akustische Signal mithilfe einer kopfbezogenen
Übertragungsfunktion erzeugt. Eine derartige kopfbezogene Übertragungsfunktion gewährleistet,
dass die akustischen Einflüsse des Kopfes des Nutzers bei der Erzeugung der akustischen
Signale berücksichtigt werden. Damit können die akustischen Signale zuverlässiger
aus einer bestimmten Richtung kommend dargeboten werden.
[0014] Das Darbieten jedes der akustischen Signale kann durch Betätigen eines Betätigungselements,
Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts
angestoßen werden. Hierdurch wird erreicht, dass das akustische Signal genau dann
dargeboten wird, wenn der Nutzer dies durch eine selbst durchgeführte Aktion wünscht.
[0015] Besonders vorteilhaft ist, wenn das Detektieren der Position oder Bewegung des Körperteils
anhand des Erdmagnetfelds erfolgt. Mithilfe des Erdmagnetfelds lassen sich relative
Bewegungen beispielsweise unabhängig von optischen Gegebenheiten zuverlässig erfassen.
Alternativ können aber auch andere Sensoren eingesetzt werden. So können beispielsweise
Beschleunigungssensoren Bewegungen eines Körperteils erfassen.
[0016] Das automatische Zuordnen der detektierten Position oder Bewegung des Körperteils
zu einer der virtuellen Positionen kann durch Betätigen eines Betätigungselements,
Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts
angestoßen werden. Es kann damit nicht nur das Darbieten eines akustischen Signals
durch eine Benutzeraktion initiiert werden, sondern auch das Ende des Wahlvorgangs,
wodurch schließlich der automatische Zuordnungsvorgang eingeleitet wird.
[0017] Das Körperteil des Nutzers kann sein Kopf sein. Damit kann der Nutzer durch Drehen
oder Heben und Senken des Kopfes die zur Verfügung stehenden Einstelloptionen auswählen.
[0018] Alternativ kann das Körperteil des Nutzers auch eine seiner Hände oder Finger sein.
Damit kann der Nutzer beispielsweise durch Deuten in eine Richtung oder durch Wischen
und dergleichen eine spezielle Einstelloption wählen.
[0019] Besonders bevorzugt ist, wenn die Wahl einer Einstelloption dadurch erfolgt, dass
der Nutzer seinen Kopf in eine bestimmte Richtung dreht, die seine gewählte Einstelloption
repräsentiert, und er anschließend seine Wahl durch ein Nicken des Kopfes bestätigt,
wodurch die korrespondierten Einstelloption als gewählt gilt. Somit kann der Nutzer
auch beispielsweise in Situationen, in denen er zum Wählen einer Einstelloption keine
Hand frei hat, mit einfachen Kopfbewegungen seine gewünschte Einstelloption wählen.
[0020] Eine der Einstelloptionen kann ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe,
eine Richtcharakteristik, eine Rauschunterdrückung, einen Hörinhalt oder dergleichen
betreffen. Im Grunde genommen kann jeder Parameter, der sich an einem Hörgerät oder
einem Hörsystem einstellen lässt, durch die erfindungsgemäße akustische Darbietungsweise
gewählt werden.
[0021] Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert,
in denen zeigen:
- FIG 1
- den prinzipiellen Aufbau eines Hörgeräts gemäß dem Stand der Technik;
- FIG 2
- eine schematische Ansicht zur akustischen, räumlichen Darbietung eines Auswahlmenüs
und
- FIG 3
- einen beispielhaften Verfahrensablauf.
[0022] Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen
der vorliegenden Erfindung dar.
[0023] Touchscreens zeigen typischerweise so genannte Icons oder Optionen, die mit dem Finger
gewählt werden können. Wenn jedoch, wie bei Hörgeräten bzw. Hörgerätevorrichtungen
keine Bildschirme zur Verfügung stehen, oder der Nutzer nicht in der Lage ist, sie
zu sehen, werden die Optionen gemäß FIG 2 akustisch dargeboten. Um die wählbaren Optionen
unterscheiden zu können, werden die akustischen Signale bzw. deren Quellen 10, 11
und 12 virtuell um den Nutzer 13 positioniert. Das Darbieten erfolgt hier durch zwei
Hörgeräte 14, 15, mit denen der Nutzer 13 binaural versorgt wird.
[0024] Um die Quellen 10 bis 12 an den gewünschten Orten virtuell zu platzieren, ist es
notwendig, die akustischen Gegebenheiten am Kopf des Nutzers nachzubilden. Nur so
lassen sich akustische Signale erzeugen, die der Nutzer auch aus einer bestimmten
Richtung kommend wahrnimmt. Hierfür genügt in der Regel eine so genannte kopfbezogene
Übertragungsfunktion (HRTF: Head Related Transfer Function).
[0025] In einem konkreten Beispiel soll der Nutzer 13 drei Einstellmöglichkeiten besitzen.
Dementsprechend werden beim Repräsentieren der drei Einstellmöglichkeiten bzw. -optionen
drei akustische Signale 10, 11 und 12 aus unterschiedlichen Richtungen dargeboten.
Dieses richtungsabhängige Darbieten erfolgt durch die beiden Hörgeräte 14, 15, mit
denen beim Nutzer 13 der Eindruck erweckt werden kann, als käme ein erstes akustisches
Signal 10 von vorne links, ein zweites akustisches Signal 11 aus der Mitte von vorn
und ein drittes akustisches Signal 12 von vorne rechts. Um diese virtuelle Positionierung
von Schallquellen zu erreichen, sind die beiden Hörgeräte 14, 15 vorzugsweise durch
eine kabellose Datenverbindung miteinander gekoppelt.
[0026] Das Darbieten der einzelnen akustischen Signale 10 bis 12 erfolgt nacheinander und
wird jeweils durch eine aktive Tätigkeit des Nutzers angestoßen. Die Darbietung wird
also durch Benutzerinteraktionen getriggert. Das Triggern kann beispielsweise durch
Drücken eines Knopfs, durch Sprechen eines von einem Spracherkennungsalogrithmus zu
erkennenden Schlüsselworts oder durch eine zu detektierende Geste des Nutzers erfolgen.
[0027] In dem obigen Beispiel sind drei Optionen gewählt. Die Anzahl der Optionen für das
Einstellen der Hörgerätevorrichtung mit den zwei Hörgeräten 14 und 15 kann aber auch
zwei betragen oder größer als drei sein. Vorzugsweise ist dann der Halbraum vor dem
Nutzer 13 richtungsmäßig in eine entsprechende Anzahl an Sektoren unterteilt, in denen
die virtuellen Schallwellen angeordnet sind. Vorzugsweise sind die Sektoren in etwa
gleich groß.
[0028] Im Zusammenhang mit FIG 3 wird ein Beispiel des erfindungsgemäßen Verfahrens erläutert.
FIG 3 zeigt hierzu auf der linken Seite die Aktionen, die der Nutzer NU durchführen
muss, und auf der rechten Seite die Verfahrensschritte, die im Hörgerät bzw. Hörgerätevorrichtung
HG ablaufen. Der Nutzer NU will also seine Hörgerätevorrichtung HG einstellen. Dazu
stößt er mit einer ersten Aktion AKT1 den Einstellvorgang an. Bei dieser Aktion AKT1
kann es sich um die Betätigung eines Knopfs an einem der Hörgeräte 14, 15 oder auf
einer Fernbedienung, aber auch beispielsweise um ein Schlüsselwort handeln, das der
Nutzer NU bzw. 13 ausspricht und von der Hörgerätevorrichtung durch Spracherkennung
erfasst wird.
[0029] Durch die erste Aktion AKT1 wird die gesamte Einstellprozedur und/oder ein Darbieten
einer ersten Option durch die Hörgerätevorrichtung HG initiiert. Konkret wird also
beispielsweise durch ein Knopfdrücken die Wiedergabe eines akustischen Signals 10
von einer virtuellen Position links vorne ausgelöst. D. h. die akustische Wiedergabe
über die beiden Hörgeräte 14 und 15 erfolgt so, dass der betreffende Schall von der
Richtung bzw. Position vorne links zu kommen scheint. Die Hörgerätevorrichtung HG
führt also getriggert durch die Aktion AKT1 des Nutzers NU die Darbietung des ersten
akustischen Signals SIG1 aus.
[0030] Anschließend führt der Nutzer NU eine zweite Aktion AKT2 (z. B. Knopfdruck, Aussprechen
eines Schlüsselworts etc.) aus. Daraufhin gibt die Hörgerätevorrichtung HG ein zweites
akustisches Signal SIG2 aus. Dies scheint für den Nutzer NU bzw. 13 aus einer anderen
Richtung oder von einer anderen virtuellen Position zu stammen. Beispielsweise handelt
es sich bei dem Signal SIG2 um das, bezogen auf den Kopf des Nutzers 13 scheinbar
von vorne eintreffenden akustischen Signals 11 (vgl. FIG 2). Gegebenenfalls schließen
sich einer oder mehrere derartige Schrittpaare an, die aus einer Aktion des Nutzers
NU und einer Signalausgabe der Hörgerätevorrichtung HG bestehen.
[0031] Nach Abschluss oder zu der akustischen Darbietung sämtlicher Einstelloptionen führt
der Nutzer eine weitere Aktion aus, die hier aus einer Kopfbewegung BEW besteht, welche
in FIG 2 mit dem Pfeil 16 gekennzeichnet ist. Bei dieser Bewegung BEW bewegt der Nutzer
NU seinen Kopf bzw. ein anderes Körperteil wie z. B. einen Arm oder eine Hand, in
diejenige Richtung bzw. zu der virtuellen Position, die er bei der Darbietung der
einzelnen Optionen wahrgenommen hat oder bei der er die gewünschte Darbietung bekommt.
Die Hörgerätevorrichtung muss nun diese Bewegung des Kopfes registrieren können. Hierzu
ist ein entsprechender Detektionsschritt DET notwendig.
[0032] Die Detektion basiert beispielsweise auf der Basis der Fassung des Erdmagnetfelds
17. Die Hörgerätevorrichtung mit den beiden Hörgeräten 14 und 15 und gegebenenfalls
einem oder mehreren weiteren Geräten (z. B. Fernbedienung, Induktionsband etc.) registriert
hierfür zunächst die virtuellen Positionen bzw. Richtungen des ersten akustischen
Signals 10, zweiten akustischen Signals 11 etc. in Bezug auf das Erdmagnetfeld 17
(Nordpol N). Dreht nun der Nutzer 13 seinen Kopf, so kann dies mithilfe der Hörgerätevorrichtung
HG detektiert werden.
[0033] Will nun der Nutzer NU eine Wahl einer der Einstelloptionen treffen, so muss er dazu
nicht nur sein Körperteil in die betreffende Richtung bzw. zu der betreffenden virtuellen
Position bewegen oder drehen, sondern er muss dann auch eine entsprechende Bestätigung
BEST durchführen. In einem einfachen Fall dreht der Nutzer 13 gemäß FIG 2 also beispielsweise
seinen Kopf gemäß Pfeil 16 nach links zu der virtuellen Richtung bzw. Position aus
der das erste akustische Signal 10 eintrifft, und anschließend nickt er gemäß dem
Symbol 18 mit seinem Kopf. Die Hörgerätevorrichtung HG registriert durch dieses Nicken
angestoßen die Richtung bzw. Position des Kopfs des Nutzers 13 und ordnet die detektierte
Position bzw. Richtung der entsprechenden Einstelloption zu, die durch die gewählte
virtuelle Schalleinfallsrichtung repräsentiert wird. Anhand dieser Zuordnung erfolgt
dann in der Hörgerätevorrichtung HG eine entsprechende Einstellung EINST. Es wird
also in der Hörgerätevorrichtung diejenige Einstellung durchgeführt, die der gewählten
Einstelloption entspricht. Dabei kann ein bestimmtes Hörgeräteprogramm (z. B. für
eine Telefonsituation, für Sprache in Ruhe) etc. oder einfach die Einstellung der
Lautstärke in mehreren Stufen vorgenommen werden. Es können aber auch andere Einstellungen
wie die stufenweise Einstellung einer Geräuscheunterdrückung oder verschiedene Richtcharakteristiken
durch die akustische Menüwahl getroffen werden.
[0034] Die Auswahl der Optionen kann durch unterschiedliche Arten erfolgen. So können beispielsweise
Beschleunigungs- und/oder Positionssensoren eingesetzt werden. Alternativ kann die
Optionswahl auch durch manuelle Betätigung erfolgen.
[0035] Bei Einsatz eines Beschleunigungs- und/oder Positionssensor kann dieser am Kopf des
Nutzers (z. B. in einem der Hörgeräte) oder an der Hand des Nutzers (z. B. als Fingerring
oder Gelenkband) oder auch in der Hand (z. B. als Stift, der gehalten wird) realisiert
sein.
[0036] Nachfolgend wird ein weiteres Ausführungsbeispiel erläutert, bei dem die Schritte
des Bewegens eines Körperteils, des Detektierens der Position oder Bewegung des Körperteils
und des automatischen Zuordnens zu einer Einstelloption vor dem Bearbeiten der akustischen
Signale erfolgt.
Ein Beschleunigungssensor detektiert eine Bewegung, z. B. wenn der Kopf nach rechts
bewegt wird. Positionssensoren detektieren die Orientierung beispielsweise in Bezug
auf das Erdmagnetfeld, wie oben dargestellt wurde. Wenn dem Nutzer beispielsweise
in einem Raum zwei drahtlose Audioquellen zur Verfügung stehen (z. B. Fernseher und
Stereoanlage), wird beispielsweise das Fernseh-Audiosignal virtuell auf der linken
Seite des Nutzers dargeboten und das Audiosignal der Stereoanlage auf der rechten
Seite (vorzugsweise nacheinander ausgelöst durch eine passende Triggeraktion). Wenn
der Nutzer nun seinen Kopf nach links dreht, detektieren die Sensoren die Bewegung,
und das Audiosignal des Fernsehers wird binaural dargeboten. Wenn andererseits der
Kopf nach rechts bewegt wird, wird das Audiosignal der Stereoanlage binaural präsentiert.
Um nun eine der beiden Quellen zu wählen, dreht der Nutzer seinen Kopf auf die entsprechende
Seite und nickt beispielsweise mit dem Kopf. Die Beschleunigungssensoren werden dieses
Bestätigungssignal detektieren und die jeweilige Audioquelle zur weiteren Darbietung
auswählen.
[0037] Das gleiche Auswahlprinzip lässt sich realisieren, wenn der bzw. die Sensoren an
der Hand des Nutzers montiert sind. Durch Gesten, wie z. B. Wischbewegungen, nach
links oder rechts wird die entsprechende Audioquelle als Wahloption dargeboten. Dabei
kann die Wischbewegung bzw. Geste in der Luft durchgeführt werden, ohne dass es einer
bestimmten Sensoroberfläche bedarf. Eine Bestätigungsgeste (z. B. Nicken) bestätigt
die getroffene Wahl des akustischen Signals bzw. der Einstelloption. Das Bestätigen
bzw. die Bestätigungsbewegung kann durch die gleichen Sensoren detektiert werden,
die auch das Bewegen des Körperteils des Nutzers detektieren, mit dem die Wahl der
jeweiligen Einstelloptionen angedeutet werden soll.
[0038] Anstatt der Wahl der Audioquellen können auch andere Optionen auf diese Art und Weise
gewählt werden. Beispiele hierfür sind, wie oben bereits erwähnt: Wahl eines Hörprogramms
in den Hörgeräten, Lautstärke aufwärts/abwärts und Geräuschreduktionseinstellungen
speziell für das Steuern eines Beamformers.
[0039] Die Wahl einer Einstelloption kann gemäß einer weiteren Ausführungsform auch mit
einem so genannten "Touchpad", wie es von Notebooks bekannt ist, oder durch ein übliches
Touchscreen (wie es typischerweise von Smartphones oder Tablett-Computern bekannt
ist) erfolgen. Die Hörgerätevorrichtung umfasst in diesem Fall eben ein Touchpad oder
einen Touchscreen. Wie in dem Beispiel zuvor erfolgt auch hier die akustische Präsentation
der Optionen anstelle einer optischen Präsentation der Optionen auf einem Bildschirm.
Dies ist insbesondere für Personen vorteilhaft, die unter Beeinträchtigung des Seesinns
leiden oder die gar blind sind. Außerdem kann ein derartiges System in Situationen
vorteilhaft sein, wo der Nutzer nicht in der Lage ist, auf einen Bildschirm zu sehen
(z. B. während des Autofahrens).
[0040] In diesem Ausführungsbeispiel ist dann das bewegte Körperteil ein Finger des Nutzers,
der hin zu der ersten oder zweiten virtuellen Position zeigt oder sich in eine entsprechende
Richtung bewegt. Die Position oder Bewegung des Fingers wird dann mithilfe des Touchpad
oder Touchscreen detektiert und es erfolgt eine entsprechende Zuordnung zur jeweiligen
Einstelloption. Als Bestätigung kann hier ein Doppelklick oder ein einfacher Klick
dienen.
[0041] Die Merkmale obiger Ausführungsformen können beliebig miteinander kombiniert werden.
[0042] Entsprechend der vorliegenden Erfindung wird somit die Wahl von Optionen einer Hörgerätevorrichtung
bzw. eines Hörgeräts auf der Basis von Körpergesten und virtueller akustischer Präsentation
der Optionen ermöglicht. Der Vorteil darin ist die verbesserte Zugänglichkeit und
Verwendbarkeit moderner Hörgeräte. Diese Vorteile kommen insbesondere bei Personen
mit Sehschäden oder begrenzten motorischen Fähigkeiten zum Tragen. Die Wahl der Optionen
erfolgt hierbei automatisch durch Sensoren, die sich in Hörgeräten oder anderen am
Körper getragenen Geräten befinden.
1. Verfahren zum Betreiben einer Hörgerätevorrichtung (HG) durch einen Nutzer (NU, 13)
gekennzeichnet durch
- Darbieten eines ersten akustischen Signals (10) mittels der Hörgerätevorrichtung
als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal
eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, und
- Darbieten eines zweiten akustischen Signals (11) mittels der Hörgerätevorrichtung
als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal
eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,
- Bewegen eines Körperteils des Nutzers (NU, 13) zu der ersten oder zweiten virtuellen
Position,
- Detektieren einer Position oder Bewegung des Körperteils des Nutzers,
- automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu
der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen
Position entsprechende Einstelloption gewählt ist.
2. Verfahren nach Anspruch 1, wobei das erste und zweite akustische Signal (10, 11) mithilfe
einer kopfbezogenen Übertragungsfunktion erzeugt werden.
3. Verfahren nach Anspruch 1 oder 2, wobei das Darbieten jedes der akustischen Signale
(10, 11) durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder
Erfassen eines vom Nutzer (NU, 13) gesprochenen Schlüsselworts angestoßen wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Detektieren der Position
oder Bewegung des Körperteils anhand des Erdmagnetfelds (17) erfolgt.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das automatische Zuordnen
durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen
eines vom Nutzer gesprochenen Schlüsselworts angestoßen wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Körperteil des Nutzers
((NU, 13) sein Kopf ist.
7. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Körperteil des Nutzers (NU,
13) eine seiner Hände ist.
8. Verfahren nach Anspruch 5 und 6, wobei das Bewegen des Körperteils ein Nicken des
Kopfes des Nutzers ist.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine der Einstelloptionen
ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe, eine Richtcharakteristik, eine
Rauschunterdrückung oder einen Hörinhalt betrifft.
10. Hörgerätevorrichtung (HG) für einen Nutzer (NU, 13) mit einem ersten Hörgerät (14),
einem zweiten Hörgerät (15) und optional mindestens einem weiteren Gerät,
dadurch gekennzeichnet, dass
die Hörgeräte (14, 15) optional zusammen mit dem mindestens einen weiteren Gerät ausgebildet
sind zum
- Darbieten eines ersten akustischen Signals (10) als von einer ersten virtuellen
Position stammend, wobei das erste akustische Signal eine erste Einstelloption der
Hörgerätevorrichtung repräsentiert,
- Darbieten eines zweiten akustischen Signals (11) als von einer zweiten virtuellen
Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der
Hörgerätevorrichtung repräsentiert,
- Detektieren einer Position oder Bewegung eines Körperteils des Nutzers (NU, 13),
und
- automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu
der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen
Position entsprechende Einstelloption gewählt ist.