[0001] Die Erfindung betrifft ein Verfahren zur Bestimmung einer HRTF sowie ein Hörgerät,
in welchem eine solche HRTF verwendbar ist. HRTF bedeutet "head related transfer function",
d.h. kopfbezogene Übertragungsfunktion.
[0002] Ein Hörgerät dient allgemein zur Ausgabe von Audiosignalen an einen Nutzer. Hierzu
weist das Hörgerät zumindest einen Hörer auf (auch Lautsprecher oder Receiver genannt),
mittels welchem das Audiosignal in ein Schallsignal umgewandelt wird. Das Hörgerät
wird regelmäßig vom Nutzer im oder am Ohr getragen. In einer möglichen Ausgestaltung
dient das Hörgerät speziell zur Versorgung eines hörgeschädigten Nutzers. Hierzu weist
das Hörgerät ein Mikrofon auf, welches Schallsignale aus der Umgebung aufnimmt und
daraus ein Audiosignal erzeugt, welches ein elektrisches Eingangssignal ist. Dieses
wird zur Modifikation einer Signalverarbeitung des Hörgeräts zugeführt. Die Modifikation
erfolgt beispielsweise anhand eines individuellen Audiogramms des Nutzers, welcher
dem Hörgerät zugeordnet ist, sodass ein individuelles Hördefizit des Nutzers ausgeglichen
wird. Die Signalverarbeitung gibt als Ergebnis ein elektrisches Ausgangssignal aus,
welches ein modifiziertes Audiosignal ist und welches dann über den Hörer des Hörgeräts
wieder in ein Schallsignal umgewandelt wird und an den Nutzer ausgegeben wird.
[0003] Ein Hörgerät ist entweder monaural und wird dann nur auf einer Seite des Kopfs getragen
oder binaural und weist dann zwei Einzelgeräte auf, welche auf unterschiedlichen Seiten
des Kopfs getragen werden. Je nach Typ wird das Hörgerät am, im oder hinter dem Ohr
getragen oder eine Kombination hiervon.
[0004] Gängige Typen von Hörgeräten sind z.B. BTE-, RIC- und ITE-Hörgeräte. Diese unterscheiden
sich insbesondere in Bauform und Trageweise.
[0005] Die HRTF ist eine Übertragungsfunktion ("transfer function"), welche angibt, wie
Schallsignale aus der Umgebung auf dem Weg in den Gehörgang einer Person durch deren
Körperform, speziell Kopfform ("head related") modifiziert werden. Die HRTF ist eine
Übertragungsfunktion speziell für Schallsignale, d.h. akustische Signale. In einem
Hörgerät wird die HRTF geeigneterweise bei der Modifikation in der Signalverarbeitung
genutzt und ermöglicht dabei insbesondere die Erhaltung oder Erzeugung von räumlichen
Geräuschinformationen (sogenannten "spatial cues"), sodass der Nutzer die entsprechende
Geräuschquelle besser lokalisieren kann.
[0006] Ganz allgemein breitet sich ein Schallsignal von einer Audioquelle ausgehend in der
Umgebung aus und gelangt dadurch auch zum Ohr und in den Gehörgang des Nutzers eines
Hörgeräts. Der Weg, auf welchem das Schallsignal in den Gehörgang gelangt, wird auch
als akustischer Pfad bezeichnet. Die Modifikation des Schallsignals entlang des akustischen
Pfads ist abhängig vom Körper des Nutzers, speziell von der jeweiligen Form des Torsos
und Kopfes und ganz besonders von der Ohrform, speziell der Form der Ohrmuschel (d.h.
Pinna). Konsequenterweise ist die tatsächliche HRTF regelmäßig individuell und für
jeden Nutzer anders. Typischerweise wird jedoch eine nicht-individuelle HRTF verwendet,
welche z.B. mit Hilfe eines Dummys (z.B. KEMAR) ermittelt wird und dann für eine Vielzahl
an mitunter unterschiedlichen Nutzern verwendet wird. Der individuellen Körperform
des Nutzers wird damit jedoch regelmäßig nur unzureichend Rechnung getragen, jedenfalls
bleiben mögliche Abweichungen zum Dummy unberücksichtigt.
[0007] Grundsätzlich ist es denkbar, für einen jeweiligen Nutzer eine individuelle HRTF
zu bestimmen. Hierzu wird der Nutzer in einem möglichst echofreien Raum platziert
und von verschiedenen Seiten mit Schallsignalen beaufschlagt. Hierzu sind mehrere
Lautsprecher an festen, vorgegebenen Positionen um den Nutzer herum platziert. An
derjenigen Stelle, an welcher später der Hörer des Hörgeräts sitzen soll, d.h. im
oder am Ohr des Nutzers, wird ein Mikrofon platziert, welches die Schallsignale empfängt.
Durch Vergleichen der gesendeten mit den empfangenen Schallsignalen kann dann die
individuelle HRTF bestimmt werden. Dieses Verfahren führt zu einem sehr guten Ergebnis,
ist jedoch auch sehr aufwändig.
[0008] Die
US 9 591 427 B1 beschreibt ein Verfahren, welches von einem Smartphone ausgeführt wird, um HRTFs
einer Person zu erzeugen, welche Kopfhörer trägt. Mit einer Kamera im Smartphone wird
basierend auf einem Bild des Gesichts der Person eine Position des Smartphones in
Bezug auf das Gesicht der Person bestimmt. Während sich das Smartphone in einer Hand
der Person und nahe dem Gesicht der Person befindet, wird mit dem Smartphone ein Ton
erzeugt, wobei auch der Standort des Smartphones in Bezug auf das Gesicht der Person
gespeichert wird. Der Ton wird dann mit einem linken Mikrofon der Kopfhörer im linken
Ohr der Person und mit einem rechten Mikrofon der Kopfhörer in einem rechten Ohr der
Person erfasst. Mit dem Smartphone werden schließlich eine linke und eine rechte HRTF
erzeugt.
[0009] Vor diesem Hintergrund ist es eine Aufgabe der Erfindung die HRTF möglichst nutzerspezifisch
zu bestimmen und dazu die individuelle Körperform eines Nutzers zu berücksichtigen.
Die Bestimmung der HRTF soll dabei möglichst einfach sein und den Nutzer möglichst
nicht stören. Hierzu soll ein Verfahren zur Bestimmung der HRTF angegeben werden,
zur Verwendung mit einem Hörgerät. Weiter soll ein entsprechendes Hörgerät angegeben
werden.
[0010] Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen gemäß
Anspruch 1 sowie durch ein Hörgerät mit den Merkmalen gemäß Anspruch 15. Vorteilhafte
Ausgestaltungen, Weiterbildungen und Varianten sind Gegenstand der Unteransprüche.
Die Ausführungen im Zusammenhang mit dem Verfahren gelten sinngemäß auch für das Hörgerät
und umgekehrt. Sofern nachfolgend Schritte des Verfahrens beschrieben sind, ergeben
sich zweckmäßige Ausgestaltungen für das Hörgerät insbesondere dadurch, dass dieses
eine Steuereinheit aufweist, welche ausgebildet ist, einen oder mehrere dieser Schritte
auszuführen.
[0011] Ein Kerngedanke der vorliegenden Erfindung ist insbesondere, zur Bestimmung einer
HRTF für einen bestimmten Nutzer eine Audioquelle zu verwenden, welche ein Audiosignal
sowohl akustisch als auch nicht-akustisch ausgeben kann. Die Audioquelle ist vorzugsweise
ein Mediengerät, d.h. insbesondere ein Gerät zur Ausgabe und/oder Wiedergabe von Medien
(z.B. Audio, Video). Die Audioquelle wird insbesondere wiederkehrend vom Nutzer in
dessen Alltag genutzt. Das akustisch ausgegebene Audiosignal propagiert entlang eines
akustischen Pfads zum Nutzer und speziell bis zu einem Mikrofon eines Hörgeräts des
Nutzers und wird entlang des akustischen Pfads durch die Körperform des Nutzers modifiziert.
Diese Modifikation ist definiert durch eine Übertragungsfunktion, welche der tatsächlichen,
individuellen HRTF des Nutzers entspricht. Das nicht-akustisch ausgegebene Audiosignal
wird hingegen gerade nicht durch diese HRTF modifiziert, sodass sich durch einen Vergleich
der beiden unterschiedlich übertragenen Audiosignale die HRTF individuell für den
Nutzer bestimmen lässt. Dies wird vorliegend umgesetzt, um dann die HRTF nutzerspezifisch
zu bestimmen. Zugleich ist das Verfahren vorteilhaft mit verschiedensten Audioquellen
im Alltag des Nutzers und während des bestimmungsgemäßen Gebrauchs des Hörgeräts durchführbar,
erfordert also gerade keine spezielle Messumgebung oder Messgerätschaften und stört
auch den Nutzer nur minimal oder gar nicht.
[0012] Das hier beschriebene Verfahren dient allgemein zur Bestimmung einer HRTF (d.h. "head-related
transfer function" oder kopfbezogene Übertragungsfunktion). Die HRTF findet insbesondere
Verwendung im bestimmungsgemäßen Betrieb eines Hörgeräts eines Nutzers. Die Bestimmung
der HRTF erfolgt vorteilhaft nutzerspezifisch für diesen Nutzer. Unter "Bestimmung"
wird insbesondere verstanden, dass die HRTF ermittelt oder gemessen wird. Die HRTF
wird entweder von Grund auf neu bestimmt oder ausgehend von einer Basis-HRTF bestimmt,
welche nicht nutzerspezifisch ist und dann im Rahmen des Verfahrens angepasst und
vorzugsweise optimiert wird, um im Ergebnis eine nutzerspezifische HRTF zu erhalten.
Die HRTF ist beispielsweise eine parametrierte Funktion, mit einem oder mehreren Parametern,
welche im Rahmen der Bestimmung der HRTF ausgewählt und/oder angepasst werden.
[0013] Bei dem Verfahren gibt eine Audioquelle ein Quell-Audiosignal aus, nämlich sowohl
akustisch als ein Schallsignal als auch nicht-akustisch als ein Datensignal. Das Quell-Audiosignal
ist ein Audiosignal und als solches insbesondere ein elektrisches Signal. Das Quell-Audiosignal
wird auch als "ursprüngliches Audiosignal" bezeichnet. Zur akustischen Ausgabe des
Quell-Audiosignals weist die Audioquelle einen Lautsprecher auf, d.h. einen elektroakustischen
Wandler, mit welchem das Quell-Audiosignal in ein Schallsignal umgewandelt und ausgegeben
wird. Das gleiche Quell-Audiosignal wird auch auf einem weiteren, nicht-akustischen
Kanal ausgegeben, nämlich als Datensignal. Zur nicht-akustischen Ausgabe des Quell-Audiosignals
weist die Audioquelle einen Datenausgang auf, welcher das Quell-Audiosignal als Datensignal
ausgibt und hierzu gegebenenfalls in ein geeignetes Datenformat umwandelt. Vorzugsweise
ist der Datenausgang eine Antenne für eine Drahtlosfunkverbindung (z.B. Bluetooth
oder WiFi), sodass das Datensignal drahtlos ausgesendet wird. Eine drahtgebundene
Aussendung ist aber ebenso denkbar und geeignet, der Datenausgang ist dann ein entsprechender
Anschluss (z.B. eine Audiobuchse oder USB-Port). Wesentlich ist zunächst lediglich,
dass dasselbe Audiosignal (nämlich das Quell-Audiosignal) auf zwei unterschiedlichen
Kanälen ausgegeben wird, nämlich einmal akustisch als Schallsignal und einmal nicht-akustisch
(z.B. elektrisch, elektromagnetisch, optisch) als Datensignal.
[0014] Das Schallsignal wird von dem Hörgerät empfangen und von diesem wieder in ein Audiosignal
umgewandelt, nämlich in ein erstes Audiosignal. Dieses erste Audiosignal wird auch
als "akustisch übertragenes Audiosignal" bezeichnet, da es sich aus dem Quell-Audiosignal
durch Umwandlung in ein Schallsignal und Rückwandlung aus diesem Schallsignal ergibt.
Speziell bei einem Hörgerät zur Versorgung eines hörgeschädigten Nutzers ist das Empfangen
von Schallsignalen aus der Umgebung eine originäre Funktion des Hörgeräts.
[0015] Das Datensignal wird von dem Hörgerät oder von einem anderen Gerät empfangen, welches
aus dem Datensignal ein zweites Audiosignal erzeugt, insbesondere mittels eines Dateneingangs,
z.B. einer Antenne. Das andere Gerät - sofern vorhanden - ist insbesondere ein Zusatzgerät,
welches zum Datenaustausch mit dem Hörgerät verbunden ist, z.B. per Bluetooth oder
Wifi. Das andere Gerät ist beispielsweise ein Smartphone. Grundsätzlich ist es auch
möglich, dass die Audioquelle selbst das andere Gerät ist, nachfolgend wird jedoch
ohne Beschränkung der Allgemeinheit davon ausgegangen, dass dies nicht der Fall ist.
Das zweite Audiosignal wird auch als "nicht-akustisch übertragenes Audiosignal" bezeichnet,
da es sich aus dem Quell-Audiosignal ergibt oder zu diesem sogar identisch ist, ohne
akustisch übertragen worden zu sein. Abseits davon, dass das Schallsignal und das
Datensignal physikalisch gesehen auf zwei unterschiedliche Weisen übertragen werden,
werden das Schallsignal und das Datensignal vorzugsweise auch in unterschiedlichen
Frequenzbereichen übertragen. So wird das Schallsignal insbesondere im hörbaren Frequenzbereich
von 20 Hz bis 20 kHz übertragen, wird das Datensignal in einem Kommunikationsfrequenzbereich
z.B. zwischen 1 MHz und 10 GHz übertragen und jedenfalls bei einer Frequenz, welche
mehrere Größenordnungen größer ist.
[0016] Das erste und das zweite Audiosignal sind jeweils eine übertragene (und dadurch gegebenenfalls
auch modifizierte) Version des Quell-Audiosignals. Der Vollständigkeit halber wird
das Quell-Audiosignal auch als "drittes Audiosignal" bezeichnet.
[0017] Das erste Audiosignal und das zweite Audiosignal, d.h. die auf unterschiedlichen
Kanälen übertragenen Audiosignale, werden miteinander verglichen und basierend darauf,
d.h. basierend auf dem Vergleich, wird die HRTF bestimmt. Dem liegt die Überlegung
zugrunde, dass das zweite Audiosignal typischerweise weitgehend mit dem Quell-Audiosignal
übereinstimmt und zumindest nicht durch die HRTF beeinflusst worden ist. Im Gegensatz
dazu wurde das Schallsignal durch die HRTF modifiziert, sodass sich das erste Audiosignal
entsprechend vom Quell-Audiosignal unterscheidet. In erster Näherung gilt demnach
folgender Zusammenhang zwischen dem ersten, akustisch übertragenen Audiosignal A1
und dem zweiten, nicht-akustisch übertragenen Audiosignal A2: A2 = HRTF(A1). Wie der
Vergleich genau durchgeführt wird, ist an sich nebensächlich. Wichtiger ist, dass
mit dem Datensignal ein von der HRTF unbeeinflusstes Audiosignal verfügbar ist, welches
als Referenzsignal herangezogen wird, um die tatsächliche, nutzerspezifische HRTF
zu bestimmen.
[0018] In einer geeigneten Ausgestaltung wird zum Bestimmen der HRTF das erste Audiosignal
als ein Soll-Signal verwendet und das zweite Audiosignal als ein Ist-Signal. Auf diese
Weise wird die HRTF abhängig vom Unterschied zwischen dem Schallsignal und dem Datensignal
bestimmt (genauer abhängig vom Unterschied zwischen dem ersten und dem zweiten Audiosignal).
Wie die HRTF konkret berechnet wird ist zunächst nebensächlich und hängt insbesondere
davon ab, wie die HRTF parametrisiert ist, d.h. durch welche Parameter diese definiert
ist. Grundsätzlich ist es möglich, mit entsprechender Rechenleistung eine numerische
Optimierung durchzuführen. Hierbei werden einzelne Parameter (auch Koeffizienten)
so lange variiert, bis eine minimale Abweichung erreicht ist (d.h. ein Minimum oder
zumindest ein stabiles und gegebenenfalls nur lokales Minimum). Ein geeigneter Algorithmus
zur Optimierung ist beispielsweise LASSO (d.h. "least absolute shrinkage and selection
operator").
[0019] Die auf die vorgenannte Weise bestimmte HRTF wird insbesondere in dem Hörgerät gespeichert
und vorzugsweise von einer Signalverarbeitung des Hörgeräts im Betrieb verwendet,
um im Ergebnis das Schallsignal anzupassen, welches vom Hörgerät an den Nutzer ausgegeben
wird. Wofür die HRTF konkret verwendet wird, ist hier nicht weiter von Bedeutung.
Mögliche Verwendungen der HRTF sind beispielsweise die Erzeugung akustischer Hinweise,
die mit räumlicher Information versehen werden und zur Navigation eines gehenden Benutzers
geeignet sind, das Hinzufügen einer räumlichen Information zu einem Streamingsignal,
sodass sich dieses für den Nutzer so anhört, als ob es von einer Audioquelle, z.B.
einem Fernseher aus einer bestimmen Raumrichtung kommt. Eine weitere beispielhafte
Verwendung der HRTF sind virtuelle Bedienelemente, bei welchen beispielsweise eine
Position eines Bedienelements, z.B. eines Schiebereglers, akustisch mit einem räumlichen
Effekt dargestellt wird (z.B. Betonung der rechten oder linken Seite je nach Stellung
des Bedienelements). Speziell im Zusammenhang mit "in-ear" Kopfhörern ist die Verwendung
einer HRTF zur Modifizierung der Audioausgabe vorteilhaft.
[0020] In einer konkreten, geeigneten Ausgestaltung werden zur Bestimmung der HRTF aus dem
ersten und dem zweiten Audiosignal jeweils lediglich Ausschnitte, sogenannten Samples,
entnommen und als ein Datensatz gespeichert. Die beiden Ausschnitte (ein Ausschnitt
aus dem ersten Audiosignal und ein Ausschnitt aus dem zweiten Audiosignal) eines jeweiligen
Datensatzes stammen vorzugsweise aus demselben Zeitintervall oder weisen einen übereinstimmenden
Zeitstempel auf. Damit ist sichergestellt, dass durch einen Vergleich der beiden Abschnitte
tatsächlich auch korrekt die HRTF bestimmt wird. Typischerweise wird eine Vielzahl
an solchen Datensätzen aufgenommen und gespeichert und zur Bestimmung der HRTF ausgewertet.
Dies erfolgt entweder auf dem Hörgerät, auf einem Zusatzgerät wie beschrieben oder
auf einem separaten Computer, z.B. einem Server.
[0021] Eine HRTF ist wie bereits angedeutet vorzugsweise parametriert, d.h. eine Funktion
mit einer Anzahl an Parametern, welche je nach Nutzer variieren können. Bei der Bestimmung
der HRTF werden insbesondere diese Parameter optimiert und somit nutzerspezifisch
angepasst. Die Bestimmung der HRTF erfolgt vorzugsweise fortlaufend, sodass die verwendete
HRTF sich mit der Zeit immer weiter der tatsächlichen, individuellen HRTF annähert.
Das Verfahren ist insofern dann iterativ. Dadurch werden zudem vorteilhaft auch Veränderungen
in der Körperform des Nutzers berücksichtigt.
[0022] Ohne Beschränkung der Allgemeinheit wird vorliegend davon ausgegangen, dass das Hörgerät
ein Hörgerät zur Versorgung eines hörgeschädigten Nutzers ist. Ebenso ist die Erfindung
aber auch anwendbar auf andere Hörgeräte, wie z.B. einen Kopfhörer, welcher zusätzlich
ein oder mehrere Mikrofone aufweist. Ein Hörgerät zur Versorgung eines hörgeschädigten
Nutzers weist allgemein einen Eingangswandler, eine Signalverarbeitung und einen Ausgangswandler
auf. Der Eingangswandler ist hier ein Mikrofon und dient zur Aufnahme von Schallsignalen
aus der Umgebung, d.h. hier auch zum Empfangen des Schallsignals, welches von der
Audioquelle ausgesendet wird. Der Ausgangswandler ist üblicherweise ein Hörer, welcher
auch als Lautsprecher oder Receiver bezeichnet wird. Vorliegend wird ohne Beschränkung
der Allgemeinheit von einem Hörgerät mit einem Hörer ausgegangen, ebenfalls geeignet
sind aber auch andere Ausgangswandler zur Ausgabe an den Nutzer. Das Hörgerät ist
regelmäßig einem einzelnen Nutzer zugeordnet und wird lediglich von diesem verwendet.
Der Eingangswandler erzeugt allgemein ein Eingangssignal, welches der Signalverarbeitung
zugeführt wird. Vorliegend erzeugt der Eingangswandler speziell auch das erste Audiosignal,
welches entsprechend ein Eingangssignal ist. Die Signalverarbeitung modifiziert das
Eingangssignal und erzeugt dadurch ein Ausgangssignal, welches somit ein modifiziertes
Eingangssignal ist. Zum Ausgleich eines Hörverlusts wird das Eingangssignal beispielsweise
gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor
verstärkt. Alternativ oder zusätzlich wird das Eingangssignal abhängig von der HRTF
modifiziert. Das Ausgangssignal wird schließlich mittels des Ausgangswandlers an den
Nutzer ausgegeben.
[0023] Die zuvor beschriebene Aufnahme und Wiederausgabe eines Schallsignals mit Modifikation
auf elektrischer Ebene ist der Regelfall im Betrieb des Hörgeräts, dies wird auch
als "Normalbetrieb" des Hörgeräts bezeichnet. Zusätzlich zum Normalbetrieb weist das
hier beschriebene Hörgerät vorzugsweise noch einen Streamingbetrieb auf, in welchem
die Ausgabe an den Nutzer auf dem Datensignal basiert, welches von der Audioquelle
ausgesendet wird. Der Streamingbetrieb hat den Vorteil, dass auf eine Umwandlung in
und Rückwandlung aus einem Schallsignal verzichtet werden kann und vorzugsweise auch
wird und ein Audiosignal von der Audioquelle verlustfrei und unbeeinflusst zum Nutzer
übertragen wird. Der Streamingbetrieb wird beispielsweise verwendet, um ein Audiosignal
von einem TV-Gerät, Computer oder Smartphone und allgemein von einer Audioquelle zum
Hörgerät zu übertragen. Das Hörgerät weist entsprechend einen Dateneingang auf, welcher
komplementär zum Datenausgang der Audioquelle ausgebildet ist, vorzugsweise ebenfalls
als eine Antenne. Die Ausführungen zum Datenausgang gelten analog auch für den Dateneingang
und umgekehrt. Geeigneterweise ist das Hörgerät derart ausgebildet, dass der Nutzer
zwischen dem Normalbetrieb und dem Streamingbetrieb umschalten kann.
[0024] Bei einem Kopfhörer oder Ähnlichem entfällt der oben beschriebene Normalbetrieb gegebenenfalls
und der Streamingbetrieb ist der Regelfall.
[0025] Vorliegend werden nun vorteilhafterweise die Funktionalitäten des Normalbetriebs
und des Streamingbetriebs vereint, um die HRTF zu bestimmen. Das Hörgerät empfängt
einerseits mittels des Mikrofons das Schallsignal von der Audioquelle und nutzt somit
die Funktionalität des Normalbetriebs. Andererseits empfängt das Hörgerät das Datensignal
von der Audioquelle und nutzt somit die Funktionalität des Streamingbetriebs. Welches
der beiden Audiosignale (erstes und zweites Audiosignal) dann tatsächlich auch wieder
über den Hörer an den Nutzer ausgegeben wird, ist nicht von Bedeutung und bleibt zweckmäßigerweise
dem Nutzer überlassen. Relevant für das hier beschriebene Verfahren ist zunächst nur,
dass beide Audiosignale vorliegen, um basierend darauf die HRTF zu bestimmen.
[0026] Zudem ist es für das hier beschriebene Verfahren nicht zwingend erforderlich, dass
das Hörgerät einen Streamingbetrieb aufweist oder generell das Datensignal empfängt,
dieses kann auch von einem anderen Gerät empfangen werden. Das erste und das zweite
Audiosignal müssen lediglich auf irgendeinem Gerät zusammengeführt werden, um dort
verglichen zu werden und darauf basierend die HRTF zu bestimmen. Grundsätzlich ist
das Hörgerät hierfür geeignet, ebenso geeignet ist aber auch ein Computer, speziell
ein Server, welcher sich gegenüber dem Hörgerät regelmäßig durch eine deutlich höhere
Rechenleistung auszeichnet. Denkbar ist auch, dass das Hörgerät zwar das Datensignal
empfängt, dass aber die Bestimmung der HRTF nicht vom Hörgerät durchgeführt wird,
sondern z.B. vom Smartphone oder Server, an welches beziehungsweise welchen das Hörgerät
die Audiosignale oder die entsprechenden Datensätze überträgt.
[0027] Wichtig für die korrekte Bestimmung der HRTF ist jedoch, dass das Hörgerät das Schallsignal
empfängt, denn das Hörgerät wird vom Nutzer getragen, während jedes andere Gerät regelmäßig
abseits des Nutzers positioniert ist und daher nicht geeignet ist, ein Schallsignal
zu empfangen, welches entlang des akustischen Pfads zum Ohr des Nutzers propagiert.
In einer bevorzugten Ausgestaltung empfängt entsprechend das Hörgerät das Schallsignal
mit einem Mikrofon, welches ein Teil des Hörgeräts ist. Gegebenenfalls weist das Hörgerät
sogar mehrere Mikrofone auf, mit welchen das Schallsignal empfangen und das erste
Audiosignal erzeugt wird. Das Hörgerät ist zweckmäßigerweise derart ausgebildet, dass
in getragenem Zustand das Mikrofon in oder an einem Ohr des Nutzers positioniert ist.
Insbesondere ist das Mikrofon somit hinter dem Ohr, im Ohr oder im Gehörgang des Nutzers
positioniert. Die genaue Position des Mikrofons hängt vom Typ des Hörgeräts ab. Bei
einem BTE-Gerät ist das Mikrofon hinter dem Ohr positioniert, bei einem RIC-Gerät
im Gehörgang und bei einem ITE-Gerät im Ohr, noch vor dem Gehörgang. Gegebenenfalls
wird demnach nicht der gesamte akustische Pfad bis in den Gehörgang hinein berücksichtigt
und die HRTF entsprechend nur für einen Teil des akustischen Pfads bestimmt, d.h.
lediglich für einen einzelnen oder mehrere, jedoch nicht alle Abschnitte des akustischen
Pfads.
[0028] Das Hörgerät ist entweder monaural und wird dann nur auf einer Seite (links oder
rechts) des Kopfs getragen oder binaural und weist dann zwei Einzelgeräte auf, welche
auf unterschiedlichen Seiten des Kopfs getragen werden (d.h. links und rechts). Bei
einem binauralen Hörgerät weisen beide Einzelgeräte jeweils ein oder mehrere Mikrofone
auf, zum Empfangen von Schallsignalen.
[0029] Vorzugsweise wird bei der Bestimmung der HRTF auch eine räumliche Situation bezüglich
des Nutzers. Diese räumliche Situation ist vorzugsweise ausgewählt aus einer Menge
an räumlichen Situationen, umfassend und insbesondere lediglich bestehend aus: eine
Position des Nutzers relativ zur Audioquelle, eine Entfernung des Nutzers relativ
zur Audioquelle, eine Orientierung des Nutzers relativ zur Audioquelle, eine Orientierung
des Kopfes des Nutzers relativ zu dessen Torso, eine Körperhaltung des Nutzers. Dabei
ist die Orientierung des Kopfes des Nutzers relativ zu dessen Torso eine spezielle
Körperhaltung, weitere Körperhaltungen sind z.B. Sitzen, Liegen, Stehen. Die Orientierung
des Kopfes relativ zu Torso ist vorzugsweise eine Kopfdrehung um die longitudinale
Körperachse des Nutzers, eine Kopfneigung um die Transversalachse des Nutzers (d.h.
ein Nicken nach vorn/hinten) oder eine Lateralflexion (d.h. Kopfneigung zu einer Seite).
[0030] In einer geeigneten Ausgestaltung wird dann eine entsprechende räumliche Situation
ermittelt und bei der Bestimmung der HRTF berücksichtigt. Dem liegt die Überlegung
zugrunde, dass der akustische Pfad regelmäßig davon abhängt, wie der Körper des Nutzers
relativ zur Audioquelle ausgerichtet ist und/oder welche Körperhaltung der Nutzer
einnimmt, d.h. ob das Schallsignal den Nutzer z.B. von vorn, von hinten oder von der
Seite erreicht und wie dessen eigener Körper, speziell Torso, das Schallsignal abschattet.
Entsprechend ist die Modifikation des Schallsignals bei dessen Propagation zum Ohr
des Nutzers abhängig von der relativen räumlichen Beziehung zwischen Nutzer und Audioquelle
sowie der Körperhaltung des Nutzers, sodass auch die HRTF allgemein situationsabhängig
und speziell richtungsabhängig und körperhaltungsabhängig ist. Für eine möglichst
optimale Bestimmung der HRTF ist es entsprechend vorteilhaft, nicht nur allgemein
möglichst viele Datensätze aufzunehmen, sondern auch, Datensätze zu möglichst vielen
räumlichen Situationen aufzunehmen, d.h. in möglichst vielen unterschiedlichen, relativen
räumlichen Beziehungen des Nutzers zur Audioquelle und/oder für möglichst viele Körperhaltungen
des Nutzers. Dadurch wird dann die HRTF entsprechend vorteilhaft situationsabhängig
und speziell richtungsabhängig und/oder körperhaltungsabhängig bestimmt.
[0031] Wie genau die räumliche Situation bestimmt wird, ist vorliegend von untergeordneter
Bedeutung und daher hier nicht weiter Gegenstand, grundsätzlich ist jegliches hierzu
bekannte Verfahren geeignet. In einer geeigneten Ausgestaltung ist das Hörgerät ein
binaurales Hörgerät und empfängt entsprechend das Schallsignal der Audioquelle auf
beiden Seiten. Die Orientierung des Nutzers relativ zur Audioquelle wird dann beispielsweise
anhand eines Zeitversatzes oder Amplitudenunterschieds des auf den beiden Seiten empfangenen
Schallsignals ermittelt. Denkbar und geeignet ist auch eine Verfolgung (d.h. "tracking")
des Nutzers z.B. mittels einer Kamera der Audioquelle oder eines Beacon in einem vom
Nutzer getragenen Zusatzgerät. Geeignet ist auch eine Ausgestaltung, bei welcher jeweils
ein absoluter Standort der Audioquelle und des Hörgeräts bestimmt werden und die relative
räumliche Beziehung dann durch Differenzbildung der Standorte bestimmt wird. Die Orientierung
des Kopfes wird beispielsweise mittels einer Videobeobachtung des Nutzers ermittelt,
mittels eines Gyroskops oder Magnetometers insbesondere des Hörgeräts oder es wird
angenommen, dass die Orientierung "geradeausblickend" angenommen, wenn längere Zeit
(z.B. wenigstens 1 min) keine Änderung der Orientierung erfolgt ist.
[0032] Geeigneterweise werden zur Bestimmung der HRTF ein jeweiliger Ausschnitt aus dem
ersten und dem zweiten Audiosignal und eine räumliche Situation bezüglich des Nutzers
gemeinsam als ein Datensatz gespeichert. Ein jeweiliger Datensatz enthält dann nicht
lediglich je ein Sample der beiden Audiosignale, sondern zusätzlich auch eine Information
über die relative räumliche Beziehung des Nutzers zur Audioquelle und/oder die Körperhaltung
des Nutzers zum Zeitpunkt dieser Samples.
[0033] Eine Erzeugung von Datensätzen ist auf verschiedenste Weisen möglich, insbesondere
mit unterschiedlichem Grad an Beteiligung des Nutzers und mit oder ohne eine spezielle
Ansteuerung der Audioquelle.
[0034] Zunächst ist eine Ausgestaltung geeignet, bei welcher fortlaufend Datensätze erzeugt
werden, ohne dass der Nutzer überhaupt aktiv werden muss oder die Audioquelle speziell
gesteuert werden muss. Das Verfahren wird somit bei bestimmungsgemäßer Verwendung
sozusagen im Hintergrund ausgeführt und stört den Nutzer somit nicht.
[0035] In einer geeigneten Ausgestaltung wird die Audioquelle derart gesteuert, dass diese
bei Vorliegen einer räumlichen Situation bezüglich des Nutzers, für welche noch keine
Mindestanzahl an Datensätzen vorhanden ist, ein Quell-Audiosignal ausgibt, um für
diese räumliche Situation einen Datensatz zu erzeugen. In dieser Ausgestaltung wird
die Audioquelle demnach speziell gesteuert, um gezielt für solche räumlichen Situationen
einen Datensatz zu erzeugen, für welche noch nicht ausreichend viele Datensätze für
eine hinreichend gute Bestimmung der HRTF vorhanden sind. Wie viele Datensätze tatsächlich
für eine jeweilige räumliche Situation benötigt werden, wie groß also die Mindestanzahl
ist, ist zunächst nicht von Bedeutung. Beispielsweise beträgt die Mindestanzahl lediglich
1 oder alternativ 10, 100 oder 1000. Auch in dieser Ausgestaltung ist eine Beteiligung
des Nutzers nicht erforderlich, es erfolgt jedoch eine spezielle Ansteuerung der Audioquelle,
um gezielt möglichst sinnvolle Datensätze zu erzeugen. Das Hörgerät oder ein anderes
Gerät überprüft beispielsweise, welche Position, Entfernung, Orientierung und/oder
Körperhaltung aktuell vorliegt und ob die Anzahl an bereits vorhandenen Datensätzen
wenigstens der Mindestanzahl entspricht. Ist dies nicht der Fall wird die Audioquelle
entsprechend angesteuert, um in dieser Situation das Quell-Audiosignal sowohl als
Schallsignal als auch als Datensignal auszugeben, sodass dann ein Datensatz für die
aktuelle Position, Entfernung, Orientierung und/oder Körperhaltung erzeugt wird.
[0036] In einer geeigneten Ausgestaltung wird eine Anweisung an den Nutzer ausgegeben, eine
oder mehrere räumliche Situationen herzustellen, in welchen dann die Audioquelle jeweils
ein Quell-Audiosignal ausgibt, um für diese räumlichen Situationen jeweils einen Datensatz
zu erzeugen. Die Anweisung wird beispielsweise von dem Hörgerät, der Audioquelle oder
einem anderen Gerät ausgegeben. Die Anweisung ist beispielsweise akustisch oder optisch.
Ob der Nutzer der Anweisung tatsächlich folgt, bleibt ihm oder ihr selbst überlassen.
Jedenfalls besteht aber die Wahrscheinlichkeit, dass der Nutzer auf die Anweisung
hin die geforderte räumliche Situation herstellt, sodass für diese dann gezielt ein
Datensatz erzeugt werden kann und auch wird. Das Verfahren nutzt dann eine Beteiligung
des Nutzers, eine spezielle Ansteuerung der Audioquelle ist jedoch nicht zwingend
erforderlich.
[0037] Vorteilhaft ist auch eine Ausgestaltung, bei welcher das Hörgerät einen Testmodus
aufweist und in diesem an den Nutzer ein Ausgangssignal ausgibt, welches eine räumliche
Geräuschinformation (d.h. "spatial cue", z.B. ein räumlich lokalisiertes Geräusch)
aufweist, um den Nutzer dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen
oder zu orientieren (insgesamt oder nur mit dem Kopf), nämlich insbesondere dorthin,
wo das Geräusch vermeintlich herkommt. Weiter wird dann bestimmt, in welche tatsächliche
Richtung sich der Nutzer bewegt oder orientiert und diese wird mit der vorgesehenen
Richtung verglichen, um einen Anpassungsgrad der HRTF an den Nutzer zu ermitteln.
Der Anpassungsgrad gibt insbesondere an, wie gut die aktuell bestimmte HRTF mit der
tatsächlichen HRTF übereinstimmt. Dies wird im Testmodus dadurch überprüft, dass mittels
der aktuell bestimmten HRTF das Ausgangssignal erzeugt wird. Weicht die aktuell bestimmte
HRTF von der tatsächlichen HRTF ab, so wird der Nutzer das Geräusch fälschlicherweise
in einer anderen Richtung verorten als wenn tatsächlich ein Geräusch aus der vorgesehenen
Richtung käme und durch die tatsächliche HRTF modifiziert würde. Der Testmodus ermöglicht
somit eine Überprüfung der bisher bestimmten HRTF und auch eine Ermittlung, wie gut
diese mit der tatsächlichen HRTF für den Nutzer übereinstimmt. In einer beispielhaften
Ausgestaltung wird der Nutzer dazu veranlasst, bei neutraler Pupillenstellung in eine
bestimmte Richtung zu blicken. Die hierdurch dann gewonnen Datensätze werden zweckmäßigerweise
zum Test des Anpassungsgrads genutzt. Dieses Vorgehen ist weniger fordernd für den
Nutzer, als diesen sich durch den Raum bewegen zu lassen. Zusätzlich werden hiermit
zweckmäßigerweise noch Datensätze zu fehlenden räumlichen Situationen hinsichtlich
der Orientierung des Kopfes relativ zum Torso aufgenommen.
[0038] Die HRTF ist grundsätzlich selbst zerlegbar in mehrere einzelne Übertragungsfunktionen,
welche einzelne Abschnitte des akustischen Pfads modellieren und welche dann zusammengefügt
die HRTF für den gesamten akustischen Pfad ergeben. Unter Umständen ist es nicht erforderlich
oder sogar unmöglich, die HRTF für den gesamten akustischen Pfad auf die beschriebene
Weise zu bestimmen, sondern nur für einen oder mehrere einzelne Abschnitte, speziell
diejenigen Abschnitte, welche dem Nutzer am nächsten sind. Die übrigen Abschnitte
werden dann insbesondere mittels einer jeweiligen Standardfunktion modelliert.
[0039] In einer zweckmäßigen Ausgestaltung erfolgt die Bestimmung der HRTF ausgehend von
einer Basis-HRTF, welche eine Übertragungsfunktion für lediglich einen ersten Abschnitt
eines akustischen Pfads von der Audioquelle zum Gehörgang des Nutzers ist, sodass
die HRTF überwiegend für einen anderen, zweiten Abschnitt des akustischen Pfads bestimmt
wird. Dem liegt die Überlegung zugrunde, dass die HRTF regelmäßig am Stärksten durch
das Ohr des Nutzers und speziell dessen Pinna definiert ist und demgegenüber weniger
durch den Torso des Nutzers oder dessen allgemeine Kopfform. Daher enthält der zweite
Abschnitt insbesondere denjenigen Teil des akustischen Pfads, welcher die Pinna enthält.
Die Basis-HRTF ist dann beispielsweise eine HRTF eines Dummys und berücksichtigt vornehmlich
die Körperform und allgemeine Kopfform des Nutzers. Diese Basis-HRTF wird dann durch
das vorliegende Verfahren dahingehend optimiert, dass die spezielle Form der Pinna
des Nutzers berücksichtigt wird, sodass insgesamt die HRTF nutzerspezifisch bestimmt
wird. Hierfür ist das Hörgerät zweckmäßigerweise derart ausgebildet, dass dessen Mikrofon
in getragenem Zustand im Gehörgang oder im Ohr des Nutzers positioniert ist und nicht
lediglich hinter dem Ohr.
[0040] Wie bereits angedeutet, wird die HRTF nicht zwingend von dem Hörgerät bestimmt. Bevorzugterweise
wird die HRTF von einem Computer bestimmt, insbesondere einem Server, welcher separat
von dem Hörgerät und der Audioquelle ausgebildet ist. Nachfolgend wird ohne Beschränkung
der Allgemeinheit von einem Server als Computer ausgegangen. Wie genau die Datensätze
hierfür an den Server gelangen ist nicht weiter relevant und hängt auch von der gewählten
Ausgestaltung des Verfahrens, dem Hörgerät, der Audioquelle und anderen gegebenenfalls
beteiligten Geräten ab. Beispielsweise sendet das Hörgerät das erste, akustisch übertragene
Audiosignal oder Ausschnitte hiervon an den Server, ebenso wird das zweite, akustisch
übertragene Audiosignal oder Ausschnitte hiervon von dem Hörgerät oder von einem anderen
Gerät, z.B. einem Smartphone oder der Audioquelle, an den Server gesendet. Der Server
sendet dann wiederum zweckmäßigerweise die HRTF an das Hörgerät.
[0041] Bevorzugterweise ist die Audioquelle ein stationäres Gerät. Unter "stationär" wird
insbesondere unbewegt verstanden, aber nicht zwingend generell unbeweglich. Mit anderen
Worten: die Audioquelle verharrt typischerweise an derselben Stelle in einer Umgebung,
z.B. einem Raum, während der Nutzer sich relativ zur Audioquelle bewegt und sich allgemein
die räumliche Situation bezüglich des Nutzers ändert. Ein stationäres Gerät hat insbesondere
den Vorteil, dass jegliche Bewegung des Nutzers automatisch eine Änderung der räumlichen
Situation erzeugt, sodass entsprechend Datensätze zu verschiedenen räumlichen Situationen
auf einfache Weise erzeugbar sind.
[0042] Besonders bevorzugt ist eine Ausgestaltung, bei welcher die Audioquelle ein TV-Gerät
ist, auch als Fernseher bezeichnet. Ein TV-Gerät ist insbesondere ein stationäres
Gerät. Die Verwendung eines TV-Geräts als Audioquelle in einem Verfahren wie hier
beschrieben hat verschiedene Vorteile. Zum einen weist ein TV-Gerät typischerweise
einen oder mehrere Lautsprecher auf, welche eine hohe Ausgabequalität aufweisen und
dadurch ein besonders breites Frequenzspektrum abdecken und das Quell-Audiosignal
auch besonders originalgetreu ausgeben. Dies gilt besonders im Vergleich zu einem
Smartphone. Außerdem hält sich der Nutzer relativ zum TV-Gerät typischerweise in einer
Entfernung von wenigen Metern auf, welche ähnlich ist zur Entfernung bei der Bestimmung
einer HRTF in einem echofreien Raum wie eingangs beschrieben und welche optimal ist
zur Bestimmung der HRTF. Außerdem ist das TV-Gerät in der Umgebung typischerweise
immer an derselben Position platziert, sodass zusätzliche raumakustische Effekte bei
der Bestimmung der HRTF besser berücksichtigt werden können, insbesondere entlang
eines Abschnitts des akustischen Pfads, welcher nicht durch die HRTF abgebildet wird.
Schließlich ist auch zu erwarten, dass Schallsignale von einem TV-Gerät keine sensiblen,
persönlichen Daten enthalten, anders als z.B. bei Schallsignalen von einem Smartphone.
[0043] Vorzugsweise wird das hier beschriebene Verfahren durchgeführt, während der Nutzer
fernsieht, insbesondere mit der Audioquelle, d.h. während die Audioquelle, welche
ein TV-Gerät ist, eingeschaltet ist und sich der Nutzer in dessen näherer Umgebung
aufhält (z.B. innerhalb von weniger als 5 m entfernt von der Audioquelle). Dabei ist
nicht zwingend erforderlich, dass der Nutzer dem von dem TV-Gerät ausgesendeten Inhalten
folgt oder spezielle Beachtung schenkt. Die Durchführung des Verfahrens, während der
Nutzer fernsieht, hat diverse Vorteile.
[0044] Einerseits ist zu erwarten, dass der Nutzer über einen längeren Zeitraum von z.B.
1 bis 2 Stunden fernsieht, sodass entsprechend besonders viele Datensätze aufgenommen
werden. Auch ist zu erwarten, dass der Nutzer wiederholt fernsieht, sodass wiederkehrend
entsprechend viele Datensätze aufgenommen werden. Weiter finden während des Fernsehens
typischerweise keine persönlichen Gespräche des Nutzers mit anderen Personen statt,
sodass sichergestellt ist, dass keine sensiblen, persönlichen Daten aufgezeichnet
werden. Falls doch, werden diese zweckmäßigerweise verworfen. Ein persönliches Gespräch
wird vom Hörgerät beispielsweise dadurch erkannt, dass das zugehörige Schallsignal
aus einer anderen Richtung eintrifft, als das Schallsignal von der Audioquelle. Auch
andere Störgeräusch sind während des Fernsehens typischerweise nicht vorhanden, da
andere Geräuschquellen vom Nutzer regelmäßig ausgeschaltet werden, sodass insgesamt
Datensätze mit sehr guter Qualität erzeugt werden.
[0045] Die Verwendung eines TV-Geräts ist außerdem vorteilhaft, da dieses zwar regelmäßig
mehrere Lautsprecher aufweist, dabei jedoch auch derart betreibbar ist, dass lediglich
ein einzelner Lautsprecher zur Ausgabe von Schallsignalen verwendet wird. Dadurch
wird die Bestimmung der HRTF deutlich genauer, da nun lediglich eine einzelne Schallquelle
vorhanden ist und der akustische Pfad somit sehr genau definiert ist. Dies gilt auch
allgemein für alle Audioquellen mit mehreren Lautsprechern. In einer vorteilhaften
Ausgestaltung wird daher die Audioquelle derart gesteuert, dass diese das Audiosignal
als Schallsignal über lediglich einen einzelnen Lautsprecher ausgibt. Die Ausgabe
über lediglich einen Lautsprecher ist für den Nutzer zumindest insofern nicht einschränkend,
als dass dieser das Quell-Audiosignal vorteilhaft gegebenenfalls auch mittels des
Streamingbetriebs als Datensignal empfängt und entsprechend nicht auf die Schallausgabe
der Audioquelle angewiesen ist. Vorzugsweise wird das Hörgerät während des Verfahrens
demnach im Streamingbetrieb betrieben. Sofern die zusätzliche Schallausgabe als störend
empfunden wird, wird das Schallsignal beispielsweise durch das Hörgerät mittels einer
ANC-Einheit herausgefiltert (ANC bedeutet "active noise cancelling", d.h. aktive Geräuschunterdrückung).
[0046] In einer zweckmäßigen Ausgestaltung wird ein Akustikparameter der Umgebung bestimmt,
um insbesondere einen oder mehrere raumakustische Effekte zu quantifizieren, und bei
der Bestimmung der HRTF berücksichtigt. Raumakustische Effekte sind beispielsweise
Reflektionen des Schallsignals an Wänden oder Gegenständen in der Umgebung oder ein
Nachhallen, speziell in einem Raum. Entsprechend sind Akustikparameter der Umgebung
eine Zeit oder eine Amplitude, welche eine Impulsantwort der Umgebung, eine frühe
Reflektion (sogenannte "early reflection") der Umgebung oder einen Nachhall ("reverberation")
der Umgebung quantifizieren. Der Akustikparameter wird beispielsweise mit dem Hörgerät
bestimmt oder mit einem anderen Gerät. Zweckmäßig ist es auch, zur Bestimmung des
Akustikparameters in der Umgebung ein zusätzliches Mikrofon im zu Raum platzieren.
[0047] Ein erfindungsgemäßes Hörgerät weist eine Steuereinheit auf, welche ausgebildet ist
zur Durchführung eines Verfahrens wie vorstehend beschrieben, gegebenenfalls in Kombination
mit einer Audioquelle und/oder einem anderen Gerät wie beschrieben.
[0048] Die Aufgabe wird weiterhin insbesondere gelöst durch einen Computer und/oder ein
anderes Gerät, z.B. Smartphone wie oben beschrieben.
[0049] Nachfolgend werden Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher
erläutert. Darin zeigen jeweils schematisch:
Fig. 1 eine Umgebung mit einer Audioquelle und einem Nutzer mit Hörgerät,
Fig. 2 ein akustischer Pfad,
Fig. 3 ein Hörgerät,
Fig. 4 die Bestimmung einer HRTF aus mehrere Datensätzen,
Fig. 5 eine Audioquelle, ein Hörgerät und ein Computer.
[0050] In Fig. 1 ist ein Kerngedanke der vorliegenden Erfindung illustriert, nämlich zur
Bestimmung einer HRTF 2 für einen bestimmten Nutzer 4 eine Audioquelle 6 zu verwenden,
welche ein Quell-Audiosignal 8 sowohl akustisch als auch nicht-akustisch ausgeben
kann. Die Audioquelle 6 ist hier ein Mediengerät und speziell ein TV-Gerät. Die Audioquelle
6 wird wiederkehrend vom Nutzer 4 in dessen Alltag genutzt. Das akustisch ausgegebene
Audiosignal propagiert entlang eines akustischen Pfads 10 zum Nutzer und speziell
bis zu einem Mikrofon 12 eines Hörgeräts 14 des Nutzers 4 und wird entlang des akustischen
Pfads 10 durch die Körperform des Nutzers 4 modifiziert.
[0051] Ein beispielhafter akustischer Pfad 10 ist in Fig. 2 gezeigt und enthält mehrere
Abschnitte 16, 18, 20. Ein erster Abschnitt 16 ist definiert durch eine erste Modifikation,
welche unabhängig vom Nutzer 4 durch die Umgebung erfolgt, und ist hier nicht weiter
von Bedeutung. Ein zweiter Abschnitt 18 ist definiert durch eine zweite Modifikation,
welche durch die Körperform (hauptsächlich Torsoform) und Kopfform des Nutzers 4 erfolgt.
Der zweite Abschnitt 28 bildet den akustischen Pfad 10 über/entlang/durch den Körper
des Nutzers 4 bis zum Ohr oder bis hinter das Ohr des Nutzers 4. Ein Eine dritte Modifikation
20 erfolgt durch das Ohr, speziell die Pinna des Nutzers 4 und definiert somit einen
dritten und hier auch letzten Abschnitt 20 des akustischen Pfads 10 von außerhalb
des Ohrs bis in den Gehörgang des Nutzers 4. Die Abschnitte 18, 20 sind definiert
durch eine Übertragungsfunktion, welche der tatsächlichen, individuellen HRTF des
Nutzers 4 entspricht. Das nicht-akustisch ausgegebene Audiosignal wird hingegen gerade
nicht durch diese HRTF 2 modifiziert, sodass sich durch einen Vergleich der beiden
unterschiedlich übertragenen Audiosignale die HRTF 2 individuell für den Nutzer bestimmen
lässt.
[0052] Das hier beschriebene Verfahren dient allgemein zur Bestimmung einer HRTF 2 (d.h.
"head-related transfer function" oder kopfbezogene Übertragungsfunktion). Die Bestimmung
der HRTF 2 erfolgt nutzerspezifisch für einen bestimmten Nutzer 4. Die Audioquelle
6 das Quell-Audiosignal 8 aus, nämlich sowohl akustisch als ein Schallsignal 22 als
auch nicht-akustisch als ein Datensignal 24. Das Quell-Audiosignal 8 ist ein Audiosignal
und als solches ein elektrisches Signal. Zur akustischen Ausgabe des Quell-Audiosignals
8 weist die Audioquelle 6 einen Lautsprecher 26 auf. Das gleiche Quell-Audiosignal
8 wird auch auf einem weiteren, nicht-akustischen Kanal ausgegeben, nämlich als Datensignal
24. Zur nicht-akustischen Ausgabe des Quell-Audiosignals 8 weist die Audioquelle 6
einen Datenausgang 28 auf, im gezeigten Ausführungsbeispiel eine Antenne für eine
Drahtlosfunkverbindung. Eine drahtgebundene Aussendung ist aber ebenso möglich, der
Datenausgang 28 ist dann ein entsprechender Anschluss. Wesentlich ist zunächst lediglich,
dass dasselbe Quell-Audiosignal 8 auf zwei unterschiedlichen Kanälen ausgegeben wird,
nämlich einmal akustisch als Schallsignal 22 und einmal nicht-akustisch als Datensignal
24.
[0053] Das Schallsignal 22 wird von dem Hörgerät 14 empfangen und von diesem wieder in ein
Audiosignal umgewandelt, nämlich in ein erstes Audiosignal 30, welches auch als "akustisch
übertragenes Audiosignal" bezeichnet wird. Speziell bei einem Hörgerät 14 zur Versorgung
eines hörgeschädigten Nutzers 4 ist das Empfangen von Schallsignalen 22 aus der Umgebung
eine originäre Funktion des Hörgeräts 16. Das Datensignal 24 wird von dem Hörgerät
14 oder von einem anderen Gerät 32 empfangen, welches aus dem Datensignal 24 ein zweites
Audiosignal 34 erzeugt. Hierzu weist das Hörgerät 14 oder das andere Gerät 32 entsprechend
einen Dateneingang 44 auf, z.B. eine Antenne. Das andere Gerät 32 ist im gezeigten
Ausführungsbeispiel ein Zusatzgerät, welches zum Datenaustausch mit dem Hörgerät 14
verbunden ist, beispielsweise ein Smartphone. Das zweite Audiosignal 34 wird auch
als "nicht-akustisch übertragenes Audiosignal" bezeichnet.
[0054] Das erste Audiosignal 30 und das zweite Audiosignal 34, d.h. die auf unterschiedlichen
Kanälen übertragenen Audiosignale, werden miteinander verglichen und basierend darauf,
d.h. basierend auf dem Vergleich, wird die HRTF 2 bestimmt. Das zweite Audiosignal
34 stimmt typischerweise weitgehend mit dem Quell-Audiosignal 8 überein und ist zumindest
nicht durch die HRTF 2 beeinflusst worden. Im Gegensatz dazu wurde das Schallsignal
22 durch die HRTF 2 modifiziert, sodass sich das erste Audiosignal 30 entsprechend
vom Quell-Audiosignal 8 unterscheidet. Zum Bestimmen der HRTF 2 wird dann z.B. das
erste Audiosignal 30 als ein Soll-Signal verwendet und das zweite Audiosignal 34 als
ein Ist-Signal.
[0055] Die auf die vorgenannte Weise bestimmte HRTF 2 wird vorliegend in dem Hörgerät 14
gespeichert und von einer Signalverarbeitung 36 des Hörgeräts 16 im Betrieb verwendet,
um im Ergebnis das Schallsignal anzupassen, welches vom Hörgerät 14 an den Nutzer
4 ausgegeben wird. Ein beispielhaftes Hörgerät 14 ist in Fig. 3 gezeigt. Das hier
gezeigte Hörgerät 14 ist ohne Beschränkung der Allgemeinheit ein Hörgerät 14 zur Versorgung
eines hörgeschädigten Nutzers 4. Ebenso ist die Erfindung aber auch anwendbar auf
andere Hörgeräte 16, wie z.B. einen Kopfhörer, welcher zusätzlich ein oder mehrere
Mikrofone aufweist. Das hier gezeigte Hörgerät 14 weist einen Eingangswandler (nämlich
das Mikrofon 12), die bereits genannte Signalverarbeitung 36 und einen Ausgangswandler
38 auf, hier ein Hörer. Der Eingangswandler erzeugt ein Eingangssignal, welches der
Signalverarbeitung 36 zugeführt wird. Vorliegend erzeugt der Eingangswandler speziell
auch das erste Audiosignal 30, welches entsprechend ein Eingangssignal ist. Die Signalverarbeitung
36 modifiziert das Eingangssignal und erzeugt dadurch ein Ausgangssignal, welches
somit ein modifiziertes Eingangssignal ist. Zum Ausgleich eines Hörverlusts wird das
Eingangssignal beispielsweise gemäß einem Audiogramm des Nutzers 4 mit einem frequenzabhängigen
Verstärkungsfaktor verstärkt. Alternativ oder zusätzlich wird das Eingangssignal abhängig
von der HRTF 2 modifiziert. Das Ausgangssignal wird schließlich mittels des Ausgangswandlers
38 an den Nutzer 4 ausgegeben.
[0056] In der hier gezeigten Ausgestaltung werden zur Bestimmung der HRTF 2 aus dem ersten
und dem zweiten Audiosignal 30, 34 jeweils lediglich Ausschnitte 40, sogenannten Samples,
entnommen und als ein Datensatz 42 gespeichert. Dies ist in Fig. 4 illustriert. Die
beiden Ausschnitte 40 (ein Ausschnitt 40 aus dem ersten Audiosignal 30 und ein Ausschnitt
40 aus dem zweiten Audiosignal 34) eines jeweiligen Datensatzes 42 stammen hier auch
aus demselben Zeitintervall oder weisen einen übereinstimmenden Zeitstempel auf. Typischerweise
wird eine Vielzahl an Datensätzen 42 aufgenommen und gespeichert und zur Bestimmung
der HRTF 2 ausgewertet. Dies erfolgt entweder auf dem Hörgerät 14, auf einem Zusatzgerät
wie beschrieben oder auf einem separaten Computer, z.B. einem Server.
[0057] Die zuvor beschriebene Aufnahme und Wiederausgabe eines Schallsignals mit Modifikation
auf elektrischer Ebene ist der Regelfall im Betrieb des Hörgeräts 16, dies wird auch
als "Normalbetrieb" des Hörgeräts 16 bezeichnet. Zusätzlich zum Normalbetrieb weist
das hier beschriebene Hörgerät 14 noch einen Streamingbetrieb auf, in welchem die
Ausgabe an den Nutzer 4 auf dem Datensignal 24 basiert, welches von der Audioquelle
6 ausgesendet wird. Beim Streamingbetrieb wird auf eine Umwandlung in und Rückwandlung
aus einem Schallsignal verzichtet und ein Audiosignal von der Audioquelle 6 verlustfrei
und unbeeinflusst zum Nutzer 4 übertragen. Der Streamingbetrieb wird beispielsweise
verwendet, um ein Audiosignal 8 von einem TV-Gerät, Computer oder Smartphone und allgemein
von einer Audioquelle 6 zum Hörgerät 14 zu übertragen. Das Hörgerät 14 weist entsprechend
einen Dateneingang 44 auf, welcher komplementär zum Datenausgang 28 der Audioquelle
ausgebildet ist, hier demnach ebenfalls als eine Antenne.
[0058] Vorliegend werden nun die Funktionalitäten des Normalbetriebs und des Streamingbetriebs
vereint, um die HRTF 2 zu bestimmen. Das Hörgerät 14 empfängt einerseits mittels des
Mikrofons 12 das Schallsignal 22 von der Audioquelle 6 und nutzt somit die Funktionalität
des Normalbetriebs. Andererseits empfängt das Hörgerät 14 das Datensignal 24 von der
Audioquelle 6 und nutzt somit die Funktionalität des Streamingbetriebs. Welches der
beiden Audiosignale 30, 34 dann tatsächlich auch wieder über den Ausgangswandler 38
an den Nutzer 4 ausgegeben wird, ist nicht von Bedeutung und bleibt z.B. dem Nutzer
überlassen.
[0059] Für das hier beschriebene Verfahren ist jedoch nicht zwingend erforderlich, dass
das Hörgerät 14 einen Streamingbetrieb aufweist oder generell das Datensignal 24 empfängt,
dieses kann auch von einem anderen Gerät 32 empfangen werden. Das erste und das zweite
Audiosignal 30, 34 müssen lediglich auf irgendeinem Gerät zusammengeführt werden,
um dort verglichen zu werden und darauf basierend die HRTF 2 zu bestimmen.
[0060] Wichtig für die korrekte Bestimmung der HRTF 2 ist jedoch, dass das Hörgerät 14 das
Schallsignal 22 empfängt, denn das Hörgerät 14 wird vom Nutzer 4 getragen, während
jedes andere Gerät 32 regelmäßig abseits des Nutzers 4 positioniert ist und daher
nicht geeignet ist, ein Schallsignal 22 zu empfangen, welches entlang des akustischen
Pfads 10 zum Nutzer 4 propagiert. In der hier gezeigten Ausgestaltung empfängt entsprechend
das Hörgerät 14 das Schallsignal 22 mit einem Mikrofon 12, welches ein Teil des Hörgeräts
16 ist. Das hier gezeigte Hörgerät 14 ist zudem derart ausgebildet, dass in getragenem
Zustand das Mikrofon 12 in oder an einem Ohr des Nutzers 4 positioniert ist. Die genaue
Position des Mikrofons 12 hängt vom Typ des Hörgeräts 16 ab. Bei einem BTE-Gerät ist
das Mikrofon 12 hinter dem Ohr positioniert, bei einem RIC-Gerät im Gehörgang und
bei einem ITE-Gerät im Ohr, noch vor dem Gehörgang. Gegebenenfalls wird demnach nicht
der gesamte akustische Pfad 10 bis in den Gehörgang hinein berücksichtigt und die
HRTF 2 entsprechend nur für einen oder einzelne Abschnitte 18, 20 des akustischen
Pfads 10 bestimmt. Das Hörgerät 14 ist entweder monaural und wird dann nur auf einer
Seite (links oder rechts) des Kopfs getragen oder - wie hier gezeigt - binaural und
weist dann zwei Einzelgeräte auf, welche auf unterschiedlichen Seiten des Kopfs getragen
werden (d.h. links und rechts). Bei einem binauralen Hörgerät 14 weisen beide Einzelgeräte
jeweils ein oder mehrere Mikrofone 12 auf.
[0061] Im hier gezeigten Ausführungsbeispiel wird bei der Bestimmung der HRTF 2 auch die
räumliche Situation bezüglich des Nutzers 4 berücksichtigt, hier speziell dessen relative
räumliche Beziehung zur Audioquelle 6. Die räumliche Situation ist im gezeigten Ausführungsbeispiel
charakterisiert durch eine Position 46, Entfernung 48 und/oder Orientierung 50 des
Nutzers 4 relativ zur Audioquelle 6. In einer nicht explizit gezeigten Variante ist
die räumliche Situation alternativ oder zusätzlich speziell eine Orientierung des
Kopfes des Nutzers 4 relativ zu dessen Torso oder allgemein eine Körperhaltung des
Nutzers 4. Andere Körperhaltungen sind z.B. Sitzen, Liegen, Stehen. Der akustische
Pfad 10 hängt regelmäßig davon ab, wie der Körper des Nutzers 4 relativ zur Audioquelle
6 ausgerichtet ist oder welche Körperhaltung der Nutzer 4 einnimmt, d.h. ob das Schallsignal
22 den Nutzer 4 z.B. von vorn, von hinten oder von der Seite erreicht und wie dessen
eigener Körper, speziell Torso, das Schallsignal abschattet. Entsprechend ist die
Modifikation des Schallsignals 22 bei dessen Propagation zum Nutzer 4 abhängig von
der relativen räumlichen Beziehung zwischen Nutzer 4 und Audioquelle 6 sowie der Körperhaltung
des Nutzers 4, sodass auch die HRTF 2 situationsabhängig und speziell richtungsabhängig
und körperhaltungsabhängig ist. Daher werden Datensätze 42 in möglichst vielen unterschiedlichen,
relativen räumlichen Situationen aufgenommen, d.h. für möglichst viele verschiedene
Positionen 46, Entfernungen 48, Orientierungen 50 und/oder Körperhaltungen. Wie genau
die räumliche Situation, z.B. die Position 46, Entfernung 48 und/oder Orientierung
50 des Nutzers 4 relativ zur Audioquelle 6, bestimmt wird, ist vorliegend von untergeordneter
Bedeutung und daher hier nicht weiter Gegenstand. Jedenfalls werden vorliegend zur
Bestimmung der HRTF 2 ein jeweiliger Ausschnitt 40 aus dem ersten und dem zweiten
Audiosignal 30, 34 und eine räumliche Situation gemeinsam als ein Datensatz 42 gespeichert,
sodass ein jeweiliger Datensatz 42 dann auch eine Information über die räumliche Situation
enthält.
[0062] Eine Erzeugung von Datensätzen 42 ist auf verschiedenste Weisen möglich, insbesondere
mit unterschiedlichem Grad an Beteiligung des Nutzers 4 und mit oder ohne eine spezielle
Ansteuerung der Audioquelle 6.
[0063] Zunächst ist eine Ausgestaltung möglich, bei welcher fortlaufend Datensätze 42 erzeugt
werden, ohne dass der Nutzer 4 überhaupt aktiv werden muss oder die Audioquelle 6
speziell gesteuert werden muss. Das Verfahren wird somit bei bestimmungsgemäßer Verwendung
sozusagen im Hintergrund ausgeführt und stört den Nutzer 4 somit nicht.
[0064] Alternativ oder zusätzlich wird die Audioquelle 6 derart gesteuert, dass diese bei
Vorliegen einer räumlichen Situation, für welche noch keine Mindestanzahl an Datensätzen
42 vorhanden ist, ein Quell-Audiosignal 8 ausgibt, um für diese räumliche Situation
einen Datensatz 42 zu erzeugen. In dieser Ausgestaltung wird die Audioquelle 6 demnach
speziell gesteuert, um gezielt für solche räumlichen Situationen einen Datensatz 42
zu erzeugen, für welche noch nicht ausreichend viele Datensätze 42 für eine hinreichend
gute Bestimmung der HRTF 2 vorhanden sind. Wie viele Datensätze 42 tatsächlich für
eine jeweilige räumliche Situation benötigt werden, wie groß also die Mindestanzahl
ist, ist zunächst nicht von Bedeutung. Beispielsweise beträgt die Mindestanzahl lediglich
1 oder alternativ 10, 100 oder 1000. Auch in dieser Ausgestaltung ist eine Beteiligung
des Nutzers 4 nicht erforderlich, es erfolgt jedoch eine spezielle Ansteuerung der
Audioquelle 6, um gezielt möglichst sinnvolle Datensätze 42 zu erzeugen.
[0065] Alternativ oder zusätzlich wird eine Anweisung an den Nutzer 4 ausgegeben, eine oder
mehrere räumliche Situationen herzustellen, in welchen dann die Audioquelle 6 jeweils
ein Quell-Audiosignal 8 ausgibt, um für diese räumlichen Situationen jeweils einen
Datensatz 42 zu erzeugen. Die Anweisung wird beispielsweise von dem Hörgerät 14, der
Audioquelle 6 oder einem anderen Gerät 32 ausgegeben. Die Anweisung ist beispielsweise
akustisch oder optisch. Ob der Nutzer 4 der Anweisung tatsächlich folgt, bleibt ihm
oder ihr selbst überlassen. Das Verfahren nutzt dann insgesamt eine Beteiligung des
Nutzers 4, eine spezielle Ansteuerung der Audioquelle 6 ist jedoch nicht zwingend
erforderlich.
[0066] Alternativ oder zusätzlich weist das Hörgerät 14 einen Testmodus auf und gibt in
diesem an den Nutzer 4 ein Ausgangssignal aus, welches eine räumliche Geräuschinformation
(d.h. "spatial cue", z.B. ein räumlich lokalisiertes Geräusch) aufweist, um den Nutzer
4 dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen oder zu orientieren,
nämlich insbesondere dorthin, wo das Geräusch vermeintlich herkommt. Weiter wird dann
bestimmt, in welche tatsächliche Richtung sich der Nutzer 4 bewegt oder orientiert
und diese wird mit der vorgesehenen Richtung verglichen, um einen Anpassungsgrad der
HRTF 2 an den Nutzer 4 zu ermitteln. Der Anpassungsgrad gibt dann z.B. an, wie gut
die aktuell bestimmte HRTF 2 mit der tatsächlichen HRTF 2 übereinstimmt. Der Testmodus
ermöglicht somit eine Überprüfung der bisher bestimmten HRTF 2 und auch eine Ermittlung,
wie gut diese mit der tatsächlichen HRTF 2 für den Nutzer 4 übereinstimmt.
[0067] Wie in Fig. 2 bereits erkennbar ist, ist die HRTF 2 grundsätzlich selbst zerlegbar
in mehrere einzelne Übertragungsfunktionen, welche einzelne Abschnitte (z.B. die Abschnitte
18, 20) des akustischen Pfads 10 modellieren und welche dann zusammengefügt die HRTF
2 für den gesamten akustischen Pfad 10 ergeben. Unter Umständen ist es nicht erforderlich
oder sogar unmöglich, die HRTF 2 für den gesamten akustischen Pfad 10 auf die beschriebene
Weise zu bestimmen, sondern nur für einen oder mehrere einzelne Abschnitte 18,20,
speziell diejenigen Abschnitte 18, 20, welche dem Nutzer 4 am nächsten sind, hier
vor allem der dritte Abschnitt 20. Die übrigen Abschnitte 18 werden dann z.B. mittels
einer jeweiligen Standardfunktion modelliert, besonders auch der Abschnitt 16, welcher
an sich nicht zur HRTF beiträgt, dessen Bestimmung jedoch gegebenenfalls verfälscht.
[0068] In einer möglichen Ausgestaltung erfolgt die Bestimmung der HRTF 2 ausgehend von
einer Basis-HRTF, welche eine Übertragungsfunktion für lediglich einen ersten Abschnitt
18, 20 eines akustischen Pfads 10 von der Audioquelle 6 zum Gehörgang des Nutzers
4 ist, sodass die HRTF 2 überwiegend für einen anderen, zweiten Abschnitt 18, 20 des
akustischen Pfads 10 bestimmt wird. Beispielsweise enthält der zweite Abschnitt insbesondere
denjenigen Teil des akustischen Pfads 10, welcher die Pinna enthält, hier der dritte
Abschnitt 20 in Fig. 2. Die Basis-HRTF ist dann beispielsweise eine HRTF 2 eines Dummys
und berücksichtigt vornehmlich die Körperform und allgemeine Kopfform des Nutzers
4. Diese Basis-HRTF wird dann durch das vorliegende Verfahren dahingehend optimiert,
dass die spezielle Form der Pinna des Nutzers 4 berücksichtigt wird, sodass insgesamt
die HRTF 2 nutzerspezifisch bestimmt wird. Hierfür ist das Hörgerät 14 z.B. derart
ausgebildet, dass dessen Mikrofon 12 in getragenem Zustand im Gehörgang oder im Ohr
des Nutzers 4 positioniert ist und nicht lediglich hinter dem Ohr.
[0069] Die HRTF 2 wird nicht zwingend von dem Hörgerät 14 bestimmt. In Fig. 5 wird die HRTF
2 beispielweise von einem Computer 52 bestimmt, hier einem Server, welcher separat
von dem Hörgerät 14 und der Audioquelle 6 ausgebildet ist. Wie genau die Datensätze
42 hierfür an den Server gelangen ist nicht weiter relevant und hängt auch von der
gewählten Ausgestaltung des Verfahrens, dem Hörgerät 14, der Audioquelle 6 und anderen
gegebenenfalls beteiligten Geräten 32 ab. Insofern zeigt Fig. 5 lediglich eine von
vielen möglichen Ausführungsformen. Möglich sind beispielsweise Ausgestaltungen, bei
welchen das Hörgerät 14 das erste, akustisch übertragene Audiosignal 30 oder Ausschnitte
40 hiervon an den Server sendet, ebenso wird das zweite, akustisch übertragene Audiosignal
34 oder Ausschnitte 4 hiervon von dem Hörgerät 14 oder von einem anderen Gerät 32,
z.B. einem Smartphone oder der Audioquelle 6, an den Server gesendet, welcher dann
die HRTF 2 an das Hörgerät 14 sendet.
[0070] Im gezeigten Ausführungsbeispiel der Fig. 1 ist die Audioquelle 6 ein stationäres
Gerät und verharrt typischerweise an derselben Stelle in der Umgebung, z.B. einem
Raum wie gezeigt, während der Nutzer 4 sich relativ zur Audioquelle 6 bewegt und sich
allgemein die räumliche Situation ändert. Eine solche Bewegung des Nutzers 4 ist in
Fig. 1 durch einen beispielhaften Bewegungspfad 54 illustriert. Zudem ist die Audioquelle
6 in der hier gezeigten Ausgestaltung ein TV-Gerät. Wie in Fig. 1 erkennbar ist, hält
sich der Nutzer 4 relativ zum TV-Gerät typischerweise in einer Entfernung von wenigen
Metern auf, welche ähnlich ist zur Entfernung bei der Bestimmung einer HRTF 2 in einem
echofreien Raum wie eingangs beschrieben. Außerdem ist das TV-Gerät in der Umgebung
typischerweise immer an derselben Position platziert, sodass zusätzliche raumakustische
Effekte, speziell entlang des ersten Abschnitts 16, bei der Bestimmung der HRTF 2
besser berücksichtigt werden. Das hier beschriebene Verfahren wird auch speziell dann
durchgeführt, während der Nutzer 4 fernsieht, d.h. während die Audioquelle 6 eingeschaltet
ist und sich der Nutzer 4 in dessen näherer Umgebung aufhält (z.B. innerhalb von weniger
als 5 m entfernt von der Audioquelle 6). Dabei ist nicht zwingend erforderlich, dass
der Nutzer 4 dem von dem TV-Gerät ausgesendeten Inhalten folgt oder spezielle Beachtung
schenkt. In einer möglichen Ausgestaltung wird die Audioquelle 6 zudem derart gesteuert,
dass diese das Audiosignal 8 als Schallsignal 22 über lediglich einen einzelnen Lautsprecher
26 ausgibt, sodass der akustische Pfad 10 genauer definiert ist.
[0071] Außerdem wird in einer Ausführungsform noch ein Akustikparameter der Umgebung bestimmt,
um einen oder mehrere raumakustische Effekte zu quantifizieren, und bei der Bestimmung
der HRTF 2 berücksichtigt. Dadurch wird hier eine Übertragungsfunktion für den ersten
Abschnitt 16 bestimmt. Raumakustische Effekte sind beispielsweise Reflektionen des
Schallsignals an Wänden oder Gegenständen in der Umgebung oder ein Nachhallen, speziell
in einem Raum. Der Akustikparameter wird beispielsweise mit dem Hörgerät 14 bestimmt
oder mit einem anderen Gerät 32.
[0072] Das Hörgerät 14 weist weiter eine Steuereinheit 56 auf, welche ausgebildet ist zur
Durchführung des Verfahrens wie vorstehend beschrieben, zumindest derjenigen Schritte
des Verfahrens, welche vom Hörgerät 14 durchgeführt werden.
Bezugszeichenliste
[0073]
- 2
- HRTF
- 4
- Nutzer
- 6
- Audioquelle
- 8
- Quell-Audiosignal
- 10
- akustischer Pfad
- 12
- Mikrofon
- 14
- Hörgerät
- 16
- erster Abschnitt
- 18
- zweiter Abschnitt
- 20
- dritter Abschnitt
- 22
- Schallsignal
- 24
- Datensignal
- 26
- Lautsprecher (der Audioquelle)
- 28
- Datenausgang
- 30
- erstes Audiosignal (aus Schallsignal)
- 32
- anderes Gerät
- 34
- zweites Audiosignal (aus Datensignal)
- 36
- Signalverarbeitung
- 38
- Ausgangswandler
- 40
- Ausschnitt (Sample)
- 42
- Datensatz
- 44
- Dateneingang
- 46
- Position
- 48
- Entfernung
- 50
- Orientierung
- 52
- Computer (Server)
- 54
- Bewegungspfad
- 56
- Steuereinheit
1. Verfahren zur Bestimmung einer HRTF (2),
a. wobei eine Audioquelle (6) ein Quell-Audiosignal (8) ausgibt, nämlich sowohl akustisch
als ein Schallsignal (22) als auch nicht-akustisch als ein Datensignal (24),
b. wobei das Schallsignal (22) von einem Hörgerät (14) eines Nutzers (4) empfangen
wird und von diesem Hörgerät (14) wieder in ein Audiosignal (30) umgewandelt wird,
nämlich in ein erstes Audiosignal (30),
c. wobei das Datensignal (24) von dem Hörgerät (14) oder von einem anderen Gerät (6,
32) empfangen wird, welches aus dem Datensignal (24) ein zweites Audiosignal (34)
erzeugt,
d. wobei das erste Audiosignal (30) und das zweite Audiosignal (34) miteinander verglichen
werden und basierend darauf die HRTF (2) bestimmt wird.
2. Verfahren nach Anspruch 1,
wobei zum Bestimmen der HRTF (2) das erste Audiosignal (30) als ein Soll-Signal verwendet
wird und das zweite Audiosignal (34) als ein Ist-Signal.
3. Verfahren nach Anspruch 1 oder 2,
wobei das Hörgerät (14) das Schallsignal (22) mit einem Mikrofon (12) empfängt,
wobei das Hörgerät (14) derart ausgebildet ist, dass in getragenem Zustand das Mikrofon
(12) in oder an einem Ohr des Nutzers (4) positioniert ist.
4. Verfahren nach einem der Ansprüche 1 bis 3,
wobei eine räumliche Situation bezüglich des Nutzers (4) ermittelt wird und bei der
Bestimmung der HRTF (2) berücksichtigt wird,
wobei die räumliche Situation bezüglich des Nutzers (4) ausgewählt ist aus einer Menge
an räumlichen Situationen, umfassend:
- eine Position (46) des Nutzers (4) relativ zur Audioquelle (6),
- eine Entfernung (48) des Nutzers (4) relativ zur Audioquelle (6),
- eine Orientierung (50) des Nutzers (4) relativ zur Audioquelle (6),
- eine Orientierung des Kopfes des Nutzers (4) relativ zu dessen Torso,
- eine Körperhaltung des Nutzers (4).
5. Verfahren nach Anspruch 4,
wobei zur Bestimmung der HRTF (2) ein jeweiliger Ausschnitt (40) aus dem ersten und
dem zweiten Audiosignal (30, 34) und eine räumliche Situation bezüglich des Nutzers
(4) gemeinsam als ein Datensatz (42) gespeichert werden,
wobei die Audioquelle (6) derart gesteuert wird, dass diese bei Vorliegen einer räumlichen
Situation bezüglich des Nutzers (4), für welche noch keine Mindestanzahl an Datensätzen
(42) vorhanden ist, ein Quell-Audiosignal (8) ausgibt, um für diese räumliche Situation
bezüglich des Nutzers (4) einen Datensatz (42) zu erzeugen.
6. Verfahren nach Anspruch 4 oder 5,
wobei eine Anweisung an den Nutzer (4) ausgegeben wird, eine oder mehrere räumliche
Situationen herzustellen, in welchen dann die Audioquelle (6) jeweils ein Quell-Audiosignal
(8) ausgibt, um für diese räumlichen Situationen jeweils einen Datensatz (42) zu erzeugen.
7. Verfahren nach einem der Ansprüche 1 bis 6,
wobei das Hörgerät (14) einen Testmodus aufweist und in diesem an den Nutzer (4) ein
Ausgangssignal ausgibt, welches eine räumliche Geräuschinformation aufweist, um den
Nutzer (4) dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen,
wobei bestimmt wird, in welche tatsächliche Richtung sich der Nutzer (4) bewegt und
diese mit der vorgesehenen Richtung verglichen wird, um einen Anpassungsgrad der HRTF
(2) an den Nutzer (4) zu ermitteln.
8. Verfahren nach einem der Ansprüche 1 bis 7,
wobei die Bestimmung der HRTF (2) ausgehend von einer Basis-HRTF erfolgt, welche eine
Übertragungsfunktion für lediglich einen ersten Abschnitt (18, 20) eines akustischen
Pfads (10) von der Audioquelle (6) zum Gehörgang des Nutzers (4) ist, sodass die HRTF
(2) überwiegend für einen anderen, zweiten Abschnitt (18, 20) des akustischen Pfads
(10) bestimmt wird.
9. Verfahren nach einem der Ansprüche 1 bis 8,
wobei die HRTF (2) von einem Computer (52) bestimmt wird, welcher separat von dem
Hörgerät (14) und der Audioquelle (6) ausgebildet ist.
10. Verfahren nach einem der Ansprüche 1 bis 9,
wobei die Audioquelle (6) ein stationäres Gerät ist.
11. Verfahren nach einem der Ansprüche 1 bis 10,
wobei die Audioquelle (6) ein TV-Gerät ist.
12. Verfahren nach einem der Ansprüche 1 bis 11,
wobei dieses durchgeführt wird, während der Nutzer (4) fernsieht.
13. Verfahren nach einem der Ansprüche 1 bis 12,
wobei die Audioquelle (6) derart gesteuert wird, dass diese das Quell-Audiosignal
(8) als Schallsignal (22) über lediglich einen einzelnen Lautsprecher (26) ausgibt.
14. Verfahren nach einem der Ansprüche 1 bis 13,
wobei ein Akustikparameter der Umgebung bestimmt wird und bei der Bestimmung der HRTF
(2) berücksichtigt wird.
15. Hörgerät (14), welches eine Steuereinheit (56) aufweist, welche ausgebildet ist zur
Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 14.