<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE ep-patent-document PUBLIC "-//EPO//EP PATENT DOCUMENT 1.5//EN" "ep-patent-document-v1-5.dtd">
<ep-patent-document id="EP10708882B1" file="EP10708882NWB1.xml" lang="de" country="EP" doc-number="2394271" kind="B1" date-publ="20170322" status="n" dtd-version="ep-patent-document-v1-5">
<SDOBI lang="de"><B000><eptags><B001EP>ATBECHDEDKESFRGBGRITLILUNLSEMCPTIESILTLVFIROMKCY..TRBGCZEEHUPLSK..HRIS..MTNO....SM..................</B001EP><B003EP>*</B003EP><B005EP>J</B005EP><B007EP>BDM Ver 0.1.50 (10 Nov 2016) -  2100000/0</B007EP></eptags></B000><B100><B110>2394271</B110><B120><B121>EUROPÄISCHE PATENTSCHRIFT</B121></B120><B130>B1</B130><B140><date>20170322</date></B140><B190>EP</B190></B100><B200><B210>10708882.5</B210><B220><date>20100201</date></B220><B240><B241><date>20110809</date></B241><B242><date>20140214</date></B242></B240><B250>de</B250><B251EP>de</B251EP><B260>de</B260></B200><B300><B310>1932009</B310><B320><date>20090204</date></B320><B330><ctry>AT</ctry></B330></B300><B400><B405><date>20170322</date><bnum>201712</bnum></B405><B430><date>20111214</date><bnum>201150</bnum></B430><B450><date>20170322</date><bnum>201712</bnum></B450><B452EP><date>20161004</date></B452EP></B400><B500><B510EP><classification-ipcr sequence="1"><text>G10L  21/0364      20130101AFI20160726BHEP        </text></classification-ipcr><classification-ipcr sequence="2"><text>G10L  25/03        20130101ALN20160726BHEP        </text></classification-ipcr><classification-ipcr sequence="3"><text>G10L  25/18        20130101ALN20160726BHEP        </text></classification-ipcr></B510EP><B540><B541>de</B541><B542>METHODE ZUR TRENNUNG VON SIGNALPFADEN UND ANWENDUNG AUF DIE VERBESSERUNG VON SPRACHE MIT ELEKTRO-LARYNX</B542><B541>en</B541><B542>METHOD FOR SEPARATING SIGNAL PATHS AND USE FOR IMPROVING SPEECH USING ELECTRIC LARYNX</B542><B541>fr</B541><B542>PROCÉDÉ DE SÉPARATION DE CHEMINEMENTS DE SIGNAUX ET APPLICATION DE CE PROCÉDÉ POUR AMÉLIORER LA QUALITÉ DE LA VOIX D'UN LARYNX ÉLECTRONIQUE</B542></B540><B560><B562><text>COLE D ET AL: "Application of noise reduction techniques for alaryngeal speech enhancement" TENCON '97. IEEE REGION 10 ANNUAL CONFERENCE. SPEECH AND IMAGE TECHNOL OGIES FOR COMPUTING AND TELECOMMUNICATIONS., PROCEEDINGS OF IEEE BRISBANE, QLD., AUSTRALIA 2-4 DEC. 1997, NEW YORK, NY, USA,IEEE, US LNKD- DOI:10.1109/TENCON.1997.648252, Bd. 2, 2. Dezember 1997 (1997-12-02), Seiten 491-494, XP010264286 ISBN: 978-0-7803-4365-8</text></B562><B562><text>HERMANSKY H ET AL: "RASTA processing of speech" IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING USA, Bd. 2, Nr. 4, Oktober 1994 (1994-10), Seiten 578-589, XP002590490 ISSN: 1063-6676 DOI: 10.1109/89.326616</text></B562><B562><text>NIU H-J ET AL: "ENHANCEMENT OF ELECTROLARYNX SPEECH USING ADAPTIVE NOISE CANCELLING BASED ON INDEPENDENT COMPONENT ANALYSIS" MEDICAL AND BIOLOGICAL ENGINEERING AND COMPUTING, SPRINGER, HEILDELBERG, DE LNKD- DOI:10.1007/BF02349975, Bd. 41, Nr. 6, 1. November 2003 (2003-11-01), Seiten 670-678, XP001201568 ISSN: 0140-0118</text></B562><B562><text>Takayuki Arai, Keisuke Kinoshita, Nao Hodoshima, Akkio Kusumoto, Tomoko Kitamura: "Effects of suppressing steady-state portions of speech on intelligibility in reverberant environments" Acoustical Science and Technology Bd. 23, Nr. 4, 31. Dezember 2002 (2002-12-31), Seiten 229-232, XP002590491 Gefunden im Internet: URL:http://splab.net/papers/2002/2002_02.p df [gefunden am 2010-07-05]</text></B562><B562><text>DRULLMAN R ET AL: "EFFECT OF REDUCING SLOW TEMPORAL MODULATIONS ON SPEECH RECEPTION" THE JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA, AMERICAN INSTITUTE OF PHYSICS FOR THE ACOUSTICAL SOCIETY OF AMERICA, NEW YORK, NY, US LNKD- DOI:10.1121/1.409836, Bd. 95, Nr. 5, PART 01, 1. Mai 1994 (1994-05-01), Seiten 2670-2680, XP000447919 ISSN: 0001-4966</text></B562></B560></B500><B700><B720><B721><snm>HAGMÜLLER, Martin</snm><adr><str>Messendorfer Straße 62</str><city>A-8041 Graz</city><ctry>AT</ctry></adr></B721><B721><snm>KUBIN, Gernot</snm><adr><str>Franz-Schmidt-Weg 14</str><city>A-8046 Graz</city><ctry>AT</ctry></adr></B721></B720><B730><B731><snm>Heimomed Heinze GmbH &amp; Co. KG</snm><iid>101266721</iid><irf>110078WOEP</irf><adr><str>Daimlerstrasse 30</str><city>50170 Kerpen</city><ctry>DE</ctry></adr></B731></B730><B740><B741><snm>Lenzing Gerber Stute</snm><iid>101158387</iid><adr><str>PartG von Patentanwälten m.b.B. 
Bahnstraße 9</str><city>40212 Düsseldorf</city><ctry>DE</ctry></adr></B741></B740></B700><B800><B840><ctry>AT</ctry><ctry>BE</ctry><ctry>BG</ctry><ctry>CH</ctry><ctry>CY</ctry><ctry>CZ</ctry><ctry>DE</ctry><ctry>DK</ctry><ctry>EE</ctry><ctry>ES</ctry><ctry>FI</ctry><ctry>FR</ctry><ctry>GB</ctry><ctry>GR</ctry><ctry>HR</ctry><ctry>HU</ctry><ctry>IE</ctry><ctry>IS</ctry><ctry>IT</ctry><ctry>LI</ctry><ctry>LT</ctry><ctry>LU</ctry><ctry>LV</ctry><ctry>MC</ctry><ctry>MK</ctry><ctry>MT</ctry><ctry>NL</ctry><ctry>NO</ctry><ctry>PL</ctry><ctry>PT</ctry><ctry>RO</ctry><ctry>SE</ctry><ctry>SI</ctry><ctry>SK</ctry><ctry>SM</ctry><ctry>TR</ctry></B840><B860><B861><dnum><anum>AT2010000032</anum></dnum><date>20100201</date></B861><B862>de</B862></B860><B870><B871><dnum><pnum>WO2010088709</pnum></dnum><date>20100812</date><bnum>201032</bnum></B871></B870><B880><date>20111214</date><bnum>201150</bnum></B880></B800></SDOBI>
<description id="desc" lang="de"><!-- EPO <DP n="1"> -->
<p id="p0001" num="0001">Bei der Erfindung handelt es sich um ein Verfahren zur Verbesserung der Sprachqualität eines Elektro-Larynx (EL) Sprechers, wobei das Sprachsignal des Sprechers über geeignete Mittel digitalisiert wird. Unter geeigneten Mitteln werden hier beispielsweise ein Mikrofon mit zugehörigem Analog/Digital-Umsetzer, ein Telefon oder andere Methoden unter Verwendung von elektronischem Equipment verstanden.</p>
<p id="p0002" num="0002">Bei einem EL handelt es sich um ein Gerät zur Bildung einer künstlichen Ersatzstimme, beispielsweise für Patienten, denen operativ der Kehlkopf entfernt wurde. Der EL wird dabei an der Unterseite des Kiefers angesetzt; ein Tongenerator mit einer bestimmten Frequenz bringt die Luft in der Mundhöhle über die Weichteile an der Unterseite des Kiefers zum Vibrieren. Diese Schwingungen werden dann durch die Artikulationsorgane moduliert, so dass ein Sprechen möglich wird. Da allerdings der Tongenerator meistens nur mit einer Frequenz arbeitet, klingt die Stimme monoton und unnatürlich, bzw. "roboterhaft".</p>
<p id="p0003" num="0003">Weiters ist von Nachteil, dass die Vibration des EL die Wahrnehmung des Sprechens stört oder sogar übertönt, weil nur ein Teil des Schalls in der Mundhöhle artikuliert wird. Die direkt vom Gerät oder an der Übergangsstelle am Hals austretenden Anteile überlagern die artikulierten Teile und setzen die Verständlichkeit herab. Dies ist besonders bei Sprechern der Fall, die einer Strahlentherapie im Halsbereich unterzogen wurden, wodurch sich die Gewebestruktur versteift. Es wurden daher verschiedene Methoden entwickelt, die das Nutzsignal - also die artikulierten Schwingungen - gegenüber dem Störsignal - also dem Direktschall, bzw. der unmodulierten Vibration des EL - verstärken sollen.</p>
<p id="p0004" num="0004">Diese Methoden kommen dabei überwiegend in Situationen zum Einsatz, bei denen der Zuhörer dem abgestrahlten Schall nicht unmittelbar ausgesetzt ist, sondern elektronische Mittler verwendet werden, beispielsweise beim Telefonieren, bei Schallaufzeichnungen oder allgemein beim Sprechen über Mikrofon und Verstärker.</p>
<p id="p0005" num="0005">In der <patcit id="pcit0001" dnum="US6359988B1"><text>US 6,359,988 B1</text></patcit> wird ein EL-Stimmsignal einer Cepstrum-Analyse unterworfen und mit der Sprache eines Normalsprechers überlagert, wodurch sich die Tonlagenveränderung des mit EL Sprechenden natürlicher gestalten lässt; gleichzeitig wird dadurch auch der Anteil des abgestrahlten Direktschalls am Signal unterdrückt. Nachteil an dieser Lösung ist vor allem, dass zu jeder Aussage eines EL-Sprechers zeitgleich die gleiche Aussage eines<!-- EPO <DP n="2"> --> gesunden (also ohne EL sprechenden) Sprechers benötigt wird, was praktisch kaum realisierbar ist.</p>
<p id="p0006" num="0006">Eine weitere Lösung zeigt die <patcit id="pcit0002" dnum="US6975984B2"><text>US 6,975,984 B2</text></patcit>, in der eine Lösung zum Verbessern eines EL-Sprachsignals in der Telephonie beschrieben wird. Dabei wird in einem digitalen Signalprozessor das Sprachsignal derart bearbeitet, dass das brummende Grundgeräusch des EL erkannt und aus dem Sprachsignal entfernt wird. Das Sprachsignal wird dafür in eine stimmhafte und eine stimmlose Komponente aufgeteilt und getrennt verarbeitet. Der stimmhafte Teil wird blockweise fouriertransformiert, frequenzgefiltert (Grundfrequenz und Harmonische werden weiterverwendet), rücktransformiert und in der Folge vom gesamten Originalsignal subtrahiert. Übrig bleibt der stimmlose Anteil des Originalsignals. Alternativ wird auch vorgeschlagen, den stimmhaften Anteil über Tiefpass zu filtern, im Falle der Erkennung einer Sprachpause völlig auszufiltern und den stimmlosen Anteil hinterher zu überlagern.</p>
<p id="p0007" num="0007">Das Dokument "<nplcit id="ncit0001" npl-type="s"><text>Enhancement of Electrolaryngeal Speech by Adaptive Filtering" von Carol Y. Espy-Wilson et al. (JSLHR, 41: 1253-1264, 1998</text></nplcit>) beschreibt eine Methode zur Verbesserung der Sprachqualität eines EL-Sprechers. Das Grundgeräusch des EL wird dabei mittels adaptiver Filterung an das durch das EL-Grundgeräusch gestörte Sprachsignal (bzw. das zu Sprache artikulierte EL-Grundgeräusch) angeglichen; in einem weiteren Schritt werden die Signale voneinander abgezogen. Übrig bleibt ein Fehlersignal, das zur Kontrolle und Anpassung der Filterparameter mit dem Ziel der Minimierung des Fehlersignals verwendet wird. Das Fehlersignal in der vorliegenden Methode ist das vom EL-Grundgeräusch befreite Sprachsignal. Die Annahme dabei ist, dass zwar das Störsignal im Sprachsignal mit dem EL-Grundgeräusch korreliert ist, das interessierende Sprachsignal aber unabhängig von den anderen Signalen ist, dass also quasi das störende Grundgeräusch und das Sprachsignal von unterschiedlichen Quellen herrühren.</p>
<p id="p0008" num="0008">Das Dokument "<nplcit id="ncit0002" npl-type="s"><text>Enhancement of Electrolarynx Speech Based on Auditory Masking" von Hanjun Liu et al. (IEEE Transactions on Biomedical Engineering, 53(5): 865-874, 2006</text></nplcit>) beschreibt einen Subtraktionsalgorithmus zur Signalverbesserung eines EL-Sprechenden, insbesondere im Bezug auf Umgebungslärm.</p>
<p id="p0009" num="0009">Im Gegensatz zu anderen Methoden, die fixe Subtraktionsparameter vorsehen, werden bei diesem Algorithmus die Subtraktionsparameter im Frequenzbereich adaptiert, basierend auf auditorischer Maskierung. Dabei wird davon ausgegangen, dass Sprache und Hintergrundgeräusche unkorreliert sind und deshalb der Hintergrundlärm abgeschätzt und im Frequenzbereich vom Signal abgezogen werden kann.<!-- EPO <DP n="3"> --></p>
<p id="p0010" num="0010">Diesen Lösungen ist gemeinsam, dass Methoden basierend auf einem Modell verwendet werden, wonach Sprache und Störsignal (also Umgebungsgeräusche, aber auch das Grundgeräusch des EL) statistisch unabhängig, bzw. unkorreliert sind.</p>
<p id="p0011" num="0011">Aufgrund dieser Annahme erfolgt die Implementierung der genannten Methoden auf sehr aufwändige Art und Weise. Wenn versucht wird, den Direktschall mit einem (adaptiven) Notchfilter zu unterdrücken, wird dadurch auch die Qualität des Sprachsignals vermindert, das dann wie ein Flüstern klingt; Sprachsignal und Störgeräusch liegen auf den gleichen Harmonischen.</p>
<p id="p0012" num="0012">Die <patcit id="pcit0003" dnum="US20050004604A1"><text>US 2005/0004604 A1</text></patcit> beschreibt eine Larynx-Lösung, bei der ein Tongeber und ein Mikrofon direkt vor dem Mund eines Anwenders platziert werden, wobei der Tongeber einen Ton mit geringer Lautstärke abgibt und das Signal für die Weiterverarbeitung über das Mikrofon aufgenommen wird. Bei der Weiterverarbeitung wird das Signal im Wesentlichen mit einem Kammfilter gefiltert, um die Harmonischen des Signals zu reduzieren bzw. zu entfernen. Dabei wird aber die Qualität des Sprachsignals stark in Mitleidenschaft gezogen.</p>
<p id="p0013" num="0013">In <patcit id="pcit0004" dnum="WO2006099670A1"><text>WO 2006/099670 A1</text></patcit> ist eine Vorrichtung zur Überwachung der Atemwege beschrieben, wobei Schall im hörbaren Frequenzbereich in die Atemwege eines Objekts eingebracht wird und aus dem reflektierten bzw. verarbeiteten Schall der Zustand der Atemwege ermittelt wird. So ist es beispielsweise möglich, eine Verlegung der Atemwege nachzuweisen. In einer Variante der Erfindung wird mittels der FFT (Fast-Fourier-Transformation) das Überschreiten von bestimmten Schwellenwerten überprüft, woraus Rückschlüsse auf die Behandlung des gemessenen Signals gezogen werden.</p>
<p id="p0014" num="0014">Es ist eine Aufgabe der Erfindung, die oben genannten Nachteile des Stands der Technik zu überwinden und die Sprachqualität von EL-Anwendern bei Verwendung von elektronischen Mittlern wie beispielsweise Mikrofonen zu verbessern.</p>
<p id="p0015" num="0015">Diese Aufgabe wird mit einem Verfahren der eingangs erwähnten Art erfindungsgemäß durch die folgenden Schritte gelöst:
<ol id="ol0001" compact="compact" ol-style="">
<li>a) Aufteilen eines einkanaligen Sprachsignals S(w,t), das aus der Summe der Komponenten eines zeitvarianten anteils x(w)H(w,t) und eines zeitinvarianten Anteils x(w)F(w) besteht, in eine Reihe von Frequenzkanälen durch Überführen vom Zeitbereich in einen diskreten Frequenzbereich,</li>
<li>b) Herausfiltern des zeitinvarianten Anteils x(w)F(w) durch Herausfiltern der Modulationsfrequenz 0 Hz mittels eines Hochpass- bzw. Notchfilters in jedem Frequenzkanal, und</li>
<li>c) Rücktransformieren des gefilterten Sprachsignals vom Frequenzbereich in den Zeitbereich und Zusammenführen zu einem einkanaligen Ausgangssignal.</li>
</ol><!-- EPO <DP n="4"> --></p>
<p id="p0016" num="0016">Die Erfindung macht sich ein verbessertes Modell der Anwendung eines EL zunutze, wonach das zu einem Sprachsignal artikulierte EL-Grundgeräusch sowie die unveränderten Anteile des EL, die die Wahrnehmung des Sprachsignals stören, von einer gemeinsamen Quelle, nämlich dem EL, kommen. Da das störende unartikulierte Grundgeräusch des EL im Modulationsbereich als zeitlich invariantes Signal erkennbar ist, lässt es sich durch geeignetes Vorgehen leicht ausfiltern. Es erfolgt also eine Trennung nicht von Signalquellen, sondern von Ausbreitungswegen (eines Ausbreitungsweges durch die Artikulationsorgane eines Sprechers, ein weiterer Ausbreitungsweg von der Anwendungsstelle am Hals des Sprechers direkt zum Ohr des Zuhörers, bzw. zum Mikrofon oder Aufnahmemittel).</p>
<p id="p0017" num="0017">Dem Fachmann ist eine Vielzahl von Möglichkeiten bekannt, ein digitalisiertes, einkanaliges Signal in den Frequenzbereich zu überführen und so in eine Reihe von Frequenzkanälen aufzuteilen. In jedem Frequenzkanal wird die Modulationsfrequenz des EL durch geeignete Filter - z.B. Notch- oder Hochpassfilter, angewandt auf den Betrag - unterdrückt und so die Qualität der artikulierten Signalanteile verbessert.</p>
<p id="p0018" num="0018">Ähnliche Verfahren aus dem Stand der Technik betrachten die artikulierten Anteile sowie die unveränderten Anteile als von verschiedenen Quellen kommend und wählen diesem Modell entsprechende Herangehensweisen, beispielsweise Filterung mittels Bandpassfiltern, die dann allerdings auch das Sprachsignal dämpfen.</p>
<p id="p0019" num="0019">Das erfindungsgemäße Verfahren zielt also darauf ab, die Verständlichkeit der Sprache von EL-Anwendern zu erhöhen bzw. das Signal angenehmer und "menschlicher" zu machen. Ziel ist es, den Direktschall aus dem EL bei Kommunikation über elektronische Mittel (z.B. Telefon) zu reduzieren bzw. zu eliminieren.</p>
<p id="p0020" num="0020">Die Realisierung des erfindungsgemäßen Verfahrens kann beispielsweise durch ein Software-Plugin, als fest verdrahtete Lösung oder auch als Analogschaltung erfolgen.</p>
<p id="p0021" num="0021">Aus der Vielzahl bekannter Methoden zur Überführung eines Signals in den Frequenzbereich bzw. zurück erfolgt die Überführung in Schritt a) des erfindungsgemäßen Verfahrens günstigerweise mittels Fourier-Transformation und die Rücktransformation in Schritt c) mittels inverser Fourier-Transformation. Die Überführung erfolgt blockweise (z.B. Blöcke von 20 ms) in kurzen Abständen (Auffrischung beispielsweise alle 10 ms). Die Aufteilung des Signals in eine Reihe von Frequenzkanälen erfolgt beim Überführen des Signals in den Frequenzbereich.<!-- EPO <DP n="5"> --></p>
<p id="p0022" num="0022">In einer Variante der Erfindung erfolgt die Überführung des Sprachsignals in Schritt a) und die Rücktransformation in Schritt c) mit einer entsprechenden Filterbank.</p>
<p id="p0023" num="0023">Die Ergebnisse des erfindungsgemäßen Verfahrens lassen sich weiter verbessern, wenn vor der Filterung in Schritt b) eine Signal-Kompression erfolgt und nach Schritt b) eine Dekompression erfolgt. Durch die Kompression kann verhindert werden, dass bei hohen Amplituden deren Änderungen derart dominant sind, dass die Änderungen kleiner Amplituden nicht berücksichtigt werden. Durch die Kompression werden also relative Änderungen für das Filter besser sichtbar.</p>
<p id="p0024" num="0024">In einer weiteren Ausführung des erfindungsgemäßen Verfahrens erfolgt vor der Rücktransformation in Schritt c) eine Gleichrichtung der negativen Signalkomponenten.</p>
<p id="p0025" num="0025">Im Folgenden wird die Erfindung anhand eines nicht einschränkenden Ausführungsbeispiels, das in der Zeichnung dargestellt ist, näher erläutert. In dieser zeigt schematisch:
<dl id="dl0001">
<dt>Fig. 1</dt><dd>eine vereinfachte Darstellung der Verwendung eines EL und die auftretenden Signalpfade,</dd>
<dt>Fig. 2</dt><dd>eine vereinfachte Darstellung der Situation, in der die erfindungsgemäße Methode Anwendung findet und</dd>
<dt>Fig. 3</dt><dd>ein Blockschaltbild der erfindungsgemäßen Methode.</dd>
</dl></p>
<p id="p0026" num="0026">In <figref idref="f0001">Fig. 1</figref> sind die verschiedenen Übertragungswege des Signals eines EL 1 skizziert. Dabei ist am Hals eines Sprechers 2 ein EL 1 angeordnet. Der vom EL 1 erzeugte Schall breitet sich einerseits durch die normalen Sprachkanäle (Mund und Nase) 5 des ersten Sprechers 2 aus und wird dort zu Sprache artikuliert; dieses erste Signal 3 ist deutlich veränderlich, bzw. zeit-variant. Am Ohr eines Zuhörers 4 kommt neben diesem zeit-varianten Signal 3 auch ein zweites Signal 6 (in <figref idref="f0001">Fig. 1</figref> strichpunktiert dargestellt) in Form des Direktschalls des EL 1 an, wobei dieses Signal 4 weitgehend stationär ist und daher als zeitlich invariant angenommen wird. Der zweite Teil 6 des Gesamtsignals, also das Grundgeräusch des EL 1, wird vom Zuhörer 4 als Störsignal wahrgenommen und verringert die Verständlichkeit der Sprache des Sprechers 2. Die ursprüngliche Anregung mittels des EL 1 wird also über zwei verschiedene Pfade übertragen.</p>
<p id="p0027" num="0027">Zwar bezieht sich die Erfindung auf die Verbesserung der Sprachqualität eines EL-Sprechers bei Verwendung von elektronischen Mittlern - anstatt eines Zuhörers würden die Signale also beispielsweise mit einem Mikrofon aufgenommen werden. Zur Illustration der Ausgangslage<!-- EPO <DP n="6"> --> wurde allerdings aus Gründen der Verständlichkeit dieses allgemeine Modell gewählt.</p>
<p id="p0028" num="0028"><figref idref="f0001">Fig. 2</figref> zeigt eine vereinfachte Modelldarstellung der Situation, auf die die erfindungsgemäßen Methode zur Unterdrückung eines störenden zweiten Signals 6 (siehe <figref idref="f0001">Fig. 1</figref>) angewendet wird. Es ist gut erkennbar, dass es bei der erfindungsgemäßen Methode nicht zu einer Trennung von Signalquellen, sondern von Ausbreitungswegen kommt.</p>
<p id="p0029" num="0029">Ein Quellensignal x(w) von einer Signalquelle 7 breitet sich über zwei verschiedene Signalpfade aus. Im ersten Signalpfad wird das Ausgangssignal durch ein zeitvariantes Filter H(w, t) zu einem zeitvarianten Signal x(w)H(w, t) moduliert. Im zweiten Signalpfad wird das Ausgangssignal nur durch ein zeitinvariantes Filter F(w) zu einem Signal x(w)F(w) verändert.</p>
<p id="p0030" num="0030">Die Signale der beiden Pfade werden dann in einem Empfänger 8 - z.B. dem Ohr eines Zuhörers, einem Mikrofon o.ä. - zu einem zur Messung zur Verfügung stehenden Signal S(w, t) summiert. Das Signal besteht dann aus der Summe der Komponenten, <maths id="math0001" num=""><math display="block"><mrow><mi mathvariant="normal">S</mi><mfenced separators=","><mi mathvariant="normal">w</mi><mi mathvariant="normal">t</mi></mfenced><mo>=</mo><mi mathvariant="normal">x</mi><mfenced><mi mathvariant="normal">w</mi></mfenced><mi mathvariant="normal">H</mi><mfenced separators=","><mi mathvariant="normal">w</mi><mi mathvariant="normal">t</mi></mfenced><mo>+</mo><mi mathvariant="normal">x</mi><mfenced><mi mathvariant="normal">w</mi></mfenced><mi mathvariant="normal">F</mi><mfenced><mi mathvariant="normal">w</mi></mfenced><mn mathvariant="normal">.</mn></mrow></math><img id="ib0001" file="imgb0001.tif" wi="61" he="5" img-content="math" img-format="tif"/></maths></p>
<p id="p0031" num="0031">Es können nun die Signalteile vom zeitinvarianten und vom zeitvarianten Signalpfad getrennt werden, indem entweder alle Signalanteile, die sich zeitlich ändern, bzw. zeitlich konstant sind, gedämpft werden. Man erhält also beispielsweise als Ergebnis nur den zeit-varianten Anteil S1(w, t)~x(w)H(w, t).</p>
<p id="p0032" num="0032">Bei der Anwendung für Sprache mit EL überlagert der unartikulierte Signalanteil x(w)F(w) (also das Grundgeräusch des EL) das zeitvariante Sprachsignal x(w)H(w, t) und bewirkt dadurch einen Verständlichkeitsverlust für das Sprachsignal. Die Sprachverständlichkeit wird verbessert, indem der zeitvariante Signalanteil vom zeitinvarianten Signalanteil getrennt wird.</p>
<p id="p0033" num="0033"><figref idref="f0002">Fig. 3</figref> zeigt eine mögliche Umsetzung der erfindungsgemäßen Methode. Dabei kann am Eingang ein beliebiges digitales Sprachsignal 9 von einem Sprecher mit EL anliegen. In einem ersten Schritt 10 wird unter Anwendung der Kurzzeit-Fouriertransformation das Sprachsignal 9 blockweise in den Frequenzbereich transformiert und so in eine Reihe von Frequenzkanälen aufgeteilt. Der Fachmann kann hier aus verschiedenen etablierten Methoden zur Transformation eines Signals vom Zeit- in den Frequenzbereich wählen; neben der Fourier-Transformation findet beispielsweise auch die Diskrete Kosinustransformation Anwendung - Voraussetzung für eine erfindungsgemäße Anwendung ist allerdings, dass<!-- EPO <DP n="7"> --> die Transformation umkehrbar ist. Das Signal wird mit einer bestimmten Auffrischungsrate (z.B. 10ms) in Blöcke von beispielsweise 20 ms Länge aufgeteilt, die jeweils in eine Reihe von Frequenzkanälen 11 aufgefächert werden. Das ursprünglich einkanalige Sprachsignal 9 wird also in eine Vielzahl von Frequenzbereichen aufgespaltet, die sich als Folge der Zeit ändern. Das Frequenzsignal ist komplex, es wird aber in weiterer Folge nur der Absolutbetrag modifiziert, die Phase 15 bleibt unverändert.</p>
<p id="p0034" num="0034">In Schritt 10 kann auch eine Filterbank verwendet werden, wobei die Abtastrate des Signals nach der Filterbank reduziert wird. Das Reduzieren der Abtastrate entspricht dabei der Blockbildung bei Anwendung der Fourier-Transformation.</p>
<p id="p0035" num="0035">In einem weiteren Funktionsblock 12 wird nun jeder Frequenzkanal 11 gefiltert, beispielsweise mit einem Hochpass- bzw. Notchfilter. Diese Filterung erlaubt das Ausfiltern bestimmter Frequenzen - in der Tontechnik werden mit Notchfiltern schmalbandige Störungen beseitigt. Da der EL auf einer bestimmten Frequenz oszilliert - beispielsweise 100 Hz - ergibt das Störsignal, das nicht durch die Artikulationsorgane eines Sprechers verändert ist, im Frequenzbereich Amplituden im 100 Hz-Kanal mit der Modulationsfrequenz 0 Hz - d.h., dass sich die Amplitude des EL-Signals nicht ändert. Das Störsignal ist dadurch gekennzeichnet, dass es perfekt zeitlich invariant ist. Zur Filterung des Grundgeräuschs des EL werden ein Notch- bzw. ein Hochpassfilter verwendet. Als Grenzfrequenz für das Hochpassfilter dient dabei die Modulationsfrequenz des EL; das Notchfilter wird so gewählt, dass es genau bei der Modulationsfrequenz des EL sperrt.</p>
<p id="p0036" num="0036">In der realen Umsetzung wird natürlich eine perfekte zeitliche Invarianz aufgrund von Reflexionen, Brechungen, Umgebungsgeräuschen und baulicher Notwendigkeiten des EL nicht erreichbar sein. Da allerdings auch das Filter nicht auf nur eine Frequenz eingeschränkt ist, sondern einen bestimmten Frequenzbereich - in diesem Fall einen Modulationsfrequenzbereich - abdeckt, ist die Funktion der erfindungsgemäßen Methode sichergestellt.</p>
<p id="p0037" num="0037">In einem abschließenden Funktionsblock 13 erfolgt die Rückführung der Signale in den Zeitbereich, beispielsweise mittels inverser Fourier-Transformation und die Zusammenführung der Frequenzkanäle 11 zurück in einen Kanal mittels overlap-add. Das overlap-add Verfahren ist dabei ein dem Fachmann bekanntes Verfahren aus der digitalen Signalverarbeitung. Ergebnis ist ein einkanaliges Ausgangssignal 14, in dem das Störsignal des EL ausgefiltert oder zumindest gedämpft ist. Das Ausgangssignal kann dann weiter verarbeitet werden.<!-- EPO <DP n="8"> --></p>
<p id="p0038" num="0038">Bei Anwendung einer Filterbank in Schritt 10 wird die Abtastrate des Signals nach der Filterung in Schritt 12 wieder erhöht und dann wie geschildert weiterbehandelt.</p>
<p id="p0039" num="0039">Grundsätzlich stellen diese Ausführungen nur die wichtigsten Bestandteile der erfindungsgemäßen Methode dar; vor der Filterung im Block 12 kann das Signal komprimiert werden, nach der Filterung kann eine Dekomprimierung vorgesehen sein. Auch eine Gleichrichtung vor der Rücktransformation in den Zeitbereich kann günstig sein, da bei der Bearbeitung unerlaubte negative Werte entstehen können.</p>
<p id="p0040" num="0040">Die Erfindung kann beispielsweise als Zusatzgerät zum Telefonieren verwendet werden. Bei einem herkömmlichen analogen Telefon wird das Gerät einfach in den Hörer integriert. Bei einem Telefon mit integriertem Digitalem Signal Prozessor ist die Integration der Erfindung durch ein Software-Plugin möglich. Auch die Realisierung im Rahmen einer fest verdrahteten Lösung, z.B. auch in einer Analogschaltung, ist möglich.</p>
<p id="p0041" num="0041">Die erfindungsgemäße Methode ist auch bei Verwendung eines EL einsetzbar, bei dem zwischen zwei oder mehr Frequenzen hin- und hergeschaltet werden kann um der Sprache einen realistischeren Klang zu geben. Das gilt sowohl für diskrete Frequenzsprünge als auch für kontinuierliche Änderungen der Grundfrequenz unter der Annahme, dass die Frequenzen, zwischen denen gewechselt wird, innerhalb eines Frequenzbandes liegen, in das das Grundsignal aufgeteilt wird.</p>
<p id="p0042" num="0042">Die Breite des Modulationsfrequenzfilters bestimmt dabei, wie schnell sich die Frequenz ändern darf. Bei sehr langsamen, kontinuierlichen Änderungen kann sich die Frequenz bei funktionierender Unterdrückung über den gesamten Bereich des Frequenzbandes ändern - ausschlaggebend ist nicht die Größe, sondern die Geschwindigkeit der Änderung. Beim Ein- und Ausschalten des EL, das einer schnellen Änderungen entspricht, greift die Unterdrückung erst nach einigen Millisekunden - abhängig davon, wie breit das Notchfilter gewählt ist bzw. wo die Grundfrequenz des Hochpassfilters liegt.</p>
<p id="p0043" num="0043">Dabei dürfen allerdings die Änderungen der Grundfrequenz nicht zu groß sein. Um die erfindungsgemäße Funktion sicher zu stellen, müssten beispielsweise die Frequenzkanäle, in die das Signal aufgeteilt wird, erweitert werden, bzw. die Filterung mittels Hochpassfilter müsste an einer etwas höheren Frequenz ansetzen.</p>
</description>
<claims id="claims01" lang="de"><!-- EPO <DP n="9"> -->
<claim id="c-de-01-0001" num="0001">
<claim-text>Verfahren zur Verbesserung der Sprachqualität eines Elektro-Larynx (EL) Sprechers, dessen Sprachsignal S(w,t) über geeignete Mittel digitalisiert wird, <b>gekennzeichnet durch</b> die folgenden Schritte:
<claim-text>a) Aufteilen eines einkanaligen Sprachsignals S(w,t), das aus der Summe der Komponenten eines zeitvarianten Anteils x(w)H(w,t) und eines zeitinvarianten Anteils x(w)F(w) besteht, in eine Reihe von Frequenzkanälen <b>durch</b> Überführen vom Zeitbereich in einen diskreten Frequenzbereich,</claim-text>
<claim-text>b) Herausfiltern des zeitinvarianten Anteils x(w)F(w) <b>durch</b> Herausfiltern der Modulationsfrequenz 0 Hz mittels eines Hochpass- bzw. Notchfilters in jedem Frequenzkanal und</claim-text>
<claim-text>c) Rücktransformieren des gefilterten Sprachsignals vom Frequenzbereich in den Zeitbereich und Zusammenführen zu einem einkanaligen Ausgangssignal.</claim-text></claim-text></claim>
<claim id="c-de-01-0002" num="0002">
<claim-text>Verfahren nach Anspruch 1, <b>dadurch gekennzeichnet, dass</b> die Überführung des Sprachsignals in Schritt a) mittels Fourier-Transformation und die Rücktransformation in Schritt c) mittels inverser Fourier-Transformation erfolgt.</claim-text></claim>
<claim id="c-de-01-0003" num="0003">
<claim-text>Verfahren nach Anspruch 1, <b>dadurch gekennzeichnet, dass</b> die Überführung des Sprachsignals in Schritt a) und die Synthese der Frequenzkanäle in Schritt c) mit einer Filterbank erfolgt.</claim-text></claim>
<claim id="c-de-01-0004" num="0004">
<claim-text>Verfahren nach einem der Ansprüche 1 bis 3, <b>dadurch gekennzeichnet, dass</b> vor der Filterung in Schritt b) eine Signal-Kompression erfolgt und nach Schritt b) eine Dekompression erfolgt.</claim-text></claim>
<claim id="c-de-01-0005" num="0005">
<claim-text>Verfahren nach einem der Ansprüche 1 bis 4, <b>dadurch gekennzeichnet, dass</b> vor der Rücktransformation in Schritt c) eine Gleichrichtung der negativen Signalkomponenten erfolgt.</claim-text></claim>
</claims>
<claims id="claims02" lang="en"><!-- EPO <DP n="10"> -->
<claim id="c-en-01-0001" num="0001">
<claim-text>Method for improving the speech quality of an electric larynx (EL) speaker, whose speech signal S(w,t) is digitised by suitable means, <b>characterised by</b> the following steps:
<claim-text>a) dividing a single-channel speech signal S(w,t), which consists of the sum of the compounds of a time variant signal x(w)H(w,t) and a time-invariant signal x(w)F(w), into a series of frequency channels by transforming it from a time domain into a discrete frequency domain,</claim-text>
<claim-text>b) filtering out the time-invariant signal x(w)F(w) by filtering out the modulation frequency 0 Hz by means of a high-pass or notch filter in each frequency channel, and</claim-text>
<claim-text>c) back-transforming the filtered speech signal from the frequency domain into the time domain and combining it into a single-channel output signal.</claim-text></claim-text></claim>
<claim id="c-en-01-0002" num="0002">
<claim-text>Method according to claim 1, <b>characterised in that</b> the transforming of the speech signal in step a) is carried out by means of a Fourier transformation and the back-transformation in step c) is carried out by means of an inverse Fourier transformation.</claim-text></claim>
<claim id="c-en-01-0003" num="0003">
<claim-text>Method according to claim 1, <b>characterised in that</b> the transformation of the speech signal in step a) and the synthesis of the frequency channels in step c) is carried out with a corresponding filter bank.</claim-text></claim>
<claim id="c-en-01-0004" num="0004">
<claim-text>Method according to one of claims 1 to 3, <b>characterised in that</b> before the filtering in step b) a signal compression is carried out, and after step b) a decompression is carried out.</claim-text></claim>
<claim id="c-en-01-0005" num="0005">
<claim-text>Method according to one of claims 1 to 4, <b>characterised in that</b> before the back-transformation in step c) a rectification of the negative signal components is carried out.</claim-text></claim>
</claims>
<claims id="claims03" lang="fr"><!-- EPO <DP n="11"> -->
<claim id="c-fr-01-0001" num="0001">
<claim-text>Procédé d'amélioration de la qualité vocale d'un appareil phonatoire du type électro-larynx (EL), dont le signal vocal S(w,t) est numérisé par des moyens appropriés, <b>caractérisé par</b> les étapes suivantes :
<claim-text>a) subdivision d'un signal vocal S(w,t) mono-canal, qui est constitué de la somme des composantes d'une fraction variable dans le temps x(w)H(w,t), et d'une fraction invariable dans le temps x(w)F(w), en une série de canaux de fréquences, par la conversion du domaine temporel à un domaine discret de fréquences,</claim-text>
<claim-text>b) filtrage de la fraction invariable dans le temps x(w)F(w) par filtrage de la fréquence de modulation 0 Hz au moyen d'un filtre passe-haut ou filtre coupe-bande à bande étroite dit filtre 'notch' dans chaque canal de fréquence, et</claim-text>
<claim-text>c) transformation retour du signal vocal filtré, du domaine de fréquences au domaine temporel, et réunification en un signal de sortie mono-canal.</claim-text></claim-text></claim>
<claim id="c-fr-01-0002" num="0002">
<claim-text>Procédé selon la revendication 1, <b>caractérisé en ce que</b> la conversion du signal vocal dans l'étape a) s'effectue par une transformation de Fourier, et la transformation retour dans l'étape c) s'effectue par une transformation de Fourier inverse.</claim-text></claim>
<claim id="c-fr-01-0003" num="0003">
<claim-text>Procédé selon la revendication 1, <b>caractérisé en ce que</b> la conversion du signal vocal dans l'étape a) et la synthèse des canaux de fréquences dans l'étape c), s'effectue à l'aide d'une banque de filtres.</claim-text></claim>
<claim id="c-fr-01-0004" num="0004">
<claim-text>Procédé selon l'une des revendications 1 à 3, <b>caractérisé en ce qu'</b>une compression de signal est effectuée avant le filtrage dans l'étape b), et une décompression est effectuée après l'étape b).<!-- EPO <DP n="12"> --></claim-text></claim>
<claim id="c-fr-01-0005" num="0005">
<claim-text>Procédé selon l'une des revendications 1 à 4, <b>caractérisé en ce qu'</b>un redressement des composantes de signal négatives est effectué avant la transformation retour dans l'étape c).</claim-text></claim>
</claims>
<drawings id="draw" lang="de"><!-- EPO <DP n="13"> -->
<figure id="f0001" num="1,2"><img id="if0001" file="imgf0001.tif" wi="154" he="220" img-content="drawing" img-format="tif"/></figure><!-- EPO <DP n="14"> -->
<figure id="f0002" num="3"><img id="if0002" file="imgf0002.tif" wi="146" he="86" img-content="drawing" img-format="tif"/></figure>
</drawings>
<ep-reference-list id="ref-list">
<heading id="ref-h0001"><b>IN DER BESCHREIBUNG AUFGEFÜHRTE DOKUMENTE</b></heading>
<p id="ref-p0001" num=""><i>Diese Liste der vom Anmelder aufgeführten Dokumente wurde ausschließlich zur Information des Lesers aufgenommen und ist nicht Bestandteil des europäischen Patentdokumentes. Sie wurde mit größter Sorgfalt zusammengestellt; das EPA übernimmt jedoch keinerlei Haftung für etwaige Fehler oder Auslassungen.</i></p>
<heading id="ref-h0002"><b>In der Beschreibung aufgeführte Patentdokumente</b></heading>
<p id="ref-p0002" num="">
<ul id="ref-ul0001" list-style="bullet">
<li><patcit id="ref-pcit0001" dnum="US6359988B1"><document-id><country>US</country><doc-number>6359988</doc-number><kind>B1</kind></document-id></patcit><crossref idref="pcit0001">[0005]</crossref></li>
<li><patcit id="ref-pcit0002" dnum="US6975984B2"><document-id><country>US</country><doc-number>6975984</doc-number><kind>B2</kind></document-id></patcit><crossref idref="pcit0002">[0006]</crossref></li>
<li><patcit id="ref-pcit0003" dnum="US20050004604A1"><document-id><country>US</country><doc-number>20050004604</doc-number><kind>A1</kind></document-id></patcit><crossref idref="pcit0003">[0012]</crossref></li>
<li><patcit id="ref-pcit0004" dnum="WO2006099670A1"><document-id><country>WO</country><doc-number>2006099670</doc-number><kind>A1</kind></document-id></patcit><crossref idref="pcit0004">[0013]</crossref></li>
</ul></p>
<heading id="ref-h0003"><b>In der Beschreibung aufgeführte Nicht-Patentliteratur</b></heading>
<p id="ref-p0003" num="">
<ul id="ref-ul0002" list-style="bullet">
<li><nplcit id="ref-ncit0001" npl-type="s"><article><author><name>CAROL Y. ESPY-WILSON et al.</name></author><atl>Enhancement of Electrolaryngeal Speech by Adaptive Filtering</atl><serial><sertitle>JSLHR</sertitle><pubdate><sdate>19980000</sdate><edate/></pubdate><vid>41</vid></serial><location><pp><ppf>1253</ppf><ppl>1264</ppl></pp></location></article></nplcit><crossref idref="ncit0001">[0007]</crossref></li>
<li><nplcit id="ref-ncit0002" npl-type="s"><article><author><name>HANJUN LIU et al.</name></author><atl>Enhancement of Electrolarynx Speech Based on Auditory Masking</atl><serial><sertitle>IEEE Transactions on Biomedical Engineering</sertitle><pubdate><sdate>20060000</sdate><edate/></pubdate><vid>53</vid><ino>5</ino></serial><location><pp><ppf>865</ppf><ppl>874</ppl></pp></location></article></nplcit><crossref idref="ncit0002">[0008]</crossref></li>
</ul></p>
</ep-reference-list>
</ep-patent-document>
