[0001] Le domaine de l'invention concerne un procédé de traitement algorithmique de signaux
pour la spatialisation sonore permettant l'amélioration de la localisation des positions
virtuelles d'origine des signaux sonores. Par la suite, on utilisera le terme spatialisation
sonore ou son 3D. L'invention s'applique notamment aux systèmes de spatialisation
compatibles avec un équipement modulaire avionique de traitement de l'information
de type IMA (abréviation de l'expression anglo-saxon « Integrated Modular Avionics
») appelé encore EMTI (pour Equipement Modulaire de Traitement de l'Information).
[0002] Dans le domaine de l'aéronautique embarqué et notamment dans le domaine militaire,
la majorité des réflexions débouche sur le besoin d'un visuel tête haute, qui peut
être un casque porté par la tête, associé à une visualisation de très grand format
présentée en tête basse. Cet ensemble doit permettre d'améliorer la perception de
la situation globale (« situation awareness ») tout en réduisant la charge du pilote
grâce à une présentation d'une synthèse en temps réel des informations issues de sources
multiples (senseurs, base de données).
[0003] Le son 3D s'inscrit dans la même approche que le visuel de casque en permettant aux
pilotes d'acquérir des informations de situation spatiale dans son repère propre par
un canal de communication autre que le visuel en suivant une modalité naturelle moins
chargée que la vue.
[0004] Typiquement dans le cadre d'applications aéronautiques militaires, les avions d'armes
comportent des systèmes de détection de menaces, comme un accrochage radar par un
aéronef ennemi ou un risque de collision, associés à des systèmes de visualisation
à l'intérieur du cockpit. Ces systèmes alertent le pilote des menaces dans son environnement,
par affichage sur une visualisation combiné à un signal sonore. Les techniques de
son 3D fournissent une indication de localisation de la menace par le canal d'entrée
de l'ouïe, non surchargé et intuitif. Le pilote est ainsi informé de la menace au
moyen d'un son spatialisé dans la direction correspondante à l'information.
[0005] Pour les applications aéronautiques embarquées, un système de spatialisation du son
consiste en un système de calcul réalisant des traitements algorithmiques sur les
signaux sonores. L'encombrement des cockpits d'aéronef limite l'intégration d'équipements
audio et par conséquent les systèmes de réseaux de haut-parleurs multiples et/ou de
haut-parleurs mobiles permettant une spatialisation sans traitement algorithmique
sont peu utilisés pour la restitution de sons 3D.
[0006] Différents traitements algorithmiques de spatialisation de son sont aujourd'hui utilisés
pour simuler le positionnement des sons dans l'environnement d'un individu :
- les techniques de génération de signaux binauraux sont basées sur la différence de
niveau sonore (ILD en langage anglo-saxon pour « Interaural Level Difference ») entre
les récepteurs auditifs d'un individu et sur la différence temporelle de réception
des signaux sonores (ITD pour Interaural Time difference ») entre ces mêmes récepteurs.
La figure 1 illustre une série de courbes représentant les différences de niveau sonore
en fonction des fréquences du son pour un auditeur selon la position des sources sonores.
Pour un son A1 au devant de l'auditeur, la courbe c1 représente la courbe du son en
fonction des fréquences. La courbe c2 correspond au son A2 et la courbe c3 correspond
au son A3.
- les techniques complémentaires de génération de signaux monauraux font varier le spectre
de l'onde sonore en fonction de sa position en lui appliquant la fonction de transfert
anatomique de l'individu (HRTF, pour « Head Related Transfer Functions » en langage
anglo-saxon). La fonction de transfert anatomique incorpore les effets de dispersion
secondaire tels les oreilles externes, les épaules, la forme du crâne, etc... La prise
en compte de la HRTF permet d'augmenter la sensibilité à l'élévation d'un son ainsi
que la discrimination avant-arrière. A titre d'exemple, la figure 2 représente une
série de courbes HRTF pour différentes positions de la source sonore. La courbe c11
représente la fonction HRTF pour le son localisé en A11. La courbe c12 représente
la fonction HRTF pour le son localisé en A12. La courbe c13 représente la courbe HRTF
pour le son localisé en A13.
[0007] L'homme du métier connaît bien ces techniques de spatialisation du son, qui ne font
pas l'objet de l'invention. Toutefois à titre d'information, on peut citer les ouvrages
« Adaptative 3D sound systems » par John Garas, aux éditions Kluwer Academic Publishers,
et « Signals, Sound, and Sensation » par Bill Hartmann aux éditions AIP Press décrivant
ces dernières techniques.
[0008] On connaît également le brevet
WO 2004/006624 A1 décrivant un système de son 3D avionique mettant à profit, pour augmenter la détection
de la position du son, l'utilisation d'une base de données HRTF.
[0009] Les systèmes actuels de spatialisation du son présentent des limitations de performance
en localisation et souvent l'inconvénient d'une localisation de la source sonore ambigüe.
En particulier, les performances de localisation d'un son joué devant un auditeur
d'un son joué derrière un auditeur, et de la même façon, en élévation restent variables
d'un individu à l'autre et globalement insuffisantes.
[0010] Des études scientifiques ont montré l'apport des signaux dynamiques à la localisation
en élévation et avant - arrière. On appelle signal dynamique un signal sonore qui
n'a pas une localisation constante par rapport à l'individu. Ces travaux se sont inspirés
de certains animaux réputés pour leurs capacités auditives, notamment les félins qui
bougent leurs récepteurs auditifs pour localiser les sources sonores. Pour illustrer
les différents travaux menés sur les signaux dynamiques chez l'humain, on peut notamment
citer
H. Wallach avec "The role of head movements and vestibular and visual eues in sound
localization", J. Exp. Psychol. Vol. 27, 1940, pages. 339-368,
W.R. Thurlow et P.S. Runge avec "Effects of induced head movements on localisation
of direct sound", The Journal of the Acoustical Society of America., Vol. 42, 1967,
pages. 480-487 / 489-493 et
S. Perrett et W. Noble avec "The effect of head rotations on vertical plane sound
localization", The Journal of the Acoustical Society of America., Vol. 102, 1997,
pages. 2325-2332.
[0011] L'article, "
Resolution of front-back ambiguity in spatial hearing by listener and source movement",
de F.L. Wightman et D.J. Kistler, paru dans The Journal of the Acoustical Society
of America, Volume 105, Issue 5, pages. 2841-2853 en mai 1999, synthétise les travaux menés depuis cinquante ans sur l'apport des signaux dynamiques
dans la localisation des sons. Cette étude montre de façon empirique que le déplacement
du sujet, mouvement de tête par exemple, diminue la confusion en localisation avant
et arrière, que le déplacement multidirectionnel de la source à l'initiative d'un
sujet contraint à rester immobile diminue la confusion en localisation avant et arrière
et le déplacement continu monodirectionnel de la source par une action extérieure
au sujet, non commandable par le sujet, ne diminue pas significativement la confusion
en localisation avant-arrière.
[0012] Cependant, dans le domaine de l'aéronautique et particulièrement pour les pilotes,
il n'est pas toujours possible de bouger sa tête suffisamment à cause de l'espace
de débattement restreint des cockpits et des systèmes électroniques intégrés au casque.
La tâche du pilote, nécessitant sa pleine concentration sur les systèmes et son champ
de vision, est également un facteur de contrainte aux mouvements. Les forts facteurs
de charge sous accélération limitent eux aussi les mouvements du pilote et en particulier
de sa tête.
[0013] La présente invention a pour but d'éviter les ambiguïtés de localisation d'une source
sonore.
[0014] Plus précisément, l'invention concerne un procédé de traitement algorithmique de
signaux pour la spatialisation sonore permettant d'associer des signaux sonores à
des informations devant être localisées par un auditeur. Les signaux sonores spatialisés
sont définis par une position virtuelle d'origine correspondant à la position de l'information,
le procédé est
caractérisé en ce que, par traitement algorithmique, on applique à un signal sonore spatialisé un mouvement
décrivant une suite de positions virtuelles dudit signal autour de la position virtuelle
d'origine de l'information.
[0015] De préférence, le mouvement autour de la position virtuelle d'origine de l'information
est de type oscillatoire.
[0016] Dans un second mode de calcul, le mouvement autour de la position virtuelle d'origine
de l'information est de type Aléatoire.
[0017] Cette solution d'amélioration de la localisation des sons 3D se destine particulièrement
pour les auditeurs sujets à des contraintes de mouvement et de charges de travail.
De manière naturelle, un auditeur donne du mouvement à ses récepteurs auditifs pour
mieux localiser un son. L'invention permet à l'auditeur de rester immobile. En effet,
la position virtuelle d'origine étant la position spatialisée du son, le mouvement
de la source sonore autour de cette position fournit des informations de localisation
meilleures que celles d'un mouvement continu monodirectionnel.
[0018] Pour les applications aéronautiques, le système de spatialisation peut également
être couplé avec un dispositif de détection de position de casque du pilote. Avantageusement,
le mouvement est alors corrélé à l'angle d'écart entre la direction d'écoute de l'auditeur
et la position virtuelle d'origine dudit signal sonore. Le mouvement varie alors en
fonction de l'orientation du pilote vis-à-vis de l'information à détecter qui est
associée au signal sonore.
[0019] De préférence, l'amplitude du mouvement est corrélée à la valeur dudit angle d'écart
et l'orientation du mouvement est également corrélée à l'orientation du plan dudit
angle d'écart. Le pilote reçoit ainsi une information lui indiquant s'il s'oriente
dans le sens de l'information à acquérir.
[0020] De plus, durant le mouvement du signal spatialisé, on applique également une loi
de variation de l'intensité sonore sur le signal spatialisé où :
- l'intensité sonore est comprise entre un niveau maximal et un niveau minimal.
- le niveau est maximal lorsque le signal sonore correspond à la position virtuelle
d'origine.
- le niveau est minimal pour les positions extrêmes du mouvement oscillatoire.
[0021] Cet effet de spatialisation du son simule un mouvement du signal sonore convergeant
vers la position virtuelle d'origine de l'information. Cet effet dynamique améliore
la détection du son.
[0022] L'invention concerne également le système de traitement algorithmique de signaux
pour la spatialisation sonore comprenant un premier moyen de calcul de spatialisation
sonore permettant d'associer des signaux sonores à des informations devant être localisées
par un auditeur. Ledit système est
caractérisé en ce qu'il comporte un second moyen de calcul de trajectoire fournissant des données permettant
au premier moyen de calcul de spatialisation d'appliquer un mouvement à un signal
sonore spatialisé autour de sa position virtuelle d'origine. Ce mouvement du signal
sonore est de préférence oscillatoire.
[0023] Le système comporte également un troisième moyen de calcul d'au moins une loi de
variation de l'intensité d'un signal sonore pour modifier l'intensité du signal sonore
spatialisé durant le mouvement oscillatoire.
[0024] De préférence, il comporte également un moyen de réception de données de position
et le second moyen de calcul de trajectoire calcule l'écart de distance entre la position
virtuelle d'origine de la source sonore et la position fournie par le moyen de réception
et calcule un mouvement en corrélation avec ledit écart de distance.
[0025] Dans un premier mode de mise en oeuvre, le moyen de réception de données de position
est relié à un détecteur de position de casque porté par un auditeur.
[0026] Dans un second mode de mise en oeuvre, le moyen de réception de données de position
est relié à une caméra détectant le positionnement de l'auditeur. Cette caméra n'est
pas portée par l'auditeur.
[0027] Dans un mode d'application aéronautique, les signaux sonores proviennent d'une base
de données sonores de l'aéronef et les dits signaux sonores sont associés à des informations
d'au moins un dispositif avionique.
[0028] Un premier dispositif avionique est un dispositif de visualisation.
[0029] Un deuxième dispositif avionique est un dispositif de navigation.
[0030] Un troisième dispositif avionique est un dispositif d'alertes.
[0031] L'invention sera mieux comprise et d'autres avantages apparaîtront à la lecture de
la description qui va suivre donnée à titre non limitatif et grâce aux figures annexées
parmi lesquelles :
La figure 3 représente le système de spatialisation pour un système informatique.
L'exemple s'applique notamment à un système avionique.
La figure 4 illustre une situation d'alerte dans un cockpit d'aéronef et une application
du système de spatialisation du son.
La figure 5 représente une application aéronautique du système de spatialisation et
notamment l'oscillation d'un signal sonore autour d'une position virtuelle d'origine.
Ce schéma illustre la variation du mouvement d'oscillation en fonction de la position
du pilote vis-à-vis de la position virtuelle d'origine du signal sonore et la variation
d'intensité du signal en fonction de la position virtuelle du signal sonore dans le
mouvement oscillatoire.
La figure 6 illustre la différence temporelle d'arrivée des sons au niveau des oreilles
d'un auditeur selon la position des sons.
La figure 7 représente l'effet simulé par la variation de l'intensité sonore sur le
mouvement oscillatoire.
[0032] L'invention concerne les systèmes de spatialisation du son et un procédé d'amélioration
de la localisation d'un son dans l'environnement d'un auditeur. Les résultats obtenus
par méthode empirique montre qu'un individu détecte plus facilement l'origine d'un
son lorsque celui est en mouvement. Les travaux précités montrent des meilleurs résultats
dans les tests de localisation avec un son en mouvement continu. La caractéristique
essentielle du procédé de spatialisation est de conférer un mouvement oscillatoire
à un son autour de sa position virtuelle d'origine.
[0033] Les besoins dans le domaine de l'aéronautique, notamment pour les interfaces homme
machine en ce qui concerne le cockpit, plébiscitent particulièrement les techniques
de spatialisation du son pour améliorer l'interaction des systèmes de pilotage avec
l'équipage. La complexité de ces systèmes, les multiples fonctions pour la navigation,
pour la gestion de la sécurité et pour les manoeuvres submergent le pilote d'informations.
Ces informations peuvent provenir des systèmes de visualisation, des indicateurs lumineux
d'alarmes, des systèmes d'interaction et également des copilotes et équipages navigant
pour les communications. Les techniques de son 3D permettent de fournir une indication
de la position d'une information. Ainsi le pilote peut mieux percevoir son origine,
sa priorité et la nature de l'action à donner en conséquence.
[0034] Au sein d'un cockpit d'aéronef, un système de spatialisation du son se situe à la
frontière entre les systèmes avioniques et l'interface homme machine. La figure 3
schématise un système de spatialisation dans un cockpit d'aéronef et particulièrement
dans un avion d'armes où le pilote porte un casque intégrant un dispositif 6 de détection
de position du casque. Ce type d'aéronef comporte plusieurs systèmes avioniques 7,
notamment des systèmes d'alartes 71 liés à la navigation permettant d'éviter les collisions
ainsi que des systèmes dédiés aux opérations militaires comme des dispositifs de détection
de cibles 72 et des dispositifs d'attaque de cible. Les systèmes avioniques peuvent
aussi inclure un dispositif 73 de météorologie. Ces systèmes sont le plus souvent
couplés à des dispositifs de visualisation. La figure 3 ne représente pas l'ensemble
des systèmes avioniques pouvant être associés avec le système de spatialisation. L'homme
du métier connaît les architectures avioniques et est capable de mettre en oeuvre
un système de spatialisation du son avec tout dispositif avionique émettant des informations
au pilote.
[0035] La figure 4 schématise une situation particulière montrant l'intérêt d'un système
spatialisé avec un système anticollision. Le champ de vision 24 du pilote aux commandes
de l'aéronef est orienté vers la gauche à un instant donné. Ce pilote dispose d'un
système de haut parleur 21 positionné à l'intérieur du casque au niveau de ses oreilles.
Le cockpit de l'aéronef comporte plusieurs visualisations 21-23 et le champ de vision
du pilote est orienté vers la visualisation 23. Par exemple, un évènement comme un
risque de collision avec le sol détecté par le système anticollision alerte le pilote
en affichant sur la visualisation 21 la situation à risque avec les données de navigation
à surveiller et les consignes de vol à établir. Le système émet également des alertes
sonores associées aux informations de l'écran. Le son spatialisé associé aux alertes
indique au pilote la localisation de l'information à prendre en compte et diminue
ainsi sa charge de travail mental grâce au stimulus audio donné par le système de
spatialisation. Le temps de réaction du pilote est ainsi réduit.
[0036] Un système de spatialisation du son 1 est généralement associé à un dispositif de
réception de son et un système de bases de données sonores 81 mémorisant des sons
préenregistrés, comme des messages d'alertes synthétisés, des sons de signalisation,
des sons d'applications logicielles ou des sons provenant de systèmes de communications
internes comme externes à l'aéronef. A titre d'exemple, la spatialisation des communications
audio donnent une information supplémentaire sur l'interlocuteur avec qui le pilote
est en communication.
[0037] Le système de restitution des sons 5 comporte les écouteurs à l'intérieur du casque
du pilote et comporte également le système de haut parleur du cockpit. Pour l'utilisation
des sons binauraux dans le système de spatialisation, le système de restitution des
sons doit être de type stéréophonique pour l'application des effets de différence
temporelle des signaux entre les haut-parleurs.
[0038] La sortie du module de spatialisation comporte également un dispositif de traitement
des signaux permettant d'ajouter des effets supplémentaires sur les signaux spatialisés,
comme des effets Trémolo ou effet Doppler par exemple.
[0039] Le moyen de calcul de spatialisation du son 2 réalise les traitements algorithmiques
des sons pour élaborer les signaux monauraux, réalisant la modification de l'intensité
sonore, les signaux binauraux, réalisant la modification de la phase des signaux pour
simuler un décalage temporel et la mise en oeuvre des fonctions de transfert anatomique
(HRTF).
[0040] Les signaux binauraux servent pour la localisation des sources sonores en azimut
et nécessitent un système de restitution stéréophonique. Parmi les signaux de type
binaural, les moyens de calcul établissent un traitement algorithmique permettant
de simuler une distance des sources sonores en modifiant le niveau sonore (ILD) et
un décalage temporel entre les sons (ITD).
[0041] Les signaux monauraux servent pour la localisation en élévation et pour distinguer
une source sonore positionnée au devant ou derrière l'auditeur. Les signaux monauraux
ne nécessitent pas de système de restitution stéréophonique. Le système de spatialisation
est connecté à une base de données HRTF 82 mémorisant les fonctions de transfert anatomique
des pilotes connus. Ces fonctions de transfert peuvent être sur mesures en pour chaque
pilote par une mesure individuelle. La base de données peut également comporter plusieurs
profils types anatomiques en vu d'être corrélés avec un pilote à la première utilisation
du système pour détecter le profil adapté. Cette manipulation est plus rapide que
la mesure individuelle.
[0042] L'homme du métier connaît les différentes techniques et algorithmes de traitement
des signaux élaborés par le moyen de calcul 2 pour la spatialisation sonore.
[0043] Pour la mise en oeuvre de l'invention, deux moyens fonctionnels 3 et 4 complètent
le moyen de calcul de spatialisation. Le premier moyen 3 a pour fonction de calculer
la trajectoire du mouvement oscillatoire devant être conféré au son spatialisé. Le
mouvement oscillatoire comporte une trajectoire pouvant varier en élévation et en
azimut par rapport à l'auditeur. La trajectoire oscillatoire est comprise dans une
plage angulaire dont le sommet de l'angle est centré sur l'auditeur. Pour une application
de cockpit d'aéronef comportant un détecteur de position 6 du casque du pilote, le
moyen de calcul 3 détermine un angle d'écart entre l'orientation du regard du pilote,
indirectement par la position du casque, et la position virtuelle d'origine du signal
sonore. La figure 5 schématise l'application de l'invention pour le calcul de la trajectoire
du mouvement oscillatoire. Le dessin de gauche représente le cas où l'orientation
du pilote est telle que la direction de son champ de vision 42 est fortement décorrélée
avec la direction 43 de son champ de vision si celui-ci était orienté vers la position
d'origine du signal sonore. L'angle d'écart 31 est calculé par le moyen de calcul
3. Cet angle d'écart peut être dans un plan variant en azimut et en élévation en fonction
de l'orientation 42 du champ de vision du pilote. Le moyen de calcul 3 élabore également
la trajectoire du mouvement oscillatoire 32 en fonction de cet angle d'écart 31.
[0044] La trajectoire du mouvement oscillatoire 32, ou 41 sur le dessin de droite de la
figure 5, est fonction de l'angle d'écart 31, ou 36. On définit les coordonnées de
la position virtuelle d'origine 33, par une coordonnée en azimut a1 et une coordonnée
en élévation e1. De préférence, la trajectoire du mouvement oscillatoire 32 est bidirectionnelle
et continue, réalisant ainsi un mouvement oscillatoire en aller-retour selon un arc
de cercle lié aux paliers angulaire 44 et 45. Toutefois, le moyen de calcul de trajectoire
peut définir une trajectoire pouvant être ovale ou d'une autre forme. La vitesse de
balayage de cette trajectoire est également configurable. Elle est de préférence supérieure
à la vitesse de déplacement de la tête avec une latence inférieure à 70 ms pour préserver
le naturel du son.
[0045] La loi définissant la trajectoire de déplacement dépend de paliers angulaires pouvant
être définis, à titre d'exemple non limitatif, de la façon suivante :
Si l'écart angulaire 31 est supérieur à 45°, la position angulaire par rapport au
regard du pilote varie de 15°.
Si l'écart angulaire 31 est compris entre 45° et 20°, la position angulaire par rapport
au regard du pilote varie de 10°.
S l'écart angulaire 31 est compris entre 20° et 10°, la position angulaire par rapport
au regard du pilote varie de 5°.
Si l'écart angulaire 31 est compris entre 10° et 0°, la position angulaire par rapport
au regard du pilote varie de 2°.
Lorsque l'écart angulaire 31 est égal à 0°, la source sonore ne bouge plus.
[0046] Lorsque la trajectoire du mouvement oscillatoire est déterminée par les paliers angulaires,
le processus de spatialisation calcule, par le moyen de calcul 2, la trajectoire du
mouvement oscillatoire 32 autour de la position virtuelle 33. Les angles calculés
sont utilisés par les fonctions de calcul de signaux monauraux et binauraux pour déterminer
la trajectoire 32 autour de la position virtuelle d'origine 33. Cette trajectoire
32 comporte une série de plusieurs positions virtuelles délimitée par deux positions
extrêmes 34 et 35. Ces deux positions extrêmes sont localisées selon les coordonnées
de la position d'origine 33 additionnées de paliers angulaires en azimut 44 et élévation
45. Les signaux ITD et ILD dépendent des angles en azimut et élévation.
[0047] Pour comprendre le fonctionnement du module de spatialisation 3, il est nécessaire
de définir dans un premier temps les signaux sonores. Dans une application aéronautique
de spatialisation du son, on définit un signal sonore comme une vibration perçue par
l'oreille humaine, décrit sous forme d'onde sonore et pouvant être représentée dans
le domaine temporel et fréquentiel (spectre de l'onde). Mathématiquement, un signal
sonore est définit par la formule (1):
où ai est l'amplitude de la ième harmonique, fi sa fréquence et Φ
i sa phase à l'origine
[0048] Calcul du délai temporel interaural (ITD) :
[0049] Les signaux ITD comportent une modification de phase afin de simuler une position
en azimut différente au moyen d'un décalage temporel du signal entre les oreilles
d'un auditeur. Une différence de phase ΔΦ correspond à un décalage temporel interaural
(ITD) de Δ
t = ΔΦ/(2π
f) pour un son de fréquence f.
Si l'on assimile la tête à une sphère et que l'on considère des formes d'ondes suffisamment
longues, le délai temporel interaural est égal à

où θ est l'angle azimutal, a le rayon de la tête, environ 8.75 cm, et C la célérité
du son, 344 m/s. Ainsi 3a/c = 763 µs environ.
La figure 6 représente le diagramme temporel du son pour chaque oreille pour différentes
positions de la source sonore. La source sonore A21 représente une première position
où la source sonore est du côté de l'oreille gauche de l'auditeur et la source sonore
A22 représente une deuxième position où la source sonore est du côté de l'oreille
droite de l'auditeur. La source sonore A21 est plus proche de l'auditeur que la source
A22 ne l'est.
Ainsi, si
S1(
t)
= f(
t) où f est la fonction définie dans la formule (1), alors
S2(
t) =
f(
t + Δ
t) (formule (2)) avec S1 le signal reçu sur l'oreille gauche et S2 le signal reçu sur
l'oreille droite.
Sur la ligne temporelle de S1(t), on représente à la fois le son SA21 de la source
sonore lorsqu'elle est en position A21 et à la fois le son SA22 lorsqu'elle est en
position A22. On représente de même pour la ligne S2(t).
Le son SA21 arrive plus tôt à l'oreille gauche que l'oreille droite car le son est
positionné du côté de l'oreille gauche.
Le son SA22 arrive plus tôt à l'oreille droite que l'oreille gauche car le son A22
est positionné du côté de l'oreille droite.
Sur une même échelle temporelle, le son SA21 arrive avant le son SA22 car la source
sonore A21 est plus proche de l'auditeur que la source A22 ne l'est.
[0050] Pour le calcul de la trajectoire 32 du mouvement oscillatoire autour de la position
virtuelle d'origine 33 et dans le cas où l'on assimile la tête à une sphère et où
l'on considère des formes d'ondes suffisamment longues, pour le calcul des signaux
ITD, le délai temporel interaural pour un azimut θ donné varie entre

et

sin(θ +
Palier angudaire), où θ est l'angle azimutal a1 sur la figure 5. Les valeurs d'angle évoluant dans
la plage de palier angulaire sont utilisées pour le calcul des différentes positions
virtuelles constituant la trajectoire 32. Ces valeurs sont injectées dans la formule
2. Les différentes valeurs d'angle comprises dans la plage de palier angulaire définissent
les différentes positions virtuelles composant la trajectoire du signal sonore. Les
sons doivent avoir une périodicité idéalement inférieure à 70 ms, afin d'éviter les
effets artificiels de traînée lorsque l'on tourne la tête. De la même façon, l'empreinte
sonore globale doit idéalement durer 250 ms au minimum.
Calcul des signaux ILD :
[0051] L'intensité sonore est différente entre l'oreille gauche et l'oreille droite d'un
auditeur. La différence de niveau sonore est variable selon un angle entre les deux
oreilles.
[0052] Le décalage en niveau sonore entre les deux oreilles varie entre la courbe ILD associée
à la position virtuelle d'origine 33 du signal sonore et la courbe ILD associée à
la position extrême du signal sonore sur la trajectoire de déplacement. Le décalage
sonore varie en fonction des paliers angulaires 44 et 45 (azimut et élévation). La
figure 1 illustre par exemple une loi d'intensité sonore pouvant être appliquée aux
sons.
[0053] La valeur des paliers angulaires 44 et 45 varie en fonction de l'orientation du pilote.
La loi de régulation des paliers citée précédemment montre que plus l'auditeur s'oriente
vers la position d'origine du signal sonore et plus la valeur des paliers angulaires
diminue, jusqu'à annulation des paliers pour une direction sensiblement égale à la
direction de la position virtuelle d'origine. Le dispositif de détection de position
6 transmet les coordonnées de position au moyen de calcul 3 et selon ces coordonnées
les paliers angulaires 44 et 45 diminueront ou augmenteront. Le schéma de droite de
la figure 3 correspond à une situation où l'orientation du pilote se rapproche de
la position virtuelle d'origine 33 du signal sonore. L'angle d'écart 36 est réduit
et par conséquent la nouvelle trajectoire 41 calculée par le module de calcul 2 est
d'amplitude plus faible, délimitée par les deux positions 36 et 37.
[0054] Les valeurs des HRTFs sont toujours utilisées à partir de la prédétermination faite
pour chaque sujet et décrite précédemment.
[0055] En plus des ILD, l'invention comporte également pour chaque sujet un moyen de calcul
4 de traitement du signal sonore en sortie du moyen de calcul 2 de spatialisation
du son. Ce module 4 réalise une variation de l'intensité sonore d'un signal sonore
en fonction des positions du son sur le mouvement oscillatoire.
[0056] De préférence, une loi de régulation du son linéaire est appliquée sur un son spatialisé
réalisant le mouvement oscillatoire de façon que l'intensité 39 du signal sonore soit
diminuée d'un nombre prédéfini de dB lorsque la position du signal sonore est localisée
à une position extrême du mouvement oscillatoire, ces positions correspondant, sur
la figure 3, aux positions 34 et 35 du mouvement oscillatoire 32, et l'intensité 40
du signal sonore est maximale lorsque la position du signal sonore est localisée sur
la position virtuelle d'origine 33 du signal sonore. Une loi de régression linéaire
peut par exemple déterminer les positions intermédiaires ayant un niveau d'intensité
sonore intermédiaire entre l'intensité maximale et l'intensité diminuée.
[0057] Comme représenté par la figure 7, le module de traitement du son permet :
- de simuler un éloignement par rapport à la position du signal sonore lorsque les positions
du signal sonore durant le mouvement oscillatoire se rapprochent d'une position extrême
du mouvement oscillatoire
- de simuler un rapprochement du signal sonore lorsque les positions du signal durant
le mouvement oscillatoire se rapprochent de la position virtuelle d'origine du son
spatialisé.
[0058] L'intensité du signal sonore est en effet moins forte pour un signal éloigné de sa
position réelle. Pour l'auditeur, cette variation de l'intensité simule une distance
51 entre l'auditeur et une position extrême du mouvement oscillatoire élevée. Tandis
que pour la position virtuelle d'origine, la distance 52 simulée est faible. La modification
de l'intensité simule une convergence spatiale du mouvement oscillatoire vers la position
d'origine. La loi de variation de l'intensité sonore peut être indépendante de l'écart
angulaire entre le regard du pilote et la direction de la source sonore. La variation
peut également être aléatoire, c'est à dire non continue entre la position d'origine
et les extrêmes.
[0059] De préférence, la durée d'un son est supérieure à 250 ms. Idéalement, la durée doit
même être supérieure à 5 s afin de profiter pleinement des signaux dynamiques associés.
[0060] Tout type de système de restitution du son peut être utilisé : un système comportant
un haut-parleur, un système comportant plusieurs haut-parleurs, un système de transducteurs
cartilagineux, un système à bouchons avec ou sans fils, etc...
[0061] Le procédé de spatialisation du son s'applique à tout type d'application dont les
besoins requièrent la localisation d'un son. Elle s'adresse particulièrement aux applications
associant un son à une information devant être prise en compte par un auditeur. Elle
s'applique au domaine de l'aéronautique pour l'interaction homme machine des systèmes
avioniques avec le pilote, pour des applications de simulateurs immergeant un individu
(système de réalité virtuelle par exemple ou simulateur avion) et également au domaine
automobile pour des systèmes devant alerter le conducteur d'un danger et fournir une
indication de l'origine du danger.
1. Procédé de traitement algorithmique de signaux pour la spatialisation sonore permettant
d'associer des signaux sonores à des informations devant être localisées par un auditeur,
les signaux sonores spatialisés étant définis par une position virtuelle d'origine
(33) correspondant à la position de l'information, caractérisé en ce que, par traitement algorithmique, on applique à un signal sonore spatialisé un mouvement
(32) décrivant une suite de positions virtuelles (33-35) dudit signal autour de la
position virtuelle d'origine de l'information (33) et en ce que durant le mouvement du signal spatialisé, on applique une loi de variation de l'intensité
sonore sur le signal spatialisé, l'intensité sonore étant comprise entre un niveau
maximal (40) et un niveau minimal (39), le niveau étant maximal lorsque le signal
sonore correspond à la position virtuelle d'origine (33) et le niveau étant minimal
pour les positions extrêmes (34 et 35) du mouvement (32).
2. Procédé selon la revendication 1, caractérisé en ce que le mouvement autour de la position virtuelle d'origine de l'information est de type
oscillatoire.
3. Procédé selon la revendication 1, caractérisé en ce que le mouvement autour de la position virtuelle d'origine de l'information est de type
Aléatoire.
4. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le mouvement est corrélé à l'angle d'écart (31) entre la direction (42) du regard
de l'auditeur et la position virtuelle d'origine (33) dudit signal sonore.
5. Procédé selon la revendication 4, caractérisé en ce que l'amplitude du mouvement oscillatoire est corrélée à la valeur dudit angle d'écart
(31).
6. Procédé selon la revendication 5, caractérisé en ce que l'orientation du mouvement oscillatoire (32) est corrélée à l'orientation du plan
dudit angle d'écart.
7. Système de traitement algorithmique de signaux pour la spatialisation sonore comprenant
un premier moyen de calcul (2) de spatialisation sonore permettant d'associer des
signaux sonores à des informations devant être localisées par un auditeur, les signaux
sonores spatialisés étant définis par une position virtuelle d'origine correspondant
à la position d'une information, ledit système étant caractérisé en ce qu'il comporte un second moyen de calcul de trajectoire (3) fournissant des données permettant
au premier moyen de calcul de spatialisation (2) d'appliquer un mouvement à un signal
sonore spatialisé autour de sa position virtuelle d'origine et en ce qu'il comporte un troisième moyen de calcul (4) d'au moins une loi de variation de l'intensité
d'un signal sonore pour modifier l'intensité du signal sonore spatialisé durant le
mouvement oscillatoire.
8. Système selon la revendication 7, caractérisé en ce qu'il comporte un moyen de réception de données de position et en ce que le second moyen de calcul de trajectoire (3) calcule l'angle d'écart entre la position
virtuelle d'origine de la source sonore et la position fournie par le moyen de réception
et calcule un mouvement oscillatoire en corrélation avec ledit écart de distance.
9. Système selon la revendication 8, caractérisé en ce que le moyen de réception de données de position est relié à un détecteur de position
de casque (6) porté par un auditeur.
10. Système selon la revendication 9, caractérisé en ce que le moyen de réception de données de position est relié à une caméra non portée par
l'auditeur détectant le positionnement de l'auditeur.
11. Système selon la revendication 10, caractérisé en ce que les signaux sonores proviennent d'une base de données sonores d'un aéronef et en ce que les dits signaux sonores sont associés à des informations d'au moins un dispositif
avionique (71-73).
12. Système selon la revendication 11, caractérisé en ce qu'un premier dispositif avionique est un dispositif de visualisation.
13. Système selon la revendication 12, caractérisé en ce qu'un deuxième dispositif avionique est un dispositif de navigation.
14. Système selon la revendication 13, caractérisé en ce qu'un troisième dispositif avionique est un dispositif d'alertes.