[0001] La présente invention se rapporte au domaine technique des méthodes et systèmes d'immersion,
et plus particulièrement aux méthodes et systèmes de réalité mixte dans le contexte
d'événements collectifs.
[0002] La présente invention concerne plus particulièrement les compétitions de modèles
réduits de véhicules nautiques, telles que par exemple les régates de voiliers radiocommandés.
[0003] Un événement est indéniablement plus excitant si on le vit en direct ou on y participe
réellement, dans la mesure où on peut interagir directement avec l'environnement où
se déroule cet événement. Cependant, pour diverses raisons, ce désir n'est toujours
pas physiquement réalisable. Des technologies de Médias immersifs visent à remédier
à cette limite. On cite ici, à titre d'exemples, la réalité augmentée, la réalité
virtuelle ou, plus récemment, la réalité mixte.
[0004] En intégrant en temps réel des éléments virtuels (générés par ordinateur) dans l'environnement
réel de l'utilisateur, la réalité augmentée permet d'augmenter le sens de l'utilisateur.
[0005] Par exemple, dans une compétition de véhicules nautiques radiocommandés, un parcours
de régate marqué par une ligne de départ, des bouées et une ligne d'arrivée virtuels
peuvent être superposés, dans une scène destinée à un utilisateur équipé d'un casque
de réalité augmentée, sur le plan d'eau réel de la compétition. Un contenu textuel
ou graphique peut également être superposé sur un véhicule nautique radiocommandé
réel, de sorte que ce contenu semble, pour l'utilisateur, exister dans le monde réel.
Pour que la scène augmentée soit cohérente, des capteurs sont généralement déployés
dans l'environnement réel et/ou directement sur les véhicules nautiques, pour détecter
en temps réel un changement dans la scène réelle et en aligner, en conséquence, les
objets virtuels qui y sont intégrés.
[0006] Le document
WO2008145980 (Sony) propose la création d'une réalité augmentée pour la commande à distance d'un jouet
télécommandé, intégrant une caméra vidéo configurée pour acquérir des images vidéo
de l'environnement réel. La scène affichée à l'utilisateur est augmentée par des entités
d'image virtuelles, générées en fonction d'entités d'image détectées dans les images
vidéo reçues de l'environnement réel.
[0007] Par ailleurs, la réalité virtuelle permet de constituer un environnement virtuel
immersif (un modèle 3D), correspondant à un environnement réel et avec lequel on peut
interagir en temps réel, au moyen d'un objet virtuel télécommandable. Le pilotage
d'un véhicule, tel qu'un drone virtuel, dans une reconstruction 3D d'une ville réelle
par immersion dans un cockpit, en est un exemple.
[0008] La réalité mixte, qui se situe à mi-chemin entre la réalité virtuelle et la réalité
augmentée, combine de manière cohérente des éléments réels et des éléments virtuels
avec lesquels l'utilisateur peut interagir simultanément.
[0009] Le document
US2006223637 (Ferraz) décrit un système pour la commande d'un véhicule jouet radiocommandé intégrant une
caméra vidéo, et un dispositif de commande apte à commander ce véhicule jouet et comprenant
un affichage visuel en temps réel du contenu vidéo capté par la caméra embarquée.
Une application logicielle fonctionnant sur le dispositif de commande permet de superposer,
sur l'affichage visuel des données de la caméra, des fonctions/moyens virtuels associés
au véhicule jouet radiocommandé (un système d'arme simulé commandable depuis le dispositif
de commande). Dans un scénario de jeu, deux utilisateurs pourvus, respectivement,
d'un dispositif de commande et d'un véhicule jouet (les deux véhicules étant réels
et disposés dans un même circuit) peuvent commander le déplacement de leurs véhicules
respectifs, ainsi que de cibler et commander le système d'arme virtuel en direction
du véhicule adverse.
[0010] Cependant, un événement collectif implique plusieurs intervenants (des joueurs, des
arbitres) et nécessite le plus souvent des moyens coûteux en temps et en argent.
[0011] Par exemple, la voile radiocommandée se pratique entre plusieurs compétiteurs, sur
des parcours de régates, suivant des règles officielles strictes. Il en résulte que
l'organisation d'un tel événement nécessite au minimum, outre le matériel requis,
deux ou trois arbitres qualifiés, un jaugeur et un mouilleur de bouées. Ces contraintes
compliquent cette organisation et limitent, par conséquent, le nombre des rencontres
et prive d'autres personnes de pouvoir y participer.
[0012] Les techniques de médias immersifs existantes ne peuvent pallier ces contraintes,
parce qu'elles permettent seulement de superposer dans un même affichage des objets
du monde physique et des objets du monde numérique, en ajoutant un objet d'un des
deux mondes dans l'autre monde, ces objets ne pouvant être manipulés que par les outils
du monde dont ils sont, respectivement, issus. Ceci a pour inconvénient que, malgré
le mixage apparent des deux mondes réel et virtuel, ces deux mondes demeurent parallèles,
sans interaction possible entre un objet réel et un objet virtuel.
[0013] L'absence, d'une part, d'interactions entre un objet virtuel et un objet réel, bien
qu'ils soient tous deux présents dans une même scène affichée à l'utilisateur et,
d'autre part, d'une assimilation des différents moyens de commande a pour effet de
limiter l'expérience d'immersion.
[0014] En effet, pour pouvoir interagir avec un objet qui lui est affiché, l'utilisateur
doit en permanence distinguer si cet objet est réel ou simulé, afin de sélectionner
le moyen de commande correspondant lui permettant d'interagir avec cet objet.
[0015] Un objet de la présente invention est d'améliorer l'effet d'immersion de la réalité
mixte appliquée aux événements collectifs.
[0016] Un autre objet de la présente invention est de proposer des méthodes et systèmes
permettant de réduire les ressources requises pour l'organisation d'un événement collectif
(ou collaboratif).
[0017] Un autre objet de la présente invention est de fournir en temps réel à un utilisateur
des scènes 3D intégrant des objets virtuels et des objets réels avec lesquels il peut
interagir indistinctement.
[0018] Un autre objet de la présente invention est d'améliorer l'expérience d'immersion
d'un utilisateur participant à distance à un environnement collectif.
[0019] Un autre objet de la présente invention est d'enrichir l'interactivité entre l'utilisateur
et des objets qui lui sont affichés dans une scène immersive.
[0020] Un autre objet de la présente invention est de permettre une coexistence cohérente
d'objets réels et d'objets virtuels dans une scène immersive d'un événement collectif.
[0021] A cet effet, il est proposé, selon un premier aspect, un système d'immersion pour
la gestion d'un événement collectif se déroulant dans un environnement prédéfini et
intégrant au moins un objet radiocommandé, ce système comprenant
- un dispositif de commande et/ou un équipement utilisateur de réalité augmentée, le
dispositif de commande permettant de commander à distance l'objet radiocommandé, l'équipement
utilisateur de réalité augmentée et le dispositif de commande étant mobiles dans l'environnement
de l'événement collectif;
- une pluralité de capteurs, déployés dans ledit environnement et/ou dans l'objet radiocommandé
;
- un serveur de réalité mixte configuré pour générer, à partir d'une première pluralité
de données récupérées depuis ladite pluralité de capteurs, une première scène de réalité
mixte intégrant l'objet radiocommandé et un objet virtuel prédéfini, ladite première
pluralité de données récupérées étant associée à une première position, dans l'environnement
de l'événement collectif, du dispositif de commande ;
- le dispositif de commande ou l'équipement utilisateur de réalité augmentée comprenant
un capteur de positionnement destiné à déterminer une deuxième position, dans l'environnement
de l'événement collectif, dudit dispositif de commande ou dudit équipement utilisateur
de réalité augmentée ;
- le serveur de réalité mixte étant, en outre, configuré pour générer, à partir d'une
deuxième pluralité de données récupérées depuis ladite pluralité de capteurs, une
deuxième scène de réalité mixte intégrant l'objet radiocommandé et l'objet virtuel
prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième
position.
[0022] Diverses caractéristiques supplémentaires peuvent être prévues, seules ou en combinaison
:
- le système d'immersion comprend un casque de réalité augmentée, ce casque comprenant
une boussole permettant de déterminer une première orientation dudit casque, le serveur
de réalité mixte étant, en outre, configuré pour générer, à partir d'une troisième
pluralité de données récupérées depuis ladite pluralité de capteurs, une troisième
scène de réalité mixte intégrant l'objet radiocommandé et l'objet virtuel prédéfini,
la troisième pluralité de données récupérées étant associée à la première orientation
;le serveur de réalité mixte est, en outre, configuré pour changer la destination
d'une commande destinée à l'objet radiocommandé ;
- le serveur de réalité mixte est, en outre, configuré pour changer la destination d'une
commande destinée à l'objet virtuel ;
- le capteur de positionnement est centimétrique ;
- le dispositif de commande communique avec l'objet radiocommandé par l'intermédiaire
du serveur de réalité mixte ;
- l'objet radiocommandé comprend un capteur inertiel et/ou un capteur de positionnement
;
- le système d'immersion comprend, en outre, un terminal utilisateur connecté au serveur
de réalité mixte et configuré pour commander l'objet virtuel ;
- l'objet radiocommandé est un véhicule nautique ;
- l'événement collectif est une compétition nautique.
[0023] D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement
et de manière concrète à la lecture de la description ci-après de modes de réalisation,
laquelle est faite en référence aux dessins annexés dans lesquels :
- la figure 1 illustre schématiquement un objet mobile radiocommandé ;
- la figure 2 illustre schématiquement un événement collectif comprenant une pluralité
d'objets virtuels et réels, selon divers modes de réalisation.
[0024] Il est représenté sur la figure 1 un objet radiocommandé
1. Dans cet exemple, l'objet mobile radiocommandé
1 est un véhicule nautique tel qu'un voilier. Ce voilier est, par exemple, de type
modélisme naval radiocommandé.
[0025] Bien entendu, l'exemple d'un véhicule nautique n'est en aucun cas limitatif de l'objet
radiocommandé
1 qui peut être tout autre dispositif réel radiocommandé en modèle réduit ou en grandeur
nature tel qu'un jouet radiocommandé, ou un véhicule radiocommandé. Par exemple, l'objet
radiocommandé
1 est, dans un mode de réalisation, un véhicule terrestre tel qu'une voiture radiocommandée
ou un véhicule aérien tel qu'un drone radiocommandé.
[0026] Le véhicule nautique comprend deux actionneurs (treuil ou servomoteur de préférence),
servant à la direction et à la propulsion (écoute de la ou des voile(s)). Le véhicule
nautique peut comprendre une machine à fumée, des ballasts, un moteur à hélice et
un système de foils rétractable dans la coque du véhicule nautique.
[0027] Le véhicule nautique comprend, en outre, une pluralité de capteurs inertiels, tel
qu'un accéléromètre, un gyroscope, un magnétomètre, ou une boussole. En variante,
le véhicule nautique comprend une centrale inertielle à neuf axes.
[0028] L'objet radiocommandé
1 comprend une pluralité de capteurs tels que des caméras, des microphones, des capteurs
de contact, un ou plusieurs capteurs de positionnement (notamment, un récepteur GPS),
une girouette, un compte-tours, ou un anémomètre. Le capteur de positionnement est,
dans un mode de réalisation, centimétrique de type « Rover » (ex : UBLOX NEO-M8P).
[0029] Le véhicule nautique comprend aussi un module de communication sans fil de type Bluetooth,
Wi-Fi, HiperLAN, LPWAN ou ZigBee. Ce module de communication sans fil est logé dans
un boîtier étanche, ou un système similaire le protégeant de l'eau (couche de silicone,
coffrage empêchant l'eau de rentrer en contact avec le système embarqué, même si le
véhicule nautique se retourne).
[0030] Ce module de communication sans fil est configuré pour communiquer, sur requête ou
non, des données mesurées par des capteurs embarqués dans l'objet radiocommandé
1.
[0031] Ce module de communication sans fil est apte à recevoir (depuis un dispositif de
commande ou autre) et transférer des instructions ou des données de configuration
destinées à un ou plusieurs capteurs embarqués dans l'objet radiocommandé
1.
[0032] L'objet radiocommandé
1 peut être utilisé dans un événement collectif, notamment une compétition telle qu'une
régate.
[0033] En se référant à la figure 2, il est représenté, à titre illustratif, un environnement
au sein duquel se déroule un événement collectif, à savoir une compétition nautique.
[0034] L'objet radiocommandé
1 est connecté, via son module de communication sans fil, à un serveur de réalité mixte
2. Le serveur de réalité mixte
2 dispose ainsi des données collectées par les capteurs embarqués dans l'objet radiocommandé
1.
[0035] Le serveur de réalité mixte
2 dispose, en outre, de données captées par des capteurs
3 déployés dans l'environnement de l'événement collectif.
[0036] Ces capteurs
3 comprennent, par exemples, des caméras, des capteurs de contact, un ou plusieurs
capteurs de positionnement, un anémomètre, une girouette.
[0037] L'anémomètre et la girouette sont, dans un mode de réalisation, disposés à minima
à 1,50m de hauteur par rapport au niveau du plan d'eau.
[0038] Un utilisateur (le skippeur), présent sur le lieu de l'événement collectif, est pourvu
d'un dispositif de commande
4 permettant de commander à distance l'objet radiocommandé
1. Le dispositif de commande
4 est mobile dans l'environnement de l'événement collectif. L'utilisateur équipé du
dispositif de commande
4 peut, ainsi, se déplacer librement au moins dans une partie de l'environnement de
l'événement collectif.
[0039] Le terminal de commande
4 est un ordinateur fixe/mobile, une télécommande, un smartphone, ou une tablette tactile
par exemple.
[0040] Dans un mode de réalisation, le dispositif de commande
4 communique avec l'objet radiocommandé
1 directement (en mode « entrainement » par exemple) ou par l'intermédiaire du serveur
de réalité mixte
2 (en mode « compétition »).
[0041] Dans un mode de réalisation, le dispositif de commande
4 est, en outre, apte à recevoir et à afficher un flux vidéo reçu depuis le serveur
de réalité mixte
2.
[0042] En variante ou en combinaison, l'utilisateur est pourvu d'un équipement utilisateur
de réalité augmentée, tel qu'un casque
5 ou des lunettes de réalité augmentée. Cet équipement est un dispositif que l'utilisateur
porte sur la tête (sous la forme d'un casque ou des lunettes) ou dans les mains (smartphone,
phablette, ou tablette). L'équipement utilisateur de réalité augmentée est connecté
au serveur de réalité mixte
2. Le casque
5 de réalité augmentée comprend, dans un mode de réalisation, un capteur de positionnement
(notamment, un récepteur GPS) permettant de localiser, au moins dans l'environnement
de l'évènement collectif, ce casque
5 de réalité augmentée.
[0043] Le serveur de réalité mixte
2 est apte à intégrer un ou plusieurs objets virtuels
6 prédéfinis à un contenu vidéo reçu depuis une caméra. Plus généralement, le serveur
de réalité mixte
2 est configuré pour générer, à partir des données récupérées depuis les capteurs déployés
dans l'environnement de l'évènement collectif et/ou dans l'objet radiocommandé
1, des scènes de réalité mixte intégrant l'objet radiocommandé
1 et/ou un ou plusieurs objets virtuels
6.
[0044] Dans un mode de réalisation, le serveur de réalité mixte
2 est connecté à une base de données d'objets virtuels.
[0045] Le dispositif de commande
4 et/ou l'équipement utilisateur de réalité augmentée (notamment, le casque
5 de réalité augmentée) comprennent un capteur de positionnement tel qu'un récepteur
GPS. Ce capteur de positionnement est, dans un mode de réalisation, centimétrique.
Ce capteur de positionnement permet de fournir les coordonnées précises du porteur
(joueur, arbitre, ou spectateur par exemples) lorsqu'il se déplace dans l'environnement
de l'événement collectif.
[0046] Le serveur de réalité mixte
2 est configuré pour générer (ou régénérer) une scène à l'intention du porteur (joueur,
arbitre, spectateur ou, plus généralement, l'utilisateur) du dispositif de commande
4 et/ou de l'équipement utilisateur de réalité augmentée, en fonction des données de
position du dispositif de commande et/ou celles de l'équipement utilisateur de réalité
augmentée.
[0047] L'équipement utilisateur de réalité augmentée, notamment le casque
5 ou des lunettes de réalité augmentée, comprend une boussole trois axes, permettant
de fournir l'orientation de cet équipement dans un système de coordonnées (par exemple,
en XYZ). Cette orientation permet de déterminer le champ de vision de l'utilisateur
de l'équipement utilisateur de réalité augmentée. Le serveur de réalité mixte
2 est configuré pour générer une scène de réalité mixte à l'intention de l'utilisateur,
en fonction de son champ de vision.
[0048] Plus généralement, le serveur de réalité mixte
2 génère, à partir de données récupérées depuis les capteurs déployés dans l'environnement
et/ou dans l'objet radiocommandé
1, une scène multimédia de réalité mixte, en fonction de la position du dispositif
de commande
4 et/ou de la position et/ou de l'orientation de l'équipement utilisateur de réalité
augmentée. Par exemple, le contenu multimédia de la scène générée est obtenu à partir
des caméras et des microphones les plus proches de la position de l'utilisateur et/ou
ceux couvrant son champ de vision et des faces des objets virtuels visibles depuis
cette position et/ou sous l'orientation de l'utilisateur.
[0049] Il en résulte, avantageusement, que le serveur de réalité mixte
2 permet de coordonner l'affichage simultané d'objets virtuels à l'intention de différents
utilisateurs (qu'ils soient spectateurs, joueurs, ou arbitres par exemples), même
quand ils se replacent et/ou changent de champ de vision.
[0050] Le serveur de réalité mixte
2 est accessible via un réseau de communications
7 (communément, celui d'Internet), de sorte qu'un utilisateur distant pourvu d'un terminal
utilisateur
8 (tel qu'un smartphone, une tablette ou un ordinateur portable/fixe) peut se connecter
au serveur de réalité mixte
2 et prendre part à l'événement collectif en cours.
[0051] Dans un mode de réalisation, l'utilisateur distant peut choisir, parmi une liste
prédéfinie (de voiliers par exemple), un objet virtuel
6 avec lequel il souhaite participer à l'événement collectif. Le serveur de réalité
mixte
2 se charge d'intégrer un tel objet dans la scène de réalité mixte à diffuser de l'événement
collectif. En variante ou en combinaison, l'utilisateur distant participe à l'événement
collectif avec un objet radiocommandé
1 mis à sa disposition (par exemple, un voilier réel radiocommandé de location mis
à l'eau par un utilisateur ou un spectateur présent sur l'événement).
[0052] Le serveur de réalité mixte permet, en effet, de superposer de manière cohérente
l'objet virtuel
6 à la perception que les utilisateurs ont de l'environnement réel et qui leur est
affiché (sur l'écran du terminal utilisateur
8 distant, l'écran du terminal de commande
4 ou l'équipement utilisateur de réalité augmentée).
[0053] L'objet radiocommandé
1 a, en effet, une existence concrète et objective et qui peut être observée directement,
alors que l'objet virtuel
6 est un objet numérique qui existe par essence ou effet, et est simulé dans la scène
de réalité mixte affichée à l'intention des utilisateurs.
[0054] Cette scène de réalité mixte comprend, par exemple, l'environnement réel de l'événement
(donc, y compris l'objet radiocommandé
1) qui est augmentée avec l'objet virtuel
6, un parcours de régate et, éventuellement, une ambiance.
[0055] Grâce, d'une part, aux données collectées depuis les capteurs
3 déployés dans l'environnement de l'événement et, d'autre part, des commandes adressées
à l'objet virtuel
6, le serveur de réalité mixte
2 combine les objets réels, y compris l'objet radiocommandé
1, et l'objet virtuel
6 dans l'environnement réel de compétition nautique. Dans cette combinaison, les objets
virtuels coïncident avec les objets réels et inversement.
[0056] Dans un mode de réalisation, des incidents imperceptibles (contact entre un véhicule
nautique virtuel et un obstacle virtuel ou un obstacle réel tel que véhicule nautique
réel) sont transformés par le serveur de réalité mixte
2 en des phénomènes perceptibles (visibles et/ou audibles aux utilisateurs).
[0057] Par ailleurs, le serveur de réalité mixte
2 par lequel transitent les commandes destinées à l'objet radiocommandé
1 et l'objet virtuel
6 permet une interaction en temps réel avec ces objets
1,
6, soit au moyen du dispositif de commande
4 ou via le terminal utilisateur
8 distant.
[0058] Le serveur de réalité mixte
2 sert de pont de communication sans fil entre les objets radiocommandés
1, les objets virtuels
6, les dispositifs de commande
4 et les terminaux utilisateur
8 distants.
[0059] Le serveur de réalité mixte
2 interprète les commandes destinées aux objets
1,
6 et, sur requête ou non, permet de changer la destination (router) d'une commande.
[0060] Il est, ainsi, possible de radiocommander au moyen du dispositif de commande
4 le véhicule nautique virtuel
6 et, inversement, de manipuler le véhicule nautique réel
1 depuis le terminal utilisateur
8 distant.
[0061] Il en résulte une combinaison cohérente du monde physique avec des objets virtuels.
[0062] L'interprétation en temps réel des interactions utilisateurs et des données renvoyées
par les capteurs permet d'animer en temps réel l'objet virtuel
6 d'une manière cohérente avec l'environnement.
[0063] L'animation de l'objet virtuel
6 peut être effectuée en temps réel à l'aide de tout moteur de simulation dynamique
(moteur de jeu physique) tels que haVoKTM, Newton Game Dynamics, ou Dynamo.
[0064] En temps réel, le serveur de réalité mixte
2 interprète les interactions des utilisateurs et les données collectées depuis les
capteurs
3 et génère un contenu immersif (vidéo, audio, texte) qu'il transmet au terminal utilisateur
8 distant, au dispositif de commande
4 et/ou à l'équipement utilisateur de réalité augmentée.
[0065] Ce contenu immersif comprend, par exemple, le plan d'eau sur lequel naviguent les
véhicules nautiques (virtuels et réels), ainsi que d'autres informations telles que
le cap, la gîte, la vitesse, le tangage, la force du signal de communication, le niveau
d'autonomie en énergie d'un véhicule nautique, la distance entre un utilisateur et
le véhicule nautique.
[0066] Ce contenu immersif comprend, également, des informations concernant la régate telles
que, par exemples, la position des balises, la position des bouées
9 virtuelles du parcours, des véhicules nautiques d'autres utilisateurs, le classement
des utilisateurs, les instructions de course.
[0067] Dans un mode de réalisation, le serveur de réalité mixte
2 diffuse à l'attention des utilisateurs des instructions/informations de courses (à
la place du comité), au moyen de haut-parleurs ou au moyen de notifications intégrées
au contenu visuel affiché par les équipements utilisateur de réalité mixte. Ces informations
sont utiles pour certaines manoeuvres en régates (passage de bouées éloignées, ou
navigation en meute, par exemples) ainsi que pour informer les spectateurs sur l'événement.
[0068] Le serveur de réalité mixte
2 est, dans un mode de réalisation, configuré pour commander un ou plusieurs véhicules
nautiques radiocommandés (ceux de location par exemple), pour les faire retourner
à un point précis du plan d'eau lorsqu'un délai d'utilisation est terminé.
[0069] Le serveur de réalité mixte
2 est, dans un mode de réalisation, configuré pour adapter le parcours de régate automatiquement
et en temps réel, en fonction des changements d'orientation et de force du vent, ces
données étant collectées depuis des capteurs
3 déployés dans l'environnement de l'événement.
[0070] Plusieurs vues de la scène sont mises à disposition des utilisateurs par le serveur
de réalité mixte
2, telles qu'une vue objective (ou « vue à la troisième personne »), une vue subjective
(ou « vue à la première personne » provenant d'une caméra embarquée dans le véhicule
nautique ou sur drone volant, par exemple).
[0071] Le serveur de réalité mixte
2 permet de créer une réalité mixte à l'utilisateur présent sur le lieu de la régate
ainsi qu'à un utilisateur (skippeur ou téléspectateur) distant du lieu de la régate.
Il en résulte, avantageusement, une simplification de l'organisation d'une compétition
nautique intégrant à la fois des voiliers réels radiocommandés et des voiliers virtuels.
[0072] Le serveur de réalité mixte
2 communique en temps réel des informations concernant l'événement en diffusion à un
serveur distant. Des informations concernant, par exemple, une régate en cours sont
ainsi disponibles, via ce serveur distant.
[0073] Dans un mode de réalisation, le serveur distant stocke dans une base de données accessible
en ligne des informations reçues depuis le serveur de réalité mixte
2. Cette base de données comprend, par exemple, les résultats des compétitions, ou
aussi des informations relatives aux régates ou aux participants. Ces données stockées
permettent de rejouer (en mode différé) ou répondre à une requête concernant une séquence
ou la totalité d'un contenu immersif préalablement diffusé.
[0074] Dans un mode de réalisation, le système décrit ci-dessus est utilisé pour tout autre
événement collectif tel qu'un jeu ou loisir nautique incluant des véhicules nautiques
radiocommandés (par exemple, des combats navals mêlant plusieurs voiliers devant s'affronter
avec des armes virtuelles sur des plans d'eau réels).
[0075] Une caméra embarquée, positionnée sur un support rotatif dans les trois directions
de l'espace, peut s'apparenter à la vue d'un canon pour les scénarios de combats navals.
Cette vue est retranscrite sur l'écran d'affichage du dispositif de commande ou via
l'équipement utilisateur de réalité augmentée. Dans ce cas, le skippeur peut soit
manoeuvrer le voilier et le canon, ou déléguer l'usage de "l'arme virtuelle" à un
canonnier (joueur additionnel), depuis un second dispositif de commande. Des navigations
en équipage sont, ainsi, possibles.
[0076] Les méthodes et systèmes décrits ci-dessus trouvent, notamment, application dans
l'organisation d'un événement collectif impliquant un ou plusieurs participants distants
en plus d'au moins un participant présent sur le lieu de l'événement.
1. Système d'immersion pour la gestion d'un événement collectif se déroulant dans un
environnement prédéfini et intégrant au moins un objet radiocommandé (
1), ce système comprenant
- un dispositif de commande (4) et/ou un équipement utilisateur de réalité augmentée, le dispositif de commande
(4) permettant de commander à distance l'objet radiocommandé (1), l'équipement utilisateur de réalité augmentée et le dispositif de commande (4) étant mobiles dans l'environnement de l'événement collectif;
- une pluralité de capteurs, déployés dans ledit environnement et/ou dans l'objet
radiocommandé (1);
- un serveur de réalité mixte (2), configuré pour générer, à partir d'une première pluralité de données récupérées
depuis ladite pluralité de capteurs, une première scène de réalité mixte intégrant
l'objet radiocommandé (1) et un objet virtuel (6) prédéfini, ladite première pluralité de données récupérées étant associée à une
première position, dans l'environnement de l'événement collectif, du dispositif de
commande (4),
ce système étant caractérisé en ce que
- le dispositif de commande (4) ou l'équipement utilisateur de réalité augmentée comprend un capteur de positionnement
destiné à déterminer une deuxième position, dans l'environnement de l'événement collectif,
dudit dispositif de commande (4) ou dudit équipement utilisateur de réalité augmentée ;
- le serveur de réalité mixte (2) est, en outre, configuré pour générer, à partir d'une deuxième pluralité de données
récupérées depuis ladite pluralité de capteurs (3), une deuxième scène de réalité mixte intégrant l'objet radiocommandé (1) et l'objet virtuel (6) prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième
position.
2. Système selon la revendication précédente, caractérisé en ce qu'il comprend un casque (5) de réalité augmentée, ce casque comprenant une boussole permettant de déterminer
une première orientation dudit casque (5), le serveur de réalité mixte (2) étant, en outre, configuré pour générer, à partir d'une troisième pluralité de données
récupérées depuis ladite pluralité de capteurs (3), une troisième scène de réalité mixte intégrant l'objet radiocommandé (1) et l'objet virtuel (6) prédéfini, la troisième pluralité de données récupérées étant associée à la première
orientation.
3. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d'une commande destinée à l'objet
radiocommandé (1).
4. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d'une commande destinée à l'objet
virtuel (6).
5. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que le capteur de positionnement est centimétrique.
6. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif de commande (4) communique avec l'objet radiocommandé (1) par l'intermédiaire du serveur de réalité mixte (2).
7. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet radiocommandé (1) comprend un capteur inertiel et/ou un capteur de positionnement.
8. Système selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend, en outre, un terminal utilisateur (8) connecté au serveur de réalité mixte (2) et configuré pour commander l'objet virtuel (6) ou l'objet radiocommandé (1).
9. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet radiocommandé (1) est un véhicule nautique, un véhicule terrestre ou un véhicule aérien.
10. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'événement collectif est une compétition nautique, une compétition automobile ou
une compétition aérienne.