55 : L’interaction entre le monde réel et le monde virtuel

Longtemps asso­ciée aux jeux vidéo, la tech­nolo­gie de réal­ité virtuelle a con­nu depuis un essor impor­tant, par­ti­c­ulière­ment dans le domaine de la for­ma­tion. La « démoc­ra­ti­sa­tion » des casques de réal­ité virtuelle n’y est pas étrangère. Le nom­bre de casques ven­dus a explosé pas­sant de 5 mil­lions d’unités en 2014 à 68 mil­lions en 2020, leur coût a chuté et la tech­nolo­gie elle-même a évolué. On par­le aujourd’hui de tech­nolo­gies immer­sives inclu­ant réal­ité virtuelle, réal­ité aug­men­tée et réal­ité mixte. L’UTC a été rel­a­tive­ment pio­nnière puisqu’elle a intro­duit, dès 2001, un enseigne­ment en réal­ité virtuelle et lancé, au sein du lab­o­ra­toire Heudi­asyc, des recherch­es tant sur le plan fon­da­men­tal qu’applicatif. L’interaction entre le monde réel et le monde virtuel ouvre en effet des champs d’applications immenses notam­ment en lien avec la robo­t­ique. On peut par exem­ple inter­a­gir avec un drone qui car­togra­phie les dégâts causés lors d’une cat­a­stro­phe naturelle dans des endroits devenus inac­ces­si­bles. Évidem­ment ces nou­velles pos­si­bil­ités peu­vent être util­isées à des fins de malveil­lance, ce qui pose des prob­lèmes éthiques. Les enseignants-chercheurs de l’UTC en sont conscients.

Pro­fesseur des uni­ver­sités, Philippe Bon­ni­fait est, depuis jan­vi­er 2018, directeur du lab­o­ra­toire Heudi­asyc, créé en 1981. Un lab­o­ra­toire de pointe dédié aux sci­ences du numérique. Un lab­o­ra­toire spé­cial­isé dans les méth­odes sci­en­tifiques liées à l’intelligence arti­fi­cielle, la robo­t­ique, l’analyse des don­nées, l’automatique ou encore la réal­ité virtuelle.

Créé en 1981 et asso­cié au CNRS depuis sa fon­da­tion, le lab­o­ra­toire Heudi­asyc (Heuris­tique et diag­nos­tic des sys­tèmes com­plex­es) est rat­taché à l’INS2I (Insti­tut des sci­ences de l’in­for­ma­tion et de leurs inter­ac­tions), un des dix insti­tuts du CNRS, dirigé par Ali Charara, son précé­dent directeur.

Une des par­tic­u­lar­ités d’Heudi­asyc ? “C’est un lab­o­ra­toire qui regroupe des chercheurs en infor­ma­tique et en génie infor­ma­tique, deux spé­cial­ités sou­vent séparées ; un des pre­miers lab­o­ra­toires à avoir cette vision-là en France”,explique Philippe Bonnifait.

Le monde de l’in­for­ma­tique étant par nature évo­lu­tif, les thé­ma­tiques abor­dées par les enseignants chercheurs du lab­o­ra­toire ont, tout naturelle­ment, évolué. Pour preuve ? Le développe­ment de recherch­es dans le domaine de la réal­ité virtuelle. “Un développe­ment qui coïn­ci­da avec l’ar­rivée d’Indi­ra Thou­venin en 1995 à l’UTC, une per­son­nal­ité très recon­nue dans son domaine. Les pro­jets portés par Indi­ra étant en forte inter­ac­tion avec la cog­ni­tion, les sci­ences humaines et sociales, ils impliquèrent, de fait, de nom­breuses col­lab­o­ra­tions avec d’autres lab­o­ra­toires, notam­ment Costech”, souligne-t-il.

Depuis la restruc­tura­tion du lab­o­ra­toire en jan­vi­er 2018 et le pas­sage de qua­tre à trois équipes — CID (Con­nais­sances, incer­ti­tudes, don­nées), SCOP (Sûreté, com­mu­ni­ca­tion, opti­mi­sa­tion) et SyRI (Sys­tèmes robo­t­iques en inter­ac­tion) -, des thé­ma­tiques inter­dis­ci­plinaires ont été iden­ti­fiées. C’est le cas de la réal­ité virtuelle, un sujet éminem­ment trans­ver­sal, qui se trou­ve ain­si “à cheval” entre l’équipe SyRI et CID. “Au sein de CID, on s’in­téresse aux sys­tèmes adap­tat­ifs et à la per­son­nal­i­sa­tion des sys­tèmes ; des thé­ma­tiques où l’on retrou­ve nom­bre d’élé­ments en lien avec les envi­ron­nements immer­sifs, un des domaines de recherche de Domi­tile Lour­deaux. Au sein de SyRI, où se retrou­ve Indi­ra Thou­venin, on s’in­téresse, en par­ti­c­uli­er, à la robo­t­ique avec des sujets tels que l’au­tonomie des robots — véhicules intel­li­gents et drones pour notre part -, le con­trôle, la per­cep­tion et la fusion des don­nées ou encore les sys­tèmes mul­ti-robots en inter­ac­tion”, détaille Philippe Bon­ni­fait. En clair ? “Dans le cas de mul­ti-robots, on assiste à trois types d’in­ter­ac­tions : celles avec leur envi­ron­nement, celles avec d’autres robots et enfin celles avec les humains. C’est très impor­tant, à mes yeux, de remet­tre l’hu­main au cen­tre dans tous les pro­jets que l’on développe. Si l’on prend le cas con­cret du pare-brise du futur par exem­ple, un pro­jet d’Indi­ra, il s’ag­it de faire de la réal­ité mixte sur le pare-brise, de l’af­fichage en tête haute, une appli­ca­tion des­tinée au véhicule autonome à terme”, précise-t-il.

Des inter­ac­tions évo­lu­tives puisque l’on par­le, de plus en plus, de sys­tèmes autonomes en sym­biose. “On tend vers la sym­biose des machines intel­li­gentes avec les humains dans un grand nom­bre de domaines. Un exem­ple entre autres ? Le robot Xenex, une inven­tion améri­caine, qui a été déployé dans nom­bre d’hôpi­taux pour la dés­in­fec­tion des cham­bres à l’aide de rayons UV. Ce qui est très utile, par­ti­c­ulière­ment par ces temps de Covid “, décrit-il. Si, dans ce cas pré­cis, on a affaire à une machine réelle­ment autonome, ce n’est pas le cas de tous les secteurs. “Prenons les drones. Ils ont tou­jours besoin d’un télépi­lote, et ce que l’on essaie de faire à Heudi­asyc, c’est d’avoir un télépi­lote pour plusieurs drones ; un télépi­lote qui puisse repren­dre le con­trôle en cas de pépin, car un drone dans une foule, par exem­ple, peut engen­dr­er des tas de dégâts. C’est le cas égale­ment du véhicule autonome qui, même à terme, aura besoin de la vig­i­lance du con­duc­teur. Une voie médi­ane s’of­fre cepen­dant à nous : aller vers cette sym­biose humain-machine pour que l’on puisse imag­in­er de nou­velles façons de con­duire”, ajoute Philippe Bonnifait.

L’in­ter­ac­tion entre le monde réel et le monde virtuel ouvre des champs d’ap­pli­ca­tions immenses. Pour le meilleur — le drone qui sur­veille l’é­tat de sécher­esse de cer­tains ter­ri­toires — comme le pire — cer­taines appli­ca­tions mil­i­taires. Ce qui pose des prob­lèmes éminem­ment éthiques. “Pen­dant longtemps, l’éthique était restée assez éloignée de nos préoc­cu­pa­tions, mais les évo­lu­tions tech­nologiques de ces dix dernières années, avec des util­i­sa­tions dan­gereuses voire mor­tifères, l’ont replacée au cen­tre des réflex­ions des chercheurs en intel­li­gence arti­fi­cielle “, conclut-il.

Enseignante-chercheuse, Indi­ra Thou­venin crée, à son arrivée à l’UTC en 2001, une activ­ité de réal­ité virtuelle (RV) et, plus récem­ment, de réal­ité aug­men­tée (RA). Une activ­ité qui se décline tant au niveau de l’enseignement que de la recherche.

Rat­tachée dans un pre­mier temps au lab­o­ra­toire Rober­val, elle rejoint, en 2005,l’UMR CNRS Heudi­asyc. Par­mi ses champs de recherch­es ? “Je tra­vaille sur l’in­ter­ac­tion infor­mée en envi­ron­nement virtuel. Autrement dit, une inter­ac­tion “intel­li­gente” où la RV va s’adapter à l’u­til­isa­teur. Ce qui passe par l’analyse des gestes, du com­porte­ment, du regard de l’u­til­isa­teur… On définit ensuite des descrip­teurs sur son niveau d’at­ten­tion, d’in­ten­tion, de con­cen­tra­tion ou de com­préhen­sion, par exem­ple. Je tra­vaille égale­ment sur l’in­ter­ac­tion en envi­ron­nement aug­men­té. Il s’ag­it de con­cevoir dans ce cas des assis­tances explicites et implicites, ces dernières étant invis­i­bles pour l’u­til­isa­teur”, explique-t-elle.

Des recherch­es qui débouchent sur des appli­ca­tions adap­tées, entre autres, aux domaines de la for­ma­tion, de la san­té, de l’é­d­u­ca­tion ou encore de l’in­dus­trie. “Les descrip­teurs nous per­me­t­tent de définir l’at­ti­tude de l’u­til­isa­teur, notamment,son niveau de con­cen­tra­tion ou de dis­trac­tion, de com­pé­tences : a‑t-il déjà de l’ex­péri­ence, ou est-il débu­tant ? À par­tir de toutes ces don­nées, on va opér­er une sélec­tion de “retours sen­soriels” ou feed­backs adap­tat­ifs puisque la RV fait appel à du retour visuel, sonore, tac­tile ou encore hap­tique. Tous ces retours sen­soriels vont ain­si nous per­me­t­tre d’aider l’u­til­isa­teur à com­pren­dre l’en­vi­ron­nement sans lui impos­er tous les retours mais seule­ment ceux qui lui con­vi­en­nent le mieux. Une mod­éli­sa­tion de l’in­ter­ac­tion en envi­ron­nement virtuel très per­son­nal­isée en somme”, détaille Indi­ra Thouvenin.

Un tra­vail qui demande énor­mé­ment de sim­u­la­tion. “Pour ma part, je tra­vaille sur trois plate­formes de sim­u­la­tion dédiées respec­tive­ment au fer­rovi­aire, au véhicule autonome et à la RV. Celle-ci est con­sti­tuée de deux équipements prin­ci­paux : les casques de RV des­tinés, en par­ti­c­uli­er, à l’en­seigne­ment, et le sys­tème Cave (cave auto­mat­ic vir­tu­al envi­ron­ment, c’est-à-dire une salle immer­sive) dans lequel on peut visu­alis­er à l’échelle 1. Nous pos­sé­dons un Cave à qua­tre faces, cha­cune sup­por­t­ant un écran avec un sys­tème de rétro­pro­jec­tion situé à l’ar­rière. L’af­fichage sur les écrans se fait en stéréo­scopie ou en 3D. Le Cave per­met de voir son pro­pre corps, alors que dans un casque il faut recon­stru­ire un corps virtuel”, explique Yohan Bou­vet, respon­s­able du pôle sim­u­la­tion d’Heudiasyc.

Aujour­d’hui, réal­ité virtuelle et réal­ité aug­men­tée sont en plein essor dans des domaines var­iés. D’où la mul­ti­pli­ca­tion des pro­jets tant sur le plan académique que sur le plan appli­catif. Un pro­jet phare de réal­ité aug­men­tée ? “On tra­vaille avec le Voxar, un lab­o­ra­toire brésilien spé­cial­isé dans la réal­ité aug­men­tée, afin de dévelop­per un pare-brise aug­men­té pour la voiture semi autonome. Un pro­jet qui fait l’ob­jet du doc­tor­at de Bap­tiste Wojtkows­ki, dans le cadre de la chaire d’ex­cel­lence sur les sur­faces intel­li­gentes pour le véhicule du futur, financée par Saint-Gob­ain, la fon­da­tion UTC, le Fed­er (Fonds européens) et la région Hauts-de-France”, souligne t‑elle.

Con­crète­ment ? “Il s’a­gi­ra de définir ce que l’on va visu­alis­er sur ce vit­rage du futur. Doit-on met­tre des feed­backs visuels de RA ? Com­ment et à quel moment ? Quand est-ce que l’u­til­isa­teur a besoin de com­pren­dre l’é­tat dans lequel est le robot (véhicule) et que com­prend le véhicule des actions de l’u­til­isa­teur ? En temps réel, on ne va pas affich­er tout le temps les mêmes feed­backs mais pren­dre en compte la fatigue, la con­cen­tra­tion ou décon­cen­tra­tion éventuelles de l’u­til­isa­teur”, pré­cise Indi­ra Thouvenin.

D’autres pro­jets en cours ? “Il y a notam­ment celui sur le “touch­er social” entre un agent virtuel incar­né dans le Cave et un humain. C’est un pro­jet financé par l’ANR, porté par Télé­com Paris, inté­grant Heudi­asyc et l’ISIR (lab­o­ra­toire de robo­t­ique de l’UPMC). Dans ce pro­jet nom­mé “Social touch”, Fabi­en Bou­caud réalise son doc­tor­at et développe le mod­èle de déci­sion de l’a­gent. Enfin, dernier pro­jet en cours : l’équipex Con­tin­u­um. L’idée ? Fédér­er la majorité des plate­formes de RV, trente en tout en France, afin de faire avancer la recherche inter­dis­ci­plinaire entre l’in­ter­ac­tion homme-machine, la réal­ité virtuelle et les sci­ences humaines et sociales”, conclut-elle.

Chercheur CNRS au sein d’Heudiasyc, Pedro Castil­lo est rat­taché à l’équipe Sys­tèmes robo­t­iques en inter­ac­tion (SyRI). Il est spé­cial­isé en com­mande automa­tique appliquée à la robo­t­ique. Ses recherch­es por­tent, en par­ti­c­uli­er, sur la com­mande automa­tique des drones, des drones autonomes mais aus­si, plus récem­ment, des drones virtuels.

Arrivé du Mex­ique doté d’une bourse,Pedro Castil­lo entame, en 2000, une thèse en automa­tique, plus par­ti­c­ulière­ment sur la com­mande automa­tique des drones, à l’UTC.

Thèse qui lui a valu, début 2004, le prix de la meilleure thèse en automa­tique au niveau nation­al. Pen­dant ces années, il enchaîne les post­docs aux États-Unis au Mass­a­chu­setts Insti­tute of Tech­nol­o­gy (MIT), en Aus­tralie et en Espagne, puis pos­tule au CNRS qu’il rejoint en 2005 au sein de l’u­nité mixte d’Heudi­asyc où il pour­suit ses travaux de recherche sur la com­mande des drones en minia­ture. “Dès 2002, durant ma thèse, nous avions mené les pre­miers tests. Nous étions la pre­mière équipe en France à tra­vailler sur ce sujet à l’époque et une des pre­mières à dévelop­per un drone autonome à qua­tre rotors”, précise-t-il.

Ce qui explique la recon­nais­sance dont jouit le lab­o­ra­toire dans ce domaine tant au niveau de la recherche théorique qu’­ex­péri­men­tale. “Heudi­asyc est con­nu pour avoir dévelop­pé des plate­formes fon­da­men­tales. Et c’est durant ma thèse que l’on a com­mencé à dévelop­per des plate­formes expéri­men­tales dédiées à l’aérien afin de valid­er les recherch­es théoriques que l’on menait. Dès 2005, on a tra­vail­lé à la mise en place d’une plate­forme com­mune de val­i­da­tion des sys­tèmes de con­trôle des drones aériens qui a été achevée en 2009”, explique-t-il.

Alors que nom­bre de chercheurs mis­ent sur le drone autonome, Heudi­asyc a fait un autre pari. “On s’est ren­du compte que l’on ne peut laiss­er toute la tâche à un drone. Il peut y avoir des sit­u­a­tions qu’il ne saura pas gér­er. Dans ce cas de fig­ure, il faut que l’hu­main puisse pren­dre la main. En robo­t­ique, on par­le de boucle de com­mande où l’hu­main peut à tout moment inter­a­gir avec le robot “, souligne Pedro Castillo.

Jusqu’à récem­ment, en matière d’in­ter­ac­tions humain-machine, ce sont les approches plutôt clas­siques qui ont dom­iné. Celles où l’on utilise des manettes, des joy­sticks ou encore la télé-opéra­tion qui, grâce à un retour du sys­tème vers l’opéra­teur, per­met la com­mande d’un robot déporté. L’idée d’in­tro­duire de la réal­ité virtuelle ? “C’est d’in­tro­duire un retour visuel mais aus­si sonore. En un mot : voir ce que le robot voit en le dotant de caméras et pou­voir enten­dre notam­ment en cas de prob­lème moteur, par exem­ple. Ce qui va faciliter la com­mande et donc la nav­i­ga­tion du drone”, précise-t-il.

Mais Pedro Castil­lo et Indi­ra Thou­venin déci­dent d’aller plus loin et d’ex­plor­er une nou­velle thé­ma­tique : la robo­t­ique virtuelle. “On a ain­si décidé de représen­ter notre volière (salle de tests des drones aériens) dans le Cave, une tech­nolo­gie haute­ment immer­sive. On a égale­ment créé un petit drone virtuel que l’on peut manip­uler, auquel on peut impos­er dif­férentes tra­jec­toires et men­er divers­es mis­sions. C’est en quelque sorte un assis­tant du drone réel, puisque ce dernier va ensuite effectuer toutes les tâch­es que l’opéra­teur va indi­quer au drone virtuel”, explique Pedro Castillo.

Des appli­ca­tions con­crètes ? “On s’in­téresse pour notre part aux appli­ca­tions civiles et elles sont nom­breuses. On peut citer l’in­spec­tion de bâti­ments, par exem­ple, ou la sur­v­enue d’une quel­conque cat­a­stro­phe naturelle. Il peut y avoir des endroits inac­ces­si­bles et les drones nous per­me­t­tent de faire un état des lieux des dégâts matériels ou humains et agir rapi­de­ment et au bon endroit “, conclut-il.

Chercheur CNRS, Sébastien Dester­cke est respon­s­able de l’équipe Con­nais­sances, incer­ti­tudes, don­nées (CID) au sein d’Heudiasyc. Son domaine de recherch­es con­cerne la mod­éli­sa­tion et le raison­nement dans l’incertain, en par­ti­c­uli­er en présence d’incertitudes fortes ou sévères.

Con­crète­ment ? ” On par­le d’in­cer­ti­tudes fortes lorsque l’on est en présence de don­nées man­quantes ou impré­cis­es, d’in­for­ma­tions pau­vres ou qualitatives.

L’idée ?Il s’ag­it de mod­élis­er ce type d’in­for­ma­tions dans un lan­gage math­é­ma­tique afin de réalis­er des tâch­es de raison­nement. Cela peut être de l’ap­pren­tis­sage automa­tique, c’est-à-dire appren­dre à par­tir d’ex­em­ples, ou pren­dre des déci­sions dans l’in­cer­tain “, explique Sébastien Destercke.

Le pas­sage vers la réal­ité virtuelle ? “Au sein d’Heudi­asyc, nous avons une forte exper­tise dans les théories général­isant les prob­a­bil­ités comme les théories de l’év­i­dence ou celles des prob­a­bil­ités impré­cis­es. Il s’ag­it de lan­gages math­é­ma­tiques rich­es qui vont per­me­t­tre de mod­élis­er l’in­cer­ti­tude et l’in­com­plé­tude de l’in­for­ma­tion de manière très fine. Une telle expres­siv­ité est par­ti­c­ulière­ment utile dans cer­taines appli­ca­tions de la réal­ité virtuelle, et notam­ment dans l’aide à la for­ma­tion. Par­mi les incer­ti­tudes néces­si­tant une mod­éli­sa­tion fine, on peut citer celles con­cer­nant le pro­fil de com­pé­tence de l’ap­prenant, voire son état émo­tion­nel. La prise en compte de l’in­cer­ti­tude dans le raison­nement per­me­t­tra notam­ment une meilleure adap­ta­tion des scé­nar­ios de for­ma­tion, qui pour­ront être mieux per­son­nal­isés pour chaque pro­fil”, ajoute-t-il.

Ces travaux sur l’in­cer­tain ont, entre autres, mené au pro­jet Kiva con­stru­it autour d’un “envi­ron­nement virtuel infor­mé pour la for­ma­tion au geste tech­nique dans le domaine de la fab­ri­ca­tion de culass­es en alu­mini­um” ; pro­jet primé dans la caté­gorie “Train­ing and Edu­ca­tion” au salon Laval Vir­tu­al. L’ob­jec­tif de Kiva ? ” Nous nous sommes con­cen­trés sur un geste de for­ma­tion : com­ment souf­fler les impuretés à la sur­face des culass­es sor­ties du moulage ? Le but ? Faire en sorte que l’ap­prenant repro­duise le geste “expert”. Or, dans cette sit­u­a­tion, nous avons au moins deux sources d’in­cer­ti­tudes : d’une part, le geste “expert” peut chang­er d’un expert à un autre et, d’autre part, la recon­nais­sance du geste qui ne peut pas se faire par­faite­ment. La per­son­ne en for­ma­tion est bardée de cap­teurs ; elle va faire des mou­ve­ments qui ne sont pas néces­saire­ment réguliers ni récoltés d’une manière con­tin­ue. Cela nous donne une infor­ma­tion par­tielle à par­tir de laque­lle on doit définir la recon­nais­sance de geste de la per­son­ne en for­ma­tion et essay­er de mesur­er en quoi ce geste est en adéqua­tion avec le geste “expert”. Or, dans le sys­tème qui guidera l’ap­prenant, il est néces­saire d’in­clure ces sources d’in­cer­ti­tudes”, décrit Sébastien Destercke.

Un geste “expert” que l’ap­prenant est amené à repro­duire dans un Cave. “L’u­til­i­sa­tion de la réal­ité virtuelle en entre­prise pour des objec­tifs de for­ma­tion est récente. Elle était jusqu’i­ci sou­vent lim­itée à l’amélio­ra­tion de l’er­gonomie des postes de tra­vail, où les thé­ma­tiques liées à l’in­ter­ac­tion homme-machine sont moins cri­tiques. Avec les objec­tifs de for­ma­tion, elles devi­en­nent fon­da­men­tales”, conclut-il.

Maîtresse de con­férences, Domi­tile Lour­deaux est mem­bre de l’équipe Con­nais­sances, incer­ti­tudes, don­nées (CID) au sein d’Heudiasyc. Ses recherch­es por­tent sur les sys­tèmes adap­tat­ifs per­son­nal­isésen réal­ité virtuelle.

Un champ de recherch­es qu’elle ne cesse d’ex­plor­er depuis sa thèse. “Je m’in­téresse à l’adap­ta­tion de con­tenus scé­nar­is­tiques en fonc­tion d’un pro­fil dynamique de l’u­til­isa­teur et, plus par­ti­c­ulière­ment, aux envi­ron­nements virtuels dédiés à la for­ma­tion. Comme il s’ag­it d’ap­prenants, je tra­vaille notam­ment sur l’adap­ta­tion des con­tenus péd­a­gogiques et de la nar­ra­tion. En un mot : com­ment va-t-on met­tre en scène des sit­u­a­tions d’ap­pren­tis­sage en réal­ité virtuelle (RV)”, explique Domi­tile Lourdeaux.

Les domaines d’ap­pli­ca­tion sont divers et les pro­jets passés ou en cours l’at­tes­tent. Il y a eu Victeams sur la for­ma­tion de “lead­ers médi­caux”, pro­jet financé par l’ANR et la Direc­tion générale des armées (DGA) et en cours Orches­tra a ain­si qu’In­fin­i­ty¹, un pro­jet européen impli­quant onze pays et vingt parte­naires dont Man­za­l­ab, coor­don­nés par Air­bus Defense and Space. Le pre­mier a été lancé en novem­bre 2019 grâce à un finance­ment de la DGA et a pour parte­naires Révi­at­e­ch, Thalès ain­si que CASPOA, un cen­tre d’ex­cel­lence de l’OTAN, le sec­ond en juin 2020 ; les deux pour une durée de trois ans.

“Orches­traa vise à for­mer des lead­ers en com­man­de­ment aérien dans des cen­tres d’opéra­tions aéri­ennes mil­i­taires. Il y a env­i­ron quar­ante per­son­nes dans la salle qui coor­don­nent des opéra­tions mil­i­taires. L’ap­prenant est doté d’un casque de RV et inter­ag­it avec son équipe con­sti­tuée de per­son­nages virtuels autonomes ; ces derniers étant en lien avec des pilotes de chas­se, d’héli­cop­tères, des drones, etc. Ils vont donc jouer un scé­nario prévu plusieurs jours à l’a­vance mais le jour J, il peut y avoir des aléas per­tur­bant le scé­nario d’o­rig­ine et qu’ils doivent pou­voir gér­er. Il peut s’a­gir de deman­des d’ap­pui aérien imprévues ini­tiale­ment ou d’un avion qui se crashe, auquel cas il faut aller sauver les pilotes au sol. Ces aléas vont néces­siter une réal­lo­ca­tion des moyens créant, in fine, une réac­tion en chaîne impac­tant toute l’opéra­tion. Dans ce cas de fig­ure, l’adap­ta­tion con­cerne la dif­fi­culté du scé­nario qui va crois­sant en fonc­tion de ce que l’ap­prenant est capa­ble de gér­er. Ce qui lui deman­dera de faire preuve de com­pé­tences pro­gres­sives”, détaille-t-elle.

Infin­i­ty pour sa part con­cerne un tout autre domaine. Ce pro­jet européen d’en­ver­gure vise à fournir des out­ils — intel­li­gence arti­fi­cielle, RV pour la visu­al­i­sa­tion et l’analyse des don­nées — afin d’amélior­er la col­lab­o­ra­tion des polices européennes dans les enquêtes menées con­tre la cyber­crim­i­nal­ité et le ter­ror­isme. “Nous avons trois cas d’usages : analyse du com­porte­ment des cyber­at­taques lors d’un événe­ment en cours, analyse rapi­de au lende­main d’un atten­tat ter­ror­iste et enfin les men­aces hybrides, résul­tat de la con­ver­gence du cybert­er­ror­isme et du ter­ror­isme”, pré­cise Domi­tile Lourdeaux.

Pro­jet dans lequel Heudi­asyc est leader d’un out­il de mon­i­tor­ing sur les pré­con­i­sa­tions des­tinées à garan­tir le bien-être des policiers util­isant la RV, une tech­nolo­gie qui provoque, en effet, des effets sec­ondaires dus aux casques (cyber­sick­ness ou mal du sim­u­la­teur, fatigue visuelle) et peut égale­ment génér­er une sur­charge cog­ni­tive et du stress liés aux tâch­es à accom­plir en RV. “Dans ce pro­jet, on se con­cen­tre sur les effets sec­ondaires. On essaie de les mesur­er en temps réel pen­dant que les util­isa­teurs ont le casque sur la tête afin de pos­er un diag­nos­tic sur leur état. Nous nous intéres­sons à “trois états” en par­ti­c­uli­er : le cyber­sick­ness com­mun à tout util­isa­teur de casque RV, la charge men­tale liée à la com­plex­ité de la tâche et le stress et ses mul­ti­ples caus­es. Pour détecter ces effets sec­ondaires, nous util­isons des senseurs phys­i­ologiques (élec­tro­car­dio­gramme, activ­ité élec­tro­der­male, ocu­lométrie et pupil­lométrie), les don­nées com­porte­men­tales (effi­cac­ité à la tâche) et des ques­tion­naires”, souligne Alex­is Souchet post­doc au sein d’Heudiasyc.

La réal­ité virtuelle pose cepen­dant des prob­lèmes juridiques et éthiques. “Les indus­triels vont met­tre à dis­po­si­tion des gens des out­ils de RV sans pren­dre en compte les impacts néfastes pour leur san­té. Un vrai prob­lème lorsque l’on con­naît l’ex­plo­sion de la vente de casques, passée de 5 mil­lions d’u­nités en 2014 à 68 mil­lions en 2020”, con­clut Domi­tile Lourdeaux. 

¹https://cordis.europa.eu/project/id/883293

Le magazine

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram