52 : Apprentissage Intelligent au sein d’Heudiasyc
Professeur des universités, Philippe Bonnifait a été également vice-président du conseil scientifique de l’université de technologie de Compiègne (UTC) et directeur d’un groupement de recherche (GDR) CNRS en robotique entre 2013 et 2017. Il est, depuis janvier 2018, directeur du laboratoire Heudiasyc, créé en 1981. Un laboratoire de pointe qui abrite, notamment, l’équipe du CID (Connaissances, Incertitudes, Données) dédiée à la recherche en intelligence artificielle.
Unité mixte de recherche (UMR) entre l’UTC et le CNRS, Heudiasyc compte près de 120 personnes – professeurs, chercheurs, ingénieurs et techniciens de recherche, doctorants, post doc, personnel administratif… Auxquels viennent s’ajouter une vingtaine de stagiaires de niveau master par an. Ce qui en fait, après Roberval, le deuxième plus gros laboratoire de l’université.
« Le périmètre scientifique d’Heudiasyc n’a pas énormément changé depuis sa création mais les thématiques, elles, ont évolué. Nous nous intéressons à l’informatique au sens large avec deux branches principales : la formation d’ingénieurs en informatique et d’étudiants en master recherche », explique Philippe Bonnifait. Une spécificité qui explique le lien très fort entre le labo et le département informatique de l’UTC puisque la majorité des enseignants qui interviennent dans la formation d’ingénieurs en informatique mais aussi dans le cadre du master recherche sont rattachés à Heudiasyc.
Un laboratoire de pointe qui a vu « cinq de ses chercheurs se mettre en disponibilité pour aller dans le privé. Parmi eux, deux sont au FAIR (Facebook AI Research), laboratoire de la firme à Paris », précise-t-il. Un laboratoire dont les enseignants-chercheurs, dotés de grandes compétences, prodiguent des formations de qualité plébiscitées par les élèves. Pour preuve ? « On compte plus de 700 élèves ingénieurs en informatique. Ce qui est non négligeable. Il s’agit d’une formation généraliste très reconnue qui permet à nos élèves de s’adapter facilement à l’évolution, très rapide, des technologies dans le secteur. Pour les étudiants en master, la formation est plus pointue, plus proche de ce que l’on fait en recherche en somme. Actuellement, l’on a, au sein d’Heudiasyc 55 doctorants, ce qui prouve l’intérêt, aux yeux des élèves, des thématiques de recherche abordées par le labo », souligne-t-il.
Les axes majeurs de recherche au sein d’Heudiasyc ? « Ils sont au nombre de quatre : informatique, intelligence artificielle, un mot clé que l’on affiche depuis 20 ans, à l’époque où il n’était pas encore à la mode, et enfin automatique et robotique. Tous nos enseignants-chercheurs évoluent autour de ces disciplines », assure Philippe Bonnifait.
Des thématiques portées, depuis la restructuration du labo en janvier 2018, par trois équipes : celle du CID (Connaissances, Incertitudes, Données ; celle du SCOP (Sûreté, Communication, Optimisation) et en dernier lieu celle du SyRI (Systèmes Robotiques en Interaction). « La première est dédiée à ce que nous faisons en fondements de l’intelligence artificielle, étant entendu que l’on n’aborde pas tous les domaines de l’intelligence artificielle. L’on peut citer l’apprentissage machine, l’apprentissage interactif, les systèmes de recommandation etc. La deuxième travaille notamment sur les problématiques d’ordonnancement, de réseaux mais aussi, et c’est une nouveauté du laboratoire, sur des systèmes sûrs, autrement dit qui ne tombent pas en panne, et sécurisés. Comme les systèmes sont de plus en plus communicants, les échanges de données sont donc importants. D’où l’enjeu majeur de leur sécurisation face à une attaque de hackers par exemple. Enfin la dernière s’intéresse à tout ce qui gravite autour de l’autonomie des machines, en particulier l’articulation entre la robotique et l’intelligence artificielle, la première étant dans le monde physique alors que la seconde, computationnelle, virtuelle, se situe dans le “cloud” ou encore dans des calculateurs. On parle dorénavant d’intelligence artificielle incarnée par des robots », détaille-t-il.
Le choix fait par Heudiasyc dans le domaine, très vaste, de l’intelligence artificielle appliquée à la robotique ? « Nous avons choisi de concentrer nos recherches sur la robotique mobile en particulier celle dédiée aux transports et à la mobilité. Aujourd’hui, on parle de véhicule intelligent et autonome. Des véhicules appelés à rouler dans des environnements partagés. On a également été un des premiers labos à se lancer, en 1997, dans les drones », précise-t-il.
Un choix qui a permis au labo de participer, dans le cadre du Programme d’Investissements d’Avenir (PIA) via le Labex MS2T et l’EQUIPEX à Robotex et à Philippe Bonnifait de piloter tout ce qui avait trait à la robotique mobile terrestre et aérienne en France. Un projet lancé en 2011 et courant jusqu’à fin 2021 qui a eu également le soutien de la région Hauts de France à hauteur de 3,5 millions d’euros en équipement scientifique.
Un choix qui débouche naturellement sur un grand nombre de partenariats industriels, en particulier dans le domaine des transports. « Avec Renault par exemple, dans le cadre de Sivalab, un laboratoire commun Renault/UTC/CNRS ou encore, un projet de dix ans, lancé en septembre 2019, avec l’IRT Railenium sur le train autonome », conclut Philippe Bonnifait.
Professeur des universités, Thierry Denoeux est depuis octobre 2019 membre senior de l’Institut universitaire de France (IUF). Directeur du Labex Maîtrise des Systèmes de Systèmes Technologiques (MS2T) au sein d’Heudiasyc, une unité mixte UTC/CNRS, chercheur dans l’équipe Connaissances, Incertitudes, Données (CID), il est également rédacteur en chef de deux revues internationales : International Journal of Approximative Reasoning sur le raisonnement incertain et Array , une nouvelle revue en accès libre couvrant tout le champ de l’informatique, lancée en octobre 2018.
Ingénieur civil de l’École des Ponts ParisTech, Thierry Denoeux poursuit avec une thèse sur « la fiabilité des prévisions de pluie par radars météorologiques » dans un laboratoire dédié à l’environnement de la même école. Il s’intéresse, entre autres, à l’informatique, à la reconnaissance des formes et au traitement d’images. « Il s’agissait de traiter des images radar afin d’analyser et d’extrapoler le déplacement de cellules de pluie pour faire de la prévision quantitative à très court terme (une à deux heures). Ces prévisions étaient utilisées pour optimiser la gestion des grands réseaux d’assainissement dans le but de limiter les inondations en cas d’orage », explique-t-il.
Un intérêt qui le conduit tout naturellement, après sa thèse, à intégrer en tant qu’ingénieur de recherche le Laboratoire d’Informatique Avancée de Compiègne (LIAC) de la Lyonnaise des eaux devenue, depuis, Suez. Il y reste trois ans et y travaille sur des projets européens avec des enseignants-chercheurs de l’UTC. Une époque, au début des années 1990, où l’intelligence artificielle (IA) suscitait déjà beaucoup d’intérêt avec le développement des systèmes experts.
C’est en 1992 qu’il rejoint l’UTC en tant qu’enseignant-chercheur contractuel à Heudiasyc avant de devenir professeur en 1999. S’ensuivent plusieurs prises de responsabilité : directeur d’un laboratoire commun avec Suez, directeur adjoint d’Heudiasyc, vice-président du conseil scientifique de l’UTC, coordinateur scientifique, avant d’en prendre la direction en janvier 2019, du Labex Maîtrise des Systèmes de Systèmes Technologiques (MS2T) – un projet sur dix ans – qui, dans le cadre du Programme d’Investissements d’Avenir, court jusqu’en 2021. Toujours en janvier 2019, il prend la direction de la fédération de recherche SHIC¹, une structure du CNRS regroupant initialement les unités mixtes Heudiasyc, BMBI et Roberval, auxquelles s’est jointe récemment l’unité Costech. Une fédération qui a impulsé une dynamique nouvelle pour une recherche technologique interdisciplinaire au sein de l’UTC.
À Heudiasyc, Thierry Denoeux fait partie de l’équipe CID en charge de l’intelligence artificielle structurée autour de deux grands axes de recherche. Le premier concerne le traitement des connaissances et des données avec des thématiques telles que la modélisation des connaissances, l’apprentissage automatique ( machine learning ) et la gestion de l’incertitude, un défi majeur tant en intelligence artificielle qu’en statistique. « En effet, comment modéliser l’incertitude, raisonner et prendre des décisions sachant que l’on n’a pas toutes les informations ? » dit-il. Le second axe s’intéresse aux systèmes adaptatifs personnalisés. Autrement dit à tout ce qui touche à l’interaction entre humains et systèmes avec l’idée de concevoir des systèmes qui puissent s’adapter automatiquement et dynamiquement à l’utilisateur et au contexte d’utilisation.
Thierry Denoeux s’inscrit principalement dans le premier axe. « Je travaille essentiellement sur la modélisation des incertitudes dans les systèmes intelligents, une thématique qui se situe à l’interface entre l’intelligence artificielle et la statistique. Je m’intéresse plus particulièrement à la théorie des fonctions de croyance, une théorie de l’incertain qui permet de raisonner et de prendre des décisions en présence d’incertitudes. Il s’agit d’une théorie générale, qui englobe la théorie des probabilités, et qui a de nombreuses applications, car les incertitudes sont omniprésentes. La recherche dans ce domaine est pluridisciplinaire et intéresse, entre autres, des économistes, des spécialistes de l’IA et des statisticiens », explique-t-il.
Un domaine à défricher qui le conduisit, en 2010, à participer à la création d’une société savante Belief functions and Applications society (BFAS). Une association dont il est le président. L’objectif ? Il s’agit notamment de promouvoir l’enseignement, la recherche, l’approfondissement des connaissances dans le domaine des fonctions de croyance et d’explorer les liens avec d’autres théories de l’incertain. D’où le lancement de conférences internationales qui se tiennent tous les deux ans – la prochaine se tiendra à Shanghai en 2020 – et d’une école thématique destinée à la formation des doctorants et dont la dernière édition s’est tenue en octobre 2019 à Sienne (Italie).
Cependant, Thierry Denoeux ne s’enferme pas dans le volet théorique de ses recherches sur les fonctions de croyance, car il s’intéresse également aux applications concrètes qui peuvent en découler. À titre d’exemple d’application, on peut citer la reconnaissance d’adresses postales qui a fait l’objet d’une thèse CIFRE en partenariat avec la société Solystic, l’un des leaders mondiaux dans la fourniture de solutions automatisées de tri et de préparation de la distribution pour les colis et le courrier. « Cette société vend des machines avec un logiciel de reconnaissance d’adresses manuscrites. Ainsi, quand l’adresse n’est pas reconnue, l’enveloppe est rejetée et traitée manuellement. L’enjeu est donc de rejeter le moins d’enveloppes possible tout en faisant le moins d’erreurs possibles sur celles qui sont acceptées. Pour respecter ces deux critères et améliorer la performance des machines, l’idée était d’intégrer plusieurs logiciels et de combiner les résultats de ces systèmes en utilisant la théorie des fonctions de croyance », détaille-t-il.
Parmi les autres applications, on peut mentionner également le travail mené avec l’Institut Français des Sciences et Technologies des Transports, de l’Aménagement et des Réseaux (IFSTTAR) et la SNCF sur « le diagnostic de circuits de voies ferroviaires », et la collaboration en cours avec le Laboratoire d’Informatique, de Traitement de l’Information et des Systèmes (LITIS) de l’université de Rouen sur « la segmentation des tumeurs dans des images médicales et l’établissement d’un pronostic à partir de l’évolution des données du patient ».
Le corpus théorique des fonctions de croyance intéresse bien évidemment également l’équipe SyRI (Systèmes Robotiques en Interaction) qui travaille notamment sur les véhicules intelligents (VI). « Une des problématiques dans les VI concerne la perception. Les VI sont truffés de capteurs et tout l’enjeu est de pouvoir traiter les informations récoltées par ces capteurs pour reconnaître les objets sur la route tels les piétons, les cyclistes, etc. On a donc besoin de combiner les informations de ces différents capteurs. Et là aussi, il y a beaucoup d’incertitudes, car chaque capteur apporte des informations partielles, et parfois peu fiables sur l’environnement », ajoute Thierry Denoeux.
La peur de l’IA ? « Une peur irrationnelle n’a pas lieu d’être. Toutefois, certaines applications de l’IA posent des problèmes éthiques comme la vidéosurveillance généralisée avec, en particulier, le développement de la reconnaissance faciale. Comme les biologistes le font depuis longtemps, les informaticiens doivent aujourd’hui se préoccuper des implications éthiques de leurs travaux », conclut-il.
Maîtresse de conférences, Domitile Lourdeaux est également membre de l’équipe Connaissances, Incertitudes, Données (CID) au sein d’Heudiasyc, une unité mixte UTC/CNRS. Ses recherches portent sur les systèmes adaptatifs personnalisés, plus précisément sur tout ce qui a trait à la réalité virtuelle et formation.
Un domaine qu’elle ne cesse de défricher depuis sa thèse à l’École des Mines : une thèse CIFRE financée par la SNCF sur le thème « Réalité virtuelle et formation des conducteurs de TGV », menée entre 1998 et 2001. Elle porte une attention toute particulière aux objectifs pédagogiques ou « comment, dit-elle, la réalité virtuelle pouvait soit améliorer la formation existante soit la compléter ».
Informaticienne à la base, elle s’est tout de suite refusée à aborder cette question seulement sous son aspect technique. « J’ai commencé à travailler avec des ergonomes, des spécialistes des sciences de l’éducation mais aussi les utilisateurs finaux », explique-t-elle. Sa thèse achevée, elle reste, pendant quatre ans, à l’École des Mines en tant qu’attachée de recherche, rejoint, en 2005, l’UTC en tant que maîtresse de conférences et poursuit ses recherches en partant des besoins concrets et, toujours, en lien avec des industriels.
Son premier projet résulte de la rencontre avec des chercheurs de l’Institut national de l’environnement industriel et des risques (Ineris). L’objectif ? « Assurer la formation des opérateurs sous-traitants qui interviennent sur des sites à haut risque. C’était d’autant plus d’actualité qu’il y a eu l’explosion dans l’usine AZF à Toulouse, peu de temps auparavant. Explosion due à des erreurs humaines de sous-traitance », précise Domitile Lourdeaux. Un projet qui a mobilisé trois thèses et obtenu un financement significatif de l’Agence nationale de la recherche (ANR) mais aussi de la Région. « Habituellement, la réalité virtuelle est utilisée pour former à un geste technique ou à une procédure. Or, j’ai souhaité m’éloigner de ce schéma. Comme l’on se situe dans des domaines à risque, je voulais que l’apprenant puisse faire, éventuellement faire des erreurs et voir les conséquences de ses erreurs », ajoute-t-elle.
Depuis, Domitile Lourdeaux enchaîne les projets. En témoigne celui sur « la formation d’opérateurs aéronautiques en montage d’avion » en partenariat avec STELIA Aerospace (Méaulte). Autre projet novateur ? VICTEAMS (2014–2019) mené en partenariat avec le LIMSI à Orsay, des spécialistes en ergonomie cognitive, l’école du Val-de-Grâce, les sapeurs-pompiers de Paris. Projet qui devrait connaître une suite.
Particularité des projets STELIA et VICTEAMS ? L’intégration de l’intelligence artificielle (IA). « N’ayant pas les moyens de mettre, comme les fabricants de jeux vidéo par exemple, des dizaines de développeurs, nous avons eu l’idée d’intégrer de l’IA pour créer des scénarios », souligne-t-elle. « Avant le projet avec STELIA, c’était le formateur qui sélectionnait le niveau de l’apprenant puis lui donnait les objectifs pédagogiques, par exemple : travailler telle ou telle règle de sécurité. Le système de scénarisation générait, par la suite, des situations d’apprentissage en fonction de ces objectifs. Dans le projet aéronautique, nous avons souhaité créer un profil dynamique de l’apprenant, c’est-à-dire faire en sorte que le système soit capable de détecter les compétences de l’apprenant afin de lui proposer des situations intéressantes. On part donc de croyances sur ses capacités à gérer ou pas les situations auxquelles il est confronté. On parle de zone proximale de développement. À savoir que l’on a des compétences et que l’on est capable d’acquérir des compétences nouvelles, proches de ses propres compétences. Pour cela, on a utilisé des algorithmes génétiques et des fonctions de croyance afin d’étendre, progressivement, cette zone proximale », détaille-t-elle. Avec VICTEAMS (voir encadré), Domitile Lourdeaux va plus loin. « J’ai souhaité insister sur le travail collaboratif en créant des équipes virtuelles. L’implication de différents acteurs et leur interaction exige en effet une scénarisation encore plus fine. C’est le cas notamment de la formation de leaders médicaux à la gestion d’un afflux massif de blessés », précise-t-elle.
Professeur des universités, Sylvain Lagrue a rejoint l’UTC en septembre 2018. Chercheur dans l’équipe Connaissances, Incertitudes, Données (CID) au sein d’Heudiasyc, une unité mixte UTC/CNRS, il travaille sur la représentation logique des connaissances et des raisonnements, la gestion de l’incertain en intelligence artificielle et la prise de décision et jeux.
Après son DEA (actuel master 2) en intelligence artificielle (IA), Sylvain Lagrue poursuit, dans le cadre d’un projet européen, une thèse sur « la prise en compte d’incertitudes pour la modélisation de préférences dans les systèmes d’information de géographie ». Sa thèse achevée, il se retrouve en 2004 à l’université d’Artois en tant que maître de conférences avant de rejoindre l’UTC en tant que professeur des universités. Son rôle au sein de l’équipe CID ? « Mon profil, transversal, me permet de travailler avec les différents chercheurs de l’équipe. Aussi bien dans le domaine de “l’incertain” que celui de la “représentation des connaissances”, par exemple » dit-il.
Et l’IA concrètement dans tout cela ? « Pour le grand public, l’IA est de la magie faite par l’ordinateur. Et plus c’est magique, plus c’est de l’IA. Autrement dit, assister à des actions faites par des ordinateurs que l’on pensait irréalisables », souligne-t-il. Un exemple parmi d’autres ? « Prenons le jeu. Lorsque Deep Blue d’IBM a battu, en 1997, Kasparov, champion du monde d’échecs, le grand public s’est dit que l’IA allait tout emporter sur son passage, puis cela s’est calmé. La raison ? On a remarqué, après analyse, que ce qui l’a emporté en 1997, c’est la capacité de calcul de l’ordinateur. Pour le grand public, ce n’est plus magique. Ce n’est donc plus de l’IA », explique-t-il. Mais alors qu’est-ce que l’IA à son sens ? « Il s’agit de faire faire des raisonnements à une machine, alors que l’on ne s’attend pas à ce qu’elle puisse les faire. Il y a donc tout un aspect de logique mais aussi de prise de décision. En un mot, faire en sorte qu’elle raisonne et fasse des choix de façon intelligente », décrit-il.
En témoignent ses trois domaines de recherche. La représentation logique des connaissances et des raisonnements ? « La logique a toujours été, depuis l’Antiquité, une manière de formaliser un raisonnement à partir d’un certain nombre d’hypothèses nous permettant de tirer des conclusions qui sont toujours valides. Notre objectif est de faire en sorte que ce type de raisonnement avancé soit fait par une machine. Ce que l’on arrive à réaliser efficacement grâce à des algorithmes de résolution et de déduction qui, à partir des hypothèses posées, permettent in fine de faire prendre des décisions à une machine », souligne Sylvain Lagrue.
Une compétence qui l’a conduit à travailler sur un projet européen visant à la « sauvegarde du patrimoine immatériel dans le Sud-Est asiatique et en particulier les marionnettes sur eau du Vietnam dont les saynètes représentent l’histoire du pays, des légendes, des scènes de la vie quotidienne, etc. Le tout étant accompagné de musique, de chants et récitants. En matière de richesse, on peut les comparer à l’opéra en Europe. Il nous fallait donc représenter un grand nombre de connaissances complexes », précise-t-il.
La gestion de l’incertain en IA ? « Si l’on jette un dé, on ne sait pas sur quelle face il va tomber. Cependant, dans ce cas précis, nous avons des probabilités. Dans d’autres cas, on n’a même pas de probabilités. Dans les formalismes que j’utilise, l’enjeu est de modéliser une suite de “on pense que telle action aboutit à ceci mais dans le cas contraire plutôt à cela”. En somme une modélisation beaucoup plus ordinale », précise-t-il.
Enfin l’intérêt pour les jeux en IA ? « L’avantage du jeu ? C’est qu’il nous permet d’avoir un univers contrôlé. On sait dans quel environnement on se trouve, avec des règles précises, dont on en connaît les effets et on n’a pas à s’occuper d’aspects physiques. Cela nous permet de tester un grand nombre d’algorithmes », explique-t-il.
Un intérêt qui l’a conduit à codiriger une thèse sur le « general game playing », ou comment faire jouer un ordinateur à n’importe quel jeu. « Deep Blue ne savait jouer qu’aux échecs, par exemple. Pour développer un programme capable de jouer à tous les jeux, il nous a fallu représenter l’ensemble des jeux à information complète grâce au langage Game Description Language (GDL). Ce qui nous ramène là encore à la représentation des connaissances », conclut Sylvain Lagrue.