IA garantie et IA approchée
Chercheur au CNRS, Sébastien Destercke est responsable de l’équipe Connaissances, Incertitudes, Données (CID) au sein d’Heudiasyc, une unité mixte UTC/CNRS. Il est également titulaire de la chaire industrielle Intelligence artificielle (IA) de confiance lancée début 2022.
Une chaire qui implique, outre l’UTC, The Sorbonne Center for Artificial Intelligence (SCAI), prochainement rebaptisé Sorbonne Cluster for Artificial Intelligence, le CNRS et Sopra Steria, mécène fondateur de la Fondation UTC pour l’innovation. Une chaire qui, à l’UTC, mobilise deux laboratoires travaillant sur l’IA elle-même – l’équipe CID (Connaissances, Incertitudes, Données) d’Heudiasyc et le LMAC dont une partie des travaux sont au cœur de l’IA – et trois autres – Roberval, BMBI (laboratoire de biomécanique et bioingénierie) et Avenues – spécialisés dans des domaines où les applications IA jouent un rôle grandissant. Heudiasyc étant, quant à lui, concerné également par les applications de l’IA.
Il n’y a pas une seule IA mais des modèles d’IA, chacun étant adapté à des applications spécifiques. « Pour tous ces modèles, on peut évoquer deux grandes tendances sous-jacentes : le raisonnement garanti et le raisonnement approché. Ainsi, les méthodes statistiques, les plus utilisées actuellement, font partie du raisonnement approché. Lorsque ces modèles donnent des prédictions, ils ne vont pouvoir les donner qu’avec des garanties statistiques. À l’inverse, les méthodes de calcul existantes dans les processeurs mais aussi un certain nombre de vérificateurs dans les ordinateurs ou encore les affectations dans Parcoursup relèvent du raisonnement garanti. En somme, il faut être sûr qu’à une entrée donnée va toujours correspondre la même sortie », explique-t-il.
Prenons les systèmes IA prédictifs. « La question est de savoir si leurs capacités de prédiction sont conformes à ce que l’on a observé dans le réel, par exemple dans le domaine du diagnostic médical. Il est alors essentiel d’adjoindre à la prédiction une juste estimation de la certitude, afin que l’information fournie soit la plus utile possible », précise-t-il. Qu’en est-il alors de l’IA générative, la dernière née des technologies IA ? « Cette technologie a besoin d’énormes quantités de données, qu’elle va structurer dans des réseaux de neurones. L’IA générative va construire, générer les sorties plausibles à partir des données dont elles disposent. Si je prends ChatGPT, par exemple, et que je lui donne un texte à illustrer, il va créer une nouvelle image à partir d’images et de textes proches de celui à illustrer. Cela veut dire que ces méthodes n’ont pas d’impératifs de véracité. Si je lui demande une information souvent rencontrée dans ses données, comme l’année de naissance de Charlemagne, il va répondre vers l’an 800. Par contre, si je lui demande de traduire un texte dans une langue rare dont il aura vu peu de textes, il va générer une traduction, mais je doute qu’elle sera juste. Un possible inconvénient de cette IA, c’est que son fonctionnement n’est pas intelligible. On parle souvent de “boîte noire” la concernant. Couplé au fait qu’elle ne cherche pas à prédire le réel, il est donc dangereux de l’utiliser dans certains domaines, comme le médical ou les transports, sauf en la couplant avec d’autres systèmes qui rattrapent ses défauts. Il faut la considérer comme un assistant et non comme un décideur », souligne-t-il.
Enfin, qu’elle soit générative ou prédictive, un autre problème actuel de l’IA est qu’elle peut générer ou reproduire des biais dommageables. C’est ce qui est arrivé, par exemple, avec l’outil RH [ressources humaines] d’Amazon qui avait tendance à privilégier les candidatures masculines car, au départ, c’était surtout des hommes qui postulaient, ils sont donc plus nombreux dans la base de données.
Parmi les outils développés au sein d’Heudiasyc ? « Personnellement, mon travail se concentre sur des modèles qui peuvent approcher la réalité. Des modèles qui soient robustes et sûrs et qui doivent m’apporter des garanties statistiques suffisantes. Ces deux critères s’inscrivent dans la problématique plus large de l’IA de confiance. Le premier constitue un aspect décisif dans nombre d’applications industrielles et particulièrement dans les systèmes d’IA. Leur robustesse se mesure à leur capacité à s’adapter, sans perdre en qualité, aux changements des conditions de déploiement comme aux changements d’environnement. Le second doit permettre de quantifier l’incertitude associée aux prédictions du système. Le but est que le système puisse quantifier sa propre confiance dans ses prédictions. Si le système donne une prévision juste à 90 %, j’aimerais qu’elle soit juste 90 % du temps. Si on prend la voiture autonome par exemple, il est évident qu’une IA de confiance est primordiale », assure Sébastien Destercke. Les enjeux liés à la prochaine génération d’IA ? « L’un d’eux sera sans doute de pouvoir combiner une IA garantie avec les capacités d’extrapolation et d’interprétation de l’IA générative notamment les modèles LLM (large language model) », conclut-il.
MSD