IA garantie et IA approchée

Chercheur au CNRS, Sébastien Dester­cke est respon­s­able de l’équipe Con­nais­sances, Incer­ti­tudes, Don­nées (CID) au sein d’Heudiasyc, une unité mixte UTC/CNRS. Il est égale­ment tit­u­laire de la chaire indus­trielle Intel­li­gence arti­fi­cielle (IA) de con­fi­ance lancée début 2022.

Une chaire qui implique, out­re l’UTC, The Sor­bonne Cen­ter for Arti­fi­cial Intel­li­gence (SCAI), prochaine­ment rebap­tisé Sor­bonne Clus­ter for Arti­fi­cial Intel­li­gence, le CNRS et Sopra Ste­ria, mécène fon­da­teur de la Fon­da­tion UTC pour l’innovation. Une chaire qui, à l’UTC, mobilise deux lab­o­ra­toires tra­vail­lant sur l’IA elle-même – l’équipe CID (Con­nais­sances, Incer­ti­tudes, Don­nées) d’Heudiasyc et le LMAC dont une par­tie des travaux sont au cœur de l’IA – et trois autres – Rober­val, BMBI (lab­o­ra­toire de bio­mé­canique et bio­ingénierie) et Avenues – spé­cial­isés dans des domaines où les appli­ca­tions IA jouent un rôle gran­dis­sant. Heudi­asyc étant, quant à lui, con­cerné égale­ment par les appli­ca­tions de l’IA.

Il n’y a pas une seule IA mais des mod­èles d’IA, cha­cun étant adap­té à des appli­ca­tions spé­ci­fiques. « Pour tous ces mod­èles, on peut évo­quer deux grandes ten­dances sous-jacentes : le raison­nement garan­ti et le raison­nement approché. Ain­si, les méth­odes sta­tis­tiques, les plus util­isées actuelle­ment, font par­tie du raison­nement approché. Lorsque ces mod­èles don­nent des pré­dic­tions, ils ne vont pou­voir les don­ner qu’avec des garanties sta­tis­tiques. À l’inverse, les méth­odes de cal­cul exis­tantes dans les processeurs mais aus­si un cer­tain nom­bre de vérifi­ca­teurs dans les ordi­na­teurs ou encore les affec­ta­tions dans Par­cour­sup relèvent du raison­nement garan­ti. En somme, il faut être sûr qu’à une entrée don­née va tou­jours cor­re­spon­dre la même sor­tie », explique-t-il.

Prenons les sys­tèmes IA pré­dic­tifs. « La ques­tion est de savoir si leurs capac­ités de pré­dic­tion sont con­formes à ce que l’on a observé dans le réel, par exem­ple dans le domaine du diag­nos­tic médi­cal. Il est alors essen­tiel d’adjoindre à la pré­dic­tion une juste esti­ma­tion de la cer­ti­tude, afin que l’information fournie soit la plus utile pos­si­ble », pré­cise-t-il. Qu’en est-il alors de l’IA généra­tive, la dernière née des tech­nolo­gies IA ? « Cette tech­nolo­gie a besoin d’énormes quan­tités de don­nées, qu’elle va struc­tur­er dans des réseaux de neu­rones. L’IA généra­tive va con­stru­ire, génér­er les sor­ties plau­si­bles à par­tir des don­nées dont elles dis­posent. Si je prends Chat­G­PT, par exem­ple, et que je lui donne un texte à illus­tr­er, il va créer une nou­velle image à par­tir d’images et de textes proches de celui à illus­tr­er. Cela veut dire que ces méth­odes n’ont pas d’impératifs de vérac­ité. Si je lui demande une infor­ma­tion sou­vent ren­con­trée dans ses don­nées, comme l’année de nais­sance de Charle­magne, il va répon­dre vers l’an 800. Par con­tre, si je lui demande de traduire un texte dans une langue rare dont il aura vu peu de textes, il va génér­er une tra­duc­tion, mais je doute qu’elle sera juste. Un pos­si­ble incon­vénient de cette IA, c’est que son fonc­tion­nement n’est pas intel­li­gi­ble. On par­le sou­vent de “boîte noire” la con­cer­nant. Cou­plé au fait qu’elle ne cherche pas à prédire le réel, il est donc dan­gereux de l’utiliser dans cer­tains domaines, comme le médi­cal ou les trans­ports, sauf en la cou­plant avec d’autres sys­tèmes qui rat­trapent ses défauts. Il faut la con­sid­ér­er comme un assis­tant et non comme un décideur », souligne-t-il.

Enfin, qu’elle soit généra­tive ou pré­dic­tive, un autre prob­lème actuel de l’IA est qu’elle peut génér­er ou repro­duire des biais dom­mage­ables. C’est ce qui est arrivé, par exem­ple, avec l’outil RH [ressources humaines] d’Amazon qui avait ten­dance à priv­ilégi­er les can­di­da­tures mas­cu­lines car, au départ, c’était surtout des hommes qui pos­tu­laient, ils sont donc plus nom­breux dans la base de données.

Par­mi les out­ils dévelop­pés au sein d’Heudiasyc ? « Per­son­nelle­ment, mon tra­vail se con­cen­tre sur des mod­èles qui peu­vent approcher la réal­ité. Des mod­èles qui soient robustes et sûrs et qui doivent m’apporter des garanties sta­tis­tiques suff­isantes. Ces deux critères s’inscrivent dans la prob­lé­ma­tique plus large de l’IA de con­fi­ance. Le pre­mier con­stitue un aspect décisif dans nom­bre d’applications indus­trielles et par­ti­c­ulière­ment dans les sys­tèmes d’IA. Leur robustesse se mesure à leur capac­ité à s’adapter, sans per­dre en qual­ité, aux change­ments des con­di­tions de déploiement comme aux change­ments d’environnement. Le sec­ond doit per­me­t­tre de quan­ti­fi­er l’incertitude asso­ciée aux pré­dic­tions du sys­tème. Le but est que le sys­tème puisse quan­ti­fi­er sa pro­pre con­fi­ance dans ses pré­dic­tions. Si le sys­tème donne une prévi­sion juste à 90 %, j’aimerais qu’elle soit juste 90 % du temps. Si on prend la voiture autonome par exem­ple, il est évi­dent qu’une IA de con­fi­ance est pri­mor­diale », assure Sébastien Dester­cke. Les enjeux liés à la prochaine généra­tion d’IA ? « L’un d’eux sera sans doute de pou­voir com­bin­er une IA garantie avec les capac­ités d’extrapolation et d’interprétation de l’IA généra­tive notam­ment les mod­èles LLM (large lan­guage mod­el) », conclut-il.

MSD

Le magazine

Novembre 2024 - N°64

L’intelligence artificielle : un outil incontournable

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram