IA raisonnante et mathématiques du flou

Pro­fesseur de math­é­ma­tiques du flou et d’intelligence arti­fi­cielle à l’UTC, Zyed Zalila est rat­taché au départe­ment Tech­nolo­gie, Société, Human­ités (TSH). Il est par ailleurs directeur-fon­da­teur d’Intellitech, un spin-off de l’UTC, créé en 1998 et spé­cial­isé dans la R&D en math­é­ma­tiques du flou et IA raisonnante.

Par­tic­u­lar­ité d’Intellitech ? La total­ité de ses col­lab­o­ra­teurs est issue de l’UTC. Zyed Zalila a une longue his­toire avec les math­é­ma­tiques du flou, puisqu’il en a pro­posé une théorie lors de son doc­tor­at et a com­mencé, en 1993, à les enseign­er à l’UTC.

Con­crète­ment ? « C’est une approche math­é­ma­tique tout à fait rigoureuse dont l’objet d’étude est le flou, c’est-à-dire l’imprécis, l’incertain, le sub­jec­tif. Si je dis qu’il y a env­i­ron 50 per­son­nes devant le bâti­ment, c’est de l’imprécision. Je peux, bien enten­du, les compter, mais cela demande du temps et de l’énergie. Or, une esti­ma­tion pour­rait être suff­isante pour pren­dre une déci­sion rapi­de. L’incertitude, quant à elle, est dite “épistémique”, car due à l’ignorance ; à ne pas con­fon­dre avec l’incertitude sto­chas­tique qui est liée au hasard. Enfin, si je dis : “Il fait chaud dans cette pièce”, c’est de la sub­jec­tiv­ité. De fait, le con­duc­teur d’un véhicule ne fait que traiter des infor­ma­tions floues sur l’environnement cap­tées par ses sens et utilise des règles floues pour adapter ses actions de con­duite », explique-t-il.

Alors que toutes les math­é­ma­tiques clas­siques sont fondées sur l’axiome d’Aristote pour qui il n’existe que deux états de vérité – le vrai et le faux –, pour les math­é­ma­tiques du flou il y a aus­si une infinité d’états entre ces deux extrémités. « Ce sont donc des logiques con­tin­ues. L’être humain ne raisonne pas en binaire – noir ou blanc. Il appréhende égale­ment toutes les nuances de gris. Il nous faut donc adapter l’outil math­é­ma­tique à la façon dont l’humain perçoit son monde. C’est pour cela que les math­é­ma­tiques du flou, con­tin­ues et non linéaires, sont extrême­ment per­for­mantes pour mod­élis­er le raison­nement et la per­cep­tion humaine », précise-t-il.

Depuis 1956, deux écoles de l’IA s’affrontent : l’IA con­nex­ion­niste et l’IA cog­ni­tive, c’est-à-dire fondée sur les con­nais­sances. La pre­mière s’est fixée comme objec­tif de mod­élis­er la per­cep­tion. « Quand vous regardez une per­son­ne, c’est le lobe occip­i­tal con­nec­té aux rétines par le nerf optique qui vous per­met de recon­stru­ire son vis­age, mais sans raison­ner. Par­tant du con­stat que les sens sont un automa­tisme incon­scient, les adeptes de cette école ont décidé de con­stru­ire un réseau de neu­rones afin de mimer le cerveau humain. D’ailleurs, les pre­mières appli­ca­tions ont con­cerné la vision. Je trans­forme l’image en pix­els et, en com­bi­nant ces derniers, je dis qu’elle représente un chat, telle autre un bébé ; toute­fois, le graphe hyper­con­nec­té obtenu est opaque. Comme cette tech­nolo­gie est automa­tisée, elle s’avère per­for­mante, même si peu fru­gale, car il lui faut énor­mé­ment de don­nées pour con­verg­er. C’est pourquoi on la qual­i­fie d’IA robuste mais non intel­li­gi­ble », estime Zyed Zalila.

La sec­onde s’est don­née comme objec­tif de mod­élis­er le raison­nement. « Quand on raisonne, on doit tout com­pren­dre, et on ne peut le faire que sur des con­nais­sances, donc trans­par­entes. Là encore, les adeptes de l’IA cog­ni­tive con­vo­quent Aris­tote et son syl­lo­gisme : tous les hommes sont mor­tels, Socrate est un homme, j’en déduis que Socrate est mor­tel. Ils ont ain­si dévelop­pé les sys­tèmes experts où, dans une sit­u­a­tion don­née, telle règle se déclenche, puis telle autre et ain­si de suite jusqu’à la déci­sion finale. Cette tech­nolo­gie com­bine des règles SI… ALORS, pro­duites préal­able­ment par des experts, et la logique binaire. À l’inverse de l’IA con­nex­ion­niste, cette tech­nolo­gie est intel­li­gi­ble, car les règles sont com­préhen­si­bles, mais non robustes. En effet, si le proces­sus mod­élisé est com­plexe, aucun cerveau humain ne pour­ra analyser con­sciem­ment et simul­tané­ment plus de dix vari­ables pour pro­duire les règles », détaille-t-il.

Deux approches qui ont cha­cune leurs lim­ites. Des lim­ites qui ont été, selon Zyed Zalila, dépassées dès 2003, grâce au développe­ment de l’IA raison­nante générale XTRACTIS avec Intel­litech. XTRACTIS automa­tise les 3 modes de raison­nement humain et les étend aux logiques con­tin­ues : l’induction pour décou­vrir des mod­èles pré­dic­tifs robustes et intel­li­gi­bles à par­tir d’observations. C’est la méth­ode sci­en­tifique expéri­men­tale. La déduc­tion et l’abduction exploitent les mod­èles induits, afin de réalis­er des pré­dic­tions ou de chercher des solu­tions les plus opti­males à une requête mul­ti­ob­jec­tif. « Pour faire un diag­nos­tic épigéné­tique de can­cers, en ten­ant compte de l’influence des fac­teurs envi­ron­nemen­taux sur le génome, j’ai besoin de traiter pas moins de 27 000 vari­ables en inter­ac­tion. Aucun cerveau humain n’est capa­ble de décou­vrir le mod­èle pré­dic­tif recher­ché. Par con­tre, XTRACTIS sait révéler, par induc­tion, les pré­dicteurs et les règles du phénomène caché, pour pos­er le diag­nos­tic de manière robuste et intel­li­gi­ble. XTRACTIS devient mon exo­cerveau : il m’aide à résoudre des prob­lèmes com­plex­es que mon cerveau sait pos­er mais ne peut résoudre. Cette IA opéra­tionnelle et sou­veraine nous per­met de pro­duire des con­nais­sances sci­en­tifiques mais elle relève aus­si les exi­gences de l’AI ACT : l’intelligibilité du sys­tème de déci­sion devient pri­mor­diale quand l’application est cri­tique et à haut risque », con­clut Zyed Zalila.

MSD

Le magazine

Novembre 2024 - N°64

L’intelligence artificielle : un outil incontournable

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram