IA raisonnante et mathématiques du flou
Professeur de mathématiques du flou et d’intelligence artificielle à l’UTC, Zyed Zalila est rattaché au département Technologie, Société, Humanités (TSH). Il est par ailleurs directeur-fondateur d’Intellitech, un spin-off de l’UTC, créé en 1998 et spécialisé dans la R&D en mathématiques du flou et IA raisonnante.
Particularité d’Intellitech ? La totalité de ses collaborateurs est issue de l’UTC. Zyed Zalila a une longue histoire avec les mathématiques du flou, puisqu’il en a proposé une théorie lors de son doctorat et a commencé, en 1993, à les enseigner à l’UTC.
Concrètement ? « C’est une approche mathématique tout à fait rigoureuse dont l’objet d’étude est le flou, c’est-à-dire l’imprécis, l’incertain, le subjectif. Si je dis qu’il y a environ 50 personnes devant le bâtiment, c’est de l’imprécision. Je peux, bien entendu, les compter, mais cela demande du temps et de l’énergie. Or, une estimation pourrait être suffisante pour prendre une décision rapide. L’incertitude, quant à elle, est dite “épistémique”, car due à l’ignorance ; à ne pas confondre avec l’incertitude stochastique qui est liée au hasard. Enfin, si je dis : “Il fait chaud dans cette pièce”, c’est de la subjectivité. De fait, le conducteur d’un véhicule ne fait que traiter des informations floues sur l’environnement captées par ses sens et utilise des règles floues pour adapter ses actions de conduite », explique-t-il.
Alors que toutes les mathématiques classiques sont fondées sur l’axiome d’Aristote pour qui il n’existe que deux états de vérité – le vrai et le faux –, pour les mathématiques du flou il y a aussi une infinité d’états entre ces deux extrémités. « Ce sont donc des logiques continues. L’être humain ne raisonne pas en binaire – noir ou blanc. Il appréhende également toutes les nuances de gris. Il nous faut donc adapter l’outil mathématique à la façon dont l’humain perçoit son monde. C’est pour cela que les mathématiques du flou, continues et non linéaires, sont extrêmement performantes pour modéliser le raisonnement et la perception humaine », précise-t-il.
Depuis 1956, deux écoles de l’IA s’affrontent : l’IA connexionniste et l’IA cognitive, c’est-à-dire fondée sur les connaissances. La première s’est fixée comme objectif de modéliser la perception. « Quand vous regardez une personne, c’est le lobe occipital connecté aux rétines par le nerf optique qui vous permet de reconstruire son visage, mais sans raisonner. Partant du constat que les sens sont un automatisme inconscient, les adeptes de cette école ont décidé de construire un réseau de neurones afin de mimer le cerveau humain. D’ailleurs, les premières applications ont concerné la vision. Je transforme l’image en pixels et, en combinant ces derniers, je dis qu’elle représente un chat, telle autre un bébé ; toutefois, le graphe hyperconnecté obtenu est opaque. Comme cette technologie est automatisée, elle s’avère performante, même si peu frugale, car il lui faut énormément de données pour converger. C’est pourquoi on la qualifie d’IA robuste mais non intelligible », estime Zyed Zalila.
La seconde s’est donnée comme objectif de modéliser le raisonnement. « Quand on raisonne, on doit tout comprendre, et on ne peut le faire que sur des connaissances, donc transparentes. Là encore, les adeptes de l’IA cognitive convoquent Aristote et son syllogisme : tous les hommes sont mortels, Socrate est un homme, j’en déduis que Socrate est mortel. Ils ont ainsi développé les systèmes experts où, dans une situation donnée, telle règle se déclenche, puis telle autre et ainsi de suite jusqu’à la décision finale. Cette technologie combine des règles SI… ALORS, produites préalablement par des experts, et la logique binaire. À l’inverse de l’IA connexionniste, cette technologie est intelligible, car les règles sont compréhensibles, mais non robustes. En effet, si le processus modélisé est complexe, aucun cerveau humain ne pourra analyser consciemment et simultanément plus de dix variables pour produire les règles », détaille-t-il.
Deux approches qui ont chacune leurs limites. Des limites qui ont été, selon Zyed Zalila, dépassées dès 2003, grâce au développement de l’IA raisonnante générale XTRACTIS avec Intellitech. XTRACTIS automatise les 3 modes de raisonnement humain et les étend aux logiques continues : l’induction pour découvrir des modèles prédictifs robustes et intelligibles à partir d’observations. C’est la méthode scientifique expérimentale. La déduction et l’abduction exploitent les modèles induits, afin de réaliser des prédictions ou de chercher des solutions les plus optimales à une requête multiobjectif. « Pour faire un diagnostic épigénétique de cancers, en tenant compte de l’influence des facteurs environnementaux sur le génome, j’ai besoin de traiter pas moins de 27 000 variables en interaction. Aucun cerveau humain n’est capable de découvrir le modèle prédictif recherché. Par contre, XTRACTIS sait révéler, par induction, les prédicteurs et les règles du phénomène caché, pour poser le diagnostic de manière robuste et intelligible. XTRACTIS devient mon exocerveau : il m’aide à résoudre des problèmes complexes que mon cerveau sait poser mais ne peut résoudre. Cette IA opérationnelle et souveraine nous permet de produire des connaissances scientifiques mais elle relève aussi les exigences de l’AI ACT : l’intelligibilité du système de décision devient primordiale quand l’application est critique et à haut risque », conclut Zyed Zalila.
MSD