Intelligence artificielle et ingénierie des connaissances

Pro­fesseure des uni­ver­sités à l’UTC, Marie-Hélène Abel est, depuis 2020, direc­trice du départe­ment de génie infor­ma­tique. Spé­cial­isée en intel­li­gence arti­fi­cielle (IA), et plus pré­cisé­ment, en ingénierie des con­nais­sances, elle a don­né, le 1er sep­tem­bre, une leçon inaugurale.

C’est après une thèse de doc­tor­at en IA, plus pré­cisé­ment sur les sys­tèmes experts expli­cat­ifs, soutenue en 1994 à l’UTC, qu’elle rejoint, en tant que maître de con­férences, l’université de Picardie Jules-Verne puis, en 2000, l’UTC.

Qu’entend-on con­crète­ment par sys­tème expert expli­catif ? « C’est un sys­tème auquel on four­nit un cer­tain nom­bre d’informations, liées à un prob­lème don­né, à par­tir desquelles il va met­tre en oeu­vre un raison­nement et pro­pos­er dif­férentes solu­tions. Il sera égale­ment capa­ble d’expliquer sa démarche de réso­lu­tion du prob­lème afin que l’utilisateur puisse accepter ou pas la solu­tion pro­posée », explique-t-elle. 

Ses domaines de recherche ? « Je m’intéresse à l’IA et, plus pré­cisé­ment, à l’ingénierie des con­nais­sances, c’est-à-dire au tra­vail d’outillage de la con­nais­sance. La con­nais­sance étant pro­pre à l’individu, cela peut paraître éton­nant de tra­vailler sur ce thème à tra­vers des machines. Or, dans le domaine de l’IA, l’objectif est de faire en sorte que les humains et les machines puis­sent com­mu­ni­quer et que les humains aient un sen­ti­ment de com­préhen­sion mutuelle. La machine donne une réponse con­sid­érée comme per­ti­nente par l’humain qui a posé la requête. Autrement dit, il s’agit d’utiliser un lan­gage qu’elle soit capa­ble de lire et d’interpréter de la même façon qu’un humain peut le faire », souligne-t-elle. 

Des domaines qui font appel à des algo­rithmes de plus en plus sophis­tiqués. « Un algo­rithme est une suite d’instructions qui doivent être lis­i­bles et inter­prétées par la machine afin qu’elle sache ce qu’elle doit faire comme action. Prenons le code de la route par exem­ple. C’est une somme d’informations à par­tir de laque­lle nous tirons tous la même con­nais­sance. Un pan­neau stop est ain­si inter­prété par tous comme exigeant un arrêt. Dans le cas des algo­rithmes, on peut par­ler de manip­u­la­tions sym­bol­iques effec­tuées par la machine. Manip­u­la­tions qui font sens pour l’utilisateur », ajoute-t-elle. 

Le mes­sage aux étu­di­ants ? « Qu’il ne faut pas avoir peur de l’IA car on a sou­vent peur de ce que l’on ne con­naît pas. Il faut se saisir des out­ils de l’IA, tir­er prof­it de tous ses poten­tiels tout en admet­tant ses lim­ites et ses risques. Il faut donc être vig­i­lant et s’imposer un cadre éthique », con­clut Marie-Hélène Abel.

Le magazine

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram