Pour une réglementation intelligente de l’IA
Directeur scientifique chez Renault, Luc Julia est par ailleurs l’auteur du livre “L’intelligence artificielle n’existe pas” publié aux Éditions First. Favorable à la réglementation de l’IA, il n’en appelle pas moins à une réglementation intelligente.
Si le terme IA a été prononcé pour la première fois en 1956, des machines intelligentes destinées à effectuer des tâches particulières ont de tout temps existé. C’est le cas, selon Luc Julia, de la machine de Pascal au xviie siècle ou du boulier apparu 1 000 ans auparavant. « L’intelligence artificielle qui n’existe pas, c’est celle qui fonctionnerait comme la nôtre. A contrario, toutes les intelligences artificielles sont des outils destinés à ne traiter qu’une tâche donnée et en cela elles sont meilleures que nous », estime-t-il.
Des systèmes experts au machine learning en passant par le deap learning et plus récemment par l’IA générative, ces outils ont évolué dans le temps. « Les IA ne sont que des outils rangés dans la boîte à outils qu’est l’IA en général. Tout comme le marteau, les clous, le tournevis, les vis que l’on trouve dans une boîte à outils classique. Chaque IA est spécifique et destinée à un problème particulier. Cependant, il faut rester vigilant. Tout comme un marteau, que je peux utiliser pour planter un clou ou taper sur la tête de quelqu’un, l’IA peut être utilisée à bon ou à mauvais escient. D’où la nécessité d’une régulation, même si, au final, c’est tout de même une personne qui tient le manche du marteau », affirme-t-il.
Si Luc Julia souligne l’importance de la régulation des IA tant en matière des outils développés – quels types d’outils sont acceptables ? – que dans l’usage qui en est fait, il n’en cache pas moins son scepticisme vis-à-vis de « l’European AI Act » – le premier règlement complet sur l’IA établi à l’échelle du monde par une institution de réglementation de cette importance. Il craint notamment les freins à l’innovation que cela pourrait entraîner et plaide pour une réglementation intelligente. « La réglementation de l’UE classe les applications de l’IA en trois niveaux de risque : les applications et les systèmes qui créent un risque inacceptable tels les systèmes de notation sociale déployés dans certains pays, les applications à haut risque comme les outils de balayage de CV qui pourrait classer les candidats selon le genre ou l’ethnie, par exemple, et enfin les applications qui ne sont pas répertoriées comme étant à risque élevé. Une classification de cette nature est trop générale et ignore certaines granularités. Prenons l’exemple de la reconnaissance faciale. On pense tout de suite à la surveillance généralisée des populations, inacceptable bien sûr, pourtant elle peut être utile dans la réparation faciale en chirurgie. L’UE peut bien entendu finir par accepter son usage dans ce domaine, mais, le problème, c’est son manque d’agilité. Si elle me répondait en un mois que la reconnaissance faciale appliquée à la chirurgie n’est plus concernée par ce niveau de risque, je me réjouirais. Le problème, c’est qu’elle mettra trois ans pendant que les autres pays avancent », conclut Luc Julia.
MSD