Quelle place accorder aux IA dans notre société ?

Directeur du départe­ment TSH, Pierre Stein­er enseigne la philoso­phie et l’épistémologie. Par­mi ses enseigne­ments, il abor­de la dimen­sion éthique et les rela­tions qui peu­vent exis­ter entre éthique, tech­nolo­gies et le méti­er d’ingénieur.

Ce qui tout naturelle­ment fait des tech­nolo­gies de l’IA un champ d’étude et de réflex­ion afin d’en mesur­er les con­séquences tant sociales qu’environnementales par exem­ple. « Aujourd’hui, les rela­tions entre éthique et IA se décli­nent de dif­férentes façons et ces décli­naisons ne sont pas for­cé­ment fonc­tion des types d’IA exis­tantes. Si on prend les IA généra­tives les plus récentes, leur manque de trans­parence a des dimen­sions à la fois tech­nologiques pour les con­cep­teurs mais aus­si éthiques et juridiques. Par­mi les valeurs éthiques, on peut se deman­der si ces sys­tèmes respectent, par exem­ple, l’équité ou l’absence de biais. On peut égale­ment soulever la ques­tion de la respon­s­abil­ité – est-ce le sys­tème qui est respon­s­able ou le con­cep­teur du sys­tème ? –, mais aus­si la manière dont les don­nées ont été col­lec­tées, et s’assurer qu’elles reflè­tent bien la diver­sité de la pop­u­la­tion ou encore s’interroger sur le respect de la vie privée. Face aux IA, émer­gent égale­ment des ques­tion­nements juridiques nou­veaux. Si on ne sait pas com­ment le sys­tème s’y prend pour pro­duire telle ou telle réponse, com­ment peut-on estimer qu’une réponse est jus­ti­fiée ? Et com­ment laiss­er un sys­tème aus­si peu trans­par­ent appuy­er des déci­sions pris­es en temps nor­mal par des humains ? » détaille Pierre Steiner.

En effet, si les béné­fices tirés des don­nées IA et des algo­rithmes peu­vent être impor­tants, il n’en reste pas moins que les risques d’erreurs exis­tent et sont inac­cept­a­bles dans un grand nom­bre de domaines. « Si on prend le sys­tème de san­té par exem­ple, souhai­te­ri­ons-nous déléguer à ces sys­tèmes la prise de déci­sion con­cer­nant un diag­nos­tic ou les soins à apporter ? Jusqu’où sommes-nous prêts à le faire et enfin à quel moment estime­ri­ons-nous que l’intervention humaine demeure néces­saire ? Mais, plus générale­ment et c’est éminem­ment poli­tique, se pose la ques­tion de la société et du monde que l’on veut dessin­er. Souhaitons-nous un monde où les IA joueraient un rôle plus impor­tant dans la manière de nous informer, de pro­duire des con­nais­sances, de les enseign­er ou encore de tra­vailler ? On peut égale­ment se pos­er des ques­tions sur les con­séquences de l’IA sur le plan socié­tal avec l’automatisation crois­sante de nom­breuses tâch­es mais aus­si sur le plan écologique. En somme, il s’agira de faire des choix et de définir la place que l’on voudrait accorder aux IA dans notre société. Tous ces ques­tion­nements ne sont pas seule­ment du ressort de l’ingénieur ou du con­cep­teur. Ce sont des ques­tions poli­tiques et éthiques qui ne peu­vent se résoudre par des algo­rithmes ou par l’agrégation de don­nées », affirme-t-il.

Des ques­tions éthiques qui irriguent l’enseignement et la recherche à l’UTC. « Ce qui est par­ti­c­uli­er à l’UTC, c’est que l’on con­sid­ère que l’on ne doit pas réfléchir aux ques­tions éthiques en bout de chaîne lorsque le sys­tème est déployé. Elles doivent se pos­er en amont. C’est dès la con­cep­tion qu’il faut se pos­er la ques­tion des enjeux, sur un plan éthique, du sys­tème », con­clut Pierre Steiner.

MSD

Le magazine

Novembre 2024 - N°64

L’intelligence artificielle : un outil incontournable

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram