Couverture du journal du 16/04/2021 Consulter le journal

Vers une éthique de l’intelligence artificielle

Comment réguler la conception de l’intelligence artificielle ? Et son utilisation ? Dans une conférence en ligne organisée par l’association dirigeants responsables de l’ouest, Laurence Devillers, professeure en intelligence artificielle à la Sorbonne, a évoqué les enjeux de cette technologie pas si nouvelle, et la création, en juin, d’un groupe international, à l’initiative de la France et du canada, pour tenter d’en esquisser une éthique.

intelligence artificielle

Photo de Markus Spiske provenant de Pexels

Laurence DEVILLIERS

Laurence Devilliers, professeure en intelligence artificielle à la Sorbonne © D.R.

Chatbot, cobot dans les entreprises, objets connectés, sans parler des algorithmes de Facebook ou Waze… L’intelligence artificielle est un sujet incontournable de l’économie contemporaine. Et, force est de constater que « la France est en retard », selon Laurence Devillers, professeure en intelligence artificielle à La Sorbonne. « À force de dire que nous sommes des philosophes et qu’on ne veut pas s’en mêler, la France n’a pas encore suffisamment investi ce champ scientifique pour en tirer son potentiel tout en respectant notre culture. » Car, surtout développés aux États-Unis et en Asie, les outils actuels utilisant l’intelligence artificielle comportent des biais qui peuvent aller à l’encontre de nos valeurs, explique-t-elle. « C’est pourquoi il est important de bien comprendre comment ils fonctionnent et comment ils peuvent conduire à une certaine manipulation, orientent notre vision du monde et nos actions ».

« TENSIONS ÉTHIQUES »

La chercheuse travaille sur le sujet depuis trente ans, avec une thèse sur le dialogue entre l’homme et la machine en 1992. Elle est aujourd’hui membre du Comité national pilote d’éthique du numérique, créé en 2019, instance accolée au Comité consultatif d’éthique présidé par le professeur Delfraissy, dont on entend beaucoup parler ces temps-ci. « Le sujet est une préoccupation réelle du gouvernement qui m’a missionnée pour un rapport, en cours, sur les agents conversationnels et l’éthique. » Car, à part la RGPD, rien ne régule aujourd’hui ce monde de l’intelligence artificielle. Où vont nos données ? Comment sont-elles utilisées ?

Dans le domaine du travail, de nombreux aspects restent à défricher. Par exemple, dans le cas de l’utilisation de cobot, quid de la responsabilité ? « Elle sera partagée entre le concepteur, l’entraîneur et l’utilisateur selon des modalités qui restent à établir. Cela nécessite de modifier le droit pour prendre en compte ce type de partage », évoque ainsi Laurence Devillers.

La chercheuse parle de « tensions éthiques » sur de nombreuses applications de l’IA. « J’ai beau être technophile depuis des années, il y a des choses qui me choquent », témoigne-t-elle. Elle évoque ainsi les applis qui permettent de retrouver sa voiture sur un parking « qui impliquent d’être tracé », les objets connectés qui proposent de la musique en fonction de ses goûts, « mais comment définissent-ils un profil ? Et ne risquent-ils pas d’enfermer les individus dans des catégories ? »

Pour Laurence Devillers il existe aussi des aspects à aborder sous un angle méta-éthique. En particulier, le fait que les objets de l’IA sont « très féminisés, faciles, obéissants et débranchables. Ils sont élaborés par des développeurs en majorité masculins et posent un problème, quand même, sur la vision des femmes »… La chercheuse montre en exemple une publicité japonaise d’une « assistante de vie virtuelle », Gatebox, vendue pour 1 200 $, sorte de « fée clochette » qui accompagne l’homme à la maison mais aussi toute la journée via son téléphone en lui posant des questions maternantes du type « As-tu bien dormi, quand rentres-tu à la maison ?… »

UNE QUESTION DE CONFIANCE

Selon Laurence Devillers, la confiance des utilisateurs envers l’IA doit être trouvée dès la conception des objets. C’est ce qu’on appelle le « value by design », soit la prise en compte de certaines valeurs dès la création technologique et leur intégration à ces technologies. Par exemple : comment éviter les biais ? De quelle manière la cybersécurité a-t-elle été prise en compte ? Après la conception, vient la phase de l’appropriation, qui permet d’évaluer la réponse des êtres humains aux machines et leurs éventuels changements de comportement. Et, enfin, lors de l’utilisation, il convient d’informer les utilisateurs de l’origine automatique ou non de la décision. À ce jour, seule la loi californienne oblige tout système à prévenir si c’est une réponse automatique ou humaine. Mais c’est la seule réglementation, hors RGPD, dans le monde à ce jour.

UN PARTENARIAT MONDIAL SUR L’IA

Afin d’avancer sur l’encadrement de l’IA, une réflexion internationale mêlant industriels, société civile, chercheurs et institutions, a été lancée en juin 2020 à l’initiative d’Emmanuel Macron et du Premier ministre canadien, Justin Trudeau. Intitulé GPAI (Global Partnership on Artificial Intelligency), ce groupe a pour membres les États-Unis, l’Union européenne, l’Allemagne, l’Italie, le Royaume-Uni, la Slovénie, le Mexique, le Japon, la Corée du Sud, l’Inde, Singapour, l’Australie et la Nouvelle-Zélande. D’autres États seront amenés à les rejoindre. Laurence Devillers y contribue pour la France. « Le groupe révèle des tensions politiques et culturelles car, même si ces membres sont des démocraties, nous n’avons pas tous les mêmes idées en matière de liberté et de solidarité. On le voit par exemple sur le droit d’éteindre ces machines… », constate Laurence Devillers, qui plaide pour la formation d’une sorte de G20 sur ces questions. « Nous sommes à l’aube d’une nouvelle vie. Les progrès sont constants, mais nous pouvons faire beaucoup mieux car les applications en santé ou en environnement ne sont pas encore suffisamment exploitées… »