L’Intelligence artificielle éthique: un enjeu pour les entreprises, les citoyens et les gouvernements

By
Nehme Lebbos

Expert in Digital Transformation, CEO of NELCOM Group.


Depuis des dizaines d’années, l’humain exprime sa peur de l’Intelligence artificielle. Les individus redoutent en fait ce qu’on appelle aujourd’hui l’« IA forte » : une intelligence robotique capable de prendre le contrôle de la planète - et notamment du système d’armement des différents pays du monde. Ce fantasme (car pour le moment ce n’est qu’un fantasme), alimente régulièrement et depuis longtemps la créativité des scénaristes au cinéma et à la télévision.

Si l’Intelligence artificielle n’est pas devenue cette force tant redoutée, elle est cependant bel et bien entrée dans notre réalité. Elle est désormais présente dans de nombreux services digitaux et représente aujourd’hui un outil particulièrement efficace pour les GAFA et les marketers : leurs algorithmes nous suggèrent sans cesse tel ou tel service et produit que l’on devrait aimer. Ils nous « matchent » avec des partenaires qui sont sensés nous convenir. Et ils nous proposent sur les réseaux sociaux des contenus supposés nous intéresser.

Bref, si on les laisse faire, ces algorithmes vont finir par façonner notre manière de voir les choses, nos goûts, nos idées.

Un rapport de la CNIL sur les enjeux éthiques de l’IA

Cela suscite la vigilance de la CNIL, qui a commencé à réfléchir à l’éthique des algorithmes. En décembre 2017, la Commission nationale informatique et liberté a publié un rapport sur l’Intelligence artificielle, intitulé « Comment permettre à l’homme de garder la main ?  ». Ce document de 80 pages se penche sur les «  enjeux éthiques des algorithmes et de l’intelligence artificielle ». Il propose une synthèse du débat public animé par la CNIL dans le cadre de sa mission de réflexion éthique, confiée par la « Loi de 2016 pour une République Numérique ».

Dans la préface de ce rapport, Isabelle Falque Pierrotin, présidente de la CNIL, désigne l’Intelligence artificielle comme « le grand mythe de notre temps », vis-à-vis duquel on redoutait « l’émergence apocalyptique d’une conscience robotique hostile ». Elle souligne ainsi qu’un grand effort d’information reste en effet nécessaire pour mieux faire comprendre aux utilisateurs le fonctionnement et la place de l’Intelligence artificielle dans notre quotidien.  Cela commence par une meilleure compréhension de ce que sont les « données » (la fameuse « data ») et les algorithmes qui les utilisent.

Les données et les algorithmes sont partout

Dans une interview aux organisateurs de AI Paris, Nohza Boujemaa, directrice de recherche à l’INRIA explique que « La compréhension de l’écosystème de la donnée évolue : on se rend compte que les données sont partout et que de facto les algorithmes sont partout. (…) L’analyse des données n’est pas une nouvelle discipline mais elle est en train d’évoluer de la description du passé vers l’analyse prédictive et de plus en plus vers une analyse prescriptive qui, elle, doit être questionnée, en particulier dans les contextes à fort impact sur l’individu et la société. »

Face à cet enjeu, les grands acteurs digitaux du secteur privé aux Etats Unis, à savoir Amazon, Apple, DeepMind, Google, Facebook, IBM et Microsoft, ont récemment initié un «Partnership on AI to benefit people and society » (partenariat autour de l’IA pour les individus et la société), une « plateforme ouverte visant à étudier et formuler les meilleures pratiques sur les technologies de l’IA, faire progresser la compréhension par le public de l’IA et servir de plate-forme ouverte de discussion et d’engagement sur l’IA et ses influences sur les personnes et la société. Ces acteurs réunis souhaitent développer une politique concertée sur l’éthique, la transparence des algorithmes et des études sur l’impact de l’AI sur la société et les individus », explique Nohza Boujemaa.

On se doute bien que ces grands acteurs du numérique ne participent pas à ce projet par pur sens de l’éthique. Ils savent surtout que les particuliers risquent de rejeter leurs nouveaux services digitaux s’ils n’obtiennent pas davantage de transparence.

Les industriels, les pays et les institutions réfléchissent à une IA responsable

En France, la plateforme TransAlgo a été lancée dans le cadre de la loi pour une république numérique et en réaction au manque de confiance observé dans la société face à l’intelligence artificielle. TransAlgo est ainsi dédiée au développement de la transparence et de la responsabilité des systèmes algorithmiques. La plateforme est opérée par Inria, avec le soutien du Conseil national du numérique (CNNum) et de l’Institut Mines Télécom (IMT). Son ambition est de « développer une culture et un savoir-faire destinés à une production, une analyse et une valorisation d'algorithmes et de bases de données responsables et éthiques ». Réunissant des acteurs des secteurs académiques, industriels, associatifs, ainsi que les autorités de régulation, la plateforme doit notamment fournir aux consommateurs et aux citoyens des éléments (contenus pédagogiques, articles, outils en logiciels libres) qui leur permettront de comprendre les différents systèmes. Par exemple, pourquoi tel site nous propose telle publicité plutôt qu’une autre, pourquoi tel résultat de recherche arrive en premier et tel autre loin derrière, qu’y a-t-il derrière la collecte des données, etc.

Former les Data Scientists à l’éthique des données

Mais au-delà de la compréhension du fonctionnement de l’Intelligence artificielle, reste la question de la responsabilité des acteurs économiques et numériques. Comment s’assurer qu’ils veilleront eux-mêmes à l’éthique de leurs propres algorithmes ? Selon Mme Boujemaa,  TransAlgo n’aura pas pour mission de réguler les algorithmes mais la plateforme publiera « des outils d’auditabilité des algorithmes afin d’élaguer ceux qui ne posent pas de questions et d’identifier rapidement ceux qui demandent plus d’investigations ». Elle ajoute que ce sera ensuite « au régulateur de faire son travail dans le cadre des lois existantes », tout en estimant qu’il faudrait, en amont, « former les data scientists à l’économie, au droit des données et à l’éthique des données, pour éviter la conception d’algorithmes non vertueux ». Comme elle le dit cette fois dans une chronique publiée dans Le Monde, « les risques négatifs de l’IA ne sont pas toujours issus d’une volonté de nuire, de discriminer sur un ­critère non avouable ou de contourner la ­réglementation en vigueur, mais parfois simplement d’un manque de maîtrise dans le déploiement de ces technologies très puissantes ».

La Commission européenne tente pour sa part elle aussi de se positionner sur cette question d’une Intelligence artificielle responsable, en proposant une « approche européenne » de l’IA. Son Groupe d’experts de haut niveau dédié à l’IA a déjà publié plusieurs documents pour une intelligence artificielle éthique : Ethic Guidelines for a Trustworthy AI en 2018, puis le Policy and Investment recommandations for Trustworthy AI en 2019.

La commission a également prévu d’augmenter de 70% son investissement dans le programme de recherche et innovation « Horizon 2020 », qui devra atteindre 1,5 milliard d’euros d’ici 2020.