Intelligence Artificielle: peur que des politiques adoptent des lois technocides sans même résoudre les dangers des algorithmes !

Publié le 11 Mai 2017

IA facebook

Matinale Facebook et Intelligence Artificielle

IA (Intelligence Artificielle) : peur que des politiques adoptent des lois technocides qui mettraient un terme à la recherche dans le domaine sans résoudre les réels dangers que représentent les algorithmes eux-mêmes   

Bref compte rendu de la matinale organisée par FAIR, le centre de recherches sur l’Intelligence artificielle de Facebook.

J’y étais invitée à parler aux côtés de son Directeur Yann LeCun, de Dominique Cardon, d’Isabelle Ryl et de Laurence Devillers autour de la thématique : Quelles pistes pour apprivoiser les technologies de demain ?

Ce sujet est stratégique pour Facebook car les fantasmes sur les IA sont nombreux alors que les intelligences artificielles en sont encore à leurs balbutiements comme nous l’a exposé le panel.

L’essentiel des intelligences artificielles sont encore faibles. Aujourd’hui, elles peuvent nous décharger des tâches répétitives, nous donner des informations contextuelles ou pour les plus « intelligentes » compiler plus rapidement une plus grande masse de données afin de nous restituer des informations « prédictives ». Cependant comme elles miment des caractéristiques humaines (autonomie de déplacement plus que de décision, langage naturel, forme humaine...) elles nourrissent tout un lot de peurs alimentées par les techo-pessimistes qui parlent eux des intelligences artificielles fortes capables d’apprendre et raisonner en totale autonomie mais qui n’existent pas encore et dont on ne sait pas encore si elles existeront.

Ces peurs se diffusent progressivement et des politiques pourraient s’en emparer pour adopter  des lois technocides qui mettraient un terme à la recherche dans le domaine sans résoudre les réels dangers que représentent les algorithmes eux-mêmes.

Les grands groupes, les GAFAMI (Google, Apple, Facebook, Amazon, Microsoft et IBM) se sont fédérés autour d’un partnership on AI pour essayer de mieux accompagner le développement des IA et mieux informer.

La tâche ne sera pas aisé car le sujet est complexe et les Cassandres nombreux. Les plus scientifiques d’entre nous ont du mal à mesurer le gap entre leurs expertises et les fondamentaux maitrisés par les gens en général. Yann LeCun préconise d’ailleurs que les fondamentaux de l’AI soient enseignés aux enfants sans préciser le contenu d’un tel programme.

Ma contribution portait sur le volet sociétal et par là même sur les conditions de développement d’un cadre de confiance favorable au développement des IA

La révolution numérique, nous a montré que pour développer un cadre de confiance, il fallait nécessairement passer par de nouvelles dispositions en termes de responsabilité et de sécurité, des règles contractuelles adaptées, par une résolution des problèmes de propriété et par quelques ajustements législatifs qui prennent en compte les évolutions technologiques. Avec les Intelligences artificielles, le législateur ne pourra pas faire l’économie de ces ajustements mais il est une dimension qui a peu été prise en compte dans l’ère numérique et qui m’apparait important dans l’ère des Robots, c’est celle de l’identité.

L’intelligence artificielle même faible est devenue l’intermédiaire de quasi toutes nos relations humaines. Elle sera donc au cœur de nos différends, il faudra donc en déterminer la nature.

Qui est-elle ? Un simple agent (avatar) qui me représente mais comment me représente-t-elle ? Quelque chose (objet) qui agit en mon nom ? Quelqu’un (personnalité) qui est autonome ?  Telle était le cœur de mon intervention.

J’ai aussi mis en avant le fait que des startups préfèrent faire l’autruche plutôt que de se confronter aux réalités juridiques. Elles n’intègrent pas la dimension légale dans leurs idéations ou même dans leurs développements (Law by design). A leur décharge, la philo et l’éthique n’est pas au cœur de l’enseignement des écoles d’ingénieurs. Et même dans certaines écoles de codeurs, il n’y a pas d’enseignants car seule l’efficience du code compte.

J’ai eu confirmation dans cette matinale que la machine intelligente faisait des erreurs et avait des biais, que la machine ne faisait que reproduire l’homme : Un chatbot dans un SAV finira toujours par insulter ses clients et un logiciel de recrutement choisira de préférence des hommes blancs ayant les mêmes diplômes que ceux déjà dans l’entreprise s’ils n’y a pas de correctifs humains apportés.

Au passage, j’ai aussi appris qu’il y a moins de 17% de filles dans l’Intelligence Artificielle …

J’ai donc un message à faire passer, ne laissons pas aux hommes le contrôle des algorithmes ! #JamaisSansElles

source : 

https://www.linkedin.com/pulse/matinale-facebookia-isabelle-galy?trk=v-feed&lipi=urn%3Ali%3Apage%3Ad_flagship3_feed%3B02JlfRyQUi2qR%2FAl4pFvnA%3D%3D

Repost0
Commenter cet article