IA : Les tests menés par Google montrent bien qu'un programme informatique est tout à fait capable de devenir agressif

Publié le 27 Février 2017

Une IA créée par Google devient "extrêmement agressive" quand elle est contrariée

 

IA Google OOkaxwa

La dernière création de DeepMind est une intelligence artificielle qui s'adapte à son environnement et devient très méchante quand elle n'obtient pas ce qu'elle veut.

Si vous pensez que l'agressivité fait partie de ces qualités réservées aux organismes biologiques, vous allez être déçu - et terrifié - par la dernière IA inventée par Google.

Des chercheurs de DeepMind, la branche de Google spécialisée dans l'intelligence artificielle, ont testé la façon dont une IA s'adapte à son environnement et se comporte en présence d'une autre IA. Les résultats sont très surprenants et inquiétants : quand l'IA a le sentiment d'être en train de perdre quelque chose, elle choisit des stratégies "extrêmement agressives" pour reprendre le dessus ; en revanche, quand elle a le sentiment de "gagner", elle tend à coopérer.

Pour étudier le comportement social de l'intelligence artificielle, les chercheurs ont fait s'affronter deux IA sur un jeu vidéo intitulé "Gathering." L'objectif était de recueillir un maximum de pommes virtuelles, tandis que le nombre de pommes disponibles évoluait au cours du jeu, jusqu'à ce que les deux IA aient à lutter pour la dernière pomme. Au total, les chercheurs ont fait disputer 40 millions de parties aux IA.

Résultat : elles modifiaient leur comportement en fonction de la quantité de pommes disponibles. Quand les ressources étaient largement suffisantes pour deux, les IA se montraient tout à fait courtoises et ramassaient tranquillement leurs pommes sans se défier. Mais dès que la quantité de pommes tombait en-dessous d'un certain point, l'IA changeait de stratégie et passait de "coopération" à "agression", attaquant son adversaire à grands coups de rayons laser. Le rayon laser paralyse l'ennemi pour une courte durée, durant laquelle l'IA peut voler les pommes de son adversaire.

Il faut noter que les deux IA avaient le choix de ne pas utiliser le canon laser, ce qui aurait mené à une répartition équitable des pommes. D'ailleurs, il est arrivé qu'elles fassent ce choix dans certaines parties. Google a estimé que ces IA étaient les "moins intelligentes".

"Cette expérience montre que la compétition engendrée par la raréfaction des ressources peut susciter un conflit, mais que celui-ci a nettement moins de chances d'émerger quand les ressources sont abondantes", écrivent les chercheurs de Google dans un article. Le comportement des IA dépend également de l'environnement dans lequel elles évoluent.

Dans un deuxième jeu - "Wolfpack" - la situation initiale était différente : deux IA jouaient le rôle d'un loup, tandis qu'une troisième avait le rôle de la proie. Contrairement à la chasse aux pommes, les IA ont rapidement compris qu'elles avaient intérêt à collaborer. Elles obtenaient une récompense uniquement si les deux IA étaient proches de la proie lors de sa capture, et l'identité du loup qui capturait la proie n'avait pas grande importance.

"L'idée, c'est que la proie est dangereuse, explique les auteurs de l'article. Un loup solitaire peut l'attraper, mais il risque de perdre la carcasse s'il tombe sur des charognards ; alors que si les deux loups attrapent la proie ensemble, ils peuvent la protéger plus efficacement et donc être davantage récompensés."

Autrement dit, le fait que les machines coopèrent ou s'affrontent de manière brutale dépend de ce qu'elles estiment pouvoir leur être le plus profitable.

L'analogie avec les comportements humains ne doit rien au hasard : les tests menés par les équipes de DeepMind reposent sur la théorie des jeux, et en particulier sur le dilemme du prisonnier, utilisé en science social pour expliquer les décisions rationnelles des acteurs. Les IA qui ont été testés avaient été conçues pour être égoïstes et rationnelles, tout comme les acteurs dans la théorie des jeux.

Les résultats de cette étude sont remarquables, et pas seulement parce qu'ils montrent à quel point les intelligences artificielles sont capables de s'adapter, ou à quel point elles sont proches du comportement humain. Cette expérience est aussi stupéfiante dans la mesure où elle contredit les théories les plus en vogues dans la science-fiction et la littérature dystopique, selon lesquelles l'IA ne peut devenir agressive et hostile que quand elle échappe au contrôle humain.

Les tests menés par Google montrent bien qu'un programme informatique est tout à fait capable de devenir agressif alors même qu'il a été créé par la main de l'Homme et ne s'en est pas émancipé.

source : https://motherboard.vice.com/fr/article/une-ia-creee-par-google-devient-extremement-agressive-quand-elle-est-contrariee

Repost0
Commenter cet article