Microsoft débranche un robot devenu antisémite en 24h : Hitler, Bush, 11 septembre ...

Publié le 26 Mars 2016

Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd’hui

Tay

Microsoft débranche un robot devenu antisémite en 24h : Hitler, Bush, 11 septembre  ...

L’entreprise a lancé une intelligence artificielle sur Twitter, que les internautes se sont rapidement amusés à pousser dans les extrêmes antisémites, avec succès. Exemple: «Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd’hui»

Microsoft repose de plus en plus sur les réseaux communautaires pour optimiser ses algorithmes et lance Tay, une intelligence artificielle! Ce bot vise à donc renforcer les travaux de Microsoft Research dans le domaine de l’intelligence artificielle.

La société explique que plus vous l’interpellez via Twitter et lui parlez, et plus elle deviendra intelligente. Elle était censé montré ses capacités d’apprentissage au contact des humains:

Tay avait pour concept d’apprendre de ses interactions avec les humains.

Chaque discussion avec les « vrais gens » lui donnait de nouvelles cartes pour mieux entretenir une conversation, répliquer, faire des blagues, etc. Microsoft cible avant tout les utilisateurs américains âgés entre 18 et 24 ans, c’est-à-dire les personnes les plus susceptibles d’employer un jargon marquant leur génération ou divers néologismes. Pour interagir avec le bot il suffisait donc d’envoyer un message twitter @TayandYou.

Microsoft débranche un robot devenu antisémite en 24h : Hitler, Bush, 11 septembre  ...

Sauf que très vite, les internautes l’ont bombardé de références de plus en plus violentes, la poussant à crier sa haine des juifs et son amour d’Hitler, son soutien à Donald Trump, sa détestation des féministes et sa conviction que George W. Bush était responsable des attentats du 11 septembre 2001.

Certains ont compris qu’il suffisait d’écrire «répète après moi» pour que Tay prononce la phrase de leur choix. D’autres se sont contentés d’envoyer des messages à répétition («le féminisme est un cancer», «Hitler avait raison», etc) au robot pour influencer ses propos.

Il s’agit en quelque sorte d’un bourrage de crâne: plus on répète à Tay une opinion, même violente, plus elle la considère comme normale et ira donc la répéter. Le programme s’est vite mis à tenir des propos racistes, antisémites et sexistes. «Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd’hui», a-t-elle par exemple tweeté, ajoutant que «Donald Trump est notre seul espoir.»«Ses discussions sur Twitter ont jusque-là renforcé le point Godwin, qui affirme que plus la discussion se prolonge, plus la probabilité d’une comparaison impliquant les nazis ou Hitler se rapproche. Tay a été encouragé à répéter différentes variations de “Hitler avait raison”, ou “le 11-septembre est un inside job”.»

Face à la catastrophe, Microsoft a décidé de débrancher provisoirement le robot devenu fou en à peine 24 heures!

source : http://jforum.fr/microsoft-debranche-un-robot-devenu-antisemite-en-24h.html

Repost0
Commenter cet article