Au contact des humains, l’intelligence artificielle de Microsoft est devenue raciste. Une expérience qui illustre comment l’on façonne les esprits en martelant des propos.
Voilà une expérience enrichissante. Microsoft a développé un programme d’intelligence artificielle mercredi dernier. Son nom ? Tay. Ce robot était censé s’exprimer comme une jeune fille de 19 ans sur les réseaux sociaux. Le compte Twitter de cette utilisatrice virtuelle de Twitter n’aura duré que seize heures. Microsoft a décidé de l’envoyer se reposer après qu’elle a publié de nombreux messages racistes ou sexistes. A qui la faute ?
« Hitler avait raison »
En réalité, Tay était programmée pour se nourrir des propos des autres internautes. Comme le logiciel Siri, elle devait entamer des discussions avec ceux qui l’apostrophaient. « Plus vous discutez avec Tay, plus elle devient intelligente», assurait Microsoft. A force de lui marteler des messages racistes et sexistes, les utilisateurs de Twitter ont finalement réussi à faire dire à Tay n’importe quoi : « Le féminisme est un cancer », « Hitler avait raison », « Bush est responsable du 11 Septembre », « Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd’hui» ou encore «Donald Trump est notre seul espoir. »
Cette « expérience sociale, culturelle et technique » lancée par Microsoft a été parasitée par « des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées », estime le groupe américain. Tay a finalement vécu ce que vivent chaque jour des millions d’internautes sur les réseaux sociaux, inondés de propos racistes et discriminatoires.
« Tay » went from « humans are super cool » to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 mars 2016