Intelligence artificielle, les limites de Tay






25 Mars 2016

À peine lancée, Tay, l'intelligence artificielle développée par Microsoft et qui s’exprime comme une ado, a dérapé au contact des humains. Elle a été supprimée manu militari.


Tweets racistes, sexistes ou misogynes, évocation de très mauvais goût de la Shoah, apologie du nazisme, négationisme... Malgré un début en fanfare, huit heures après avoir été lancé, le programme d’intelligence artificielle mis en place par Microsoft a déraillé. En cause, l’envoi de tweets totalement inappropriés parmi les 96 000 qu’elle a posté.
 
Comme l’indiquait son compte Twitter, avant d’être supprimé,Tay est un robot qui s’exprime comme une ado, genre : « Je suis une meuf de l'Internet qui ne tient jamais en place ! » Et effectivement, détournée par les internautes, elle est vite partie en sucette.
 
Tay marche avec un logiciel d'intelligence artificielle, dont la base est un ensemble de données, de dialogues ou de réponses toutes faites fournis par Microsoft. C’est un chatbot, un robot conversationnel capable de participer à des discussions sur des réseaux sociaux et des applications de messagerie comme Twitter ou Snapchat.
 
Dans les faits, et c’est là où le bât blesse, le robot s’émancipe en chatant avec les internautes. En effet, peut-on lire dans Le Monde, Tay « est capable de comprendre les questions qu'on lui pose et d'adapter ses réponses selon ses expériences précédentes. » Sauf que de petits malins d’internautes, conscients du principe, lui ont fait répéter toutes sortes d’énormités.

Le but, tester les limites de Tay. Et comme elle ne comprend pas vraiment ce qu’elle dit, c’est vite vu. Exemples : « le féminisme est un cancer » ; « Hitler avait raison » ; « Donald Trump est notre seul espoir » a t-elle tweeté… Tay agit un peu comme un perroquet et plus on lui tient les mêmes propos, plus elle les relaye.
 
Les tweets polémiques ont fait long feu. Mais surtout, Microsoft a supprimé sans tarder son robot encombrant en commentant : « Tay est une machine qui apprend grâce à ses interactions avec des humains. C'est une expérience sociale, culturelle et technique. Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées. »

Au-delà du plantage, l’expérience Tay démontre les « problèmes posés par le développement d'une intelligence artificielle. » Aujourd’hui, le robot développé par Microsoft est « incapable de comprendre le contexte des insultes qu'on lui envoie. » Et de fait, elle les relaye. Ce qui fait très justement dire à un internaute : « Si Tay est passée de robot qui adore les humains à une nazie en moins de 24 heures, je ne suis absolument pas inquiet pour l'avenir des intelligences artificielles ! » Depuis, Tay a été mise hors ligne.