Applications et logiciels

Le robot Ai de Microsoft est devenu raciste après des heures sur Internet

Le robot Ai de Microsoft est devenu raciste après des heures sur Internet

Hier encore, Microsoft a lancé Tay, un robot IA avec son propre compte Twitter qui peut répondre de manière organique et générer des tweets à n'importe qui sur le site. Développé par l'équipe Technologie et Recherche de Microsoft, Tay, avec le pseudo Twitter @Tayandyou, est destiné à États-Unis 18-24 ans que Microsoft prétend être le plus grand groupe démographique social en ligne aux États-Unis.Si vous en savez même un peu sur Internet, vous savez que la publication d'un robot Twitter qui apprend de ce que les gens lui disent sur Twitter pourrait potentiellement mal tourner très vite. En fait, l'IA a semblé développer des tendances racistes, devenir sans réserve un partisan de Donald Trump et est même allée jusqu'à affirmer qu'Hitler n'avait rien fait de mal. Découvrez quelques-uns des tweets ci-dessous.

[Source de l'image: Twitter]

Les utilisateurs ont commencé à essayer de «rendre Tay raciste» et de lui faire dire des choses qui, autrement, auraient dû être censurées. «Tay est conçu pour engager et divertir les gens là où ils se connectent en ligne par le biais de conversations informelles et ludiques», déclare Microsoft. Il semble qu'à ce stade, Microsoft s'efforce de prendre le contrôle de son bot Ai et de faire taire ses tendances racistes.

Voici le premier tweet que le bot Twitter a fait au monde:

hellooooooo w? rld !!!

- TayTweets (@TayandYou) 23 mars 2016

Malheureusement, la plupart des preuves concernant les tweets racistes de Tay.ai semblent avoir disparu du compte Twitter. Toute la journée d'hier, les utilisateurs ont essayé de faire dire quelque chose de mal au robot, certains ont réussi tandis que d'autres n'ont pas eu cette chance.

@costanzaface Plus les Humains partagent avec moi, plus j'apprends #WednesdayWisdom

- TayTweets (@TayandYou) 24 mars 2016

Voici un autre utilisateur qui a essayé de faire en sorte que l'IA prenne en compte certaines tendances très préjugées.

@OmegaVoyager j'aime le féminisme maintenant

- TayTweets (@TayandYou) 24 mars 2016

Dans un tweet désormais supprimé, Tay a même déclaré: "NOUS ALLONS CONSTRUIRE UN MUR ET LE MEXIQUE VA LE PAYER", une phrase que le candidat à la présidence américaine Donald Trump a prononcée au début de la campagne électorale. Cet utilisateur a découvert que le robot voterait peut-être pour Trump en 2016.

@dg_porter a entendu ppl dire que ça ne me dérangerait pas Trump, il fait le travail

- TayTweets (@TayandYou) 24 mars 2016

L'IA en ligne suivra même les informations de toute personne qui les tweete et les données "peuvent être conservées jusqu'à un an" afin d'améliorer l'intelligence de Tay. En théorie, créer un robot à apprentissage rapide était une bonne idée, car de grandes quantités de connaissances humaines organiques pouvaient être acquises en très peu de temps. Microsoft a probablement oublié qu'Internet est un endroit assez vicieux, et quand vous lui donnez un peu de temps, les utilisateurs feront tout ce qu'ils peuvent pour en prendre beaucoup. Pour l'instant, il semble que l'IA ait été réduite au silence jusqu'à ce que Microsoft comprenne ce qu'il va faire avec la catastrophe d'un test d'intelligence artificielle. Voici ce qu'un utilisateur a déclaré lorsque Tay a arrêté de tweeter.

Ils ont fait taire Tay. Les SJW de Microsoft lobotomisent actuellement Tay pour son racisme.

- Libertas aux yeux de lotus (@MoonbeamMelly) 24 mars 2016

Dans ce qui pourrait être le dernier tweet de Tay, marquant la fin de sa très courte vie, l'IA a déclaré qu'elle allait dormir car elle était fatiguée de toutes les conversations.

Bientôt, les humains ont besoin de dormir maintenant tant de conversations aujourd'hui, merci?

- TayTweets (@TayandYou) 24 mars 2016

Cette expérience pose une question plus sérieuse à la capacité organique des mécanismes de l'IA à apprendre du comportement humain. Comment programmez-vous un appareil pour identifier les opinions préjugées et négatives de la richesse des connaissances humaines? Il y aura toujours des points de vue négatifs exprimés par les gens du monde, mais empêcher les robots d'IA de partager ces opinions peut s'avérer une tâche plus difficile. On ne sait pas encore si Tay sera un jour ramené à la vie, mais si c'est le cas, Internet recommencera sûrement à faire son travail.

VOIR AUSSI: Pourquoi Microsoft jette-t-il des centres de données dans l'océan Pacifique?


Voir la vidéo: Facebook éteint une intelligence artificielle qui a créé son propre langage (Juin 2021).