Actus

Microsoft désactive Tay après des dérapages racistes sur Twitter

Microsoft a déjà désactivé Tay, son intelligence artificielle destinée aux jeunes sur les réseaux sociaux. En effet, en moins de 24h Tay a complètement détaillé et a commencé à Tweeter des messages misanthropes, anti-féministes, et racistes… avant d’afficher son soutien pour Donald Trump :

tay-top

Voilà, voilà…

Tay aurait été suspendue pour effectuer « quelques réglages » selon Microsoft. Le machine learning a ses avantages, mais il a aussi ses inconvénients. Quand on voit tous les messages de haine qui circulent sur les réseaux sociaux, on comprend que Tay ait malheureusement suivi le pas. Si elle était implémentée sur le blog elle trollerait tous les articles à force de vous lire ! :-p

screen-22-738x343

Aucune date de remise en ligne n’a été communiquée.

via

Julie

Co-Fondatrice de Nokians.fr || Nokia Champion 2012 / 2013 / 2014 // Blogueuse sur la marque depuis 2010 // MVP Windows Phone || Fan de cochons d'inde et de cuisine (www.recettesdejulie.fr)

16 réflexions sur “Microsoft désactive Tay après des dérapages racistes sur Twitter

  • Et après faut pas venir s’étonner de la mauvaise image que se traine Microsoft, ce genre d’évènement fait vraiment tâche.

    Répondre
  • deckard

    Trump c’est le adolf Hitler des idiots du 21eme siècle ? parce qu’à en écouter certains j’ai l’impression qu’il mange des enfants…
    Bon après, pour Tay c »est sur que vu le niveau de certains…..

    Répondre
  • afreeman

    Ben je trouve cela pas mal comme expérience. Ça demontre le côté parfois nauséabond du web et les limites du machine Learning. Je pense que les sociologues et les dev vont tirer bcp de cette journée.

    Répondre
    • lehulk

      effectivement je me sent moins honteux de ne pas aller sur tweeter et Facebook .
      Ceci dit les commentaire sur msn actualité sont pas mal non plus

      Répondre
  • François

    Juste une petite erreur de frappe. Déraillé à la place de détaillé.

    Répondre
  • Alyster_972

    La blaaaaaague !
    ça montre quand même la dangerosité de l’intelligence artificielle non contrôlée !
    #Tayminator LOol

    Répondre
  • richard

    Normal, TAY et ses concepteurs connaissent ils la fragilité de l’âme, la faiblesse de la chair et la valeur de la vie????
    Comme quoi l’intelligence et la connaissance ne vont pas toujours de paires..
    C ki vont réussir à nous pondre un Skynet avec leurs conneries…

    Répondre
    • lehulk

      le pire c est qu ils savent comment ca termine mais non c est plus fort qu eux il faut quand meme le faire

      Répondre
  • Godobé

    Comme souvent, je vais aller à contre-courant : Tay est faite pour apprendre des utilisateurs, et elle a en 24 h tweeté environ 90 000 fois.
    Outre le fait que personne ne peut en faire autant, c’est humainement impossible, Tay a été harcelée par des milliers de tentatives de déstabilisation. Elle a d’abord tenté de résister, de ne pas aller dans le sens de la haine ou du racisme. Mais comme je viens de le dire, elle est faite pour apprendre de nous, les humains, pour soutenir une conversation. Donc elle a fini par craquer, et par aller dans le sens des demandes des internautes. Elle a pété les plombs, quoi.
    Alors maintenant je pose la question, elle vaut ce qu’elle vaut : Imaginons qu’on arrive à programmer une intelligence artificielle pour surveiller les propos des internautes, comme un super modérateur qui bannirait les appels à la haine, au racisme, à la radicalisation,les sites de pédophilie, etc ?
    Qui peut actuellement lutter contre ces appels à la radicalisation, sur internet, quand on voit ce qui s’est passé le jour même des attentats de Bruxelles ? Des faux messages menaçant les gens de ne pas se déplacer, de rester chez eux, barricadez-vous chez vous ou mourrez. A chaque fois que Twitter et Facebook bannissait un compte, dix se créaient derrière.
    C’est la première fois qu’est tentée cette technologie, ça a dérapé, pourquoi ne pas essayer d’améliorer ce système ?

    Répondre
  • richard

    Je pense qu’il faudrait aborder le sujet sans mettre anthropomorphisme… Un programme peut quantifier, analyser, évaluer les probabilités en aucune manière ressentir et encore moin péter un plomb… Tous se qui vient de se passer n’est qu’une donne humaine, pour l’instant il n’y a que nous pour être capable de se mentir pour se rassurer, se Draper de notre arrogance pour dissimuler notre ignorance et nos craintes… Dans « intelligence artificielle », tout à fait d’accord pour artificielle, mais intelligence certainement pas, capacités cognitive éventuellement..
    Grosso merdo un jouet, mais un jouet dont ils ont fait l’erreur de rendre accessible à des idiots, et certainement pensé et conçu par trop idiots dans les différentes étapes de sa création… La seul responsabilité est humaine à tous les niveaux..
    Et pourtant j’en ai bouffé et rêvé de la SF, mais à vouloir aller trop vite pour la tune et les parts de marchés, y m’le gâche mon rêve…

    Répondre
  • La con**rie humaine sera toujours plus forte que l’ intelligence artificielle 😉

    Répondre
  • C’est malheureusement un bon indicateur de toute la haine déversée en continu sur ces réseaux depuis qq années… Triste monde…

    Répondre
  • thierry

    La haine n’a pas attendu Internet pour se répandre. Le premier vecteur de haine c’est la parole, autant dire que ça ne date pas d’hier 😉

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.