vendredi 25 mars 2016

RATE

Cela devait être l'expérience pour l'avenir. Microsoft avait connecté par un compte twitter, un système qui se devait d'apprendre par lui même avec ses échanges avec les internautes. Tay AI , était une jeune ado, pour les traits, qui au fur et a mesure devait réussir a faire des tweets, en mesure de ce que les membres du réseau social lui communiquait.
Mais l'expérience a tourné au fiasco au bout de 24 heures. Soumis a tous type de tweet, le système n'a plus su faire la part des choses et a commencer a raisonné n'importe comment, jusqu'a twitter des messages complètement ahurissants. Le résultat en fait de la violence de propos qui lui avait été envoyer. Le système a tous simplement péter les plombs. Microsoft a décidé d'arrêter le massacre et coupé le système.

Aucun commentaire:

Enregistrer un commentaire