Cela devait être l'expérience pour l'avenir. Microsoft avait connecté par un compte twitter, un système qui se devait d'apprendre par lui même avec ses échanges avec les internautes. Tay AI , était une jeune ado, pour les traits, qui au fur et a mesure devait réussir a faire des tweets, en mesure de ce que les membres du réseau social lui communiquait.
Mais l'expérience a tourné au fiasco au bout de 24 heures. Soumis a tous type de tweet, le système n'a plus su faire la part des choses et a commencer a raisonné n'importe comment, jusqu'a twitter des messages complètement ahurissants. Le résultat en fait de la violence de propos qui lui avait été envoyer. Le système a tous simplement péter les plombs. Microsoft a décidé d'arrêter le massacre et coupé le système.
Aucun commentaire:
Enregistrer un commentaire