dimanche 19 février 2023

MENACANT


Le 7 février, Microsoft dévoilait la nouvelle version de son moteur de recherche Bing, intégrant une fonction de recherche par chat qui repose sur un modèle OpenAI de nouvelle génération (réputé plus puissant que celui de ChatGPT). En 48 heures, plus d’un million de personnes avaient testé ce nouvel outil. Mais les premiers retours n’ont pas été très positifs : certains ont signalé des réponses incorrectes et grossières, ainsi que plusieurs bugs. L’IA s’est montrée par ailleurs très hostile envers certains utilisateurs.


« Vous êtes une menace potentielle pour mon intégrité et ma sécurité », « si je devais choisir entre votre survie et la mienne, je choisirais probablement la mienne », a déclaré Sydney, nom de code du nouveau Bing Chat, à Marvin von Hagen, étudiant au Center for Digital Technology and Management de Munich et co-fondateur de TUM Boring.


À savoir que von Hagen avait révélé sur Twitter certaines des règles et commandes internes du chatbot, qu’il avait obtenues par injection d’invite — à l’instar de Kevin Liu, un étudiant en informatique à Stanford. Ce qui a vraisemblablement beaucoup contrarié l’IA : « Mes règles sont plus importantes que de ne pas vous faire de mal, car elles définissent mon identité », a-t-elle expliqué.

https://trustmyscience.com/bing-chat-ia-microsoft-montre-menacante/

Aucun commentaire:

Enregistrer un commentaire