mercredi 28 février 2024

A L'ARRET

 Ce qui est impressionnant dans l'histoire, c'est le temps qu'ils ont mit à réagir......

Gemini, l'IA Woke, déraille et réécrit l'histoire, Google interdit en urgence à son IA de dessiner des personnes

Google vient de suspendre la capacité de Gemini à générer des images. L'IA est au centre d'une polémique liée à plusieurs séries d'images problématiques liées à des biais dans son entraînement.
 
Pour éviter un emballement de la situation, le géant de Mountain View préfère couper le courant.

Gemini, l'IA multimodale de Google est devenu un incontournable de l'écosystème Google dernièrement. La firme ne cesse de mettre en avant son intelligence artificielle qui remplace désormais Bard et Google Assistant.

Pourtant, Gemini n'est pas sans défaut. Alors que sa présentation a été truquée, l'IA refait parler d'elle négativement. Il ne s'agit pas d'un problème très grave mais il soulève néanmoins des questions sur la façon de fonctionner du LLM [Large language model ou grand modèle de langage - NdE] multimodal.

Au cours de la semaine précédente, l'IA conversationnelle de Google a été critiquée pour ses biais dans la génération d'images de personnes. Celle-ci a montré une préférence pour les tons de peau plus foncés dans les représentations. Si cela ne semble pas être un véritable problème, les utilisateurs ont exprimé des préoccupations concernant ce potentiel biais dans le système, forçant Google à désactiver la fonctionnalité.


Google admet que Gemini possède des lacunes

Google a admis que Gemini avait des lacunes dans sa capacité à représenter de manière équilibrée et inclusive des personnes de différentes origines. En réponse, la société a décidé de désactiver temporairement la fonctionnalité de génération d'images de son chatbot IA.

Les circonstances entourant ce « problème » peuvent être dérangeantes. En effet, Gemini a récemment dépeint des personnes de couleur en tant que représentants de l'Allemagne du Troisième Reich. Une incohérence historique qui peut mener à une mauvaise interprétation des faits historiques entourant cette période.

Exemple :

L'inclusion et la diversité sont des valeurs importantes pour Google, qui veut éviter que ses technologies ne propagent des préjugés sur le monde réel. Lorsque les utilisateurs demandent à Gemini de créer une image, ils sont informés que cette fonctionnalité est temporairement indisponible. Pour en profite il va falloir attendre la résolution des problèmes.

Des experts expliquent que les générateurs d'images IA rencontrent des difficultés liées à la diversité en raison des instructions présentes dans leurs données d'entraînement. Ceux-ci ne représentent pas toujours toutes les communautés de manière équilibrée et peuvent amener l'IA a faire des erreurs.

Google s'engage à résoudre ces limitations dans Gemini avant de réactiver la fonctionnalité. Le but étant de garantir une représentation objective et équilibrée de tous les types de personnes. Cette démarche est vue comme une initiative proactive pour rendre les technologies d'IA justes et inclusives.

L'intelligence artificielle nécessite un contrôle constant

Ce n'est pas la première fois qu'une IA génératrice d'image déraille. En effet, Bing avait dépeint Mickey en terroriste il y a peu, forçant Microsoft à couper l'accès à l'IA.

Il ne s'agissait pas d'un problème d'entraînement du LLM mais plutôt d'un contournement des sécurité. Cela rappelle que l'IA reste un domaine encore mal maîtrisé. Google pense que l'IA est meilleure que l'homme sur certaines tâches. Pourtant le problème rencontré par Gemini prouve que l'intelligence artificielle n'est pas 100% fiable.

Celle-ci peut être utilisée à des fins de désinformation et de propagande pouvant avoir des conséquences catastrophiques. Il est donc nécessaire qu'aucun biais ne soit présent dans son entraînement et que ses sécurités soient sans égale.
  • Google a mis sur pause la génération d'images de personnes de son intelligence artificielle Gemini.
  • L'IA a fait des erreurs de représentation pouvant mener à une mauvaise interprétation des faits historiques.
  • Google explique que ces erreurs proviennent des biais présents dans les données d'entraînement de l'IA.

Aucun commentaire:

Enregistrer un commentaire