Google s’explique sur les images erronées produites par Gemini

Google s’est retrouvé confronté à une polémique assez intense concernant son nouveau modèle de langage utilisant l’intelligence artificielle, Gemini. En effet, il a été découvert que cette intelligence artificielle produisait des images de figures historiques totalement fausses, telles que des penseurs grecs avec des traits asiatiques. Cette révélation a provoqué un tollé, notamment sur twitter, poussant Google à réagir rapidement. La société a immédiatement désactivé la capacité du LLM à générer des images de personnes et a présenté des excuses pour cet incident regrettable.

Dans un article de blog, Google par le bais de Prabhakar Raghavan a reconnu que Gemini avait “raté sa cible” en termes de représentation précise et respectueuse de la diversité raciale dans les images générées par l’IA.

Deux problèmes principaux ont été identifiés : tout d’abord, le réglage de Gemini pour garantir la représentation d’un éventail de personnes dans les images n’a pas pris en compte les cas où cela n’était pas approprié ; deuxièmement, Gemini est devenu plus prudent que prévu dans le choix des messages considérés comme sensibles, refusant de répondre à certaines requêtes.

Face à ces défis, Google a pris la décision de suspendre la génération d’images de personnes par Gemini jusqu’à ce que des améliorations significatives soient apportées au modèle. Cette décision vise à assurer que les futurs résultats produits par le modèle soient plus précis, éthiques et respectueux de la diversité.

Un coup plutôt dur pour Google, qui cherchait à faire oublier les lacunes de son ancien modèle de langage Bard, mais se retrouve maintenant au cœur d’une polémique qui agite actuellement les réseaux sociaux, notamment X (anciennement Twitter).