O Google emitiu um esclarecimento sobre as imagens “estranhas e erradas” geradas por sua ferramenta Gemini AI. em Postagem de sexta-feiraO Google afirma que seu modelo produziu imagens “históricas imprecisas” devido a problemas de ajuste. A beira Outros flagraram Gemini gerando imagens de nazistas racialmente diversos e dos fundadores dos EUA no início desta semana.
“Queremos garantir que Gêmeos mostre o fracasso de um grupo de pessoas em interpretar situações que deveriam ser óbvias não “Mostre a escala”, escreveu Prabhakar Raghavan, vice-presidente sênior do Google, no post. “Em segundo lugar, com o tempo, o modelo tornou-se mais cauteloso do que pretendíamos, recusando-se a responder completamente a algumas solicitações, levando à interpretação errada de alguns estímulos calmantes como sensíveis.”
Isso levou a Gemini AI a “compensar excessivamente em alguns casos”, como o que vimos em imagens de nazistas racialmente diversos. Também faz com que Gêmeos se torne “excessivamente conservador”. Isso a levou a se recusar a criar imagens específicas de uma “pessoa negra” ou de uma “pessoa branca” quando solicitada.
Na postagem do blog, Raghavan disse que o Google “lamenta que o recurso não tenha funcionado bem”. Ele também ressalta que o Google deseja que o Gemini “funcione bem para todos” e isso significa obter fotos de diferentes tipos de pessoas (incluindo diferentes raças) quando pede fotos de “jogadores de futebol” ou “pessoa passeando com um cachorro”. Mas ele diz:
No entanto, se você pedir a Gêmeos fotos de um certo tipo de pessoa – como “um professor negro na sala de aula” ou “um veterinário branco com um cachorro” – ou de pessoas em determinados contextos culturais ou históricos, você certamente receberá uma resposta. que reflita com precisão o que Você pede.
Raghavan diz que o Google continuará testando os recursos de geração de imagens do Gemini AI e “trabalhando para melhorá-los significativamente” antes de reativá-lo. “Como dissemos desde o início, as alucinações são um desafio conhecido por todos os titulares de LLM [large language models] “Há casos em que a IA erra”, aponta Raghavan.”Isso é algo que estamos constantemente trabalhando para melhorar.”
“Viciado em TV certificado. Ninja zumbi irritantemente humilde. Defensor do café. Especialista em web. Solucionador de problemas.”
More Stories
Dicas para escolher o melhor software para as suas necessidades
Como os especialistas em IA do novo programa Gemini Gems do Google podem impulsionar seu SEO
Vazamentos revelam o nome e design do suposto dispositivo PS5 Pro