Imagens raciais defeituosas de IA do Google Gemini vistas como um alerta sobre o poder dos titãs da tecnologia

Para as pessoas presentes no festival de tecnologia que define tendências aqui, o escândalo que eclodiu depois que o chatbot do Google Gemini exibiu imagens de soldados nazistas negros e asiáticos foi visto como um alerta sobre o poder que a inteligência artificial pode dar aos titãs da tecnologia. O CEO do Google, Sundar Pichai, criticou no mês passado os erros “completamente inaceitáveis” do aplicativo Gemini AI de sua empresa, depois que gafes como as imagens de tropas nazistas etnicamente diversas forçaram o aplicativo a impedir temporariamente os usuários de criar fotos de pessoas.

Os utilizadores das redes sociais zombaram e criticaram o Google pelas imagens historicamente imprecisas, como as que mostram uma senadora negra dos EUA do século XIX – quando a primeira senadora só foi eleita em 1992.

“Definitivamente erramos na geração de imagens”, disse o cofundador do Google, Sergey Brin, em um recente “hackathon” de IA, acrescentando que a empresa deveria ter testado o Gemini mais detalhadamente.

Leia também: A propriedade do conteúdo na era da inteligência artificial

Pessoas entrevistadas no popular festival de artes e tecnologia South by Southwest, em Austin, disseram que o tropeço do Gemini destaca o poder excessivo que um punhado de empresas tem sobre as plataformas de inteligência artificial que estão preparadas para mudar a maneira como as pessoas vivem e trabalham.

“Essencialmente, estava muito ‘acordado’”, disse Joshua Weaver, advogado e empresário de tecnologia, o que significa que o Google exagerou em seu esforço para projetar inclusão e diversidade.

O Google rapidamente corrigiu seus erros, mas o problema subjacente permanece, disse Charlie Burgoyne, executivo-chefe do laboratório de ciências aplicadas Valkyrie, no Texas.

Ele comparou a solução do Google para o Gemini a colocar um band-aid em um ferimento de bala.

Embora o Google tenha tido o luxo de ter tempo para refinar seus produtos, agora está lutando em uma corrida de IA com Microsoft, OpenAI, Anthropic e outros, observou Weaver, acrescentando: “Eles estão se movendo mais rápido do que sabem como se mover”.

Os erros cometidos num esforço de sensibilidade cultural são pontos críticos, especialmente dadas as tensas divisões políticas nos Estados Unidos, uma situação exacerbada pela plataforma X de Elon Musk, o antigo Twitter.

Leia também: interrupções no McDonald’s! Big Mac vira Big Tech, com alguns soluços

“As pessoas no Twitter ficam muito felizes em celebrar qualquer coisa embaraçosa que aconteça na tecnologia”, disse Weaver, acrescentando que a reação à gafe nazista foi “exagerada”.

O acidente, no entanto, pôs em causa o grau de controlo que aqueles que utilizam ferramentas de IA têm sobre a informação, afirmou.

Na próxima década, a quantidade de informação – ou desinformação – criada pela IA poderá diminuir a gerada pelas pessoas, o que significa que aqueles que controlam as salvaguardas da IA ??terão uma enorme influência no mundo, disse Weaver.

Polarização de entrada, polarização de saída

Karen Palmer, uma premiada criadora de realidade mista da Interactive Films Ltd., disse que poderia imaginar um futuro em que alguém entrasse em um táxi-robô e, “se a IA escaneá-lo e pensar que há alguma violação pendente contra você … você será levado à delegacia de polícia local”, e não ao destino pretendido.

A IA é treinada em montanhas de dados e pode ser colocada em prática numa gama crescente de tarefas, desde a geração de imagens ou áudio até determinar quem recebe um empréstimo ou se um exame médico detecta cancro.

Mas esses dados provêm de um mundo repleto de preconceitos culturais, desinformação e desigualdade social – para não mencionar conteúdos online que podem incluir conversas casuais entre amigos ou publicações intencionalmente exageradas e provocativas – e os modelos de IA podem ecoar essas falhas.

Com o Gemini, os engenheiros do Google tentaram reequilibrar os algoritmos para fornecer resultados que refletissem melhor a diversidade humana.

O tiro saiu pela culatra.

“Pode ser realmente complicado, sutil e sutil descobrir onde está o preconceito e como ele é incluído”, disse o advogado de tecnologia Alex Shahrestani, sócio-gerente do escritório de advocacia Promise Legal para empresas de tecnologia.

Mesmo engenheiros bem-intencionados envolvidos no treinamento de IA não podem deixar de trazer sua própria experiência de vida e preconceitos subconscientes para o processo, acreditam ele e outros.

Burgoyne, da Valkyrie, também criticou a grande tecnologia por manter o funcionamento interno da IA ??generativa escondido em “caixas pretas”, para que os usuários não consigam detectar quaisquer preconceitos ocultos.

“As capacidades dos resultados excederam em muito a nossa compreensão da metodologia”, disse ele.

Especialistas e ativistas pedem mais diversidade nas equipes que criam IA e ferramentas relacionadas, e maior transparência na forma como funcionam – especialmente quando os algoritmos reescrevem as solicitações dos usuários para “melhorar” os resultados.

Um desafio é como construir adequadamente as perspectivas das muitas e diversas comunidades do mundo, disse aqui Jason Lewis, do Centro de Recursos para Futuros Indígenas e grupos relacionados.

Na Indigenous AI, Jason trabalha com comunidades indígenas remotas para projetar algoritmos que usam seus dados de forma ética, ao mesmo tempo que refletem suas perspectivas sobre o mundo, algo que ele nem sempre vê na “arrogância” dos grandes líderes tecnológicos.

Seu próprio trabalho, disse ele a um grupo, contrasta “muito com a retórica do Vale do Silício, onde há uma besteira de cima para baixo do tipo ‘Oh, estamos fazendo isso porque vamos beneficiar toda a humanidade’, certo?”

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading