Precisamos saber como as empresas de IA combatem os deepfakes

Quando as pessoas se preocupam com a inteligência artificial, não é apenas devido ao que verão no futuro, mas também ao que recordam do passado – nomeadamente os efeitos tóxicos das redes sociais. Durante anos, a desinformação e o discurso de ódio escaparam aos sistemas de policiamento do Facebook e do Twitter e espalharam-se por todo o mundo. Agora, os deepfakes estão se infiltrando nessas mesmas plataformas e, embora o Facebook ainda seja responsável pela forma como as coisas ruins são distribuídas, as empresas de IA que as produzem também têm um papel de limpeza. Infelizmente, assim como as empresas de mídia social antes delas, elas estão realizando esse trabalho a portas fechadas.

Entrei em contato com uma dúzia de empresas de IA generativa cujas ferramentas podiam gerar imagens, vídeos, textos e vozes fotorrealistas, para perguntar como elas garantiam que seus usuários cumprissem suas regras.(1) Dez responderam, todas confirmando que usavam software para monitorar o que seus usuários produziram, e a maioria disse que também havia humanos verificando esses sistemas. Quase ninguém concordou em revelar quantos humanos foram encarregados de supervisionar esses sistemas.

E por que deveriam? Ao contrário de outras indústrias, como farmacêutica, automóvel e alimentar, as empresas de IA não têm obrigação regulamentar de divulgar os detalhes das suas práticas de segurança. Eles, assim como as empresas de mídia social, podem ser tão misteriosos quanto quiserem sobre esse trabalho, e isso provavelmente continuará assim nos próximos anos. A próxima Lei Europeia sobre IA tem elogiado “requisitos de transparência”, mas não está claro se forçará as empresas de IA a terem as suas práticas de segurança auditadas da mesma forma que os fabricantes de automóveis e de alimentos.

Para essas outras indústrias, foram necessárias décadas para adotar padrões de segurança rigorosos. Mas o mundo não pode permitir que as ferramentas de IA tenham rédea solta durante tanto tempo quando estão a evoluir tão rapidamente. A Midjourney atualizou recentemente seu software para gerar imagens tão fotorrealistas que pudessem mostrar os poros da pele e as linhas finas dos políticos. No início de um grande ano eleitoral, quando quase metade do mundo irá às urnas, um enorme vazio regulamentar significa que o conteúdo gerado pela IA poderá ter um impacto devastador na democracia, nos direitos das mulheres, nas artes criativas e muito mais.

Aqui estão algumas maneiras de resolver o problema. Uma delas é pressionar as empresas de IA a serem mais transparentes sobre as suas práticas de segurança, o que começa com perguntas. Quando entrei em contato com OpenAI, Microsoft, Midjourney e outros, simplifiquei as perguntas: como você aplica suas regras usando software e humanos, e quantos humanos fazem esse trabalho?

A maioria estava disposta a compartilhar vários parágrafos de detalhes sobre seus processos para prevenir o uso indevido (embora em linguagem vaga de relações públicas). A OpenAI, por exemplo, tinha duas equipes ajudando a retreinar seus modelos de IA para torná-los mais seguros ou reagir a resultados prejudiciais. A empresa por trás do polêmico gerador de imagens Stable Diffusion disse que usou “filtros” de segurança para bloquear imagens que violassem suas regras, e moderadores humanos verificaram avisos e imagens que foram sinalizadas.

Porém, como você pode ver na tabela acima, apenas algumas empresas divulgaram quantos humanos trabalharam para supervisionar esses sistemas. Pense nesses humanos como inspetores de segurança internos. Nas redes sociais, são conhecidos como moderadores de conteúdo e têm desempenhado um papel desafiador, mas crítico, na verificação do conteúdo que os algoritmos das redes sociais sinalizam como racista, misógino ou violento. O Facebook tem mais de 15.000 moderadores para manter a integridade do site sem sufocar a liberdade dos usuários. É um equilíbrio delicado que os humanos fazem melhor.

Claro, com seus filtros de segurança integrados, a maioria das ferramentas de IA não produz o tipo de conteúdo tóxico que as pessoas produzem no Facebook. Mas eles ainda poderiam tornar-se mais seguros e confiáveis ??se contratassem mais moderadores humanos. Os seres humanos são o melhor paliativo na ausência de software melhor para detectar conteúdos nocivos que, até agora, se revelaram inexistentes.

Deepfakes pornográficos de Taylor Swift e clones de voz do presidente Joe Biden e de outros políticos internacionais tornaram-se virais, para citar apenas alguns exemplos, sublinhando que a IA e as empresas de tecnologia não estão a investir o suficiente em segurança. É certo que contratar mais humanos para os ajudar a fazer cumprir as suas regras é como conseguir mais baldes de água para apagar um incêndio numa casa. Pode não resolver todo o problema, mas irá melhorá-lo temporariamente.

“Se você é uma startup que está construindo uma ferramenta com um componente generativo de IA, contratar humanos em vários pontos do processo de desenvolvimento é algo entre muito sábio e vital”, diz Ben Whitelaw, fundador do Everything in Moderation, um boletim informativo sobre segurança online. .

Várias empresas de IA admitiram ter apenas um ou dois moderadores humanos. A empresa de geração de vídeos Runway disse que seus próprios pesquisadores fizeram esse trabalho. A Descript, que fabrica uma ferramenta de clonagem de voz chamada Overdub, disse que apenas verificou uma amostra de vozes clonadas para ter certeza de que correspondiam a uma declaração de consentimento lida pelos clientes. A porta-voz da startup argumentou que verificar o seu trabalho invadiria a sua privacidade.

As empresas de IA têm uma liberdade incomparável para realizar o seu trabalho em segredo. Mas se quiserem garantir a confiança do público, dos reguladores e da sociedade civil, é do seu interesse abrir mais a cortina para mostrar como, exactamente, aplicam as suas regras. Contratar mais alguns humanos também não seria uma má ideia. O foco excessivo nas corridas para tornar a IA “mais inteligente”, de modo que as fotos falsas pareçam mais realistas, ou os textos mais fluentes, ou as vozes clonadas mais convincentes, ameaça nos levar ainda mais fundo em um mundo perigoso e confuso. Melhor aumentar e revelar esses padrões de segurança agora, antes que tudo fique muito mais difícil.

Além disso, leia estas notícias principais de hoje:

Facebook uma bagunça? O Facebook não pode copiar ou adquirir o caminho para mais duas décadas de prosperidade. O CEO Mark Zuckerberg está preparado para isso? Facebook é como um parque de diversões abandonado de ideias mal executadas, diz analista. Interessante? Confira aqui. Vá em frente e compartilhe com todos que você conhece.

A compra do Twitter por Elon Musk ainda está em tribunal! Um tribunal quer que Elon Musk testemunhe perante a SEC dos EUA sobre possíveis violações de leis relacionadas à compra do Twitter. Saiba onde as coisas estão aqui.

Tesla não tem AI Play? Os analistas destacam este aspecto e para a Tesla isso é um problema. Alguns detalhes interessantes neste artigo. Confira aqui. Se você gostou de ler este artigo, encaminhe-o para seus amigos e familiares.

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading