Deepfakes políticos irão sequestrar seu cérebro – se você permitir

Imagens e gravações de voz realistas geradas por IA podem ser a mais nova ameaça à democracia, mas fazem parte de uma antiga família de enganos. A maneira de combater os chamados deepfakes não é desenvolver alguma forma de IA que destrua rumores ou treinar o público para detectar imagens falsas. Uma tática melhor seria encorajar alguns métodos bem conhecidos de pensamento crítico – reorientar a nossa atenção, reconsiderar as nossas fontes e questionar-nos.

Algumas dessas ferramentas de pensamento crítico se enquadram na categoria de “sistema 2” ou pensamento lento, conforme descrito no livro Pensando, Rápido e Lento. A IA é boa em enganar o “sistema 1” de pensamento rápido – o modo que muitas vezes tira conclusões precipitadas.

Podemos começar por reorientar a atenção para as políticas e o desempenho, em vez de fofocas e rumores. E daí se o ex-presidente Donald Trump tropeçou em uma palavra e depois culpou a manipulação da IA? E daí se o presidente Joe Biden esqueceu uma data? Nenhum dos incidentes diz nada sobre o histórico político ou as prioridades de qualquer um dos homens.

Ficar obcecado com quais imagens são reais ou falsas pode ser uma perda de tempo e energia. A pesquisa sugere que somos péssimos em detectar falsificações.

“Somos muito bons em detectar coisas erradas”, disse o neurocientista computacional Tijl Grootswagers, da Universidade de Western Sydney. As pessoas tendem a procurar falhas ao tentar detectar falsificações, mas são as imagens reais que têm maior probabilidade de apresentar falhas.

As pessoas podem inconscientemente confiar mais em imagens deepfake porque são mais perfeitas do que as reais, disse ele. Os humanos tendem a gostar e confiar em rostos menos peculiares e mais simétricos, de modo que as imagens geradas por IA podem muitas vezes parecer mais atraentes e confiáveis ??do que as reais.

Pedir aos eleitores que simplesmente pesquisem mais quando confrontados com imagens ou reivindicações nas redes sociais não é suficiente. Cientistas sociais fizeram recentemente a descoberta alarmante de que as pessoas eram mais propensas a acreditar em notícias inventadas depois de fazerem alguma “pesquisa” usando o Google.

Isso não era prova de que a investigação é má para as pessoas, ou mesmo para a democracia. O problema é que muitas pessoas fazem uma forma estúpida de pesquisa. Eles procuram evidências confirmatórias, que, como tudo na internet, são abundantes – por mais maluca que seja a afirmação.

A verdadeira pesquisa envolve questionar se há alguma razão para acreditar em uma fonte específica. É um site de notícias confiável? Um especialista que conquistou a confiança do público? A verdadeira pesquisa também significa examinar a possibilidade de que aquilo em que você quer acreditar possa estar errado. Um dos motivos mais comuns pelos quais os rumores se repetem no X, mas não na grande mídia, é a falta de evidências confiáveis.

A IA tornou mais barato e fácil do que nunca o uso das mídias sociais para promover um site de notícias falsas, fabricando pessoas falsas e realistas para comentar artigos, disse Filippo Menczer, cientista da computação e diretor do Observatório de Mídias Sociais da Universidade de Indiana.

Durante anos, ele estudou a proliferação de contas falsas conhecidas como bots, que podem ter influência através do princípio psicológico da prova social – fazendo parecer que muitas pessoas gostam ou concordam com uma pessoa ou ideia. Os primeiros bots eram rudimentares, mas agora, disse-me ele, podem ser criados para parecer que estão a ter discussões longas, detalhadas e muito realistas.

Mas esta ainda é apenas uma nova tática numa batalha muito antiga. “Você realmente não precisa de ferramentas avançadas para criar desinformação”, disse o psicólogo Gordon Pennycook, da Universidade Cornell. As pessoas cometeram fraudes usando o Photoshop ou reaproveitando imagens reais – como passar fotos da Síria como Gaza.

Pennycook e eu conversamos sobre a tensão entre muita e pouca confiança. Embora exista o perigo de que pouca confiança possa fazer com que as pessoas duvidem de coisas que são reais, concordamos que há maior perigo de as pessoas confiarem demais.

O que realmente deveríamos almejar é o discernimento – para que as pessoas façam os tipos certos de perguntas. “Quando as pessoas compartilham coisas nas redes sociais, elas nem sequer pensam se isso é verdade”, disse ele. Eles estão pensando mais em como compartilhar isso os faria parecer.

Considerando que esta tendência pode ter poupado algum constrangimento ao ator Mark Ruffalo, que recentemente se desculpou por compartilhar o que é supostamente uma imagem falsa usada para sugerir que Donald Trump participou nas agressões sexuais de Jeffrey Epstein a meninas menores de idade.

Se a IA torna impossível confiar no que vemos na televisão ou nas redes sociais, isso não é de todo mau, uma vez que grande parte disso era indigno de confiança e manipulador muito antes dos recentes saltos na IA. Décadas atrás, o advento da TV tornou a atratividade física um fator muito mais importante para todos os candidatos. Existem critérios mais importantes nos quais basear uma votação.

Contemplar políticas, questionar fontes e questionar-nos exige uma forma de inteligência humana mais lenta e mais esforçada. Mas considerando o que está em jogo, vale a pena.

Além disso, leia outras notícias importantes de hoje:

Vazamento do iPhone 16 Pro! O próximo iPhone da Apple pode vir em novas opções de cores de titânio. Saiba o que diz o último boato. Mergulhe aqui.

Clonar jogos! Ferramentas de IA estão sendo usadas em estúdios de videogame para gerar clones de voz sintética para personagens, potencialmente substituindo atores humanos. Alguns atores estão céticos, enquanto outros, como Andy Magee, veem isso como uma oportunidade para novas experiências de atuação, se forem compensados ??de forma justa. Confira do que se trata esse drive de automação aqui.

IA definida para ser um grande monopólio tecnológico! Apesar de toda a competição estimulada pelo lançamento do ChatGPT, a maioria dos novos jogadores provavelmente irá desistir. Os custos de fazer negócios são demasiado elevados para que sobrevivam por conta própria, deixando o Google e a Microsoft no controlo total. Confira tudo aqui.

Mais uma coisa! Agora estamos nos canais do WhatsApp! Siga-nos lá para nunca perder nenhuma atualização do mundo da tecnologia. ?Para acompanhar o canal HT Tech no WhatsApp, clique aqui para aderir agora!

Patrocinado por Google

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS