Como a IA ameaça a liberdade de expressão – e o que deve ser feito a respeito

Inscreva-se no grupo de análise e inteligência no Telegram ?? https://t.me/areamilitar

As manchetes sobre as ameaças da inteligência artificial (IA) tendem a estar cheias de robôs assassinos, ou temores de que, quando não estiverem em matança, esses mesmos robôs estarão sugando empregos humanos. Mas um perigo grave que recebe surpreendentemente pouca atenção dos meios de comunicação social é o impacto que estas novas tecnologias poderão ter na liberdade de expressão.

E, em particular, como são capazes de minar alguns dos princípios jurídicos mais fundamentais que protegem a liberdade de expressão.

Cada vez que uma nova tecnologia de comunicação se espalha pela sociedade, ela perturba o equilíbrio anteriormente alcançado entre a estabilidade social e a liberdade individual.

Atualmente estamos vivendo isso. As redes sociais tornaram possíveis novas formas de networking comunitário, vigilância e exposição pública, o que levou a uma maior polarização política, ao aumento do populismo global e a uma epidemia de assédio e intimidação online.

No meio de tudo isto, a liberdade de expressão tornou-se uma questão totémica nas guerras culturais, com o seu estatuto simultaneamente impulsionado e ameaçado pelas forças sociais desencadeadas pelas plataformas das redes sociais.

No entanto, os debates sobre a liberdade de expressão tendem a ser apanhados por argumentos sobre “cancelar a cultura” e a mentalidade “acordada”. Isto corre o risco de ignorar o impacto que a tecnologia está a ter na forma como as leis de liberdade de expressão realmente funcionam.

Em particular, a forma como a IA dá aos governos e às empresas tecnológicas a capacidade de censurar a expressão com cada vez mais facilidade, e em grande escala e velocidade. Esta é uma questão séria que exploro em meu novo livro, The Future of Language.

O delicado equilíbrio da liberdade de expressão

Algumas das proteções mais importantes para a liberdade de expressão em democracias liberais, como o Reino Unido e os EUA, baseiam-se em detalhes técnicos sobre a forma como a lei responde às ações da vida real dos cidadãos comuns.

Um elemento-chave do sistema actual reside no facto de nós, como indivíduos autónomos, termos a capacidade única de transformar as nossas ideias em palavras e comunicá-las a outros. Este pode parecer um ponto pouco notável. Mas a forma como a lei funciona atualmente baseia-se nesta simples suposição sobre o comportamento social humano, e é algo que a IA ameaça minar.

As proteções à liberdade de expressão em muitas sociedades liberais proíbem o uso de “restrições prévias” – isto é, bloquear uma expressão antes de esta ser expressa.

O governo, por exemplo, não deveria poder impedir um jornal de publicar uma determinada história, embora possa processá-lo por fazê-lo após a publicação, se considerar que a história está a infringir alguma lei. O uso da restrição prévia já é generalizado em países como a China, que têm atitudes muito diferentes em relação à regulamentação da expressão.

Isto é significativo porque, apesar do que os libertários tecnológicos como Elon Musk possam afirmar, nenhuma sociedade no mundo permite liberdade de expressão absoluta. Há sempre um equilíbrio a ser alcançado entre proteger as pessoas dos danos reais que a linguagem pode causar (por exemplo, difamando-as) e salvaguardar o direito das pessoas de expressarem opiniões conflitantes e criticarem aqueles que estão no poder. Encontrar o equilíbrio certo entre estes é uma das decisões mais desafiadoras que uma sociedade enfrenta.

IA e restrição prévia

Dado que grande parte da nossa comunicação hoje é mediada pela tecnologia, é agora extremamente fácil utilizar a assistência da IA ??para impor restrições prévias, e fazê-lo a grande velocidade e em grande escala. Isto criaria circunstâncias em que a capacidade humana básica de transformar ideias em discurso poderia ser comprometida, como e quando um governo (ou executivo de redes sociais) desejar.

A recente Lei de Segurança Online do Reino Unido, por exemplo, bem como os planos nos EUA e na Europa para usar “filtragem de upload” (ferramentas algorítmicas para bloquear o upload de determinados conteúdos) como forma de triagem de postagens ofensivas ou ilegais, todos incentivam as mídias sociais plataformas para usar IA para censurar na fonte.

A justificativa apresentada para isso é prática. Com uma quantidade tão grande de conteúdo sendo carregado a cada minuto, todos os dias, torna-se extremamente desafiador para equipes humanas monitorar tudo. A IA é uma alternativa rápida e muito menos dispendiosa.

Mas também é automatizado, incapaz de aproveitar a experiência da vida real e as suas decisões raramente são sujeitas ao escrutínio público. As consequências disto são que os filtros baseados em IA podem muitas vezes inclinar-se para a censura de conteúdos que não são ilegais nem ofensivos.

A liberdade de expressão tal como a entendemos hoje depende de processos jurídicos específicos de protecção que se desenvolveram ao longo dos séculos. Não é uma ideia abstrata, mas baseada em práticas sociais e jurídicas muito particulares.

A legislação que incentiva a regulação de conteúdos através da automatização descarta efectivamente estes processos como aspectos técnicos. Ao fazê-lo, arrisca-se a pôr em risco toda a instituição da liberdade de expressão.

A liberdade de expressão sempre será uma ideia sustentada por um debate contínuo. Nunca existe uma fórmula estabelecida para definir o que deve ser proibido e o que não deve. É por isso que a determinação do que é considerado aceitável e inaceitável deve ocorrer numa sociedade aberta e estar sujeita a recurso.

Embora haja indicações de que alguns governos estão a começar a reconhecer este facto no planeamento do futuro da IA, este facto precisa de ser o centro das atenções em todos esses planos.

Qualquer que seja o papel que a IA possa desempenhar na monitorização de conteúdos online, ela não deve restringir a nossa capacidade de discutir entre nós sobre que tipo de sociedade estamos a tentar criar.

Leia também estas notícias principais de hoje:

Risco de saúde de IA! “À medida que os LMM ganham uma utilização mais ampla nos cuidados de saúde e na medicina, os erros, o uso indevido e, em última análise, os danos aos indivíduos são inevitáveis”, advertiu a OMS. Conheça também alguns dos benefícios. Confira agora aqui.Se você gostou de ler este artigo, encaminhe-o para seus amigos e familiares.

Não há ChatGPT Bang para Bing Buck! Quando a Microsoft anunciou que estava incorporando o ChatGPT em seu mecanismo de busca Bing, analistas otimistas declararam a mudança como um “momento iPhone”. Mas isso não parece ter acontecido. Saiba o que aconteceu aqui.

Humanos Trump AI! O CEO da OpenAi, Sam Altman, está dizendo que as pessoas são inteligentes o suficiente para descobrir para que usar o ChatGPT e quais não. “As pessoas encontraram maneiras de tornar o ChatGPT super útil para elas e entenderam para que não usá-lo, na maior parte das vezes”, diz Sam Altman. Li tudo sobre isso aqui. Se você gostou de ler este artigo, encaminhe-o para seus amigos e familiares.

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading