Inscreva-se no grupo de análise e inteligência no Telegram ▶️ https://t.me/areamilitar

O New York Times (30/05/23) direciona a atenção para um hipotético apocalipse futuro da IA, em vez de para o entrincheiramento da opressão contemporânea pela IA atual.
É quase impossível escapar aos relatos sobre inteligência artificial (IA) nos meios de comunicação social de hoje. Esteja você lendo as notícias ou assistindo a um filme, é provável que você encontre algum tipo de aviso ou buzz sobre IA.
O recente lançamento de Bate-papoGPT, em particular, levou a uma explosão de entusiasmo e ansiedade em relação à IA. Os meios de comunicação relataram que muitos tecnólogos proeminentes de IA eles mesmos estavam soando o alarme sobre os perigos de seu próprio campo. O proverbial monstro de Frankenstein foi libertado e o cientista agora estava com medo de sua criação.
Os receios especulativos que expressaram centravam-se numa crise existencial para a humanidade (New York Times, 30/05/23), com base na ameaça de a tecnologia da IA evoluir para um perigo semelhante às pandemias virais e ao armamento nuclear. No entanto, ao mesmo tempo, outras coberturas celebraram a inteligência supostamente superior da IA e elogiaram-na como uma realização humana notável com um potencial incrível (CJR, 26/05/23).
No geral, estes meios de comunicação muitas vezes ignoram o contexto e o âmbito mais amplos das ameaças da IA e, como tal, também são limitados na apresentação dos tipos de soluções que deveríamos explorar. À medida que lutamos colectivamente para dar sentido ao hype e ao pânico da IA, ofereço uma pausa: um momento para contextualizar as actuais narrativas dominantes de medo e fascínio, e lidar com a nossa relação de longo prazo com a tecnologia e a nossa humanidade.
Lucro como musa da inovação
Então, que tipo de medo nosso atual frenesi da mídia sobre IA está realmente destacando? Os medos distópicos de algumas pessoas em relação ao futuro são, na verdade, as histórias distópicas e as realidades contemporâneas de muitas outras pessoas. Estaremos realmente preocupados com toda a humanidade ou simplesmente prestando mais atenção agora que os meios de subsistência e as vidas dos colarinhos brancos e das elites estão em jogo?
Estamos actualmente numa época em que uma percentagem desproporcional da riqueza é acumulada pelos super-ricos (Oxfam International, 16/01/23), a maioria dos quais beneficia e reforça a indústria tecnológica. Embora o velho ditado diga que “a necessidade é a mãe da invenção”, num quadro capitalista, o lucro – e não a necessidade humana – é a musa da inovação. Como tal, não deveria ser tão surpreendente que os seres humanos e a humanidade estejam em risco devido a estes mesmos desenvolvimentos tecnológicos.
Ativistas e estudiosos, especialmente mulheres e pessoas de cor, há muito que soam o alarme sobre os impactos nocivos da IA e da automação. No entanto, os meios de comunicação social ignoraram largamente os seus avisos sobre a injustiça social e a tecnologia – nomeadamente, as formas como a tecnologia replica estruturas dominantes e opressivas de formas mais eficientes e de amplo alcance.
Cathy O’Neil em 2016, destacou as formas discriminatórias como a IA está a ser utilizada no sistema de justiça criminal, nos sistemas escolares e noutras práticas institucionais, de modo que aqueles com menos poder sociopolítico são sujeitos a tratamentos ainda mais punitivos. Por exemplo, os departamentos de polícia utilizam algoritmos para identificar “pontos críticos” com elevadas taxas de detenção, a fim de direccioná-los para mais policiamento. Mas as taxas de prisão não são iguais às taxas de criminalidade; eles refletem preconceitos raciais de longa data no policiamento, o que significa que tais algoritmos reforçam esses preconceitos raciais sob o disfarce da ciência.

Com fio (15/10/19): Joy Buolamwini “aprendeu como o reconhecimento facial é usado na aplicação da lei, onde algoritmos propensos a erros podem ter consequências graves”.
Joy Buolamwini baseou-se em sua própria experiência pessoal para descobrir o quão profundamente tendenciosos são os algoritmos de IA, com base nos dados que eles alimentam e no grupo demográfico restrito dos designers que os criam. O seu trabalho demonstrou a incapacidade da IA em reconhecer e muito menos distinguir entre rostos de pele escura, e as consequências prejudiciais da utilização desta tecnologia como ferramenta de vigilância, especialmente para pessoas negras e pardas, que vão desde inconvenientes quotidianos até detenções injustas.
Buolamwini tem trabalhado para atrair a atenção da mídia e dos legisladores, a fim de pressionar por mais transparência e cautela com o uso da IA. No entanto, relatórios recentes sobre a crise existencial da IA não mencionam o seu trabalho, nem o dos seus pares, que destacam as crises muito reais e existentes resultantes da utilização da IA nos sistemas sociais.
Timnit Gebruque foi expulso Google de forma muito pública, liderou pesquisas que por muito tempo previram os riscos de grandes modelos de linguagem, como aqueles empregados em ferramentas como o ChatGPT. Estes riscos incluem impactos ambientais da infra-estrutura de IA, barreiras financeiras à entrada que limitam quem pode moldar estas ferramentas, discriminação incorporada que conduz a danos desproporcionais para identidades sociais minoritárias, ideologias extremistas reforçadas decorrentes da apropriação indiscriminada de todos os dados da Internet como informação de formação, e a problemas inerentes devido à incapacidade de distinguir entre fabricação de fatos e fabricação de máquina. Apesar de muitos destes mesmos riscos serem agora ecoados pelas elites da IA, o trabalho de Gebru é pouco citado.
Embora as histórias de injustiça da IA possam ser novas no contexto da tecnologia, não o são no contexto histórico do colonialismo dos colonos. Enquanto a nossa sociedade continuar a privilegiar o heteropatriarcado branco, a tecnologia implementada neste quadro reforçará e exacerbará em grande medida as injustiças sistémicas existentes de formas cada vez mais eficientes e catastróficas.
Se quisermos realmente explorar caminhos para resolver a ameaça existencial da IA, talvez devêssemos começar por aprender com a sabedoria daqueles que já conhecem os impactos devastadores da tecnologia da IA – precisamente as vozes que são marginalizadas pelos meios de comunicação de elite.
Melhorar o contexto social

Conversação ( 19/04/23): “A mídia noticiosa reflete de perto os interesses empresariais e governamentais na IA, elogiando suas capacidades futuras e subnotificando a dinâmica de poder por trás desses interesses.”
Em vez disso, esses meios de comunicação recorrem principalmente a líderes da indústria de IA, cientistas da computação e funcionários do governo (Conversação, 19/04/23). Esses especialistas oferecem algumas soluções administrativas para a nossa crise de IA, incluindo medidas regulatórias (New York Times, 30/05/23), ação do governo/liderança (BBC, 30/05/23) e limites ao uso de IA (NPR, 01/06/23). Embora estas abordagens de cima para baixo possam travar a maré da IA, não abordam as questões sistémicas subjacentes que tornam a tecnologia mais uma ferramenta de destruição que devasta desproporcionalmente comunidades que vivem à margem do poder na sociedade.
Não podemos permitir-nos concentrar-nos na mitigação de ameaças futuras sem também atender aos problemas reais e actuais que causam tanto sofrimento humano. Para alterar eficazmente os resultados da nossa tecnologia, precisamos de melhorar o contexto social em que estas ferramentas são implementadas.
Um caminho-chave que os tecnólogos estão explorando para resolver a crise da IA é o “alinhamento da IA”. Por exemplo, OpenAI relatórios que sua pesquisa de alinhamento “visa alinhar a inteligência artificial geral (AGI) com os valores humanos e seguir a intenção humana”.
No entanto, a infraestrutura de IA existente não é neutra em termos de valor. Pelo contrário, a automação reflecte os valores capitalistas de velocidade, produtividade e eficiência. Assim, qualquer esforço significativo de alinhamento da IA exigirá também o desmantelamento deste quadro explorador, a fim de optimizar o bem-estar humano em vez do retorno dos investimentos.
Colaboração sobre domínio
Que tipo de sistema poderíamos imaginar que nossa tecnologia servisse à nossa humanidade coletiva? Poderíamos começar por dar atenção à sabedoria daqueles que viveram e/ou estudaram profundamente a opressão codificada na nossa infra-estrutura tecnológica.

Greta Byrum e Ruha Benjamin (Revisão de Inovação Social de Stanford, 16/06/22): “Aqueles que foram excluídos, prejudicados, expostos e oprimidos pela tecnologia entendem melhor do que ninguém como as coisas podem dar errado.”
Vestido Benjamim introduziu a ideia do “Novo Código Jim”, para ilustrar como a nossa infra-estrutura tecnológica reforça as desigualdades existentes sob o pretexto de “objectividade”, “inovação” e “benevolência”. Embora a tecnologia possa ser nova, os estereótipos e discriminações continuam a alinhar-se com sistemas de valores bem estabelecidos da supremacia branca. Ela encorajar nos obriga a “exigir uma inovação mais lenta e com maior consciência social”, que priorize “a equidade em vez da eficiência, [and] bem social acima dos imperativos de mercado”.
Audrey Watters (Hackear educação, 28/11/19) leva-nos a questionar as narrativas dominantes sobre a tecnologia e a não simplesmente aceitar o hype e a propaganda tecnológica que equiparam o progresso apenas à tecnologia. Ela elucida como estas histórias raramente se baseiam apenas em factos, mas também em fantasias especulativas motivadas pelo poder económico, e lembra-nos que “não precisamos de desistir do futuro às elites corporativas” (Hackear educação, 08/03/22).
Manhã Nobre (Revista UCLA, 22/02/21) revela como a influência desproporcional das empresas de tecnologia da Internet causa danos através da cooptação de bens públicos para lucros privados. Para combater essas forças, ela propõe “fortalecer bibliotecas, universidades, escolas, meios de comunicação públicos, instituições de saúde pública e de informação pública.”
Estes estudiosos identificam o trabalho lento e confuso que devemos realizar colectivamente para criar as condições para que a nossa tecnologia espelhe a colaboração em vez da dominação, a ligação em vez da separação e a confiança em vez da suspeita. Se quisermos prestar atenção à sua sabedoria, precisamos de meios de comunicação que vejam a IA como mais do que apenas a competência dos tecnólogos, e que também envolvam as vozes de activistas, cidadãos e académicos. A cobertura mediática também deve contextualizar estas tecnologias, não como neutras, mas como mecanismos que operam dentro de um quadro histórico e social.
Agora, mais do que nunca, testemunhamos a miséria humana resultante de estruturas económicas e políticas globais extractivas e exploradoras, que há muito tempo estão veladas sob um verniz de “progresso tecnológico”. Devemos sentir-nos compelidos a não apenas encobrir estas verdades, como se pudéssemos condenar o nosso caminho, mas também a lutar colectivamente pelos futuros de liberdade de que necessitamos – não governados pelo medo, mas alimentados pela esperança.
Imagem em destaque: “Robot Zombie Apocalypse” por Nicolau Mastello