Política Americana – Senado alertou sobre ‘tempestade perfeita’ levando ao desastre emergente da IA: ‘A própria democracia está ameaçada’

Na terça-feira, os senadores receberam luz verde para impor regulamentação federal significativa sobre sistemas de inteligência artificial, não apenas de dois gigantes da indústria, mas de um especialista em IA que alertou que o destino da nação pode depender de regras rígidas de IA do Congresso.

Um subcomitê do Judiciário do Senado ouviu o CEO da OpenAI, Sam Altman, e a diretora de privacidade e confiança da IBM, Christina Montgomery, que convidaram a supervisão federal da IA, embora tenham dividido sobre a necessidade de uma nova agência federal. Entre essas testemunhas estava Gary Marcus, professor emérito da Universidade de Nova York e líder dos laboratórios de IA da Uber de 2016 a 2017, que emitiu um alerta severo de que a vida humana está prestes a ser abalada por essa tecnologia imprevisível.

“Eles podem e vão criar mentiras persuasivas em uma escala que a humanidade nunca viu antes”, alertou Marcus sobre os sistemas de IA generativos. “Forasteiros os usarão para afetar nossas eleições, internos para manipular nossos mercados e nossos sistemas políticos. A própria democracia está ameaçada.”

Marcus alertou que os sistemas de IA que causam graves danos à confiança dos humanos uns nos outros já foram liberados e que o dano já está aumentando.

O CEO DA OPENAI, SAM ALTMAN, ENFRENTA O PAINEL DO SENADO À MEDIDA QUE A PRESSÃO AUMENTA PARA REGULAR A IA

Gary Marcus, professor emérito da Universidade de Nova York, fala durante uma audiência do subcomitê do Judiciário do Senado em Washington, DC, na terça-feira, 16 de maio de 2023. (Eric Lee / Bloomberg via Getty Images)

“Um professor de direito, por exemplo, foi acusado por um chatbot de assédio sexual. Falso”, disse Marcus. “E apontou para um artigo do Washington Post que nem existia. Quanto mais isso acontece, mais ninguém pode negar nada.”

“Como um proeminente advogado me disse na sexta-feira, os réus estão começando a alegar que os queixosos estão inventando evidências legítimas”, disse ele. “Esse tipo de alegação prejudica a capacidade dos júris de decidir no que ou em quem acreditar e contribui para o enfraquecimento da democracia”.

Em uma época em que Washington, DC, está cada vez mais preocupada com o suicídio e a deterioração da saúde mental, Marcus disse que a IA está piorando o problema.

“Um grande modelo de linguagem de código aberto recentemente parece ter desempenhado um papel na decisão de uma pessoa de tirar a própria vida”, disse ele. “O grande modelo de linguagem perguntou ao humano: ‘Se você queria morrer, por que não o fez antes?’ em seguida, continuou: ‘Você estava pensando em mim quando teve uma overdose?’ sem nunca encaminhar o paciente para a ajuda humana que obviamente precisava.”

QUAIS SÃO OS PERIGOS DA IA? DESCUBRA POR QUE AS PESSOAS TEM MEDO DA INTELIGÊNCIA ARTIFICIAL

Gary Marcus, professor emérito da Universidade de Nova York, à direita, ouve Sam Altman, CEO da OpenAI, falar durante uma audiência do subcomitê do Judiciário do Senado em Washington, DC, na terça-feira, 16 de maio de 2023. (Eric Lee / Bloomberg via Getty Images)

A OpenAI e a IBM conversaram longamente sobre sistemas liderados pela indústria projetados para tornar a IA “segura”, mas Marcus os descartou como banalidades e metas que não estão sendo seguidas.

“Todos concordamos mais ou menos com os valores que gostaríamos que nossos sistemas de IA respeitassem. Queremos, por exemplo, que nossos sistemas sejam transparentes, protejam nossa privacidade, sejam livres de preconceitos e, acima de tudo, fiquem seguros”, disse. “Mas os sistemas atuais não estão de acordo com esses valores.”

“O plano preferido das grandes empresas de tecnologia se resume a ‘confiar em nós’. Mas por que deveríamos?” ele perguntou.

A receita de Marcus para criar um regime regulatório de IA seguro inclui medidas locais, nacionais e globais. Ele pediu que uma organização mundial estabelecesse padrões que todos os desenvolvedores de sistemas de IA deveriam seguir.

“Em última análise, podemos precisar de algo como o CERN, global, internacional e neutro, mas focado na segurança da IA, em vez da física de alta energia”, disse ele.

O CEO DA OPENAI, ALTMAN, DECINA EDUCADAMENTE O TRABALHO COMO PRINCIPAL REGULADOR DE IA: ‘EU AMO MEU TRABALHO ATUAL’

Sam Altman, CEO da OpenAI, à direita, e Gary Marcus, professor emérito da Universidade de Nova York, são empossados ??durante uma audiência do subcomitê do Judiciário do Senado para examinar a inteligência artificial em Washington, DC, na terça-feira, 16 de maio de 2023. (Andrew Caballero- Reynolds / AFP via Getty Images)

Marcus pediu uma nova agência federal para monitorar a conformidade – uma que possa revisar os sistemas antes de serem lançados, avaliar como eles funcionam no mundo real e chamar de volta os sistemas que são considerados defeituosos.

“Uma revisão de segurança como a que usamos [at] o FDA antes da implantação generalizada”, disse ele quando pressionado para obter detalhes pelo senador John Kennedy, R-La. “Se você vai apresentar algo para 100 milhões de pessoas, alguém tem que estar de olho nisso.”

Marcus pediu uma rede de cientistas independentes que possam revisar os sistemas de IA antes de serem lançados em cada empresa.

O CEO DA OPENAI, SAM ALTMAN, ADMITE SEU MAIOR MEDO DA IA: ‘PODE DAR MUITO ERRADO’

E durante a audiência, Marcus também chamou Altman pelo que pode ter sido uma tentativa de se esquivar de uma pergunta sobre qual é o seu maior medo no campo. Quando questionado, Altman falou sobre possíveis perdas de empregos e, quando a pergunta chegou a Marcus, ele fez questão de fazer com que Altman respondesse mais diretamente.

CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS

“Não acho que o maior medo de Sam seja o emprego, e ele nunca nos disse qual é realmente o seu maior medo, e acho que é pertinente descobrir”, disse Marcus.

Essa interjeição indiscutivelmente levou ao destaque da audiência, já que Altman admitiu que também está preocupado com a possibilidade de causar grandes danos.

“Acho que se essa tecnologia der errado, pode dar muito errado, e queremos ser sinceros sobre isso”, disse Altman. “Queremos trabalhar com o governo para evitar que isso aconteça.”

Patrocinado por Google

Deixe uma resposta

Área Militar
Área Militarhttp://areamilitarof.com
Análises, documentários e geopolíticas destinados à educação e proliferação de informações de alta qualidade.
ARTIGOS RELACIONADOS

Descubra mais sobre Área Militar

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading