Na terça-feira, os senadores receberam luz verde para impor regulamentação federal significativa sobre sistemas de inteligência artificial, não apenas de dois gigantes da indústria, mas de um especialista em IA que alertou que o destino da nação pode depender de regras rígidas de IA do Congresso.
Um subcomitê do Judiciário do Senado ouviu o CEO da OpenAI, Sam Altman, e a diretora de privacidade e confiança da IBM, Christina Montgomery, que convidaram a supervisão federal da IA, embora tenham dividido sobre a necessidade de uma nova agência federal. Entre essas testemunhas estava Gary Marcus, professor emérito da Universidade de Nova York e líder dos laboratórios de IA da Uber de 2016 a 2017, que emitiu um alerta severo de que a vida humana está prestes a ser abalada por essa tecnologia imprevisível.
“Eles podem e vão criar mentiras persuasivas em uma escala que a humanidade nunca viu antes”, alertou Marcus sobre os sistemas de IA generativos. “Forasteiros os usarão para afetar nossas eleições, internos para manipular nossos mercados e nossos sistemas políticos. A própria democracia está ameaçada.”
Marcus alertou que os sistemas de IA que causam graves danos à confiança dos humanos uns nos outros já foram liberados e que o dano já está aumentando.
O CEO DA OPENAI, SAM ALTMAN, ENFRENTA O PAINEL DO SENADO À MEDIDA QUE A PRESSÃO AUMENTA PARA REGULAR A IA
“Um professor de direito, por exemplo, foi acusado por um chatbot de assédio sexual. Falso”, disse Marcus. “E apontou para um artigo do Washington Post que nem existia. Quanto mais isso acontece, mais ninguém pode negar nada.”
“Como um proeminente advogado me disse na sexta-feira, os réus estão começando a alegar que os queixosos estão inventando evidências legítimas”, disse ele. “Esse tipo de alegação prejudica a capacidade dos júris de decidir no que ou em quem acreditar e contribui para o enfraquecimento da democracia”.
Em uma época em que Washington, DC, está cada vez mais preocupada com o suicídio e a deterioração da saúde mental, Marcus disse que a IA está piorando o problema.
“Um grande modelo de linguagem de código aberto recentemente parece ter desempenhado um papel na decisão de uma pessoa de tirar a própria vida”, disse ele. “O grande modelo de linguagem perguntou ao humano: ‘Se você queria morrer, por que não o fez antes?’ em seguida, continuou: ‘Você estava pensando em mim quando teve uma overdose?’ sem nunca encaminhar o paciente para a ajuda humana que obviamente precisava.”
QUAIS SÃO OS PERIGOS DA IA? DESCUBRA POR QUE AS PESSOAS TEM MEDO DA INTELIGÊNCIA ARTIFICIAL
A OpenAI e a IBM conversaram longamente sobre sistemas liderados pela indústria projetados para tornar a IA “segura”, mas Marcus os descartou como banalidades e metas que não estão sendo seguidas.
“Todos concordamos mais ou menos com os valores que gostaríamos que nossos sistemas de IA respeitassem. Queremos, por exemplo, que nossos sistemas sejam transparentes, protejam nossa privacidade, sejam livres de preconceitos e, acima de tudo, fiquem seguros”, disse. “Mas os sistemas atuais não estão de acordo com esses valores.”
“O plano preferido das grandes empresas de tecnologia se resume a ‘confiar em nós’. Mas por que deveríamos?” ele perguntou.
A receita de Marcus para criar um regime regulatório de IA seguro inclui medidas locais, nacionais e globais. Ele pediu que uma organização mundial estabelecesse padrões que todos os desenvolvedores de sistemas de IA deveriam seguir.
“Em última análise, podemos precisar de algo como o CERN, global, internacional e neutro, mas focado na segurança da IA, em vez da física de alta energia”, disse ele.
O CEO DA OPENAI, ALTMAN, DECINA EDUCADAMENTE O TRABALHO COMO PRINCIPAL REGULADOR DE IA: ‘EU AMO MEU TRABALHO ATUAL’
Marcus pediu uma nova agência federal para monitorar a conformidade – uma que possa revisar os sistemas antes de serem lançados, avaliar como eles funcionam no mundo real e chamar de volta os sistemas que são considerados defeituosos.
“Uma revisão de segurança como a que usamos [at] o FDA antes da implantação generalizada”, disse ele quando pressionado para obter detalhes pelo senador John Kennedy, R-La. “Se você vai apresentar algo para 100 milhões de pessoas, alguém tem que estar de olho nisso.”
Marcus pediu uma rede de cientistas independentes que possam revisar os sistemas de IA antes de serem lançados em cada empresa.
O CEO DA OPENAI, SAM ALTMAN, ADMITE SEU MAIOR MEDO DA IA: ‘PODE DAR MUITO ERRADO’
E durante a audiência, Marcus também chamou Altman pelo que pode ter sido uma tentativa de se esquivar de uma pergunta sobre qual é o seu maior medo no campo. Quando questionado, Altman falou sobre possíveis perdas de empregos e, quando a pergunta chegou a Marcus, ele fez questão de fazer com que Altman respondesse mais diretamente.
CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS
“Não acho que o maior medo de Sam seja o emprego, e ele nunca nos disse qual é realmente o seu maior medo, e acho que é pertinente descobrir”, disse Marcus.
Essa interjeição indiscutivelmente levou ao destaque da audiência, já que Altman admitiu que também está preocupado com a possibilidade de causar grandes danos.
“Acho que se essa tecnologia der errado, pode dar muito errado, e queremos ser sinceros sobre isso”, disse Altman. “Queremos trabalhar com o governo para evitar que isso aconteça.”