Eles pedem limites à Inteligência Artificial, com um acordo internacional.

NOVA YORK (EFE) — Vencedores do Prêmio Nobel, especialistas em inteligência artificial (IA) e cientistas pediram ontem a criação de uma instituição internacional para limitar os riscos da IA, antes das reuniões de alto nível da Assembleia Geral das Nações Unidas que serão realizadas esta semana em Nova York.
A iniciativa, lançada ontem e assinada por mais de duzentas pessoas e setenta organizações, exorta os governos a estabelecerem um acordo internacional vinculativo sobre “linhas vermelhas” para a IA.
"O apelo global para estabelecer limites à IA acaba de ser anunciado pela jornalista filipina Maria Ressa, ganhadora do Prêmio Nobel da Paz, na reunião de alto nível da ONU em comemoração ao 80º aniversário da organização. Instamos governos de todo o mundo a chegarem a um acordo internacional crucial sobre os limites que a IA jamais deve ultrapassar", anunciou Charbel Segerie, diretor executivo do Centro Francês para a Segurança da IA, em uma coletiva de imprensa virtual.
O especialista explicou que o objetivo não é reagir após um incidente grave e punir as violações posteriormente, mas sim prevenir ameaças em larga escala e potencialmente irreversíveis antes que elas ocorram.
O objetivo dessa coalizão de especialistas é exigir que os desenvolvedores demonstrem a segurança de sua IA como condição para acesso ao mercado, assim como é feito no campo do desenvolvimento de medicamentos e usinas nucleares.
Grandes empresas de tecnologia como Meta, Google e OpenAI estão colocando todos os ovos na mesma cesta e investindo enormes quantias de dinheiro no desenvolvimento de "superinteligência" ou inteligência artificial geral (AGI), um sistema hipotético de IA que supera as capacidades do cérebro humano e que atualmente existe apenas na ficção científica, mas que, de acordo com especialistas, pode chegar na próxima década.
Stuart Russell, professor da Universidade de Berkeley, enfatizou que a IA foi projetada para imitar muito bem os humanos.
“O comportamento humano é projetado para atingir objetivos: persuadir, impressionar, sobreviver, seduzir, vender, etc. Inevitavelmente, os sistemas de IA adquirem e perseguem esses objetivos por conta própria. É uma consequência inevitável do seu desenvolvimento. Eles são inerentemente inseguros”, enfatizou o diretor do Centro de IA Compatível com Humanos.
O que mais preocupa Russell é que os desenvolvedores admitem que não têm planos de monitorar sistemas de IA e, no momento, os governos não têm planos de exigir que eles façam isso.
Russell disse que não queria ser alarmista, mas que há uma probabilidade "significativa" de uma catástrofe na escala do acidente nuclear de Chernobyl, já que essa tecnologia pode estar por trás de uma sabotagem coordenada de sistemas financeiros, de comunicação ou de rede elétrica.
"A outra possibilidade é uma catástrofe muito maior, na qual a humanidade perderia o controle irreversivelmente e não teria mais voz ativa em sua existência", disse o professor.
Por fim, Russell observou que há uma terceira opção irrealista: nada acontecerá com o desenvolvimento e a implementação dessa tecnologia de ponta.
“Um CEO me disse recentemente que um evento na escala de Chernobyl é o melhor cenário, e um pesquisador sênior da OpenAI me disse que acredita que a probabilidade (de extinção humana devido à IA) agora é de 60%”, revelou.
Niki Iliadis, diretora de Governança Global de IA na The Future Society, observou que "primeiros passos importantes" já foram dados, como a criação do código de práticas da União Europeia, mas que essas regulamentações agora precisam se tornar "globais e aplicáveis".
De acordo com Iliadis, uma nova instituição internacional provavelmente será necessária para definir limites globais para IA, monitorar a conformidade e intervir quando essas "linhas vermelhas" forem ultrapassadas.
yucatan