O aviso segue uma carta aberta no início deste ano que pedia uma pausa de seis meses no desenvolvimento da IA.
Taipei, Taiwan – A inteligência artificial representa um “risco de extinção” que exige uma ação global, alertaram os principais cientistas da computação e tecnólogos.
“Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear”, disse um grupo de especialistas em IA e outras figuras de destaque em um breve comunicado divulgado pelo Center for AI Safety, um grupo de pesquisa e defesa com sede em San Francisco, na terça-feira.
Os signatários incluem especialistas em tecnologia como Sam Altman, executivo-chefe da OpenAI, Geoffrey Hinton, conhecido como o “padrinho da IA”, e Audrey Tang, ministra digital de Taiwan, além de outras figuras notáveis, como o neurocientista Sam Harris e o músico Grimes .
O aviso segue uma carta aberta assinada por Elon Musk e outras figuras de destaque em março, que pedia uma pausa de seis meses no desenvolvimento de IA mais avançada que o GPT-4 da OpenAI.
“Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, disse a carta.
O rápido avanço da IA levantou preocupações sobre possíveis consequências negativas para a sociedade, desde perdas em massa de empregos e violação de direitos autorais até a disseminação de desinformação e instabilidade política. Alguns especialistas levantaram temores de que a humanidade possa um dia perder o controle da tecnologia.
Embora a IA atual ainda não tenha alcançado a inteligência geral artificial (AGI), potencialmente permitindo que ela tome decisões independentes, pesquisadores da Microsoft disseram em março que o GPT-4 mostrou “faíscas de AGI” e foi capaz de resolver “tarefas novas e difíceis que abrangem matemática, codificação, visão, medicina, direito, psicologia e muito mais, sem a necessidade de nenhum estímulo especial”.
Desde então, os alertas sobre os perigos potenciais da IA aumentaram.
No mês passado, Hinton, um renomado cientista da computação, deixou seu emprego no Google para passar mais tempo defendendo os riscos da IA.
Em uma aparição perante o Congresso dos Estados Unidos no início deste mês, Altman pediu aos legisladores que desenvolvessem rapidamente regulamentos para a tecnologia de IA e recomendou uma abordagem baseada em licenciamento.
Os EUA e outros países estão se esforçando para criar uma legislação que equilibre a necessidade de supervisão com tecnologia promissora.
A União Europeia disse que espera aprovar uma legislação até o final do ano que classificaria a IA em quatro categorias baseadas em risco.
A China também tomou medidas para regular a IA, aprovando legislação que rege deep fakes e exigindo que as empresas registrem seus algoritmos junto aos reguladores.
Pequim também propôs regras estritas para restringir conteúdo politicamente sensível e exigir que os desenvolvedores recebam aprovação antes de lançar tecnologia generativa baseada em IA.
Com informações do site Al Jazeera
Compartilhe este post