EL PAÍS

Armas autônomas e nucleares, robôs e inteligência artificial: como regular tecnologias com consequências imprevisíveis para a humanidade

Tecnologia

Dois visitantes do museu Tekniska em Estocolmo observam 'A Estátua Impossível', uma escultura criada por inteligência artificial, em 8 de junho.
Dois visitantes do museu Tekniska em Estocolmo observam ‘A Estátua Impossível’, uma escultura criada por inteligência artificial, em 8 de junho.JONATHAN NACKSTRAND (AFP)

Não é a primeira vez que a humanidade enfrenta um desenvolvimento tecnológico com consequências imprevisíveis para sua própria existência. O escritor Isaac Asimov já criado em Círculo vicioso, uma história publicada em 1942, três regras para proteger as pessoas dos robôs e sua base ainda é usada como referência. A Agência Internacional de Energia Atômica foi criada em 1957 “em resposta aos profundos temores e expectativas inspirados pelas descobertas e vários usos da tecnologia nuclear”. de acordo com a própria organização. O Direito Internacional Humanitário (conhecido como o direito da guerra) há anos busca uma regulamentação efetiva dos Sistemas de Armas Autônomas Letais, que podem atacar sem intervenção humana. A Europa iniciou agora a tramitação das primeiras regulamentações do mundo sobre inteligência artificial (IA), um desenvolvimento tecnológico capaz de acelerar o progresso em áreas fundamentais como saúde ou energia, mas também ameaçar democracias, aumentar a discriminação ou quebrar todos os limites da privacidade. “Semear pânico infundado não ajuda, pelo contrário. A inteligência artificial vai continuar a funcionar e temos de a melhorar e prevenir”, defende. Cecília Dinamarquesadivulgador e advogado especializado em IA e direitos digitais, professor em diversas universidades internacionais e autor de O império dos algoritmos (recém publicado pela Galerna).

A primeira coisa a entender é o que é um algoritmo, a base da inteligência artificial. Danesi, investigadora do Instituto de Estudos Europeus e Direitos Humanos, descreve-o na sua obra, um compêndio fundamental para a compreensão do cenário que a humanidade enfrenta, como um “conjunto metódico de passos que podem ser usados ​​para fazer cálculos, resolver problemas e chegar a decisões”. Desta forma, o algoritmo não é o cálculo, mas o método. E é esta que pode incluir o modelo preciso para identificar um câncer em imagens, descobrir uma nova molécula com usos farmacológicos, tornar um processo industrial mais eficiente, desenvolver um novo tratamento ou, ao contrário, gerar discriminação, falsa informação, imagem humilhante ou uma situação injusta.

O diretor da OpenAI, Sam Altman, o laureado de Turing Geoff Hinton, o pesquisador de IA Yoshua Bengio e Elon Musk, entre outros, pediram regulamentação e ação urgente para lidar com os “riscos existenciais” que a IA representa para a humanidade. Estes incluem o aumento e amplificação da desinformação (como a preponderância de conteúdos falsos e maliciosos nas plataformas sociais), os vieses que reforçam as desigualdades (como o sistema de crédito social chinês ou a consideração mecânica das pessoas como potenciais riscos devido à sua etnia) ou quebrando todos os limites da privacidade para coletar os dados que alimentam o algoritmo e que permanecem ocultos.

A União Europeia começou a negociar o que, se os prazos forem cumpridos, é chamada a ser a primeira lei de IA do mundo. Poderia ser aprovado durante a presidência espanhola da UE e seu objetivo é prevenir usos considerados como “riscos inaceitáveis” (reconhecimento facial indiscriminado ou manipulação do comportamento das pessoas), regular seu uso em setores como saúde e educação, bem como sancionar e impedir a venda de sistemas que não estejam de acordo com a legislação.

A UNESCO desenvolveu um quadro ético voluntário, mas esse mesmo personagem é sua principal fraqueza. China e Rússia, dois países que usam essa tecnologia para vigilância em massa da população, assinaram esses princípios.

“Existem direitos fundamentais envolvidos e é uma questão que temos que ocupar e nos preocupar, sim, mas com equilíbrio”, defende Danesi. É um critério semelhante ao exposto por Juhan Lepassaar, diretor executivo da European Cybersecurity Agency (Enisa, na sigla em inglês):Se quisermos proteger os sistemas de IA e também garantir a privacidade, precisamos ver como esses sistemas funcionam. A ENISA está a estudar a complexidade técnica da IA ​​para melhor mitigar os riscos de cibersegurança. Também precisamos encontrar o equilíbrio certo entre segurança e desempenho do sistema.”

Um dos riscos expostos até agora foi a substituição de pessoas por máquinas operadas por IA. Nesse sentido, a pesquisadora Cecilia Danesi afirma: “As máquinas vão nos substituir e já estão fazendo isso. São muitos os que nos substituem, engrandecem o trabalho ou nos complementam. A questão é o que e onde queremos ser substituídos e quais requisitos essas máquinas devem atender para tomar certas decisões. Primeiro temos que identificar um problema ou uma necessidade que justifique o uso ou não”.

No campo da robótica, Asimov já antevia esse problema e estabeleceu três princípios: 1) Um robô não fará mal a um ser humano nem permitirá que ele sofra danos por inação; 2) Um robô obedecerá às ordens que receber de um ser humano, a menos que as ordens entrem em conflito com a primeira lei; e 3) Um robô protegerá sua própria existência na medida em que tal proteção não entre em conflito com a primeira e a segunda leis.

Supervisão permanente e preventiva

“Parece ótimo. Feito: a inteligência artificial nunca pode prejudicar um ser humano. Divino. O problema é que na prática não fica tão claro”, explica Danesi. O pesquisador lembra “um caso em que duas máquinas foram programadas para otimizar uma negociação e o sistema entendeu que o melhor caminho era criar outra linguagem mais eficiente. Aqueles que desenharam o programa não entenderam aquela linguagem e os desligaram. O sistema foi tratado dentro dos parâmetros, mas a inteligência artificial pode ir além do que se imagina. Nesse caso, a máquina não prejudicou seus programadores, mas os excluiu da solução e de suas consequências.

A chave, para Danesi, é “supervisão permanente, auditorias algorítmicas desses sistemas de alto risco, que podem afetar significativamente os direitos humanos ou questões de segurança. Eles têm que ser avaliados e revistos para verificar se não violam direitos, se não têm preconceitos. E isso deve ser feito continuamente porque os sistemas, à medida que continuam a aprender, podem adquirir viés. E ações preventivas devem ser tomadas para evitar danos e criar sistemas éticos e respeitosos com os direitos humanos”.

Outro dos grandes perigos do uso descontrolado da IA ​​é seu uso para fins militares. A proposta de regulamento da UE exclui esse aspecto em sua primeira redação. “É um dos usos mais perigosos da inteligência artificial. Muitas vezes as leis proíbem algo que, depois, na prática, continua dando certo e é onde pode fazer mais mal às pessoas”, lamenta o pesquisador.

“Devemos temer as máquinas? A resposta é não! Devemos, quando for o caso, temer as pessoas pelo uso que possam fazer da tecnologia”, defende Danesi em sua obra O império dos algoritmos.

Respeito pelos dados do cidadão

Manuel R. Torres, professor de Ciência Política da Universidade Pablo de Olavide e membro do conselho consultivo do Elcano Royal Institute, falou em termos semelhantes. “O problema é a proliferação de uma tecnologia que deve ser evitada de chegar à mão errada. Não é simplesmente o conhecimento que foi lançado no mundo e do qual qualquer pessoa pode fazer uso.

Torres acrescenta um problema ao cenário tecnológico e à proposta de regulamentação europeia, que defende como poder regulador: “O conflito está na forma como esta tecnologia é desenvolvida em outras áreas que não têm qualquer tipo de escrúpulo ou limitação quanto ao respeito pela privacidade dos cidadãos que alimentam tudo isso com seus dados.”

O cientista político dá o caso da China como exemplo: “Não só está dentro dessa carreira tecnológica, como não tem problema em usar massivamente os dados deixados por seus próprios cidadãos para alimentar e melhorar esses sistemas. Por mais escrupulosos que queiramos ser com os limites que impomos aos nossos desenvolvedores locais, no final, se isso não acontecer globalmente, também é perigoso.”

Torres conclui: “Encontramo-nos num território onde existem poucas referências em que nos basearmos para saber como temos de enfrentar o problema e onde, além disso, existe um problema de compreensão das repercussões desta tecnologia. Muitos de nossos legisladores não estão exatamente familiarizados com esses desenvolvimentos.”

você pode seguir O PAÍS Tecnologia em Facebook y Twitter ou cadastre-se aqui para receber nossos newsletter semanal.

Inscreva-se para continuar lendo

Leia sem limites


Com informações do EL Pais / Tecnología

Compartilhe este post
Sabores da TerraCasa da Roca e PetCitopatologista Dra JosileneAri ClinicaAfonsinho AmaranteMegalink AmaranteFinsolComercial Sousa Netoclinica e laboratorio sao goncaloCetec AmaranteEducandario Menino JesusMercadinho AfonsinhoAlternância de BannersPax Uni~ão AmarantePax Uni~ão AmaranteDr. JosiasPier RestobarPax Uni~ão AmaranteHospital de OlhosIdeal Web, em AmaranteSuper CarnesInterativa