Em Grande irmãoé Relatório Minoritário e, se possível, um mundo menos orwelliano do que já é. O Parlamento Europeu deu nesta quinta-feira um primeiro passo, que na verdade é um salto gigantesco, para tornar a Europa a primeira região do mundo a regulamentar as possibilidades e riscos ainda amplamente desconhecidos da inteligência artificial (IA) e suas versões mais avançadas, tanto os já conhecidos quanto os que ainda serão desenvolvidos. Dois anos depois de a Comissão ter apresentado a sua proposta de regulamento da IA, os eurodeputados querem modelos generativos, que na altura eram desconhecidos do público em geral e que são capazes de criar ambas as imagens (ver a famosa foto falsa do Papa com uma impressionante pena branca casaco) porque os textos, especialmente o muito elegante e tão preocupante ChatGPT, são obrigados a cumprir medidas adicionais de transparência, para deixar claro acima de tudo que foram criados usando AI.
Preocupados com os potenciais efeitos negativos sobre os direitos e liberdades dos cidadãos que esta tecnologia possa ter nas mãos de empresas ou governos sem escrúpulos, os eurodeputados também alargaram as limitações contidas na proposta original da Comissão Europeia: assim propõem proibir a “usa AI intrusiva e discriminatória”, especialmente sistemas biométricos em tempo real ou ex-post em espaços públicos, com pouquíssimas exceções por motivos de segurança. Um dos relatores da proposta legislativa, o eurodeputado italiano Brando Benifei, resumiu a ideia de dotar a Europa de legislação com uma abordagem “ética e antropomórfica” para “conquistar a confiança dos cidadãos” nestes sistemas que afetam e vão continuam afetando suas vidas sem impedir, ao mesmo tempo, o avanço das novas tecnologias.
O texto aprovado esta quinta-feira por larga maioria —84 votos a favor, 7 contra e 12 abstenções— em sessão conjunta das comissões das Liberdades Cívicas e do Mercado Interno ainda deverá ser validado pelo plenário do Parlamento Europeu, provavelmente em meados de junho. A partir desse momento, as negociações com o Conselho (ou seja, os Estados), que já havia estabelecido sua posição em dezembro, e com a Comissão, os chamados trílogos, podem começar a chegar a um texto final. O comissário por trás da proposta legislativa, Thierry Breton, expressou sua esperança de que a chamada AI Act (Lei de Inteligência Artificial) possa entrar em vigor no Vinte e sete, o mais tardar em 2025.
“Estamos prestes a atingir um marco legislativo no panorama digital, não só na Europa, mas em todo o mundo”, celebrou Benifei sobre o texto legislativo, que no curto ano em que foi trabalhado no Parlamento Europeu recebeu mais de 3.000 emendas. A IA será algo que “nos perseguirá de alguma forma pelo resto de nossas vidas”, confirmou o presidente da Comissão de Liberdades Civis, o espanhol Juan Fernando López Aguilar.
As organizações que lutam contra a capacidade da IA de realizar vigilância biométrica em massa acolheram especialmente a defesa da privacidade das emendas aprovadas. Estas ampliam a lista de usos de sistemas de IA já proibidos na proposta original da Comissão, que já vetava os chamados sistemas de crédito social. A partir de agora, deverá incluir também sistemas de identificação biométrica remota em tempo real em espaços públicos (como o reconhecimento facial) e de identificação posterior, com a única exceção da sua utilização por autoridades para investigação de crimes graves, desde que disponham de autoridade judicial autorização.
Os deputados também incluem na lista de proibições sistemas de categorização biométrica que usam “características sensíveis” como gênero, raça, etnia, religião ou orientação política, exceto para uso “terapêutico”. Também devem ser proibidos os sistemas de vigilância preditiva para avaliar o risco de uma pessoa ou grupo de pessoas cometerem um crime ou ofensa (com base no perfil, na localização dessas pessoas ou no seu passado criminoso), bem como os sistemas de reconhecimento de emoções por ambos a polícia e agentes de fronteira ou em locais de trabalho ou escolas. Por fim, também é proibido o rastreamento aleatório de dados biométricos de redes sociais ou câmeras de vigilância para criar ou ampliar bancos de dados de reconhecimento facial, uma das principais demandas de organizações civis preocupadas com o potencial Big Brother dessas novas tecnologias.
“Do ponto de vista da vigilância biométrica, estamos totalmente satisfeitos com o texto”, diz Ella Jakubowska, analista da ONG europeia de direitos digitais EDRi. Sua organização tem estado muito ativa em Bruxelas, apoiando uma postura restritiva sobre essas ferramentas.
“As câmeras de reconhecimento facial nas ruas ou a análise ao vivo de imagens de vídeo de vigilância terão que parar”, explica Jakubowska. Também não será permitido buscar pessoas a partir de imagens, fechando as portas para aplicativos do tipo Clearview. “É uma notícia muito boa”, considera o britânico.
A polícia ainda poderá operar esses sistemas, mas com novas restrições: sempre retrospectivamente (não em tempo real) e no contexto de crimes específicos, para busca de pessoas específicas e com mandado. “Ainda falta muito para a aprovação do texto final, que pode mudar. Mas hoje devemos nos alegrar com este importante triunfo dos direitos humanos”, diz Jakubowska.
regulação por uso
Para garantir que uma regulamentação como esta, que regula tecnologias em constante transformação, não fique desatualizada antes mesmo de sua entrada em vigor, a regulamentação de IA se baseia não em regulamentar tecnologias específicas, mas em seus usos, criando categorias que vão desde risco “inaceitável” (proibido por lei) a outros menores que sejam aceites, embora sujeitos a controlos rigorosos para que não afectem as liberdades e direitos dos cidadãos. Na sua proposta, os eurodeputados alargam neste sentido a classificação de “áreas de alto risco”, permitidas mas sujeitas a estritas obrigações antes de um produto desta categoria poder ser colocado no mercado. Assim, incluem nele os sistemas de IA que podem afetar a saúde ou a segurança dos cidadãos, bem como seus direitos fundamentais ou o meio ambiente. Eles também classificam como sistemas de IA de “alto risco” que podem “influenciar os eleitores em campanhas políticas”, bem como sistemas de recomendação usados por plataformas sociais.
Para que a regulamentação europeia possa ser aplicada a novas tecnologias como os sistemas generativos do ChatGPT, que deverão entrar na categoria de “alto risco”, os eurodeputados acrescentam também novas definições: por um lado, incluem o conceito de “modelo fundacional “, ou modelo grande, para cobrir a IA generativa — capaz de criar um novo conteúdo original de áudio, texto ou imagem a partir da observação de outros dados. Eles também acrescentam a definição de “sistemas de IA de propósito geral”, que explicam como “um sistema de IA que pode ser usado e adaptado a um amplo espectro de aplicações para as quais não foi intencional e especificamente projetado”, e que deve incluir aqueles “modelos fundamentais”.
Os fornecedores destes modelos fundacionais devem, segundo a proposta dos eurodeputados, garantir uma “protecção robusta” dos direitos fundamentais dos cidadãos, pelo que devem “avaliar e mitigar os riscos, cumprir os requisitos europeus de conceção, informação e ambiente” e ser “registrado” no banco de dados da UE.
Modelos generativos como o ChatGPT terão que atender a requisitos adicionais de “transparência”: assim, terão que deixar claro que o conteúdo foi gerado por um sistema de IA. Além disso, devem projetar seus modelos de forma a impedir a criação de conteúdo ilegal e, no interesse da proteção dos direitos autorais, devem publicar os dados usados para o treinamento desses sistemas, de forma que, se um autor acredita que seus direitos foram violados pelo uso de seu material por algoritmos, você pode recorrer aos canais legais existentes na UE para reivindicar ou exigir compensação.
você pode seguir O PAÍS Tecnologia em Facebook y Twitter ou cadastre-se aqui para receber nossos newsletter semanal.
Com informações do EL Pais / Tecnología
Compartilhe este post