EL PAÍS

Nova York regulamenta o uso de algoritmos em processos seletivos para evitar preconceitos raciais ou sexistas

Tecnologia

Página da Web OpenAI, pai do bot ChatGPT AI.
Página da Web OpenAI, pai do bot ChatGPT AI.Gabby Jones (Bloomberg)

Nova York é o campo de testes para leis pioneiras nos EUA, o que em alguns casos é o mesmo que dizer no resto do mundo também. Entre as aprovadas recentemente, além da que estabelece um salário mínimo para entregadores e outra que proíbe a discriminação laboral por motivos de peso, uma terceira, em vigor desde esta quarta-feira, põe fim ao uso descontrolado de Inteligência Artificial (IA ). A nova regra impõe restrições ao uso de ferramentas automatizadas de decisão de emprego (AEDTs) para evitar que o processo de recrutamento seja condicionado por preconceito de gênero e raça. Os sistemas de decisão automatizados são popularmente conhecidos como algoritmos.

A lei, a primeira do gênero no mundo de acordo com alguns especialistas, estipula que o software de recrutamento baseado em aprendizado de máquina ou IA deve passar por uma auditoria de uma empresa externa para mostrar que é livre de preconceito racista ou de gênero. Uma Automated Employment Decision Tool (AEDT) é um programa de computador que usa aprendizado de máquina, modelagem estatística, análise de dados ou inteligência artificial para auxiliar substancialmente na contratação, ou seja, facilitar ou agilizar a escolha da pessoa adequada de acordo com o algoritmo.

De acordo com a lei de Nova York, os empregadores ou agências de empregos que desejam usar o AEDT devem garantir que uma auditoria de viés tenha sido realizada antes de usar a ferramenta; publicar um resumo dos resultados da auditoria em seu site e notificar os candidatos e funcionários de que o programa será usado para avaliá-los, bem como incluir instruções para solicitar uma adaptação razoável dos requisitos do trabalho e habilidades pessoais. Além disso, a empresa deve publicar em seu site um aviso sobre o tipo e a fonte dos dados utilizados para a ferramenta e a política de retenção de dados. As empresas que utilizam Programas Os AEDTs de terceiros não têm mais o direito legal de usar esses programas se não tiverem sido auditados.

Os programas de recrutamento baseados em IA estavam sob escrutínio por serem tendenciosos em relação ao racismo, sexismo e outros preconceitos, mas foram necessários aplicativos como ChatGPT e Midjourney para se tornarem mais difundidos para congressistas e até mesmo muitos executivos de empresas de tecnologia considerarem um regulamento. Até agora, o Congresso deu poucas pistas sobre quais seriam esses limites.

As cidades usam tecnologias algorítmicas e automatizadas para tomar todos os tipos de decisões, desde determinar a distribuição do censo escolar até decidir se alguém deve ser libertado sob fiança antes do julgamento. Mas até agora havia poucas salvaguardas para garantir que essas tecnologias pegar decisões justas. As primeiras experiências com ferramentas de IA mostraram nos últimos anos que elas podem ser categoricamente injustas: por exemplo, no final da última década, descobriu-se que os algoritmos usados ​​pelas autoridades policiais para avaliar e pontuar os riscos de segurança para menores ou criminosos registrados podem prejudicar e afetam desproporcionalmente os afro-americanos, o grupo populacional mais suscetível, junto com os latinos, de ser preso ou interrogado pela polícia.

Especialistas dizem que, embora a nova lei de Nova York seja importante para os trabalhadores, ela ainda é muito limitada. Julia Stoyanovich, professora de ciência da computação na Universidade de Nova York e membro fundador da Força-Tarefa de Sistemas de Decisão Automatizada da cidade – a primeira desse tipo nos EUA, criada em 2018 para revisar o uso de algoritmos em programas de computador. a cidade- , considera que é um início importante, mas ainda muito limitado. “Estou muito feliz que a lei esteja em vigor, que agora existam regras e que vamos começar a aplicá-las”, disse o pesquisador à NBC News. “Mas também há muitas lacunas. Por exemplo, a auditoria de viés é muito limitada em termos de categorias. Não levamos em consideração a discriminação por idade, por exemplo, que é muito importante na contratação, ou deficiência”, completou. O especialista também não deixa claro como a lei será aplicada ou em que medida, mas a verdade é que a iniciativa de Nova York contribui para alimentar o debate sobre o desenvolvimento e uso descontrolado da IA.

você pode seguir O PAÍS Tecnologia em Facebook y Twitter ou cadastre-se aqui para receber nossos newsletter semanal.


Com informações do EL Pais / Tecnología

Compartilhe este post
Sabores da TerraCasa da Roca e PetCitopatologista Dra JosileneAri ClinicaAfonsinho AmaranteMegalink AmaranteFinsolComercial Sousa Netoclinica e laboratorio sao goncaloCetec AmaranteEducandario Menino JesusMercadinho AfonsinhoAlternância de BannersFaculdade EstacioPax Uni~ão AmarantePax Uni~ão AmaranteDr. JosiasPier RestobarPax Uni~ão AmaranteHospital de OlhosIdeal Web, em AmaranteSuper CarnesInterativa