Em 30 de maio, o Center for AI Safety divulgou um alerta público sobre o risco que a inteligência artificial representa para a humanidade. A declaração de uma frase assinada por mais de 350 cientistas, executivos de negócios e figuras públicas afirma: “Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear”.
É difícil não perceber a dupla ironia brutal nesta declaração.
Primeiro, alguns dos signatários – incluindo os CEOs do Google DeepMind e OpenAI – alertando sobre o fim da civilização representam empresas que são responsáveis por criar essa tecnologia em primeiro lugar. Em segundo lugar, são exatamente essas mesmas empresas que têm o poder de garantir que a IA realmente beneficie a humanidade ou, pelo menos, não cause danos.
Eles devem seguir os conselhos da comunidade de direitos humanos e adotar imediatamente uma estrutura de devida diligência que os ajude a identificar, prevenir e mitigar os possíveis impactos negativos de seus produtos.
Embora os cientistas há muito alertem sobre os perigos que a IA representa, não foi até o recente lançamento de novas ferramentas de IA generativa que uma grande parte do público em geral percebeu as consequências negativas que ela pode ter.
IA generativa é um termo amplo, descrevendo algoritmos “criativos” que podem gerar novos conteúdos, incluindo imagens, texto, áudio, vídeo e até código de computador. Esses algoritmos são treinados em conjuntos de dados massivos e, em seguida, usam esse treinamento para criar saídas que geralmente são indistinguíveis dos dados “reais” – tornando difícil, se não impossível, dizer se o conteúdo foi gerado por uma pessoa ou por um algoritmo.
Até o momento, os produtos Generative AI assumiram três formas principais: ferramentas como ChatGPT que geram texto, ferramentas como Dall-E, Midjourney e Stable Diffusion que geram imagens e ferramentas como Codex e Copilot que geram código de computador.
O surgimento repentino de novas ferramentas de IA generativa não tem precedentes. O chatbot ChatGPT desenvolvido pela OpenAI levou menos de dois meses para atingir 100 milhões de usuários. Isso supera em muito o crescimento inicial de plataformas populares como o TikTok, que levou nove meses para atingir o maior número de pessoas.
Ao longo da história, a tecnologia ajudou a promover os direitos humanos, mas também criou danos, geralmente de maneiras imprevisíveis. Quando ferramentas de busca na internet, mídia social e tecnologia móvel foram lançadas pela primeira vez, e à medida que cresciam em ampla adoção e acessibilidade, era quase impossível prever muitas das formas angustiantes como essas tecnologias transformadoras se tornaram impulsionadoras e multiplicadoras de abusos de direitos humanos em todo o mundo. mundo.
O papel da Meta na limpeza étnica dos rohingya em Mianmar em 2017, por exemplo, ou o uso de spyware quase indetectável implantado para transformar telefones celulares em máquinas de vigilância 24 horas usadas contra jornalistas e defensores dos direitos humanos, são consequências da introdução de métodos disruptivos tecnologias cujas implicações sociais e políticas não foram consideradas seriamente.
Aprendendo com esses desenvolvimentos, a comunidade de direitos humanos está pedindo às empresas que desenvolvem produtos de IA generativa que ajam imediatamente para evitar quaisquer consequências negativas para os direitos humanos que possam ter.
Então, como seria uma abordagem baseada em direitos humanos para IA generativa? São três passos, baseados em evidências e exemplos do passado recente, que sugerimos.
Em primeiro lugar, para cumprir sua responsabilidade de respeitar os direitos humanos, eles devem implementar imediatamente uma estrutura rigorosa de devida diligência em direitos humanos, conforme estabelecido nos Princípios Orientadores sobre Empresas e Direitos Humanos da ONU. Isso inclui due diligence proativa e contínua para identificar danos reais e potenciais, transparência em relação a esses danos e mitigação e remediação quando apropriado.
Em segundo lugar, as empresas que desenvolvem essas tecnologias devem se envolver proativamente com acadêmicos, atores da sociedade civil e organizações comunitárias, especialmente aquelas que representam comunidades tradicionalmente marginalizadas.
Embora não possamos prever todas as maneiras pelas quais essa nova tecnologia pode causar ou contribuir para danos, temos amplas evidências de que as comunidades marginalizadas são as mais propensas a sofrer as consequências. As versões iniciais do ChatGPT envolviam preconceito racial e de gênero, sugerindo, por exemplo, que as mulheres indígenas “valem” menos do que pessoas de outras raças e gêneros.
O envolvimento ativo com comunidades marginalizadas deve fazer parte dos processos de design de produtos e desenvolvimento de políticas, para entender melhor o impacto potencial dessas novas ferramentas. Isso não pode ser feito depois que as empresas já causaram ou contribuíram para o dano.
Em terceiro lugar, a própria comunidade de direitos humanos precisa intensificar. Na ausência de regulamentação para prevenir e mitigar os efeitos potencialmente perigosos da IA generativa, as organizações de direitos humanos devem assumir a liderança na identificação de danos reais e potenciais. Isso significa que as próprias organizações de direitos humanos devem ajudar a construir um corpo de entendimento profundo sobre essas ferramentas e desenvolver pesquisa, defesa e engajamento que antecipem o poder transformador da IA generativa.
A complacência diante deste momento revolucionário não é uma opção – mas também não é o cinismo. Todos nós temos interesse em garantir que essa nova e poderosa tecnologia seja usada para beneficiar a humanidade. Implementar uma abordagem baseada em direitos humanos para identificar e responder a danos é um primeiro passo crítico neste processo.
As opiniões expressas neste artigo são do próprio autor e não refletem necessariamente a posição editorial da Al Jazeera.
Com informações do site Al Jazeera
Compartilhe este post