Casa Branca pressiona indústria de tecnologia para fechar mercado de deepfakes de IA sexualmente abusivos

A administração do presidente Joe Biden está pressionando a indústria de tecnologia e instituições financeiras para fechar um mercado crescente de imagens sexuais abusivas feitas com tecnologia de inteligência artificial.

Novas ferramentas de IA generativa tornaram fácil transformar a semelhança de alguém em um deepfake de IA sexualmente explícito e compartilhar essas imagens realistas em salas de chat ou redes sociais. As vítimas - sejam celebridades ou crianças - têm poucas opções para detê-las.

A Casa Branca está fazendo um apelo na quinta-feira em busca de cooperação voluntária das empresas na ausência de legislação federal. Comprometendo-se com um conjunto de medidas específicas, os oficiais esperam que o setor privado possa conter a criação, disseminação e monetização de tais imagens de IA não consensuais, incluindo imagens explícitas de crianças.

“À medida que a IA generativa surgiu, todo mundo estava especulando sobre onde os primeiros danos reais viriam. E acho que temos a resposta”, disse a conselheira científica-chefe de Biden, Arati Prabhakar, diretora do Escritório de Política de Ciência e Tecnologia da Casa Branca.

Ela descreveu à Associated Press uma “aceleração fenomenal” de imagens não consensuais impulsionadas por ferramentas de IA e direcionadas principalmente a mulheres e meninas de uma maneira que pode desestabilizar suas vidas.

“Se você é uma adolescente, se você é uma criança gay, esses são problemas que as pessoas estão enfrentando agora”, disse ela. “Vimos uma aceleração por causa da IA generativa que está se movendo muito rápido. E a coisa mais rápida que pode acontecer é as empresas assumirem a responsabilidade.”

Um documento compartilhado com a AP antes de seu lançamento na quinta-feira pede ação não apenas dos desenvolvedores de IA, mas também de processadores de pagamento, instituições financeiras, provedores de computação em nuvem, mecanismos de busca e os controladores - principalmente Apple e Google - que controlam o que entra nas lojas de aplicativos móveis.

O setor privado deve se preparar para “interromper a monetização” do abuso sexual baseado em imagens, restringindo o acesso ao pagamento especialmente a sites que anunciam imagens explícitas de menores, disse a administração.

Prabhakar disse que muitas plataformas de pagamento e instituições financeiras já afirmam que não apoiarão os tipos de empresas que promovem imagens abusivas.

“Mas às vezes não é aplicado; às vezes eles não têm esses termos de serviço”, disse ela. “E isso é um exemplo de algo que poderia ser feito com muito mais rigor.”

Os provedores de serviços em nuvem e as lojas de aplicativos móveis também poderiam “frear os serviços da web e aplicativos móveis comercializados com o propósito de criar ou alterar imagens sexuais sem o consentimento das pessoas”, diz o documento.

E quer seja gerado por IA ou uma foto nua real colocada na internet, as vítimas deveriam ter mais facilidade para fazer com que as plataformas online as removam.

A vítima mais conhecida de imagens deepfake pornográficas é Taylor Swift, cuja base de fãs ardentes lutou em janeiro quando imagens abusivas geradas por IA da cantora começaram a circular nas redes sociais. A Microsoft prometeu fortalecer suas salvaguardas depois que algumas das imagens de Swift foram rastreadas até sua ferramenta de design visual de IA.

Um número crescente de escolas nos EUA e em outros lugares também está lidando com deepfakes de nudez gerados por IA retratando seus alunos. Em alguns casos, jovens foram encontrados criando imagens manipuladas por IA e compartilhando-as com colegas de classe.

No verão passado, a administração Biden intermediou compromissos voluntários da Amazon, Google, Meta, Microsoft e outras grandes empresas de tecnologia para estabelecer uma série de salvaguardas em novos sistemas de IA antes de lançá-los publicamente.

Isso foi seguido pela assinatura por Biden de uma ordem executiva ambiciosa em outubro projetada para orientar como a IA é desenvolvida para que as empresas possam lucrar sem colocar a segurança pública em perigo.

Estimular as empresas a dar um passo adiante e fazer compromissos voluntários “não muda a necessidade subjacente de o Congresso agir aqui”, disse Jennifer Klein, diretora do Conselho de Política de Gênero da Casa Branca.

Leis antigas já criminalizam a criação e a posse de imagens sexuais de crianças, mesmo que sejam falsas. Os procuradores federais apresentaram acusações neste mês contra um homem de Wisconsin que disseram ter usado um popular gerador de imagens de IA, Stable Diffusion, para criar milhares de imagens realistas geradas por IA de menores envolvidos em condutas sexuais.

Mas quase não há supervisão sobre as ferramentas e serviços de tecnologia que tornam possível criar tais imagens. Algumas estão em sites comerciais obscuros que revelam pouca informação sobre quem os administra ou a tecnologia em que se baseiam.

O Observatório de Internet de Stanford disse em dezembro que encontrou milhares de imagens de suspeita de abuso sexual infantil no gigantesco banco de dados de IA LAION, um índice de imagens e legendas online que foi usado para treinar os principais produtores de imagens de IA como Stable Diffusion.

A empresa londrina Stability AI, que detém as últimas versões do Stable Diffusion, disse esta semana que “não aprovou o lançamento” do modelo anterior supostamente usado pelo homem de Wisconsin. Tais modelos de código aberto, porque seus componentes técnicos são divulgados publicamente na internet, são difíceis de conter.

Prabhakar disse que não é apenas a tecnologia de IA de código aberto que está causando danos.

“É um problema mais amplo”, disse ela. “Infelizmente, esta é uma categoria que muitas pessoas parecem estar usando geradores de imagens. E é um lugar onde vimos uma explosão. Mas acho que não é facilmente dividido em sistemas de código aberto e proprietários.”

——

O escritor da AP Josh Boak contribuiu com este relatório.