Impulsionadas por Inteligência Artificial, denúncias de imagens de abuso sexual infantil batem recorde no Brasil

No ano passado, 71.867 denúncias sobre imagens de exploração e abuso infantil na internet foram encaminhadas à Central Nacional de Denúncias, conveniada ao Ministério Público Federal. O resultado, equivalente a aproximadamente a um caso a cada sete minutos, representa um aumento de 77% em relação a 2022, além de ser o recorde para a série histórica, iniciada em 2006.

As principais explicações para o crescimento, explica a Safernet — ONG que coordena o canal e compila os dados —, são as demissões em massa registradas nas big techs, o que teria afetado a qualidade do controle de conteúdo; a proliferação da venda de pacotes com imagens de nudez e sexo por adolescentes; e o advento da Inteligência Artificial generativa, capaz de criar esse tipo de conteúdo em escala industrial.

Além do abuso infantil, outro tipo de denúncia que teve grande aumento foi a xenofobia: de 4 mil em 2022 para 14 mil no ano passado. Nesse caso, o resultado se explicaria pelos debates virtuais exacerbados decorrentes da guerra na Faixa de Gaza. Já os crimes virtuais de racismo, misoginia e intolerância religiosa foram menos denunciados no ano passado, tendência natural após os picos que costumam acontecer em anos eleitorais, em especial em momentos de polarização política com protagonismo da extrema direita, afirma Thiago Tavares, fundador e diretor-presidente da Safernet.

Variação das denúncias recebidas pela Central Nacional entre 2022 e 2023 — Foto: Safernet / Editoria de Arte

Nesta terça (6) é celebrado o Dia da Internet Segura no Brasil. Além de divulgar os dados da Central Nacional de Denúncias, a Safernet organiza um evento especial sobre o tema, que pode ser acompanhado ao vivo pelo Youtube.

As 71 mil denúncias de exploração infantil recebidas pela ONG são únicas. Ou seja, quando o mesmo conteúdo é denunciado mais de uma vez, os relatos duplicados não foram contabilizados na estatística. Tavares explica que é comum encontrar uma mesma imagem de abuso infantil replicada em diferentes plataformas, mas que há uma assimetria muito grande entre esses sites, e cada um possui tempo de resposta diferente para remoção de conteúdos que violam direitos.

O poder de mediação e controle das principais plataformas é justamente um dos motivos que explicariam o aumento dessa estatística, diz Tavares. Em 2023, houve demissões em massa nas principais empresas de tecnologia, as chamadas big techs.

— Só o Twitter (atual X) demitiu 80% da força de trabalho pós-Elon Musk. É uma evidência do impacto que uma demissão em massa tem sobre a garantia da integridade do conteúdo. Isso vai acontecer em outros tipos de crime virtual — pontua o fundador da Safernet.

Um tipo de conteúdo passível de remoção é a venda de pacotes de imagens de nudez e sexo. Entre esses pacotes vendidos há casos envolvendo adolescentes, sendo eles mesmos os geradores do conteúdo ou não. Mas o desafio mais importante, frisa Tavares, é a resposta ao crescimento da Inteligência Artificial (IA) generativa de imagens.

No ano passado, por exemplo, a disseminação de um “nude” criado por IA entre alunos do Colégio Santo Agostinho da Barra da Tijuca, Zona Oeste do Rio, virou caso de polícia. Segundo os investigadores, mais de 20 estudantes foram vítimas da criação de imagens falsas.

— A Inteligência Artificial está se desenvolvendo em uma velocidade muito rápida. Um ano já é uma eternidade. O ChatGPT não existia como produto comercial até o final de 2022 e hoje já possui uma base gigantesca de usuários no mundo inteiro. Enquanto isso, há uma grande preocupação com o potencial uso em crimes virtuais, evidenciado inclusive nos relatórios internacionais — frisa Tavares, que faz referência a um trabalho da Internet Watch Foundation (IWF), da Inglaterra, que em um mês (outubro passado) identificou 20 mil imagens feitas por IA na deep web, sendo 12 mil de abuso sexual infantil.

Marco Legal é debatido no Congresso

Imagens falsas de crianças e adolescentes nus atualmente podem gerar condenações pela lei 11.829, de 2008, que atualizou o Estatuto da Criança e do Adolescente. Tavares diz que a lei foi “visionária” por prever, já naquela época, sanções para quem fizesse montagens com imagens de exploração sexual infantil.

Atualmente, o Congresso debate projetos de lei que tratam de um marco legal do IA, demanda cada vez mais urgente, diz o especialista.

— Antigamente era um trabalho “artesanal”. Com IA, vira uma escala industrial, tudo se replica de forma mais grave. O acesso às ferramentas de edição está cada vez mais fácil. Hoje basta usar um aplicativo gratuito para gerar uma imagem de nudez a partir de uma simples foto da pessoa na praia ou mesmo na escola. O risco atinge um outro patamar, decorrente da massificação das tecnologias que podem ser mal utilizadas — afirma Thiago Tavares.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *