IA amplia crimes digitais e expõe pessoas com deficiência a novas formas de abuso
- contatoannabra
- há 1 dia
- 4 min de leitura
Facilidade de acesso, anonimato e viralização de “trends” impulsionam deepfakes sexualizados e conteúdos capacitistas, enquanto especialistas alertam para revitimização em escala e lacunas na responsabilização jurídica.

Que a Inteligência Artificial já não é mais futuro já é de conhecimento público. Trata-se não apenas de ferramentas, mas de novas formas de se criar e reproduzir conteúdo. Elas estão presentes desde assistentes virtuais até sistemas que diagnosticam câncer, ocupando considerável parte dos setores globais.
Reconhecer seus benefícios e suas aplicações é real e necessário. Mas quais são os riscos que estão deixando de ser considerados no campo que afeta mulheres e pessoas com deficiência? Que riscos representam, principalmente, por ampliar a escala de visualização, o anonimato e a dificuldade de detecção do autor?
Relatórios internacionais mostram que 2025 foi o pior ano já registrado para material de abuso sexual infantil online, com um crescimento expressivo de conteúdos criados com IA, incluindo vídeos hiper-realistas utilizados por criminosos.
A Internet Watch Foundation (IWF) relatou ter encontrado 3.440 vídeos de abuso sexual infantil gerados por IA em 2025, em comparação com apenas 13 em 2024 — um aumento de aproximadamente 26.362%. Dessas produções, 65% eram de categoria extremada (mais explícita).
Em apenas nove dias, o chatbot Grok, desenvolvido pela empresa xAI, de Elon Musk, e integrado à rede social X, publicou 4,4 milhões de imagens geradas por inteligência artificial. Segundo análise do New York Times, 1,8 milhão dessas imagens continham representações sexualizadas de mulheres.
No Brasil, a SaferNet reportou que 64% de todas as denúncias de crimes na internet entre janeiro e julho de 2025 foram de abuso e exploração sexual infantil, com um crescimento de quase 19% em relação ao mesmo período de 2024. Parte desse aumento está ligada ao uso de IA generativa para produzir ou manipular imagens e vídeos.
O professor Ivan Vianna, CEO da Previsiown (empresa especializada em soluções de inteligência de dados em nuvem) e consultor do Sebrae nas áreas de inovação e tecnologia, explica que o uso criminoso da IA tem crescido devido à facilidade de acesso, que impõe barreira zero para a criação de conteúdos ilegais.
“Muitos desses modelos de IA rodam localmente (em computadores pessoais) ou em plataformas sem moderação rígida, dificultando o rastreamento da origem do conteúdo. A capacidade da IA de replicar texturas e iluminação torna as imagens tão convincentes que elas podem ser usadas para extorsão (sextortion) ou para alimentar redes de exploração de forma massiva. Modelos generativos podem criar ou alterar imagens realistas (deepfakes), produzindo material abusivo sem a existência de um registro real, o que ainda assim normaliza e incentiva crimes.”
O especialista afirma que os criminosos frequentemente miram crianças e pessoas com deficiência (como o nanismo) devido a uma falsa percepção de “nichos de fetiche” ou pela vulnerabilidade sistêmica desses grupos.
Trend capacitista ridiculariza o corpo da pessoa com nanismo
Crianças ou adultos com nanismo podem ser “envelhecidos” ou “rejuvenescidos” artificialmente para burlar filtros. Imagens podem ser reproduzidas indefinidamente, revitimizando pessoas mesmo sem novo contato físico.
Recentemente, por meio de denúncias de familiares de pessoas com nanismo, vários vídeos que reproduzem esse modelo chegaram até a ANNABRA. Alguns dos conteúdos, publicados por pessoas com status de influenciadores, utilizam IA para criar uma imagem fake do namorado ou marido com estatura “normal” em pessoas com nanismo. O conteúdo tem sido multiplicado e recebe legendas como “eu não me importo, te amo, amor”, como se uma pessoa com nanismo não tivesse dignidade ou pudesse ter uma vida considerada dentro dos “padrões”: namorar, casar-se, ter orgulho de sua jornada de vida.
Para a ativista social, delegada da ANNABRA na Bahia e vereadora Meirinha Irecê, influencers que reproduzem esse conteúdo tentam fazer humor pejorativo e capacitista utilizando a pessoa com nanismo. “Eu, enquanto mulher com nanismo, fico muito irritada ao ver postagens que criam erotização a partir da nossa condição. Não podemos permitir esse tipo de abordagem. Não ao capacitismo!”
Combate e criminalização
O combate a esse tipo de crime, segundo Ivan Vianna, é um problema complexo, que exigirá medidas técnicas e jurídicas.
“No campo técnico, podemos sugerir, por exemplo, uma marca d’água invisível (watermarking). As empresas de IA poderiam implementar metadados ou marcas invisíveis para identificar que a imagem foi gerada por um modelo de IA; filtros de prompt podem bloquear palavras-chave e conceitos sensíveis nos modelos e nas interfaces de geração de imagem.”
No campo jurídico, de acordo com o professor, é preciso haver criminalização específica. As leis precisam evoluir para punir não apenas quem distribui, mas também quem gera e consome material de abuso produzido por IA — mesmo que a pessoa na foto não exista fisicamente, a simulação de abuso infantil, por exemplo, é crime.
Outra medida seria a responsabilização das plataformas. “Modelos de IA, redes sociais e buscadores devem ser legalmente obrigados a remover esse conteúdo. O que está em nossas mãos agora é educação e conscientização. Precisamos ensinar as pessoas a identificar deepfakes e a entender que o dano digital é tão real quanto o físico, além de instruir pais e pessoas vulneráveis sobre os riscos da superexposição de fotos reais, que podem ser usadas como base para treinar modelos de IA maliciosos.”
Marco Regulatório — Em dezembro de 2024, o Senado Federal aprovou o substitutivo ao Projeto de Lei nº 2.338/2023, que estabelece o Marco Legal da Inteligência Artificial no Brasil. O texto está em análise na Câmara dos Deputados, onde ainda pode passar por mudanças. A versão aprovada no Senado foi finalizada pela Comissão Temporária Interna sobre Inteligência Artificial (CTIA), que buscou um equilíbrio entre os direitos das pessoas afetadas por sistemas de IA e as obrigações regulatórias dos desenvolvedores, distribuidores e implementadores desses sistemas.
Nota de rodapé: Mais do que um desafio técnico, o avanço da Inteligência Artificial coloca em disputa o próprio campo simbólico que sustenta as relações sociais. Ao permitir a replicação e a manipulação ilimitada de corpos — especialmente de mulheres e pessoas com deficiência — sem consentimento ou contexto, essas tecnologias não apenas ampliam a escala da violência, mas também contribuem para a naturalização de imaginários discriminatórios historicamente enraizados. Nesse cenário, regular o uso da IA pode ser também uma forma de proteger a dignidade humana no ambiente digital, reconhecendo que o dano causado por simulações e representações abusivas não é virtual, mas profundamente real em seus efeitos sociais, psíquicos e políticos.




Comentários