A banalização do deepfake: como ‘pornô falso’ com famosas virou conteúdo em sites adultos
A inteligência artificial transformou a criação de “pornografia sem consentimento” em uma forma de violência sob demanda. Em 2026, o debate não se limita mais à sofisticação técnica dessas ferramentas, mas à alarmante facilidade com que plataformas, aplicativos e serviços passaram a comercializar esse abuso como um produto acessível. A oferta de serviços para manipular rostos, muitas vezes de celebridades ou pessoas conhecidas, circula abertamente em anúncios de sites de conteúdo adulto, normalizando a criação e o consumo de imagens íntimas sintéticas não consensuais.
Essa conveniência se estende a lojas de aplicativos. No início do ano, era possível encontrar mais de 50 aplicativos com essa finalidade no Google Play e 47 na App Store nos Estados Unidos. Quando a ferramenta possui uma interface amigável em uma loja de aplicativos, o abuso é embalado como praticidade, transformando o ato de uma exceção em um consumo facilitado. O problema transcende a falsidade visual, configurando-se em um modelo de negócio que lucra com a intimidade forjada, vendida como um serviço sem exigir conhecimento técnico especializado.
A lógica por trás desse mercado é perversa: quanto maior a familiaridade do usuário com a vítima – seja uma colega, conhecida ou ex-parceira –, maior o valor percebido do conteúdo para quem consome ou compartilha. Essa adesão ao mercado é sustentada por crenças que minimizam o dano, como a ideia de que figuras públicas são alvos legítimos ou que a manipulação de imagem não configura violência ou crime. Pesquisas confirmam que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material, reforçando a necessidade de maior regulação e educação.
Danos Profundos e Dificuldades na Punição
Estimativas recentes indicam que 98% dos deepfakes criados são de natureza pornográfica. O dano, no entanto, não depende de a imagem ser considerada verdadeira pelo espectador. A violência reside na agressão que força e reencena a intimidade da vítima, expondo seu corpo de maneira sexualizada sem consentimento e usurpando o controle sobre sua própria imagem. A dificuldade em punir esses atos é agravada pelo anonimato dos agressores e pela relutância das vítimas em formalizar denúncias, o que enfraquece a responsabilização e permite que o mercado continue operando.
O avanço das punições é limitado não apenas pela ausência de uma resposta institucional robusta, mas também pela complexidade de aplicar regras existentes em um contexto marcado pelo anonimato, pela rápida circulação de conteúdo e pela subnotificação. Pesquisas apontam que a maioria das vítimas evita a denúncia formal, enquanto os autores permanecem difíceis de identificar. Essa dinâmica perpetua o ciclo de abuso e dificulta a responsabilização, mantendo o mercado de deepfakes não consensuais em pleno funcionamento.



