Logo Trip

Deepfakes de nudez, direito e misoginia nas redes sociais

A advogada Alice Lana explica o efeito devastador de imagens íntimas falsas criadas por IA sem consentimento e como a lei brasileira trata esse crime

Deepfakes de nudez, direito e misoginia nas redes sociais

Créditos: Unplash


em 6 de abril de 2026

COMPARTILHE facebook share icon whatsapp share icon Twitter X share icon email share icon

Imagina estar rolando o feed de uma rede social e tomar um choque ao ver um nude falso seu. Ou seja, uma foto que nunca foi tirada, mas que carrega seu rosto em um corpo realista o suficiente para convencer qualquer pessoa que passe por ela.

Esse tipo de conteúdo tem nome: deepfake de nudez. Com a inteligência artificial tornando essas criações cada vez mais acessíveis, qualquer pessoa – figura pública ou não – é uma potencial vítima. Por isso, saber como se proteger deixou de ser opcional. Conversamos com Alice Lana, advogada especialista em direito e tecnologia, para entender o que a lei brasileira oferece a quem sofre esse tipo de violência e como interromper o ciclo de distribuição do conteúdo.

O que são deepfakes de nudez?

Na prática, é uma técnica que usa inteligência artificial para sobrepor o rosto de uma pessoa em outro corpo. Dessa forma, insere a vítima em contextos sexuais que nunca aconteceram na realidade. Dentro dessa categoria, existe uma variação ainda mais específica: a deepnude, aplicação que em segundos transforma a foto de alguém vestido em uma versão com roupas íntimas, de banho, ou despida.

Ao contrário do que se pensa, as motivações para a criação dessas montagens sem o consentimento das pessoas retratadas, com frequência, não são sexuais. “É muito mais uma forma de exercer poder e de humilhar”, explica Alice.

Alice Lana / Créditos: Divulgação

LEIA TAMBÉM: DESPIDA: quando tiraram minha roupa em imagens geradas por inteligência artificial

O nude é falso, mas o impacto é real

Para Alice Lana, essa prática precisa ser encarada com a gravidade que merece: “Não é uma ‘brincadeira de mau gosto’ ou algo menor porque acontece na internet. É preciso entender que o online é tão real quanto o offline”, afirma. Autora dos livros Nudez na Internet: corpo, gênero e direito (2023) e Mulheres Expostas: revenge porn, gênero e o Marco Civil da Internet (2018), ela acompanha de perto os casos que chegam ao sistema jurídico. “A gravidade não diminui porque a nudez é fabricada por IA, continua sendo crime. Temos inúmeros relatos de mulheres que deixaram suas cidades, seus empregos ou mesmo se suicidaram por conta de violências online”, observa a especialista.

O tamanho do problema

A inteligência artificial não criou esse tipo de manipulação de imagens, mas a tornou acessível e mais rápida: o que antes exigia algum conhecimento técnico e edição manual agora pode ser feito em segundos por qualquer um que tenha um celular com acesso à internet. Hoje, diversos aplicativos e sites produzem essas montagens e até mesmo redes sociais já vêm com ferramentas de geração de imagens.

Foi o que aconteceu no X (antigo Twitter) no final de 2024: o Grok, inteligência artificial da rede, passou a permitir a geração de imagens a partir de comandos de usuários. Isso causou uma onda de denúncias em vários países de conteúdos sexualizados falsos circulando na plataforma, incluindo imagens de menores de idade. Uma das vítimas foi a jornalista e quadrinista Helô D’Angelo, que conseguiu ganhar em primeira instância uma ação judicial contra o X. Ela contou o terror que viveu em uma coluna da Tpm.

LEIA TAMBÉM: Mais uma que caiu na net

De acordo com um levantamento do Centro de Combate ao Ódio Digital, dos Estados Unidos, estima-se que, entre dezembro de 2025 e janeiro de 2026, o Grok gerou cerca de 3 milhões de imagens sexualizadas, sendo 23 mil de crianças. No início deste ano, a plataforma informou que adotou medidas para impedir a geração de imagens sexualizadas de pessoas reais.

Para Alice, o problema vai além da ferramenta em si. “A privacidade é contextual, portanto as eventuais regulações dessas ferramentas de IA precisam levar isso em conta. Por exemplo: ser vista de biquíni na praia não é um problema; agora, essa imagem em um contexto profissional pode ser vexatória. Para mulheres muçulmanas que usam véu, uma IA que ‘crie’ cabelos no lugar do véu também constitui uma violação de intimidade seríssima.”

Mais um requinte de crueldade da violência de gênero

Segundo a advogada e pesquisadora, as deepfakes de nudez representam uma nova faceta da violência de gênero. “Claro, pode acontecer com qualquer pessoa, mas quantos conteúdos do tipo você viu de homens? E quais são os impactos na vida das vítimas, quando são homens e quando são mulheres?”, questiona Alice.

Dados da SaferNet Brasil corroboram essa percepção e dão dimensão ao problema no país. Um mapeamento divulgado pela organização em 2025 identificou 16 casos de uso de deepfakes sexuais em escolas de dez estados brasileiros. Todas as vítimas identificadas eram do gênero feminino, incluindo alunas e professoras. Outro relatório aponta que, em 2024, mais de um milhão de usuários brasileiros participavam de grupos no Telegram onde ocorria a troca e venda de material pornográfico gerado com inteligência artificial.

LEIA TAMBÉM: Bruno Sartori: deepfakes, política e ameaças

No papo com a Trip, Alice Lana explica quais instrumentos a lei brasileira oferece a quem sofre essa violência. “O Marco Civil da Internet de 2014 já obriga a retirada imediata desse tipo de conteúdo assim que a plataforma for informada pela vítima. É uma violência com várias possibilidades de enquadramento no Código Penal”, afirma.

Alice também é direta sobre onde o sistema ainda tropeça. “O Brasil já avançou muito com a criação de delegacias especializadas para crimes contra mulheres e para crimes digitais, mas ainda é frequente que as vítimas sejam desacreditadas ou culpabilizadas”, diz. “Não existe bala de prata. É um problema estrutural de séculos e precisará de muito esforço para ser reduzido.”

Trip. Muita gente ainda enxerga deepfakes como “brincadeira”. Como o Direito entende essa prática?

Alice Lana. Quem não sofre essa violência com frequência a minimiza. Acha que é só “algo online”. Mas é preciso entender que o online é tão real quanto o offline. Existem inclusive acadêmicas que chamam a disseminação não consensual de imagens íntimas de “abuso sexual baseado em imagens”, para dar a dimensão dessa violência. Não é porque não é físico que não dói ou não causa danos graves às vítimas. Temos inúmeros relatos de mulheres que deixaram suas cidades, seus empregos ou mesmo se suicidaram por conta de violências online. O dano psicológico é real. Da perspectiva do Direito, quando falamos de deepfakes sexuais ou com caráter íntimo, estamos falando de uma violência com várias possibilidades de enquadramento: dano moral pelo Direito Civil, o que gera o dever de indenização financeira; e crime pelo Direito Penal, especialmente em dois artigos: o crime de violência psicológica contra a mulher, cujo parágrafo único, incluído em 2025, estabelece que a pena é aumentada se o crime é cometido mediante uso de IA ou qualquer recurso tecnológico que altere imagem ou som da vítima. Essa é a única menção à IA no Código Penal até agora. E o crime de registro não autorizado da intimidade sexual, que criminaliza montagens que incluam pessoa em cena de nudez ou ato sexual de caráter íntimo. O Código Penal também criminaliza a ameaça com aumento de pena, desde 2024, quando cometida contra mulheres por razões de gênero e o cyberbullying desde 2024.

O que muda quando saímos do revenge porn, que é a divulgação não consentida de conteúdo íntimo real, para a nudez fabricada por IA? O fato de a imagem ser “falsa” diminui a gravidade jurídica? Seja por ataques em fóruns de texto, em montagens com photoshops, em imagens íntimas reais vazadas, ou agora com o uso da IA, são várias facetas do mesmo tipo de violência. Os meios vão sendo atualizados, mas a substância permanece a mesma: a humilhação de mulheres, a vontade de “colocá-las em seu devido lugar”, diminuí-las. Quando olhamos para a nudez fabricada por IA, a gravidade jurídica não diminui: continua sendo crime e continua podendo ser enquadrado como dano moral. O que muda, do ponto de vista jurídico, é que não temos a certeza da proteção do Art. 218-C do Código Penal, que criminaliza a disseminação de conteúdos íntimos, porque esse artigo, diferentemente do que criminaliza a produção (Art. 216-B), não faz referência explícita a montagens.

Muitas vítimas relatam que enfrentam delegacias despreparadas para lidar com esse tipo de caso. O que faz com que tantas delas tenham a sensação de que denunciar não adianta? O despreparo das autoridades para lidar com esse tipo de caso é, infelizmente, duplo: para lidar com violência contra a mulher e para lidar com violências cometidas pela internet. O Brasil já avançou muito em ambos os casos, inclusive com a criação de delegacias especializadas para crimes contra mulheres e para crimes digitais, mas, na vida real, ainda é frequente que as vítimas, ao denunciarem, sejam expostas a um segundo ciclo de violência, sendo desacreditadas ou mesmo culpabilizadas por agentes do poder público. Ainda assim, denunciar é muito importante, e buscar uma advogada ou advogado de confiança pode ajudar a vítima a se sentir mais amparada.

Os deepfakes de nudez são mais uma expressão da misoginia que se dissemina nas redes sociais? É importante nomear isso como violência de gênero, e não apenas como “crime tecnológico”? É algo que eu sempre martelo: não é uma ‘brincadeira de mau gosto’, não é algo menor porque acontece na internet, não é um crime tecnológico. As deepfakes de nudez são uma nova faceta de uma violência antiga: a violência de gênero. As pesquisas que eu menciono nos livros que escrevi sobre violência contra mulheres na internet demonstram: as motivações, com frequência, não são sexuais. É muito mais uma forma de exercer poder e de humilhar.  Claro, pode acontecer com qualquer pessoa, mas quantos deepfakes de nudez você viu de homens? Poucos, se não zero. E de mulheres? É muito mais comum. E mais: quais são os impactos na vida das vítimas, quando são homens e quando são mulheres? Por isso é importante termos clareza da dimensão de gênero dessa violência. As deepfakes de nudez atingem desproporcionalmente mulheres.

A aplicação do Marco Civil da Internet foi alterada pelo STF e passou a obrigar as plataformas a removerem conteúdos ilegais relacionados a crimes graves sem a necessidade de uma ordem judicial prévia. Essa mudança pode de fato agilizar a remoção de deepfakes de nudez? Os casos de “violação da intimidade” já eram uma exceção à regra geral desde a aprovação do Marco Civil da Internet em 2014. A regra geral, no Art. 19, estabelecia que a plataforma só seria responsabilizada por conteúdos de terceiros após decisão judicial. Mas para casos de divulgação não consensual de conteúdos de nudez ou sexo, o dever de retirada surge após a notificação da vítima ou de seu representante legal. Ou seja, assim que a plataforma for informada, ela já tem obrigação de indisponibilizar aquele conteúdo. O que a decisão recente do STF fez foi expandir essa regra para outras situações e introduzir um novo dever de cuidado para prevenir que conteúdos ilícitos, tidos como especialmente graves, circulem livremente em suas plataformas. Aí entram os crimes praticados contra mulheres em razão do gênero e de discriminação por raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero, como condutas homofóbicas e transfóbicas. Acredito que essa mudança pode estimular as plataformas a reverem suas políticas de moderação nesses casos e de fato agilizar a remoção de conteúdos como os deepfakes de nudez. 

Como regular as ferramentas de IA sem cair numa proibição genérica que ignore os usos legítimos e consensuais dessas tecnologias? A privacidade é contextual e o ajuste das possibilidades das ferramentas de IA precisa levar isso em consideração. Por exemplo: ser vista de biquíni na praia não é um problema. Agora, essa imagem em um contexto profissional pode ser vexatória. Se eu usar a IA para brincar de ver diferentes cortes de cabelo em mim, por exemplo, não é criminoso. Mas para mulheres muçulmanas que usam véu, uma IA que insira cabelos no lugar do véu constitui uma violação de intimidade seríssima. Não é só a ferramenta em si, é também o uso da ferramenta. E se dois adultos, com consentimento, quiserem criar, com IA, imagens eróticas entre si? Se uma atriz preferir que uma cena de sexo seja criada por IA, ao invés de encená-la? As eventuais regulações dessas ferramentas precisam levar essas possibilidades em conta. Sob risco de reforçar uma visão bastante conservadora e puritana da sociedade.

O Senado aprovou Projeto de Lei 896/2023, que propõe tipificar a misoginia como crime, nos moldes do que já acontece com discriminação por raça, cor, etnia ou religião. Uma lei como essa ajudaria a enfrentar violências digitais de gênero, como os deepfakes de nudez? É uma discussão delicada, porque criminalizar condutas é uma estratégia que divide opiniões no campo progressista do Direito, especialmente por conta da forma de funcionamento do sistema penal, que pune desproporcionalmente pessoas pretas e pobres. Claro, tem um peso social em poder dizer que “misoginia é crime” e punir as atitudes que se enquadrarem na conduta. A aprovação da lei pode ajudar nisso. De toda forma, acredito que a solução para esse problema demanda mudanças estruturais e sociais profundas; não virá apenas com a aprovação de uma lei.

O que tem mais potencial de reduzir esse tipo de violência: leis mais duras, regulação das plataformas, educação digital, políticas de enfrentamento à misoginia ou a combinação de tudo isso? Onde o Brasil mais falha hoje? Definitivamente, uma combinação de múltiplos fatores. Não necessariamente leis mais duras, mas leis melhores, aliadas a políticas públicas eficientes; regulação inteligente de plataformas, entendendo o papel e a responsabilidade de cada agente; alfabetização digital desde a base, para as pessoas entenderem que um crime online é tão punível quanto um crime offline; políticas de educação sobre gênero e de enfrentamento à misoginia online e offline. Não existe bala de prata. É um problema estrutural de séculos e precisará de muito esforço para ser reduzido. O Brasil é um país profundamente e estruturalmente misógino. Esse é o nosso principal calcanhar de Aquiles: uma cultura misógina que se reflete em todos os setores da sociedade. Basta ver o baixíssimo número de mulheres que temos no Congresso, ou nossos índices alarmantes de violência política de gênero. Um país tão misógino offline também será misógino online.

Muita gente não sabe como agir nesses casos de deepfakes de nudez. Qual deve ser o passo a passo imediato da vítima? Se estiver em uma rede social, a vítima pode denunciar o conteúdo ali mesmo. A maioria das plataformas hoje tem canais de denúncia específicos. Se estiver num site sem canal de denúncia automatizado, a recomendação é enviar ao e-mail de contato da empresa uma notificação simples requerendo a retirada do conteúdo com base no artigo 21 do Marco Civil da Internet, já enviando o link do conteúdo a ser retirado. Se a imagem não for removida, é possível mover um processo – inclusive em juizado especial cível – contra a plataforma. Além disso, existem formulários para remoção do conteúdo de buscadores como o Google. Alguns aplicativos de mensagens permitem denunciar o grupo onde o conteúdo circulou. O problema é que, nesse caso, as imagens também podem permanecer armazenadas nos aparelhos das pessoas que tiveram acesso a elas. Caso queira mover um processo contra a pessoa responsável, é importante guardar registros: prints, URLs ou ata notarial feita em cartório, que comprova juridicamente que o conteúdo existia naquele link. A pessoa também pode fazer um Boletim de Ocorrência, de preferência em uma delegacia especializada em crimes contra a mulher ou em crimes digitais.

E se alguém viu esse material sendo compartilhado e quer ajudar a interromper a circulação? Primeiro, não divulgue nem passe adiante. Mesmo que seja em tom de denúncia, não ajude a disseminar aquela imagem e propagar a violência. Também é possível denunciar para a plataforma e para o Ministério Público. Caso conheça a vítima, sugiro avisá-la ou os responsáveis legais, se for menor de idade. É importante para que ela tome as medidas necessárias. Pode ser sensível, então avise com cuidado. E se alguém próximo de você passar por isso, ofereça apoio. Assim como em outros casos de violência contra a mulher, é algo emocionalmente muito pesado. Esteja perto, seja um ombro amigo e compartilhe o passo a passo do que fazer.