O jornalista conhecido como ”bruxo dos vídeos” fala sobre a tecnologia que permite distorcer a realidade, seu impacto nas eleições de 2022 e as propostas indecentes que recebe
Quem vê a ministra Damares Alves cantando Pabllo Vittar e o presidente Jair Bolsonaro vestido de Chapolin Colorado em vídeos que circulam na internet demora a entender que aquilo não é real. Afinal, como é possível o rosto de alguém, com todas as suas expressões, estar tão perfeitamente encaixado num corpo que não é dele? O responsável por essas produções é o jornalista mineiro Bruno Sartori. Aos 31 anos, ele ficou famoso nas redes sociais por seus vídeos e paródias ultrarrealistas.
Transformar o presidente na cantora Joelma ou na Carminha, personagem da novela "Avenida Brasil", é possível graças a uma técnica chamada deepfake. Máquinas que possuem essa tecnologia são capazes de gerar vídeos, fotos e áudios artificiais e extremamente reais. Bruno conheceu a tecnologia, que era usada principalmente para produzir conteúdos pornográficos com personalidade, em um fórum na internet. Foi então que ele percebeu o potencial daquilo e resolveu estudar a técnica para usá-la e outra maneira. Em maio de 2019, seu primeiro vídeo estourou e alcançou mais de 2 milhões de visualizações no Twitter em um único dia.
Para além da potência da tecnologia, as deepfakes representam um grande risco em tempos em que os limites da realidade são cada vez mais nebulosos. No entanto, o mineiro defende que é importante que as pessoas conheçam a técnica, já que ela pode causar grandes problemas em eventos como as eleições. "Uma fake news é uma notícia contada e a pessoa acredita. Agora, imagine um vídeo da própria pessoa confessando um crime, dizendo uma coisa absurda?", explica. "É melhor que elas tenham contato com a técnica agora, com um vídeo de humor, do que um conteúdo feito com o objetivo de enganá-las."
No papo com a Trip, Bruno fala sobre o processo de edição dos vídeos, sua importância para o mundo atual e os perigos de produzir vídeos ironizando certos políticos: "Já fui ameaçado de morte, estupro e até tortura por mensagens de WhatsApp. Só que não me intimida e não fica por isso. Quem ameaçou, vai ter que responder."
Trip. Como surgiu a ideia de produzir os vídeos?
Bruno Sartori. Eu trabalho com vídeos de humor desde os meus 15 anos. Fazia produções voltadas para a política da minha cidade, Unaí, em Minas Gerais. Buscando melhorar o meu trabalho eu acabei conhecendo a tecnologia deepfake, no final de 2017, e acreditei ser uma boa acoplá-la ao meu trabalho. A partir daí, comecei a estudar e fui me aperfeiçoando na técnica.
E quando você teve contato com a tecnologia das deepfakes? Foi em um fórum americano chamado Reddit. Ele tem vários assuntos e um deles era a deepfake. Só que os usuários naquela época usavam apenas para criar conteúdo pornográfico de pessoas famosas – a tecnologia foi criada com esse intuito. E quando eu vi, pensei: "Caramba, não tem ninguém usando para o que realmente tem potencial?". E aí acredito que, no mundo, eu fui a primeira pessoa a utilizar a deepfake para que não fosse um vídeo pornográfico.
Quando você percebeu que seus vídeos tinham atingido um grande número pessoas? O vídeo que realmente se popularizou da política nacional foi em maio de 2019, em que o Bolsonaro aparece de Chapolin Colorado. Naquela época, vi o discurso do Bolsonaro em Dallas, o qual ele tinha errado o slogan de campanha, e achei muito parecido com o personagem do Chapolin. E aí foi um teste, porque eu só fazia com políticos da minha cidade e com outras técnicas de edição. Um amigo que gostou para caramba publicou no Twitter e o vídeo teve mais de 2 milhões de visualizações no dia. Até aí achei que fosse ser apenas um viral qualquer, mas fui criando outros, o pessoal foi gostando, e vi que tinha um nicho.
É assim que normalmente surgem os temas? Eu gosto de me basear no cotidiano. Eu acompanho muita notícia. Assim que percebo que está acontecendo algo excepcional, eu já faço um link daquilo para criar um conteúdo e montar a piada. E esse governo já é uma piada pronta, então não preciso me esforçar muito. Além do humor, eles carregam uma carga de informação. Existe toda uma movimentação política que muitas vezes as pessoas não sabem. E quando você faz um vídeo deixando isso explícito, a pessoa se informa.
LEIA TAMBÉM: Ronaldo Lemos fala sobre deepfakes, fake news e simulação de realidade
Você acredita que as técnicas que você utiliza para fazer as deepfakes vão se popularizar com o tempo? O processamento de fazer os rostos é muito pesado. Tenho uma máquina bastante potente e, mesmo com ela, levo dias para conseguir um resultado bom. Esse é um dos limitadores para que o grande público não produza esse tipo de conteúdo. Mas a tecnologia tem evoluído e esses processamentos tem ficado cada vez menores. Pode ser que, no futuro, com os computadores quânticos, por exemplo, a gente consiga fazer esse tipo de trabalho com maior facilidade.
Você vê um aprimoramento no seu trabalho? De todos os trabalhos que eu fiz até hoje, o que eu mais gostei foi o da ministra Damares cantando Rajadão, da Pabllo Vittar. Por quanto mais tempo você faz, melhor vão ficando os rostos que você treina, porque ele é feito com aprendizado de máquina. Esse último resultado atingiu uma qualidade muito acima da que eu esperava, nem eu consegui ver erros no detalhamento da junção de rostos. E a técnica de fazer a pessoa falar o que quer, no Brasil, até onde eu sei, sou só eu que faço. Porque não é só a deepfake, é ela aliada a uma técnica de edição que eu desenvolvi. Eu tenho muito orgulho quando eu faço esse tipo de vídeo, fazendo eles cantarem o que eu desejo, porque é uma coisa minha e que vai demorar muito para alguém conseguir fazer.
Como lidar com o perigo das deepfakes? Para mim, é melhor que a pessoa tenha contato com a técnica agora, com um vídeo de humor, do que em uma época de campanha com um candidato dizendo que desiste de ser votado. Imagina o risco que é para a democracia se, no dia da campanha, um vídeo desse viraliza. A população precisa saber que essa inteligência existe, que existe a possibilidade de se falsificar um vídeo de forma bastante realista. Acredito que nas eleições de 2022, as presenciais, irão ocorrer muitos vídeos fake com a intenção de realmente enganar as pessoas. E aí vão recorrer muito aos meus vídeos. Se a pessoa sabe que é possível fazer um vídeo em que o Bolsonaro é o Chapolin Colorado, ela vai desconfiar quando chegar um falando que o Lula mandou dar a facada no Bolsonaro.
Seria como prevenir o que aconteceu com as fake news. Uma fake news é uma notícia contada, e a pessoa acredita. Agora, imagine um vídeo da própria pessoa confessando um crime, dizendo uma coisa absurda? Se as pessoas acreditam em mamadeira de você-sabe-o-que, elas não vão acreditar em um vídeo do Lula dizendo que armou a facada no Bolsonaro? É bastante perigoso, mas é importante que elas tenham contato com esse conteúdo, seja de forma humorística, seja com aplicativos.
LEIA TAMBÉM: Entenda os perigos dos sistemas de reconhecimento facial e monitoramento na China
Você acha que algumas pessoas acreditam que os vídeos são reais? No começo, como era impensável colocar com tanta realidade o rosto de alguém em outro corpo, muitas pessoas ficaram confusas, horrorizadas com o que era possível, e acabaram acreditando. Mas, com o decorrer do tempo, elas foram entendendo o humor e o contexto em que o conteúdo é feito. Por isso gosto de deixar sempre um absurdo no ar, para que as pessoas entendam que não é verdadeiro.
Já houve alguma proposta para fazer algum vídeo que você não concordasse? Sim, já aconteceu de quererem me contratar para criar conteúdo falso, para criar conteúdo de políticos regionais, só que isso não tem como ser feito. Além de ser um absurdo moral e ético, é um crime. As fake news acostumaram tão mal as pessoas que elas não têm a noção de que fazer um vídeo forjado é um crime e que é fácil localizar quem fez. A criação de conteúdo pornográfico também é uma das minhas grandes preocupações. O revenge porn vai ser bastante disseminado quando qualquer um puder criar esse tipo de conteúdo que pode acabar com a vida de uma mulher, principalmente no interior do país. Eu morava no interior e, quando vídeos reais circulavam, acabavam com a vida dessas meninas. Imagine um vídeo falso colocando elas em situações piores ainda.
Existem formas de perceber que o vídeo é feito por métodos de deepfake? Há um ano, quem era familiarizado com a tecnologia até conseguia perceber sinais que entregavam que o vídeo era feito por deepfake: a cor do rosto às vezes ficava um pouco mais saturada, o rosto ficava mais embaçado, os olhos não estavam olhando nas direções que deveriam olhar, os dentes não eram separados. Mas a tecnologia se aperfeiçoou e hoje você pode ter todos esses defeitos corrigidos. No entanto, mais do que isso, as pessoas acreditam no que elas querem acreditar. Por mais que seja possível identificar defeitos, se a pessoa ver um vídeo que tenha um candidato que elas não gostam falando um absurdo, elas vão acreditar porque querem.
Hoje, para você, qual é o principal objetivo dos vídeos? Eu não comecei com essa intenção de levar a informação de que a tecnologia existia, mas com o tempo você vai percebendo os perigos da técnica. Conforme surgiram pedidos absurdos, foi vindo a preocupação de alertar que existe esse tipo de tecnologia e que as pessoas precisam entender do que ela é capaz. Nós estamos a dois anos das eleições, temos dois anos ainda para educar a população. Se a gente tiver uma campanha da mídia falando do assunto, levando outros profissionais, colocando esse assunto em pauta, vamos chegar vacinados nas eleições de 2022. Caso contrário, não sabemos onde vai parar.
Você já chegou a sofrer ameaças por tratar de temas políticos? Eu sou jornalista e trabalhei muito tempo no espectro político dentro da minha cidade. Em cidade do interior, as questões das ameaças e da violação contra sua profissão sempre ocorrem, então eu já era muito acostumado. Fazendo esse trabalho com uma ala radical da política, que é o governo Bolsonaro, essas ameaças se intensificaram para caramba. Já fui ameaçado de morte, de estupro e de tortura por mensagens de WhatsApp. Já clonaram um dos meus cartões, divulgaram os meus endereços, telefones, contatos da minha mãe, dos meus familiares. A gente entrou com a representação no Ministério Público para que essas pessoas sejam identificadas e sejam punidas pelos crimes que elas cometeram. Quem trata de temas políticos está mais exposto a esse tipo de ataque, só que não me intimida e não fica por isso. Ameaçou, vai ter que responder pela ameaça.
Recentemente, você melhorou a qualidade de um episódio de Chaves. É um trabalho que você curte fazer também, fora do ramo político? Eu gosto muito de inteligência artificial e acredito que o mundo vai andar daqui em diante por causa dela. Existem várias utilidades: a inteligência artificial é capaz de descobrir novos medicamentos, de melhorar resultados de exames, infinitas coisas. Eu sou muito fã do seriado Chaves e infelizmente a qualidade das imagens não são muito boas, por causa da época. Então usei algumas AIs para conseguir melhorar. Temos takes que não existiam, que nunca foram vistos. Não fica 100% ainda, porque as tecnologias são muito novas, mas com o tempo eu acredito que a gente vai ter a capacidade de recuperar muito conteúdo de uma forma mais profissional.
Créditos
Imagem principal: Marcelo Matias