Como os algoritmos influenciam nosso comportamento

por Redação

O neurocientista Stevens Rehen recebe o youtuber Felipe Castanhari e o cientista da computação Silvio Meira para discutir até que ponto a inteligência artificial interfere em nossa sociedade

Desde a antiguidade, o homem especula sobre a possibilidade de construir máquinas autônomas. Dezenas de séculos de reflexão culminaram na teoria da computação de Alan Turing, a partir da qual se desenvolveram os computadores modernos e diversas novas áreas de estudo, como a inteligência artificial. De lá para cá, esse campo alternou momentos de euforia e descrença, e seu uso permaneceu como inspiração para obras de ficção até meados do século XXI. Hoje, graças ao aumento da capacidade de processamento dos computadores, ao acesso a quantidades avassaladores de dados e a técnicas avançadas de machine learning, a inteligência artificial está cada vez mais presente em nossas vidas – tão presente que já começa a gerar preocupação. Mas como a inteligência artificial usada em sites e redes sociais está influenciando o nosso comportamento?

Neste episódio do Trip Com Ciência, o neurocientista Stevens Rehen recebe Felipe Castanhari, dono do canal do YouTube Nostalgia e criador da série da Netflix Mundo Mistério, e Silvio Meira, cientista da computação e especialista em engenharia de software, para discutir o impacto dos algoritmos na sociedade, das nossas escolhas ao extremismo que se espalha pelo mundo. Para ouvir o podcast, clique no play abaixo, ouça no Spotify ou leia a entrevista na sequência.

LEIA TAMBÉM: Desvendando nosso sistema imunológico

Stevens Rehen. Silvio, como é que você vê os avanços da computação nos últimos 40 anos? Evoluímos rápido demais ou faltou estratégia para chegar aonde chegamos?

Silvio Meira. Qualquer tecnologia é o domínio da possibilidade. Você vai fazendo e depois chegam as humanidades para entendimento, para fazer políticas, para articular, para estruturar. A gente tem um conhecimento extremamente limitado de provas de correção e de segurança de software, mas isso nunca impediu as organizações de fazerem sistemas de controle automático de aviões, por exemplo. O mais famoso levou à queda de dois aviões de grande porte. Desenvolver software é uma atividade complexa e cara e a primeira coisa que você faz é a funcionalidade: se funciona, a gente pode lançar. A segunda é interface, para que as pessoas consigam usar o que foi lançado. E depois você pensa em coisas como segurança e em preservação, que é garantir que os dados que estavam seguros vão ser preservados para sei lá quando, para a eternidade. Mas o fato é que a gente não tem estratégias para gestão de ciclo de vida da informação, nem nas empresas, e muito menos nos Estados. É como se fosse a Idade Média digital. E isso vai criar uma dificuldade muito grande para os antropólogos, para os sociólogos, para os historiadores do futuro, porque, por exemplo, se uma rede como o Twitter de repente deixa de funcionar como modelo de negócio e vai à falência, muito provavelmente tudo que estava lá desaparece, como foi o caso de Orkut.

Sim, isso é assustador. Felipe, diferente do Silvio, você não entrou nesse universo digital, você nasceu nele. Mas quando você começou, em 2011, ser um youtuber de sucesso ainda não era um desejo de 11 em cada 10 jovens. O que te fez criar vídeos?

Felipe Castanhari. Eu comecei a acompanhar o YouTube em 2010, vi algumas pessoas surgindo ali e percebi que elas tinham 100% de liberdade em cima da plataforma. Era bem democrático, na medida do possível: você fazia um vídeo, se as pessoas gostassem dava certo, se não, elas te xingavam. Então você tinha uma régua muito clara do que era sucesso na internet, porque os números estão ali, diferente da televisão. Eu sempre quis ser 100% independente e eu comecei dessa forma, falando dos jogos, desenhos da minha infância. O canal foi crescendo, fui mudando o approach e hoje em dia estou bem mais focado na divulgação científica, vídeos de história, em trazer informação para as pessoas. E elas foram falando: "Pô, consegui entender um tema que era complexo porque você explica de uma forma simples". O meu canal começou a ir para esse lado e cheguei onde eu estou hoje. 

Você também fez a série da Netflix Mundo Mistério e um dos episódios da primeira temporada foi sobre inteligência artificial. Muito se fala, mas pouco se entende o impacto da inteligência artificial nos aspectos mais íntimos e também nos mais coletivos da sociedade. Silvio, em primeiro lugar, o que é inteligência artificial? 

Silvio. São basicamente duas classe de algoritmos. Na inteligência artificial simbólica você codifica conhecimento em regras lógicas, que podem ser executadas por computador, como um sistema que codifica a malha de estradas dos Estados Unidos para estabelecer rotas ótimas para cargas específicas. E a outra é o aprendizado de máquina, que é basicamente um outro conjunto de algoritmos que aprende como tomar decisões em funções de decisões que você diz para ele que estão certas. A gente escreve metaprogramas que são treinados com dados. Depois de você treinar o suficiente, ele atinge uma taxa de reconhecimento acima da norma que você quer – tem sistemas que batem humanos em reconhecimento de assinaturas, por exemplo. Mas tem uma questão, que é o processo de polarização, que a gente já viu suas consequências em muitos lugares. Se eu treino uma inteligência artificial que vai fazer análise de crédito dizendo que certo tipo de dados corresponde a pessoas que deveriam ter crédito, se houver uma polarização nesse treinamento, muito provavelmente você vai excluir uma grande classe de potenciais tomadores de crédito porque essas pessoas não estavam representadas nos conjuntos de dados que foram usados no treinamento.

Felipe. Isso está causando uma série de problemas, né? Essa coisa de usar o machine learning, onde você deixa a máquina aprendendo o comportamento de um usuário, por exemplo, ela começa a prever qual vai ser esse comportamento. Recentemente no Twitter a galera estava fazendo um teste em que postavam uma foto que tinha uma pessoa branca em cima, um quadrado em branco no meio para dividir e, embaixo, uma foto de uma pessoa negra. Quando você posta a foto no Twitter ele cria um preview daquilo, para você ver aquela imagem antes de clicar e abrir ela inteira. O que estava acontecendo, e gerou polêmica, é que você poderia colocar um quadrado com cinco fotos do rosto de uma pessoa negra e uma pequena de um branco, e o preview sempre favorecia o branco. 

Silvio. Isso é justamente a polarização do conjunto de treinamento. Se você usar um conjunto que não é apropriado, a consequência vai ser que, ao ter que tomar decisões – como, no caso, organizar as fotos – ele vai tomar a decisão que foi treinado para tomar. E o problema não tem nada a ver com inteligência artificial aí, mas com quem treinou o algoritmo. Se nós três tivéssemos escrito o algoritmo e outro conjunto de pessoas tivesse treinado o algoritmo com as imagens que levaram às consequências que foram criticadas no Twitter, nós, eventualmente, fizemos o nosso trabalho bem, mas quem escolheu o conjunto de treinamento que não representava a diversidade de pessoas na população foi quem treinou o algoritmo. É difícil explicar o que acontece. 

LEIA TAMBÉM: A influência do sono na saúde mental

Silvio, você escreveu várias vezes no Twitter sobre a importância de proteger os dados das pessoas e também proteger as pessoas dos algoritmos. É mais ou menos o que a gente está falando aqui agora, né? Como a gente faz para proteger as pessoas dos algoritmos?

Silvio. Essa pergunta não tem resposta, mas um conjunto de direções, e eu acho que está embutido na palavra 'ter', que é um acrônimo para três coisas básicas. Primeiro, tem um problema de transparência: o que esse algoritmo faz, para quem que ele faz e o que ele está tentando resolver. Depois tem o problema de explicabilidade, que é você explicar, além do que ele é, como é que ele funciona. E por último quem é o responsável por isso caso alguma coisa dê errado. Veja, nós estamos entrando numa dimensão onde essa coisa se complica de uma maneira não-trivial. Você vai ter carros autônomos nas ruas, certo? E as pessoas têm que entender, porque elas vão conviver com isso. Não existe uma rua para carros autônomos e outra rua para carros normais e para pedestres, ciclistas, cadeirantes, pessoas com desabilidades motoras, visuais, auditivas, e assim por diante. Você está jogando um sistema cibernético, um conjunto de hardware, software móvel, que eventualmente pode causar danos. O que ele é? Como ele funciona? E quem é responsável por aquilo nos múltiplos níveis? O número de erros que normalmente precisa existir para uma tecnologia causar um problema de grande porte é uma multiplicidade muito grande de erros que vai levar a gente a ter que refletir muito mais profundamente sobre esses sistemas

São três leis da natureza digital. Você precisa proteger os dados das pessoas, você precisa proteger as pessoas dos algoritmos, que é o que está envolvido, por exemplo, nos sistemas de controle carros automático, e você precisa fazer essas duas coisas sem impedir que o futuro aconteça, sem travar a inovação. Porque tem um monte de riscos que, se eles forem entendidos, medidos e controláveis de alguma forma, são aceitos por todo mundo. A gente passou 80 anos andando de carro sem cinto de segurança. Então a tecnologia mudou radicalmente, e nós passamos a exigir novos crivos de qualidade e performance. 

Eu vou voltar agora para o Felipe para perguntar como é conviver nesse universo de redes sociais, de YouTube, se posicionar, escrever, gravar vídeos e conviver com o extremismo.

Felipe. Primeiro a gente tem que entender que temos um problema chamado redes sociais. Elas são muito novas, então as pessoas ainda não sabem como se portar e estão entendendo a melhor maneira de interagir. Até mais ou menos 2014, as pessoas entravam na internet para aprender e compartilhar coisas, só que aí surgiu no meio disso a questão política e as pessoas começaram não mais a debater, e sim a brigar. Isso começou a acontecer no mundo inteiro, não foi só no Brasil. Hoje em dia tem coisas que eu escolho não falar mais. Eu falava sobre tudo porque acredito que não existe tema que não possa ser debatido, mas eu percebi que há coisas que transformam o debate em briga e perde o sentido. Ficam dois lados gritando, ninguém ouve mais nada, a polarização cresce, o ódio aumenta e as redes sociais começam a ficar muito tóxicas. 

Acho que a nossa sociedade ainda está começando a entender esse problema, mas vai ficar claro daqui alguns anos que a gente precisa de uma intervenção. Essa coisa do anonimato na internet é um grande problema. As pessoas se sentem muito mais estimuladas a responder de uma forma agressiva quando elas não têm um rosto, um nome. Elas precisam entender que são um indivíduo real ali, que não podem se esconder atrás de um computador e precisam ser responsabilizadas pelo que falam. Quando isso acontecer a gente começa a mudar o comportamento das pessoas.

LEIA TAMBÉM: Mudanças climáticas e a política da destruição

Silvio, dá para resolver esse problema das redes sociais? E como é que a gente pode tentar ensinar empatia para as máquinas se a gente não tem empatia com nós mesmos.

Silvio. Existe uma certa ideia de que são as pessoas que causam esse caos nas redes sociais que o Felipe estava descrevendo, mas não é. No Facebook, dois terços do volume de fake news vêm só de dez sites. Se a gente tivesse menos liberalidade algorítmica para tratar esses provocadores, teríamos uma rede muito mais equilibrada, muito mais sã do ponto de vista do comportamento das pessoas. Hoje eu defendo publicamente que Facebook deve ser regulado como mídia jornalística, porque seu algoritmo tem capacidade editorial determinística, ele organiza as fontes de informação num fluxo para maximizar a atenção do usuário. E o que o algoritmo escolhe fazer, usando, inclusive, treinamento de inteligência artificial que a gente estava falando antes? Ele escolhe enviar para pessoas que sabe que clicam, avaliam bem certo tipo de informação, replicam, compartilham. Se o número de likes no Facebook aumentou mais de três vezes em quatro anos, não é por que tem muito mais notícia, é porque o algoritmo ficou muito melhor ao escolher os seus alvos. Temos que regular isso, porque a gente sabe que isso está pondo em risco a saúde das pessoas, a saúde das comunidades e a saúde da democracia.

Felipe. Nós somos um bando de ratinhos andando nesse labirinto e sendo manipulados. A questão é que as pessoas funcionam de uma forma ordenada, é muito fácil você enxergar como as redes sociais funcionam. Quando algum assunto começa a ser debatido e você entra em alguma notícia, foto no Instagram ou algum tweet popular sobre isso, os primeiros comentários sempre vão guiar a opinião de todas as outras pessoas. O cara vê o primeiro comentário com muito like e vê alguém que zoou, ele tende a zoar também. Então a opinião das pessoas é guiada pelos likes. Da mesma forma, uma rede social como o Facebook funciona favorecendo o que vai gerar mais interação na plataforma. É uma ferramenta capitalista feita para gerar dinheiro, simples assim. O algoritmo todo é pensado no que vai gerar mais interação. As redes sociais funcionam dessa forma e por conta disso acabou virando caos, é a forma com que ela funciona, ela favorece a notícia falsa, que é muito mais compartilhada do que a notícia verdadeira. O cara que compartilha bobagem vai ter 10 mil compartilhamentos, depois ele vai lá e vai fazer a errata. E a gente sabe que a errata não vai ter nem um quinto do alcance. Então é óbvio, se você tem uma plataforma que favorece notícia falsa, desinformação, você vai ter uma sociedade que é o reflexo disso.

Os algoritmos estão aí para manter a gente conectado e você, Felipe, está ali trabalhando nesse vespeiro. Como você se protege dos efeitos colaterais na sua saúde física e mental? 

Felipe. Eu sinceramente tenho dó dessa geração nova. Fico imaginando o terror que deve ser crescer com as redes sociais. A adolescência já é uma fase mega difícil, todo mundo querendo aprovação, querendo entender qual é o seu lugar, e você tem que passar por essa confusão com as redes sociais, onde o valor de cada pessoa é determinado pelo número de likes. Para quem trabalha com isso, como eu, é especialmente mais agravante o efeito. Por quê? Vou te dar um exemplo prático de como uma rede social consegue mudar o seu comportamento. O Instagram está querendo combater o TikTok e por isso implementou uma ferramenta chamada reels, um formato de vídeo mais simples, mais rápido O que o algoritmo começa a fazer? Favorecer criadores que postam reels. Se um criador tem costume de fazer conteúdos um pouco mais profundos, de dois, três minutos, e ele percebe que a ferramenta está favorecendo vídeos de 15 segundos, ele começa a mudar o conteúdo dele porque senão vai ter menos alcance. Isso acontece no YouTube, no Instagram, no TikTok, no Twitter: todas as redes sociais fazem com que o usuário mude a sua forma de criar conteúdo para se adequar ao que o algoritmo está querendo. As pessoas não estão mais se importando muito com o conteúdo em si, elas fazem o que a rede social pede, o que o algoritmo demanda. E isso começa a ferrar a cabeça das pessoas. Porque ela está fazendo algo que ela não gosta, que não acredita, mas faz porque o algoritmo pede. Eu estou constantemente passando por isso, mas tento evitar que as redes sociais guiem o meu comportamento, o meu conteúdo.

Na temporada passada eu entrevistei o cineasta Fernando Meirelles e ele comentou como cientistas às vezes são interessantes, mas são muito esquisitos também, têm dificuldade de comunicação. Felipe, você é um cara jovem que usando uma linguagem contemporânea leva conhecimento e ciência para milhões de pessoas. Qual é a dica que você dá pra gente para que a gente consiga se comunicar melhor, com um público maior e divulgar da melhor maneira o trabalho científico feito no Brasil?

Felipe. A grande questão de eu conseguir me comunicar é justamente pelo fato de não ser cientista, porque eu consigo me relacionar 100% com a pessoa que não entende o assunto. Sempre parto do princípio de que a pessoa não vai saber do que eu estou falando, e acho que essa é uma dica muito importante. Às vezes, na comunicação científica, muitos cientistas explicam algo pressupondo que a pessoa entende a base daquilo que ele está falando. Mas mesmo se você começar uma explicação do início, às vezes esse início é até antes do que você imagina. 

LEIA TAMBÉM: Todos os episódios de Trip Com Ciência

Créditos

Imagem principal: Divulgação

fechar