Últimas notícias

Fique informado

Quatro perspectivas para entender o caso Cambridge Analytica & Facebook

10 de abril de 2018

Mark Zuckerberg, o CEO do Facebook, irá testemunhar ao senado dos Estados Unidos nessa quarta-feira 11/04

Por Carlos Cabral*

Carlos Cabral é Head of Content Production na Tempest

Ele responderá perguntas a respeito das recentes revelações de que a empresa Cambridge Analytica teria extraído dados de 87 milhões de pessoas de sua rede social para influenciar eleições.

O episódio se converteu no maior escândalo de uso inadequado da dados pessoais que já tivemos notícia.

Muita coisa ainda está sendo divulgada, de modo que ainda veremos quais serão as consequências da série de denúncias feitas por Christopher Wylie e por outros whistleblowers que estão saindo do anonimato.

Abaixo faço uma análise do episódio sob quatro perspectivas que podem ajudar a entender como as ferramentas da Cambridge Analytica foram usadas em campanhas políticas de maneira nada ética.

Dataísmo

Essa expressão, “dataísmo” é quase um escárnio feito por Yuval Harari no livro “Homo Deus: uma breve história do amanhã”. Ele a usa para explicar a nossa recente devoção – segundo o livro, uma devoção religiosa – pelo acúmulo, tratamento e uso de dados não só para explicar a realidade, mas também para alterá-la.

A frase “Dados são o novo petróleo” é bastante popular (sendo atribuída a doze pessoas). Ela define esse nosso momento, em que qualquer empresa com um pouco de visão procura extrair algum valor dos dados que coleta. Seja para melhorar a sua eficiência ou para desenvolver novos produtos e serviços.

Entretanto, a frase é imprecisa. Mais correto está o cientista Piero Scaruffi que diz que “Não é possível fazer mais petróleo com petróleo (infelizmente), mas geramos mais dados com dados”.

Assim como em qualquer fanatismo religioso, o Dataísmo pode conter algumas armadilhas. A primeira é a de que é fácil perder a noção sobre quem controla o dado e quem o dado controla. Isso ficará mais claro, abaixo, quando tratarmos da maneira que a Cambridge Analytica faz propaganda.

Mas o ponto a ser abordado aqui é que, considerando o volume de dados que geramos todos os dias, e as diversas maneiras que esses dados podem ser combinados para gerar outros dados (e nem estamos falando de metadados), isso pode criar, o que defino como o paradoxo da banalização do dado.

A coleta, o tratamento e a comercialização de produtos e serviços baseados em dados são valorizados e muitas corporações que atuam nesse segmento (o Facebook é um bom exemplo) são avaliadas em bilhões de dólares. Entretanto, diversos profissionais e empresas que atuam nesse segmento acabam se distanciando do fato de que esses dados foram gerados por pessoas. O resultado é a banalização do dado.

Para quem lida com volumes de dados colossais, a interpretação é que a coisa é como sangue, em um banco de sangue: embora o indivíduo seja importante, sobretudo quando o insumo falta, depois que o sangue foi coletado, armazenado e está pronto para o uso, o valor do vínculo entre o sangue e o indivíduo que o concedeu é desprezado. A pessoa, e a confiança que ela depositou na instituição, se tornam irrelevantes.

Embora existam diversas teorias não confirmadas sobre a participação do Facebook no caso. O paradoxo da banalização do dado pode explicar o fato de que a rede social, uma empresa cujo imenso valor se deve os dados que armazena e negocia, levou pouco mais de dois anos para suspender a Cambridge Analytica de sua plataforma.

O Facebook descobriu em 2015 que a Cambridge Analytica estava coletando dados de perfis indevidamente. Na verdade, isso se tornou público na primeira reportagem do Guardian sobre o uso de dados da rede social na campanha do republicano Ted Cruz, publicada no final de 2015.

O escândalo só estourou agora porque whistleblowers estão testemunhando e apresentando documentos para a imprensa e para as autoridades. A reportagem já dizia naquela época uma série de coisas que foram confirmadas agora, como o fato de os dados terem sido coletados por meio de um aplicativo, que foi desenvolvido professor de psicologia Aleksandr Kogan.

Na ocasião, o Facebook enviou cartas para Kogan e para Wylie pedindo que deletassem os dados e nenhuma outra ação mais rígida ocorreu naquele momento. Só agora, 27 meses depois, que o Facebook suspendeu os acessos dos envolvidos.

A não ser que surjam novas evidências a respeito de uma suposta parceria mais aprofundada entre Facebook e Cambridge Analytica, faz mais sentido a teoria de que o Dr. Kogan abusou da permissividade da rede social em 2014 e que o Facebook, no mínimo, banalizou a importância dos dados dos indivíduos que confiaram em sua rede social, não avisando as pessoas sobre a coleta abusiva e não aplicando sanções ao professor que, teve sua pesquisa remunerada, ao trabalhar para a Cambridge Analytica.

É evidente que a rede social terá que implementar medidas para evitar que coisas desse tipo não aconteçam de novo e tentar corrigir as rachaduras que abriram em sua reputação.

Profiling

Outra característica importante nesse caso é o profiling. O conceito de profiling possui relação com diversas coisas, mas nesse caso está relacionado à atividade de passar um grandioso volume de dados pessoais por uma série de algoritmos, os quais associam indivíduos a um conjunto determinado de perfis.

O material promocional da Cambridge Analytica chama sua metodologia de profiling de OCEAN: um acrônimo em inglês para Abertura para a experiência, Consciencialidade, Extroversão, Agradabilidade e Instabilidade Emocional.

O OCEAN é, na verdade, o modelo Big Five da psicologia.  Entretanto, segundo um e-mail que Kogan enviou a Wilie em 2014 (vazado pela imprensa), é possível identificar mais de 20 categorias que podem ser usadas na definição de perfis.

Mas antes que incorramos ao dataísmo e comecemos a pensar que é possível enquadrar toda a humanidade a esse conjunto de perfis, vale a pena refletir que, embora o profiling da Cambridge Analytica tenha ajudado na eleição de Trump e no Brexit, isso é só parte da história.

Mais que construir um conjunto de algoritmos, é necessário ter uma boa base de dados. Não dá para dizer que, nesse caso tudo veio do Facebook, pois antes da Cambridge Analytica existir, sua holding, a SCL, já tinha experimentado a fórmula na África e no Caribe, auxiliada por dados dos próprios governos que queriam se manter no poder.

Além disso, os bancos de dados precisam ser atualizados, pois o humor das pessoas muda e quanto maior a amostra, melhor seria o resultado. O que não era o caso da coleta feita por Kogan, a qual, ao que tudo indica, ocorreu uma vez só, em 2014.

Como demonstra a matemática Cathy O’Neil no livro “Weapons of Math Destruction” ao analisar essas plataformas de big data é mais fácil a gente testemunhar cenários em que modelos são criados de maneira limitada, tornando algoritmos preconceituosos e reforçando a desigualdade.

Behavioral Microtargeting

Além de pegar grandes bases de dados e condenar indivíduos a serem classificados em um conjunto de categorias, o mais importante do produto da Cambridge Analytica é o Behavioral Microtargeting, o terceiro ponto dessa análise.

O que a Cambridge Analytica diz que faz é usar técnicas e tecnologias típicas da publicidade digital – aquelas em que é possível enviar anúncios por idade, por interesses, por região que vive, trabalha, etc. A empresa se propõe, com essa tecnologia, a enviar mensagens políticas para as pessoas certas, no lugar e no momento certos.

Esse era o terreno do Christopher Wylie, o principal whistleblower desse escândalo. Foi Wylie, segundo seu depoimento, que usou os dados e a teoria de Kogan para conceber boa parte da máquina que dispara peças de propaganda política para públicos específicos: uma mensagem mais animadora para alguém mais reflexivo ou outra, em caráter de denúncia, para alguém que tende a ser mais explosivo nas redes sociais.

A tecnologia pode parecer fascinante. Entretanto, ela é o meio, não a mensagem. Dessa forma, o trunfo para isso funcionar – ou seja, ganhar eleições –  não está diretamente ligado ao profiling ou ao Behavioral Microtargeting, mas a outras características humanas, típicas da política.

Não há como falar da Cambridge Analytica sem falar de política. A empresa nasceu como um mecanismo para o marketing político. É usada na tentativa de ganhar eleições. Seu principal investidor, o Robert Mercer, é um financiador de grupos políticos e seu antigo membro do conselho, Steve Bannon foi CEO da campanha e depois chefe de estratégia do governo Trump.

Quando um político está em campanha e possui um mecanismo à disposição como o da Cambridge Analytica ele pode usá-lo honestamente para enviar propostas de governo, mostrar que há a devida atenção para as necessidades de um determinado recorte social ou de alguma região.

Mas campanhas políticas geralmente são um terreno hostil, um período em que sobram ataques de parte a parte em detrimento de propostas. Então se pergunte: políticos de posse de um “canhão” como o da Cambridge Analytica se importarão mais em registrar suas propostas em mensagens, e-mails e posts (os quais poderão ser usados contra ele no futuro) ou usarão isso como uma arma para atacar os outros?

Fake News

Dediquei um tempo, poucos anos atrás, para estudar a disseminação de notícias falsas e nesse processo aprendi que, exceção feita ao aparato tecnológico, como robôs e perfis falsos, dois elementos são importantes para que uma mentira se espalhe e contamine a cabeça das pessoas.

A primeiro elemento é o “viés da confirmação”.  Esse é um conceito documentado pela psicologia social lá nos anos 60 e que consiste na tendência de as pessoas reforçarem suas crenças iniciais mesmo quando deparadas com fatos que comprovem o contrário.

O viés da confirmação tende a gerar impasses irreversíveis em assuntos mais subjetivos como concepções religiosas, filosóficas e políticas. Isso já foi comprovado em vários experimentos psicológicos: não importa quão racional seja a explicação de uma coisa, em um debate, nós tendemos a confirmar os nossos vieses, ao invés de assumirmos que estamos errados. Se isso já é ruim na mesa de bar, é pior nas redes sociais onde operam outros sentimentos como narcisismo e orgulho perante o público.

O segundo elemento são as câmaras de eco. Lendo sobre a estrutura de mídia do Estado Islâmico em 2016 pude constatar que, embora perfis institucionais e falsos cumpram uma função relevante na disseminação da informação. A participação de pessoas reconhecidas como “reverberadoras” é muito importante.

Muitos indivíduos voluntariamente se dão ao trabalho de repassar conteúdo, seja porque estão ligados a uma religião ou ideologia política, ou seja, um caráter missionário, porque se sentem recompensados pelo acúmulo de reputação em uma determinada área, por exemplo a quantidade de seguidores que acumulam ao fazer isso, ou as duas coisas. Essas pessoas acabam operando, propositalmente ou não, como uma câmara de eco na disseminação de notícias falsas nos grupos que partilham dos mesmos vieses. Ou seja, em suas bolhas.

É por meio da construção de mensagens específicas que explorem o viés da confirmação, influenciando as câmaras de eco a reverberarem a mensagem, que a solução da Cambridge Analytica opera.

São técnicas típicas do meio militar e de inteligência que estão em uso aqui. Ou, como diz Carole Cadwalladr no Observer, “Essa não é uma história sobre psicologia social ou data analytics. Isso precisa ser entendido em termos de um fornecedor de serviços militares usando estratégias militares contra uma população civil.” Vale lembrar que a Cambrdge Analytica nasce em um grupo de empresas de defesa.

O que é irônico nessa história é que a teoria do viés da confirmação pode estar sendo posta mais uma vez a prova nesse caso. Isso porque, se os eleitores dos países em que a Cambridge Analytica atuou admitirem que o resultado da última eleição foi adulterado pela intervenção da empresa, eles teriam que assumir que as redes sociais têm tanto poder em sua vida, que podem ser usadas para lhe manipular.

Muita gente acredita que sua vida pode ser guiada por uma constelação distante e que seu destino pode ser selado em uma previsão astrológica de jornal. Mas, quem teria a humildade de assumir que é passível de ser adestrado pelas redes sociais?

Esse artigo é uma adaptação da participação de Carlos Cabral no episódio 148 do podcast Segurança Legal.

 

*Carlos Cabral é Head of Content Production na Tempest.

Escreve sobre hacking, ataques, vulnerabilidades e outros assuntos do universo da segurança da informação.

Organizador do Livro “Trilhas em Segurança da Informação: Caminhos e ideias para a proteção de dados”, em parceria com Willian Caprino, e autor de diversos artigos e palestras sobre privacidade e segurança. Acumula quinze anos de experiência na área de segurança da informação, atuando em empresas de serviços, telecomunicações e do mercado financeiro. Possui formação em Computação Forense pela Universidade Presbiteriana Mackenzie e em Sociologia pela Fundação Escola de Sociologia e Política de São Paulo.