Colunistas

O Marqueteiro agora é um Algoritmo

ANO 2017 NUM 382
Marcos Nóbrega (PE)
Professor Adjunto da Universidade Federal de Pernambuco. Pós-doutor pela Harvard Law School. Conselheiro Substituto do Tribunal de Contas de Pernambuco.


19/12/2017 03:51:00 | 1618 pessoas já leram esta coluna. | 1 usuário(s) ON-line nesta página

Diariamente uma quantidade inimaginável de dados são gerados de acordo com novas interações com plataformas tecnológicas, o Uber, o Google, o Facebook. Bilhões e bilhões de dados transitam de lá para cá revelando o que queremos, por onde andamos e o que desejamos. É um universo silencioso de monitoramento e que começa a fazer projeções sobre o que vamos querer amanhã, o que compraremos no próximo mês e até como nós votaremos nas próximas eleições.

Isso não é o futuro, mas já está presente nos dias de hoje. Se essas informações forem trabalhadas por algoritmos poderosos e calibradas por especialistas em comportamento (behavior economics, por exemplo), poderá influenciar nosso comportamento, mas poderá influenciar nosso voto?

A edição de junho de 2017 da New York Review of Books apresenta interessante artigo sobre o tema. Observa que logo depois da improvável vitória de Donald Trump nas últimas eleições americanas, um artigo publicado no semanário suíço Das Magazin, e reproduzido online em inglês pelo site Vice, viralizou na internet. Enquanto analistas das redes de televisão americana estavam discutindo perplexos as razão da derrota de Hillary, os jornalistas da Das Magazin apresentaram uma totalmente nova explicação. Segundo eles, o trabalho realizado por uma empresa de mineração de dados chamada Cambridge Analytica foi decisivo.

Segundo os jornalistas, a Cambridge Analytica tinha usado dados extraídos do Facebook que trabalhados por algoritmos poderiam estabelecer o padrão psicológico de cada eleitor nos Estados Unidos. A companhia então desenvolveu mensagens políticas feitas sob medida de acordo com as emoções de casa eleitor. Os jornalistas disseram ao New York Times que, por exemplo,  se percebessem padrões agressivos no eleitor, poderiam postar uma propaganda referente ao uso de armas.

Até mais assustador é a maneira como parece que Cambridge Analytica teve acesso aos dados. Utilizou um site da Amazon chamado Mechanical Turk onde a empresa pagou um ou dois dólares para 100 mil pessoas nos Estados Unidos para preencherem um formulário online. Mas além de receber o pagamento, essas pessoas também tinham que fazer o download de um aplicativo que dava `a Cambridge Analytica acesso aos perfil dos amigos do Facebook. Esses perfil incluíam os likes e as listas de contatos.

Segundo um trabalho investigativo feito pela revista americana The Intercept, desses 185 mil pessoas que participaram da pesquisa e baixaram o aplicativo, a Cambridge Analytica teve acesso aos dados de 30 milhões de perfis no Facebook. Nenhuma dessas 30 milhões de pessoas tinham noção que seus dados estavam sendo coletados e analisados para fins de uso na campanha política americana.

Embora não haja dúvida que os eleitores tiveram sua privacidade invadida pela Cambridge Analytica, a verdadeira influência dos dados do Facebook  para os estrategistas de campanha foi perfeitamente legal. Vazamento de documento interno do Facebook revelou que a empresa tem analisado o estado emocional dos usuários, com base em amigos e postagens, e vendido esses dados para fins de propaganda. Havia rumores que a empresa teria usado métodos de psicometria para analisar os dados dos eleitores, procurando medir as habilidades e aptidões. A empresa negou.

Depois que os analistas políticos americanos descobriram o trabalho da Cambridge Analytica choveram críticas `a empresa. Segundo os críticos, qual a legitimidade de algoritmos que pesquisam, cruzam dados e fazem previsões sobre as próprias emoções do indivíduo. Se um adolescente chega aborrecido em casa e a mãe pergunta o que houve, provavelmente a resposta do teen será “nada”, mas o Facebook saberá a razão do aborrecimento.

No interessante livro “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy” (Armas de Destruição em Massa), a escritora Cathy O'Neil chama a atenção da fragilidade que todos nós estamos expostos na era da informação de massa e de poderosos algoritmos. Cita o exemplo que alguém que precisa de um empréstimo e solicita uma análise de crédito a uma determinada empresa. Um algoritmo , com base no CEP do postulante , percebe que se trata de bairro pobre, com elevadas taxas de inadimplencia. O emprestimo é então negado.

O que mais pertuba a autora, com base em inúmeros casos que conta no livro, é a total falta de transparência nesses processos. Não se tem acesso `as engrenagens do Algoritmo, como eles avaliam dados e tomam decisões.

Um problema adicional é a falta de regulamentação sobre o assunto em todo o mundo. A lei brasileira que determina o Marco Civil da Internet (Lei 12965/14) não trata da matéria, nem poderia fazê-lo diante da velocidade com que as mudanças vem ocorrendo. Há um projeto de lei que tramita na Câmara (5.276/16) talvez possa incluir algum ponto sobre o tema, mas ainda há um vácuo legislativo sobre a questão.

Em termo legais, houve uma ação contra a Cambridge Analytica na Inglaterra. Como a empresa é inglesa e  boa parte dos dados dos eleitores americanos foram processados na Inglaterra, os postulantes da ação entenderam , com base na lei britânica de proteção de dados, que os indivíduos teriam direito de perguntar sobre os seus dados que foram utilizados pela empresa. Segundo os advogados, o mais importante não é onde o indivíduo está mas onde os dados são processados.

O tema é tormentoso e ainda levará a muito debate. O que precisa ficar claro é que a tecnologia avança exponencialmente e não podemos simplemente ficar contra, proibindo os avanços. O que é importante é observamos a tendência , o movimento no qual a tecnologia está mudando nossas vidas diariamente. Estamos diante de uma nossa perspectiva sobre privacidade e dados. Talvez seja o momento de colocar os algoritmos no banco dos réus.  



Por Marcos Nóbrega (PE)

Veja também