Vigilância cega, o que as pegadas digitais podem revelar sobre o indivíduo

Por João Carlos Rebello Caribé

Este trabalho foi apresentado no II Seminário Internacional Network Science em Novembro de 2018.

O artigo completo pode ser acessado nos anais do evento ou no ResearchGate.


Resumo

Quando se fala em vigilância, logo vem a mente a imagem de uma câmera, um observador por trás dos monitores. É um modelo naturalizado no século XX, que com o advento do big data, está se tornando obsoleto.

O modelo de vigilância do Panóptico de Benthan, descrito por Foucault (2014) em “Vigiar e Punir”, se baseia no par ver-ser-visto, a partir de um ponto de observação central, com o vigilante tendo ampla visão do vigiado e este nenhuma visão do vigilante, presumindo assim a sua vigilância.

Com a emergência da mobilidade e do capitalismo de vigilância (Shoshana Zuboff, 2015), surgiram novas sistematizações de modelos de vigilância. Zigmunt Bauman (2013) em “Vigilância Líquida”, apresenta o modelo do Panóptico pessoal, onde o indivíduo torna-se vigilante de si e seus pares, carregando seu próprio Panóptico, materializado como seus smartphones e dispositivos conectados. O que Bauman descreve, dialoga com o que Fernanda Bruno (2013), em “Máquinas de ver, Modo de Ser. Vigilância Tecnologia e Subjetividade” descreve como Vigilância Distribuída, que tira a centralidade da vigilância, principal característica do Panóptico.

Sandra Braman (2006) no livro “Change of State – Information, Policy, and Power”, apresenta o Panspectro, como o modelo de vigilância adequado ao advento do big data. Segundo a autora, o foco do Panspectro não é o indivíduo em particular, seu foco está nos dados, e sua ação focal se dá em resposta a padrões.

O volume de dados produzidos voluntária e involuntariamente, pelo indivíduo, na Internet configuram o novo petróleo, o Facebook, por exemplo, teve uma receita bruta de U$ 40,6 bilhões em 2017, Alphabet, holding da Google, faturou U$ 110 bilhões, no mesmo período.

Panspectros, treinados com modelos, através de machine learning, constroem a partir dai, por deep learnig, padrões sofisticados, que respondem de forma lateral, distinta da lógica humana, com extrema precisão a perguntas feitas na tela panspectral. Yoyou Wu et al (2015) demonstra em “Computer-based personality judgments are more accurate than those made by humans” como os julgamentos baseados em computador são mais precisos que os feitos por humanos.

As pegadas digitais que o indivíduo produz permitem produzir informações valiosas de sua individualidade, seus gostos, temores, e até revelar seus mais sombrios segredos.

Slides

Você sabe o que são as “Shadow regulations”?

Shadow Regulations, ou regulações nas sombras, é uma prática que vem ganhando força nos principais provedores de aplicações na Internet, tais  como Facebook, Google, Twitter, Instagram dentre outros. Com as sucessivas falhas em regulamentar temas polêmicos como o ACTA, TPP dentre outros, os governos e grandes organizações passaram a “sugerir” à estes provedores de serviços, que incluíssem determinadas normas em seus termos de uso. Isso mesmo aquele termo de uso que você vive aceitando sem ler, ou você sabe exatamente o que concordou em aceitar usar o Facebook?

Esta prática vem crescendo e hoje é objeto de estudo da EFF (Eletronic Frontier Foundation) organização de direitos humanos, que trata de temas ligados a Internet.

Regulações na Sombra são acordos voluntários entre empresas (algumas vezes descritos como códigos, princípios, padrões ou diretrizes) para regular seu uso da Internet, geralmente sem o conhecimento do usuário.

A prática vem crescendo justamente por ser tão eficaz quanto qualquer lei, mas sem a necessidade de aprovação por um tribunal ou parlamento. De fato, às vezes, as regulações na sombra partem de funcionários do governo, que sugerem às empresas apresentarem uma solução “voluntária” ou submeter-se à regulamentação governamental.

Um bom exemplo disto foram as iniciativas apresentadas pelo Google e Facebook para o combate às fake news nas eleições deste ano (2018) em seus domínios.

As regulações nas sombras são utilizadas em contextos diferentes, como a aplicação de direitos autorais, a regulamentação do “discurso do ódio”, o controle das fake news, restrição de vendas de produtos lícitos, entre outros. Com o uso da Internet focada em aplicações, torna-se muito mais fácil controlar e vigiar os indivíduos, que por sua vez devem estar cientes de que estão sendo vigiados e controlados, e até manipulados dentro do ambiente das aplicações de Internet. 

O modelo das regulações nas sombras não é novo, e muito menos é exclusivo da Internet. Durante a ditadura Brasileira, no final dos anos 70, as agências de propaganda temendo serem censuradas, criaram o CONAR, como sendo um conselho de auto regulamentação que praticava uma espécie de “auto censura” dentro do contexto da ditadura. 

No Brasil, o Marco Civil da Internet, também conhecido como a constituição da Internet, criou restrições à esta prática, como a garantia da neutralidade da rede, a inimputabilidade de terceiros, e a remoção de conteúdo somente por ordem judicial por exemplo. Mas isto não impede que o provedor de aplicação de Internet remova seu conteúdo por “ferir as regras da comunidade”, mas ao faze-lo, estará violando o Marco Civil. A inimputabilidade de terceiros tem sido amplamente combatida no congresso, através da proposição de emendas ao Marco Civil,  por empresas ligadas ao direito autoral. A inimputabilidade significa em linhas gerais, por exemplo, que o Facebook não pode ser responsabilizado legalmente pelo conteúdo publicado por seus usuários, até que estes sejam notificados judicialmente.

As regulações nas sombras, remetem à pesquisadora Sandra Braman, que no seu livro “Change of State”, no capítulo “Information, Policy, and Power in the Informational State”, descreve o novo modelo de poder. O “Estado Informacional” e a privatização do poder e controle:

Como as tecnologias que moldam as estruturas sociais e informacionais são cada vez mais matemáticas por natureza, novas ferramentas regulatórias que também são matemáticas estão sendo desenvolvidas. E como essas ferramentas vêm em uma forma sobre a qual os direitos de propriedade podem ser reivindicados, a privatização do poder público anterior é exacerbada no estado informacional (BRAMAN, 2006, Tradução nossa).

No Estado Informacional, quem julga e delibera são os algoritmos, que possuem em seu núcleo as “Shadow Regulations” codificadas. Desta forma, o julgamento é feito de forma automática sem possibilidade de apelação. Casos mais simples como a remoção da obra artistica “A origem do Mundo“, por apresentar nudismo, não representam um problema maior. Porem outros julgamentos equivocados podem provocar danos muito grandes ao indivíduo. Como defende a Matemática Cathy O’Neil, os algoritmos são modelos matemáticos que codificam o preconceito e o viés.

Se as regulações nas sombras não lhe preocupam, vamos tomar um exemplo bem hipotético do seu dia a dia.

Suponha que ao embarcar no ônibus, um funcionário peça para você abrir a bolsa ou mochila para que ele possa revistar. Obviamente isto vai causar mal estar e você irá dizer que isto não tem suporte legal, é uma invasão de privacidade. Pois bem, o funcionário irá responder que você não precisa passar por uma revista, mas que para isto precisa descer do ônibus. Certamente questionará o suporte legal desta prática. O funcionário então irá lhe mostrar o regulamento do “cartão de passagem” que você aceitou, não leu, mas aceitou.

Continuando no campo das hipóteses, vamos entender como esta regulação  aconteceu. Supondo que houve uma grande reunião entre os empresários de ônibus com a secretaria de segurança sobre assaltos frequentes nos ônibus, e a dificuldade de controlar o eventual acesso de um passageiro armado, eles decidiram colocar esta cláusula no termo de uso do “cartão de passagem”.

Obviamente que neste exemplo local, você dirá que rapidamente o Ministério Público irá suspender a prática com base legal.

Porém o mesmo não se aplica às gigantes redes sociais transnacionais que não contam com um órgão regulador igualmente transnacional, restando apenas a corte de seu país de origem e os tratados internacionais, tornando muito difícil reagir à esta prática.

Bibliografia

BRAMAN, S. Change of State – Information, Policy, and Power. Nature Publishing Group. London, England: The MIT Press, 2006. 570 p. ISBN: 9780262025973.

ELECTRONIC FRONTIER FOUNDATION. Shadow Regulation, 2014. Disponível em: https://www.eff.org/issues/shadow-regulation . Acesso em: 14/11/2018.

O’NEIL, C. Weapons of Math Destruction, How big data increases inequality and threatens democracy. New York: Crown Publishing Group, 2016. 307 p. ISBN: 9780553418828.

Uma breve história do Capitalismo de Vigilância

Por João Carlos Rebello Caribé

Esta breve história do capitalismo de vigilância é uma continuação do texto “Redação ENEM 2018: Dados, algoritmos e comportamento“, espero que seja útil de alguma forma.

Era uma vez…

Na primavera de 1994, antes mesmo da Internet se tornar comercial, Nicholas Negroponte do MIT estava pensando sobre a oferta massiva de canais na TV a cabo Americana. Ele imaginava que era impossível para o usuário escolher bons programas apenas com o controle remoto, uma solução era escolher a programação nas revistas mensais enviadas pelas operadoras de TV a cabo. Mas Negroponte, que é um futurista, imaginava uma TV inteligente, que aprenderia o gosto do usuário e ofereceria a ele a melhor programação sem que ele tivesse que se preocupar com isto. Esta ideia se desenvolveu para o que Negroponte chamava de “agentes inteligentes”.  No rastro desta ideia a Microsoft lançou o “Bob” e a Apple o “Newton” dois agentes inteligentes que foram um fracasso tremendo!

Se você levar em consideração que um iPhone 5 tem 26 vezes mais velocidade de processamento que os computadores topo de linha de 1995, deve imaginar que produzir programas de computador sofisticados, como um assistente pessoal, não era tarefa das mais fáceis. Alias que tal dar uma olhada na cara do Microsoft Bob no vídeo a seguir.

Microsoft Bob

As coisas mudaram rapidamente de 1995 para cá, em 1997 Jeff Bezos da Amazon já tinha vendido livros à um milhão de clientes. A Amazon desenvolveu uma solução de relevância com base nos dados dos clientes: que livros procuravam, compravam, colocavam em lista de desejos. Era o primeiro “agente inteligente” que realmente funcionou. Bezos baseou seu método de relevância no livreiro do bairro, que conhece o interesse de cada cliente.

O Google, dois anos depois, criou o conceito de “PageRank“, que estabeleceu um critério de pontuação para cada página na Internet, em função de diversas variáveis, como a quantidade e qualidade dos links que apontam para determinado site, e também inclui o conceito de que cada usuário teria uma expectativa diferente, baseado no histórico de pesquisa, sua localização, a partir de que dispositivo está pesquisando, e etc…

Vamos falar de cookies?

Com certeza você já deve ter ouvido falar em cookie, já devem ter pedido para você limpar os cookies, ou hoje em dia deve ter entrado em sites que avisam que usam cookies e pedem para você aceitar. O conceito de cookie vem desde 1994, quando os navegadores de Internet surgiram. O cookie é um pequeno arquivo de dados, com até 4Kb que o navegador grava no seu computador, a pedido de cada site que visita. Por exemplo este site grava um cookie no seu computador, todos os demais fazem isto, cookies são do bem, eles servem para saber se você esta visitando um site pela primeira vez ou se está retornando, que páginas visitou,  ou quando você faz login em um site ele grava um código no cookie enquanto durar seu login, ou quando você está fazendo compras, ele guarda um identificador, que permite resgatar sua listas de compras.

Existe uma regra importante que diz que os cookies só podem ser lidos e gravados pelo endereço de internet que o gerou. Então nos só temos acesso aos cookies gravados por “pesquisa.wazushi.com.br”, o Google por “google.com”, e assim vai, mas ai as coisas mudaram, conseguiram burlar a regra…

Da Internet da pedra lascada à Internet de hoje

Até 1999 as pessoas, no Brasil, acessavam a Internet a partir de um computador fixo e usando um modem que discava para o provedor, é isso mesmo, discava. E o modem mais rápido era o de 56Kbps, sabe quando seu plano de dados do celular termina e a Internet fica beeeeemm lenta? Então esta era a velocidade normal da Internet na época. Além do provedor de acesso, tínhamos de pagar a ligação telefônica, se ficássemos conectados muito tempo, a conta de telefone vinha uma fortuna. Mas a partir da meia noite, ou no domingo, ou a partir das 14h de sábado, podíamos ficar conectados o tempo que quiser pagando apenas um pulso telefônico. Isto explica porque seus pais, tios ou irmãos mais velhos falavam que viravam a noite na Internet.

Quer saber como era nesta época?

A partir de 2000, o acesso banda larga chegou nas principais capitais do Brasil, estar conectado 24h por dia, 7 dias por semana, era uma prática que ninguém estava acostumado, mas aos poucos fomos nos acostumando e mudando nossos hábitos na grande rede.  Antes as redes sociais eram os fóruns online e as listas de discussão por e-mail. A tecnologia avançou, a capacidade de processamento e memória dos computadores melhorou bastante, permitindo aos navegadores executarem programas em JavaScript cada vez mais complexos, permitindo uma série de atividades que antes não eram possíveis.

Quando tudo começou a mudar…

Em 2003, o Google lançou um sistema de publicidade contextualizada chamado AdSense, com ele qualquer site poderia exibir publicidade automática. Este sistema tornou-se a principal fonte de renda da maioria de sites e blogs, praticamente hoje em dia quase todo site tem publicidade AdSense. O AdSense usava um sofisticado algoritmo (programa) em JavaScript que lia o conteúdo da página que estava sendo exibida, e apresentava publicidade de acordo com o seu conteúdo.

Junto com o AdSense o conceito de tracker cookie, ou apenas tracker, ganhou força. O tracker é um cookie como qualquer outro, gravado pelo Google, neste caso, mas o que faz dele um cookie tracker, é um importante detalhe. Quando alguém exibe uma publicidade do Google AdSense no seu site, ele insere um código que permite que o domínio do Google (google.com) tenha acesso ao cookie dele, porém sabendo qual site o requisitou. Se tivéssemos publicidade AdSense, o Google saberia que você visitou este site, que páginas viu, quanto tempo ficou em cada uma. E se depois você visitar outro site que tenha AdSense, ele também fará o mesmo com o outro site. Então este cookie do Google permite rastrear (tracker) sua navegação na Internet. Lembra que falei lá em cima que conseguiram burlar a regra do cookie? Pois é…

A figura abaixo mostra como se dá todo o processo,  na direita,  o seu computador, quando você acessa um site ele envia um conjunto de informações conhecidas por cabeçalho HTPP, que tem o tipo e versão do navegador, seu número de IP, modelo do computador, versão do sistema operacional, tamanho da tela, que plugins estão habilitados, e mais alguns dados. No lado esquerdo o servidor que devolve o conteúdo solicitado, e requisita os cookies, que depois ele devolve para ser gravado. Quando o site tem um anuncio, todo processo se repete também com o domínio do anunciante.

Como o AdSense ou qualquer anunciante faz o tracker

É por causa do “tracker” que você visualiza publicidade em outros sites de produtos que acabou de pesquisar em uma loja virtual. Esta prática é chamada de remarketing, um serviço que o Google oferece à estas lojas para recuperar uma venda que você desistiu.

Foi em 2004, quando o Google criou o Orkut e o Gmail que as coisas começaram a mudar profundamente. Agora o Google poderia rastrear toda atividade de um usuário logado. Se ele tivesse uma conta no Orkut, ou no Gmail, ele poderia associar todo seu rastro digital à sua conta. Ou seja, o usuário anônimo agora tinha nome, gênero, idade, cara, hábitos, e relacionamentos sociais!

O Facebook, apesar de ter sido lançado em 2004, se tornou popular no Brasil somente a partir de 2011. Esta e outras aplicações e tecnologias podem ser vistas na linha do tempo abaixo

LInha do tempo das tecnologias da Internet

O capitalismo de vigilância

Estava inaugurado o Capitalismo de Vigilância, a partir deste ponto a corrida para obter cada vez mais dados dos usuários, significava mais lucro, e que lucro! Em 2017 o Facebook teve uma receita bruta de U$ 40,6 bilhões, e a Alphabet, holding da Google, faturou U$ 110 bilhões, no mesmo período. Você e mais alguns bilhões de pessoas foram responsáveis por este lucro…

A Mobilidade possibilitou o grande salto no capitalismo de vigilância, graças aos smartphones que se tornaram populares no Brasil a partir de 2015 (figura abaixo). A mobilidade passou a permitir o uso continuado da Internet, e a partir de qualquer lugar. Novos dados passaram a ser obtidos a partir da possibilidade dos aplicativos como o Facebook, WhatsApp, Instagram e muitos outros, poderem acessar sensores e funcionalidades do smartphone.

Fontes: IBOPE inteligência, Deloitte, Teleco

O aplicativo do Facebook, segundo o estudo do ShareLab, acessa 43 funções e sensores do seu smartphone, incluindo, microfone, câmeras, GPS, agenda de telefone, seu histórico de ligação telefônica, dados da conexão. O WhatsApp, Instagram, e o Messenger não ficam muito atrás.

A coleta massiva de dados pelo capitalismo de vigilância, passou a permitir a modelagem de dados, e construções de padrões em larga escala, como descrito no texto “Seus dados são você, Facebook“.

Para você ter uma ideia, assista ao video abaixo, produzido pela Panoptykon Fundation com base no estudo do ShareLab, sobre como o Facebook, obtém e trata seus dados para criar o feed de noticias que você acessa.

Novos desafios

Alguns temas relevantes para a sociedade estão sendo pesquisados pela Academia. Em primeiro lugar é importante determinar a relação entre os benefícios e os riscos das práticas do capitalismo de vigilância, também conhecido por capitalismo de dados. Vejamos alguns desafios que estão em destaque.

Distorções da realidade

As relações sociais mediadas por algoritmos, podem produzir distorções da realidade, tomemos a figura abaixo para ajudar a descrever esta questão, tendo o Facebook como o foco do estudo.

Modelo conceitual da medição algoritmica

Na figura temos a informação, o mediador e o indivíduo. A informação é tudo que é compartilhado por qualquer indivíduo. O indivíduo é qualquer pessoa que usa o Facebook, você, seus amigos, e “amigos” do Facebook, e até mesmo pessoas que você não conhece. O mediador neste caso, são os conjuntos de algoritmos do Facebook que a partir dos dados que ele obtém de você, da informação e de seus amigos, decide que informação vai lhe exibir. Ou até mesmo quais dos seus amigos ele vai mostrar para você. Ou seja o mediador decide com quem você vai se relacionar e que informação é relevante para você. Neste processo o mediador do Facebook cria uma “bolha de realidade” entre você e seus amigos, que por se relacionarem dentro desta “bolha”, acreditam que todo mundo pensa igual. Esta é uma das razões, mas não a única, que explicam a crescente onda de intolerância que envolve a sociedade.

Morte da criatividade e da diversidade

Um outro problema relacionado às “bolhas de realidade” descritas acima, é a morte da criatividade e da diversidade. Com pessoas se relacionando através do mediador algorítmico, com outras pessoas que pensam iguais a ela, o diverso, o inovador deixam de existir e o mundo caminha para a existência de vários núcleos de unanimidade. Isto pode significar não só a morte da criatividade, como do pensamento crítico. E a partir deste ponto a humanidade irá retroceder, se é que já não esteja retrocedendo.

Perda da autonomia

Quem não fica doido se esquecer o celular em casa? Dá uma sensação de impotência e insegurança? Isto porque você esta se tornando dependente do smartphone e seus incríveis aplicativos. É aplicativo para se relacionar com os amigos, para ajudar a escolher com quem vai “ficar”, para onde ir, por qual caminho. Podemos não perceber, mas estamos perdendo elementos e práticas importantes que ajudam em nosso processo decisório. Isto vai refletir inclusive no seu trabalho futuro, como serão as decisões no trabalho? Serão delegadas aos dispositivos computacionais e seus aplicativos?

Perda completa da privacidade

As pessoas não parecem muito preocupadas com a sua privacidade, é fato que vivemos hoje um novo referencial de privacidade, onde é normal compartilharmos informações, imagens e pensamentos que seriam inadmissíveis há algumas décadas.  Mas a preocupação está com as informações que são compartilhadas involuntariamente, que permitem dizer muito sobre nós, pense na possibilidade assustadora descrita no texto “Como seria uma ditadura no Brasil de hoje“.

Perda da noção da realidade

Para além das distorções da realidade, a exploração dos perfis psicométricos dos indivíduos, a partir de seus dados, para envio de informações direcionadas como fez a Cambridge Analitica, permitem induzir consensos artificiais.  A manipulação da realidade através das fake news (desinformação) levou ao estudo da chamada “pós verdade”. As deep fakes, que são manipulações realísticas de vídeo e/ou voz nos levam a um novo patamar que é  a “pós realidade”. E agora com base nos perfis e dados dos indivíduos, já existem estudos demonstrando ser possível criar falsas memórias, criando o “pós passado”.

Governança de algoritmos

Um importante freio nestes riscos tem surgido com a proposta de Governança de Algoritmos,  onde a política de proteção de dados pessoais esta no centro da sua  estratégia. A comissão Europeia é pioneira, e já possui um marco legal na proteção de dados pessoais conhecida por GDPR. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPDP) foi sancionada este ano, mas só entra em vigor em 2020, e ainda tem falhas por não ter definido o comitê regulador, o comitê que irá fiscalizar a aplicação da lei.

Divulgação Científica Universal

Uma outra importante estratégia esta na divulgação científica, o conhecimento dos riscos e benefícios são a melhor forma de proteger a sociedade, e fecho este artigo com meu manifesto pela divulgação científica universal. 

Nos da academia temos de compreender e assumir nossa responsabilidade sobre o futuro da humanidade frente a dicotomia beneficio x ameaça da tecnologia. Seja através do estabelecimento de limites éticos nos resultados e na utilização de nossas pesquisas. Seja através da divulgação científica ampla geral e irrestrita, adequando seu trabalho ao público alvo, abolindo o formalismo, e buscando formas de explica-lo ao mais humilde cidadão

Redação ENEM 2018: Dados, algoritmos e comportamento

Por João Carlos Rebello Caribé

Foi uma grata surpresa o tema da redação do ENEM 2018: “Manipulação do Comportamento do usuário pelo controle de dados na internet“. Basicamente o tema central de meu projeto de pesquisa, e torna-lo popular é o objetivo deste site. Agora que o tema esta nas mentes de milhões de Brasileiros, nada mais oportuno do que comenta-los com base nesta temática e numa linguagem dirigida aos estudantes.

O que dizem os textos motivadores?

O enunciado apresenta quatro textos motivadores, que permitem se bem compreendidos construir excelentes redações.

  1. O Gosto na era do algoritmo
  2. A silenciosa ditadura do algoritmo
  3. Internet no Brasil 2016
  4. Como a Internet influencia secretamente nossas escolhas

O tema é bem complexo, e um pouco distante do campo de conhecimento da maioria dos estudantes que prestaram o ENEM. Acredito que muitos devem ter praticado uma interessante reflexão após a leitura dos textos motivadores, e produziram redações muito boas.  Alias os textos motivadores conduzem uma abordagem bem estruturada na minha opinião.

O texto 1, “O gosto na era do algoritmo”, apresenta uma abordagem positiva do algoritmo, que monitora os dados e gostos do usuário e compara com milhares de outros, para produzir recomendações cada vez mais precisas. Este texto demonstra de forma simples e clara, o conceito inicial de que os dados dos usuários são coletados e comparados com o objetivo de produzir recomendações mais eficientes. Porém no final, ele destaca que este sistema de coleta e análise de dados, através de inúmeras comparações, pode induzir um falsa ilusão de liberdade no usuário, conduzindo na verdade as suas escolhas sem que ele de fato se dê conta disto.

O texto 2, “A silenciosa ditadura dos algoritmo”,  um pouco mais crítico demonstra o poder e o viés dos algoritmos, que segundo o autor são “opiniões embrulhadas em código”. O que significa que os algoritmos que fazem estes julgamentos podem estar sendo influenciados pelas opiniões de quem os codifica. O poder se torna visível no momento em que o autor cita que o “exercito de moderadores” localizados no Oriente Médio e Sul da Ásia, avalia o conteúdo apontado a partir de sinalizações dos usuários, mas quem decide se o conteúdo vai ser eliminado e mantido são os “poderosos algoritmos”.

O texto 3, que na verdade é um infográfico, resultado da pesquisa do IBGE sobre a Internet no Brasil em 2016, e que permite delimitar e contextualizar o público que será o objeto da redação.

O texto 4, “Como a Internet influencia secretamente nossas escolhas” é o mais crítico, e o mais importante para a formação do argumento pelo aluno, pois trata diretamente da capacidade dos algoritmos influenciarem o usuário com base nos dados que este produz. O texto deixa um gancho para o tema das fake news, porém, impulsionadas por robôs e perfis falsos ao dizer: “Quanto mais informações relevantes tivermos nas pontas dos dedos, melhor equipados estamos para tomar decisões”. Mais adiante o autor fala das tensões fundamentais entre a conveniência e deliberação, levando a entender que muitas vezes o usuário compartilha o que lhe é conveniente, o que dialoga com seu ponto de vista, em detrimento do que pode ser o correto, porém não conveniente. No final, ele deixa a dúvida ao terminar o texto com “decisão informada versus obediência influenciada”.  O autor também destaca o conceito de que os detentores das plataformas sabem mais sobre nós do que nós sobre eles, e conduzirem assim suas decisões, ao dizer “Quanto mais os sistemas souberem sobre você em comparação ao que você sabe sobre eles, há mais riscos de suas escolhas se tornarem apenas uma série de reações à ‘cutucadas’ invisíveis”.

Ao retornarmos ao início do texto vemos que o autor fala de “trending topics” e “relevância”. Com estes elementos é possível desenvolver o núcleo principal envolvendo por exemplo o uso de perfis fakes e robôs para impulsionar informação falsa, que ganhará relevância ao ser compartilhada por usuários que a julgam conveniente, seja para confirmar seus pontos de vista ou para provocar quem pensa diferente.

Outra linha que se poderia adotar está justamente nas suas escolhas, que podem estar sendo influenciadas por algoritmos que ao tratarem os dados que você produz, lhe oferecem o que tem mais chance de lhe interessar. Ou ainda você poderia questionar a formação de senso comum, será que a maioria das pessoas do seu espaço social pensam como você ou será que elas foram influenciadas de alguma forma pelos algoritmos?

Uma outra linha que você poderia desenvolver na sua redação é sobre a perda de autonomia, com as aplicações decidindo por você, ao menos nas escolhas de entretenimento, relacionamento social e até mesmo qual o melhor caminho entre sua casa e sua escola. Você poderia desenvolver uma reflexão de como seria o mundo sem elas, será que você conseguiria tomar decisões? Será que você teria condições de reunir e avaliar os parâmetros para isto?

O ponto central comum aos textos é de que as aplicações coletam os dados dos usuários, os comparam, e produzem interações com base nisto, e que estas interações e sugestões podem influenciar o usuário, como já dito, pensa estar decidindo livremente, mas na verdade está sendo influenciado.

O que todo mundo pode aprender a partir desta proposta de redação?

A visibilidade deste tema, principalmente pela pertinência, atualidade, importância e timing deve levar a um debate muito importante, e quero contribuir a seguir com informações importantes e relevantes. Aliás fica aqui o convite, se quiser continuar a discutir o tema você pode comentar lá no final, que terei o máximo prazer em responder.

Se quiser aprofundar neste tema, sugiro, que leia a sua continuação, em “Uma breve história do capitalismo de vigilância“. Também recomendo ler o texto “Seus dados são você, Facebook” que mostra o quanto os dados que produzimos na Internet, sem que percebamos, dizem sobre nós, é surpreendente. Outro texto que recomendo é o “Precisamos nos desconectar do Facebook“, e por fim o texto “Como seria uma ditadura no Brasil de hoje” mostra como a vigilância no século XXI é poderosa.

Como seria uma ditadura no Brasil de hoje?

Por João Carlos Rebello Caribé

O General Villas Boas gerou um grande desconforto, ao dizer  em uma entrevista, que a “legitimidade do novo governo pode até ser questionada”, despertando a preocupação com uma possível nova ditadura. Na sequência, o General Mourão diz que uma constituição não precisa ser feita por eleitos do povo.  A despeito dos questionamentos políticos, legais e constitucionais relacionados à estas declarações, temos uma preocupação adicional: Como seria a vigilância em uma ditadura no Brasil de hoje?

Uma ditadura no Brasil de hoje provavelmente seria menos violenta, porém, através do uso massivo de inteligência, seria implacável, sutil e invisível, detectando rapidamente qualquer movimento ou padrão que signifique ameaça, muito antes de se tornar uma. Em termos de matriz de força será extremamente desproporcional, com todo poder ao vigilante e quase nenhum ao vigiado, um verdadeiro pesadelo para qualquer cidadão e qualquer democracia.

A intensidade e profundidade desta vigilância será limitada pela permeabilidade obtida pelo governo ditatorial junto às empresas de aplicações de Internet, operadores de rede, comunicação e segurança. Uma simples mudança de protocolo, ou instalação compulsória de dispositivos, burlariam qualquer restrição técnica ou legal deste acesso, por parte do governo.

Em termos práticos, seremos vigiados 24 horas por dia, sete dias por semana, inclusive à noite, enquanto dormimos. A intensidade e profundidade desta vigilância será limitada pela permeabilidade obtida pelo governo ditatorial junto às empresas de aplicações de Internet, operadores de rede, comunicação e segurança. Uma simples mudança de protocolo, ou instalação compulsória de dispositivos, burlariam qualquer restrição técnica ou legal deste acesso, por parte do governo.

No contexto atual, a mobilidade e o crescente desenvolvimento tecnológico, são os motores do sofisticado sistema de vigilância. Algumas das novas armas da ditadura serão a Análise de Redes Sociais (ARS), Homofilia, Psicometria, inteligência artificial, machine learning, muita mineração de dados, e construção de padrões por deep learning.  Em linhas gerais todo e qualquer cidadão brasileiro estaria suscetível a esta nova vigilância, dificilmente alguém estaria fora de seu alcance.

É um padrão de vigilância que você provavelmente nunca imaginou, nem nos seus piores pesadelos. Imagine que o governo saberá que você está lendo este texto agora, a partir de qual dispositivo, qual a sua localização, se existem outras pessoas próximas a você, quem são, e se estão acessando algum serviço on-line, ou mesmo assistindo TV.

Além disto, o governo, por conhecer seu perfil psicométrico, suas particularidades, princípios, valores, e sua rede de relacionamento, saberá valorar o texto que esta lendo, e como você o processará cognitivamente. O governo também saberá quais pessoas de sua rede de relacionamento leram o texto, e qual valor deram a ele, e quais interações se deram em torno dele.

Por falar em rede de relacionamento, estas poderão ser mapeadas, mesmo que nunca tenham sido configuradas explicitamente, mesmo que você nunca tenha adicionado determinadas pessoas em sua rede social, na sua agenda de telefones, e somente as tenha contatado pessoalmente, é possível pelas tecnologias atuais inseri-las em suas redes, simplesmente por estarem próximas a você, seguindo um padrão posicional.

Em linhas gerais, você não fará nada sem que o governo saiba, ele pode não estar focado em você, mas os seus dados estarão sendo coletados, tratados, comparados, transmitidos e armazenados.

O governo saberá o que você vê, lê, ouve, compra, com que frequência, e com quem se relaciona, por onde anda, onde trabalha, mora, estuda, se diverte, se tem carro, ou como se desloca no meio urbano, ou seja, saberá toda sua rotina. O governo também saberá sobre seu relacionamento, estado civil, orientação sexual, se tem um ou mais parceiros, DST, problemas e dificuldades de relacionamento. Também terá acesso a seus dados fisiológicos e de atividades físicas, se você utiliza smartwatch ou faz algum registro online destas atividades. Em linhas gerais, você não fará nada sem que o governo saiba, ele pode não estar focado em você, mas os seus dados estarão sendo coletados, tratados, comparados, transmitidos e armazenados.

Este padrão de vigilância trabalha sobre o big data, e não sobre o indivíduo, e o foco da vigilância se dará sobre os padrões, ou seja, se você adotar algum padrão comportamental suspeito, se algum local que você tenha estado, ou se alguém de algumas de suas redes de relacionamento estiver no foco da vigilância, todos da rede e/ou todos que estiveram no local também serão alvo de vigilância.

O governo lhe conhecerá melhor do que você mesmo, construirá padrões de previsibilidade, saberá quando um determinado padrão significa uma ameaça, de que tipo e intensidade, e agirá para impedir um ilícito que poderia ser cometido, lembrando que ilícito em uma ditadura é um conceito muito ambíguo.

Você também poderá ser preso, por exemplo, por curtir publicações sobre “patinho amarelo” ou sobre o cultivo de bromélias. Isto, simplesmente, porque eventualmente um padrão identificou que pessoas que seguem as publicações do “patinho amarelo” tem 46% de chances de serem “subversivas”, e se também curtem publicações sobre o cultivo de bromélias esta probabilidade aumenta para 86%.

Você poderá ser preso simplesmente por ter estado em determinado local, e próximo à uma das pessoas envolvidas, por algumas vezes. Você também poderá ser preso, por exemplo, por curtir publicações sobre “patinho amarelo” ou sobre o cultivo de bromélias. Isto, simplesmente, porque eventualmente um padrão identificou que pessoas que seguem as publicações do “patinho amarelo” tem 46% de chances de serem “subversivas”, e se também curtem publicações sobre o cultivo de bromélias esta probabilidade aumenta para 86%. Estes padrões não são tão simples assim, mas atendem à uma lógica, que humanamente não parece fazer sentido, são padrões criados por homofilia, que significa comparar pessoas e seus hábitos, estabelecendo uma lógica relacional, e são construidos através de sofisticados processos de machine learning e  deep learning, a partir de uma quantidade gigantesca de comparações.

As possibilidades vão além da vigilância, a tecnologia atual permite um sofisticado controle social, pois como praticamente toda interação com mediação tecnológica se dá através de sofisticados algoritmos, torna-se possível controlar a informação que chegará ao indivíduo, a visibilidade de seus grupos e amigos, ocultando ou exibindo estas informações de acordo com as intenções da ditadura.

As possibilidades vão além da vigilância, a tecnologia atual permite um sofisticado controle social, pois como praticamente toda interação com mediação tecnológica se dá através de sofisticados algoritmos, torna-se possível controlar a informação que chegará ao indivíduo, a visibilidade de seus grupos e amigos, ocultando ou exibindo estas informações de acordo com as intenções da ditadura. Esta prática distorcerá seu entendimento de senso comum, você poderá ter amigos extremamente ativos “subversivamente” e nem se dará conta disto, pois os algoritmos lhe apresentarão conteúdo e pessoas que estão de acordo com os interesses do governo.

Este controle social pode ir além das redes sociais e das ferramentas de busca, estamos cedendo nossa autonomia para os aplicativos, hoje o usamos até para saber a melhor rota para um caminho usual, ou qual o melhor restaurante perto, ou qual o par perfeito para você, além de outras atividades banais do dia-a-dia.

É importante lembrar que o governo também conhecerá em detalhes todas as suas fraquezas e vulnerabilidades, e as explorará em benefício próprio.

É importante lembrar que o governo também conhecerá em detalhes todas as suas fraquezas e vulnerabilidades, e as explorará em benefício próprio. Alias não só as suas, mas também as fraquezas e vulnerabilidades dos grupos que pertence, e as exploraria da mesma forma, inclusive produzindo harmonia e discórdias quando necessário através da interação com os algoritmos.

Este poder existe, mas está contido e distribuído. A pesquisadora Cathy O’Neil chama de cardeais dos algoritmos, aqueles que detém o controle dos complexos algoritmos e gigantescas bases de dados de indivíduos, ou seja, a “biomassa humana” nas palavras de Maria Wróblewska. Como dito, este poder esta contido e distribuído, o Facebook e o Google por exemplo detém o controle sobre suas “biomassas humanas”, mas utilizam recursos como trackers, pixels e parcerias para romper, mesmo que parcialmente estas barreiras. Desta forma por exemplo, você recebe publicidade de um item recém pesquisado na Internet em seu Facebook. Se o governo ganhar o acesso amplo a todas estas redes, tornando-se um “mega cardeal do algoritmo”, se tornará praticamente um deus, com amplos poderes sobre os indivíduos, e como dito anteriormente, este poder pode ser tomado, facilmente em um regime de exceção.

Todo este controle, permitirá à ditadura perpetuar-se por anos, décadas, sem que nada venha ameaça-la, a não ser que as forças “subversivas” consigam desvencilhar-se deste complexo organismo de vigilância.  Apesar de assustador, este cenário é extremamente real e possível, com os recursos tecnológicos atuais.

A vigilância do século XXI

Para que você consiga compreender o cenário, é necessário mudar completamente o seu conceito de vigilância, que é o que tentarei nos próximos parágrafos.

Quando se fala em vigilância, logo vem a mente a imagem de uma câmera, com alguém observando atrás dos monitores. Sistemas de vigilância são naturalmente vistos desta forma, com centrais cheias de telas, e pessoas de olho nestas telas. É um modelo obsoleto, ineficiente, e está fadado a desaparecer em poucos anos, sendo substituído por uma “vigilância cega”.

Sala de vigilância com dezenas de telas e centenas de janelas

O modelo de vigilância do Panóptico de Benthan, descrito por Foucault em “Vigiar e Punir“,  é similar ao modelo de vigilância da obra distópica 1984 de George Orwell, representada pela “teletela”, um dispositivo que ao mesmo tempo em que funcionava como uma TV com programação exclusiva do “partido”, servia de olhos e ouvidos para o “Grande Irmão”. O modelo panóptico baseia no par ver ser visto, a partir de um ponto de observação central, tendo o vigilante ampla visão do vigiado, e este nenhuma visão do vigilante, presumindo estar sendo vigiado. O Panóptico descrito por Foucault, por esta premissa, torna-se mais um instrumento de controle, do que propriamente vigilância. Um controle leve, eficiente, sem grades, invisível, e pela pressuposição de estar sendo vigiado.

O panóptico, que representa o modelo de vigilância vigente até o século XX, tornou-se obsoleto no século XXI. Zigmunt Bauman em “Vigilância Líquida” apresenta o conceito do “panóptico pessoal”, em que o indivíduo torna-se vigilante de si e de seus pares, e cada um carrega seu próprio Panóptico, materializado por Bauman como seus smartphones e dispositivos conectados. O que Bauman descreve, dialoga com o que Fernanda Bruno, em “Máquinas de ver, Modo de Ser. Vigilância Tecnologia e Subjetividade“, descreve como “Vigilância Distribuída”, que tira a centralidade da vigilância, principal característica do panóptico. A Vigilância Distribuída se dá a partir de vários dispositivos conectados, e não somente por um, configurando o que classifico como meta dispositivo de vigilância, que são dispositivos interconectados, como por exemplo, um smartphone conectado a um smartwatch.

O advento do big data substituiu o modelo panóptico pelo panspectro. O panspectro é uma expressão cunhada por Manuel DeLanda em 1991, no livro “Guerra na era das máquinas inteligentes”, e posteriormente usado por Sandra Braman no livro “Change of State – Information, Policy, and Power“. O foco do panspectro não é o indivíduo em particular, ele esta focado nos dados, em todos os dados, e sua ação focal se dá em resposta à padrões, como já foi descrito anteriormente. A mineração dos dados, o uso de machine learning e deep learning, configuram a vigilância cega, uma vigilância com foco em padrões onde sua visibilidade se torna necessária apenas como resposta à padrões desviantes ou ressonantes, estes dados são coletados através dos dispositivos e meta dispositivos de vigilância.

Dispositivos e meta dispositivos, pela perspectiva da Vigilância Distribuída, configuram um complexo Organismo de Vigilância, onde cada um representa um dos bilhões de nós deste organismo.  É como se estivéssemos literalmente imersos em um mega dispositivos de vigilância com alta capilaridade e invisível. São smartphones, tablets, computadores, smartwatch, wearables, câmeras de vigilância, drones, RFID, redes abertas, redes de telefonia móvel,  e qualquer outro dispositivo tecnológico conectado, doravante conhecido por “dispositivo”.

Para você ter uma ideia do potencial de vigilância dos dispositivos, os smartphones mais populares, como o iPhone e o Galaxy S possuem sensores como GPS, beacon (que são sensores que identificam a proximidade de outros dispositivos), altímetro barométrico, acelerômetro, giroscópio, sensor de proximidade e de luz ambiente, assistente inteligente, microfone, alto falante, câmera frontal e traseira, e alguma forma de identificação biométrica. Além de possuírem conectividade por Wi-fi, Bluetooth, 3G e 4G. Estes dispositivos estão na maioria das vezes coletando dados, de forma involuntária, e muito caros ao indivíduo e sua privacidade.

Temos hoje um organismo de vigilância com mais de 12,3 bilhões de dispositivos, ou seja, 1,6 dispositivos por habitante do planeta.

Em termos de grandeza concreta, segundo o Internet World Stats, em Dezembro de 2017, 4,1 bilhões de pessoas tinham acesso a Internet, considerando que o relatório da Cisco projeta que em 2020, existirão em média 3,4 dispositivos conectados à Internet por usuário, e considerando a média de 3 dispositivos, temos hoje um organismo de vigilância com mais de 12,3 bilhões de dispositivos, ou seja, 1,6 dispositivos por habitante do planeta, considerando a população atual em 7,7 bilhões, sem contar os demais dispositivos de vigilância como câmeras, drones, e outros, e sem esquecer que cada dispositivo pode ter vários sensores.

Dificilmente damos conta que carregamos conosco um dispositivo de vigilância tão poderoso, a ponto de muitos ativistas chama-los de “dispositivo de vigilância que permite fazer ligações telefônicas”.  Eles nos rastreiam mesmo quando não estamos conectados à Internet, como demonstra esta matéria da Fox News.

Mas não são somente estes os dispositivos e tecnologias que podem acabar literalmente com a nossa privacidade, em caso da instalação de uma ditadura no país. Nossos hábitos na internet também produzem dados sobre nós, além das relações mediadas por algoritmos, são cookies, trackers, remarketing que capturam dados sobre nós.

O Facebook, por exemplo, faz uso de trackers para saber o que você faz na Internet, quando não esta nele, mas também usa dados do WhatsApp e Instagram, por serem empresas do mesmo grupo. Na verdade o Facebook e o Google são a mais clara representação do que Shoshana Zuboff chama de capitalismo de vigilância. Este complexo mecanismo de captura, coleta, tratamento, analise e armazenamento de dados chamado Facebook, foi explorado em profundidade pelo ShareLab, e descrito em forma de monólogo pela Panoptykon Foundation, no vídeo a seguir.

Como pode perceber, não podemos pensar em um modelo de vigilância e controle no século XXI, com a mente do século XX, o formato e conceito de vigilância mudaram. Do Panóptico de Foucault, onde primava o par ver ser visto, ao Panspectro de Braman, onde prima a coleta indiscriminada de dados, e a vigilância se manifesta em respostas a padrões. Os dados que produzimos podem dizer muito mais sobre nós do que a simples vigilância. O modelo atual, representado na figura abaixo, tem as características visuais do Panóptico, mas apenas como elemento complementar ao vasto potencial de vigilância do Panspectro.

Modelo de vigilância do século XXI

Vamos tomar por exemplo um caso real, o Norte Shopping, no Rio de Janeiro. Este shopping instalou um moderno sistema de câmeras de segurança que faz o reconhecimento facial de todos que transitam em seu interior, o que possibilitou inclusive a prisão de dois criminosos procurados. O sistema, segundo a empresa que o fornece, como descrito na matéria, faz o reconhecimento facial do indivíduo e o compara com um banco de dados.

Imagine então que você entre neste shopping, o sistema irá fazer uma leitura da sua face, sem que você perceba, em seguida consultará uma base de dados, e se não encontrar registro, irá criar um novo com o modelo matemático de sua face, dando o identificador hipotético “IND18A7F8E7”. O sistema então passa a registrar seu deslocamento dentro do shopping, por onde andou, em que lojas parou para ver a vitrine, em quais entrou, quanto tempo demorou, etc.  Tudo isto é feito sem nenhuma interação humana, mas tudo fica registrado, eu suponho.

Neste momento você pega seu smartphone e resolve conectar à rede wifi do shopping, que em geral pede dados cadastrais como nome, cpf, e número de telefone para conceder o acesso. Supondo que os sistemas sejam interligados, a partir deste ponto, utilizando a triangulação dos pontos de acesso wifi, sua posição pode ser determinada, e comparada com a posição do registro da câmera de vigilância, associando seus dados ao usuário IND18A7F8E7. Novamente lembramos que tudo é feito sem nenhuma interação humana.

Agora imagine, em uma ditadura, que sistemas como estes sejam interligados, e os dados sejam acessados pelo governo. Mesmo que você não esteja carregando nenhum dispositivo, sua identificação será possível por sistemas deste tipo.

Alias não precisamos ir muito longe, ainda no Rio de Janeiro, a CodingRights fez um estudo sobre o bilhete único carioca, e chegou a conclusão que os dados dos usuários, inclusive os biométricos de reconhecimento facial, são compartilhados com a polícia e a secretaria municipal de transportes. Imagine então que nem no ônibus é possível viajar incógnito.  Junte a estes sistemas de reconhecimento de placas de automóveis, que possuem câmeras espalhadas pela cidade, a nova placa com chip e QR Code, e seu carro poderá ser rastreado, os limites da vigilância não terminam ai.

Estamos há anos trocando nossa liberdade, nossa privacidade e autonomia pelo conforto da tecnologia, e pela segurança que esta proporciona, o preço desta prática só será percebido quando em uma ditadura nos tornarmos prisioneiros dela.

Atualizações

Noticias, estudos e fatos que dialogam com este ensaio.

Bancos e lojas pagam até R$ 4,70 por acesso a dados do seu rosto

Matéria publicada no UOL em 06/08/18

“O banco de dados utilizado pela Certibio tem 70 milhões de cadastros. Isso porque ela usa as informações armazenadas pelo Serviço de Processamento de Dados (Serpro), empresa pública responsável por alguns serviços de tecnologia da administração federal. Entre eles está o processamento da declaração do Imposto de Renda e a autenticação facial – basicamente, ela confirma se um rosto pertence a uma pessoa ou não.”

“A base do Serpro possui 70 milhões de registros biométricos e biográficos únicos, fornecidos pelo Departamento Nacional de Trânsito (Denatran) partir das informações das carteiras de motoristas.”

Bibliografia

BAUMAN, Z. Vigilância Líquida. In: MEDEIROS, C. A. (trad.). [s.l.]: Zahar, 2014. 160 p. ISBN: 978-8537811566.

BRAMAN, S. Change of State – Information, Policy, and Power. Nature Publishing Group. London, England: The MIT Press, 2006. 570 p. ISBN: 9780262025973.

BRUNO, F. Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. 1 ed. Porto Alegre: Sulina, 2013. ISBN: 9788520506820.

FOUCAULT, M. Vigiar e Punir o nascimento da prisão. 29 ed. São Paulo: Editora Vozes, 2004. 266 p. ISBN: 8532605087.

O’NEIL, C. Weapons of Math Destruction, How big data increases inequality and threatens democracy. New York: Crown Publishing Group, 2016. 307 p. ISBN: 9780553418828.

ORWELL, G. 1984. In: JAHN, H. ‎; HUBNER, A. (trads.). [s.l.]: Companhia das Letras, 2009. 416 p. ISBN: 978-8535914849.

WRÓBLEWSKA, M. Monologue of the Algorithm: how Facebook turns users data into its profit. Panoptykon Foundation. 2018. Disponível em: <https://en.panoptykon.org/articles/monologue-algorithm-how-facebook-turns-users-data-its-profit-video-explained>. Acesso em: 24/ago./18.

ZUBOFF, S. Big other: Surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, [s.l.], v. 30, no 1, p. 75–89, 2015. ISBN: 02683962, ISSN: 14664437, DOI: 10.1057/jit.2015.5.

Seus dados são você, Facebook

Câmeras de vigilância em uma esquina

Como os dados que você compartilha involuntariamente permitem ao Facebook lhe conhecer melhor que você?

Quando falamos em privacidade e dados pessoais, logo lembramos de dados como endereço, telefone, numero do RG, CPF, estado civil, fotografias, emprego, e outros dados assim. Estes dados são concretos, cadastrais, seus usos são objetivos, seus documentos podem ser clonados, criminosos podem abrir empresas e cometer crimes com eles, suas fotos podem ser manipuladas, alguém pode lhe surpreender na porta de casa ou trabalho, mas tudo isto está bem claro no mundo material do século XX.

Não podemos continuar pensando no século XXI com a mente do século passado, estes dados pessoais são os menos relevantes, como as consequências de seu uso por terceiros são concretas e objetivas, é possível mensurar os danos estabelecer uma certa contingência e/ou reparação.

Os dados subjetivos

A maior parte dos dados que produzimos são subjetivos, e também são os dados que mais dizem sobre nos. Seu CPF ou seu RG não irão revelar seu perfil psicológico, seus gostos e interesses, por exemplo, mas seu uso diário das redes sociais sim.

Um click, um like, um love ou um share, são dados que você produz sobre a sua subjetividade, você não deve imaginar, mas são estes seus dados mais preciosos. Estes dados permitem ao Facebook ou o Google por exemplo, lhe conhecer melhor que você mesmo, e faturar bilhões de dólares com eles.

Reprodução do artigo Computer-based personality judgments are more accurate than those made by humansReprodução do artigo “Computer-based personality judgment are more accurate than those made by humans

No artigo “Computer-based personality judgment are more accurate than those made by humans” a autora Wu Youyou, e os autores Michal Kosinski, e David Stillwell fizeram um estudo com mais de 80.000 voluntários, e chegaram a conclusão, descrita no gráfico acima, de que um pouco mais 10 likes permitem ao Facebook lhe conhecer melhor que seu colega de trabalho, 70 likes mais que um amigo, com 100 likes ele pode lhe conhecer melhor que a média humana, e 300 likes permitem o Facebook lhe conhecer melhor que sua ou seu parceira(o) de vida.

Talvez você ainda não tenha percebido a devida dimensão, então imagine que sua esposa ou seu marido sabem como lhe alegrar, ou lhe irritar, inclusive que tipo de estímulos podem ser mais ou menos intensos nesta empreitada, sabe como lhe persuadir, ou quando você está tentando persuadi-la. É um nível de conhecimento do outro muito profundo, em geral levamos anos de vida conjunta para desenvolve-lo. Mas para o Facebook, bastam meros 300 likes.

São dados como estes que a Cambridge Analítica teve acesso, mas não só ela, aqueles inúmeros testes do Facebook como o famoso: “Qual seria sua aparência se fosse do sexo oposto”. Alias as empresas que oferecem estes testes no Facebook podem estar vendendo seu perfil psicométrico por ai, imagine agora nas eleições.

Reprodução

Se você ainda não está convencido(a) então sugiro que faça o teste do Centro de Psicometria da Universidade de Cambridge, pode fazer sem medo, é um projeto acadêmico sério com uma estrita política de privacidade, e que vai lhe surpreender.

Como meus likes podem dizer tanto sobre mim?

Os dados que você produz voluntária e involuntariamente, junto com os dados produzidos da mesma forma por bilhões de outras pessoas configuram o que é conhecido por big data. Quanto mais dados produzimos, mais precisos são os perfis e avaliações que a mineração do big data produz sobre nos, em breve teremos um nível de precisão nas ciências humanas próximo ao das exatas.

Este processo de mineração de dados chama-se modelagem, diferente da estatística, a modelagem requer uma amostra no mínimo 10 vezes superior, na verdade quanto maior a amostra melhor. Como destaca a pesquisadora Fernanda Bruno, o capitalismo de dados embaralha a fronteira entre o laboratório e a vida real.

O capitalismo de dados que se impõe com as redes sociais embaralha as fronteiras entre o laboratório e a vida social, política e subjetiva. (Fernanda BRUNO, 2018)

A modelagem se dá inicialmente por testes e mapeamento de dados conhecidos, até mesmo por testes com papel e caneta. Explicando de maneira bem simplificada, o pesquisador realiza o teste dos cinco fatores (neuroticismo ou instabilidade emocional, extroversão, agradabilidade, conscienciosidade e abertura para a experiência) com milhares de voluntários.

Estes cinco elementos permitem definir os traços de personalidade do indivíduo com grande precisão, ainda que com foco em estereótipos. Uma vez obtido o resultado de milhares de testes feitos diretamente com os voluntários, é a hora do machine learning (aprendizado de máquina). Através de um conjunto de algoritmos (programas de computador) executam inúmeras análises dos dados, no nosso exemplo do Facebook, em busca de padrões para cada traço e fator de personalidade, comparando os padrões encontrados na rede com os resultados do teste de cinco fatores.

Ao contrário do que se costuma imaginar os padrões não seguem à nenhuma lógica humana previsível, engana-se quem pensa que uma pessoa que curtiu a página do candidato de direita ou de esquerda possui a mesma tendência, muitas vezes um like em uma página que não tem nenhuma relação com política pode dizer muito mais. Foi o que descobriu a cientista da computação Jennifer Golbeck, que demonstra nesta palestra do TED, você não faz ideia do que estas batatas enroladinhas podem revelar…

https://www.ted.com/talks/jennifer_golbeck_the_curly_fry_conundrum_why_social_media_likes_say_more_than_you_might_think?language=en\

Uma vez que os padrões são descobertos e confirmados, o processo inverso é possível, ou seja, ao conectar-se a sua conta do Facebook, o algoritmo em questões de segundos analisa seu padrão de “likes” compara com os padrões que ele possui, e obtem seu perfil psicométrico.

Mas a questão não acaba aqui, este assunto é mais profundo e complexo, minha pesquisa atualmente vai muito além do que foi dito, e tenho certeza de que nem cheguei na metade do caminho.

Espero que tenha sido esclarecedor para você, mais textos como este serão publicados aqui, faça a sua parte, divulgue, avise às pessoas como a privacidade delas pode ser invadida com tanta facilidade.

Bibliografia

ADALI, S.; GOLBECK, Jennifer. Predicting personality with social behavior: a comparative study. Social Network Analysis and Mining, [s.l.], v. 4, no 1, p. 159, 2014. ISSN: 1869-5450, DOI: 10.1007/s13278-014-0159-7. Disponível em: http://link.springer.com/10.1007/s13278-014-0159-7

BRUNO, F. A economia psíquica dos algoritmos: quando o laboratório é o mundo – Nexo Jornal. Nexo Jornal. 2018. Disponível em: https://www.nexojornal.com.br/ensaio/2018/A-economia-psíquica-dos-algoritmos-quando-o-laboratório-é-o-mundo. Acesso em: 12/jun./18.

WU, Youyou; KOSINSKI, Michal; STILLWELL,David. Computer-based personality judgments are more accurate than those made by humans. PNAS, 112 N4: 1036–1040, 2015. doi: doi/10.1073/pnas.1418680112. Disponível em: http://www.pnas.org/content/112/4/1036/tab-article-info

Dialética da empregabilidade

Na última semana de Abril, dois assuntos completamente distintos disputaram espaço e importância na minha mente. Enquanto fazia uma profunda reflexão existencial, também procurava o “fio da meada”, para escrever um pequeno texto sobre perspectiva critica. Esta combinação improvável terminou por proporcionar uma interessante abordagem prática da questão existencial a partir de uma perspectiva crítica.

Passar dos 50 anos é uma condição que invariavelmente leva à uma profunda reflexão. Primeiro, você tem quase certeza de que viveu mais da metade de sua vida; segundo, você percebe que está muito bem física e intelectualmente, diferente do estereótipo que sempre acreditou. Decidi colocar isto a prova reinventando-me: Mestrado, recondicionamento físico e estético estão se desenvolvendo, a empregabilidade parece ser o maior desafio, e tem ocupado boa parte do meu tempo. Quase sempre fui empresário ou profissional independente, atualmente independente até de clientes, o que tem me levado a encarar o novo desafio de buscar um emprego.

A práxis do modelo de empregabilidade

A despeito de ter participado de alguns processos seletivos, minha abordagem da empregabilidade sempre se deu pela ótica do contratante, neste processo as histórias dos candidatos sempre pareceram valer mais do que um belo currículo. Com esta perspectiva iniciei uma jornada, marca pessoal, perfil detalhado no LinkedIn, e um currículo que no modo compacto tinha cinco páginas. Não demorou muito para me perceber totalmente fora do padrão, este processo mudou, e muito, tornando necessário compreender o processo e encontrar o centro da questão. Parodiando Marx, para entender a nova empregabilidade é preciso entender o “produto” pela perspectiva do recrutador.

Hoje, o volume de candidatos por vaga chega facilmente à casa de centenas, quando não milhares; ler ou ouvir suas histórias se tornou impossível, a automatização e impessoalidade nas primeiras fases do processo seletivo parecem ter arrancado a humanidade do indivíduo. Seu currículo é submetido a um sistema ATS, onde as palavras-chave adequadas são mais importantes que descrições bem elaboradas; aliás, é preciso tirar do texto palavras que possam ser interpretadas de forma equivocada pelo algoritmo.

A força de trabalho nunca teve um perfil tão claro de mercadoria. Para Marx, a força de trabalho era a única mercadoria que poderia ser trocada por uma pequena parcela de capital, a remuneração, possibilitando ao proletário adquirir bens e serviços necessários à sua subsistência. Hoje em dia a força de trabalho segue estritas especificações, inúmeras certificações, para praticamente tudo, e até mesmo as habilidades são qualificadas e certificadas, é a mercantilização de todo o processo, não basta ter formações e competências, é preciso comprar suas comprovações.

A cada dia busca-se uma forma de parametrizar o sujeito, de modo a despi-lo de sua individualidade e relativizar sua essência, para assim transforma-lo em um produto passível de comparação, de forma objetiva, por algoritmos. A práxis deste processo leva a identificação de um modelo de empoderamento do algoritmo e anulação do indivíduo, mercantilizando os rótulos e especificações que serão aplicadas a ele enquanto produto a ser adquirido, muitas vezes sem a descrição de valor adicionado.

Paradoxos da inovação

Enquanto a primeira fase do recrutamento é automatizada e impessoal, pela leitura das “especificações” do candidato, o mercado tem demandado profissionais mais inovadores, com mais autonomia e “visão do chefe”. Para enfrentar este paradoxo, um grupo de empresas de tecnologia e diversas universidades americanas criaram a ISSIP (International Society of Service Innovation Professionals) e junto com ela a figura dos profissionais T-shaped, que segundo Dermikan (2015) são profissionais que possuem um profundo conhecimento em uma área, empatia, experiência horizontal transcultural, e de diferentes níveis dentro da estrutura empresarial. Em linhas gerais Dermikan descreve os “shapes” como metáforas para as dimensões de conhecimentos e habilidades, do trabalhador.

Isto não basta para ser um profissional em inovação ou inovador, o T-shaped é no máximo um profissional de boas ideias, digo isto porque inovação é o meu foco profissional, e a perspectiva é muito mais complexa do que I,T ou H shaped. O inovador precisa da habilidade de relacionar seu conhecimento de forma transdisciplinar, e ter a habilidade de trafegar em torno do objeto, transportando-se entre diferentes perspectivas para analisa-lo, inclusive o colocando dentro de diferentes contextos. Por uma perspectiva Kantiniana, o inovador tem a habilidade de trafegar por diferentes estruturas, existentes ou hipotéticas, alterando desta forma a percepção do objeto, inclusive negando-o.

Obsoletos e antiquados

A força de trabalho segue ainda outra lógica do mercado, a do produto novo ou semi-novo, é necessário ter experiência, conhecimento, habilidades, competências certificadas, e ser T-shaped, e ainda assim não ter mais de quarenta anos. Uma força de trabalho modelo 60 ou 70, com ampla experiência, “multi-shaped”, em perfeito funcionamento, não possui mais valor, é relegada a trabalhos menos importantes. Este é um estereótipo construído por uma mentalidade obsoleta, antiquada e descontextualizada, que descrevo de forma crítica em outro texto. Na prática, o mercado busca no profissional jovem, muitas características de um profissional sênior.

Vivenciamos, desta forma, a verdadeira concepção bancária de Paulo Freire (2014), neste caso o conhecimento, habilidades e competências para inovação são literalmente depositadas na mente do profissional, de forma bem sistemática, para suprir, com grande deficiência, a ausência de experiência que permitiria a construção cognitiva deste saber depositado.

Mate sua essência

Dentre tanta padronização e parametrização, a força de trabalho se vê obrigada a anular sua essência, construindo personas nas redes sociais e na Internet, moldando uma imagem que na maioria das vezes não é sua, é uma hipocrisia moralmente aceita e desejada pelo mercado. Em tempos de vigilância líquida e distribuída, tem se tornado cada vez mais difícil ao indivíduo fingir ser quem ele não é.

Definitivamente desisti de tentar me enquadrar neste formato, não dá para não ser critico, analítico, ver tanta injustiça, ver uma sociedade adoecendo e simplesmente fingir que nada está acontecendo. Teria de ser muito egocêntrico para permanecer alheio ao mundo que me cerca, necessito compreender todo contexto em torno de cada fato ou objeto, simplesmente acreditar nos fatos e dados sem os questionar exaustivamente, sem entender qual sua importância no contexto dado, nos contextos correlatos, no macro contexto, é para mim impossível. Minha natureza é transformadora, teria de matar minha essência para me enquadrar neste modelo. No modelo onde a perspectiva crítica é indesejada, o mercado não quer profissionais questionadores e/ou com posições políticas e ideológicas pronunciadas, sejamos hipócritas.

A síntese

O processo dialético da empregabilidade, nos leva através da práxis a identificar um divisor na força de trabalho. Por um lado a maior parte submete-se a estas premissas, tornando-se um “produto” aceitável, e com grande penetração no mercado, e outros relutam a seguirem esta lógica, configurando possivelmente uma nova linha de produto na força de trabalho, o trabalhador humano, “ousado”, e com grande valor adicionado.

O novo contexto, e a nova antítese

A despeito do contexto nacional, o próprio capitalismo, caminha para o rompimento da lógica capital x trabalho, com o crescimento da robotização física e intelectual através de algoritmos, cada vez mais complexos, permitindo ensinar máquinas (machine learning), e dar a elas a capacidade cognitiva (deep learning) para continuar processando o conhecimento, substituindo de forma veloz a força de trabalho. Já não há emprego para todos, e a situação tende a piorar. Uma das saídas é adotar a renda universal, mantendo assim o regime da troca de bens e serviços por dinheiro, e abstendo da necessidade de trocar a força de trabalho por ele.

Quanto à empregabilidade, neste futuro projetado, provavelmente valorizará o caráter humano, justamente a essência do indivíduo que hoje se quer anular, pois para as atividades mecanizadas e padronizadas teremos os robôs e algoritmos. Este cenário pode levar a uma completa disruptura com o modelo de empregabilidade atual.


Bibliografia

ARAUJO, C. A. Ávila. Teoria crítica da informação no Brasil: a contribuição de Armand Mattelart. [s.l.], v. 3, no. 3, p. 112–119, 2009. DOI: 10.3395/reciis.v3i3.285pt.

DEMIRKAN, H.; SPOHRER, J. T-Shaped Innovators: Identifying the Right Talent to Support Service Innovation. [s.l.], v. 58, no. 5, p. 12–15, 2015. DOI: 10.5437/08956308×5805007.

FREIRE, P. Pedagogia do oprimido. In: . [s.l.]: Editora Paz e Terra, 2014. ISBN: 9788577532285.

MARX, K. A ideologia alemã. In: . [s.l.]: Boitempo Editorial, 2015. ISBN: 9788575591956.


Publicado originalmente no Medium em 30/06/2018

Precisamos nos desconectar do Facebook!

Me desconectei por 15 dias e foi uma experiência incrível…

O smartphone nos transformou efetivamente em ciborgues, temos em nossa mão um dispositivo computacional de alta eficiência e equipado com câmera de foto e vídeo, microfone, GPS, acelerômetro, giroscópio, magnetrômetro, sensores de luz e proximidade, além de outros recursos que permitem a criação de aplicativos cada vez mais úteis, impressionantes e viciantes.

Continue lendo “Precisamos nos desconectar do Facebook!”