A entrada em vigor do Regulamento Geral de Proteção de Dados na União Europeia e a recente aprovação pelo Senado brasileiro do projeto de lei sobre proteção de dados pessoais ressaltaram as inquietações que a data driven economy vem gerando sobre os direitos da personalidade. A discussão mais comum e frequente tem ocorrido em torno da privacidade ou do controle sobre os dados pessoais, muitas vezes coletados de forma ilícita, sem a ciência e a autorização informada dos titulares.

A partir de tais dados, que são os verdadeiros insumos da nova economia, algoritmos conseguem transformá-los em informações economicamente úteis, mas que podem provocar verdadeira devassa na vida privada dos usuários. São exemplos os algoritmos que identificam a orientação sexual a partir do reconhecimento facial, os que decifram emoções a partir da medição de ondas cerebrais, os que diagnosticam crises depressivas e outros transtornos antes mesmo da manifestação de qualquer sintoma médico. É assustador imaginar o tipo de destinação que pode ser atribuída a tais recursos caso não haja nenhum tipo de controle, preocupação que é potencializada com o machine learning.

Uma coisa é certa: algoritmos têm assumido o papel de fazer diagnósticos, julgamentos, classificações e rankings a respeito dos usuários que, embora não necessariamente corretos, serão utilizados pelos próprios agentes econômicos que os exploram e também cedidos para os seus parceiros de negócios em uma infinidade de aplicações que estão fora do alcance da imaginação do cidadão comum.

O problema é que esses julgamentos algorítmicos podem ter impactos diretos nas oportunidades e nas opções de vida dos usuários, pois deles dependerá o acesso a empregos, crédito, seguro e uma série de outros serviços. Por essa razão, a utilização dos dados não diz respeito apenas a problema de violação da privacidade, mas envolve outras relevantes discussões, como o direito de não ser julgado ou categorizado para determinados fins ou o direito de não ser julgado ou categorizado com base em determinados critérios.

A gravidade da situação aumenta quando não se tem nem mesmo como avaliar o potencial danoso de algoritmos, que normalmente se baseiam em dados, correlações e critérios de inferência sigilosos e sem qualquer transparência, que podem ser incorretos ou falsos, e que ainda podem ser utilizados para lastrear correlações que não correspondem a causalidades. Mais grave ainda, podem reproduzir correlações que sejam frutos de discriminações e de uma série de injustiças da vida social.

É por esse motivo que Cathy O`Neil[1] refere-se aos algoritmos como armas matemáticas de destruição, na medida em que, longe de serem neutros e objetivos, embutem em seus códigos uma série de decisões e opiniões que não podem ser contestadas, até porque não são conhecidas. Daí o seu potencial de destruição silenciosa, na medida em que podem basear seus julgamentos em preconceitos e padrões passados que automatizam o status quo e ainda podem ser utilizados para toda sorte de discriminações e violações de direitos.

A falta de transparência é reforçada quando se sabe que tais algoritmos são aperfeiçoados a partir da inteligência artificial, por meio da qual, com a aprendizagem de máquina (machine learning) e com as redes neurais artificiais, mais e mais algoritmos se desenvolvem independentemente, aprimorando a si mesmos e aprendendo com os próprios erros. Como bem resume Harari[2], com a inteligência artificial, o algoritmo “segue o próprio caminho e vai aonde humanos nunca foram antes – até onde nenhum humano pode segui-lo”.

Daí o fundado receio de que dados e correlações manejados por algoritmos possam estar sendo utilizados como veículos de manutenção de discriminações e injustiças, preservando os padrões do passado – ainda que equivocados – ao mesmo tempo em que comprometem as possibilidades do futuro.

Logo, além dos riscos à privacidade e ao controle sobre os dados pessoais, é o próprio presente e o futuro das pessoas que pode estar sendo definido pelos algoritmos, sem que se tenha a possibilidade de conhecer e criticar os dados e correlações que alimentam seus processos decisórios.

Sob essa perspectiva, para o adequado endereçamento do problema, talvez não seja suficiente apenas uma lei de proteção de dados, embora esta seja certamente uma das providências mais importantes nessa seara, até para definir o que pode ser considerado dado pessoal. Há que se verificar igualmente a compatibilidade da utilização dos dados diante do Direito Constitucional, do Direito da Concorrência e do Direito do Consumidor, dentre outros.

Mais do que isso, há que se indagar sobre o grau e os mecanismos de transparência e accountability que se exigirão dos agentes empresariais que se utilizam de algoritmos para compreender e categorizar usuários para os mais diversos fins, o que traz impactos para a sua identidade pessoal – já que podem estar sendo definidos e classificados de forma equivocada – bem como para as oportunidades e opções de vida desses usuários, as quais podem estar sendo indevidamente restringidas em razão de diagnósticos apressados ou claramente equivocados.

Ainda há que se analisar outro preocupante efeito da destinação dos dados pessoais: é que todo o conhecimento sobre os usuários ainda pode ser utilizado para, associado ao poder da comunicação e aos estudos da biologia, neurociência e psicologia, manipular as pessoas, bem como tentar modificar suas crenças e opiniões.

Como explica Tim Wu[3], a partir do momento em que atenção se torna comoditizada, o tempo em que as pessoas passam em determinadas plataformas passa a ser importante fator não apenas para sujeita-las à publicidade e à coleta dos seus dados, mas também para sujeitá-las a estratégias que visam influenciar e alterar suas preferências e visões de mundo[4]. É por essa razão que Tim Wu sustenta que o verdadeiro negócio de muitas das indústrias da nova economia é o de influenciar consciências.

Vista a questão por esse ângulo, a tecnologia pode estar sendo utilizada contra aquilo que temos de mais precioso: a nossa individualidade. A partir do momento em que as máquinas conseguem nos conhecer melhor do que nós mesmos, podem utilizar nossas fragilidades para manipular nossas emoções, crenças e opiniões para os mais diversos fins, inclusive políticos. Aliás, as eleições de Donald Trump e do Brexit ilustram bem tal preocupação.

Como bem afirma Castells[5], a forma mais fundamental de poder é a de moldar a mente humana. No mesmo sentido, Martin Moore[6] destaca que as grandes plataformas adquiriram enorme poder de influenciar a ação coletiva e mesmo o voto das pessoas.

Ora, se o mais importante instrumento de poder em uma sociedade tecnológica e informacional é a capacidade de influenciar e manipular as pessoas, é fácil concluir que os principais riscos da nova economia vão muito além da violação à privacidade dos usuários, alcançando a identidade pessoal, a própria liberdade e, consequentemente, a cidadania e a democracia.

Como se procurou demonstrar ao longo do artigo, a coleta de dados e a sua utilização pelos diversos agentes da economia movida a dados vem colocando a personalidade sob um triplo risco: (i) a coleta em si dos dados, o que já seria preocupante do ponto de vista da privacidade e do controle dos dados pessoais; (ii) a utilização dos dados para a construção de julgamentos a respeito dos usuários que, corretos ou não, podem causar diversos danos a estes conforme os fins a que se destinam, limitando o acesso a produtos, serviços e oportunidades de vida e (iii) a utilização dessas informações com o propósito de manipular os próprios usuários, para os fins mais diversos, inclusive políticos.

Logo, o manuseio dos dados enseja preocupações que vão muito além da privacidade e do controle sobre os dados pessoais dos usuários: na verdade, o que está em jogo é a manutenção de valores como a identidade pessoal, a liberdade, as oportunidades e perspectivas do presente e do futuro das pessoas e a própria democracia.

  1. Op.cit.
  2. HARARI, Yuval Noah. Homo Deus: uma breve história do amanhã [edição eletrônica]. São Paulo: Companhia das Letras, 2016.
  3. WU, Tim. The attention merchants: the epic scramble to get insideour heads. Nova Iorque: Knopf, 2016.
  4. Ver: FRAZÃO, Ana. Prefácio. In: FERNANDES, Ricardo Vieira de Carvalho; COSTA, Henrique Araújo; PRATA DE CARVALHO, Angelo Gamba. Tecnologia jurídica e direito digital. Belo Horizonte: Fórum, 2018.
  5. CASTELLS, Manuel. O poder da comunicação. Tradução Vera Lucia Joyceline. Rio de Janeiro/São Paulo: Paz e Terra, 2015.
  6. MOORE, Martin. Tech Giants and Civic Power. https://www.kcl.ac.uk/sspp/policy-institute/cmcp/tech-giants-and-civic-power.pdf. Acesso em 14.06.2018.
Advogada e Professora de Direito Civil e Comercial da Universidade de Brasília – UnB. Ex-Conselheira do CADE – Conselho Administrativo de Defesa Econômica (2012-2015). Ex-Diretora da Faculdade de Direito da Universidade de Brasília (2009-2012). Graduada em Direito pela Universidade de Brasília – UnB, Especialista em Direito Econômico e Empresarial pela Fundação Getúlio Vargas – FGV, Mestre em Direito e Estado pela Universidade de Brasília – UnB e Doutora em Direito Comercial pela Pontifícia Universidade Católica de São Paulo – PUCSP. Líder do GECEM – Grupo de Estudos Constituição, Empresa e Mercado.