Economia de Serviços

um espaço para debate

Tag: privacidade de dados

Data-driven economy e seus impactos sobre os direitos de personalidade

A entrada em vigor do Regulamento Geral de Proteção de Dados na União Europeia e a recente aprovação pelo Senado brasileiro do projeto de lei sobre proteção de dados pessoais ressaltaram as inquietações que a data driven economy vem gerando sobre os direitos da personalidade. A discussão mais comum e frequente tem ocorrido em torno da privacidade ou do controle sobre os dados pessoais, muitas vezes coletados de forma ilícita, sem a ciência e a autorização informada dos titulares.

A partir de tais dados, que são os verdadeiros insumos da nova economia, algoritmos conseguem transformá-los em informações economicamente úteis, mas que podem provocar verdadeira devassa na vida privada dos usuários. São exemplos os algoritmos que identificam a orientação sexual a partir do reconhecimento facial, os que decifram emoções a partir da medição de ondas cerebrais, os que diagnosticam crises depressivas e outros transtornos antes mesmo da manifestação de qualquer sintoma médico. É assustador imaginar o tipo de destinação que pode ser atribuída a tais recursos caso não haja nenhum tipo de controle, preocupação que é potencializada com o machine learning.

Uma coisa é certa: algoritmos têm assumido o papel de fazer diagnósticos, julgamentos, classificações e rankings a respeito dos usuários que, embora não necessariamente corretos, serão utilizados pelos próprios agentes econômicos que os exploram e também cedidos para os seus parceiros de negócios em uma infinidade de aplicações que estão fora do alcance da imaginação do cidadão comum.

O problema é que esses julgamentos algorítmicos podem ter impactos diretos nas oportunidades e nas opções de vida dos usuários, pois deles dependerá o acesso a empregos, crédito, seguro e uma série de outros serviços. Por essa razão, a utilização dos dados não diz respeito apenas a problema de violação da privacidade, mas envolve outras relevantes discussões, como o direito de não ser julgado ou categorizado para determinados fins ou o direito de não ser julgado ou categorizado com base em determinados critérios.

A gravidade da situação aumenta quando não se tem nem mesmo como avaliar o potencial danoso de algoritmos, que normalmente se baseiam em dados, correlações e critérios de inferência sigilosos e sem qualquer transparência, que podem ser incorretos ou falsos, e que ainda podem ser utilizados para lastrear correlações que não correspondem a causalidades. Mais grave ainda, podem reproduzir correlações que sejam frutos de discriminações e de uma série de injustiças da vida social.

É por esse motivo que Cathy O`Neil[1] refere-se aos algoritmos como armas matemáticas de destruição, na medida em que, longe de serem neutros e objetivos, embutem em seus códigos uma série de decisões e opiniões que não podem ser contestadas, até porque não são conhecidas. Daí o seu potencial de destruição silenciosa, na medida em que podem basear seus julgamentos em preconceitos e padrões passados que automatizam o status quo e ainda podem ser utilizados para toda sorte de discriminações e violações de direitos.

A falta de transparência é reforçada quando se sabe que tais algoritmos são aperfeiçoados a partir da inteligência artificial, por meio da qual, com a aprendizagem de máquina (machine learning) e com as redes neurais artificiais, mais e mais algoritmos se desenvolvem independentemente, aprimorando a si mesmos e aprendendo com os próprios erros. Como bem resume Harari[2], com a inteligência artificial, o algoritmo “segue o próprio caminho e vai aonde humanos nunca foram antes – até onde nenhum humano pode segui-lo”.

Daí o fundado receio de que dados e correlações manejados por algoritmos possam estar sendo utilizados como veículos de manutenção de discriminações e injustiças, preservando os padrões do passado – ainda que equivocados – ao mesmo tempo em que comprometem as possibilidades do futuro.

Logo, além dos riscos à privacidade e ao controle sobre os dados pessoais, é o próprio presente e o futuro das pessoas que pode estar sendo definido pelos algoritmos, sem que se tenha a possibilidade de conhecer e criticar os dados e correlações que alimentam seus processos decisórios.

Sob essa perspectiva, para o adequado endereçamento do problema, talvez não seja suficiente apenas uma lei de proteção de dados, embora esta seja certamente uma das providências mais importantes nessa seara, até para definir o que pode ser considerado dado pessoal. Há que se verificar igualmente a compatibilidade da utilização dos dados diante do Direito Constitucional, do Direito da Concorrência e do Direito do Consumidor, dentre outros.

Mais do que isso, há que se indagar sobre o grau e os mecanismos de transparência e accountability que se exigirão dos agentes empresariais que se utilizam de algoritmos para compreender e categorizar usuários para os mais diversos fins, o que traz impactos para a sua identidade pessoal – já que podem estar sendo definidos e classificados de forma equivocada – bem como para as oportunidades e opções de vida desses usuários, as quais podem estar sendo indevidamente restringidas em razão de diagnósticos apressados ou claramente equivocados.

Ainda há que se analisar outro preocupante efeito da destinação dos dados pessoais: é que todo o conhecimento sobre os usuários ainda pode ser utilizado para, associado ao poder da comunicação e aos estudos da biologia, neurociência e psicologia, manipular as pessoas, bem como tentar modificar suas crenças e opiniões.

Como explica Tim Wu[3], a partir do momento em que atenção se torna comoditizada, o tempo em que as pessoas passam em determinadas plataformas passa a ser importante fator não apenas para sujeita-las à publicidade e à coleta dos seus dados, mas também para sujeitá-las a estratégias que visam influenciar e alterar suas preferências e visões de mundo[4]. É por essa razão que Tim Wu sustenta que o verdadeiro negócio de muitas das indústrias da nova economia é o de influenciar consciências.

Vista a questão por esse ângulo, a tecnologia pode estar sendo utilizada contra aquilo que temos de mais precioso: a nossa individualidade. A partir do momento em que as máquinas conseguem nos conhecer melhor do que nós mesmos, podem utilizar nossas fragilidades para manipular nossas emoções, crenças e opiniões para os mais diversos fins, inclusive políticos. Aliás, as eleições de Donald Trump e do Brexit ilustram bem tal preocupação.

Como bem afirma Castells[5], a forma mais fundamental de poder é a de moldar a mente humana. No mesmo sentido, Martin Moore[6] destaca que as grandes plataformas adquiriram enorme poder de influenciar a ação coletiva e mesmo o voto das pessoas.

Ora, se o mais importante instrumento de poder em uma sociedade tecnológica e informacional é a capacidade de influenciar e manipular as pessoas, é fácil concluir que os principais riscos da nova economia vão muito além da violação à privacidade dos usuários, alcançando a identidade pessoal, a própria liberdade e, consequentemente, a cidadania e a democracia.

Como se procurou demonstrar ao longo do artigo, a coleta de dados e a sua utilização pelos diversos agentes da economia movida a dados vem colocando a personalidade sob um triplo risco: (i) a coleta em si dos dados, o que já seria preocupante do ponto de vista da privacidade e do controle dos dados pessoais; (ii) a utilização dos dados para a construção de julgamentos a respeito dos usuários que, corretos ou não, podem causar diversos danos a estes conforme os fins a que se destinam, limitando o acesso a produtos, serviços e oportunidades de vida e (iii) a utilização dessas informações com o propósito de manipular os próprios usuários, para os fins mais diversos, inclusive políticos.

Logo, o manuseio dos dados enseja preocupações que vão muito além da privacidade e do controle sobre os dados pessoais dos usuários: na verdade, o que está em jogo é a manutenção de valores como a identidade pessoal, a liberdade, as oportunidades e perspectivas do presente e do futuro das pessoas e a própria democracia.

  1. Op.cit.
  2. HARARI, Yuval Noah. Homo Deus: uma breve história do amanhã [edição eletrônica]. São Paulo: Companhia das Letras, 2016.
  3. WU, Tim. The attention merchants: the epic scramble to get insideour heads. Nova Iorque: Knopf, 2016.
  4. Ver: FRAZÃO, Ana. Prefácio. In: FERNANDES, Ricardo Vieira de Carvalho; COSTA, Henrique Araújo; PRATA DE CARVALHO, Angelo Gamba. Tecnologia jurídica e direito digital. Belo Horizonte: Fórum, 2018.
  5. CASTELLS, Manuel. O poder da comunicação. Tradução Vera Lucia Joyceline. Rio de Janeiro/São Paulo: Paz e Terra, 2015.
  6. MOORE, Martin. Tech Giants and Civic Power. https://www.kcl.ac.uk/sspp/policy-institute/cmcp/tech-giants-and-civic-power.pdf. Acesso em 14.06.2018.
Advogada e Professora de Direito Civil e Comercial da Universidade de Brasília – UnB. Ex-Conselheira do CADE – Conselho Administrativo de Defesa Econômica (2012-2015). Ex-Diretora da Faculdade de Direito da Universidade de Brasília (2009-2012). Graduada em Direito pela Universidade de Brasília – UnB, Especialista em Direito Econômico e Empresarial pela Fundação Getúlio Vargas – FGV, Mestre em Direito e Estado pela Universidade de Brasília – UnB e Doutora em Direito Comercial pela Pontifícia Universidade Católica de São Paulo – PUCSP. Líder do GECEM – Grupo de Estudos Constituição, Empresa e Mercado.

Aplicativos médicos e segurança dos dados

À medida que se dissemina o uso de aplicativos com as mais variadas finalidades, um enorme volume de dados é gerado. Frequentemente esses dados são transferidos a outras empresas para fins de marketing ou pesquisa, sem que isso seja de conhecimento do usuário do aplicativo. Esse foi o tema de artigo publicado pelo jornal NEXO há alguns dias no qual se questiona a falta de transparência na utilização dos dados coletados por aplicativos de monitoramento do ciclo menstrual.

O uso desses aplicativos tem se difundido entre as mulheres, pois eles facilitam o monitoramento do ciclo menstrual, auxiliando tanto aquelas que desejam engravidar quanto as que querem evitar uma gravidez. Neles, as usuárias fornecem várias informações como humor, peso, temperatura, uso de medicamentos, intensidade do fluxo menstrual, frequência de relações sexuais e resultados de testes de gravidez. Em troca, elas recebem uma variedade de informações como aviso de ovulação, aviso de exames médicos, lembrete para uso da pílula anticoncepcional, vídeo educativos, sessão de perguntas e respostas entre outras funcionalidades.

exemplos de aplicativos disponíveis na loja virtual

exemplos de aplicativos disponíveis em lojas de aplicativos

Usualmente esses aplicativos fornecem seus serviços gratuitamente, embora também sejam disponibilizadas versões pagas. No entanto, o que à primeira vista é um serviço gratuito, na verdade exige sua contrapartida: o fornecimento dos dados das usuárias. Os dados coletados pelo aplicativo são então vendidos para outras empresas, seja para fins de marketing ou de pesquisa.  Isso significa que uma mulher pode informar ao aplicativo estar sentindo cólicas menstruais e minutos depois visualizar uma propaganda de remédio na tela do seu computador.

O que tem se questionado é a privacidade e a segurança dos dados fornecidos aos Apps (ou a falta delas). Muitos desses aplicativos têm falhas de segurança que permitiriam que esses dados fossem roubados por hackers, expondo, portanto, a privacidade das usuárias. Outros não informam de maneira clara e transparente aos seus usuários que os dados fornecidos por eles podem ser vendidos para outras empresas.

O debate sobre a segurança e a transferência de dados não se restringe aos aplicativos de monitoramento do ciclo menstrual. No começo desse ano, a JAMA (revista cientifica da Associação Médica Americana) publicou um trabalho no qual foi testada a segurança dos dados de 75 aplicativos de saúde voltados especificamente para pacientes diabéticos.  Os resultados mostraram que era usual o compartilhamento dos dados coletados com outras empresas. Além disso, 81% dos aplicativos analisados não tinham política de privacidade e os 19% restantes eram pouco transparentes quanto à política adotada. Na verdade, esse debate tem se tornado mais relevante graças ao advento da Internet das Coisas. No entanto, a natureza pessoal e sensível dos dados disponibilizados nos aplicativos de saúde exige um cuidado maior da indústria.

Muito dos dados fornecidos a esses aplicativos normalmente seriam sigilosos, exclusivos aos pacientes, o que os torna especialmente sensíveis para uso comercial. Se as regras da relação médico e paciente estão bem definidas quando são presenciais, esse não é o caso nas relações digitais. Ainda não existem proteções legais por parte do governo contra a venda de dados a terceiros ou sobre a transparência quanto ao uso desses dados, especialmente no caso de aplicativos de saúde, o que já foi, inclusive, discutido em post anterior desse blog.

Essa discussão deve ganhar novas proporções à medida que cresce o uso de aplicativos de saúde. Como mostra o relatório mHealth e Wearables 2015, o uso de aplicativos voltados para saúde e fitness teve um crescimento de 15% no ano de 2014. No Brasil, esse crescimento foi de 5%.

As novas tecnologias digitais trazem com elas grandes benefícios a usuários e oportunidades para as empresas, mas também grandes desafios aos governos. É o que temos visto no caso do Uber, por exemplo. A segurança e privacidade dos dados são duas questões que advêm da difusão desses aplicativos. Outros temas como a fundamentação cientifica e questões éticas também têm sido levantadas. O desafio de legisladores e reguladores será garantir a segurança dos usuários, sem inviabilizar a inovação tecnológica e seus benefícios para os consumidores.

fotoRebeca Miranda é Mestre em Economia pela Universidade de Brasília e Analista de Comércio Exterior no Ministério da Indústria, Comércio Exterior e Serviços (MDIC).