Economia de Serviços

um espaço para debate

Month: outubro 2018

Eles ficam altos? O Impacto do Acesso a Drogas nos Preços da Hospedagem

Poucos assuntos são tão presentes em cada esquina das cidades grandes de hoje em dia e possuem tão pouca pesquisa quanto as drogas. Temas mais convencionais, já consolidados na agenda mainstream, possuem dezenas de trabalhos com réplicas e tréplicas para cada variável, enquanto no que tange às drogas a literatura ainda se encontra no “O que são, o que comem e onde habitam?”

A ilegalidade na qual as drogas se encontram apresenta um grande entrave para a elaboração de estudos robustos e sem achismos, uma vez que informações se tornam praticamente inexistentes. A coleta de dados é bastante complicada, de forma que poucos conseguem fazê-la – como em Venkatesh e Levitt (2000). Isso faz com que as pesquisas fiquem um pouco limitadas, mas não menos interessantes. Até o momento, a maior parte das pesquisas se concentrava nas consequências orçamentárias da legalização (Miron, 2005) ou em questões de saúde e consumo (Bretteville-Jensen e Jacobi, 2011; Jacobi e Sovinsky, 2016; Palali e Van Ours, 2014). A pesquisa a ser tratada no resto deste texto, por exemplo, visa avaliar a existência de influência de Coffee Shops no mercado imobiliário de Amsterdam.

Os recentes movimentos de descriminalização e legalização da maconha têm servido como ótimo cenário para diversas pesquisas na área, tanto por trazerem consigo dados antes não existentes quanto por também proporcionarem grupos de controle e choques exógenos, em meio às mudanças legais. Até o momento, cada país que legalizou a maconha o fez à sua própria maneira, com modelos de legalização bastante heterogêneos. Todos eles têm como base, porém, a noção de que existe uma certa heterogeneidade entre os consumidores de cannabis e que a maior parte dos malefícios sociais vem, na verdade, do próprio fato da droga ser ilegal.

Miron e Zwiebel (1995) lançam um olhar econômico sobre o mercado das drogas. Para eles, pode-se classificar os consumidores em duas categorias, os dependentes químicos e os de uso recreativo. Estes, segundo os autores, respondem às mudanças nos preços das drogas assim como o consumidor mediano responde a mudanças em preços de bens “convencionais”, enquanto aqueles terão uma demanda pela droga muito mais inelástica. Isto é, responderão muito pouco a mudanças de preços, uma vez que o importante é saciar a necessidade química. Do lado da oferta, uma vez que todos os agentes ofertantes estão na ilegalidade, não há como solucionar disputas na justiça, como cobrança de dívidas, por exemplo. Além disso, uma vez na ilegalidade, cometer outro crime possui um custo adicional muito menor e é nessa situação que a violência se torna uma ferramenta factível para quem está no mercado das drogas. A grosso modo, para Miron e Zwiebel (1995), os maiores problemas relacionados às drogas – violência e criminalidade, resumidamente – são, na verdade, consequências de sua proibição, e não do consumo.

Este estudo ilustra de maneira breve o entendimento sobre as drogas que as autoridades responsáveis na Holanda passaram a ter, na década de 70. Durante os anos 70, começou-se a entender que o mais importante não era impedir o consumo de drogas em geral, como se é feito em quase todos os países hoje, mas sim garantir que os usuários e a sociedade como um todo sofressem os menores danos possíveis. Tendo isto em mente, era necessário mudar de um paradigma de guerra às drogas para um de redução de danos, no qual o Estado assiste à população em vez de puni-la.

Para adaptar e organizar as instituições à essa nova política de drogas, primeiro classificou-se as várias substâncias em dois grupos, baseado no nível de risco à sociedade em geral. O grupo I, com drogas tais como cocaína e LSD, por exemplo, contempla as substâncias cujo risco é reconhecido como inaceitável; já o grupo II, que engloba cannabis, seus derivados e alguns analgésicos, é composto pelas substâncias cujo risco é dado como tolerável.

Uma outra maneira que os holandeses encontraram para melhor controlar a forma pela qual o consumo de cannabis no país se daria foi a criação dos Coffee Shops. Os Coffee Shops são, basicamente, lojas que possuem permissão para vender cannabis e seus derivados e devem seguir uma série de restrições, tais como não vender bebidas alcoólicas; não vender para menores de idade e não permitir o consumo de outras drogas dentro do estabelecimento. Segundo as leis do país, o prefeito de cada cidade é quem decide se algum Coffee Shop pode ser aberto ou se algum deve ser fechado, de forma que o estoque de Coffee Shops nas cidades é completamente controlado pelas autoridades.

Desde seu início, a política de drogas é regularmente reavaliada a fim de corrigir aspectos antes não considerados pelas autoridades. Diferentemente de outros lugares onde a maconha foi legalizada, na Holanda até hoje os ganhos econômicos não são o ponto principal da política vigente, mas sim diminuir os danos das drogas e incômodos ao público. Dessa forma, o crescente turismo de drogas que se instalou no país acabou sendo malvisto por muitos políticos, de forma a pressionarem por medidas que aumentassem as restrições às drogas em gerais, principalmente a cannabis.

Junto a esse motivador, alguns grupos entenderam também que era necessário tomar medidas para diminuir a exposição de menores de idade à cannabis e seus derivados – embora exista estudos apontando diminuição do consumo da droga entre jovens (Simons-Morton, 2010). Como consequência dessa pressão, alguns prefeitos julgaram prudente criar cadastros de usuários, para permitir que apenas residentes comprassem na cidade, e outros acreditaram necessário fechar Coffee Shops próximos a escolas.

A cidade de Amsterdam começou a acatar essas mudanças a partir de 2011, sendo que os primeiros fechamentos se deram a partir de 2014. Os fechamentos foram realizados em função da distância que o Coffee Shop se encontrava da escola mais próxima, não podendo ficar a menos de 500m. Essa medida culminou no fechamento de cerca de 20 lojas baseado somente na distância para alguma escola.

O fato de os fechamentos se darem apenas devido ao posicionamento de escolas fez com que o choque no estoque de Coffee Shops da cidade pudesse ser considerado completamente exógeno aos estabelecimentos, isto é, não relacionados a eles.

Na literatura, é comum procurar impactos no mercado imobiliário quando se quer avaliar se determinada amenidade possui externalidades positivas ou negativas. Neste caso, nosso trabalho procurou avaliar se os Coffee Shops exercem alguma influência sobre os preços de imóveis ao seu redor. Para isso, utilizamos dados de aluguel de Airbnb na cidade, de 2014 até 2017, junto com informações espaciais como distância para transporte público; para o centro da cidade; quantidade de atrações turísticas nos arredores; índice de criminalidade da região, entre outras amenidades. A variável de interesse é o fato de ter o Coffee Shop mais próximo ao imóvel fechado ou não. Em outras palavras, temos uma variável binária que é igual a 1 caso o imóvel tenha tido o Coffee shop mais próximo dele fechado e 0 para o caso de o Coffee Shop mais próximo ter permanecido aberto.

Nós utilizamos um modelo de efeitos fixos, como de praxe na literatura de economia urbana, para quando se tem dados em painel, de forma que é possível controlar por fatores não observáveis porém constantes ao longo do tempo. Em um primeiro modelo, utilizamos apenas o fato de o Coffee Shop mais próximo ter fechado ou não. Em seguida, utilizamos essa informação junto com o fato de ele estar a menos de X metros do imóvel – variamos essa distância X de 250m até 1500m. Essa variação nos permite observar como a influência se comporta em distâncias variadas.
Nossos resultados mostram que ter o Coffee Shop mais próximo fechado fez com que os alugueis diminuíssem aproximadamente 2,5%, em média. Como é ilustrado na imagem, o fechamento de um Coffee Shop muito próximo possui uma influência significativamente maior no aluguel do que o fechamento de um Coffee Shop que se apresentava mais distante. O efeito do fechamento diminui de intensidade à medida que a distância aumenta até o ponto no qual deixa de ser significativo estatisticamente, para distâncias maiores de 500m.

Este resultado é bastante interessante pois, ao contrário do que muitos pensavam, é possível que a maconha tenha externalidades positivas em um cenário micro em uma cidade. Obviamente, esta pesquisa possui limitações, pois apenas com ela não é possível saber com certeza como os mercados reagiriam em outras cidades, por exemplo. Além disso, não é claro como imóveis regulares – fora da plataforma Airbnb – reagiriam, uma vez que é discutível se esse resultado é consequência do maior uso do Airbnb por turistas ou não, de forma que seria bastante interessante fazer este exercício com dados de imóveis convencionais.

Mesmo com todas essas limitações, esse estudo contribui para o início da construção de um conhecimento mais robusto sobre as drogas que foge de achismos e se baseia em dados e evidências. Ainda há muito o que se pesquisar sobre o assunto e como os mercados e agentes reagem às mudanças para assim podermos criar políticas que realmente contribuam para um melhor bem-estar da sociedade.

 Igor Koehne é mestrando em Teoria Econômica no Instituto de Pesquisas Econômicas/USP.

Concessões de Rodovias e Fator-X – Parte (I)

O Programa de Parcerias de Investimentos (PPI) foi criado pela Lei nº 13.334 de 2016, com a finalidade de ampliar e fortalecer a interação entre o Estado e a iniciativa privada por meio da celebração de contratos de parceria e de outras medidas de desestatização.

Entre os oito projetos de concessão para exploração da infraestrutura rodoviária qualificados no âmbito do Programa de Parcerias de Investimentos – PPI, está o projeto de concessão das rodovias BR-101/RS, BR-290/RS, BR- 386/RS e BR-448/RS, no Estado do Rio Grande do Sul – conhecido como Rodovia de Integração Sul (RIS). Foi lançado, em julho de 2018, pela Agência Nacional de Transportes Terrestres (ANTT), em parceria com o Ministério dos Transportes e o PPI, o edital para concessão da RIS, cujo leilão ocorrerá em 01/11/2018 (ANTT, 2018a).

Várias questões emergem a partir da análise detida das opções regulatórias registradas nos documentos licitatórios publicados, porém, neste conjunto de posts, trataremos de uma opção em específico: a supressão do chamado “Fator X” da minuta contratual (ANTT, 2018b).

De modo simples, o que é o Fator X? É uma medida de desempenho, de eficiência do concessionário. A ideia é que o concessionário busque por ganhos de produtividade durante o longo período de vigência de sua concessão, e que parte desse ganho fique retido com a própria concessionária (que teria, portanto, incentivos pra continuar almejando e buscando incorporar novas técnicas e ampliar, com isso, sua produtividade) enquanto outra parte seja revertida em forma de menor tarifa para o usuário do serviço. Ou seja, os ganhos de produtividade seriam repartidos/compartilhados entre a concessionária e o usuário final.

E por que chamamos a atenção para a supressão da cláusula que trata do Fator-X?

A Lei nº 8.987/1995 (Lei de Concessões) estabelece em seu art. 6º que toda concessão pressupõe a prestação de serviço adequado ao pleno atendimento dos usuários, sendo que o serviço adequado é que aquele que satisfaz, dentre outras condições, a eficiência. A mesma lei também imputa ao poder concedente o dever de estimular o aumento da produtividade e incentivar a competitividade dos serviços concedidos.

Para cumprir tais preceitos legais, o regulador deve alterar a estrutura de incentivos ou o conjunto de ações possíveis do concessionário de modo que este, ao maximizar o seu retorno sobre o contrato, acabe também maximizando o bem-estar coletivo, fornecendo assim um serviço adequado aos usuários. Nesse sentido, a teoria econômica e a experiência internacional (AGRELL; BOGETOFT, 2013) tem demonstrado que a aplicação de regulação da tarifa por preço-teto (price cap), associada ao Fator-X, tende a incentivar ganhos de produtividade por parte do setor regulado.

Então, por que suprimir o Fator-X da equação tarifária dos novos contratos de concessão rodoviária?

Infelizmente não temos resposta para essa pergunta. Ao contrário, pretendemos sensibilizar o leitor quanto à necessidade de reguladores brasileiros adotarem técnicas de regulação baseadas em incentivos (como o Fator-X) para promover maior ganho de bem-estar aos usuários.

Para tanto, começaremos falando sobre o contexto das concessões rodoviárias federais brasileiras e como que surgiu o “Fator X” nesses contratos. Já na segunda parte, falaremos sobre o que é, de modo mais formal, o Fator X e discutiremos os possíveis impactos da retirada do referido mecanismo regulatório dos contratos de concessão.

O contexto das concessões para exploração da infraestrutura rodoviária federal

O que antecedeu as primeiras concessões para exploração da malha rodoviária federal na década de 1990 contribuiu para a modelagem dos primeiros contratos de concessão para exploração da infraestrutura rodoviária federal.

Após a forte expansão da malha rodoviária nas décadas de 1960 e 1970, já em 1974, se iniciou o processo de crescente escassez de recursos para investimento em obras e manutenção. Fora os choques externos que contribuíram para o endividamento do Estado brasileiro, até a Constituição Federal de 1988 (CF/88), os investimentos na malha rodoviária contavam com financiamento do Fundo Rodoviário Nacional (FRN), formado com recursos do Imposto Único sobre Lubrificantes Líquidos e Gasosos (IULCLG). O FRN tinha como objetivo custear os programas de construção, conservação e melhoria das rodovias compreendidas no Plano Rodoviário Nacional (PNV).

Com o advento da CF/88, de todas as alterações tributárias impostas, a que mais afetou o financiamento do PNV foi a proibição de vinculação de receitas tributárias. Ou seja, a partir daquele momento, os investimentos em infraestrutura rodoviária que, até então, contavam com uma fonte exclusiva de custeio, passaram a ter que disputar com outras políticas públicas os recursos advindos das receitas da União. O resultado de tais mudanças foi o estado deplorável em que se encontrava as rodovias federais na década de 1990.

Por outro lado, a CF/88 também trouxe a possibilidade de empresas privadas prestarem serviço de utilidade pública, sempre precedido de procedimento licitatório. Em 1995, foi sancionada a lei das concessões (Lei no 8.987), a qual regula a concessão de serviços públicos à iniciativa privada. Assim, a transferência de rodovias foi a saída encontrada pelo poder público para tentar resolver parcialmente a impossibilidade de realizar os necessários investimentos na expansão, manutenção e conservação da malha rodoviária federal.

As primeiras concessões ocorreram em 1995 ainda sob a tutela do Departamento Nacional de Estradas de Rodagem (DNER) em conjunto com o Ministério dos Transportes. Vale destacar que não havia à época agência reguladora. Desta forma, os contratos de concessão assemelhavam-se muito mais a contratos de obras públicas de longo prazo (até 25 anos), cujo foco estava no controle (ainda que parcial) de alguns poucos parâmetros de desempenho e na obrigação de execução de algumas obras pelos contratados. Não é possível então afirmar que havia uma preocupação primordial com a produtividade ou a eficiência das concessionárias.

Somente em 2001 foi criada a Agência Nacional de Transportes Terrestres (ANTT), por meio da Lei no 10.233, cuja instalação ocorreu cerca de um ano depois. A ANTT assumiu então a gestão dos contratos em andamento, ao todo 1.315,9 km, denominados Primeira Etapa de Concessões. Posteriormente, em 2008 e 2009, foram licitados e firmados os contratos da Segunda Etapa. Finalmente, em 2013 e 2015, foram firmados os contratos da Terceira Etapa. Ao todo são 9.224 km de rodovias sob responsabilidade da ANTT.

A ANTT, desde o seu início, teve como seu grande desafio na área de concessões rodoviárias, o desenvolvimento de mecanismos regulatórios que incentivassem as concessionárias a entregarem um melhor serviço para os usuários.

É claro que nos contratos da Primeira Etapa a margem de melhoria não era grande, uma vez que os contratos firmados na década de 1990 devem ter o seu equilíbrio econômico-financeiro respeitado. Portanto, restou à ANTT e ao Ministério dos Transportes inserir inovações nos contratos de concessão seguintes.

Nesse contexto, entre uma etapa e outra de concessão, algumas inovações e ajustes foram sendo realizados, no intuito de aprimorar a gestão contratual por parte da ANTT.

Para citarmos um exemplo, em 2007 o Tribunal de Contas da União (TCU) demandou da ANTT ajustes no mecanismo de inclusão de obras então existente nos contratos da Primeira Etapa de Concessões (TCU, 2007). Tal exigência do TCU resultou na Resolução no 3.651/2011, por meio da qual foi estabelecido o chamado Fluxo de Caixa Marginal (FCM). O FCM foi incorporado a todos os contratos de concessão anteriores e posteriores. Hoje, tal mecanismo vem sendo bastante questionado pelo próprio Tribunal de Contas da União, e sua análise pode ser objeto de outro post.

Quanto ao Fator-X, relatório do Banco Mundial de 2010 (Veron e Cellier, 2010) sugeriu “rever custos futuros de manutenção e operação com base num mix de índice de inflação e produtividade, calculado, por exemplo, em função de ganhos de produtividade observados em outras concessões, introduzindo assim um processo semelhante a uma regulação por medição (yardstick regulation). Os ganhos de produtividade esperados poderiam ser estabelecidos para cada período de cinco anos”.

O Fator X nos contratos para exploração da infraestrutura rodoviária federal

Dentre as inovações discutidas com os principais atores envolvidos nos novos projetos de concessão (setor regulado, governo e TCU – este especialmente preocupado quanto aos problemas àquela altura já identificados nos contratos da Primeira Etapa), em 2012, na chamada Terceira Etapa, foi pela primeira vez inserido no contrato de concessão rodoviária o chamado Fator X. De acordo com o contrato da BR-101/BA/ES, o Fator X é o (ANTT, 2012):

(…) redutor do reajuste da Tarifa de Pedágio – calculado na forma da subcláusula 16.3.3, e revisto na forma da subcláusula 16.3.5 – referente ao compartilhamento, com os usuários do Sistema Rodoviário, dos ganhos de produtividade obtidos pela Concessionária.

O Fator X é um redutor no índice de reajustamento para atualização monetária do valor da Tarifa de Pedágio (IRT). No contrato da BR-101/BA/ES, o Fator X é 0 (zero) até o quinto ano da concessão, sendo incrementado de modo pré-definido quinquenalmente, e atingindo no máximo 1% (um porcento) entre o vigésimo primeiro e o vigésimo quinto ano do prazo da concessão. Nos demais contratos da Terceira Etapa, o Fator X foi definido como 0 (zero) até o quinto ano de concessão, sendo revisto quinquenalmente, com base em estudos de mercado realizados pela ANTT, de modo a contemplar a projeção de ganhos de produtividade do setor rodoviário brasileiro.

Ainda, na “Ata de Resposta aos Esclarecimentos (sic)” do processo licitatório da Terceira Etapa (ANTT, 2013), a comissão de outorga assim se pronunciou sobre o Fator X:

O Fator X é o mecanismo que permite o compartilhamento com os usuários dos ganhos de eficiência e produtividade do negócio. Na teoria econômica a Eficiência Econômica é tratada como sendo a associação da eficiência técnica, que é a habilidade da unidade decisória em extrair o maior nível de produto para um dado nível de insumo, com a Eficiência Alocativa, habilidade da unidade decisória em utilizar os insumos na melhor proporção de forma a minimizar os custos. Há também o conceito de Produtividade, que pode ser alterado por quatro fontes de variações: 1) Modificações tecnológicas: alteram a posição da Fronteira da Possibilidade de Produção, isto quer dizer que a produtividade de uma determinada unidade pode melhorar sem que haja aumento em sua eficiência. 2) Modificações na Eficiência: neste caso a unidade se torna mais produtiva por aproveitar melhor os seus insumos. 3) Modificações na escala: a unidade pode ampliar sua produtividade adequando a sua escala de produção de modo a torná-la mais eficiente. 4) Modificações no mix de insumos e produtos: as composições de insumos e/ou produtos podem também afetar a produtividade. Assim, como pode se observar os conceitos de eficiência e produtividade que o Fator X compartilhará com os usuários somente poderão ser mensurados com a operação do negócio e isto somente será compartilhado com o usuário caso haja aumento da produtividade e eficiência (…). (grifos nossos)

Tanto o dispositivo contratual, como a resposta da comissão de outorga deixam bem evidente a intenção dos responsáveis pela elaboração do contrato à época: resumidamente, o Fator X deveria ser um mecanismo que colocaria em evidência a necessidade de considerar eventuais ganhos de produtividade das concessionárias e compartilhá-los com os usuários. Além disso, o Fator X deveria incentivar ganhos de eficiência nas empresas reguladas, pois estas detêm o monopólio na prestação daqueles serviços de expansão, manutenção e conservação da malha rodoviária sob sua responsabilidade e, em regra, os usuários não detêm rotas alternativas.

Então, perguntamos: por que iniciar toda uma discussão a respeito de Fator X no início dessa década, direcionar corpo técnico dentro da agência para formulação de uma proposta metodológica para seu cálculo e, depois de tudo isso, simplesmente suprimir o Fator X do próximo contrato de concessão a ser assinado? É este o melhor caminho?

Na próxima parte deste post exploraremos a teoria econômica e a experiência internacional que justificam a adoção do Fator X como mecanismo de incentivo nos contratos de concessão rodoviária, e quais as possíveis consequências da sua supressão dos contratos que serão licitados daqui para frente.

Carlos Eduardo Véras Neves é formado em Engenharia Civil e Mestre em Geotecnia pela Universidade de Brasília. Possui MBA em Gestão Empresarial pela Fundação Getúlio Vargas. Atua no setor público federal na área de infraestrutura desde 2009. Atualmente é Especialista em Regulação da Agência Nacional de Transportes Terrestres – ANTT. É aluno de Doutorado em Economia Aplicada do Departamento de Economia da Universidade de Brasília.

Fontes:

AGRELL, P. J.; BOGETOFT, P. Benchmarking and regulation. Core Discussion Paper- Center for Operations Research and Econometrics, Université catholique de Louvain, CORE and Louvain School of Management, B-1348 Louvain-la-Neuve, Belgium, p. 23, 2013.

ANTT. Agência Nacional de Transportes Terrestres – 3a Etapa (fase III) – BR-101/ES/BA. Disponível em: <http://3etapaconcessoes.antt.gov.br/index.php/content/view/1169/3__Etapa__fase_III_.html>. Acesso em: 24 out. 2018.

ANTT. Agência Nacional de Transportes Terrestres – Concessão da BR-101/290/448/386/RS. Disponível em: <http://www.antt.gov.br/rodovias/RIS.html>. Acesso em: 24 out. 2018a.

ANTT. Agência Nacional de Transportes Terrestres – Ata_de_Respostas_aos_Pedidos_de_Esclarecimentos. Disponível em: <http://www.antt.gov.br/backend/galeria/arquivos/2018/09/21/Ata_de_Respostas_aos_Pedidos_de_Esclarecimentos.pdf>. Acesso em: 24 out. 2018b.

TCU. Tribunal de Contas da União – Acórdão 2154/2007 TC 026.335/2007-4. Relator: Ministro Ubiratan Aguiar. Disponível em: <https://bit.ly/2ArZEf2>. Acesso em: 24 out. 2018.

VERON, A; CELLIER, J. Participação privada no setor rodoviário no Brasil: Evolução recente e próximos passos. The World Bank Group, Estudo de Transporte, março de 2010.

 

O desafio da governança regulatória

Em fevereiro deste ano, a Organização para Cooperação e Desenvolvimento Econômico (OCDE) publicou relatório econômico sobre o Brasil e uma das principais recomendações continuou sendo “aperfeiçoar a governança e reduzir a corrupção”, engrossando o coro de outras instituições e da academia no sentido de que é preciso reforçar o papel da governança regulatória no país.

Antes de falarmos sobre o que é governança regulatória e porque ela aparece com frequência nas recomendações de relatórios ou análises sobre a economia brasileira, é importante entender como surgiu a necessidade de se olhar para esse conceito. Na esteira das crises econômicas enfrentadas por boa parte dos países em desenvolvimento na década de 1980, o Estado se rendeu ao inevitável movimento de conceder à iniciativa privada a prestação de alguns serviços públicos. A teoria econômica deu suporte a esse movimento ao prever que essa relação público-privada seria benéfica para o bem-estar da população, para a sustentabilidade do investimento privado e também para a eficiência e qualidade do serviço prestado.

No entanto, segundo Correa et al. (2006), a transferência de ativos para a iniciativa privada pode não gerar as melhorias de bem-estar previstas na teoria econômica, caso não seja combinada com uma estrutura legal robusta, contratos apropriados e boa governança regulatória.

Então, o que é governança regulatória e por que ela é importante? Como o termo é amplo e, de certa forma, etéreo, são inúmeras as definições. Em comum é possível identificar a sua finalidade: garantir que a regulação seja bem concebida, implementada e que tenha enforcement. Como a governança pode alcançar esses objetivos? Para a OCDE (2012), ela precisa estar presente em todo o ciclo da política regulatória. Essa abordagem integrada implica em fortalecimento da coordenação, da comunicação, da consulta e da cooperação ao longo do ciclo da política pública.

No entanto, essas atividades não são necessárias apenas dentro de uma determinada agência reguladora, mas também entre diferentes instituições e esferas de governo. Quanto mais complexo o sistema, mais difícil de identificar os papeis de cada agente e fazê-los se comunicar e cooperar (a exemplo do caso brasileiro, no qual se tem agências reguladoras estabelecidas em diferentes níveis federativos e com competências superpostas).

De forma caricata e simplista, a situação é quase um problema de ação coletiva, no qual se sabe que a possibilidade de se obter um benefício para um grupo não é suficiente para gerar a ação coletiva necessária para o alcance desse benefício. Cada agência busca a melhor solução para os seus desafios regulatórios. Todavia, a falta de coordenação e cooperação pode gerar resultados ruins para a população.

E qual é a consequência de não se ter uma boa regulação? Quais são os custos associados à bad regulation e, consequentemente, quais são os benefícios de se investir em governança regulatória? Um cenário de alto risco regulatório eleva o custo do capital, o que resulta em um menor potencial de investimento e desenvolvimento tecnológico da economia. Com isso, projetos socialmente desejáveis não conseguem se financiar, tendo em vista o elevado retorno do capital exigido para compensar o risco regulatório e, além disso, o ambiente de negócios se torna pouco atrativo em razão da insegurança jurídica e do potencial de litígio que dela decorre.

Nessa linha, para melhorar o desempenho organizacional, reduzir conflitos, alinhar ações e trazer mais segurança para consumidores e investidores, os formuladores de política pública, a academia e demais órgãos de pesquisa se voltaram para o estudo e o desenvolvimento de estruturas de governança que maximizassem o benefício social esperado da regulação. De acordo com o Banco Mundial (2008), há um certo consenso de que governança importa para o desenvolvimento. Tal consenso é fruto, mesmo que não exclusivamente, do interesse em se trazer para a discussão evidências empíricas de que a boa governança está ligada ao desenvolvimento econômico.

Um dos exemplos mais bem sucedidos é o dos Indicadores de Governança Mundial (WGI) do Banco Mundial, que, ao fornecerem ferramentas para medir a governança e monitorar as alterações na sua qualidade (entre países e ao longo dos anos), servem de subsídio para orientar como as reformas de governança são projetadas, implementadas e avaliadas.

Observando a tendência do Brasil e da América Latina no item “qualidade regulatória” do WGI, é possível perceber que o país apresenta um desempenho, na média, inferior àquele da América Latina e do Caribe considerados de forma agregada. Desde 2013, o Brasil obteve resultados aquém daqueles alcançados em anos anteriores e aquém daqueles obtidos por países semelhantes. Esse desempenho, provavelmente, é reflexo da instabilidade política e do momento econômico pelo qual o país passa desde as eleições de 2014.

Entendido o papel da governança, vamos desconfiar de soluções “fáceis” ou “universais”, o que, às vezes, parece ser o caso associado à uma parte da literatura sobre o tema. A governança, per si, não é solução de todos os problemas, em especial para a corrupção, para os incentivos perversos das regras do serviço público e para os desafios intrínsecos à qualquer atividade regulatória.

Em julho deste ano, o IPEA publicou uma Nota Técnica que traz uma reflexão importante sobre essa questão. Em alguns casos, as recomendações de diversos órgãos ignoram gargalos e problemas estruturais do Estado. Os autores reforçam a impossibilidade de se “manter uma visão restrita de que a governança é apenas o resultado de um pacote de reformas e mudanças predefinidas e impostas de forma exógena por agentes que não consideram as particularidades do contexto político-institucional de atuação de cada organização do governo federal”. (IPEA, 2018)

Como dizia Descartes, não há solução fácil para um problema difícil. É fundamental compreender o sistema político-institucional dentro do qual os órgãos se inserem para que se construam soluções aplicáveis a cada contexto e para que a implementação de práticas de boa governança tenha como resultado uma política regulatória mais eficiente, trazendo de volta a confiança da iniciativa privada nas instituições e os resultados benéficos dessa relação público-privada.

Bruna de L. Araújo Souza é doutoranda em Economia na Universidade de Brasília (UnB). Mestre e Bacharel em Economia com interesse em regulação e parcerias público-privadas, em especial no setor de infraestrutura. Atualmente, é MSc candidate in Public Policy and Administration na London School of Economics and Political Science (LSE).

Fontes:

CORREA, P. et al. (2006). Regulatory governance in infrastructure industries: assessment and measurement of Brazilian regulators. Washington DC: The World Bank.

EBERHARD, A. (2007). Infrastructure regulation in developing countries: an exploration of hybrid and transitional models. In: Public-Private Infrastructure Advisory Facility (PPIAF) Working Paper no. 4. Washington, DC: World Bank.

IPEA. (2018). Governança pública: construção de capacidades para a efetividade da ação governamental. Nota Técnica n. 24. Disponível em: http://repositorio.ipea.gov.br/bitstream/11058/8581/1/NT_24_Diest_Governan%C3%A7a.pdf

OECD. (2012). Recommendation of the council on regulatory policy and governance. Paris. Disponível em: http://www.oecd.org/gov/regulatory-policy/2012-recommendation.htm

OECD (2018). Relatórios Econômicos OCDE – Brasil. Disponível em: https://www.oecd.org/eco/surveys/Brazil-2018-OECD-economic-survey-overview-Portuguese.pdf

WORLD BANK (2008). Governance Matters 2008. Disponível em: http://info.worldbank.org/governance/wgi/pdf/WBI_GovInd08-5a.pdf

WORLD BANK (2018). Worldwide Governance Indicators. Disponível em: http://info.worldbank.org/governance/wgi/index.aspx#home

A Rainha Vermelha no Antitruste

Ainda me lembro do tempo em que o Facebook não existia. Também lembro a economia de palavras nas ligações internacionais em que cada segundo tinha peso de ouro. Hoje, Facebook e WhatsApp estão ambos no meu celular, à disposição para facilitar diferentes tipos de interação a quase nenhuma ou mesmo a muitas milhas de distância.

O tema deste post é a junção desses dois gigantes. Ou melhor, do gigante Facebook e do pequeno gigante, WhatsApp, cujo faturamento à época da operação não atingia os patamares de notificação de muitas autoridades antitruste, inclusive do Conselho Administrativo de Defesa Econômica (Cade)[1]. O ano era 2014, ano da fatídica Copa do Mundo no Brasil e da sanção do nosso Marco Civil da Internet. O Facebook anunciara sua intenção de adquirir o WhatsApp em fevereiro e tanto a Federal Trade Commission (FTC) quanto a European Comission (Comissão Europeia), as autoridades antitruste dos Estados Unidos e da União Europeia, respectivamente, aprovaram a operação sem restrições. E o que levou essas duas autoridades a tal decisão?

No caso do FTC, não há documentos públicos que detalhem as motivações da autoridade (salvo melhor juízo ou melhor busca no Google ou no buscador de sua escolha). A Comissão Europeia, por sua vez, explicitou o caminho de análise que a levou a aprovar a operação sem restrições. É esse caminho, ou ao menos parte dele, que convidamos o leitor a trilhar[2]:

A Comissão Europeia avaliou se a operação traria potenciais problemas concorrenciais com foco em 3 mercados:

  1. Comunicação de consumidores (consumer communications services)
  2. Rede sociais (social networking services)
  3. Publicidade online (online advertising services)

Neste post, discutiremos um pouco dos mercados “1” e “3”.

No caso de comunicação de consumidores, um dos focos da autoridade europeia foi definir o mercado relevante para análise em termos de produto. Por exemplo, seriam serviços de comunicação eletrônica tradicionais como SMS, ligações de voz e email substitutos dos aplicativos de comunicação Facebook Messenger e WhatsApp? Seriam estes dois últimos competidores próximos entre si? Quanto menos substitutos para esses serviços, maior a probabilidade de exercício de poder de mercado pelas empresas que se uniam, uma vez que os consumidores “não teriam para onde fugir” em caso de piora dos serviços, por exemplo.

Algumas possíveis segmentações do mercado de comunicação consideradas pela Comissão, mas descartadas, foram por tipo de usuário (consumidor x empresas), funcionalidade (mensagem de texto, mensagem por foto, vídeo etc.) e sistema operacional. Uma segmentação relevante foi a de plataforma, ou seja, se o serviço estava disponível em smartphones, computadores etc. Finalmente, a Comissão preferiu não adotar uma definição precisa do mercado relevante, mas utilizar a visão mais restrita e, portanto, mais conservadora para sua análise: a do mercado de “aplicativos de comunicação para smartphones”.

Para a avaliação dos efeitos da operação sobre esse mercado, três fatores merecem destaque: switching costs; multihoming e efeitos de rede:

Switching costs referem-se a custos de mudança, ou seja, qual o custo que um usuário teria para deixar de usar um aplicativo de comunicação e passar a utilizar outro? Se os serviços do Facebook Messenger ou do WhatsApp se deteriorassem após a operação, qual seria o custo do usuário para migrar para outro aplicativo? Quanto mais altos esses custos, maiores os riscos da operação.

Com base em sua análise, a Comissão entendeu que os switching costs eram baixos, tendo em vista que (i) todos os aplicativos de comunicação eram oferecidos de graça ou a preços muito baixos; (ii) que o download de tais aplicativos era realizável com facilidade em smartphones, e que mais de um aplicativo poderiam coexistir no mesmo aparelho sem tomar muito de sua capacidade; (iii) que, uma vez instalados, os usuários podiam trocar de aplicativo rapidamente; (iv) que a utilização de tais aplicativos requeria custos mínimos de aprendizagem; e (v) que informações e reviews sobre novos aplicativos de comunicação estavam facilmente disponíveis em lojas de aplicativos.

Além disso, a Comissão obteve evidências de que os usuários geralmente realizavam multi-homing, isto é, que os usuários tinham instalado e utilizavam no mesmo aparelho celular diferentes aplicativos de comunicação: entre 80% e 90% dos usuários na Espaço Econômico Europeu usavam mais de um aplicativo de comunicação por mês, enquanto 50% a 60% usavam mais de um desses serviços em base diária.

Outro fator importante na análise da Comissão foi verificar se havia evidência de que o Facebook Messenger ou o WhatsApp viessem pré-instalados em grande parte dos celulares. Caso sim, poderia haver switching costs mais relevantes, tendo em vista o “viés do status quo” associado ao comportamento inercial dos consumidores. Como não houve evidências nesse sentido, a Comissão entendeu que os switching costs eram relativamente baixos.

Por outro lado, a Comissão reconheceu a existência de switching costs associados à necessidade de recriar a rede de contatos em caso de troca de aplicativo de comunicação, isto é, custos associados aos efeitos de rede. Efeitos de rede ocorrem quando o valor de um produto ou serviço aumenta com o número de usuários do produto ou serviço. Quanto mais usuários uma plataforma de comunicação possui, mais interessante ela se torna para os usuários. Qual o valor de um telefone, por exemplo, se não temos a quem ligar? Qual o valor de estar numa rede social, em que nenhum dos nossos contatos está?

A Comissão entendeu que a existência de efeitos de rede de fato gerava switching costs para o usuário e poderia constituir uma barreira à entrada de um concorrente. Contudo, mitigou a importância desse efeito, tendo em vista que o setor era altamente dinâmico, que os outros fatores descritos anteriormente minimizavam os switching costs e que não havia outras barreiras à entrada/expansão significativas. Além disso, nem o Facebook nem o WhatsApp (as ditas Requerentes) detinham controle de alguma parte essencial da rede ou de algum dos sistemas operacionais. Em outras palavras, a Comissão entendeu que os efeitos de rede não eram suficientes para blindar as Requerentes das pressões competitivas advindas de aplicativos concorrentes e de potenciais entrantes.

Em contrapartida, a Comissão também avaliou se a operação poderia aumentar tais efeitos de rede, o que ocorreria se houvesse algum tipo de integração entre o Facebook e o WhatsApp. Uma das possibilidades dessa integração seria a comunicação entre plataformas, que permitisse que usuários do Facebook e do WhatsApp se comunicassem entre si. Contudo, as Requerentes informaram que tal integração enfrentava dificuldades técnicas significativas, tendo em vista dois pontos principais: (i) a necessidade de realizar a correspondência (matching) entre os IDs dos usuários; e (ii) a arquitetura técnica diferente utilizada pelo Facebook e pelo WhatsApp, esta última baseada na nuvem, enquanto aquela não.

Um dos obstáculos associados ao matching era que o identificador do Facebook se baseava em um Facebook ID, enquanto o identificador do WhatsApp se baseava em um número de telefone. Assim, no caso de integração, os usuários teriam que aceitar manualmente esse matching, o que poderia levar parte deles – aqueles insatisfeitos com a integração – a deixar os serviços.

A Comissão avaliou, então, que tal integração parecia improvável, dada sua viabilidade técnica remota e os riscos associados a ela. Além disso, considerou que, mesmo que houvesse integração, o potencial aumento dos efeitos de rede seria mitigado pela sobreposição significativa entre as bases de usuários do Facebook e WhatsApp.

O terceiro mercado analisado foi o de publicidade online. Para essa discussão, é importante introduzir o conceito de plataformas de múltiplos lados. O Facebook, assim como o Google e Uber, são exemplos de plataformas de múltiplos lados. De forma bastante simplificada, isso significa que essas plataformas servem como matchmakers que unem diferentes grupos de usuários.

No caso do Facebook, quando utilizamos as funcionalidades de rede social, somos um dos lados da plataforma. Utilizamos os serviços do Facebook, sem a necessidade de pagar alguma taxa monetária pelo serviço. Mas como qualquer outro negócio, o Facebook precisa se monetizar. Isso é feito no outro lado da plataforma, composto pelos anunciantes que pagam ao Facebook para veicular anúncios para os seus usuários. Portanto, o que o Facebook faz é o match entre nós, usuários, e os anunciantes.

Ora, mas o WhatsApp não tinha e ainda não tem serviços de publicidade. Por que, então, esse lado poderia ter relevância para a análise antitruste? Uma das respostas é justamente a possibilidade de o WhatsApp passar a ter publicidade após a operação. A outra é Big Data. O que torna o Facebook tão competitivo em direcionar anúncios específicos a cada um de nós é que ele conhece (até muito bem) a cada um de nós. Além de todos os dados cadastrais que fornecemos, toda vez que clicamos em algum link no Facebook, ou demoramos um pouco mais num post, revelamos um pouco de nossos interesses e particularidades.

Esses dados associados à utilização de algoritmos permitem à máquina aprender um pouco mais sobre nós (é o tal do machine learning), conseguindo nos direcionar conteúdo e anúncios cada vez mais personalizados. A integração da base de dados do Facebook com a do WhatsApp poderia, portanto, gerar uma vantagem competitiva para o Facebook, que lhe permitiria melhor direcionar anúncios e obter poder de mercado em anúncios online. A detenção de todos esses dados poderia, assim, erguer barreiras à entrada para outros competidores.

A conclusão da Comissão Europeia foi que, mesmo com a integração, continuaria a existir um número significativo de provedores alternativos de anúncios direcionados (pense no Google, por exemplo) e que uma parcela significativa dos dados de usuários úteis para direcionamento de publicidade não era de exclusividade do Facebook, não havendo, portanto, um problema concorrencial.

Assim, já em 2014 a Comissão aprovou a operação e o Facebook adquiriu o WhatsApp. Como apresentado, em sua decisão, a Comissão considerou que não haveria viabilidade técnica de unir as bases de dados do Facebook e do WhatsApp, e que, conforme informado pelas Requerentes, não haveria intenção de o WhatsApp passar a atuar em plataformas de computador.

Como sabemos, hoje os serviços já são integrados e é possível utilizar o WhatsApp pelo computador. Esse foi um dos motivos que levou a Comissão Europeia a aplicar ao Facebook a primeira multa por enganosidade desde a Lei de Fusões de 2004.

Essa multa, de 110 milhões de euros[3], deveu-se ao fato de as Requerentes terem sido enganosas ou negligentes ao afirmar que não seria possível integrar os dados das duas plataformas. O que é interessante também, é que a Comissão não voltou atrás na sua decisão. Isso porque, como explicado, ela já afirmara que, mesmo que fosse possível unir as duas bases, ainda assim a operação não geraria problemas concorrenciais.

Hoje, mais da metade do mercado de anúncios nos Estados Unidos é concentrado nas mãos de Facebook e Google[4]. Isso nos traz algumas questões:

https://contentstorage-nax1.emarketer.com/9dc078228b3f9ba47487e4717565a97a/235954

Fonte: https://www.emarketer.com/content/google-and-facebook-s-digital-dominance-fading-as-rivals-share-grows (Acesso em 09 de outubro de 2018).

A operação terá tornado o Facebook mais apto para rivalizar com o Google pelo lado de anúncios ou terá apenas reforçado um duopólio? Já possuindo uma base de usuários muito grande à época da operação, teria o WhatsApp conseguido expandir seus serviços e tornar-se um novo entrante no mercado de redes sociais para rivalizar com o Facebook, caso não tivesse sido por este adquirido? Qual terá sido o efeito da operação sobre fatores não-preço, como privacidade? O que terá incitado o post de um dos fundadores do WhatsApp, que deixou o Facebook no final de 2017: #deletefacebook?

Fonte: https://www.theguardian.com/technology/2018/mar/20/facebook-cambridge-analytica-whatsapp-delete Acesso em 09 de outubro de 2018.

Outra pergunta que o leitor atento deve estar a se fazer é… e o que tem a Rainha Vermelha a ver com este post? Ao trilhar o caminho da decisão da Comissão Europeia, foi possível nos deparar com novos termos, que só recentemente adentraram o vocabulário antitruste. Switching costs, efeitos de rede, multihoming, big data, todos esses são conceitos que vêm ganhando destaque com o avanço da economia digital e que motivaram a Autoridade de Concorrência alemã, por exemplo, a editar uma emenda[5] à sua legislação antitruste para que esses tópicos sejam levados em consideração na análise de “poder de mercado” em mercados digitais.

Para quem não se recorda da estória, a Rainha Vermelha explicava à maravilhada Alice que era preciso correr tanto quanto possível para permanecer no mesmo lugar[6]. O que vimos é que também no antitruste, essa máxima é válida: para as autoridades da concorrência, escritórios, estudiosos do assunto, você, estimado leitor, e, claro, as próprias empresas de tecnologia.

Patrícia A. Morita Sakowski é técnica de planejamento e pesquisa do Instituto de Pesquisa Econômica Aplicada (Ipea) e exerce a função de Economista-Chefe Adjunta no Conselho Administrativo de Defesa Econômica (Cade). Possui mestrado em economia pela Hitotsubashi University (Tóquio-Japão) e gradução em economia pela Universidade de São Paulo (FEA-USP).
  1. “Segundo o artigo 88 da Lei 12.529/2011, com valores atualizados pela Portaria Interministerial 994, de 30 de maio de 2012, devem ser notificados ao Cade os atos de concentração, em qualquer setor da economia, em que pelo menos um dos grupos envolvidos na operação tenha registrado faturamento bruto anual ou volume de negócios total no Brasil, no ano anterior à operação, equivalente ou superior a R$ 750 milhões, e pelo menos um outro grupo envolvido na operação tenha registrado faturamento bruto anual ou volume de negócios total no Brasil, no ano anterior à operação, equivalente ou superior a R$ 75 milhões.” (http://www.cade.gov.br/servicos/perguntas-frequentes/perguntas-sobre-atos-de-concentracao-economica Acesso em 09 de outubro de 2018)
  2. Este post traz apenas alguns aspectos da Decisão da Comissão Europeia. Para a análise detalhada, ver http://ec.europa.eu/competition/mergers/cases/decisions/m7217_20141003_20310_3962132_EN.pdf
  3. Ver mais detalhes em http://ec.europa.eu/competition/mergers/cases/decisions/m8228_493_3.pdf
  4. Fonte: https://www.appnexus.com/sites/default/files/whitepapers/guide-2018stats_2.pdf (slide 49). Acesso em 09 de outubro de 2018.
  5. https://www.clearygottlieb.com/~/media/organize-archive/cgsh/files/2017/publications/alert-memos/2017_06_28-germany-adjusts-arc.pdf(3a) In particular in the case of multi-sided markets and networks, in assessing the market position of an undertaking account shall also be taken of: 1. direct and indirect network effects, 2. the parallel use of services from different providers and the switching costs for users, 3. the undertaking’s economies of scale arising in connection with network effects, 4. the undertaking’s access to data relevant for competition, 5. innovation-driven competitive pressure.http://www.gesetze-im-internet.de/englisch_gwb/englisch_gwb.html#p0066
  6. http://www.alice-in-wonderland.net/wp-content/uploads/through-the-looking-glass.pdf (“Now, HERE, you see, it takes all the running YOU can do, to keep in the same place.” p. 17)

 

Nova equipe de editores

Prezado(a)s Amigo(a)s,

Após três anos e meio sob a nossa liderança, o Blog Economia de Serviços passará, nos próximos dias, por mudanças. Temos o grande prazer de anunciar que Bernardo Mueller, Carlos Alberto Ramos, Geovana Lorena e Vanessa Carvalho serão os novos editores do Blog. João Pedro Arbache seguirá como membro da equipe de apoio.

Os novos editores são destacados acadêmicos e profissionais em áreas cruciais associadas à economia de serviços, como economia das instituições, economia da complexidade, economia do trabalho, economia da infraestrutura, economia digital, entre outras. Estamos seguros que o Blog entrará numa etapa ainda mais rica e pujante.

De nossa parte, saímos com a sensação de dever cumprido. O Blog ajudou a chamar a atenção para a agenda até então pouco explorada de economia de serviços e suas interrelações com áreas críticas da economia e do direito. Por conta desse trabalho, nos tornamos referência nacional e até internacional na temática. Já passamos da marca das 300 mil visualizações e somos acompanhados em todos os continentes.

Muito obrigado a todos os nossos leitores, autores de posts e amigos.

Um caloroso bem-vindo à nova equipe!

Jorge Arbache e Rafael Moreira

A falácia da composição na economia digital

Falácia da composição é um dos mais importantes princípios da teoria econômica. Porém, é, também, um dos menos conhecidos. Embora o princípio não seja próprio da economia, ele foi empregado por muitos dos grandes economistas, com destaque para Paul Samuelson, para análises de problemas econômicos fundamentais.

De forma simples, o princípio diz que o que é válido para a parte pode não necessariamente ser válido para o todo. Trata-se de um problema de não neutralidade da agregação. Por exemplo, é provável que um torcedor acompanhe melhor as jogadas do seu time se ele estiver de pé no seu assento no estádio; porém, é improvável que o mesmo seja válido para cada torcedor se todos os demais torcedores também estiverem de pé.

O princípio da falácia da composição é útil para jogar luz em muitas situações de áreas tradicionais da microeconomia, como a organização industrial, economia do trabalho, economia do consumidor, finanças públicas, comércio internacional, dentre outras.

Mas a falácia da composição também parece ser útil em áreas novas, como a economia digital. De fato, quando combinado com a comoditização digital, conceito tanto explorado por este blog, o princípio da falácia da composição nos ajuda a entender fenômenos críticos da economia digital.

A falácia da composição surge em ao menos duas situações. Empresas que empregam, logo no início, tecnologias sujeitas aos modelos de negócios da comoditização digital tendem a se beneficiar mais do que as que as empregam mais tardiamente, quando as tecnologias já se tornaram “commodities”. Àquela altura, o emprego da commodity digital passa a ser uma espécie de condição de operação e não mais um diferencial competitivo.

Uma outra situação surge em decorrência do efeito-rede e do efeito-plataforma, duas das características mais fundamentais da economia digital, e que ajudam a explicar a crescente concentração dos mercados digitais, as dificuldades para se contestar o poder das big-techs e a ascensão e queda dos unicórnios. Trata-se do princípio do “winner takes all”, ou da economia das superestrelas.

Em ambas as situações, “chegar primeiro” pode fazer toda a diferença para as chances de sucesso. Mas chegar primeiro não é algo restrito às decisões da empresa, mas, também, condicional às suas circunstâncias, incluindo as políticas públicas do país e o ambiente para investir e fazer negócios.

O emprego da falácia da composição para a análise econômica em economia digital é, porém, altamente sensível à escolha adequada do ponto temporal de partida do fenômeno que se examina. Aqui, a maldição do t-0 é especialmente relevante.

Por fim, a comoditização digital e a falácia da composição ajudam a explicar o paradoxo da desaceleração da taxa de crescimento da produtividade em pleno ambiente de popularização das tecnologias da informação e de queda nos preços relativos dos bens de capitais. Esta pode ser uma das chaves para se compreender a estagnação secular.

Desafio da atenção-foco (Tendências que moldarão o ensino superior em 2025)

[Este post faz parte da série “10 Tendências que afetarão o ensino superior até 2025”]

12/06/2025, 19:10 hs – O professor Herbert Simon está atrasado para o comício de um dos candidatos a presidente na Brasiléia. Ele como professor da disciplina de Análise do Discurso Político, está correndo pois não quer dar um mal exemplo aos alunos da disciplina. Na programação da disciplina para essa noite, o professor e a turma iriam se encontrar no local do comício por volta das 19:15 hs, para poderem assisti-lo juntos e após o pronunciamento do candidato, previsto para finalizar-se por volta das 20:30 hs, retornariam para a sala de aula (ou melhor para um espaço reservado para os trabalhos e discussões que irão desenvolver, já que agora “a sala de aula” é qualquer espaço dentro ou fora da universidade, físico ou virtual; mas nesse dia específico, o espaço integrava a estrutura física da universidade), que teria como foco a aplicação das técnicas de análise do discurso que permeiam a espinha dorsal do conteúdo dessa disciplina. Divididos anteriormente em grupos de trabalho, uma parte dos alunos filma o pronunciamento com seus celulares, enquanto uma outra parte faz anotações (também nos seus celulares) sobre pontos de destaque que serão melhor trabalhados em “sala de aula”; outro grupo ainda (sim, grupo, já que praticamente todas as atividades são desenvolvidas em grupos), faz rápidas interações com alguns dos presentes no comício, gravando e filmando algumas declarações.
Em 2025, com o objetivo de manter o foco e atenção dos aprendizes (aprendiz, porque continuarão o processo de aprendizagem pelo resto da vida), as instituições de ensino superior estão focadas em disponibilizar condições para a reflexão e análise crítica da sociedade à qual seus aprendizes (os chamados centennials, todos nativos digitais e com características predominantemente imediatistas, ansiosos e sempre interagindo com múltiplas tarefas e plataformas), fazem parte.
A construção do aprendizado se dá a partir de sua construção individual por cada um dos aprendizes, já que o papel do professor, como facilitador, não é o de discorrer sobre uma profunda explicação sobre tudo o que envolve aquele assunto, mas sim o de estimulá-los a desenvolver suas capacidades mentais. Isso foi aprendido ao longo dos anos a partir de percepções, análises e pesquisas profundas de especialistas em educação, que foram taxativos em afirmar que o aprendizado só pode ser realizado pelo sujeito que aprende; que assim adquirem, nesse processo, a capacidade de aprenderem por conta própria.
Nos espaços de aprendizagem na universidade, quase não se encontra papeis disponíveis, mesmo porque faz algum tempo, eles foram quase totalmente abolidos, os aprendizes já não realizam tarefas, exercícios e outros trabalhos escrevendo em papel. Assim como questões como gravar em suas mentes fatos históricos antigos ou gravar fórmulas para provas (provas?), ficaram para trás, já que têm à sua disposição, um acervo quase infinito de informações disponíveis, atualizadas e de qualidade, que acessam através de um “click” (todos os livros e outras fontes de consulta de que necessitam estão no formato virtual).
O espaço físico / temporal no contexto da interação entre o aluno e o professor também está diferente, pois a tecnologia mudou essa relação e agora o aprendiz não irá mais precisar esperar até a aula para tirar suas dúvidas sobre a disciplina, agendas, etc.; podendo buscar de maneira simplificada as respostas nos suportes digitais disponíveis pela universidade ou simplesmente enviando uma mensagem aos professores ou colegas via redes sociais ou aplicativos de mensagens em celulares.
Segundo pontuado por Davenport (2001, p. 25), “atenção é o envolvimento mental concentrado com determinado item de informação. Os itens entram em nosso campo de percepção, atentamos para um deles e, então decidimos quanto à ação pertinente”.
Ou seja, em 2025, a questão do atenção-foco, será uma prioridade e a problemática que a envolve hoje em grande parte estará resolvida por ambientes, metodologias, interações e tecnologias, como algumas das que foram descritas no contexto desse artigo.
O desafio da atenção-foco, é a oitava tendência, dentre dez identificadas no trabalho de cenários “Tendências que moldarão o ensino superior em 2025”, conduzido pelo time de consultores da Nous SenseMaking.

Brenner Lopes é Mestre em Administração com ênfase em Inteligência Competitiva e é sócio na Consultoria Nous SenseMaking.
João Lopes é consultor da Nous SenseMaking e professor, com graduação em Administração de Empresas e pós-graduação em Engenharia da Produção e Gerenciamento de Projetos.
Davenport, Thomas; Beck, John C. A economia da atenção. RJ: Campus, 2001.

Data-driven economy e seus impactos sobre os direitos de personalidade

A entrada em vigor do Regulamento Geral de Proteção de Dados na União Europeia e a recente aprovação pelo Senado brasileiro do projeto de lei sobre proteção de dados pessoais ressaltaram as inquietações que a data driven economy vem gerando sobre os direitos da personalidade. A discussão mais comum e frequente tem ocorrido em torno da privacidade ou do controle sobre os dados pessoais, muitas vezes coletados de forma ilícita, sem a ciência e a autorização informada dos titulares.

A partir de tais dados, que são os verdadeiros insumos da nova economia, algoritmos conseguem transformá-los em informações economicamente úteis, mas que podem provocar verdadeira devassa na vida privada dos usuários. São exemplos os algoritmos que identificam a orientação sexual a partir do reconhecimento facial, os que decifram emoções a partir da medição de ondas cerebrais, os que diagnosticam crises depressivas e outros transtornos antes mesmo da manifestação de qualquer sintoma médico. É assustador imaginar o tipo de destinação que pode ser atribuída a tais recursos caso não haja nenhum tipo de controle, preocupação que é potencializada com o machine learning.

Uma coisa é certa: algoritmos têm assumido o papel de fazer diagnósticos, julgamentos, classificações e rankings a respeito dos usuários que, embora não necessariamente corretos, serão utilizados pelos próprios agentes econômicos que os exploram e também cedidos para os seus parceiros de negócios em uma infinidade de aplicações que estão fora do alcance da imaginação do cidadão comum.

O problema é que esses julgamentos algorítmicos podem ter impactos diretos nas oportunidades e nas opções de vida dos usuários, pois deles dependerá o acesso a empregos, crédito, seguro e uma série de outros serviços. Por essa razão, a utilização dos dados não diz respeito apenas a problema de violação da privacidade, mas envolve outras relevantes discussões, como o direito de não ser julgado ou categorizado para determinados fins ou o direito de não ser julgado ou categorizado com base em determinados critérios.

A gravidade da situação aumenta quando não se tem nem mesmo como avaliar o potencial danoso de algoritmos, que normalmente se baseiam em dados, correlações e critérios de inferência sigilosos e sem qualquer transparência, que podem ser incorretos ou falsos, e que ainda podem ser utilizados para lastrear correlações que não correspondem a causalidades. Mais grave ainda, podem reproduzir correlações que sejam frutos de discriminações e de uma série de injustiças da vida social.

É por esse motivo que Cathy O`Neil[1] refere-se aos algoritmos como armas matemáticas de destruição, na medida em que, longe de serem neutros e objetivos, embutem em seus códigos uma série de decisões e opiniões que não podem ser contestadas, até porque não são conhecidas. Daí o seu potencial de destruição silenciosa, na medida em que podem basear seus julgamentos em preconceitos e padrões passados que automatizam o status quo e ainda podem ser utilizados para toda sorte de discriminações e violações de direitos.

A falta de transparência é reforçada quando se sabe que tais algoritmos são aperfeiçoados a partir da inteligência artificial, por meio da qual, com a aprendizagem de máquina (machine learning) e com as redes neurais artificiais, mais e mais algoritmos se desenvolvem independentemente, aprimorando a si mesmos e aprendendo com os próprios erros. Como bem resume Harari[2], com a inteligência artificial, o algoritmo “segue o próprio caminho e vai aonde humanos nunca foram antes – até onde nenhum humano pode segui-lo”.

Daí o fundado receio de que dados e correlações manejados por algoritmos possam estar sendo utilizados como veículos de manutenção de discriminações e injustiças, preservando os padrões do passado – ainda que equivocados – ao mesmo tempo em que comprometem as possibilidades do futuro.

Logo, além dos riscos à privacidade e ao controle sobre os dados pessoais, é o próprio presente e o futuro das pessoas que pode estar sendo definido pelos algoritmos, sem que se tenha a possibilidade de conhecer e criticar os dados e correlações que alimentam seus processos decisórios.

Sob essa perspectiva, para o adequado endereçamento do problema, talvez não seja suficiente apenas uma lei de proteção de dados, embora esta seja certamente uma das providências mais importantes nessa seara, até para definir o que pode ser considerado dado pessoal. Há que se verificar igualmente a compatibilidade da utilização dos dados diante do Direito Constitucional, do Direito da Concorrência e do Direito do Consumidor, dentre outros.

Mais do que isso, há que se indagar sobre o grau e os mecanismos de transparência e accountability que se exigirão dos agentes empresariais que se utilizam de algoritmos para compreender e categorizar usuários para os mais diversos fins, o que traz impactos para a sua identidade pessoal – já que podem estar sendo definidos e classificados de forma equivocada – bem como para as oportunidades e opções de vida desses usuários, as quais podem estar sendo indevidamente restringidas em razão de diagnósticos apressados ou claramente equivocados.

Ainda há que se analisar outro preocupante efeito da destinação dos dados pessoais: é que todo o conhecimento sobre os usuários ainda pode ser utilizado para, associado ao poder da comunicação e aos estudos da biologia, neurociência e psicologia, manipular as pessoas, bem como tentar modificar suas crenças e opiniões.

Como explica Tim Wu[3], a partir do momento em que atenção se torna comoditizada, o tempo em que as pessoas passam em determinadas plataformas passa a ser importante fator não apenas para sujeita-las à publicidade e à coleta dos seus dados, mas também para sujeitá-las a estratégias que visam influenciar e alterar suas preferências e visões de mundo[4]. É por essa razão que Tim Wu sustenta que o verdadeiro negócio de muitas das indústrias da nova economia é o de influenciar consciências.

Vista a questão por esse ângulo, a tecnologia pode estar sendo utilizada contra aquilo que temos de mais precioso: a nossa individualidade. A partir do momento em que as máquinas conseguem nos conhecer melhor do que nós mesmos, podem utilizar nossas fragilidades para manipular nossas emoções, crenças e opiniões para os mais diversos fins, inclusive políticos. Aliás, as eleições de Donald Trump e do Brexit ilustram bem tal preocupação.

Como bem afirma Castells[5], a forma mais fundamental de poder é a de moldar a mente humana. No mesmo sentido, Martin Moore[6] destaca que as grandes plataformas adquiriram enorme poder de influenciar a ação coletiva e mesmo o voto das pessoas.

Ora, se o mais importante instrumento de poder em uma sociedade tecnológica e informacional é a capacidade de influenciar e manipular as pessoas, é fácil concluir que os principais riscos da nova economia vão muito além da violação à privacidade dos usuários, alcançando a identidade pessoal, a própria liberdade e, consequentemente, a cidadania e a democracia.

Como se procurou demonstrar ao longo do artigo, a coleta de dados e a sua utilização pelos diversos agentes da economia movida a dados vem colocando a personalidade sob um triplo risco: (i) a coleta em si dos dados, o que já seria preocupante do ponto de vista da privacidade e do controle dos dados pessoais; (ii) a utilização dos dados para a construção de julgamentos a respeito dos usuários que, corretos ou não, podem causar diversos danos a estes conforme os fins a que se destinam, limitando o acesso a produtos, serviços e oportunidades de vida e (iii) a utilização dessas informações com o propósito de manipular os próprios usuários, para os fins mais diversos, inclusive políticos.

Logo, o manuseio dos dados enseja preocupações que vão muito além da privacidade e do controle sobre os dados pessoais dos usuários: na verdade, o que está em jogo é a manutenção de valores como a identidade pessoal, a liberdade, as oportunidades e perspectivas do presente e do futuro das pessoas e a própria democracia.

  1. Op.cit.
  2. HARARI, Yuval Noah. Homo Deus: uma breve história do amanhã [edição eletrônica]. São Paulo: Companhia das Letras, 2016.
  3. WU, Tim. The attention merchants: the epic scramble to get insideour heads. Nova Iorque: Knopf, 2016.
  4. Ver: FRAZÃO, Ana. Prefácio. In: FERNANDES, Ricardo Vieira de Carvalho; COSTA, Henrique Araújo; PRATA DE CARVALHO, Angelo Gamba. Tecnologia jurídica e direito digital. Belo Horizonte: Fórum, 2018.
  5. CASTELLS, Manuel. O poder da comunicação. Tradução Vera Lucia Joyceline. Rio de Janeiro/São Paulo: Paz e Terra, 2015.
  6. MOORE, Martin. Tech Giants and Civic Power. https://www.kcl.ac.uk/sspp/policy-institute/cmcp/tech-giants-and-civic-power.pdf. Acesso em 14.06.2018.
Advogada e Professora de Direito Civil e Comercial da Universidade de Brasília – UnB. Ex-Conselheira do CADE – Conselho Administrativo de Defesa Econômica (2012-2015). Ex-Diretora da Faculdade de Direito da Universidade de Brasília (2009-2012). Graduada em Direito pela Universidade de Brasília – UnB, Especialista em Direito Econômico e Empresarial pela Fundação Getúlio Vargas – FGV, Mestre em Direito e Estado pela Universidade de Brasília – UnB e Doutora em Direito Comercial pela Pontifícia Universidade Católica de São Paulo – PUCSP. Líder do GECEM – Grupo de Estudos Constituição, Empresa e Mercado.