Economia de Serviços

um espaço para debate

Category: Uncategorized (page 3 of 8)

Teorias Conspirativas, IBGE e Democracia

Poderia ter utilizado alguma referência literária (e não faltam alusões nessa direção). Por exemplo, em um texto de 1952 (A Linguagem Analítica de John Wilkins), Jorge Luis Borges afirma que “…notoriamente não existe classificação do universo que não seja arbitrária e conjectural….” Poderia ter-se reportado a algum laureado economista. Por exemplo, Robert Lucas sustenta que o desemprego involuntário é uma invenção de Keynes e corresponderia aos keynesianos carregar esse fardo analítico, com todas suas supostas imprecisões teóricas e empíricas. Porém não. O Presidente Bolsonaro apelou à Teoria da Conspiração para manifestar a sua insatisfação com os dados divulgados pelo IBGE sobre o nível de desemprego. Nessa visão do mundo, não parece ser nem original nem insólito, uma vez que acompanha uma tendência cada vez mais ampla entre novas correntes políticas/ideológicas que têm ascendido ao governo em diversos países. Esse referencial teórico (a Teoria da Conspiração) é explícito ao sustentar que a taxa de desemprego calculada pelo IBGE “parece feita para enganar a população”.

A avaliação dessa afirmação pode ser realizada desde múltiplas perspectivas e levanta os mais diversos interrogantes. Por exemplo, surge naturalmente a questão do porque não demitir o Presidente (ou a Presidenta) do IBGE uma vez que a atual titular foi por ele nomeada. O desligamento seria até justificado dado que o órgão que preside estaria divulgando estatísticas cujo objetivo seria “enganar a população”. Um segundo tipo de resposta seria contrapor essa acusação abstrata com certas informações metodológicas concretas. Por exemplo, que o IBGE acompanha recomendações internacionais na construção de suas estatísticas, réplica já dada oficialmente por essa instituição. Uma outra alternativa seria analisar os dados e advertir os erros primários nas críticas esboçadas.

Essas possíveis leituras, avaliações e réplicas já foram realizadas e amplamente divulgadas pela imprensa. Nesse sentido não vamos voltar sobre elas. Seria uma tarefa redundante. Contrariamente, a nossa perspectiva neste post é outra, mais radical, e consiste em sustentar que todas as avaliações e réplicas explicitadas carecem de transcendência, uma vez que estamos diante de uma questão epistemológica e não perante uma simples discussão metodológica sobre a construção de indicadores. Ou seja, uma afirmação com a qual estamos lidando (a construção de séries feitas pelo instituto oficial de produção de estatísticas estaria disponibilizando parâmetros cujo objetivo seria “enganar a população”) não pode ser refutada no marco da perspectiva epistemológica (“os óculos que nos permitem ordenar o mundo”) que corriqueiramente se denomina ciência. Aliás, como outras formas de abordar o mundo (magia, religião, experiência, astrologia, superstição, etc..), o que caracteriza uma afirmação como essa é a quase impossibilidade de sua refutação. Ou, em todo caso, a impossibilidade de refutação aos olhos daqueles que a sustentam.

Olhar ou interpretar o mundo através da Teoria da Conspiração tem arraigadas raízes na história do pensamento (ver, por exemplo, McConnachie, Tudge (2013)) e, basicamente, tenta caracterizar um fenômeno como sendo o produto do conjuro de uma força superior, oculta, com vastos e camuflados objetivos, com ampla capacidade de atuação, etc.. Os ideólogos e executores da conspiração podem ser os mais diversos, variando segundo os períodos históricos e a ideologia do proponente, factível de ir desde os judeus até as elites financeiras, o marxismo cultural, os mações, o tal establishment em geral e dentro destes os mais diversos subconjuntos (o establishment financeiro, político, a Comissão Européia, etc..) sendo até possível chegar às identificações mais exóticas (os extraterrestres).

As Teorias Conspirativas foram utilizadas para analisar e avaliar profusos episódios, desde os mais triviais até eventos cruciais na história da humanidade. Entre os mais triviais podemos mencionar a suposta morte de Paul McCartney e a foto do disco Abbey Road. Nela Paul estaria cruzando a rua de olhos fechados, levando um cigarro na mão esquerda (ele é canhoto), descalço (como seriam enterrados os mortos na Inglaterra) e por aí vai. A foto retrataria o enterro de Paul. Em realidade em cada disco dos Beatles se imaginavam diversas “evidências” da morte de Paul (a capa de Sgt. Pepper, por exemplo, também seria seu enterro). Entre as “interpretações” de eventos mais dramáticos (ou que geraram eventos mais dramáticos) podemos mencionar desde os presumidos “Protocolos dos Sábios de Sião” e a suposta “conspiração” judia até algumas mais recentes, como fantasiar que os atentados do 11 de setembro nos EUA teriam sido um complô dos próprios Estados Unidos para justificar intervenções militares visando dominar reservas de petróleo no Oriente Médio. Aspectos da história recente do Brasil não fogem a esse tipo de análise. Por exemplo, a Lava Jato seria um complô urdido nos EUA para acabar com a Petrobrás, a indústria nacional e o savoir-faire da engenheira do país (ver aqui).

O diálogo ou a interação entre o paradigma do que corriqueiramente se denomina de ciência e outras formas de abordar o mundo (seja no tocante a aspectos físicos, como a origem da vida na terra, ou dimensões políticas/sociais/econômicas, etc.) é limitado quando não impossível. Tomemos o caso da verificação empírica das correlações e as relações de causalidade. Seja que optemos pela perspectiva indutiva ou dedutiva, na visão cognitiva do que denominamos de ciência sempre existem modelos teóricos e correspondentes testes empíricos (ou a possibilidade de serem realizados). Essa relação entre teoria e validação empírica ou entre teoria e observação pode merecer as mais diversas abordagens e tensões (possibilidade de refutação versus verificação), mas na ciência esse nexo está sempre latente. Vejamos a questão da falseabilidade em Popper. O criacionismo não pode ser considerado uma teoria científica uma vez que não é falseável. A teoria evolutiva sim. A psicologia, no sentido Popperiano, não pode ser considerada uma ciência. Restringindo-nos ao marco conceitual de Popper, uma afirmação científica tem validade transitória, pode ser refutada no tempo, sempre paira a dúvida sobre ela e, pela sua mesma natureza, é provisória. O criacionismo é definitivo, absoluto, não paira dúvida sobre ele, não existe espaço para o ceticismo. Ou seja, não pode ser assumido como científico.

As Teorias da Conspiração (em paralelo a outras que estão fora do escopo deste post, como a magia, a astrologia, a superstição, etc.) sempre situam a origem de um fenômeno em uma força oculta, porém supostamente poderosa, bem articulada e com fins quase sempre bem específicos (“os judeus pretenderiam conquistar o mundo”) ou extremamente amplos e nebulosos (um determinado fenômeno seria um complot da imprensa, ainda que não se saiba muito bem o objetivo dessa intriga). Observemos que aqui estamos diante de uma interessante caracterização que Popper, no seu A Sociedade Aberta e seus Inimigos, realiza da Teoria da Conspiração: não existe espaço para o azar, sempre um resultado será o corolário do acionar de um grupo interessado, mesmo que o grupo ou o objetivo não seja explicitado. O IBGE estaria manipulando os indicadores para “enganar a população”: qual seria o objetivo último ? Qual o grupo interessado ? Não sabemos nem o indivíduo que fez essa afirmação (neste caso o Presidente do Brasil) explicitou. Por outra parte, a Teoria da Conspiração combinaria, ao mesmo tempo, uma singularidade simplista (simplória) e complexa. Assim, JFK teria sido assassinado pela máfia (em algumas versões associada à própria CIA) uma vez que a mesma se sentiu traída depois de ter financiado sua campanha e o presidente nomear seu irmão Robert como procurador geral para iniciar uma política persecutória contra ela. Temos uma explicação simples (assassinato pela máfia) em um contexto supostamente extremamente complexo (planejamento, grupos de pessoas interagindo, informação/secreto, etc.). Não existe espaço para o aleatório. Não existe a possibilidade de um desequilibrado, atuando sozinho e por motivos fúteis, ter cometido esse assassinato. Sempre existirá um grupo oculto, secreto, fechado, com estratégias sofisticadas e um “raciocínio” que tem como corolário a explicação simplória (mas muitas vezes de um inusitado apelo popular) de um fenômeno. Por exemplo, a Lava Jato teria sido urdida no Departamento de Justiça dos EUA para acabar com a Petrobrás.

Mas voltando a nossa avaliação em termos de ciências, observemos que a ausência de confirmação é assumida como uma confirmação: se não existem provas é um atestado da sofisticação do grupo oculto. Assim, se na ciência a não existência de provas pode levar a rejeitar uma hipótese (no caso da verificação ser assumida como prova de validade, que não é o caso de Popper), na Teoria da Conspiração a ausência de provas é assumida como confirmação: um aspecto negativo é assumido como sendo a prova positiva. Para Hitler, a “prova” que os Protocolos dos Sábios de Sião são verdadeiros é sua rejeição pelos judeus (Cohn (1996)).

Estas considerações sobre a impossibilidade de diálogo entre o paradigma científico mainstream e a Teoria da Conspiração poderia ser associado a uma inquietude exclusivamente acadêmica, que diria mais respeito a questões epistemológicas que a desdobramentos concretos sobre um suposto objetivo do IBGE de “enganar à população brasileira”. Em realidade, os elos (entre considerações teóricas e corolários práticos) são mais próximos e perpassam inquietudes exclusivamente metodológicas ou acadêmicas. Como bem nos lembra Popper na referência que já citamos (A Sociedade Aberta e seus Inimigos), os projetos totalitários (não importa seu sinal ideológico) estão umbilicalmente vinculados a perspectivas conspiratórias do mundo. Por outra parte, como bem indicam as Nações Unidas, “As estatísticas oficiais constituem um elemento indispensável no sistema de informação de uma sociedade democrática…..) (ver aqui). Na medida em que balizam sistemas de formulação, controle e avaliação de políticas, a credibilidade e confiança da oferta de séries oficiais se deve nutrir de instituições produtoras com certas características: independência do poder, capacidade técnica, acompanhamento das sugestões metodológicas de organizações multilaterais, etc.. (sobre este ponto ver Feijó (2002), Valente e Feijó (2006)).[1] Nesse sentido, um sistema totalitário ou governos de cunho populista não podem, em nenhuma circunstância, conviver com uma instituição oficial de produção de estatísticas independente e tecnicamente competente. Existem funestas experiências bem próximas (no espaço e no tempo). Por exemplo, a aventura kirchnerista na Argentina redundou em um desmonte total do INDEC (o IBGE desse país) e desembocou em uma oferta de indicadores de inflação, emprego, pobreza, etc.. sem nenhuma credibilidade. Superada a miragem, reconstruir e encadear séries credíveis, reerguer reputações, recompor recursos humanos qualificados, etc. podem ser tarefas de anos.

Nesse contexto, questionar a confiabilidade da instituição oficial produtora de estatísticas apelando a Teorias Conspirativas representa um desafio difícil de ser contornado ou administrado. Justamente, a dificuldade se alimenta da impossibilidade de desafiar as suspeitas mediante argumentos que seriam normais no paradigma cognitivo no que se denomina ciência. Ao não compartilhar aspectos metodológicos básicos, refutar interpretações, diagnósticos ou afirmações oriundas de teorias conspirativas mediante discussões técnicas ou evidencias será uma tarefa inglória. Acentuando ainda mais essa disfunção, apelar a interpretações nutridas em alguma teoria conspiratória abre a caixa de pandora para o surgimento dos mais diversos diagnósticos e o debate começa a ser regulado pelas mais extravagantes narrativas, todas compartilhando os aspectos básicos do que denominamos de paradigma da Teoria da Conspiração. Dessa forma, se o Presidente da República atribui ao IBGE a intenção de produzir estatísticas para “enganar a população”, debilitando-o institucionalmente, valida intelectualmente uma ficção que identifica as restrições orçamentárias do próximo Censo e as sugestões para reduzir o número de quesitos no questionário como uma estratégia do Ministro Paulo Guedes para forjar as estatísticas e iludir a população: “A intenção de Guedes é reduzir o número de indicadores para poder manipular mais a realidade” (ver aqui).

Nessa proliferação de relatos nos quais as teorias conspirativas pautam os pseudo-argumentos e o diálogo com o método científico tradicional se torna inócuo, uma saída possível (seja para preservar tecnicamente as séries seja para preservar a mesma democracia) consistiria avançar na institucionalidade do IBGE como órgão independente e com reputação. Por exemplo, assumir para sua formatação institucional aspectos muito discutidos no caso dos Bancos Centrais: Presidentes e Diretores com mandatos fixos não coincidentes com o ciclo eleitoral e aprovados pelo Senado, orçamento próprio e estável, integração mais acentuada com organismos internacionais, etc.. Nesse sentido, a pretendida acessão do Brasil à OCDE e os requisitos que sua admissão supõe pode ser um bom caminho a ser transitado.

  1. / Feijó, C.A. “Estatísticas oficiais: credibilidade, reputação e coordenação” Economia Aplicada. v.6.n.4. p.803-817. out./dez. 2002.

    ,

Autor:

Carlos Alberto Ramos é Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, Doutorado na Université Paris-Nord.

Redistribuição dos recursos da Educação Básica

O ensino público concentra pouco mais de 80% das matrículas da Educação Básica[1]: são aproximadamente 40 milhões de matrículas e 1,8 milhão de professores distribuídos em uma rede de 145 mil escolas[2]. O tamanho da rede torna ainda mais evidente a importância de políticas públicas em educação e o estudo dos mecanismos de redistribuição de recursos, especialmente em um país tão desigual como o Brasil.

Como os recursos da educação são distribuídos?

A Constituição de 1988 estabeleceu que estados e municípios devem alocar, no mínimo, 25% da receita proveniente de impostos e transferências em educação. Essa estrutura acabou aumentando a desigualdade entre as redes de ensino, já que estados e municípios ricos possuíam muito mais recursos a serem alocados nas suas redes de ensino. Consequentemente, durante a década de 90, houve aumento da heterogeneidade entre as escolas públicas de municípios ricos e pobres e entre as redes estaduais e municipais. Os sistemas estaduais eram muito maiores do que os municipais e, ao contar com maior montante de recursos e com maior capacitação das secretarias estaduais de educação, as escolas estaduais apresentavam maior proporção de insumos e indicadores educacionais mais elevados.

Um mecanismo de redistribuição de recursos foi implementado 1996 com a criação do Fundo Nacional de Desenvolvimento do Ensino Fundamental (FUNDEF)[3]. Entre os objetivos do fundo estava o de promover a adequação entre o gasto e o número de matrículas das redes de ensino, de modo a garantir maior equidade na redistribuição dos recursos educacionais. Foram criados 27 fundos estaduais e cada um deles era constituído por 15% do Fundo de Participação dos Estado (FPE), 15% do Fundo de Participação dos Municípios e 15% do ICMS[4] e do IPI[5]. Inicialmente tais recursos eram direcionados aos fundos estaduais e posteriormente redistribuídos entre a rede estadual e as respectivas redes municipais de acordo com o número de alunos matriculados no ensino fundamental regular[6].

Dessa forma, criou-se um mecanismo de redistribuição de recursos dentro de cada estado, em que os estados redistribuíam recursos aos seus respectivos municípios e municípios ricos redistribuíam recursos aos municípios pobres[7]. O FUNDEF promoveu a diminuição da desigualdade do gasto por aluno, o estreitamento da brecha salarial entre professores das redes estaduais e municipais e criou incentivos para que os municípios absorvessem mais alunos[8], já que o recebimento de recursos estava condicionado ao tamanho da rede. Em 2007, o FUNDEF foi substituído pelo Fundo Nacional de Desenvolvimento da Educação Básica (FUNDEB)[9], que passou a abranger toda a Educação Básica (Ensino Infantil, Fundamental e Médio) e cuja vigência é até 2020.

Em vez de 15%, estados e municípios passaram a alocar 20%[10] de uma cesta de impostos aos respectivos fundos estaduais. Além disso, de modo a garantir um gasto mínimo por aluno, o Governo Federal realiza a complementação de recursos. Em 2017, por exemplo, os fundos estaduais totalizaram R$ 132 bilhões e a União realizou uma complementação de R$ 12,7 bilhões.

O fundo possui uma característica equalizadora que contribui para diminuição da desigualdade de aplicação dos recursos educacionais. A Figura 1 apresenta a distribuição do gasto por aluno atual versus a de um cenário em que é simulada a ausência desse mecanismo de redistribuição. Observa-se que, na ausência do FUNDEB, a dispersão do gasto seria significativamente maior.

Figura 1

Fonte: Estimativa própria com base nos dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE), no Relatório Resumo de Execução Orçamentária (RREO) e no Censo Escolar. Redes Municipais.

No entanto, ainda há uma dispersão considerável entre o gasto das redes de ensino. Embora o gasto médio por aluno da rede pública com educação básica seja de R$ 6.000, o menor gasto é de R$ 2.642 enquanto o maior é de R$ 43.942[11], uma diferença superior a 16 vezes.

Como promover maior equidade?

Atualmente a complementação da União é realizada diretamente aos fundos estaduais, que, por sua vez, redistribuem esses recursos conforme o número de alunos matriculados nas redes de ensino. Em 2016, os 9 estados do nordeste foram beneficiados com os recursos do Governo Federal. No entanto, esse mecanismo, ao alocar os recursos nos fundos estaduais em vez de diretamente aos municípios, favorece municípios ricos em estados pobres em detrimento de municípios pobres em estados mais ricos. Por exemplo, capitais como Salvador, Recife, João Pessoa e São Luís, que na ausência de complementação da União já apresentariam gasto por aluno superior à média nacional, são beneficiados com recursos do Governo Federal. Por outro lado, municípios pobres de estados que não recebem complementação acabam sem receber recursos adicionais da União.

Se a complementação da União fosse realizada diretamente aos municípios seria possível garantir maior equidade na distribuição do gasto por aluno. Nesse cenário, o gasto mínimo por aluno passaria de R$ 2.642 para R$ 4.626 (Figura 2) e 1.704 municípios de todas as regiões do país seriam beneficiados.

Figura 2

Fonte: Estimativa própria com base nos dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE), no Relatório Resumo de Execução Orçamentária (RREO) e no Censo Escolar. Redes Municipais.

A vigência do FUNDEB até 2020 abre uma janela de oportunidade para a adoção de um mecanismo de redistribuição da complementação da União diretamente aos municípios, favorecendo a equidade do gasto em educação do país.

  1. 47,5% em escolas municipais, 33,4% em estaduais e 0,8% em federais e 18,3% na rede privada. Censo Escolar de 2017.

  2. 39,6 milhões de matrículas e 145.190 escolas. Censo Escolar de 2017.

  3. Lei n. 9.424 de 24 de dezembro de 1996. http://www.planalto.gov.br/ccivil_03/leis/l9424.htm

  4. Imposto sobre circulação de mercadorias e serviços.

  5. Imposto sobre produtos industrializados.

  6. A partir de 2000, os recursos passaram a ser redistribuídos de acordo com o total de matrículas do ensino fundamental regular e especial. Alguns estados também recebiam complementação da União se não conseguissem atingir determinado nível de gasto por aluno (cujo valor é determinado nacionalmente).

  7. Não há redistribuição entre os estados, por exemplo, recursos de São Paulo não são redistribuídos no Rio de Janeiro.

  8. Houve aumento da proporção de crianças em idade escolar matriculadas na escola e incentivos a descentralização, processo em que alunos são transferidos da rede estadual para a municipal.

  9. Lei n. 11.494 de 20 de junho de 2007. http://www.planalto.gov.br/ccivil_03/_ato2007-2010/2007/lei/l11494.htm

  10. A cesta de impostos dos estados é constituída pelo FPE, IPI, Lei Kandir, ICMS, IPVA, IOF e ITCMD; já a cesta dos municípios é formada por FPM, IPI, Lei Kandir, ICMS, IPVA e ITR.

  11. Dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE) referentes ao ano de 2016. O menor gasto é em Patos/PB e o maior em Douradoquara/MG.

Autora:

Vivian Amorim possui graduação e mestrado pela Faculdade de Economia e Administração da Universidade de São Paulo (FEA-USP). Atualmente cursa doutorado em Economia na Universidade de Brasília (UNB) e trabalha como consultora das Global Practices de Educação e Governança do Banco Mundial. 

O oligopólio na navegação internacional de contêineres e os impactos para o Brasil

Quando, em 1956, Malcom McLean, adaptou dois navios petroleiros e realizou, entre Nova Jersey e Houston, o primeiro transporte de contêineres da história, mal sabia que esse seria o início de uma revolução no comércio mundial. Assim como o barco a vapor cerca de um século antes, essas caixas compactas padronizadas permitiram uma redução sem precedentes no custo e no tempo de transporte, capaz de proporcionar a maior expansão das trocas humanas já vivenciada.

O processo que se seguiu, com o surgimento de sistemas de transporte intermodais e das cadeias globais de produção, possibilitou que o comércio mundial marítimo saltasse de 2,6 bilhões de toneladas, em 1970, para 10,7 bilhões de toneladas em 2018. Atualmente, os mares são os caminhos por onde transitam 80% do comércio internacional, sendo as cargas conteinerizadas responsáveis por 17% desse total, participação 10 vezes maior que aquela de quatro décadas atrás.

As mudanças tecnológicas e operacionais provocadas pela rápida conteinerização das cargas impactaram o mercado de navegação como um tsunami. A sobrevivência das empresas, nesse novo e cada vez mais dinâmico mercado, depende da exploração de economias de escala e de escopo. São necessários elevados investimentos em capital, tanto por parte dos terminais portuários – para a aquisição de equipamentos e provisão de infraestrutura -, quanto pelas empresas de navegação, com a encomenda de embarcações cada vez maiores e mais eficientes, tendo a capacidade dos navios porta-contêineres aumentado 14 vezes desde 1968.

Além dos investimentos em capital, a navegação mundial evoluiu em conjunto com o processo de globalização e desregulamentação de diferentes áreas de economia, encerrando arranjos e estruturas comerciais existentes há décadas no setor marítimo. Desde o final do século XIX que a navegação internacional se organizava por meio de conferências marítimas de linhas regulares, também conhecidas como “Conferências de Frete”. Essas conferências eram arranjos mercadológicos que possibilitavam principalmente a realização de acordos entres as companhias de navegação para a fixação de tarifas de fretes uniformes e a determinação de rotas e de capacidade alocada em cada serviço.

A principal justificativa para esse tipo de coordenação – que na realidade oficializava a cartelização do serviço marítimo – era a necessidade de se estabelecer estabilidade nos níveis de frete, de viabilizar a solvência das empresas de navegação e de se garantir a existência de rotas a diferentes destinos, mesmo que às custas de fortes queixas de usuários em relação aos valores de fretes pagos e à falta de transparência na formação dos preços.

Com o rápido processo de conteinerização e, a partir dos anos 80, da aplicação de legislações antitrustes, especialmente nos Estados Unidos e Europa, as Conferências de Frete passaram por um processo de desmonte. A forte queda nos níveis de frete levou as empresas de navegação a se voltarem para outras ações que diminuíssem o custo unitário e aumentassem a eficiência do transporte por meio de estratégias não mais baseadas na fixação de tarifas.

O mercado de navegação mundial se direcionou, então, a um processo de fusões, de verticalização e de realização de consórcios e alianças globais baseados no compartilhamento de operações, embarcações e contêineres, que permitissem às empresas de navegação poder econômico suficiente para o desembolso de vultosos investimentos em capital. Em vez de uma centena de empresas com capacidades de movimentação similares, o mercado de navegação começou a se concentrar cada vez mais em torno das Mega-Carriers, grandes multinacionais com atuação agressiva e coordenada, especialmente em momentos de queda nos níveis de frete, como a verificada a partir da crise de 2008.

Os dados da UNCTAD (Conferência das Nações Unidas sobre Comércio e Desenvolvimento) revelam as transformações vivenciadas no mercado nos últimos anos. Em 1997, as dez maiores empresas detinham 48% da capacidade mundial (1,8 milhão de TEUs*). Duas décadas depois, o ranking das dez maiores é composto em sua maioria por empresas diferentes, que em conjunto detêm 69% da capacidade mundial (17,4 milhões de TEUs). Atualmente, as maiores empresas de navegação organizam-se em três alianças, que concentram cerca de 80% da movimentação mundial de contêineres.

*Observação: Um TEU (Twenty Foot Equivalent Unit), unidade de medida de contêineres, representa a capacidade de carga de um contêiner marítimo normal, de 20 pés de comprimento, por 8 de largura e 8 de altura. A altura de um TEU pode variar de uma baixa de 4,25 pés (1,30 m) para os mais comuns 8,5 pés (2,6 m) a 9,5 pés (2,9 m).

Fonte: Elaboração própria com dados da Maritime Review (UNCTAD)

O processo de concentração no mercado de navegação estimulou também a progressiva expansão do “core business” das empresas para operações logísticas conectadas ao transporte marítimo, como as atividades portuárias, por meio da aquisição de terminais, ou até mesmo operações multimodais que viabilizam o serviço de entrega porta a porta dos contêineres. Isso permitiu um maior controle dos fluxos de carga a serem transportados e de seus custos logísticos, além de aumentar a margem tanto para a fixação de tarifas e de custos adicionais aos usuários, quanto para a definição (ou imposição) de rotas e terminais.

O Brasil e a navegação internacional de contêineres

O Brasil vivenciou mal essas mudanças no mercado de navegação. O país, que já teve a segunda maior indústria naval do mundo no início dos anos 1980, viu a participação de navios e empresas brasileiras nos tráfegos internacionais praticamente desaparecerem, enquanto a regulação das atividades das empresas de navegação restringiu-se à manutenção de algumas poucas políticas ultrapassadas de reserva de mercado que sobreviveram ao processo de desregulamentação do mercado.

O acordo marítimo entre o Brasil e o Chile é um exemplo de reserva de mercado que onera o comércio exterior com mais custos e burocracia e diminui a competição na navegação. Estabelecido em 1975, o convênio estipula que apenas empresas de um dos dois países podem realizar o transporte do comércio bilateral, o que resulta em fretes 45% mais caros e em perdas anuais para as exportações brasileiras estimadas em US$ 342 milhões.

A sobrevivência desse regime de proteção artificial de mercado (que vigora e penaliza também o comércio com a Argentina e Uruguai) decorre do forte poder de lobby que as empresas de navegação exercem sobre o Governo. Apenas duas empresas disponibilizam linhas regulares na rota entre o Brasil e o Chile, ambas de capital estrangeiro, não existem navios para o transporte de determinadas cargas fracionadas (transporte Ro-Ro), obrigando o afretamento de embarcações de outras empresas a custos elevados, e nenhum dos navios que operam na rota marítima foi construído em um dos dois países, o que contradiz a justificativa para a existência do acordo em termos de desenvolvimento da marinha mercante.

Diante desse cenário, os usuários do transporte marítimo se organizaram para pressionar o Governo pelo fim da reserva de mercado, que há quatro décadas penaliza o comércio bilateral. Mesmo com todos os argumentos apresentados, a única decisão tomada ocorreu em julho de 2017, quando a Câmara de Comércio Exterior (Camex) adiou o fim do acordo marítimo entre o Brasil e o Chile para 2020.

Trata-se de uma decisão frágil, amparada apenas em uma resolução e que pode ser facilmente revertida, caso não seja publicado um ato legalmente vinculante. A garantia de não renovação do acordo ocorreria com a publicação de um Decreto Presidencial sobre a matéria, possibilidade que vem sendo reiteradamente combatida pelas empresas de navegação e por determinados áreas de Governo que ainda defendem políticas de marinha mercante baseadas em reserva de mercado, que foram progressivamente desmontadas a partir da década de 90.

Em relação as demais rotas internacionais, a vulnerabilidade brasileira ante as grandes empresas de navegação está diretamente associada a participação insignificante do país no comércio global. Se, por um lado, o Brasil é um dos maiores exportadores de granéis, com 560 milhões de toneladas de grãos e minérios exportados por navios, em 2018, a participação brasileira no mercado mundial de contêineres é de cerca de 1,3%. Nos portos brasileiros, os contêineres representam apenas 10% do total movimentado.

O volume reduzido de mercadorias conteinerizadas torna o Brasil um mercado secundário para as empresas de navegação, que concentram suas operações nas principais rotas internacionais entre os Estados Unidos, Ásia e Europa. Como consequência, a disponibilidade de rotas, embarcações e serviços é limitada e sujeita a cortes, especialmente em momento de redução da demanda e aumento de custos, como a acarretada pela crise da economia brasileira nos últimos anos.

A precariedade da infraestrutura portuária, somada a ineficiência e burocracia das principais administrações portuárias públicas do país, agrava ainda mais a desvantagem brasileira em relação aos outros mercados. Responsáveis por 72% da movimentação nacional de contêineres, os portos públicos brasileiros são em sua maioria administrados pelas Companhias Docas, estatais marcadas pela ineficiência administrativa, interferência política e baixa capacidade de investimento em obras essenciais, como as de dragagem, o que impede que os grandes navios de contêineres atraquem no país. Historicamente, os investimentos dos portos públicos representam menos de um terço dos recursos destinados pela União, sendo que, em 2018, o total aplicado alcançou o menor patamar desde 2003.

Em 2008, a navegação de contêineres na costa leste da América do Sul, que inclui os portos brasileiros e o porto de Montevidéu de Buenos Aires, era atendida por cerca de 25 empresas, que realizavam 109 escalas regulares semanais com um total de 257 embarcações. Em 2017, o número de empresas caiu para 17, as escalas, para 67, e as embarcações, para 149.

Mesmo que a capacidade total de movimentação nessa rota tenha se mantido constante em 108 mil TEUs por semana, em função do aumento de tamanho dos navios, os níveis de frete elevaram-se e o serviço tornou-se mais concentrado em alguns portos e empresas. Como resultado, apenas quatro empresas de navegação dominam 70% das escalas regulares internacionais em portos brasileiros, que concentram cada vez mais suas atividades em portos maiores e operacionalmente mais rentáveis.

Fonte: Elaboração própria com dados da Solve Shipping Intelligence Specialists

Diante desse cenário, as empresas brasileiras envolvidas no comércio internacional estão cada vez mais vulneráveis, especialmente as que comercializam produtos de maior valor agregado, transportados, via de regra, em contêineres. Enquanto no transporte de graneis um único empresário consegue encher grande parte, ou mesmo a totalidade de um navio, a maior parcela do comércio exterior é realizada por empresas menores: das 70 mil empresas envolvidas no comércio exterior, em 2018, 55 mil estavam na faixa de menos de US$ 1 milhão.

Essas operações demandam poucas unidades de contêineres por semana (muitas vezes os produtos não chegam a preencher nem mesmo a totalidade de uma unidade de contêiner) e são majoritariamente feitas free on board (FOB), que no caso das exportações exclui da empresa brasileira o direito de escolha do terminal portuário de embarque da carga, reduzindo o poder de barganha na negociação de preços, datas, terminais e escalas nos portos.

Como resultado, as empresas brasileiras sofrem constantemente com decisões arbitrárias por parte das empresas da navegação, que aumentam os seus custos e causam grandes transtornos logísticos. São práticas como a imposição de tarifas não acordadas, cancelamento de embarques programados, suspensão de rotas e serviços em determinados portos, aumento do custo de frete, dentre outros.

Até o ano passado, não existia nenhum tipo de amparo legal para contestação de abusividades praticadas por parte das empresas de navegação, uma vez que a lei de criação da Agência Nacional de Transportes Aquaviários (ANTAQ) trata apenas das empresas brasileiras, deixando as operações de companhias estrangeiras livres de regulação.

Após muita pressão dos usuários dos serviços de transporte e de órgãos do Governo (acórdão do TCU nº 1439/2016), foi publicada pela Antaq, em 21 de dezembro de 2017, a Resolução Normativa nº 18. Trata-se de um regulamento inédito no país, que caminha no sentido de garantir maior equilíbrio nas relações entre operadores e usuários do transporte marítimo, principalmente por proibir cobranças indevidas e exigir maior transparência e previsibilidade das taxas cobradas e serviços prestados pelas empresas de navegação.

Muitas águas precisam rolar para que se reduza o oligopólio no mercado de navegação e se aumente o poder de barganha dos usuários desses serviços. Uma estratégia adotada em outros países foi a criação de conselhos nacionais de usuários de transporte marítimo de contêineres, visando a aumentar a capacidade de negociação com as empresas de navegação. Seja qual for o caminho, é preciso reduzir os custos logísticos das exportações de contêineres no país, que somam cerca de US$ 100 bilhões anuais (42% do total exportado em 2018) e são essenciais para uma maior geração de emprego, renda e inserção do Brasil nas cadeias globais de produção.

Autor:

Especialista em Políticas e Indústria da Gerência Executiva de Infraestrutura da Confederação Nacional da Indústria, graduado em Ciências Econômicas pela Universidade de Brasília, mestre em Economia na área de Gestão Econômica do Meio Ambiente e doutorando em Economia pela Universidade de Brasília. Atua há oito anos na área de infraestrutura, com foco na análise de políticas públicas para os setores de logística e investimento.

O conteúdo ideológico dos partidos: Uma aplicação de Machine Learning no Senado Brasileiro

Em nossa política contemporânea, muito se tem falado sobre o estado atual do debate político. Para muitos, esse espaço para discussão de ideias tem se tornado um verdadeiro campo de guerra. Em diferentes países onde se impera a democracia, um grande número de políticos tem se enfrentado em intensos conflitos sobre temas como aborto, imigração, controle de armas e impostos. Muito destas disputas vêm acendendo uma luz de preocupação sobre esse mesmo modelo de Estado adotado pelos principais países ocidentais. Assim, não furtamos de nos questionar: a democracia está falhando?

Em seu recente livro, Levitsky & Ziblatt (2018) argumentam que os políticos agora tratam seus adversários como inimigos, intimidam a imprensa livre, e ameaçam rejeitar os resultados das eleições. Eles ainda notam que os políticos têm tentado enfraquecer os principais alicerces da democracia, incluindo os tribunais e os serviços de inteligência. Certamente, um sintoma claro dessa crise atual é o crescimento da polarização – muitas vezes manifestado na forma de disputas ideológicas. Recentes pesquisas vêm demonstrando o crescimento da polarização política nas últimas décadas, como exposto nos trabalhos de Gentzkow et al. (2019) e Hare & Poole (2014).

Em seu mais recente livro, Harari (2018) aponta como um importante ponto de inflexão o ano de 2016, onde houve a primeira votação do Brexit no Reino Unido, e também o surgimento arrebatador de Donald Trump nos Estados Unidos. Tais acontecimentos, segundo ele, foram essenciais para criar mais tensões entre os campos ideológicos. Colocando, assim, nossa democracia em cheque.

Não muito longe disso, tivemos aqui no Brasil um recente processo de impeachment de uma presidente deliberadamente de esquerda. Seguido por uma eleição bem acalorada, na qual saiu vencedor contra esse mesmo partido o ex-deputado de extrema direita, Jair Bolsonaro. Isto tudo tem somado para construir um cenário de disputa política extremamente belicoso em nosso país.

Desta maneira, mensurar e compreender ideologia se tornou um exercício extremamente importante, pois já que embates ideológicos estão guiando a maioria destes conflitos, compreendê-los nos possibilitará entender melhor nossa realidade política atual.

Não obstante isso, sabemos que a mensuração da ideologia é um exercício muito complicado. Principalmente porque ela não pode ser diretamente observada. Na literatura, os trabalhos mais seminais que tratam este problema são de Poole & Rosenthal. Desde a década de 80 eles vêm se baseando em dados de voto aberto para construir um modelo de posicionamento político dos parlamentares americanos. No Brasil, destaca-se o trabalho de Power & Zucco (2009) no qual partem de dados de voto aberto e também do Survey Eleitoral Brasileiro com o objetivo de estimar o posicionamento dos partidos nacionais. Esses trabalhos tratam o posicionamento político como um conceito discreto (muitas vezes os representando em um espaço unidimensional) e são amplamente utilizados na ciência política para se estudar, por exemplo, comportamento legislativo, política intrapartidária, e competição eleitoral.

Mesmo com sua vasta utilidade, esta modelagem muitas vezes esconde informações que são extremamente preciosas para analisarmos o contexto de disputa ideológicas. Pois, mesmo que modelagens com base em dados de voto aberto nos expressem mais de 80% do comportamento dos parlamentares, ainda nos faltam mais características (ou, dimensões) a fim de compreender melhor o que se passa dentro de cada ideologia. Caso seja possível levantar essas informações, seremos capazes de analisar num contexto intertemporal toda dinâmica ideológica no parlamento.

Neste caso, agora nos é importante encontrar dados que consigam imprimir o conteúdo ideológico dos partidos com um grande número de características. Por sorte, sabemos que a linguagem é uma das maiores fontes de alta dimensionalidade – neste caso, para cada palavra teremos uma respectiva dimensão. Com base nos padrões construídos através da frequência de palavras, conseguimos classificar um discurso ou um texto em distintas categorias. Subjacente a esse modelo, está a hipótese de que a ideologia funciona como uma grande restrição sobre nós. Ou seja, ao saber que um político é de direita e que, por exemplo, defende baixos tributos e mais liberdade econômica, provavelmente este mesmo político será favorável a medidas menos restritivas ao uso de armas de fogo e também será provavelmente contrário a políticas afirmativas. Assim, esperamos que um político que seja de direita utilize palavras do vocabulário conservador com uma maior frequência, manifestando através da combinação de palavras em seus discursos o conteúdo ideológico da sua posição política.

Com o recente avanço da capacidade computacional, as técnicas de machine learning têm se tornado uma ferramenta simples e bastante acessível para se trabalhar com dados na forma de texto. Desta maneira, a partir de um estudo produzido no Departamento de Economia da Universidade de Brasília contando com a colaboração dos professores Bernardo Mueller e Daniel Cajueiro, baseamo-nos nesse conjunto de algoritmos e também em todas representações taquigráficas dos discursos dos Senadores da 50ª até a 55ª legislatura (1995-2018) – aproximadamente 80.000 discursos – a fim de criar um modelo de classificação para cada ideologia partindo das frequências das palavras utilizadas por cada senador. Os resultados estão detalhados na minha dissertação de mestrado, que logo será publicada na forma de um artigo acadêmico.

Dividimos todos os partidos políticos entre três possíveis ideologias: esquerda, centro e direita. Para tal pré-classificação, utilizamos os dados de posicionamento político de Power & Zucco (2009).

Nosso classificador, na média, obteve 73% de acurácia entre as legislaturas. Ou seja, após aprendermos os padrões utilizados por cada categoria ideológica a partir dos discursos políticos, somos capazes de classificar — a partir desta ‘generalização’ — novos discursos com 73% de acurácia em média.

Dado que nosso classificador apresenta uma boa performance, podemos abrir o conteúdo de cada ideologia e observar as palavras que possuem as frequências mais elevadas – ou seja, as palavras que são mais importantes para defini-las.

A partir disto, observamos que, em geral, os senadores tratam de temas comuns entre eles. Embora, ao entrar em determinado debate temático, cada senador possuí um rol de palavras que é mais apropriado à sua ideologia. Por exemplo, nas duas primeiras legislaturas (as quais compõem os dois governos FHC) ao se debater o tema da reforma agrária, parlamentares de esquerda geralmente utilizam palavras como direitos, agrária, terra e trabalho. Enquanto parlamentares de direita abordam tais discussões a partir de palavras como produção, agricultura, mercado, produtores, agrícola e capital. Isso é muito interessante, pois nos revela que de fato um ‘sistema de crenças’ parece estar enraizado em cada parlamentar: desde aquelas crenças formadas a priori, como aquelas carregadas pela própria representação institucional de seu partido.

Um resultado curioso se dá na 52ª legislatura (cujo período é simbolizado pela chegada do PT ao poder.) Observamos que a esquerda, representada agora pelo partido incumbente, ligou-se a debates tidos como mais conservadores. Passando a empregar em seu vocabulário com maior frequência palavras como previdência e tributária. A tendência geral é que ambas as categorias (direita e esquerda) se mudaram marcadamente para a direita enquanto no governo e para a esquerda, enquanto na oposição.

Notamos ainda nesta legislatura, o surgimento de um vocabulário da direita mais ligado as suas tradições conservadoras: como o emprego das palavras homem, Deus, família, polícia e segurança. Observando as próximas legislaturas, constatamos que esse novo padrão ‘mais conservador’ da direita se mostra perene. Isso nos leva a hipótese de Timothy Power acerca da existência de uma ‘direita envergonhada’, onde os políticos de direita teriam uma certa resistência em se ligar a bandeiras evidentemente conservadoras – isso seria um comportamento com fins de não carregar a herança política da ditadura. Power & Zucco (2009) apontam que o ressurgimento dessa direita estaria ligado as defesas das defesas neoliberais dos governos FHC. Embora, os nossos dados sugerem que essa nova direita está muito mais ligada a valores morais do que a uma defesa firme de pautas econômicas liberais.

Analisando mais a fundo a dinâmica intertemporal das ideologias, observamos que a direita está ligada antes mesmo do que a esquerda ao debate da educação superior – observamos isso através da alta frequência no emprego de palavras como cultura, conhecimento e universidade. Isso de certa forma representa um paradoxo, já que nosso senso comum aponta para a esquerda como a grande precursora dos debates acerca da educação superior no país. Embora, nas legislaturas seguintes nos torna claro a importância da discussão da educação superior para a esquerda.

Notamos que a bandeira de defesa das mulheres e das crianças é algo bastante caro a esquerda. Nossa análise entre as legislaturas evidencia um crescimento da importância dessas palavras para este espectro ideológico. Isto também mostra que cada vez mais debates acerca dos direitos das mulheres e das crianças têm se tornado mais relevantes no Senado.

Outro fato que observamos é que a temática em volta da questão ética, ou precisamente ligada a atos irregulares, carrega muito da tônica polarizadora no Senado. Os senadores apresentam uma alta frequência para palavras relacionadas a essa questão. Por exemplo, desde nossa primeira amostra (50ª legislatura) a palavra CPI apresenta uma grande importância, e isso é acentuado e permanece até nossa última amostra (55ª legislatura.) Talvez os dois pontos que mais nos chamem a atenção estão ligados aos episódios do Mensalão e da Lava Jato, 52ª-53ª e 54ª-55ª legislaturas respectivamente. A partir destes pontos, observamos o crescimento do uso de palavras como respeito, tribunal e corrupção. Isso nos sugere que a partir dos desdobramentos destas investigações, a polarização ganhou uma força a mais no Senado – reafirmando a disputa entre oposição e governo, e também ecoando as disputas eleitorais.

A nossa última legislação é interessante, pois houve um ponto de quebra durante seu período através do episódio do impeachment. Observamos que os senadores estão claramente voltados ao processo de impedimento da presidente, e também à grave crise econômica que o país tem enfrentado. Isso é demonstrado através da alta frequência para a esquerda das palavras resistência, luta e golpe. Enquanto, para a direita há uma alta frequência para as palavras tributária, fiscal e previdência. Notamos também que o centro (que tem o PSDB como um dos principais representantes) e a esquerda possuem coeficientes bem próximos para a palavra socialismo, o que nos evidencia que essa temática mais histórica da ideia geral que temos de conflito ideológico aprofundou-se na nossa última legislatura.

Especificamente sobre o centro, notamos que ele apresenta uma espécie de ‘coloração cinzenta’. Ora apresenta um vocabulário que apontaríamos como conservador, ora apresenta um vocabulário mais tradicional aos valores da esquerda. É importante notar que o PSDB, um dos maiores representantes da categoria centro em nossa análise, é reconhecido por ter estabelecido uma grande polarização contra os governos petistas e o próprio PT nos últimos anos. O que nossos dados apontam é que essa polarização, como afirmado anteriormente, é muito mais voltada a questões ligadas a corrupção do que uma disputa ideológica per se.

Grosso modo, podemos afirmar que os espectros políticos no Brasil vêm adotando um vocabulário mais ligado aos seus valores, sejam eles conservadores ou progressistas. Esses novos padrões nos possibilitam classificar melhor ‘quem é quem’ no Senado — a partir da análise textual dos discursos. É claro também para nós que essa guerra campal que vem se formando na política está muito ligada a disputas em questões morais.

Durante todo nosso período de análise, percebemos que a polarização manifestada no Senado é muito menos efusiva do que a manifestada em outros meios, como as próprias redes sociais.

Autor:

Felipe Carneiro é Graduado em Economia pela Universidade Federal de São Paulo e Mestre em Economia pela Universidade de Brasília.

Boas instituições importam

Ao concentrar as regras políticas, econômicas, sociais e legais, as instituições influenciam o funcionamento dos mercados, ou seja, são as regras do jogo. Por meio de direitos de propriedade, contratos bem estabelecidos e custos de transação baixos, as instituições têm a função de garantir os incentivos necessários que levam à eficiência econômica.

Com o mercado de crédito não é diferente. Alguns avanços institucionais foram verdadeiros marcos na história da evolução do crédito brasileiro, tanto por possibilitar a expansão do crédito como por melhorar a qualidade das transações entre os agentes, a saber: a lei de alienação fiduciária de bens imóveis em garantia (1997), a regulamentação do crédito consignado (2003) e a lei de falências (2005).

No entanto, nem todas as instituições são eficientes e acabam se desviando de seus objetivos. Esse é o caso do Cadastro Positivo, regulamentado em 2011.

A fim de corrigir o problema de assimetria de informação presente no mercado de crédito, onde as informações são limitadas sobre o comportamento dos demandantes de crédito, o Cadastro Positivo surgiu para distinguir os bons dos maus pagadores, possibilitando que os ofertantes de crédito diferenciem as taxas de juros de acordo com o risco.

Contudo, na contramão das melhores experiências internacionais que também o implementaram, o governo brasileiro fez a inclusão do Cadastro Positivo de forma a depender dos próprios consumidores, o formato opt-in. Sem um evidente ganho individual, não havia incentivo o bastante para que os consumidores enfrentassem todos os obstáculos burocráticos e aderissem ao cadastro, limitando os benefícios gerados pela medida. Para mensurar o resultado desta lei, há apenas 5 milhões de cadastros de uma população que conta com cerca de 100 milhões de clientes ativos no mercado de crédito, o que indica que houve um resultado tímido.

Dessa forma, é possível observar que hoje em dia apenas as informações de comportamentos negativos são utilizadas para as avaliações de concessão de crédito. Se dentre inúmeras transações de crédito, o consumidor atrasou uma única conta, ele já passa a sofrer impactos negativos em sua avaliação de risco e, com isso, restrições ao crédito. Assim, o resultado é um estoque de crédito aquém do desejado e taxas de juros e de inadimplência elevadas.

Entretanto, um projeto de lei federal que foi aprovado pelo Senado no mês de março, e seguiu à sanção presidencial, deve melhorar o formato do Cadastro Positivo. Nessa nova versão, o cadastro será no formato opt-out (mudança conhecida como “arquitetura da escolha” por Thaler e Sunstein), todas as pessoas e empresas serão automaticamente cadastradas e caso alguém seja contra ao compartilhamento de suas informações é só solicitar a remoção. Com esse processo inverso, a burocracia passa a desestimular a saída dos participantes.

A partir da regulamentação da nova medida, as informações de operações de crédito de pessoas e empresas – ao que se refere às operações de crédito contratadas – serão compartilhadas com os birôs de crédito, o que deve melhorar as avaliações de risco, levando à maiores aprovações de crédito e menores taxas de juros e de inadimplência. Com mais informações, os concedentes de crédito serão mais assertivos ao elaborar contratos específicos para cada perfil de demandante, impactando positivamente o mercado de crédito.

Estudos internacionais da OCDE e do Banco Mundial sobre os países que adotaram uma base de dados positivos no formato opt-out evidenciam crescimento do crédito com redução na taxa de inadimplência, beneficiando principalmente os mais pobres.

Porém, nem todos concordam com essa mudança. Os opositores da regra automática alegam que isso acaba com a livre determinação do consumidor e gera invasão de privacidade ao alterar a lei de sigilo bancário.

Contudo, analisando cuidadosamente as regras, têm-se que o consumidor será avisado previamente e as informações serão disponíveis por tempo determinado. Quando esse novo formato do cadastro começar a funcionar, apenas os scores estarão disponíveis, sendo que o histórico detalhado ainda dependerá da autorização do consumidor. Além disso, o consumidor tem direito ao opt-out a qualquer momento, à autoconsulta gratuita, à ratificação de informações, entre outros. Ao que tange à privacidade, as empresas que operam o cadastro têm que cumprir exigências rigorosas e possuir certificações que garantem o sigilo e a proteção dos dados.

Embora haja alguns questionamentos, os benefícios do Cadastro Positivo são relevantes. Aos concedentes, espera-se expandir a base de consumidores, reduzir o processo de aprovação de crédito e aumentar a competitividade. Os consumidores, por sua vez, serão incentivados a manter bons históricos de crédito, sendo recompensados com melhores negociações. No geral, promoverá inclusão financeira, bons comportamentos de pagamento, melhora na estabilidade bancária do país. Com isso, é projetado pela Associação Nacional dos Bureaus de Crédito (ANBC) uma injeção de mais de R$ 1 trilhão no mercado de crédito nos próximos anos e uma inclusão de mais de 20 milhões de pessoas.

Apesar das mudanças do Cadastro Positivo serem em prol da melhoria do sistema, uma grande preocupação daqueles que não concordam com o novo formato do sistema é em relação ao sigilo de dados. Com isso, em 2018 foi discutido se o formato opt-out do Cadastro Positivo teria conflito com a nova Lei Geral de Proteção de Dados, que tem como objetivo proteger os direitos fundamentais de liberdade e de privacidade através da proteção de dados. Contudo, uma análise das duas Leis mostra que não há divergência entre elas, uma vez que o Cadastro Positivo mantém o consumidor informado sobre todas as informações que estão disponíveis e fornece o direito de opt-out.

Portanto, o Cadastro Positivo pode trazer diversos benefícios à população, como mencionados acima. A sua primeira implementação não foi muito bem sucedida devido à burocracia que envolvia o processo de aderir ao Cadastro Positivo e também ao desconhecimento de parte da população da existência dessa Lei. A nova versão do Cadastro Positivo propõe uma mudança de design que deve facilitar a sua difusão e resultar nos benefícios esperados.

Autoras:

Bruna de Abreu Martins é economista formada pela Universidade Federal de São Paulo (Unifesp), atualmente aluna do programa de mestrado em Economia na Universidade de Brasília (UnB). Trabalhou no departamento de Indicadores e Estudos Econômicos na BoaVista SCPC de 2012 a 2017. 

Monica Guo Ming é economista formada pela Universidade de Brasília (UnB), atualmente aluna do programa de mestrado em Economia na UnB.

O Sistema S em Debate

As recentes declarações do Ministro de Economia, Paulo Guedes, nas quais declara a intenção de cortes de até 35% no orçamento do Sistema S, volta a colocar em debate a eficiência e mesmo a necessidade desse arranjo institucional cujo objetivo retórico seria a formação técnica da mão-de-obra e ações no campo social. Essas expressões do ministro são, em realidade, a manifestação de uma crescente insatisfação com esse sistema, que perpassa posicionamentos políticos e correntes ideológicas. Lembremos que, quando Fernando Haddad ocupou o cargo de Ministro de Educação, também tomou iniciativas para alterar a alocação de recursos do sistema, com resultados concretos no financiamento de programas de educação técnica administrados pelo governo. Joaquim Levy, quando Ministro da Fazenda da Presidente Dilma, também tentou alterar arcabouço de financiamento. Ou seja, pólos políticos/ideológicos diametralmente opostos na suas visões de mundo coincidiram na conveniência e necessidade de alterações em um marco institucional já velho no tempo. Lembremos que a matriz do atual arcabouço institucional/legal remonta à criação do SESI/SENAI, no ano de 1942 do século passado. Arranjo que, como uma metástase, inicialmente limitado à indústria foi “colonizando” o comércio, a agricultura, as cooperativas, os transporte, a pequena empresa (SEBRAE) chegando ao financiamento da denominada APEX (Agencia Brasileira de Promoção de Exportações e Investimentos). Em todos os casos, tentativas de Haddad, Levy e de Paulo Guedes, as propostas de alterações foram energicamente criticadas pelos gestores do sistema.

Muito sinteticamente, o Sistema S se financia com a “contribuição voluntária” de um percentual (em média em torno de 1%, com um intervalo de alíquotas que vai de 0,2% a 2,5% segundo o setor) sobre a folha de pagamentos da firma. Lembremos que, nas suas origens, a retórica de sua implementação (especialmente no caso da indústria) argüia três justificativas. A primeira dizia respeito a uma suposta falta de mão-de-obra qualificada (especialmente no seu perfil técnico) em uma sociedade em rápido processo de transição de uma economia agrícola para outra urbano-industrial. A segunda alegação estava vinculada a sua formatação institucional: os empresários, mediante contribuições compulsórias sobre a folha de salários paga, financiariam o sistema, sem custos para o Estado. Em outros termos, seriam os próprios empresários que arcariam com o financiamento de um sistema de formação profissional (e ações sociais) que beneficiariam tanto empregados como empregadores. Por último, uma vez que seriam os recursos dos próprios empresários a base de financiamento, seria lógico que eles os administrassem. Por outra parte, na medida em que esse gerenciamento adquiriria um perfil semelhante aos princípios que norteiam as práticas administrativas no setor privado, se contornariam os processos burocráticos que pautariam o setor público, com hipotéticos ganhos de eficiência.

Dessa forma, com o transcurso do tempo, o Sistema S foi adquirindo maturação institucional e hoje estima-se que seu orçamento gira em torno dos 17/18 bilhões de reais. Para se ter uma ordem de grandeza, esse montante corresponde à metade do alocado no programa Bolsa-Família ou, em termos do PIB, se situa em 0.25%.

Em geral, todas as iniciativas que tentam alterar o atual arcabouço institucional despertaram as mais diversas reações e resistências tanto por parte de integrantes das próprias corporações como outras oriundas de personalidades do mundo jurídico e acadêmico (ver, por exemplo, aqui, aqui e aqui). Na maioria dos casos, os argumentos que tentam legitimar o atual sistema apelam a características cosméticas dos cursos oferecidos pelo Sistema S (“nunca vi um banheiro sem manutenção”), apologética (“O Sistema S conta com o fomento estatal em proveito da realização material de direitos”) ou invocam credenciais auferidas (“ganhou o primeiro prêmio na competição internacional WorldSkills”).

Em realidade, a avaliação de um arranjo institucional é uma tarefa mais complexa e abrangente que à listagem de aspectos pontuais (por meritórios que estes sejam) e supostas contribuições messiânicas para reduzir desigualdades. Não obstante as críticas que possam ser realizadas à suposta tirania contemporânea pela quantificação de qualquer atividade humana (Muller (2018)), uma avaliação do Sistema S não pode fugir a um balanço quantitativo (mesmo aproximativo) entre os benefícios, os custos e a distribuição desses benefícios e custos. Nesse sentido, enaltecer a qualidade dos cursos, celebrar a qualidade das instalações, etc. pode ser até racional no processo de pressões e barganhas que fazem parte da formatação de políticas públicas (sobre este tema voltaremos no final do post), mas, certamente, dista de serem aspectos cruciais para delimitar a relação entre custos e benefícios. Sem pretender esgotar o tema, nos próximos parágrafos mencionamos aspectos conceituais e metodológicos que consideramos não poderem ser marginalizados no momento de avaliar economicamente e mesmo socialmente o sistema.

Um primeiro aspecto que consideramos talvez o mais relevante e que (paradoxalmente) está ausente no debate público concerne aos impactos no emprego/desemprego, nos salários e no grau de formalidade de um encargo social/trabalhista (“contribuição obrigatória”) sobre os salários pagos. Basicamente, uma “contribuição obrigatória” eleva o custo de contratação de um empregado. Não existe nenhuma matriz teórica (seja no mainstream ou fora dele) que conclua que um encargo social/trabalhista sobre os salários seja neutro ou, em outros termos, não tenha impactos seja nos salários, seja no emprego/desemprego/formalidade. No modelo canônico, o resultado vai depender da elasticidade da oferta e demanda de trabalho. Em termos gerais, o lado mais inelástico do mercado (da oferta ou da demanda) vai conseguir resistir menos ao imposto (“contribuição obrigatória”) e, contrariamente, quanto mais elástico, maior será seu poder de transferir o peso do imposto sobre a outra parte. É plausível assumir que a oferta de trabalho (especialmente os trabalhadores primários, chefes de família) é relativamente inelástica. Calibrando para o caso brasileiro, estima-se que, para cada 1% de alíquota, os salários caem entre 0,5% e 0,8% e o emprego formal entre 0,05% e 0,08% (ver Pessôa Andrade (2018)). Essas sensibilidades encontradas para o Brasil estão dentro do esperado tendo como referência a literatura empírica internacional.

Tanto os resultados analíticos do modelo padrão quanto as estimativas empíricas permitem concluir que o relato segundo o qual uma “contribuição compulsória” paga, exclusivamente, pelos empregadores e, dada essa singularidade, com direito a ser gerido por eles próprios, não pode ser adquirida pelo seu valor de face. Os assalariados também arcam, em termos de perdas de emprego formal e salários, com parte do financiamento do sistema. Além desse aspecto quase direto, ao se elevar o custo do trabalho, se introduz uma série de alterações em espaços que vão além do mercado de trabalho, como a escolha de tecnologias, a alocação setorial e geográfica, etc..

Mesmo assumindo que parte do financiamento seja deduzido do lucro potencial dos empregadores, o encargo social não pode ser assumido como neutro. Ao afetar a taxa de lucro altera o retorno dos investimentos em geral, com desdobramentos setoriais segundo seja a intensidade do fator trabalho utilizado.

Resumindo, não existem elementos teóricos nem empíricos que permita concluir que um encargo social, elevando o custo do trabalho, seja neutro em termos de emprego formal/salário/alocação de recursos, etc..

Contudo, qualquer tentativa de avaliação consiste, basicamente, em comparar custos com benefícios e, nesse sentido, custos mencionados devem ser comparados aos potenciais benefícios.

Aqui (no caso dos benefícios) estamos diante uma segunda dimensão na qual as narrativas são tão audaciosas quanto apologéticas. Assim, o “o papel do SESI é importante na educação, com nível elevado de qualidade…., “A qualidade do profissional é fundamental para evitar o retrabalho, o desperdício, para fazer tudo com a maior eficiência possível. Esse tem sido o trabalho realizado pelas escolas do SESI e do SENAI…..”, “O Sistema S tem um serviço prestado a este país. São décadas na formação de trabalhadores”……. Se reconhecemos que, em qualquer área de conhecimento e também na formulação de políticas públicas, as afirmações e avaliações tem que estar fundamentadas em evidências, existe um vácuo na validação empírica da maioria das asserções. Estamos falando de uma validação empírica robusta tecnicamente e realizada por instituições e pesquisadores com independência e autonomia. Em termos técnicos, uma avaliação dos cursos do Sistema S teria que acompanhar as metodologias usuais nas avaliações de impacto (a escolha aleatória de um grupo de indivíduos que tenha usufruído do serviços educativos do sistema e a comparação de sua trajetória versus um grupo de controle, duplo cego, etc..). As variáveis a serem pesquisadas poderiam ser diversas: impacto nos salários; probabilidade de perda de emprego; retorno ao emprego quando desempregados; etc.. Por exemplo, se os cursos de formação do Sistema S têm impacto na produtividade e assumimos que os salários têm algum nexo com a mesma, a comparação entre os rendimentos do grupo experimental (que freqüentou o curso) e o grupo de controle deve ser favorável aos indivíduos beneficiários.

Em outros termos, assumir que os cursos de formação profissional ofertados pelo Sistema S são importantes para elevar a qualidade da força de trabalho, aumentar a produtividade, ampliar as possibilidades de emprego, etc., deve ser uma hipótese, plausível, mas hipótese a ser provada. A existência de banheiros limpos nas instalações, equipamentos modernos, etc., podem ser importantes, mas um sistema de formação profissional não pode ser conceituado por esses atributos. Teoricamente, essas qualidades devem se traduzir em melhores resultados no seu objetivo último (elevar a empregabilidade, aumentar os salários, etc..). Ou seja, o Sistema S não pode fugir de um sistema de avaliação isento, realizado por instituições neutras utilizando metodologias robustas tecnicamente e que hoje estão bem sedimentadas na literatura especializada. Na ausência dessa avaliação, afirmações sobre a qualidade do Sistema, sua necessidade, a relevância para elevar a produtividade, etc. não passam de narrativas de interesses específicos ou de hipóteses plausíveis que deveriam passar pelo crivo de avaliações de impacto.

Por último, e vinculado com a lógica do relato produzido pelas instituições ao Sistema S, cada vez que o status-quo pretende ser alterado, cabe uma reflexão sobre a formatação legal e institucional das políticas públicas. Nossos argumentos sintetizados nos parágrafos anteriores estão propondo uma perspectiva que pode ser denominada de “tecnocrata”. Imaginar que um arcabouço institucional é, exclusivamente, desenhado em função dos resultados de avaliações realizadas por entidades sem conflitos de interesses com o objeto a ser avaliado e com capital técnico sólido pode ser, com razão, qualificado de naïf ou irrealista. Fazendo um paralelo com a moderna literatura de crescimento econômico, seria como assumir um ditador altruísta e benevolente maximizando uma função de bem-estar social intertemporal. Em realidade, na maioria das vezes, nem existe esse planejamento altruísta nem existe uma função de bem-estar social a ser maximizada. O arcabouço de institucional/legal de cada país é fruto de barganhas políticas, conflitos de interesses, poder de negociação de corporações, heranças culturais, etc.. Os resultados de avaliações podem ser um elemento, mais ou menos importante segundo as circunstâncias, mas não será a variável crucial ou única. Cada posição ou interesse específico tentará ser mostrado como representando um interesse geral da sociedade e, especialmente, dos mais frágeis socialmente. A atual polêmica sobre a reforma da Previdência Social é um exemplo mais que ilustrativo.

Nesse contexto, cada vez que uma iniciativa visando alterar o Sistema S é insinuada, a profusão de artigos na imprensa ressaltando supostas ou hipotéticas virtudes do atual arcabouço institucional (qualidade, relevância, décadas de história, etc.) é normal e esperado (ver, por exemplo, aqui). Membros das atuais instituições terão uma natural posição conservadora. Outros interesses também se manifestarão em favor de um perfil dado de alterações. Devemos esperar essa dinâmica, é legítima e razoável e assim é o processo de formatação das instituições em qualquer país. Nessas circunstâncias, as avaliações neutras e robustas tecnicamente que acabamos de propor são uma dimensão do processo e, se fugirmos do figurino tecnocrático, não vai ser a única. Contudo, seria conveniente, em prol da transparência, que os autores das notas jornalísticas e artigos de cunho mais acadêmico explicitem a existência de vínculos institucionais ou financeiros com entidades sobre as quais estão discursando ou pesquisando. Essa prática, muito usual e quase obrigatória nas áreas médicas, biológicas, agronômicas, etc., deveria ser a norma também na área de economia e ciências sociais.

Autor:

Carlos Alberto Ramos é Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, Doutorado na Université Paris-Nord.

Disclaimer: as visões e opiniões expressas neste blog são atribuídas apenas aos autores de cada um dos posts, não possuindo ligação com a posição oficial de nenhuma instituição ou organização. Ainda, não possuem relação com as opiniões dos demais autores, colaboradores e fundadores deste blog nem com a posição das instituições as quais estes estão vinculados, de modo a manter o blog como uma plataforma aberta a contribuições de diversas fontes e autorias.
Os comentários apresentados são de inteira responsabilidade de seus autores.

Entendendo aspectos do setor de energia elétrica e sua (bem) provável reforma (Setor de energia elétrica brasileiro 101, bem-vindos)

Esse é o resumo para quem tem pressa: antes, no início do século XX, a geração de energia era principalmente privada, com atendimentos isolados e nada integrado. Diante do crescimento do país, e o nacionalismo inconfundível de Getúlio Vargas, todas as águas do país se tornaram propriedades da União. A Eletrobrás foi criada para organizar a casa. A ditadura exige o crescimento do setor, principalmente depois do choque de 73, e assim muitas das hidroelétricas que conhecemos foram fundadas. Crise de uma década inteira nos anos 80, e depois o governo FHC corre contra o tempo para privatizar o setor para evitar mais prejuízos para as contas do governo. Juntou-se uma série de fatores e o Brasil viveu com os apagões. Governo Lula tenta restaurar as empresas do setor como estatais e estabelece um novo modelo, em 2004, que tem em sua base os leilões e a regulamentação da Agência Nacional de Energia Elétrica, a ANEEL.

Historicamente, este novo modelo cumpriu seu papel de transição entre o que era no período ditatorial e os dias atuais, passando por aperfeiçoamentos. Porém, à medida que as necessidades do mercado foram mudando nos últimos anos, gargalos ficaram mais evidentes e o sistema ficou mais carente de uma reestruturação. Isso fica claro, por exemplo, quando o sistema elétrico atual procura nos leilões as vantagens de um mercado competitivo, mas se valendo de políticas públicas fortes para funcionar. Mais detalhes podem ser encontrados aqui.

O atual modelo implica em dois ambientes de contratação de energia, um regulado (ACR – Ambiente de Contratação Regulado) e outro livre (ACL – Ambiente de Contratação Livre). Os consumidores de baixa tensão, chamados de consumidores cativos, que para todos os efeitos são, em sua maioria, consumidores residenciais e ligados ao comércio de pequeno e médio porte, não conseguem negociar diretamente sua aquisição de energia elétrica e fazem parte do ACR, sendo submetidos à decisão de todos os outros agentes do setor. A estrutura institucional do setor elétrico brasileiro pode ser vista abaixo:

Fonte: Mercedes, Rico e Pozzo (2015).

Não podemos negar, claro, as vantagens que o modelo tem em si. Podemos enumerar algumas. A profunda regulação do sistema permite, se for da agenda governamental, políticas de universalização do acesso à energia elétrica e de incentivos a uma matriz com maior variedade de fontes renováveis. Nesse quesito, o Brasil, por ser um país de tamanho continental e de imensa diversidade de fontes energéticas, tem uma certa vantagem comparativa na geração de energia, que se incentivada com maior entusiasmo, tem capacidade de ampliar não só ganhos sociais, mas também econômicos. A título de exemplo, poderiam ser exploradas tecnologias de impacto ambiental menor do que de uma fonte tradicional de geração hidroelétrica e, ao mesmo tempo, com maior eficiência tanto na geração quanto na transmissão de energia.

Outra vantagem da regulamentação é o amortecimento da variação de preços para os agentes participantes do sistema – em especial no ACR – além de toda a transparência, previsibilidade e accountability proporcionados.

Por outro lado, as desvantagens são atreladas à rigidez proporcionada pela forte burocracia do modelo. Os investimentos do setor são reféns de políticas públicas para esse fim. Esse obstáculo pode impedir avanços tecnológicos, por exemplo, afastando as empresas de oportunidade de diminuição de custos. O sistema blindado e complexo, e a existência de um Ambiente de Contratação Regulada (ACR), dificultam o interesse da sociedade em geral de compreender o setor, afastando a sociedade de uma comunicação eficaz entre agentes econômicos. Comunicação que é vital para manutenção da qualidade dos serviços prestados.

Ainda relacionado à rigidez: muitas entidades e agentes causam sobreposição de papéis que podem causar divergência de informações e ações; excesso de intervenções provoca insegurança jurídica nos agentes investidores; e os intervalos de preço estabelecido no ACR têm sido, nos últimos anos, excessivamente baixos para os custos de geração e transmissão. Vale também ressaltar a periodicidade da liquidação das operações do mercado spot, que são dadas mensalmente, não acompanhando a velocidade de reação do mercado aberto, criando uma distorção e defasagens nas contas das empresas do setor.

Agora que temos uma melhor noção do modelo vigente, vamos entender o que uma reforma no setor poderia acarretar. E aqui, tomamos como base algumas consultas públicas lançadas pela ANEEL, o movimento “Quero energia livre” da Abraceel e o projeto de lei n° 1.917/2015.

As propostas de reforma possuem alguns pontos de convergência. Um deles é a desejabilidade da expansão do mercado livre de energia (ACL). Todos os agentes econômicos ligados ao Sistema Interligado Nacional (SIN) teriam potencialmente o direito de negociar todos os aspectos da contratação de energia. Virtualmente, os consumidores cativos (do ACR) passariam a comprar o serviço no varejo de forma similar à de telefonia e internet, podendo escolher quantidade, fonte, pacotes, empresas de preferência e etc. Todos os consumidores seriam capazes de escolher seu fornecedor. Isso causaria, para os potenciais novos consumidores livres, uma mudança de costumes, pois não mais ficariam restritos a apenas pagarem a conta de luz e gerenciarem a quantidade usada. Com a reforma, o consumidor passaria a se inteirar mais com o processo de fornecimento de energia, somando a responsabilidade de escolha da origem da energia e a seleção dos termos de contratação. Veja mais sobre isso na Cartilha da Abraceel.

Entretanto, ao mesmo tempo que essa liberdade pode gerar benefícios e maior conhecimento e atuação dos consumidores no setor elétrico brasileiro, entender os meandros do setor e suas características não é nada fácil. Será que os consumidores estarão preparados para tamanha mudança? Será que terão condições efetivas de fazerem uma transição para o ACL? Mesmo as empresas de pequeno e médio porte, elas não teriam que ter um corpo jurídico especializado para avaliar e assessorar os contratos de energia assinados? Isso, certamente, demandaria tempo e outros demais custos. Por fim, quais as consequências de ampliação do ACL para o agente regulador? De que forma a ANEEL seria impactada por tal mudança?

As expectativas com a reforma são de fomentar a concorrência do setor, expandir a geração distribuída, ter mais produtores independentes fornecendo energia na rede, aprofundar os incentivos às fontes alternativas de energia, entre outros. Tudo isso poderia ampliar a oferta de energia e promover, via mercado, preços relativamente mais baixos para os novos consumidores livres, incentivando investimentos maiores em P&D no setor e melhoria dos serviços prestados ao consumidor final. Tudo isso num cenário atual de investimentos interrompidos devido à crise fiscal do Estado. Não seria, então, uma grande jogada, a reforma? Por que essa discussão não está avançando rápido?

Como sempre, é preciso ponderar os dois lados da moeda quando uma decisão importante está prestes a ser tomada. Mesmo com todas essas esperadas vantagens, na média, os contratos assinados no ACR são de prazo mais longo que os contratos atualmente assinados no ACL. Se a expansão da oferta de energia elétrica depende da estabilidade oferecida por contratos de mais longo prazo, uma vez que os grandes projetos de expansão da oferta energética levam vários anos para ficarem prontos e iniciarem, de fato, a geração de energia, como uma migração de mais e mais consumidores para o ACL afetaria a sustentabilidade da expansão da oferta energética brasileira? Essa é uma pergunta difícil de responder, e talvez seja por isso que reformas amplas de setores tão essenciais como o de energia devam ser levadas com calma, para que estudos e análises técnicas sejam feitas com acuidade e divulgadas para avaliação e contribuições dos demais agentes envolvidos.

Bom, finalmente, como tudo isso se torna relevante agora em 2019 e nos próximos anos? O governo Bolsonaro, nos seus primeiros meses, tem sido inconstante a respeito de quais políticas e ações tomar, o que também é valido, em particular, para o setor de energia elétrica. Porém, ainda que sem avançar de forma objetiva no setor, é visível a intenção privatizadora de empresas estatais, num viés claramente pró-mercado e com menor intervenção do Estado. A dúvida, portanto, parece residir em quão fortemente vão tornar o setor aberto e quais os novos papéis assumidos por cada parte: setor privado e governo. Por enquanto, o plano é seguir o Programa de Parcerias de Investimento (PPI), que já diminuiu a quantidade de estatais no setor nos últimos dois anos. Assim, essa reforma deve ganhar mais força e discussões esse ano. Que Bolsonaro e sua equipe sejam iluminados nesse longo caminho.

Autoras:

 Ana Carolina Miranda Lima Nogueira é formada em Ciências Econômicas pela Universidade de Brasília. Ex-estagiária da Agência Brasileira de Desenvolvimento Industrial. Atual consultora de Business Intelligence da KPMG Brasil.

Geovana Lorena Bertussi é Professora Adjunta IV do Departamento de Economia da Universidade de Brasília. Ministra disciplinas nas áreas de Economia Brasileira, Macroeconomia e Economia da Infraestrutura, com ênfase nos setores de transportes e energia elétrica.

Dados: Câmara se organiza por bancadas, não partidos

Um debate sobre governabilidade marca o início do novo governo: o Presidente deve priorizar os partidos tradicionais nas negociações, ou continuar investindo nas chamadas bancadas?

Há muito, observadores do Congresso apontam que essas bancadas temáticas vão ganhando protagonismo à custa da fragmentação partidária. O problema é que elas são organizações informais, difíceis de definir.

Um esforço inédito de identificar essas bancadas é apresentado na imagem acima. Ela é uma rede com os deputados da última legislatura, isto é, os deputados que atuaram entre 2015 e 2018. Cada ponto é um deputado.

Um deputado aparece conectado a outro se tiverem apresentado juntos alguma proposta, como um projeto de lei. Essa colaboração é opcional: deputados podem apresentar sozinhos uma proposta, ou podem se juntar como coautores para fortalece-la ou por qualquer outra razão.

Por exemplo, Jair Bolsonaro apresentou mais propostas junto com Eduardo Bolsonaro. A conexão entre Jair e Eduardo é uma. No total desta rede são mais de 30 mil conexões!

Deputados mais conectados aparecem em tamanhos maiores. O mais importante é a divisão da rede. Os deputados estão divididos em “comunidades”. Cada comunidade é um grupo de deputados que possui mais conexões entre si do que com os demais.

Ou seja, são deputados que trabalham mais juntos. Como grandes panelinhas de parlamentares.

Nos Estados Unidos, uma rede como essa gera duas comunidades principais: democratas e republicanos. Em diversos outros países em que essa metodologia foi empregada, a divisão da rede de coautores de projetos (cosponsors) se dá de acordo com partidos.

Isto é, as panelinhas de deputados nesses países são simplesmente os próprios partidos. Clique aqui para ver a compilação do pesquisador François Briatte.

Não funciona assim na Câmara dos Deputados do Brasil.

As centenas de deputados se organizaram entre 2015 e 2018 principalmente em grupos que não traduzem os partidos. São as bancadas.

Na imagem acima, apresentamos as bancadas em verde. Algumas comunidades têm base em partidos, elas são apresentadas em azul.

A maior bancada é a bancada evangélica. Esta comunidade é maior do que qualquer partido e é “densa”. Isso quer dizer que a bancada é coesa: seus parlamentares têm muitos laços entre si.

Por exemplo, mais de 40 deputados desse grupo apresentaram juntos um projeto para sustar ato do governo contra a discriminação de travestis e transexuais em estabelecimentos de ensino. Orientação sexual e aborto são alguns dos temas que juntaram vários deputados dessa bancada. Um dos mais importantes é o projeto que pode tornar crime de responsabilidade ministros do STF “usurparem” competências do Congresso em temas como aborto ou descriminalização das drogas.

Jair Bolsonaro foi um dos 5 parlamentares mais “centrais” desta bancada, isto é, está entre os mais conectados. Na imagem abaixo, que mostra apenas a bancada evangélica, Bolsonaro é o ponto destacado.

Bancada evangélica e Bolsonaro

Assim, enquanto boa parte da opinião pública via o deputado como um parlamentar desimportante de um partido pequeno, ele era na verdade um dos deputados mais centrais do principal grupo da Câmara.

Há uma segunda bancada importante: a ruralista, que também se destaca pelo seu tamanho e coesão. Um dos casos mais interessantes é a “bancada do Rio”, o único estado a formar uma, tipicamente exigindo recursos federais para o Estado.

Chama também a atenção a bancada da bala. Apesar de toda a ênfase dada pela opinião pública, ela é na prática uma bancada pequena. Talvez até faça barulho, mas se mobiliza pouco para apresentar projetos ou requerimentos. Ela não deve ser comparada, como frequentemente é, com a evangélica e a ruralista, que são muito mais organizadas.

Quanto aos partidos, existem 5 comunidades na rede que, embora não se confundam com partidos, são baseadas neles. São grupos compostos por vários deputados de um mesmo partido, mas não exclusivamente. Além disso vários dos deputados deste partido pertencem a comunidade.

É o que ocorre com PT, PSB, PSDB e DEM. É como se neles houvesse um núcleo duro com pautas mais definidas, normalmente trabalhando com alguns membros de outros partidos. É isso que as comunidades em azul na imagem representam.

O PSOL é uma exceção: todos os seus membros de fato estão no mesmo grupo. Ele seria o partido mais orgânico da Casa, aquele que tem os deputados que mais “jogam juntos”.

Veja que vários partidos grandes não aparecem na rede, como MDB, PR, PP ou PSD. Seus membros tiveram poucas atividades em conjunto.

Além das bancadas e dos grupos baseados em partidos, há ainda 2 tipos de comunidade na rede. Os em amarelo são grupos de líderes de diferentes partidos, que por conta do regimento interno da Câmara devem cooperar para que algumas soluções sejam encaminhadas. Por isso, líderes partidários tendem a trabalhar formalmente mais com outros líderes partidários do que com seus próprios correligionários.

Por fim, na cor cinza, estão grupos de deputados de origem partidária heterogênea, e que não se especializam em um tema, e por isso não podem ser chamados de bancadas (como a evangélica ou a ruralista). Eles atuam juntos em pautas diversas. Chamo eles de “Centrão”.

Apesar da importância das bancadas na organização da atuação dos membros da Câmara, em contraste com dezenas de países em que a organização da rede de coautorias de propostas se dá por partido, não é óbvio que elas garantam a governabilidade.

Isso tanto porque os líderes partidários têm monopólio para enquadrar os parlamentares quanto porque é possível que as bancadas apenas organizem a apresentação de propostas, mas não sua votação. Na hora do plenário, o “sim” ou “não” pode reduzir a Câmara a dimensões partidárias, a partir do eixo governo-oposição.

Apesar da renovação da Câmara, há muitos reeleitos em várias das bancadas, o que sugerem que a estrutura da imagem acima permanece. Mas novas comunidades vão inevitavelmente se formar, especialmente com a chegada do PSL e do Novo na Câmara.

Pedro Fernando Nery é Doutor e Mestre em economia pela Universidade de Brasília (UnB).

O Fim do Mundo como o Conhecemos?

Vivemos em tempos sombrios. Pelo menos é isto que se é levado a crer pelo zeitgeist atual, conforme refletido em uma série de livros, artigos, blog posts, podcasts e outros meios de expressão. Aparentemente, algumas das realizações e expressões mais estimadas da humanidade (ocidental) estão a perigo ou efetivamente mortas. O caso mais saliente é a democracia. Há tantos livros sobre a morte da democracia, que a resenha no Washignton Post sobre o livro How Democracies Die por Steven Levitsky e Daniel Ziblat (2018) o classifica como sendo: “The best death-of-democracy book I read in 2018.” O tema também tem feito aparições assíduas em podcasts recentes, como o episódio The Death of Democracy no podcast Start the Week da BBC4, ou então o episódio Is Democracy Dead? no podcast Please Explain. Variações em torno do tema anunciam a morte do discurso político civilizado (Washignton Post), e o fim do consenso (The Guardian).

Da mesma forma, tem-se ouvido muito a respeito da morte do liberalismo, entendido como a situação onde uma maioria pode de facto e de jure violar os direitos de minorias, mas opta por não fazê-lo. A chegada recente ao poder de uma série de líderes populistas e autoritários, mesmo em países onde este tipo de coisa não costumava acontecer, seria evidência do fim da ordem liberal mundial. Vide, por exemplo, o artigo Liberal World Order R.I.P. Segundo um debate recente na London School of Economics com o título Crisis of the Liberal World Order, or is the West in Decline?, estaríamos vendo o declínio do senso compartilhado de sucesso, dentro de países e entre grupos de países. É este senso compartilhado de sucesso que garantia o mínimo de terreno comum para que se pudesse resolver ou atenuar conflitos e permitir a continuada geração de prosperidade. Segundo trabalho recente de Dani Rodrik há uma diferença crucial entre democracias eleitorais, que escolhem seus líderes através de eleições, e democracias liberais, que asseguram igualdade perante a lei para minorias. E pelo que se lê e ouve recentemente teremos cada vez mais eleições, mas cada vez menos igualdade e respeito aos direitos de minorias raciais, religiosas, de gênero, de classe, de origem geográfica, etc.

Há alguns anos atrás já havíamos sido informados por Larry Summers que vivemos em uma Estagnação Secular, e por Tyler Cowen que já colhemos os frutos mais baixos e estamos fadados a passar por uma Grande Estagnação. Isto quer dizer que não devemos esperar, como no passado, que crescimento econômico eventualmente retorne e resolva todos os problemas. A expectativa que cada geração terá uma qualidade de vida melhor que a anterior, supostamente não vale mais. Produtividade segue enigmaticamente em queda contínua, apesar de todo avanço tecnológico que parece estar à nossa volta, um fenômeno cunhado de Paradoxo da Produtividade por Robert Solow. E se você acha que pesquisa e inovação vai virar o jogo, pense novamente: a taxa global de inovação já vem arrefecendo a algum tempo. E se você tem esperança que globalização e maior interação entre os países possa ser a solução, a revista The Economist recentemente trouxe uma capa sobre Slowbalization, a morte da globalização.

Anuncia-se também a morte do sonho de um mundo menos desigual, a medida que aumenta o fosso entre os mais ricos e os mais pobres em diversos países do mundo, conforme documentado por Thomas Piketty. Isto, por sua vez, está relacionado com a morte da classe média: a NPR (Radio Nacional Pública dos EUA) noticiou em 2016 que pela primeira vez desde 1970 a classe média não era o principal estrato populacional nos EUA. Isto, por sua vez, vem acompanhado da morte do emprego fixo (the end of work) e carreiras imersas na incerteza da gig economy.

Uma vez que se começa a prestar atenção, passa-se a encontrar cada vez mais notícias da morte de algo que antes parecia eterno, incluindo algumas coisas que supostamente já morreram há algum tempo, como o fim das religiões, o fim do futebol arte, e, como nos avisou The Who lá atrás em 1972, a morte do rock’n roll (dê uma olhada no The Hot 100 da Billboard e veja quantos grupos de rock você consegue encontrar. Reposta: nenhum! Experimente comparar com o Hot 100 de qualquer semana quinze anos ou mais atrás.) Já se anunciou até que estamos vivendo em uma era pós-verdade e não podemos acreditar em que nos dizem. Caso eu tenha omitido a morte de alguma realização humana importante, peço que os leitores incluam nos comentários.

Tudo isto é muito alarmante e desestabilizante. Mas, como afirmou Mark Twain: “The rumours of my death have been greatly exaggerated.” Basta pensar bem sobre qualquer um destes casos e provavelmente a tranquilidade se reestabelece. Não é de hoje que ‘a morte de X’ vem sendo anunciada, e no mais das vezes o futuro se recusa a cooperar. A figura de profetas vestindo um cartaz “O Fim é Eminente” (The End is Nigh) é um estereótipo, mas vários cultos autênticos já passaram pelo vexame de chamar a atenção do mundo para o dia do juízo final, e depois ter que explicar por que a profecia falhou. O termo ‘dissonância cognitiva’ foi criado por Leon Festinger da New School for Social Research, justamente para retratar a insistência de membros de tais grupos em continuar acreditando, apesar das reiteradas evidências em contrário (vide o livro When Prophecies Fail). Um exemplo acadêmico dos riscos de se profetizar ‘o fim de X’ é o best-seller de Francis Fukuyama The End of History de 1992, onde sugeriu que com a queda do Muro de Berlim, a última alternativa ao liberalismo havia morrido e com isto o mundo entraria em uma nova e última fase onde veríamos o triunfo do Ocidente. Outro exemplo é a previsão Marxista de que o capitalismo continha dentro de si sua própria destruição, que levaria necessariamente ao socialismo.

É interessante que previsões alarmantes e pessimistas parecem atrair muito mais atenção do que analises otimistas e baseadas mais rigorosamente em evidências que mostram o quanto as coisas tem melhorado ao longo do tempo, como o livro The Better Angels of Our Nature: Why Violence has Declined, de Steven Pinker (2011) e o trabalho de Hans Rosling com seu projeto Gapminder que visa disseminar o uso intensivo de estatísticas para melhor se compreender o mundo.

Então, não há motivos para pânico e podemos dormir tranquilos.

Mas será que realmente podemos? Recentemente tenho visto em diferentes lugares uma nova previsão que me parece um pouco mais preocupante do que as outras: o fim da competição, e com isto o fim do capitalismo como o conhecemos. O que mais me chamou a atenção foram as fontes que têm feito este alerta, pois são fontes explicitamente liberais, pro-mercado e não afeitas a sensacionalismo ou teorias de conspiração. A primeira foi um special report na The Economist com o título The Age of Giants, no qual alertam que um grupo de empresas têm se tornado excessivamente poderosas e que governos e antitruste tradicional estão cada vez mais incapazes de regulá-las ou impedir as consequências nefastas que sua atuação vêm cada vez mais trazendo à luz. As pessoas costumam colocar a culpa do estado das coisas em banqueiros, políticos, especialistas, burocratas, estrangeiros, na China, entre outros. Mas segundo este artigo a verdadeira ameaça pode estar justamente naquelas empresas que nos provêm, muitas vezes de graça, os produtos e serviços que mais gostamos. Onde antes competição via mercado ou imposta por autoridades antitruste seriam capazes de limitar o abuso do poder destas grandes empresas, hoje, com efeitos de rede e outras características de mercados digitais, não haveria forças capazes de contê-las (vide o post de João Pedro Arbache neste mesmo blog em 31/01/2019 sobre as características destes novos mercados). Segundo a revista o aparato antitruste desenvolvido para a velha economia de cimento e tijolo está em um perigoso estado de decadência intelectual que favorece uma perigosa falta de ação em um mundo que está rapidamente mudando.

Recentemente o Departamento de Justiça Americano tentou impedir uma fusão entre a AT&T e a Time Warner, mas foi revertida por um juiz que chancelou o acordo de US$85 bilhões. Uma fusão posterior entre a Walt Disney e a Twenty-First Century Fox valendo US$71, 3 bilhões não foi contestada nos EUA, e está sendo acompanhada pelo CADE assim como autoridades antitruste na Europa e até na China. Em outro caso recente a American Express ganhou na Suprema Corte Americana um caso em que o governo a acusava de abusar sua posição como mercado de lados. Eu não quero sugerir que necessariamente estes casos em particular sejam evidência de erros na área de competição, mas sim que ilustram a natureza cada vez mais complexa das situações que envolvem muitas grandes empresas atualmente. É justamente a incapacidade do aparato antitruste teórico e prático atual de nos ajudar a entender a fundo estes casos que é o problema.

A segunda fonte com uma mensagem semelhante foi o podcast Econtalk (25/02/2015) que entrevistou Mike Munger (Duke University) sobre um texto recente com o título The Road to Crony Capitalism. Em 1944 Hayek avisou do perigo da intervenção governamental em The Road to Serfdom ao prevenir que mesmo um pouco de planejamento central tendia a gerar distorções que requerem cada vez mais planejamento, até que não há mais volta de uma economia ineficiente e atrasada. Em The Road to Crony Capitalism o argumento é que a medida que as empresas crescem e se tornam cada vez mais poderosas, elas estão cada vez mais em posição de usar o Estado, via lobby, tarifas, concessões, regulamentação, etc., para atingir seus fins, fazendo com que fiquem ainda mais poderosas e dominantes, levando também a uma economia desigual e ineficiente. No novo cenário de economias de rede, as empresas tenderiam cada vez mais a se encontrar em tal situação, e mesmo aquelas que preferissem optar por não jogar o jogo do capitalismo de compadrio, não teriam esta opção, pois seriam forçadas a participar pelos seus próprios acionistas que esperam lucros, ou por investidores hostis sem tais escrúpulos. Bill Gates, por exemplo, tentou evitar que a Microsoft lançasse mão de lobistas e outras estratégias semelhantes. Para ele a Microsoft seria uma empresa diferente. Mas após o traumático caso antitruste do governo Americano contra a inclusão do Internet Explorer no Windows 95, ficou claro que esta não era uma opção viável. Da mesma forma, a Google, que provavelmente vislumbrava algo semelhante quando escolheu em 2000 o motto Do No Evil, optou recentemente por remover esta menção em seu código de conduta oficial.

O que é mais alarmante diante destas perspectivas é que, se realmente forem verdadeiras estas ameaças, o que pode ser feito? A primeira linha de defesa deveria ser a competição. Normalmente o próprio mercado daria um jeito à medida que lucros altos fizessem com que novos entrantes criassem novos produtos e novas firmas que corroeriam as vantagens adquiridas pelas grandes empresas. Quando isto falhava, havia sempre antitruste, que é uma forma de competição artificial, quando a coisa real não emerge por conta própria. Mas, conforme argumentado acima, e conforme um novo livro por Tim Wu (que cunhou o termo ‘neutralidade de rede’) The Curse of Bigness: Antitrust in the New Gilded Age, o estado atual do estabelecimento antitruste não é capaz de nos proteger. A situação é de tal forma desesperadora, que no episódio de Econtalk mencionado acima, os interlocutores se veem forçados, com embaraço confessado, a sugerir que o que precisamos é de pessoas boas e morais. Nenhum sistema pode funcionar se as pessoas não tiverem um mínimo de escrúpulos, princípio e normas. Se os donos e dirigentes das empresas se recusarem a jogar o jogo do capitalismo de compadrios a situação poderia ser atenuada.

Este argumento parece incrivelmente ingênuo e vazio, especialmente vindo de dois economistas libertários e adeptos à Public Choice. Economistas tendem a ser mais maquiavélicos e defender que um bom sistema tem de ser desenhado para funcionar até com pessoas com as piores intenções. Ou, como colocou Milton Friedman:

It’s nice to elect the right people, but that isn’t the way you solve things. The way you solve things is by making it politically profitable for the wrong people to do the right things.

No entanto, o argumento que uma Economia funcional não pode prescindir de boas pessoas vêm ganhando força, mesmo dentro da profissão dos economistas, onde considerações de valores morais e virtudes nunca foram bem vistas. O título do livro de 2016 de Samuel Bowles, The Moral Economy: Why Good Incentives Are No Substitute for Good Citizens expressa bem esta noção. Diedre McCloskey não só lançou uma trilogia sobre o papel de valores e ética no crescimento econômico, mas seu próximo livro, a ser lançado este ano, se chama How to be a Humane Libertarian: Essays for a New Liberalism. Há também o livro de Timothy Besley (2007) Principled Agents? The Political Economy of Good Government que enfatiza a importância de ter um sistema que escolha bons dirigentes.

Com as fragilidades da teoria econômica atual expostas pela crise econômica global, o clima está mais propício do que nunca para a consideração de moralidade e virtude. O problema principal agora é como implementar essas ideias.

Bernardo Mueller é professor do Departamento de Economia da Universidade de Brasília e autor dos livros Brazil in Transition: Beliefs, Leadership and Institutional Change (2016) e Institutional and Organizational Analysis: Concepts and Applications (2018).

Políticas Públicas e Eficiência Alocativa na Educação

Nas últimas décadas, a educação foi sendo paulatinamente assumida como um verdadeiro mantra em termos de políticas públicas e prioridades. Melhores níveis de educação da população em geral e da força de trabalho em particular ampliariam as possibilidades de crescimento (ver, a título de exemplo da extensa literatura, Gemmell (1996), Toppel (1999), Lucas (1988)), seriam cruciais para combater a pobreza, constituiria uma variável chave para explicar o perfil distributivo das sociedades (ver, por exemplo, Mincer (1958), Langoni (1972), Acemoglou (2012), (2002), etc.) e ajudaria a explicar os indicadores de felicidade auto-declarados dos indivíduos. Esses nexos teóricos e empíricos parecem bem sedimentados na literatura, ainda que não possam deixar de ser considerados argumentos que relativizem essa importância, especialmente no tocante à relevância da suposta relação de causalidade entre educação e crescimento e aos diferenciais de níveis auto-declarados de felicidade entre indivíduos e sua relação com os patamares de escolaridade atingidos.

Em geral, a educação, seguindo a tradição inaugurada por Becker, Mincer, etc., é identificada com a acumulação de conhecimentos, habilidades, etc. que tem impacto sobre a produtividade e, na medida em que esta está associada ao crescimento e aos salários, acaba tendo desdobramentos positivos sobre os níveis de renda da sociedade e dos indivíduos.

Se, diferentemente desta perspectiva, a educação é assumida como sendo a acumulação de sinais ou credenciais para se diferenciar dos concorrentes na disputa por vagas (posicionamento relativo no mercado de trabalho), os ganhos sociais (não individuais) dos investimentos em educação podem ser questionados. Neste caso, o Estado deveria prescindir de alocar recursos públicos na área, uma vez que as credenciais não teriam uma correspondente contrapartida em conhecimentos/competências/habilidades sócio-emocionais. Logicamente, a dicotomia acumulação de capital humano/acumulação de sinais pode não ser bipolar no conjunto. Existem fortes elementos teóricos e empíricos que induzem a pensar que a educação pode ser uma mistura (em diferentes proporções, segundo os países, períodos históricos ou segmentos do sistema educativo) de acumulação de conhecimentos/habilidades e da procura por agregação de credenciais.

Uma vez que o nosso objetivo consiste em refletir sobre uma suposta conveniência de intervenção estatal a fim de tornar os investimentos públicos e privados na acumulação de capital humano mais eficientes, vamos admitir que a educação, na sua totalidade ou parcialmente, consiste em atividades que contribuem para acrescentar conhecimentos/habilidades/competências, sejam eles cognitivos ou sócio-emocionais.

Dada a hipótese da educação pós-compulsória ser identificada como uma atividade que, no futuro, vai se traduzir em maior produtividade/salários, acompanhando princípios básicos da Teoria do Capital Humano, a freqüência escolar deve ser reconhecida como um investimento e não pode fugir dos banais critérios que determinam se uma aplicação financeira deve ou não ser realizada: o valor presente do fluxo de benefícios (objetivos, como salários, ou subjetivos, como status social) devem ser superiores aos custos (financeiros diretos, de oportunidades, de sacrifício por abrir mão de lazer, etc.). O balanço dessa relação depende de diversos fatores (taxa de desconto, por exemplo) e a sua concretização pode estar em função da existência ou não de restrições de crédito. Além de olhares meramente econômicos, a intervenção pública associada a essas duas variáveis (taxa de desconto e restrições de crédito) podem dizer respeito a aspectos de justiça ou igualdade de oportunidades.

Contudo, associando a educação a um investimento (abrimos mão do consumo hoje para elevar o valor presente do fluxo de renda futura), a utilização dos habituais instrumentos metodológicos que pautam a viabilidade de uma aplicação financeira é cabível. Mais especificamente, é incontornável estar familiarizado com dados sobre o presente e tentar esboçar o porvir. Observemos que o investimento em educação é uma atividade que deve levar em consideração horizontes temporais que podem se aproximar ao meio século. A quase trivial escolha de um curso em uma universidade pauta custos futuros (por exemplo, a probabilidade de ficar desempregado por longos períodos na sua vida ativa) e retornos vindouros (evolução dos rendimentos nos próximos quarenta anos) que, ex-post, quer seja desde uma perspectiva individual ou social, podem não ter sido as melhores escolhas.

Concretamente, os critérios econômicos para a escolha de um investimento em educação (um curso) exige conhecer os salários relativos de cada uma das alternativas factíveis, as possibilidades de emprego, as eventuais trajetórias profissionais, os possíveis cenários em termos de demanda futura devido, por exemplo, a choques tecnológicos, etc.. Os gostos e as facilidades de cada indivíduo em cada área devem logicamente ser variáveis levadas em consideração, especialmente no tocante aos custos individuais. Contudo, os gostos, vocações, etc. deveriam ser somente um dos aspectos a entrarem no cálculo, que podem ou não ser compensados pelas outras variáveis (futuros rendimentos, por exemplo).

Se imaginarmos um processo no qual o mercado alocaria de forma eficiente os recursos investidos na educação, além dos usuais supostos sobre a racionalidade do “agente” (neste caso o processo de escolha entre estudar ou não e o quê e o quanto estudar), o arranjo ótimo requereria (como no modelo de Arrow-Debreu) que o indivíduo tenha à sua disposição um conjunto amplo de informações sobre o presente (salários relativos, taxas de ocupação, taxas de desemprego, etc..), os cenários futuros e a flexibilidade ou graus de liberdade que cada escolha lhe proporcionará amanhã. Mesmo deixando de lado externalidades (que podem determinar que os custos/benefícios individuais sejam diferentes dos sociais) ou a pouco crível hipótese da “probabilização” das alternativas nas próximas décadas, não existem elementos que nos permitam concluir que, em cada momento do tempo, as pessoas possuam ou estimem esses parâmetros e, mesmo estando dispostos a pagar por eles, que exista um mercado específico para esses dados.

Logicamente, se poderia arguir que “mercado”, em cada momento do tempo, proporciona livremente (sem custos) parte desses sinais. Os salários relativos podem estar sugerindo que profissões estão sendo mais demandas que outras. As taxas de desemprego podem revelar com que conhecimentos/habilidades/competências é mais fácil encontrar emprego ou, em outros termos, os conhecimentos/habilidades/competências requeridas pelas vagas que são abertas e a quantidade de vagas vis-à-vis a oferta. Mas mesmo na suposição otimista que um indivíduo antes de sua decisão de escolher seu curso esteja de posse dessas informações, dificilmente a mesma configuração vá prevalecer pelos próximos 40/50 anos. Ele teria que ser capaz de prospectar (e, se somos mais sofisticados, “probabilizar” possibilidades).

Nada garante que todo esse conjunto de hipóteses se cumpra. Aliás, realisticamente podemos supor que muito poucas delas prevalecem no dia-a-dia. A tomada de decisões talvez obedeça a outros parâmetros: expectativas e tradição familiar, informações de amigos/colegas, disponibilidade de cursos, gostos, capacidades inatas, valores do entorno social, etc.. Parte desses parâmetros podem ser considerados como fazendo parte do modelo canônico. Os gostos e as habilidades inatas podem reduzir os custos (objetivos e subjetivos) do projeto de investimento em educação. Contudo, em outros casos (ambiente familiar/social, amigos, etc.) a fonte de informações pode não ser robusta ou estar viesada ou simplesmente não existir.

Essas limitações, nos processos individuais que pautam as escolhas de investimento em capital humano, tem custos, tanto privados quanto sociais. Por exemplo, a falta de aderência entre o perfil profissional requerido pelas vagas disponíveis e o contorno das habilidades/competências da oferta de trabalho tem como corolário uma alocação ineficiente da mão-de-obra e/ou sua subutilização (desemprego). Em termos técnicos, essa disfunção (mismatching) é usualmente mesurada através da posição da denominada Curva de Beveridge. Uma conseqüência seria, por exemplo, a sobrequalificação dos empregados, um fenômeno usual nas economias maduras.

Uma situação análoga à que estamos descrevendo pode ser observada no caso das políticas de emprego. O Sistema Público de Emprego proporciona aos beneficiários do seguro-desemprego informações sobre profissões/setores/áreas geográficas nas quais ele tem maiores possibilidades de ser contratado e, nesse sentido, pauta as ações (cursos oferecidos, intermediação, etc.) que tem como alvo cada desocupado. Ou seja, assume-se que os sinais de mercado (salários relativos, diferenciais geográficos nas taxas de desemprego, etc.) demoram ou sua disseminação é imperfeita. Nesse sentido, a intervenção pública ajudaria (“azeitaria”) o matching entre oferta e demanda.

Na educação, diversos passos foram dados nessa direção nas últimas décadas, especialmente a implementação e ampla divulgação de sistemas de avaliação, que proporcionaria informações sobre a qualidade dos cursos. Teoricamente, a qualidade de um curso teria impacto sobre o capital humano dos alunos e, via produtividade, nos salários no transcurso de sua vida profissional. Existem evidências que dão robustez empírica a essa suposta correlação. Ou seja, os alunos teriam informações sobre a qualidade do curso de um estabelecimento, referência que ajudaria na tomada de decisões.

Contudo, ganhos de eficiência macro seriam dilatados e frustrações individuais seriam reduzidas no caso de outros arranjos legais ampliarem o leque de informações públicas de fácil acesso. Por exemplo, os estabelecimentos poderiam divulgar os salários de seus egressos, as taxas de desemprego, as firmas/instituições nos quais foram empregados, etc.. Se o processo educativo é reduzido à dimensão econômica, sendo a educação assumida como investimento com custos e retornos, nada mais próximo a essa perspectiva que os MBA’s, cursos identificados como sendo um trampolim para melhores empregos ou para turbinar a progressão funcional. Geralmente pagos e muito caros, muitas instituições divulgam salários e tipos de ocupação de seus antigos alunos como forma de “vender” seu produto no mercado (ver, por exemplo, aqui, aqui ou aqui).

Essa maior disponibilidade de informações poderia ser crucial na hora da tomada de decisões, redundando em maior eficiência alocativa macro e maiores retornos individuais. Se a educação é definida como um investimento, as escolhas devem estar pautadas pelos usuais critérios que norteiam qualquer investimento e, nesse sentido, a disponibilidade de informações é vital. Nesse contexto, o Estado deveria assegurar esses referenciais, obrigando ou induzindo às instituições a divulgarem dados (salários de seus egressos, firmas ou setores onde foram empregados, tempo para encontrar uma ocupação, etc.) que subsidiem as escolhas. Seria conveniente que a eleição de um curso deixe de ser, exclusivamente, pautada por informações subjetivas de amigos/parentes, tradições, supostas vocações, etc.. Em um ambiente no qual o objetivo em elevar a produtividade parece ter se tornado prioridade absoluta, avanços nesse sentido complementariam outras iniciativas.

Carlos Alberto Ramos é Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, Doutorado na Université Paris-Nord.
Older posts Newer posts