Economia de Serviços

um espaço para debate

Month: abril 2019

Teorias Conspirativas, IBGE e Democracia

Poderia ter utilizado alguma referência literária (e não faltam alusões nessa direção). Por exemplo, em um texto de 1952 (A Linguagem Analítica de John Wilkins), Jorge Luis Borges afirma que “…notoriamente não existe classificação do universo que não seja arbitrária e conjectural….” Poderia ter-se reportado a algum laureado economista. Por exemplo, Robert Lucas sustenta que o desemprego involuntário é uma invenção de Keynes e corresponderia aos keynesianos carregar esse fardo analítico, com todas suas supostas imprecisões teóricas e empíricas. Porém não. O Presidente Bolsonaro apelou à Teoria da Conspiração para manifestar a sua insatisfação com os dados divulgados pelo IBGE sobre o nível de desemprego. Nessa visão do mundo, não parece ser nem original nem insólito, uma vez que acompanha uma tendência cada vez mais ampla entre novas correntes políticas/ideológicas que têm ascendido ao governo em diversos países. Esse referencial teórico (a Teoria da Conspiração) é explícito ao sustentar que a taxa de desemprego calculada pelo IBGE “parece feita para enganar a população”.

A avaliação dessa afirmação pode ser realizada desde múltiplas perspectivas e levanta os mais diversos interrogantes. Por exemplo, surge naturalmente a questão do porque não demitir o Presidente (ou a Presidenta) do IBGE uma vez que a atual titular foi por ele nomeada. O desligamento seria até justificado dado que o órgão que preside estaria divulgando estatísticas cujo objetivo seria “enganar a população”. Um segundo tipo de resposta seria contrapor essa acusação abstrata com certas informações metodológicas concretas. Por exemplo, que o IBGE acompanha recomendações internacionais na construção de suas estatísticas, réplica já dada oficialmente por essa instituição. Uma outra alternativa seria analisar os dados e advertir os erros primários nas críticas esboçadas.

Essas possíveis leituras, avaliações e réplicas já foram realizadas e amplamente divulgadas pela imprensa. Nesse sentido não vamos voltar sobre elas. Seria uma tarefa redundante. Contrariamente, a nossa perspectiva neste post é outra, mais radical, e consiste em sustentar que todas as avaliações e réplicas explicitadas carecem de transcendência, uma vez que estamos diante de uma questão epistemológica e não perante uma simples discussão metodológica sobre a construção de indicadores. Ou seja, uma afirmação com a qual estamos lidando (a construção de séries feitas pelo instituto oficial de produção de estatísticas estaria disponibilizando parâmetros cujo objetivo seria “enganar a população”) não pode ser refutada no marco da perspectiva epistemológica (“os óculos que nos permitem ordenar o mundo”) que corriqueiramente se denomina ciência. Aliás, como outras formas de abordar o mundo (magia, religião, experiência, astrologia, superstição, etc..), o que caracteriza uma afirmação como essa é a quase impossibilidade de sua refutação. Ou, em todo caso, a impossibilidade de refutação aos olhos daqueles que a sustentam.

Olhar ou interpretar o mundo através da Teoria da Conspiração tem arraigadas raízes na história do pensamento (ver, por exemplo, McConnachie, Tudge (2013)) e, basicamente, tenta caracterizar um fenômeno como sendo o produto do conjuro de uma força superior, oculta, com vastos e camuflados objetivos, com ampla capacidade de atuação, etc.. Os ideólogos e executores da conspiração podem ser os mais diversos, variando segundo os períodos históricos e a ideologia do proponente, factível de ir desde os judeus até as elites financeiras, o marxismo cultural, os mações, o tal establishment em geral e dentro destes os mais diversos subconjuntos (o establishment financeiro, político, a Comissão Européia, etc..) sendo até possível chegar às identificações mais exóticas (os extraterrestres).

As Teorias Conspirativas foram utilizadas para analisar e avaliar profusos episódios, desde os mais triviais até eventos cruciais na história da humanidade. Entre os mais triviais podemos mencionar a suposta morte de Paul McCartney e a foto do disco Abbey Road. Nela Paul estaria cruzando a rua de olhos fechados, levando um cigarro na mão esquerda (ele é canhoto), descalço (como seriam enterrados os mortos na Inglaterra) e por aí vai. A foto retrataria o enterro de Paul. Em realidade em cada disco dos Beatles se imaginavam diversas “evidências” da morte de Paul (a capa de Sgt. Pepper, por exemplo, também seria seu enterro). Entre as “interpretações” de eventos mais dramáticos (ou que geraram eventos mais dramáticos) podemos mencionar desde os presumidos “Protocolos dos Sábios de Sião” e a suposta “conspiração” judia até algumas mais recentes, como fantasiar que os atentados do 11 de setembro nos EUA teriam sido um complô dos próprios Estados Unidos para justificar intervenções militares visando dominar reservas de petróleo no Oriente Médio. Aspectos da história recente do Brasil não fogem a esse tipo de análise. Por exemplo, a Lava Jato seria um complô urdido nos EUA para acabar com a Petrobrás, a indústria nacional e o savoir-faire da engenheira do país (ver aqui).

O diálogo ou a interação entre o paradigma do que corriqueiramente se denomina de ciência e outras formas de abordar o mundo (seja no tocante a aspectos físicos, como a origem da vida na terra, ou dimensões políticas/sociais/econômicas, etc.) é limitado quando não impossível. Tomemos o caso da verificação empírica das correlações e as relações de causalidade. Seja que optemos pela perspectiva indutiva ou dedutiva, na visão cognitiva do que denominamos de ciência sempre existem modelos teóricos e correspondentes testes empíricos (ou a possibilidade de serem realizados). Essa relação entre teoria e validação empírica ou entre teoria e observação pode merecer as mais diversas abordagens e tensões (possibilidade de refutação versus verificação), mas na ciência esse nexo está sempre latente. Vejamos a questão da falseabilidade em Popper. O criacionismo não pode ser considerado uma teoria científica uma vez que não é falseável. A teoria evolutiva sim. A psicologia, no sentido Popperiano, não pode ser considerada uma ciência. Restringindo-nos ao marco conceitual de Popper, uma afirmação científica tem validade transitória, pode ser refutada no tempo, sempre paira a dúvida sobre ela e, pela sua mesma natureza, é provisória. O criacionismo é definitivo, absoluto, não paira dúvida sobre ele, não existe espaço para o ceticismo. Ou seja, não pode ser assumido como científico.

As Teorias da Conspiração (em paralelo a outras que estão fora do escopo deste post, como a magia, a astrologia, a superstição, etc.) sempre situam a origem de um fenômeno em uma força oculta, porém supostamente poderosa, bem articulada e com fins quase sempre bem específicos (“os judeus pretenderiam conquistar o mundo”) ou extremamente amplos e nebulosos (um determinado fenômeno seria um complot da imprensa, ainda que não se saiba muito bem o objetivo dessa intriga). Observemos que aqui estamos diante de uma interessante caracterização que Popper, no seu A Sociedade Aberta e seus Inimigos, realiza da Teoria da Conspiração: não existe espaço para o azar, sempre um resultado será o corolário do acionar de um grupo interessado, mesmo que o grupo ou o objetivo não seja explicitado. O IBGE estaria manipulando os indicadores para “enganar a população”: qual seria o objetivo último ? Qual o grupo interessado ? Não sabemos nem o indivíduo que fez essa afirmação (neste caso o Presidente do Brasil) explicitou. Por outra parte, a Teoria da Conspiração combinaria, ao mesmo tempo, uma singularidade simplista (simplória) e complexa. Assim, JFK teria sido assassinado pela máfia (em algumas versões associada à própria CIA) uma vez que a mesma se sentiu traída depois de ter financiado sua campanha e o presidente nomear seu irmão Robert como procurador geral para iniciar uma política persecutória contra ela. Temos uma explicação simples (assassinato pela máfia) em um contexto supostamente extremamente complexo (planejamento, grupos de pessoas interagindo, informação/secreto, etc.). Não existe espaço para o aleatório. Não existe a possibilidade de um desequilibrado, atuando sozinho e por motivos fúteis, ter cometido esse assassinato. Sempre existirá um grupo oculto, secreto, fechado, com estratégias sofisticadas e um “raciocínio” que tem como corolário a explicação simplória (mas muitas vezes de um inusitado apelo popular) de um fenômeno. Por exemplo, a Lava Jato teria sido urdida no Departamento de Justiça dos EUA para acabar com a Petrobrás.

Mas voltando a nossa avaliação em termos de ciências, observemos que a ausência de confirmação é assumida como uma confirmação: se não existem provas é um atestado da sofisticação do grupo oculto. Assim, se na ciência a não existência de provas pode levar a rejeitar uma hipótese (no caso da verificação ser assumida como prova de validade, que não é o caso de Popper), na Teoria da Conspiração a ausência de provas é assumida como confirmação: um aspecto negativo é assumido como sendo a prova positiva. Para Hitler, a “prova” que os Protocolos dos Sábios de Sião são verdadeiros é sua rejeição pelos judeus (Cohn (1996)).

Estas considerações sobre a impossibilidade de diálogo entre o paradigma científico mainstream e a Teoria da Conspiração poderia ser associado a uma inquietude exclusivamente acadêmica, que diria mais respeito a questões epistemológicas que a desdobramentos concretos sobre um suposto objetivo do IBGE de “enganar à população brasileira”. Em realidade, os elos (entre considerações teóricas e corolários práticos) são mais próximos e perpassam inquietudes exclusivamente metodológicas ou acadêmicas. Como bem nos lembra Popper na referência que já citamos (A Sociedade Aberta e seus Inimigos), os projetos totalitários (não importa seu sinal ideológico) estão umbilicalmente vinculados a perspectivas conspiratórias do mundo. Por outra parte, como bem indicam as Nações Unidas, “As estatísticas oficiais constituem um elemento indispensável no sistema de informação de uma sociedade democrática…..) (ver aqui). Na medida em que balizam sistemas de formulação, controle e avaliação de políticas, a credibilidade e confiança da oferta de séries oficiais se deve nutrir de instituições produtoras com certas características: independência do poder, capacidade técnica, acompanhamento das sugestões metodológicas de organizações multilaterais, etc.. (sobre este ponto ver Feijó (2002), Valente e Feijó (2006)).[1] Nesse sentido, um sistema totalitário ou governos de cunho populista não podem, em nenhuma circunstância, conviver com uma instituição oficial de produção de estatísticas independente e tecnicamente competente. Existem funestas experiências bem próximas (no espaço e no tempo). Por exemplo, a aventura kirchnerista na Argentina redundou em um desmonte total do INDEC (o IBGE desse país) e desembocou em uma oferta de indicadores de inflação, emprego, pobreza, etc.. sem nenhuma credibilidade. Superada a miragem, reconstruir e encadear séries credíveis, reerguer reputações, recompor recursos humanos qualificados, etc. podem ser tarefas de anos.

Nesse contexto, questionar a confiabilidade da instituição oficial produtora de estatísticas apelando a Teorias Conspirativas representa um desafio difícil de ser contornado ou administrado. Justamente, a dificuldade se alimenta da impossibilidade de desafiar as suspeitas mediante argumentos que seriam normais no paradigma cognitivo no que se denomina ciência. Ao não compartilhar aspectos metodológicos básicos, refutar interpretações, diagnósticos ou afirmações oriundas de teorias conspirativas mediante discussões técnicas ou evidencias será uma tarefa inglória. Acentuando ainda mais essa disfunção, apelar a interpretações nutridas em alguma teoria conspiratória abre a caixa de pandora para o surgimento dos mais diversos diagnósticos e o debate começa a ser regulado pelas mais extravagantes narrativas, todas compartilhando os aspectos básicos do que denominamos de paradigma da Teoria da Conspiração. Dessa forma, se o Presidente da República atribui ao IBGE a intenção de produzir estatísticas para “enganar a população”, debilitando-o institucionalmente, valida intelectualmente uma ficção que identifica as restrições orçamentárias do próximo Censo e as sugestões para reduzir o número de quesitos no questionário como uma estratégia do Ministro Paulo Guedes para forjar as estatísticas e iludir a população: “A intenção de Guedes é reduzir o número de indicadores para poder manipular mais a realidade” (ver aqui).

Nessa proliferação de relatos nos quais as teorias conspirativas pautam os pseudo-argumentos e o diálogo com o método científico tradicional se torna inócuo, uma saída possível (seja para preservar tecnicamente as séries seja para preservar a mesma democracia) consistiria avançar na institucionalidade do IBGE como órgão independente e com reputação. Por exemplo, assumir para sua formatação institucional aspectos muito discutidos no caso dos Bancos Centrais: Presidentes e Diretores com mandatos fixos não coincidentes com o ciclo eleitoral e aprovados pelo Senado, orçamento próprio e estável, integração mais acentuada com organismos internacionais, etc.. Nesse sentido, a pretendida acessão do Brasil à OCDE e os requisitos que sua admissão supõe pode ser um bom caminho a ser transitado.

  1. / Feijó, C.A. “Estatísticas oficiais: credibilidade, reputação e coordenação” Economia Aplicada. v.6.n.4. p.803-817. out./dez. 2002.

    ,

Autor:

Carlos Alberto Ramos é Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, Doutorado na Université Paris-Nord.

Redistribuição dos recursos da Educação Básica

O ensino público concentra pouco mais de 80% das matrículas da Educação Básica[1]: são aproximadamente 40 milhões de matrículas e 1,8 milhão de professores distribuídos em uma rede de 145 mil escolas[2]. O tamanho da rede torna ainda mais evidente a importância de políticas públicas em educação e o estudo dos mecanismos de redistribuição de recursos, especialmente em um país tão desigual como o Brasil.

Como os recursos da educação são distribuídos?

A Constituição de 1988 estabeleceu que estados e municípios devem alocar, no mínimo, 25% da receita proveniente de impostos e transferências em educação. Essa estrutura acabou aumentando a desigualdade entre as redes de ensino, já que estados e municípios ricos possuíam muito mais recursos a serem alocados nas suas redes de ensino. Consequentemente, durante a década de 90, houve aumento da heterogeneidade entre as escolas públicas de municípios ricos e pobres e entre as redes estaduais e municipais. Os sistemas estaduais eram muito maiores do que os municipais e, ao contar com maior montante de recursos e com maior capacitação das secretarias estaduais de educação, as escolas estaduais apresentavam maior proporção de insumos e indicadores educacionais mais elevados.

Um mecanismo de redistribuição de recursos foi implementado 1996 com a criação do Fundo Nacional de Desenvolvimento do Ensino Fundamental (FUNDEF)[3]. Entre os objetivos do fundo estava o de promover a adequação entre o gasto e o número de matrículas das redes de ensino, de modo a garantir maior equidade na redistribuição dos recursos educacionais. Foram criados 27 fundos estaduais e cada um deles era constituído por 15% do Fundo de Participação dos Estado (FPE), 15% do Fundo de Participação dos Municípios e 15% do ICMS[4] e do IPI[5]. Inicialmente tais recursos eram direcionados aos fundos estaduais e posteriormente redistribuídos entre a rede estadual e as respectivas redes municipais de acordo com o número de alunos matriculados no ensino fundamental regular[6].

Dessa forma, criou-se um mecanismo de redistribuição de recursos dentro de cada estado, em que os estados redistribuíam recursos aos seus respectivos municípios e municípios ricos redistribuíam recursos aos municípios pobres[7]. O FUNDEF promoveu a diminuição da desigualdade do gasto por aluno, o estreitamento da brecha salarial entre professores das redes estaduais e municipais e criou incentivos para que os municípios absorvessem mais alunos[8], já que o recebimento de recursos estava condicionado ao tamanho da rede. Em 2007, o FUNDEF foi substituído pelo Fundo Nacional de Desenvolvimento da Educação Básica (FUNDEB)[9], que passou a abranger toda a Educação Básica (Ensino Infantil, Fundamental e Médio) e cuja vigência é até 2020.

Em vez de 15%, estados e municípios passaram a alocar 20%[10] de uma cesta de impostos aos respectivos fundos estaduais. Além disso, de modo a garantir um gasto mínimo por aluno, o Governo Federal realiza a complementação de recursos. Em 2017, por exemplo, os fundos estaduais totalizaram R$ 132 bilhões e a União realizou uma complementação de R$ 12,7 bilhões.

O fundo possui uma característica equalizadora que contribui para diminuição da desigualdade de aplicação dos recursos educacionais. A Figura 1 apresenta a distribuição do gasto por aluno atual versus a de um cenário em que é simulada a ausência desse mecanismo de redistribuição. Observa-se que, na ausência do FUNDEB, a dispersão do gasto seria significativamente maior.

Figura 1

Fonte: Estimativa própria com base nos dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE), no Relatório Resumo de Execução Orçamentária (RREO) e no Censo Escolar. Redes Municipais.

No entanto, ainda há uma dispersão considerável entre o gasto das redes de ensino. Embora o gasto médio por aluno da rede pública com educação básica seja de R$ 6.000, o menor gasto é de R$ 2.642 enquanto o maior é de R$ 43.942[11], uma diferença superior a 16 vezes.

Como promover maior equidade?

Atualmente a complementação da União é realizada diretamente aos fundos estaduais, que, por sua vez, redistribuem esses recursos conforme o número de alunos matriculados nas redes de ensino. Em 2016, os 9 estados do nordeste foram beneficiados com os recursos do Governo Federal. No entanto, esse mecanismo, ao alocar os recursos nos fundos estaduais em vez de diretamente aos municípios, favorece municípios ricos em estados pobres em detrimento de municípios pobres em estados mais ricos. Por exemplo, capitais como Salvador, Recife, João Pessoa e São Luís, que na ausência de complementação da União já apresentariam gasto por aluno superior à média nacional, são beneficiados com recursos do Governo Federal. Por outro lado, municípios pobres de estados que não recebem complementação acabam sem receber recursos adicionais da União.

Se a complementação da União fosse realizada diretamente aos municípios seria possível garantir maior equidade na distribuição do gasto por aluno. Nesse cenário, o gasto mínimo por aluno passaria de R$ 2.642 para R$ 4.626 (Figura 2) e 1.704 municípios de todas as regiões do país seriam beneficiados.

Figura 2

Fonte: Estimativa própria com base nos dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE), no Relatório Resumo de Execução Orçamentária (RREO) e no Censo Escolar. Redes Municipais.

A vigência do FUNDEB até 2020 abre uma janela de oportunidade para a adoção de um mecanismo de redistribuição da complementação da União diretamente aos municípios, favorecendo a equidade do gasto em educação do país.

  1. 47,5% em escolas municipais, 33,4% em estaduais e 0,8% em federais e 18,3% na rede privada. Censo Escolar de 2017.

  2. 39,6 milhões de matrículas e 145.190 escolas. Censo Escolar de 2017.

  3. Lei n. 9.424 de 24 de dezembro de 1996. http://www.planalto.gov.br/ccivil_03/leis/l9424.htm

  4. Imposto sobre circulação de mercadorias e serviços.

  5. Imposto sobre produtos industrializados.

  6. A partir de 2000, os recursos passaram a ser redistribuídos de acordo com o total de matrículas do ensino fundamental regular e especial. Alguns estados também recebiam complementação da União se não conseguissem atingir determinado nível de gasto por aluno (cujo valor é determinado nacionalmente).

  7. Não há redistribuição entre os estados, por exemplo, recursos de São Paulo não são redistribuídos no Rio de Janeiro.

  8. Houve aumento da proporção de crianças em idade escolar matriculadas na escola e incentivos a descentralização, processo em que alunos são transferidos da rede estadual para a municipal.

  9. Lei n. 11.494 de 20 de junho de 2007. http://www.planalto.gov.br/ccivil_03/_ato2007-2010/2007/lei/l11494.htm

  10. A cesta de impostos dos estados é constituída pelo FPE, IPI, Lei Kandir, ICMS, IPVA, IOF e ITCMD; já a cesta dos municípios é formada por FPM, IPI, Lei Kandir, ICMS, IPVA e ITR.

  11. Dados do Fundo Nacional de Desenvolvimento da Educação Básica (FNDE) referentes ao ano de 2016. O menor gasto é em Patos/PB e o maior em Douradoquara/MG.

Autora:

Vivian Amorim possui graduação e mestrado pela Faculdade de Economia e Administração da Universidade de São Paulo (FEA-USP). Atualmente cursa doutorado em Economia na Universidade de Brasília (UNB) e trabalha como consultora das Global Practices de Educação e Governança do Banco Mundial. 

O oligopólio na navegação internacional de contêineres e os impactos para o Brasil

Quando, em 1956, Malcom McLean, adaptou dois navios petroleiros e realizou, entre Nova Jersey e Houston, o primeiro transporte de contêineres da história, mal sabia que esse seria o início de uma revolução no comércio mundial. Assim como o barco a vapor cerca de um século antes, essas caixas compactas padronizadas permitiram uma redução sem precedentes no custo e no tempo de transporte, capaz de proporcionar a maior expansão das trocas humanas já vivenciada.

O processo que se seguiu, com o surgimento de sistemas de transporte intermodais e das cadeias globais de produção, possibilitou que o comércio mundial marítimo saltasse de 2,6 bilhões de toneladas, em 1970, para 10,7 bilhões de toneladas em 2018. Atualmente, os mares são os caminhos por onde transitam 80% do comércio internacional, sendo as cargas conteinerizadas responsáveis por 17% desse total, participação 10 vezes maior que aquela de quatro décadas atrás.

As mudanças tecnológicas e operacionais provocadas pela rápida conteinerização das cargas impactaram o mercado de navegação como um tsunami. A sobrevivência das empresas, nesse novo e cada vez mais dinâmico mercado, depende da exploração de economias de escala e de escopo. São necessários elevados investimentos em capital, tanto por parte dos terminais portuários – para a aquisição de equipamentos e provisão de infraestrutura -, quanto pelas empresas de navegação, com a encomenda de embarcações cada vez maiores e mais eficientes, tendo a capacidade dos navios porta-contêineres aumentado 14 vezes desde 1968.

Além dos investimentos em capital, a navegação mundial evoluiu em conjunto com o processo de globalização e desregulamentação de diferentes áreas de economia, encerrando arranjos e estruturas comerciais existentes há décadas no setor marítimo. Desde o final do século XIX que a navegação internacional se organizava por meio de conferências marítimas de linhas regulares, também conhecidas como “Conferências de Frete”. Essas conferências eram arranjos mercadológicos que possibilitavam principalmente a realização de acordos entres as companhias de navegação para a fixação de tarifas de fretes uniformes e a determinação de rotas e de capacidade alocada em cada serviço.

A principal justificativa para esse tipo de coordenação – que na realidade oficializava a cartelização do serviço marítimo – era a necessidade de se estabelecer estabilidade nos níveis de frete, de viabilizar a solvência das empresas de navegação e de se garantir a existência de rotas a diferentes destinos, mesmo que às custas de fortes queixas de usuários em relação aos valores de fretes pagos e à falta de transparência na formação dos preços.

Com o rápido processo de conteinerização e, a partir dos anos 80, da aplicação de legislações antitrustes, especialmente nos Estados Unidos e Europa, as Conferências de Frete passaram por um processo de desmonte. A forte queda nos níveis de frete levou as empresas de navegação a se voltarem para outras ações que diminuíssem o custo unitário e aumentassem a eficiência do transporte por meio de estratégias não mais baseadas na fixação de tarifas.

O mercado de navegação mundial se direcionou, então, a um processo de fusões, de verticalização e de realização de consórcios e alianças globais baseados no compartilhamento de operações, embarcações e contêineres, que permitissem às empresas de navegação poder econômico suficiente para o desembolso de vultosos investimentos em capital. Em vez de uma centena de empresas com capacidades de movimentação similares, o mercado de navegação começou a se concentrar cada vez mais em torno das Mega-Carriers, grandes multinacionais com atuação agressiva e coordenada, especialmente em momentos de queda nos níveis de frete, como a verificada a partir da crise de 2008.

Os dados da UNCTAD (Conferência das Nações Unidas sobre Comércio e Desenvolvimento) revelam as transformações vivenciadas no mercado nos últimos anos. Em 1997, as dez maiores empresas detinham 48% da capacidade mundial (1,8 milhão de TEUs*). Duas décadas depois, o ranking das dez maiores é composto em sua maioria por empresas diferentes, que em conjunto detêm 69% da capacidade mundial (17,4 milhões de TEUs). Atualmente, as maiores empresas de navegação organizam-se em três alianças, que concentram cerca de 80% da movimentação mundial de contêineres.

*Observação: Um TEU (Twenty Foot Equivalent Unit), unidade de medida de contêineres, representa a capacidade de carga de um contêiner marítimo normal, de 20 pés de comprimento, por 8 de largura e 8 de altura. A altura de um TEU pode variar de uma baixa de 4,25 pés (1,30 m) para os mais comuns 8,5 pés (2,6 m) a 9,5 pés (2,9 m).

Fonte: Elaboração própria com dados da Maritime Review (UNCTAD)

O processo de concentração no mercado de navegação estimulou também a progressiva expansão do “core business” das empresas para operações logísticas conectadas ao transporte marítimo, como as atividades portuárias, por meio da aquisição de terminais, ou até mesmo operações multimodais que viabilizam o serviço de entrega porta a porta dos contêineres. Isso permitiu um maior controle dos fluxos de carga a serem transportados e de seus custos logísticos, além de aumentar a margem tanto para a fixação de tarifas e de custos adicionais aos usuários, quanto para a definição (ou imposição) de rotas e terminais.

O Brasil e a navegação internacional de contêineres

O Brasil vivenciou mal essas mudanças no mercado de navegação. O país, que já teve a segunda maior indústria naval do mundo no início dos anos 1980, viu a participação de navios e empresas brasileiras nos tráfegos internacionais praticamente desaparecerem, enquanto a regulação das atividades das empresas de navegação restringiu-se à manutenção de algumas poucas políticas ultrapassadas de reserva de mercado que sobreviveram ao processo de desregulamentação do mercado.

O acordo marítimo entre o Brasil e o Chile é um exemplo de reserva de mercado que onera o comércio exterior com mais custos e burocracia e diminui a competição na navegação. Estabelecido em 1975, o convênio estipula que apenas empresas de um dos dois países podem realizar o transporte do comércio bilateral, o que resulta em fretes 45% mais caros e em perdas anuais para as exportações brasileiras estimadas em US$ 342 milhões.

A sobrevivência desse regime de proteção artificial de mercado (que vigora e penaliza também o comércio com a Argentina e Uruguai) decorre do forte poder de lobby que as empresas de navegação exercem sobre o Governo. Apenas duas empresas disponibilizam linhas regulares na rota entre o Brasil e o Chile, ambas de capital estrangeiro, não existem navios para o transporte de determinadas cargas fracionadas (transporte Ro-Ro), obrigando o afretamento de embarcações de outras empresas a custos elevados, e nenhum dos navios que operam na rota marítima foi construído em um dos dois países, o que contradiz a justificativa para a existência do acordo em termos de desenvolvimento da marinha mercante.

Diante desse cenário, os usuários do transporte marítimo se organizaram para pressionar o Governo pelo fim da reserva de mercado, que há quatro décadas penaliza o comércio bilateral. Mesmo com todos os argumentos apresentados, a única decisão tomada ocorreu em julho de 2017, quando a Câmara de Comércio Exterior (Camex) adiou o fim do acordo marítimo entre o Brasil e o Chile para 2020.

Trata-se de uma decisão frágil, amparada apenas em uma resolução e que pode ser facilmente revertida, caso não seja publicado um ato legalmente vinculante. A garantia de não renovação do acordo ocorreria com a publicação de um Decreto Presidencial sobre a matéria, possibilidade que vem sendo reiteradamente combatida pelas empresas de navegação e por determinados áreas de Governo que ainda defendem políticas de marinha mercante baseadas em reserva de mercado, que foram progressivamente desmontadas a partir da década de 90.

Em relação as demais rotas internacionais, a vulnerabilidade brasileira ante as grandes empresas de navegação está diretamente associada a participação insignificante do país no comércio global. Se, por um lado, o Brasil é um dos maiores exportadores de granéis, com 560 milhões de toneladas de grãos e minérios exportados por navios, em 2018, a participação brasileira no mercado mundial de contêineres é de cerca de 1,3%. Nos portos brasileiros, os contêineres representam apenas 10% do total movimentado.

O volume reduzido de mercadorias conteinerizadas torna o Brasil um mercado secundário para as empresas de navegação, que concentram suas operações nas principais rotas internacionais entre os Estados Unidos, Ásia e Europa. Como consequência, a disponibilidade de rotas, embarcações e serviços é limitada e sujeita a cortes, especialmente em momento de redução da demanda e aumento de custos, como a acarretada pela crise da economia brasileira nos últimos anos.

A precariedade da infraestrutura portuária, somada a ineficiência e burocracia das principais administrações portuárias públicas do país, agrava ainda mais a desvantagem brasileira em relação aos outros mercados. Responsáveis por 72% da movimentação nacional de contêineres, os portos públicos brasileiros são em sua maioria administrados pelas Companhias Docas, estatais marcadas pela ineficiência administrativa, interferência política e baixa capacidade de investimento em obras essenciais, como as de dragagem, o que impede que os grandes navios de contêineres atraquem no país. Historicamente, os investimentos dos portos públicos representam menos de um terço dos recursos destinados pela União, sendo que, em 2018, o total aplicado alcançou o menor patamar desde 2003.

Em 2008, a navegação de contêineres na costa leste da América do Sul, que inclui os portos brasileiros e o porto de Montevidéu de Buenos Aires, era atendida por cerca de 25 empresas, que realizavam 109 escalas regulares semanais com um total de 257 embarcações. Em 2017, o número de empresas caiu para 17, as escalas, para 67, e as embarcações, para 149.

Mesmo que a capacidade total de movimentação nessa rota tenha se mantido constante em 108 mil TEUs por semana, em função do aumento de tamanho dos navios, os níveis de frete elevaram-se e o serviço tornou-se mais concentrado em alguns portos e empresas. Como resultado, apenas quatro empresas de navegação dominam 70% das escalas regulares internacionais em portos brasileiros, que concentram cada vez mais suas atividades em portos maiores e operacionalmente mais rentáveis.

Fonte: Elaboração própria com dados da Solve Shipping Intelligence Specialists

Diante desse cenário, as empresas brasileiras envolvidas no comércio internacional estão cada vez mais vulneráveis, especialmente as que comercializam produtos de maior valor agregado, transportados, via de regra, em contêineres. Enquanto no transporte de graneis um único empresário consegue encher grande parte, ou mesmo a totalidade de um navio, a maior parcela do comércio exterior é realizada por empresas menores: das 70 mil empresas envolvidas no comércio exterior, em 2018, 55 mil estavam na faixa de menos de US$ 1 milhão.

Essas operações demandam poucas unidades de contêineres por semana (muitas vezes os produtos não chegam a preencher nem mesmo a totalidade de uma unidade de contêiner) e são majoritariamente feitas free on board (FOB), que no caso das exportações exclui da empresa brasileira o direito de escolha do terminal portuário de embarque da carga, reduzindo o poder de barganha na negociação de preços, datas, terminais e escalas nos portos.

Como resultado, as empresas brasileiras sofrem constantemente com decisões arbitrárias por parte das empresas da navegação, que aumentam os seus custos e causam grandes transtornos logísticos. São práticas como a imposição de tarifas não acordadas, cancelamento de embarques programados, suspensão de rotas e serviços em determinados portos, aumento do custo de frete, dentre outros.

Até o ano passado, não existia nenhum tipo de amparo legal para contestação de abusividades praticadas por parte das empresas de navegação, uma vez que a lei de criação da Agência Nacional de Transportes Aquaviários (ANTAQ) trata apenas das empresas brasileiras, deixando as operações de companhias estrangeiras livres de regulação.

Após muita pressão dos usuários dos serviços de transporte e de órgãos do Governo (acórdão do TCU nº 1439/2016), foi publicada pela Antaq, em 21 de dezembro de 2017, a Resolução Normativa nº 18. Trata-se de um regulamento inédito no país, que caminha no sentido de garantir maior equilíbrio nas relações entre operadores e usuários do transporte marítimo, principalmente por proibir cobranças indevidas e exigir maior transparência e previsibilidade das taxas cobradas e serviços prestados pelas empresas de navegação.

Muitas águas precisam rolar para que se reduza o oligopólio no mercado de navegação e se aumente o poder de barganha dos usuários desses serviços. Uma estratégia adotada em outros países foi a criação de conselhos nacionais de usuários de transporte marítimo de contêineres, visando a aumentar a capacidade de negociação com as empresas de navegação. Seja qual for o caminho, é preciso reduzir os custos logísticos das exportações de contêineres no país, que somam cerca de US$ 100 bilhões anuais (42% do total exportado em 2018) e são essenciais para uma maior geração de emprego, renda e inserção do Brasil nas cadeias globais de produção.

Autor:

Especialista em Políticas e Indústria da Gerência Executiva de Infraestrutura da Confederação Nacional da Indústria, graduado em Ciências Econômicas pela Universidade de Brasília, mestre em Economia na área de Gestão Econômica do Meio Ambiente e doutorando em Economia pela Universidade de Brasília. Atua há oito anos na área de infraestrutura, com foco na análise de políticas públicas para os setores de logística e investimento.

O conteúdo ideológico dos partidos: Uma aplicação de Machine Learning no Senado Brasileiro

Em nossa política contemporânea, muito se tem falado sobre o estado atual do debate político. Para muitos, esse espaço para discussão de ideias tem se tornado um verdadeiro campo de guerra. Em diferentes países onde se impera a democracia, um grande número de políticos tem se enfrentado em intensos conflitos sobre temas como aborto, imigração, controle de armas e impostos. Muito destas disputas vêm acendendo uma luz de preocupação sobre esse mesmo modelo de Estado adotado pelos principais países ocidentais. Assim, não furtamos de nos questionar: a democracia está falhando?

Em seu recente livro, Levitsky & Ziblatt (2018) argumentam que os políticos agora tratam seus adversários como inimigos, intimidam a imprensa livre, e ameaçam rejeitar os resultados das eleições. Eles ainda notam que os políticos têm tentado enfraquecer os principais alicerces da democracia, incluindo os tribunais e os serviços de inteligência. Certamente, um sintoma claro dessa crise atual é o crescimento da polarização – muitas vezes manifestado na forma de disputas ideológicas. Recentes pesquisas vêm demonstrando o crescimento da polarização política nas últimas décadas, como exposto nos trabalhos de Gentzkow et al. (2019) e Hare & Poole (2014).

Em seu mais recente livro, Harari (2018) aponta como um importante ponto de inflexão o ano de 2016, onde houve a primeira votação do Brexit no Reino Unido, e também o surgimento arrebatador de Donald Trump nos Estados Unidos. Tais acontecimentos, segundo ele, foram essenciais para criar mais tensões entre os campos ideológicos. Colocando, assim, nossa democracia em cheque.

Não muito longe disso, tivemos aqui no Brasil um recente processo de impeachment de uma presidente deliberadamente de esquerda. Seguido por uma eleição bem acalorada, na qual saiu vencedor contra esse mesmo partido o ex-deputado de extrema direita, Jair Bolsonaro. Isto tudo tem somado para construir um cenário de disputa política extremamente belicoso em nosso país.

Desta maneira, mensurar e compreender ideologia se tornou um exercício extremamente importante, pois já que embates ideológicos estão guiando a maioria destes conflitos, compreendê-los nos possibilitará entender melhor nossa realidade política atual.

Não obstante isso, sabemos que a mensuração da ideologia é um exercício muito complicado. Principalmente porque ela não pode ser diretamente observada. Na literatura, os trabalhos mais seminais que tratam este problema são de Poole & Rosenthal. Desde a década de 80 eles vêm se baseando em dados de voto aberto para construir um modelo de posicionamento político dos parlamentares americanos. No Brasil, destaca-se o trabalho de Power & Zucco (2009) no qual partem de dados de voto aberto e também do Survey Eleitoral Brasileiro com o objetivo de estimar o posicionamento dos partidos nacionais. Esses trabalhos tratam o posicionamento político como um conceito discreto (muitas vezes os representando em um espaço unidimensional) e são amplamente utilizados na ciência política para se estudar, por exemplo, comportamento legislativo, política intrapartidária, e competição eleitoral.

Mesmo com sua vasta utilidade, esta modelagem muitas vezes esconde informações que são extremamente preciosas para analisarmos o contexto de disputa ideológicas. Pois, mesmo que modelagens com base em dados de voto aberto nos expressem mais de 80% do comportamento dos parlamentares, ainda nos faltam mais características (ou, dimensões) a fim de compreender melhor o que se passa dentro de cada ideologia. Caso seja possível levantar essas informações, seremos capazes de analisar num contexto intertemporal toda dinâmica ideológica no parlamento.

Neste caso, agora nos é importante encontrar dados que consigam imprimir o conteúdo ideológico dos partidos com um grande número de características. Por sorte, sabemos que a linguagem é uma das maiores fontes de alta dimensionalidade – neste caso, para cada palavra teremos uma respectiva dimensão. Com base nos padrões construídos através da frequência de palavras, conseguimos classificar um discurso ou um texto em distintas categorias. Subjacente a esse modelo, está a hipótese de que a ideologia funciona como uma grande restrição sobre nós. Ou seja, ao saber que um político é de direita e que, por exemplo, defende baixos tributos e mais liberdade econômica, provavelmente este mesmo político será favorável a medidas menos restritivas ao uso de armas de fogo e também será provavelmente contrário a políticas afirmativas. Assim, esperamos que um político que seja de direita utilize palavras do vocabulário conservador com uma maior frequência, manifestando através da combinação de palavras em seus discursos o conteúdo ideológico da sua posição política.

Com o recente avanço da capacidade computacional, as técnicas de machine learning têm se tornado uma ferramenta simples e bastante acessível para se trabalhar com dados na forma de texto. Desta maneira, a partir de um estudo produzido no Departamento de Economia da Universidade de Brasília contando com a colaboração dos professores Bernardo Mueller e Daniel Cajueiro, baseamo-nos nesse conjunto de algoritmos e também em todas representações taquigráficas dos discursos dos Senadores da 50ª até a 55ª legislatura (1995-2018) – aproximadamente 80.000 discursos – a fim de criar um modelo de classificação para cada ideologia partindo das frequências das palavras utilizadas por cada senador. Os resultados estão detalhados na minha dissertação de mestrado, que logo será publicada na forma de um artigo acadêmico.

Dividimos todos os partidos políticos entre três possíveis ideologias: esquerda, centro e direita. Para tal pré-classificação, utilizamos os dados de posicionamento político de Power & Zucco (2009).

Nosso classificador, na média, obteve 73% de acurácia entre as legislaturas. Ou seja, após aprendermos os padrões utilizados por cada categoria ideológica a partir dos discursos políticos, somos capazes de classificar — a partir desta ‘generalização’ — novos discursos com 73% de acurácia em média.

Dado que nosso classificador apresenta uma boa performance, podemos abrir o conteúdo de cada ideologia e observar as palavras que possuem as frequências mais elevadas – ou seja, as palavras que são mais importantes para defini-las.

A partir disto, observamos que, em geral, os senadores tratam de temas comuns entre eles. Embora, ao entrar em determinado debate temático, cada senador possuí um rol de palavras que é mais apropriado à sua ideologia. Por exemplo, nas duas primeiras legislaturas (as quais compõem os dois governos FHC) ao se debater o tema da reforma agrária, parlamentares de esquerda geralmente utilizam palavras como direitos, agrária, terra e trabalho. Enquanto parlamentares de direita abordam tais discussões a partir de palavras como produção, agricultura, mercado, produtores, agrícola e capital. Isso é muito interessante, pois nos revela que de fato um ‘sistema de crenças’ parece estar enraizado em cada parlamentar: desde aquelas crenças formadas a priori, como aquelas carregadas pela própria representação institucional de seu partido.

Um resultado curioso se dá na 52ª legislatura (cujo período é simbolizado pela chegada do PT ao poder.) Observamos que a esquerda, representada agora pelo partido incumbente, ligou-se a debates tidos como mais conservadores. Passando a empregar em seu vocabulário com maior frequência palavras como previdência e tributária. A tendência geral é que ambas as categorias (direita e esquerda) se mudaram marcadamente para a direita enquanto no governo e para a esquerda, enquanto na oposição.

Notamos ainda nesta legislatura, o surgimento de um vocabulário da direita mais ligado as suas tradições conservadoras: como o emprego das palavras homem, Deus, família, polícia e segurança. Observando as próximas legislaturas, constatamos que esse novo padrão ‘mais conservador’ da direita se mostra perene. Isso nos leva a hipótese de Timothy Power acerca da existência de uma ‘direita envergonhada’, onde os políticos de direita teriam uma certa resistência em se ligar a bandeiras evidentemente conservadoras – isso seria um comportamento com fins de não carregar a herança política da ditadura. Power & Zucco (2009) apontam que o ressurgimento dessa direita estaria ligado as defesas das defesas neoliberais dos governos FHC. Embora, os nossos dados sugerem que essa nova direita está muito mais ligada a valores morais do que a uma defesa firme de pautas econômicas liberais.

Analisando mais a fundo a dinâmica intertemporal das ideologias, observamos que a direita está ligada antes mesmo do que a esquerda ao debate da educação superior – observamos isso através da alta frequência no emprego de palavras como cultura, conhecimento e universidade. Isso de certa forma representa um paradoxo, já que nosso senso comum aponta para a esquerda como a grande precursora dos debates acerca da educação superior no país. Embora, nas legislaturas seguintes nos torna claro a importância da discussão da educação superior para a esquerda.

Notamos que a bandeira de defesa das mulheres e das crianças é algo bastante caro a esquerda. Nossa análise entre as legislaturas evidencia um crescimento da importância dessas palavras para este espectro ideológico. Isto também mostra que cada vez mais debates acerca dos direitos das mulheres e das crianças têm se tornado mais relevantes no Senado.

Outro fato que observamos é que a temática em volta da questão ética, ou precisamente ligada a atos irregulares, carrega muito da tônica polarizadora no Senado. Os senadores apresentam uma alta frequência para palavras relacionadas a essa questão. Por exemplo, desde nossa primeira amostra (50ª legislatura) a palavra CPI apresenta uma grande importância, e isso é acentuado e permanece até nossa última amostra (55ª legislatura.) Talvez os dois pontos que mais nos chamem a atenção estão ligados aos episódios do Mensalão e da Lava Jato, 52ª-53ª e 54ª-55ª legislaturas respectivamente. A partir destes pontos, observamos o crescimento do uso de palavras como respeito, tribunal e corrupção. Isso nos sugere que a partir dos desdobramentos destas investigações, a polarização ganhou uma força a mais no Senado – reafirmando a disputa entre oposição e governo, e também ecoando as disputas eleitorais.

A nossa última legislação é interessante, pois houve um ponto de quebra durante seu período através do episódio do impeachment. Observamos que os senadores estão claramente voltados ao processo de impedimento da presidente, e também à grave crise econômica que o país tem enfrentado. Isso é demonstrado através da alta frequência para a esquerda das palavras resistência, luta e golpe. Enquanto, para a direita há uma alta frequência para as palavras tributária, fiscal e previdência. Notamos também que o centro (que tem o PSDB como um dos principais representantes) e a esquerda possuem coeficientes bem próximos para a palavra socialismo, o que nos evidencia que essa temática mais histórica da ideia geral que temos de conflito ideológico aprofundou-se na nossa última legislatura.

Especificamente sobre o centro, notamos que ele apresenta uma espécie de ‘coloração cinzenta’. Ora apresenta um vocabulário que apontaríamos como conservador, ora apresenta um vocabulário mais tradicional aos valores da esquerda. É importante notar que o PSDB, um dos maiores representantes da categoria centro em nossa análise, é reconhecido por ter estabelecido uma grande polarização contra os governos petistas e o próprio PT nos últimos anos. O que nossos dados apontam é que essa polarização, como afirmado anteriormente, é muito mais voltada a questões ligadas a corrupção do que uma disputa ideológica per se.

Grosso modo, podemos afirmar que os espectros políticos no Brasil vêm adotando um vocabulário mais ligado aos seus valores, sejam eles conservadores ou progressistas. Esses novos padrões nos possibilitam classificar melhor ‘quem é quem’ no Senado — a partir da análise textual dos discursos. É claro também para nós que essa guerra campal que vem se formando na política está muito ligada a disputas em questões morais.

Durante todo nosso período de análise, percebemos que a polarização manifestada no Senado é muito menos efusiva do que a manifestada em outros meios, como as próprias redes sociais.

Autor:

Felipe Carneiro é Graduado em Economia pela Universidade Federal de São Paulo e Mestre em Economia pela Universidade de Brasília.

Boas instituições importam

Ao concentrar as regras políticas, econômicas, sociais e legais, as instituições influenciam o funcionamento dos mercados, ou seja, são as regras do jogo. Por meio de direitos de propriedade, contratos bem estabelecidos e custos de transação baixos, as instituições têm a função de garantir os incentivos necessários que levam à eficiência econômica.

Com o mercado de crédito não é diferente. Alguns avanços institucionais foram verdadeiros marcos na história da evolução do crédito brasileiro, tanto por possibilitar a expansão do crédito como por melhorar a qualidade das transações entre os agentes, a saber: a lei de alienação fiduciária de bens imóveis em garantia (1997), a regulamentação do crédito consignado (2003) e a lei de falências (2005).

No entanto, nem todas as instituições são eficientes e acabam se desviando de seus objetivos. Esse é o caso do Cadastro Positivo, regulamentado em 2011.

A fim de corrigir o problema de assimetria de informação presente no mercado de crédito, onde as informações são limitadas sobre o comportamento dos demandantes de crédito, o Cadastro Positivo surgiu para distinguir os bons dos maus pagadores, possibilitando que os ofertantes de crédito diferenciem as taxas de juros de acordo com o risco.

Contudo, na contramão das melhores experiências internacionais que também o implementaram, o governo brasileiro fez a inclusão do Cadastro Positivo de forma a depender dos próprios consumidores, o formato opt-in. Sem um evidente ganho individual, não havia incentivo o bastante para que os consumidores enfrentassem todos os obstáculos burocráticos e aderissem ao cadastro, limitando os benefícios gerados pela medida. Para mensurar o resultado desta lei, há apenas 5 milhões de cadastros de uma população que conta com cerca de 100 milhões de clientes ativos no mercado de crédito, o que indica que houve um resultado tímido.

Dessa forma, é possível observar que hoje em dia apenas as informações de comportamentos negativos são utilizadas para as avaliações de concessão de crédito. Se dentre inúmeras transações de crédito, o consumidor atrasou uma única conta, ele já passa a sofrer impactos negativos em sua avaliação de risco e, com isso, restrições ao crédito. Assim, o resultado é um estoque de crédito aquém do desejado e taxas de juros e de inadimplência elevadas.

Entretanto, um projeto de lei federal que foi aprovado pelo Senado no mês de março, e seguiu à sanção presidencial, deve melhorar o formato do Cadastro Positivo. Nessa nova versão, o cadastro será no formato opt-out (mudança conhecida como “arquitetura da escolha” por Thaler e Sunstein), todas as pessoas e empresas serão automaticamente cadastradas e caso alguém seja contra ao compartilhamento de suas informações é só solicitar a remoção. Com esse processo inverso, a burocracia passa a desestimular a saída dos participantes.

A partir da regulamentação da nova medida, as informações de operações de crédito de pessoas e empresas – ao que se refere às operações de crédito contratadas – serão compartilhadas com os birôs de crédito, o que deve melhorar as avaliações de risco, levando à maiores aprovações de crédito e menores taxas de juros e de inadimplência. Com mais informações, os concedentes de crédito serão mais assertivos ao elaborar contratos específicos para cada perfil de demandante, impactando positivamente o mercado de crédito.

Estudos internacionais da OCDE e do Banco Mundial sobre os países que adotaram uma base de dados positivos no formato opt-out evidenciam crescimento do crédito com redução na taxa de inadimplência, beneficiando principalmente os mais pobres.

Porém, nem todos concordam com essa mudança. Os opositores da regra automática alegam que isso acaba com a livre determinação do consumidor e gera invasão de privacidade ao alterar a lei de sigilo bancário.

Contudo, analisando cuidadosamente as regras, têm-se que o consumidor será avisado previamente e as informações serão disponíveis por tempo determinado. Quando esse novo formato do cadastro começar a funcionar, apenas os scores estarão disponíveis, sendo que o histórico detalhado ainda dependerá da autorização do consumidor. Além disso, o consumidor tem direito ao opt-out a qualquer momento, à autoconsulta gratuita, à ratificação de informações, entre outros. Ao que tange à privacidade, as empresas que operam o cadastro têm que cumprir exigências rigorosas e possuir certificações que garantem o sigilo e a proteção dos dados.

Embora haja alguns questionamentos, os benefícios do Cadastro Positivo são relevantes. Aos concedentes, espera-se expandir a base de consumidores, reduzir o processo de aprovação de crédito e aumentar a competitividade. Os consumidores, por sua vez, serão incentivados a manter bons históricos de crédito, sendo recompensados com melhores negociações. No geral, promoverá inclusão financeira, bons comportamentos de pagamento, melhora na estabilidade bancária do país. Com isso, é projetado pela Associação Nacional dos Bureaus de Crédito (ANBC) uma injeção de mais de R$ 1 trilhão no mercado de crédito nos próximos anos e uma inclusão de mais de 20 milhões de pessoas.

Apesar das mudanças do Cadastro Positivo serem em prol da melhoria do sistema, uma grande preocupação daqueles que não concordam com o novo formato do sistema é em relação ao sigilo de dados. Com isso, em 2018 foi discutido se o formato opt-out do Cadastro Positivo teria conflito com a nova Lei Geral de Proteção de Dados, que tem como objetivo proteger os direitos fundamentais de liberdade e de privacidade através da proteção de dados. Contudo, uma análise das duas Leis mostra que não há divergência entre elas, uma vez que o Cadastro Positivo mantém o consumidor informado sobre todas as informações que estão disponíveis e fornece o direito de opt-out.

Portanto, o Cadastro Positivo pode trazer diversos benefícios à população, como mencionados acima. A sua primeira implementação não foi muito bem sucedida devido à burocracia que envolvia o processo de aderir ao Cadastro Positivo e também ao desconhecimento de parte da população da existência dessa Lei. A nova versão do Cadastro Positivo propõe uma mudança de design que deve facilitar a sua difusão e resultar nos benefícios esperados.

Autoras:

Bruna de Abreu Martins é economista formada pela Universidade Federal de São Paulo (Unifesp), atualmente aluna do programa de mestrado em Economia na Universidade de Brasília (UnB). Trabalhou no departamento de Indicadores e Estudos Econômicos na BoaVista SCPC de 2012 a 2017. 

Monica Guo Ming é economista formada pela Universidade de Brasília (UnB), atualmente aluna do programa de mestrado em Economia na UnB.

O Sistema S em Debate

As recentes declarações do Ministro de Economia, Paulo Guedes, nas quais declara a intenção de cortes de até 35% no orçamento do Sistema S, volta a colocar em debate a eficiência e mesmo a necessidade desse arranjo institucional cujo objetivo retórico seria a formação técnica da mão-de-obra e ações no campo social. Essas expressões do ministro são, em realidade, a manifestação de uma crescente insatisfação com esse sistema, que perpassa posicionamentos políticos e correntes ideológicas. Lembremos que, quando Fernando Haddad ocupou o cargo de Ministro de Educação, também tomou iniciativas para alterar a alocação de recursos do sistema, com resultados concretos no financiamento de programas de educação técnica administrados pelo governo. Joaquim Levy, quando Ministro da Fazenda da Presidente Dilma, também tentou alterar arcabouço de financiamento. Ou seja, pólos políticos/ideológicos diametralmente opostos na suas visões de mundo coincidiram na conveniência e necessidade de alterações em um marco institucional já velho no tempo. Lembremos que a matriz do atual arcabouço institucional/legal remonta à criação do SESI/SENAI, no ano de 1942 do século passado. Arranjo que, como uma metástase, inicialmente limitado à indústria foi “colonizando” o comércio, a agricultura, as cooperativas, os transporte, a pequena empresa (SEBRAE) chegando ao financiamento da denominada APEX (Agencia Brasileira de Promoção de Exportações e Investimentos). Em todos os casos, tentativas de Haddad, Levy e de Paulo Guedes, as propostas de alterações foram energicamente criticadas pelos gestores do sistema.

Muito sinteticamente, o Sistema S se financia com a “contribuição voluntária” de um percentual (em média em torno de 1%, com um intervalo de alíquotas que vai de 0,2% a 2,5% segundo o setor) sobre a folha de pagamentos da firma. Lembremos que, nas suas origens, a retórica de sua implementação (especialmente no caso da indústria) argüia três justificativas. A primeira dizia respeito a uma suposta falta de mão-de-obra qualificada (especialmente no seu perfil técnico) em uma sociedade em rápido processo de transição de uma economia agrícola para outra urbano-industrial. A segunda alegação estava vinculada a sua formatação institucional: os empresários, mediante contribuições compulsórias sobre a folha de salários paga, financiariam o sistema, sem custos para o Estado. Em outros termos, seriam os próprios empresários que arcariam com o financiamento de um sistema de formação profissional (e ações sociais) que beneficiariam tanto empregados como empregadores. Por último, uma vez que seriam os recursos dos próprios empresários a base de financiamento, seria lógico que eles os administrassem. Por outra parte, na medida em que esse gerenciamento adquiriria um perfil semelhante aos princípios que norteiam as práticas administrativas no setor privado, se contornariam os processos burocráticos que pautariam o setor público, com hipotéticos ganhos de eficiência.

Dessa forma, com o transcurso do tempo, o Sistema S foi adquirindo maturação institucional e hoje estima-se que seu orçamento gira em torno dos 17/18 bilhões de reais. Para se ter uma ordem de grandeza, esse montante corresponde à metade do alocado no programa Bolsa-Família ou, em termos do PIB, se situa em 0.25%.

Em geral, todas as iniciativas que tentam alterar o atual arcabouço institucional despertaram as mais diversas reações e resistências tanto por parte de integrantes das próprias corporações como outras oriundas de personalidades do mundo jurídico e acadêmico (ver, por exemplo, aqui, aqui e aqui). Na maioria dos casos, os argumentos que tentam legitimar o atual sistema apelam a características cosméticas dos cursos oferecidos pelo Sistema S (“nunca vi um banheiro sem manutenção”), apologética (“O Sistema S conta com o fomento estatal em proveito da realização material de direitos”) ou invocam credenciais auferidas (“ganhou o primeiro prêmio na competição internacional WorldSkills”).

Em realidade, a avaliação de um arranjo institucional é uma tarefa mais complexa e abrangente que à listagem de aspectos pontuais (por meritórios que estes sejam) e supostas contribuições messiânicas para reduzir desigualdades. Não obstante as críticas que possam ser realizadas à suposta tirania contemporânea pela quantificação de qualquer atividade humana (Muller (2018)), uma avaliação do Sistema S não pode fugir a um balanço quantitativo (mesmo aproximativo) entre os benefícios, os custos e a distribuição desses benefícios e custos. Nesse sentido, enaltecer a qualidade dos cursos, celebrar a qualidade das instalações, etc. pode ser até racional no processo de pressões e barganhas que fazem parte da formatação de políticas públicas (sobre este tema voltaremos no final do post), mas, certamente, dista de serem aspectos cruciais para delimitar a relação entre custos e benefícios. Sem pretender esgotar o tema, nos próximos parágrafos mencionamos aspectos conceituais e metodológicos que consideramos não poderem ser marginalizados no momento de avaliar economicamente e mesmo socialmente o sistema.

Um primeiro aspecto que consideramos talvez o mais relevante e que (paradoxalmente) está ausente no debate público concerne aos impactos no emprego/desemprego, nos salários e no grau de formalidade de um encargo social/trabalhista (“contribuição obrigatória”) sobre os salários pagos. Basicamente, uma “contribuição obrigatória” eleva o custo de contratação de um empregado. Não existe nenhuma matriz teórica (seja no mainstream ou fora dele) que conclua que um encargo social/trabalhista sobre os salários seja neutro ou, em outros termos, não tenha impactos seja nos salários, seja no emprego/desemprego/formalidade. No modelo canônico, o resultado vai depender da elasticidade da oferta e demanda de trabalho. Em termos gerais, o lado mais inelástico do mercado (da oferta ou da demanda) vai conseguir resistir menos ao imposto (“contribuição obrigatória”) e, contrariamente, quanto mais elástico, maior será seu poder de transferir o peso do imposto sobre a outra parte. É plausível assumir que a oferta de trabalho (especialmente os trabalhadores primários, chefes de família) é relativamente inelástica. Calibrando para o caso brasileiro, estima-se que, para cada 1% de alíquota, os salários caem entre 0,5% e 0,8% e o emprego formal entre 0,05% e 0,08% (ver Pessôa Andrade (2018)). Essas sensibilidades encontradas para o Brasil estão dentro do esperado tendo como referência a literatura empírica internacional.

Tanto os resultados analíticos do modelo padrão quanto as estimativas empíricas permitem concluir que o relato segundo o qual uma “contribuição compulsória” paga, exclusivamente, pelos empregadores e, dada essa singularidade, com direito a ser gerido por eles próprios, não pode ser adquirida pelo seu valor de face. Os assalariados também arcam, em termos de perdas de emprego formal e salários, com parte do financiamento do sistema. Além desse aspecto quase direto, ao se elevar o custo do trabalho, se introduz uma série de alterações em espaços que vão além do mercado de trabalho, como a escolha de tecnologias, a alocação setorial e geográfica, etc..

Mesmo assumindo que parte do financiamento seja deduzido do lucro potencial dos empregadores, o encargo social não pode ser assumido como neutro. Ao afetar a taxa de lucro altera o retorno dos investimentos em geral, com desdobramentos setoriais segundo seja a intensidade do fator trabalho utilizado.

Resumindo, não existem elementos teóricos nem empíricos que permita concluir que um encargo social, elevando o custo do trabalho, seja neutro em termos de emprego formal/salário/alocação de recursos, etc..

Contudo, qualquer tentativa de avaliação consiste, basicamente, em comparar custos com benefícios e, nesse sentido, custos mencionados devem ser comparados aos potenciais benefícios.

Aqui (no caso dos benefícios) estamos diante uma segunda dimensão na qual as narrativas são tão audaciosas quanto apologéticas. Assim, o “o papel do SESI é importante na educação, com nível elevado de qualidade…., “A qualidade do profissional é fundamental para evitar o retrabalho, o desperdício, para fazer tudo com a maior eficiência possível. Esse tem sido o trabalho realizado pelas escolas do SESI e do SENAI…..”, “O Sistema S tem um serviço prestado a este país. São décadas na formação de trabalhadores”……. Se reconhecemos que, em qualquer área de conhecimento e também na formulação de políticas públicas, as afirmações e avaliações tem que estar fundamentadas em evidências, existe um vácuo na validação empírica da maioria das asserções. Estamos falando de uma validação empírica robusta tecnicamente e realizada por instituições e pesquisadores com independência e autonomia. Em termos técnicos, uma avaliação dos cursos do Sistema S teria que acompanhar as metodologias usuais nas avaliações de impacto (a escolha aleatória de um grupo de indivíduos que tenha usufruído do serviços educativos do sistema e a comparação de sua trajetória versus um grupo de controle, duplo cego, etc..). As variáveis a serem pesquisadas poderiam ser diversas: impacto nos salários; probabilidade de perda de emprego; retorno ao emprego quando desempregados; etc.. Por exemplo, se os cursos de formação do Sistema S têm impacto na produtividade e assumimos que os salários têm algum nexo com a mesma, a comparação entre os rendimentos do grupo experimental (que freqüentou o curso) e o grupo de controle deve ser favorável aos indivíduos beneficiários.

Em outros termos, assumir que os cursos de formação profissional ofertados pelo Sistema S são importantes para elevar a qualidade da força de trabalho, aumentar a produtividade, ampliar as possibilidades de emprego, etc., deve ser uma hipótese, plausível, mas hipótese a ser provada. A existência de banheiros limpos nas instalações, equipamentos modernos, etc., podem ser importantes, mas um sistema de formação profissional não pode ser conceituado por esses atributos. Teoricamente, essas qualidades devem se traduzir em melhores resultados no seu objetivo último (elevar a empregabilidade, aumentar os salários, etc..). Ou seja, o Sistema S não pode fugir de um sistema de avaliação isento, realizado por instituições neutras utilizando metodologias robustas tecnicamente e que hoje estão bem sedimentadas na literatura especializada. Na ausência dessa avaliação, afirmações sobre a qualidade do Sistema, sua necessidade, a relevância para elevar a produtividade, etc. não passam de narrativas de interesses específicos ou de hipóteses plausíveis que deveriam passar pelo crivo de avaliações de impacto.

Por último, e vinculado com a lógica do relato produzido pelas instituições ao Sistema S, cada vez que o status-quo pretende ser alterado, cabe uma reflexão sobre a formatação legal e institucional das políticas públicas. Nossos argumentos sintetizados nos parágrafos anteriores estão propondo uma perspectiva que pode ser denominada de “tecnocrata”. Imaginar que um arcabouço institucional é, exclusivamente, desenhado em função dos resultados de avaliações realizadas por entidades sem conflitos de interesses com o objeto a ser avaliado e com capital técnico sólido pode ser, com razão, qualificado de naïf ou irrealista. Fazendo um paralelo com a moderna literatura de crescimento econômico, seria como assumir um ditador altruísta e benevolente maximizando uma função de bem-estar social intertemporal. Em realidade, na maioria das vezes, nem existe esse planejamento altruísta nem existe uma função de bem-estar social a ser maximizada. O arcabouço de institucional/legal de cada país é fruto de barganhas políticas, conflitos de interesses, poder de negociação de corporações, heranças culturais, etc.. Os resultados de avaliações podem ser um elemento, mais ou menos importante segundo as circunstâncias, mas não será a variável crucial ou única. Cada posição ou interesse específico tentará ser mostrado como representando um interesse geral da sociedade e, especialmente, dos mais frágeis socialmente. A atual polêmica sobre a reforma da Previdência Social é um exemplo mais que ilustrativo.

Nesse contexto, cada vez que uma iniciativa visando alterar o Sistema S é insinuada, a profusão de artigos na imprensa ressaltando supostas ou hipotéticas virtudes do atual arcabouço institucional (qualidade, relevância, décadas de história, etc.) é normal e esperado (ver, por exemplo, aqui). Membros das atuais instituições terão uma natural posição conservadora. Outros interesses também se manifestarão em favor de um perfil dado de alterações. Devemos esperar essa dinâmica, é legítima e razoável e assim é o processo de formatação das instituições em qualquer país. Nessas circunstâncias, as avaliações neutras e robustas tecnicamente que acabamos de propor são uma dimensão do processo e, se fugirmos do figurino tecnocrático, não vai ser a única. Contudo, seria conveniente, em prol da transparência, que os autores das notas jornalísticas e artigos de cunho mais acadêmico explicitem a existência de vínculos institucionais ou financeiros com entidades sobre as quais estão discursando ou pesquisando. Essa prática, muito usual e quase obrigatória nas áreas médicas, biológicas, agronômicas, etc., deveria ser a norma também na área de economia e ciências sociais.

Autor:

Carlos Alberto Ramos é Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, Doutorado na Université Paris-Nord.

Disclaimer: as visões e opiniões expressas neste blog são atribuídas apenas aos autores de cada um dos posts, não possuindo ligação com a posição oficial de nenhuma instituição ou organização. Ainda, não possuem relação com as opiniões dos demais autores, colaboradores e fundadores deste blog nem com a posição das instituições as quais estes estão vinculados, de modo a manter o blog como uma plataforma aberta a contribuições de diversas fontes e autorias.
Os comentários apresentados são de inteira responsabilidade de seus autores.