Economia de Serviços

um espaço para debate

Month: dezembro 2018

Produtividade nos Serviços, Emprego e Desigualdade

Existe o consenso segundo o qual, sob uma perspectiva de longo prazo, reverter a quase estagnação, nos últimos 30 anos, da renda per capita no Brasil passa por materializar aumentos de produtividade sem os quais a retomada do crescimento seria efêmera ou circunstancial.

Dentro desse contexto muito geral, a produtividade nos serviços ocupa, por diversos motivos, um lugar particular e mais polêmico. Várias são as circunstâncias que nutrem essa singularidade. Talvez a mais abordada na literatura diga respeito às potencialidades (ou ausência de potencialidades) do setor serviços, por características intrínsecas ao mesmo, em incrementar sua produtividade. No caso de assumir uma hipótese pessimista, o desfecho natural seria a denominada “doença de Baumol”, circunstâncias nas quais os salários setoriais se elevariam sem a correspondente elevação na produtividade, com desdobramentos nos preços relativos, inflação, etc. Já abordamos em outro post deste blog (https://bit.ly/2MWI36M) o caráter simplista e reducionista desta interpretação, uma vez que a sua construção requer assumir que os ganhos de produtividade estão concentrados, exclusivamente, na indústria de transformação. Abstraindo esta possibilidade, a questão da produtividade nos serviços volta a recolocar-se e integra um dos quesitos a ser pesquisado dentro do debate que tenta identificar os gargalos a serem superados para a retomada do crescimento. Nesse sentido, a literatura no Brasil é ampla e consensual (podemos citar, a título de exemplo, Arbache (2015), Veloso; Cavalcanti; Matos; Pereira Coelho (2016)): a produtividade dos serviços no Brasil acompanha a estagnação da produtividade da economia em geral e está situada em um nível bem distante do patamar dos países mais desenvolvidos e mesmo de nações com desenvolvimento mais próximo.

Contudo, a questão da produtividade nos Serviços não está, exclusivamente, associada às questões que dizem respeito ao longo prazo. Aspectos pertinentes ao ciclo de curto prazo também não estão dissociados das possibilidades de o setor de serviços elevar sua oferta mediante a utilização mais eficiente dos insumos. No recente ciclo inflacionário (2010-2016) uma particular atenção foi dada à alteração dos preços relativos em favor dos serviços e, na evolução de seus preços, era identificada uma das fontes do não cumprimento das metas inflacionárias (Arbache (2016)). A questão é complexa e não pode estar restrita a uma suposta inelasticidade da oferta no curto prazo.

Contudo, matizes estruturais e conjunturais podiam estar se agregando (Menezes Filho (2013)). A primeira década dos anos 2000, com suas especificidades (um ciclo histórico no qual o aquecimento era dinamizado pelo aumento do consumo, dos salários, especialmente os próximos ao salário mínimo, e dos benefícios sociais), pode ter tido um particular impacto sobre a demanda por serviços (Matos dos Santos et. al. (2018)). Lembremos, por outra parte, que uma elevada elasticidade renda da demanda de serviços seria uma característica do crescimento, independentemente da estratégia ser ou não wage-led growth (Clark (1957)).

Dessa forma, a questão da produtividade nos serviços se coloca tanto a partir de uma perspectiva de longo prazo (objetivo de elevar a renda per capita potencial) como de curto prazo (administrar um aquecimento do nível de atividade com mínimos impactos sobre os patamares de inflação). Inclusive, com a crescente incorporação na oferta da indústria de transformação de componentes oriundos dos serviços, a própria produtividade do setor industrial dependeria da eficiência do terciário (no mínimo de uma parte dele, aquele que o complementa).

Dentro desse contexto geral, um recente documento do Departamento de Pesquisas do Banco de Investimento Natixis (https://bit.ly/2EGniYu) introduz uma perspectiva original, uma vez que relaciona a produtividade do setor serviços com desemprego da força de trabalho com pouca qualificação e os indicadores de desigualdade. O referencial para a reflexão são dois países (Japão e França), dois modelos diferentes, sendo que em um (Japão) a produtividade dos serviços seria baixa e no outro (França) elevada.

No caso do Japão, a produtividade na indústria de transformação seria tão elevada que sua competitividade não seria afetada pelo fraco desempenho dos serviços. Essa competitividade do setor secundário fica evidente quando o referencial é o indicador de saldo (positivo) do comércio de bens industriais com o mundo, que atinge 4,5% do PIB. O emprego industrial pode ser caracterizado como residual (15% dos ocupados), mas sua produtividade é crucial no equilíbrio do setor externo. Os salários do setor industrial são, em média, 20% superiores aos observados nos serviços.[1] Aqui, porém, temos uma hipótese não explícita na análise dos pesquisadores do Natixis: essa diferenciação entre rendimentos requer assumir que ou o mercado de trabalho é segmentado (hipótese plausível dada a forma de gerenciamento dos recursos humanos nas grandes firmas japonesas) ou estamos falando de qualidades de mão-de-obra diferentes (escolaridade/qualificação). A análise do banco sugere (implicitamente) que estamos diante de trabalhadores com capitais humanos diferentes, prevalecendo nos serviços um assalariado com baixa qualificação e, portanto, baixa produtividade. Assim, o setor de serviços seria intensivo em trabalho pouco qualificado ou sem experiência e, nessa perspectiva, as atividades terciárias se assemelhariam a “esponja”, absorvendo mão-de-obra não requerida pelo setor industrial e que poderia ser potencialmente vítima do desemprego. Os indicadores são, nesse sentido, eloquentes. A taxa de desemprego da PEA com 15 a 24 é de apenas 4,6% no Japão. Na França a mesma estatística assume um valor de 21,6%.[2]

Na medida em que, no país asiático, teríamos um mercado de trabalho diferenciado entre um espaço com bons empregos e elevada produtividade (indústria de transformação) e um outro com empregos de pouca remuneração e baixa produtividade, a dispersão de salários seria elevada. No Japão os assalariados com baixos rendimentos seriam quase 13% dos ocupados, na França 9%. [3] Esse fenômeno se aprofundaria no tempo na medida em que temos um setor com ganhos de produtividade dos quais se beneficiariam seus assalariados e um outro espaço com produtividade estagnada e fértil na geração de empregos.

Em termos mais gerais, a ineficiência nos serviços seria um “preço a ser pago” (um “imposto”) pela indústria de transformação para que a sociedade conviva com uma taxa de desemprego baixa ou, alternativamente, o “preço a ser pago” pelo setor industrial para a sociedade poder ofertar empregos que, não obstante serem de baixa produtividade, são aqueles que possibilitam absorver mão-de-obra com pouca qualificação. Uma vez que a produtividade na indústria de transformação japonesa é elevadíssima e crescente, sua competitividade externa (nos mercados mundiais) não estaria comprometida pelos custos a que é submetida.

No caso da França a lógica de funcionamento seria contrária: um setor de serviços muito eficiente, que não onera a indústria de transformação senão que complementa sua produtividade, sendo o custo uma elevadíssima taxa de desocupação daquelas pessoas com pouca qualificação. O percentual da força de trabalho francesa com menos de segundo grau completo que procura mas não acha um emprego é de 15,1% (2017), sendo de 10,8% a média dos países da OCDE. No caso dos indivíduos com ensino superior completo, a taxa de desemprego é de 4,7% (França) e 4,1% (média da OCDE). [4] Temos, assim, uma economia com elevada produtividade em todos os seus setores e que absorve mão-de-obra muito educada, sendo o ajuste realizado via taxa de desemprego da força de trabalho pouco qualificada.

Nesses casos, a desigualdade se alimenta pela qualidade do emprego (serviços), no caso do Japão, e pelo desemprego, no caso francês.

Essa discussão merece ser levada em consideração, no caso do Brasil, uma vez que, se as iniciativas para elevar a produtividade nos serviços chegam a se traduzir em resultados concretos, desdobramentos sobre a estrutura das taxas de desemprego e as desigualdades podem não ser desprezíveis. Logicamente, como sempre, seria interessante abrir o heterogêneo setor serviços entre aqueles nichos modernos, articulados com a indústria de transformação, integrantes dos circuitos mundiais de comércio, factíveis de incorporar as novas tecnologias, etc. daqueles subsetores associados a atividades para os quais as possibilidades de potenciais ganhos de produtividade são bem mais reduzidos e absorvem mão-de-obra com pouca qualificação. Seria interessante tentar identificar se nosso bom e velho trade-off entre equidade e eficiência não vai se insinuar por insólitas fendas.

Professor do Departamento de Economia, UnB. Graduação Universidad de Buenos Aires, Mestrado na Universidade de Brasília, doutorado na Université Paris-Nord.

Bibliografia Citada.

Arbache, J., Produtividade no Setor Serviços, in De Neri; Cavalcanti (2015)

………………, O Problema de Inflação de Serviços. Blog Economia de Serviços. 14/01/2016. (Disponível em: https://bit.ly/2LuIu49; consultado em dezembro de 2018)

Clark, C.,The Conditions of Economic Progress. London: Macmillian. 1957.

Fernanda De Negri, F.; Cavalcante, L.R., (Org), Produtividade no Brasil: desempenho e determinantes . Determinantes. v. 2. Brasília: IPEA. 2015.

Matos dos Santos, D.H., et.al. A natureza da inflação de serviços no Brasil: 1999-2014 Economia e Sociedade. v. 27, n. 1. p.199-231. 2018.

Menezes Filho, N., Educação, produtividade e inflação. Valor Econômico. 19/04/2013. (Disponível em: https://bit.ly/2rLNB7j; consultado em dezembro de 2018).

Veloso, F.; Cavalcanti, P.; Matos, S.; Pereira Coelho, P., “Produtividade do Setor de Serviços no Brasil: Um Estudo Comparativo”. FGV. 2016. (Disponível em: https://bit.ly/2T3IECo; consultado em dezembro de 2018).

  1.  Fonte: Natixis/OCDE.
  2.  Fonte: Employment Outlook. OCDE. 2018. Os dados por nível de educação não são contabilizados para o Japão, uma vez que sua classificação (em termos de níveis de estudo) é particular e não possibilita uma comparação com os outros países da OCDE. Assim, utilizamos as faixas etárias para fins de confrontação e estamos supondo que as menores faixas etárias têm uma qualificação (dada pela experiência) menor.
  3. Fonte: Employment Outlook. OCDE. 2018. Esses dados correspondem ao ano de 2016. Segundo a classificação da OCDE, os baixos salários são definidos como sendo aqueles que correspondem a 2/3 do salário mediano.
  4.  Fonte: OCDE.

Blog de Conjuntura Econômica do DF

No dia 14 de dezembro a Companhia de Planejamento do Distrito Federal – CODEPLAN lançou o Blog de Conjuntura Econômica do DF. O Blog foi criado com o objetivo principal de reunir em apenas um sítio todas as informações e análises que a equipe da CODEPLAN produz e dissemina a respeito da conjuntura econômica do Distrito Federal.

A ideia é que o blog facilite o acesso do público alvo às informações econômicas que a CODEPLAN produz e/ou acompanha. A partir da maior flexibilidade que uma ferramenta como um blog oferece, espera-se incorporar dinamismo com informações e estatísticas que dizem respeito especificamente à economia do Distrito Federal, utilizando-se de elementos gráficos atualizados de maneira automática e instantânea.

Uma interface como a do Blog de Conjuntura Econômica do Distrito Federal permite reunir, por meio da criação e manutenção de uma lista de e-mails (mailing), profissionais interessados especificamente com os trabalhos de fundo econômico da CODEPLAN. Pode-se assim, disseminar informações, divulgar publicações e análises de maneira mais direta e efetiva.

Desta forma, caso tenha interesse em saber mais sobre a economia do Distrito Federal ou acompanhar seu desempenho ao longo do tempo, basta acessar:www.economia.codeplan.df.gov.br.


Clarissa Jahns Schlabitz é bacharel em ciências econômicas pela UnB, mestre e doutora em economia pela UFRGS. Atua como Gerente de Contas e Estudos Setoriais da DIEPS/CODEPLAN desde 2017. Possui experiência com assessoria econômica,  análise econômica e de conjuntura setorial e regional.

Programa Nacional de Banda Larga – Uma tragédia previsível

Em “Por que mais recursos, leis, dados, e peritos não significam melhores serviços ou políticas públicas?” o Professor Bernardo Mueller apresenta sua explicação para o fato de as políticas públicas sempre darem errado. Segundo Mueller, “Todas as fases de concepção, projeção, implementação e operação destes projetos e políticas públicas são permeadas de incompetência, ignorância, corrupção, interesse próprio e custos de transação”. Além desses problemas, Mueller também apresenta argumentos no sentido de que pelo fato de que as políticas públicas “se dão em contextos de sistemas complexos, que por sua natureza não podem ser controlados nem previstos”.

É a partir dessa referência do Prof. Mueller que pretendo aqui trazer uma breve análise de um caso concreto de política pública que falhou miseravelmente: o Programa Nacional de Banda Larga – PNBL.

Em 2010 o Presidente Luiz Inácio Lula da Silva instituiu, por meio do Decreto nº 7.175, o Programa nacional de Banda Larga – PNBL. Esse programa, ainda vigente, tem objetivos muito nobres e acima de qualquer suspeita, como por exemplo, “massificar o acesso a serviços de conexão à Internet em banda larga”; “reduzir as desigualdades social e regional” e “promover a geração de emprego e renda”.

Entretanto, entre a nobreza das intenções e a realidade dos fatos, o PNBL foi um exemplo de como não se construir uma política pública. Seja pelos erros de diagnósticos, seja pelos erros de execução, posso dizer com absoluta certeza que o PNBL, até hoje, continua a me surpreender com a sua ineficácia e desperdício de recursos públicos.

Antes de entrar nos detalhes dessa malfadada empreitada estatal convém explicar ao leitor a principal estratégia de execução desse programa.

Para alcançar os nobríssimos objetivos estabelecidos no art. 1º do referido Decreto o PNBL “ressuscitou”[1] uma antiga estatal supostamente privatizada em 29 de julho de 1998, a famigerada Telebrás.

A idéia central por trás do PNBL foi a de reestabelecer a Telebrás para a criação de uma rede nacional sob controle estatal que iria competir com as redes dos agentes privados no mercado de oferta de capacidade de transporte[2], de forma a indiretamente reduzir os preços dos serviços de banda larga ao consumidor final; além de criar uma rede privativa para o Governo, que estaria assim protegido de vulnerabilidades no mundo cibernético.

Ou seja, a refundação da Telebrás para consecução dos objetivos previstos no art. 1º do Decreto nº 7.175 se fundamentou num misto de intervenção estatal na economia para fomentar a competição e de ufanismo nacionalista. Assim, com o PNBL o Estado brasileiro teria uma rede nacional própria de telecomunicações, que garantiria a segurança nas comunicações do governo e ainda poderia concorrer com os agentes privados no mercado de banda larga.

A lógica econômica era a seguinte: como a Telebrás é uma empresa do Estado ela não objetivaria o lucro, mas sim a maximização do bem-estar social, de tal forma que sua estratégia ótima seria estabelecer o preço da rede de transporte exatamente igual ao custo incremental de longo prazo. Logo, se a Telebrás tivesse reduzindo drasticamente os preços, então os agentes privados também teriam que reduzir os preços para manter suas parcelas de mercado. Assim, o governo esperava “regular” o preço do mercado por meio da Telebrás.

O que deu errado então?

Erro nº 1 – Premissas de estrutura de mercado

Primeiramente precisamos entender um pouco sobre a cadeia produtiva do serviço de banda larga, que é dividida, grosso modo, em duas redes: rede de acesso e rede de transmissão.

A rede de acesso é aquela que chega na casa do consumidor, análoga à rede de distribuição no mercado de energia elétrica. No Brasil existem milhares empresas que ofertam acesso à internet por meio da banda larga, de tal forma que, em geral, este não é um mercado altamente concentrado. A rede de acesso é contratada diretamente pelo consumidor final, por isso dizemos que é um serviço de varejo.

Já a rede de transmissão, assim como na transmissão de energia elétrica, é constituída de elementos de rede que garantem capacidade para transmitir todo o conteúdo que trafega nas redes de acesso, conectando o consumidor com o resto do mundo. Diferentemente do mercado de acesso à banda larga, o mercado de transmissão é mais concentrado, contando com poucas empresas com capilaridade nacional. A rede de transmissão é contratada por redes de acesso, por isso dizemos que é um serviço de atacado.

A justificativa para a estratégia do PNBL ser fundamentada na atuação da Telebrás no mercado de transmissão de telecomunicações (atacado) era basicamente a alta concentração desse mercado. Já a premissa por trás dessa estratégia era de que a estrutura concorrencial desse mercado era de uma concorrência por preços, tipo Bertrand.

Em “Uma Nota Sobre a Oferta de EILD e Fechamento Vertical[3] utilizei informações sobre o mercado de oferta de capacidade de transmissão de banda larga para avaliar qual a estrutura desse mercado. Os resultados indicaram uma estrutura de Cournot, ou seja, uma concorrência por quantidade (capacidade) e não por preços.

Com esse resultado, já fica claro o primeiro erro de concepção do PNBL, qual seja, a premissa sobre a estrutura de mercado. Ora, se temos uma politica pública que tem como estratégia principal o uso de uma empresa estatal para regular um mercado privado, o mínimo que se espera do policy maker é pelo menos um conhecimento básico de como esse mercado funciona. Infelizmente, no caso concreto do PNBL, o Governo Federal não tinha conhecimento nenhum sobre como funciona o mercado de oferta de capacidade de transmissão de banda larga.

Erro nº 2 – Execução desastrosa

Não só bastasse o erro de concepção do PNBL a execução da construção da rede estatal também foi marcada por erros crassos.

No afã de apresentar resultados imediatos para a sociedade a Telebrás iniciou a construção de sua rede em regiões de alta densidade populacional e com atratividade econômica. Como podemos ver no Gráfico abaixo, a presença regional da Telebrás era muito maior nas regiões Sudeste e centro-oeste do Brasil.

Fonte: Anatel in A Estrutura Concorrencial do Mercado de Redes de Transporte de Telecomunicações e os Impactos de Políticas de Massificação da Banda Larga no Brasil”[4].

Conforme resultados apresentados em “Stimulating Broadband Adoption: State-Owned Companies versus Tax Exemptions – The Brazilian Case” [5], a elasticidade-preço da demanda é muito maior nas regiões Norte e Nordeste do Brasil. Ou seja, não só o Governo Federal errou na avaliação e na concepção da política pública, como a Telebrás errou desastrosamente na execução dessa política.

Erro nº 3 – Mudança de prioridade

Além das trapalhadas da Telebrás na execução do PNBL, a recriada estatal decidiu também se aventurar no espaço sideral, construindo e lançando seu próprio satélite, o Satélite Geoestacionário de Defesa e Comunicações Estratégicas (SGDC).

Depois de vários anos e após gastar R$ 2,8 bilhões com a construção do SGDC, finalmente o SGDC foi colocado em órbita no dia 4 de maio de 2017. Apesar da grande celebração feita pelo Governo Federal quando do lançamento do satélite, até o momento o SGDC, pelo menos na sua parte civil, tem acumulado frustrações.

Ora, a praxe do mercado privado é a de vender a capacidade satelital por meio de contratos de longo prazo. Somente após à celebração desses contratos é que as companhias iniciam a construção do satélite. Ou seja, toda a capacidade do satélite é vendida ANTES da construção e lançamento do satélite.

Infelizmente as regras de mercado muitas vezes não se aplicam às empresas estatais. No caso da Telebrás e do SGDC não foi diferente. Somente após o lançamento do satélite, quando esse já estava em órbita geoestacionária, é que a Telebrás iniciou os estudos para definir o modelo de negocio de exploração do satélite. Ou seja, construíram o satélite, lançaram o satélite e quando este já estava em órbita é que os geniais burocratas se perguntaram “e agora? O que fazemos?”.

A celeridade e a qualidade nas decisões empresariais infelizmente também não são pontos fortes na gestão estatal. Assim, o plano de negócio da Telebrás para o SGDC foi definido e até hoje é contestado judicialmente. Como resultado dessa execução desastrosa da política pública, até hoje a parte civil do SGDC ainda não está operacional.

Conclusão

Desenhar e executar políticas públicas são atividades extremamente desafiadoras justamente pelo fato de se darem em sistemas complexos. Assim, muitos dos efeitos das intervenções do Estado na economia não são controlados ou previsíveis.

Quando a esse desafio se somam a incompetência, a ignorância e o interesse próprio do policy maker temos uma tempestade perfeita para o desperdício de recursos públicos.

No caso do PNBL não poderia ser diferente. Uma política pública que tem erros crassos desde sua concepção até a sua execução não tem a mínima chance de ser eficaz e efetiva para a sociedade. Talvez exista esperança ainda para que as políticas públicas de banda larga do Brasil sejam revistas, construídas e executadas com objetivos mais realistas e menos demagógicos.

Carlos Baigorri atua no setor de telecomunicações há mais de 12 anos. É especialista em regulação dos quadros da Anatel desde 2009, tendo sido aprovado em primeiro lugar em concurso público. Na Anatel já atuou como chefe da assessoria técnica (2 anos); superintendente de competição (3 anos) e superintendente executivo (2 anos), sendo atualmente o superintendente de controle de obrigações. Doutor em economia, foi ganhador em 2009 de prêmio do Conselho Federal de Economia pela melhor dissertação de mestrado do Brasil. Em 2014 ganhou o premio do Ministério da Fazenda pela melhor tese de doutorado do Brasil na área de regulação. Atuou também como professor universitário, colunista no portalLivecoins.com.br sobre criptoeconomia e é diplomado em Política e Estratégia pela Escola Superior de Guerra (ESG).
  1. A Telebrás nunca chegou a ser extinta, mas desde a privatização do sistema estatal em 1998 a empresa apenas fazia a gestão dos seus passivos judiciais e gestão dos funcionários realocados em outros órgãos do Governo Federal.

  2. Capacidade de transporte é o jargão setorial utilizado para se referir à rede de alta capacidade que interliga as redes de distribuição de acesso à internet.

  3. “Uma Nota Sobre a Oferta de EILD e Fechamento Vertical do Mercado de Banda Larga no Brasil”, Revista Brasileira de Economia, Rio de Janeiro, v. 69, n. 4, p. 489-502, dez. 2015. ISSN 0034-7140.

  4. Disponível em: http://esaf.fazenda.gov.br/assuntos/pesquisas-e-premios/premio-seae/9o-premio-seae-2014/9o-premio-seae-2014/monografias-premiadas-seae-2014/tema-2-1o-lugar-carlos-manuel

  5. “Stimulating Broadband Adoption: State-Owned Companies versus Tax Exemptions – The Brazilian Case” Journal of Economic Studies, Vol. 45 Issue: 4, pp.738-759, https://doi.org/10.1108/JES-05-2016-0113

Regulação por Incentivos Funciona?

Até o início da década de 1980, os serviços de infraestrutura eram, via de regra, oferecidos majoritariamente por empresas públicas ou por empresas privadas sob intensa regulação e supervisão do estado. A justificativa para tal eram as falhas de mercado inerentes a esses setores, em particular, a presença de externalidades positivas e dos elementos típicos de monopólios naturais: sub-aditividade da função custo e baixa elasticidade-preço da demanda. Por isso o diagnóstico de que empresas privadas, sem uma pesada e burocrática supervisão estatal, não proveriam infraestrutura em quantidade, qualidade e a preços socialmente ótimos.

O período compreendido entre a segunda metade da década de 1980 e o final da década de 1990 experimentou mudanças significativas desse modelo de regulação. Dois elementos se destacaram nessa  mudança, quais sejam, a maior participação da inciativa privada e a introdução de mecanismos de incentivo ao aumento da produtividade, expansão e aumento da qualidade da infraestrutura. É fato que ambos existiam anteriormente à década de 1980, mas eram mais exceção do que regra. Como Joskow (2007) demonstra, a mudança foi mais na intensidade de sua utilização do que na introdução de mecanismos que anteriormente inexistiam.

Simplificadamente, o novo modelo consiste em definir mecanismos de incentivo para que as empresas se esforcem no sentido de alcançar determinados objetivos definidos pelo regulador. Por exemplo, no setor de distribuição de energia elétrica, os reguladores criaram mecanismos de incentivos com o objetivo de tornar o lucro inversamente proporcional ao tempo médio de interrupção do fornecimento de energia. É comum também o estabelecimento de metas de expansão da infraestrutura, com penalidades (ou prêmios) associados ao seu não atingimento. A expectativa é que as empresas, ao buscarem maximizar seus lucros (ou minimizar custos), alcancem indiretamente os níveis de qualidade e universalidade do serviço desejado pela sociedade.

Em minha tese de doutorado, fiz um levantamento de 49 estudos que estudaram os efeitos das reformas do setor elétrico com essas características em diversos países do mundo. A maior parte dos resultados aponta na direção de aumento da produtividade e melhoria da qualidade do serviço, mas poucos (ou nenhum) conseguiram implementar uma estratégia empírica defensável capaz de identificar de forma robusta uma relação de causalidade. Em muitos casos questiona-se se não foram as “melhores” empresas a serem privatizadas, permanecendo as “piores” sob administração do Estado, o que implicaria uma relação de causalidade inversa à esperada. Além disso, de forma concomitante às reformas, diversas outras mudanças econômicas foram implementadas, como alterações na política macroeconômica. Arrisco a afirmar que o mesmo tipo de questionamento deve ocorrer em relação aos estudos focado sem outros segmentos de infraestrutura.

Além disso, há um outro complicador relevante. A introdução de incentivos foi muito menos profunda do que normalmente supõe a literatura na área de regulação econômica. Como bem observa Joskow (2007), em diversos segmentos regulados é comum ainda a presença relevante de alguns elementos do velho regime. Isso ocorreu, particularmente, nos setores de distribuição de energia elétrica, água, saneamento e gás, e, em alguma medida, também nos segmentos de infraestrutura aeroportuária e rodoviária. Nesses setores, via de regra, a construção dos preços consiste na soma de dois componentes, quais sejam, custos operacionais e de capital, que possuem tratamentos regulatórios distintos. No caso dos custos operacionais, o regime normalmente é de elevado poder de incentivo, pois desvincula-se quase completamente os valores considerados no cálculo tarifário daqueles observados na empresa. Já no caso dos custos de capital, os reguladores optam por considerar valores de investimentos muito próximos aos realizados pelas empresas, gerando um baixo poder de incentivo à eficiência, ou, a depender da taxa de retorno definida pelo regulador, um incentivo contrário (Averch; Johnson; 1962).

Há então dois aspectos que os estudos empíricos sobre essas reformas devem procurar, na medida do possível, tratar. O primeiro é a estratégia de identificação, que deve procurar isolar os efeitos das “facilidades” ou “dificuldades” da gestão sobre as variáveis de interesse. Por exemplo, distribuidoras de energia que atuam em áreas onde os consumidores estão mais dispersos espacialmente tendem a apresentar uma menor produtividade e pior qualidade (maior tempo de interrupção por consumidor). Se o governo optar por privatizar apenas as de menor dispersão, os resultados irão confundir os impactos da reforma com os efeitos desse fenômeno. O segundo é que os custos operacionais e de capital tiveram tratamento regulatório distinto e, portanto, devem ser analisados em separado. Caso contrário, os resultados dificilmente poderão ser interpretados.

Procurei tratar os dois aspectos em um dos três ensaios de minha tese de doutorado. A minha estratégia consiste em considerar as mudanças de controle societário para identificar os efeitos da regulação sobre os custos operacionais e capital. A premissa central é que o esforço da empresa é proporcional à habilidade empresarial do acionista controlador. Assim, a mudança de controle implica um aumento do esforço quando há incentivos para tal. Posso comparar então o desempenho da mesma empresa em dois momentos distintos, e não estou sujeito aos problemas de endogeneidade citados acima. Utilizei dados de 57 distribuidoras de energia elétrica brasileiro no período 1998-2016, e fiz regressões distintas para custos operacionais e capital.

Os resultados apresentam evidência robusta de que o forte regime de incentivos gera redução de custos operacionais em pelo menos 20%. A figura abaixo ilustra 5 dos 37 eventos de troca de controle o corrido no período estudado. A curva azul contínua consiste no custo operacional unitário (custo operacional para cada 100 consumidores) de 5 distribuidoras adquiridas pelo grupo CPFL nos anos de 2007 e 2008.  A curva laranja se refere ao custo médio do setor de distribuição de energia elétrica brasileiro. Por fim, a curva azul tracejada consiste no nosso contrafactual, construído a partir do crescimento médio do setor de distribuição multiplicado pelos custos unitários antes da troca de controle. É possível notar uma queda significativa de custos operacionais logo após a troca de controle. Enquanto o setor experimentou no período 2007/2009 uma queda de 5,6%, as distribuidoras adquiridas diminuíram em 37% seus custos unitários no mesmo período. Logo após elas mantiveram uma trajetória similar a do setor.

Em relação ao capital, os resultados demonstram efeito contrário, ou seja, o regime causou uma piora da produtividade do capital de 10%. A trajetória da relação capital por unidade consumidora do mesmo grupo de empresas da figura 1 é apresentada na figura 2. Nota-se que a troca de controle, neste caso, teve uma trajetória diversa da apresentada na figura 1.  A relação capital/consumidor aumentou impressionantes 66% no período 2007/2009, enquanto o setor aumentou 11% em igual período.  

Figura 1: Evolução do Custo Operacional Unitário
(Preços de Dez/2017)

Figura 2: Evolução do Custo Operacional Unitário (Preços de Dez/2017)

A primeira suspeita óbvia é a de que houve uma substituição de insumos, ou seja, de custo operacional por capital, e não um aumento de eficiência. Ocorre que as regressões sugerem uma relação de complementaridade e não de substituição entre ambos. Faz sentido. Mais capital pode significar mais equipamentos, o que se traduz em mais custos de operação e manutenção. Ou seja, o aumento de eficiência verificado na figura 1 poderia ser ainda maior se não fosse o elevado nível de investimentos realizado em igual período. Portanto, a queda de 20% é uma estimativa robusta, e possivelmente até conservadora, dos efeitos da combinação entre gestão privada e fortes mecanismos de incentivo sobre a produtividade operacional das empresas[1].

A grande questão é se o que ocorreu com os custos operacionais pode ser utilizado como um contrafactual para o capital, e vice e versa. Entendo que sim. Assim como o custo operacional, o capital, mensurado pelos registros contábeis, são uma composição de custos com pessoal, terceiros e equipamentos.  Em função da exaustão física, os equipamentos também devem ser substituídos periodicamente, assim como no caso dos custos operacionais. A grande diferença é o tempo que isso leva para ocorrer – no caso do capital, leva-se, em média, em torno de 25 anos no setor de distribuição de energia elétrica brasileiro. Portanto, há bons argumentos para usar os resultados de um como referência para o outro. Ou seja, os 10% de piora na produtividade do capital ocorreria nos custos operacionais caso o regime de regulação deste fosse igual ao daquele.

Isso gera questionamentos inevitáveis ao modelo adotado. Ocorre que a eficiência não é o único elemento a ser levado em consideração para adoção de um regime de regulação. Como dissemos anteriormente, a vida útil média dos equipamentos no setor de distribuição é de 25 anos, podendo chegar a 40 anos em alguns tipos de ativos. Esse é o tempo em que as empresas recuperam os investimentos realizados nesse setor, sendo devidamente remunerados nesse período. Isso gera um risco não negligenciável para elas, tanto de natureza física (evolução tecnológica, variação de mercado,etc.) quanto regulatória (o efeito holdup, discutido em vários trabalhos de Oliver Williamsom e outros). As consequências podem ser (1) elevadas taxas de retorno e/ou (2) investimentos abaixo dos níveis ótimos, o que pode gerar baixos níveis de qualidade e segurança. Além disso, eventual falta de credibilidade das instituições que dão suporte ao regime de regulação pode exacerbar esses efeitos. Esta costuma ser a razão elencada na literatura para adoção de regimes cost plus para o capital.

Em que pese esse risco, vários países europeus[2]vêm recentemente alterando esse regime e adotando incentivos para eficiência no capital. Alguns sequer diferenciam custos de capital e operacionais, adotando o conceito de Total Expenditure (TOTEX), que consiste na soma dos dois custos. Muitos argumentam que o problema lá é diferente daqui, pois na Europa há estabilidade ou até mesmo queda do consumo de energia, e no Brasil ainda há um elevado crescimento. Isso implica na necessidade de investimentos, e a incerteza nesse cenário teria um peso maior do que nos países europeus. De fato, há bons argumentos para ambos os lados e o debate merece ser aprofundado, e uma conclusão sobre o tema não é o objetivo deste texto.

Referências

Joskow, Paul (2007). Regulation of Natural Monopoly. Handbookof Law and Economics, Capítulo 16, A.M. Polinsky and S. Shavell, Elsevier. 

[1] Uma versão reduzida do estudo pode ser encontrado nos Anais do Encontro Nacional de Economia (ANPEC) 2018, área 5 .

[2] Holanda, Itália, Inglaterra, Noruega, Alemanha, entre outros.

Halisson Rodrigues é graduado em Economia pela Universidade Federal de Minas Gerais (UFMG), Mestre e Doutorando em Economia pela Universidade de Brasilia (UnB) e foi Coordenador de Regulação Econômica na Agência Nacional de Energia Elétrica (ANEEL).

Um Nobel para a Economia de Serviços?

Em outubro deste ano o Prêmio Nobel de Economia foi concedido a Paul Romer (em conjunto com William Nordhaus) “for integrating technological innovations into long-run macroeconomic analysis.”[1] Os modelos de crescimento endógeno introduzidos por Romer na década de 1980 incorporaram explicitamente a decisão de firmas e indivíduos de investir em novas ideias e inovação. Na época, esta aparentemente óbvia contribuição significou um grande avanço sobre os modelos existentes que tratavam mudança tecnológica com algo exógeno. O fato de Paul Romer ser agraciado neste momento com o prêmio máximo na área das Ciências Econômicas pareceria indicar que esta linha de pesquisa está vibrante e repleta de conquistas. No entanto, este não é o caso. A concessão do Prêmio a ele já era esperada a vários anos. Ele conta inclusive que quando recebeu o telefonema na segunda-feira de manhã de 8 de outubro de 2018, achou que era um trote, pois há vários anos nesta época já vinha recebendo este tipo de brincadeira. Certamente a escolha do Sr. Romer é justa e merecida, mas não deve ser interpretada como chancelando a supremacia dos modelos por ele criados. De fato, a revista The Economist, na coluna Free Exchange do dia 13 de outubro analisa da seguinte forma o legado desta linha de pesquisa:

Os modelos de crescimento ‘endógenos’ produzidos pelo Sr. Romer, e por outros influenciados por ele, já foram aclamados como o passo crítico para entender os padrões de crescimento econômico em todo o globo. Estes modelos não atenderam à expectativa: conhecimento pode ser necessário para atingir crescimento, mas claramente não é suficiente. No entanto, as próprias limitações destes modelos têm sido importantes para levantar questões sobre as teimosas disparidades em taxas de crescimento entre países. … Ao provocar tais questões, o trabalho do Sr. Romer identificou uma rica veia para outros pesquisadores explorarem. (The Economist, Oct. 13, 2018, traduzido do inglês)[2]

E não é somente The Economist que pensa assim. Em uma entrevista concedida alguns anos atrás em Hong Kong, o próprio Paul Romer afirmou o seguinte sobre o estado da arte dos modelos de crescimento:

Nós tivemos um estouro de teorias de crescimento nas décadas de 1950 e 1960. Depois, crescimento saiu de moda. Teorias de crescimento endógeno surgiram no começo dos 1980 e perseguiram uma nova direção. Desde os 2000, a área de crescimento tem estado quieta. Há trabalho sendo feito em aplicações empíricas da teoria de crescimento, mas francamente eu acho que muito do que está sendo feito na direção de examinar os fundamentos do crescimento está perseguindo um beco sem saída. Assim, não é necessariamente algo ruim que a área esteja parada por um tempo. (Romer, 2015: 13, traduzido do inglês)[3]

Mais adiante ele deixa claro quais são estes esforços que estão explorando ‘becos sem saída’. Sem medo de controvérsias ele explicitamente critica três linhas de pesquisa proeminentes na área de crescimento, cada uma associada a outros nomes de peso: Jeffrey Sachs e o papel de ajuda internacional, Daron Acemoglu e James Robinson e a economia política do crescimento, e Esther Duflo e Abhijit Banerjee com experimentos randomizados.[4]

Mas se o Sr. Romer não tem mais fé e interesse na área de crescimento econômico, a qual área e temas ele tem dedicado sua mente ainda inquieta? Quando perguntado pelo entrevistador o que ele acha das três linhas de pesquisa mencionadas acima ele deixa claro: “Quer saber, eu não concordo com nenhuma destas três. Eu acho que urbanização é o que devemos estudar” (pg. 14). Ele nota que existe no mundo uma demanda não atendida por oportunidades urbanas para bilhões de pessoas. Muita desta demanda será atendida pelo aumento das cidades já existentes, mas uma parte significativa será, e já vem sendo, provida por novas cidades criadas especificamente com este propósito. Esta possibilidade tem um potencial maior do que praticamente qualquer outra política pública para afetar o bem-estar de enormes contingentes de pessoas no futuro, e por isto deveria ser um tema prioritário para economistas e outros especialistas. Há algum tempo, Paul Romer já vem trabalhando nesta área, não só no nível acadêmico, mas principalmente como ativista e perito, instigando e aconselhando governos. O Urbanization Project que fundou na New York University trabalha tanto com expansão urbana como com a criação de novas cidades, e tem o objetivo de “harness the growth of cities to speed up global progress.”[5]

Uma das principais vias pelas quais Romer vem explorando a noção de urbanização planejada como solução dos problemas econômicos de países e sociedades é através da criação de Charter Cities.[6] Inspiradas no papel que Hong Kong e Zonas Econômicas Especiais tiveram em fomentar a modernização e o crescimento econômico da China, as Charter Cities envolvem a construção de cidades novas a partir do zero em uma área concedida por um país e no qual o governo do país abriria mão de certa soberania permitindo a construção de leis, regras e governança diferentes do resto do país e que visassem criar um ambiente que atraísse voluntariamente investimentos, trabalhadores e moradores. A ideia é que não só o próprio ambiente fomentaria um ciclo virtuoso de migração e atividade econômica para se aproveitar das condições propícias criadas para este fim, mas eventualmente a cidade ‘contaminaria’ virtuosamente o resto da economia com seu exemplo e práticas. Romer esteve pessoalmente envolvido em um empreendimento de Charter City em Honduras, mas, fiel à sua personalidade contenciosa, abandonou o projeto quando sentiu que o governo Hondurenho quebrou sua promessa ao tentar interferir mais diretamente na criação da cidade. Atualmente há diversas outros projetos similares sendo perseguidos em outros países.

A ideia de planejar uma cidade a partir do zero é controversa. Opositores históricos a esta ideia, como Jane Jacobs[7] e James Scott[8] há tempos criticam a pretensão e arrogância embutida na ideia de achar que se pode controlar o sistema complexo que é uma cidade. O sub-título do livro de 1998 de James Scott expressa bem esta crítica: How Certain Schemes to Improve the Human Condition Have Failed. Uma versão atual desta crítica está no livro de Geoffrey West (2018), Scale: The Universal Laws of Life, Growth, and Death in Organisms, Cities and Companies (Penguin Random House). Já uma visão mais simpática à ideia vem de outro economista renomado, Edward Glaser em (2011) Triumph of the City: How Our Greatest Invention Makes Us Richer, Smarter, Greener, Healthier, and Happier (Penguin Random House).

Seja como for, o ponto aqui é que a criação de uma nova cidade a partir de um terreno vazio para uma vibrante rede de infraestrutura, pessoas, firmas e atividades é necessariamente e acima de tudo um exercício em estabelecer e tecer uma gama intensamente diversificada e variada de serviços. É claro que o exercício envolve também criar de maneira pensada e planejada infraestrutura física (bairros, prédios, ruas, viadutos, etc.) e infraestrutura institucional (governo, polícia, tribunais, etc.) Mas, quase tudo que se pode imaginar acontecendo nesta futura cidade irá envolver serviços públicos e privados, que podem ser organizados e providos de maneira mais ou menos eficientes. A cidade precisa prever e prover habitação, transporte, comunicação, comércio, saúde, saneamento, educação, lazer, entre outros milhares de serviços que precisam ser coordenados entre si desde a fase de planejamento. O melhor ou pior funcionamento destes serviços irá afetar crucialmente a capacidade da nova cidade de atrair moradores e investidores, determinando assim a capacidade do empreendimento atingir o objetivo de melhorar a vida de grandes parcelas da população de seus países e de servir de exemplo para outras cidades vizinhas, conforme intenção declarada do projeto de Charter Cities. O tamanho do desafio e o tamanho do que está em jogo neste processo explica talvez por que alguém como Paul Romer teria dado as costas à linha de pesquisa que lhe rendeu tanto reconhecimento para se dedicar a algo ainda tão incipiente.

Bernardo Mueller é professor do Departamento de Economia da Universidade de Brasília e autor dos livros Brazil in Transition: Beliefs, Leadership and Institutional Change (2016) e Institutional and Organizational Analysis: Concepts and Applications (2018).

Referências

  1. https://www.nobelprize.org/prizes/economic-sciences/2018/press-release/
  2. https://www.economist.com/finance-and-economics/2018/10/13/paul-romer-and-william-nordhaus-win-the-economics-nobel .
  3. https://paulromer.net/interview-on-urbanization-charter-cities-and-growth-threory/index.html
  4. Paul Romer é um polemista inveterado. Tem alimentado uma briga acadêmica criticando figurões do nível de Robert Lucas, Ed Prescott e Thomas Piketty por ‘mathiness’, que é o seu termo para o abuso e mal uso de matemática em trabalhos acadêmicos com o intuito de esconder as falhas e premissas duvidosas (veja sua crítica em https://pubs.aeaweb.org/doi/pdfplus/10.1257/aer.p20151066). Mais recentemente, Romer foi despedido do cargo de Economista-chefe do Banco Mundial por brigas com vários membros do staff do banco sobre a qualidade da pesquisa realizada. Romer afirmou por exemplo que: “nunca em minha vida profissional eu encontrei tantos economistas profissionais que dizem tantas coisas que são fáceis e verificar e que acabam não sendo verdade.” (ver https://www.ft.com/content/be72f8e2-0144-11e8-9650-9c0ad2d7c5b5)
  5. http://www.stern.nyu.edu/experience-stern/about/departments-centers-initiatives/centers-of-research/urbanization-project .
  6. Sobre as Charter Cities, ver https://www.cgdev.org/article/charter-cities-qa-paul-romer.
  7. Jacobs, Jane. (1961) The Death and Life of Great American Cities. New York, Random House.
  8. Scott, James C.(1998) Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed. Yale University Press.

 

Cidades Inteligentes

O desenvolvimento das cidades se dá pelo acúmulo no espaço dos resultados sucessivos decorrentes de múltiplos e heterogêneos agentes que interagem entre si e com o seu meio. Nessas interações, indivíduos e empresas decidem estrategicamente suas ações mediando suas expectativas de pay-off com o conjunto de informações que os mesmos extraem do contexto onde estão inseridos.

Tais informações podem ser referentes às características e comportamentos dos demais agentes, à disponibilidade de recursos e as condições para acessá-los visando o alcance dos resultados desejados, às instituições (formais e informais) que regulam as relações sociais e econômicas da sociedade, às restrições impostas pelo meio físico (natural e construído), às forças políticas que atuam no ambiente, etc. Todas esses pedaços de informação se juntam formando um todo que configura um determinado espaço.

Uma característica dos agentes é que nas suas múltiplas rodadas de interação eles aprendem com a experiência, adquirem novas informações e modificam e adaptam suas estratégias e suas ações, o que produzirá cumulativamente no espaço novos resultados e novas informações, as quais, por sua vez, deverão ser processadas pelos agentes. Assim, na medida em que as cidades crescem, mais complexo se torna o ambiente, como nas regiões metropolitanas, ficando cada vez mais difícil o conhecimento e o processamento de todas as informações que o ambiente está constantemente produzindo.

Considerando a limitada capacidade do ser humano para processar quantidades gigantescas de informação, esse processamento é muito difícil também para aqueles que atuam no planejamento e na gestão das cidades, haja visto que elas podem evoluir tais como organismos vivos, muitas vezes sofrendo mutações no meio do caminho e mudando o curso do que foi planejado. Informação incompleta e planejamento baseado em tendências do passado que não necessariamente irão continuar no futuro muitas vezes produzem políticas públicas insuficientes ou inócuas para garantir um desenvolvimento urbano sustentável. Mudanças repentinas de rumo, em geral, não são bem aceitas pelos planejadores.

Ferramentas e sistemas digitalizados já são utilizados há algum tempo para tentar lidar com as informações relativas ao espaço urbano, cruzando dados georreferenciados, sobrepondo mapas, localizando infraestruturas, etc.; de modo a orientar a tomada de decisão no planejamento e na gestão das cidades. No entanto, as novas tecnologias digitais (internet das coisas, computação em nuvem, conectividade entre equipamentos, big data, inteligência artificial, internet de alta velocidade, etc.), tem oferecido um novo conjunto de soluções para lidar com a dinâmica da vida nas cidades, manejando um conjunto crescente de informações e elevando a um novo patamar o planejamento das cidades e a gestão na prestação de serviços públicos.

Por exemplo, o monitoramento em tempo real de atividades nas áreas públicas, de funcionamento de serviços públicos e o cruzamento simultâneo de informações de diversas fontes em bases territoriais oferecem a oportunidade para que o gestor público responda com mais agilidade a eventos fortuitos, tomando decisões mais seguras e rápidas.

Essas mudanças caracterizam, grosso modo, o surgimento das Cidades Inteligentes (Smart Cities) que, basicamente, podem ser descritas como cidades nas quais o aumento da capacidade de integração de dados e processamento de informações nos processos de planejamento e gestão das políticas públicas permitidas pelas tecnologias digitais, aumenta a eficiência e a eficácia na prestação de serviços à população e promove um desenvolvimento urbano mais sustentável. Certamente, o foco não é no uso da tecnologia em si, mas na utilidade que o seu uso gera para o cidadão, ao permitir que o poder público atenda as diversas demandas da sociedade com a utilização mais racional e eficiente dos recursos disponíveis, resultando na melhoria da qualidade de vida urbana.

O conceito de Cidades Inteligentes envolve mais elementos do que o simples uso de tecnologias digitais, desde que incorpora também noções de desenvolvimento sustentável, criatividade e inovação, cooperação e engajamento coletivo, participação social, parcerias público-privadas, difusão de conhecimento e co-criação em redes, novas abordagens de ensino e aprendizagem, ganhos de produtividade, clusters tecnológicos integrando indústrias e universidades, transparência e políticas de dados abertos, start-ups, etc. Por trás disso tudo está a organização do espaço físico e virtual tendo o conhecimento e o fluxo de informações como fatores de integração.

A incorporação de ferramentas tecnológicas digitais que permitem a utilização cada vez mais intensa das informações produzidas no dia-a-dia da vida urbana para atacar os principais problemas das cidades já é uma realidade em vários países, e cada vez mais intensa no Brasil.

No mercado já existem tecnologias digitais para transportes e mobilidade urbana, mitigação de congestionamentos com informação de tráfego e navegação em tempo real, semaforização inteligente, cobrança eletrônica de pedágios, sistemas de compartilhamento de veículos, geração de energia renovável e eficiência energética, iluminação pública inteligente, sistemas inteligentes e automatizados de distribuição de energia, abastecimento de água, detecção de perdas e furtos do sistema de abastecimento de água, monitoramento da qualidade da água, monitoramento digital do descarte de lixo, otimização de rotas e coleta seletiva de resíduos sólidos, resiliência e segurança em espaços públicos, mapeamento de crime em tempo real, detecção sonora de disparos de armas de fogo, sistemas avançados de vigilância e reconhecimento facial, sistemas de alertas de emergência de eventos climáticos extremos, aplicativos de alerta pessoais e domésticos, engajamento comunitário e participação social, monitoramento ambiental (temperatura, emissão e redução de gases, umidade relativa, precipitação), dentre outras soluções.

A promoção das cidades inteligentes no Brasil tem crescido atraindo diversos players para o desenvolvimento de soluções para as cidades, o que exige mais investimentos na melhoria da infraestrutura de telecomunicações e internet de alta velocidade no país. Exige também, novas estruturas organizacionais e de governança no setor público. Pouco adiantará soluções tecnológicas integradas se ainda estiverem atreladas a ideias e instituições obsoletas, como a lógica organizacional hierárquica baseada em processos verticais excessivamente formais e burocratizados. Organizações constituídas de unidades autônomas organizadas em redes, adotando processos horizontais, mais ágeis e flexíveis, e soluções integradas por meio do compartilhamento de informações podem garantir melhores resultados na utilização das novas tecnologias digitais.

Cada vez mais o crescimento econômico estará atrelado ao acesso e utilização de informações nos processos produtivos. Indivíduos, empresas e o próprio setor público tomarão suas decisões a partir do processamento de uma quantidade quase infinita de informações o que demanda, além da mencionada melhoria da infraestrutura de IC, investimentos em capacitação.

A capacitação de pessoas já é estratégica, considerando o conhecimento necessário para utilização das novas tecnologias digitais, como utilizar as informações produzidas, a mão-de-obra disponível mais e mais envelhecida e o desaparecimento de algumas profissões com o surgimento de outras novas. Isso será fundamental para não ampliar ainda mais as desigualdades sociais, em especial nas áreas urbanizadas onde a maior parte do PIB é produzida e onde se encontra grande parte da pobreza, comprometendo o próprio desenvolvimento do país. A implementação de cidades inteligentes, no seu conceito mais amplo, será um imperativo cada vez mais forte para a atração de investimentos e mão-de-obra qualificada, para garantir uma maior qualidade de vida nas cidades e para a promoção do desenvolvimento sustentável.

Paulo Ávila é arquiteto e mestre em planejamento urbano pela Universidade de Brasília. Atua profissionalmente na área de planejamento urbano e regional, com ênfase em aspectos econômicos do espaço urbano. Foi professor no Curso de Arquitetura e Urbanismo Universidade Católica de Brasília. Atualmente é Analista de Infraestrutura lotado na Secretaria Nacional de Desenvolvimento Urbano (SNDU) do Ministério das Cidades onde coordena o Programa Nacional de Capacitação das Cidades.