Economia de Serviços

um espaço para debate

Assinar blog por e-mail

Digite seu endereço de e-mail para assinar este blog e receber notificações de novas publicações por e-mail.

Junte-se a 330 outros assinantes

Author: Tiago Xavier

O Barômetro da Internet das Coisas (IoT)

A Vodafone, uma das maiores empresas de telecomunicações do mundo, publica, anualmente, o relatório “Vodafone IoT Barometer” para medir não só a percepção do mercado em relação à Internet das Coisas (IoT), mas para também avaliar os resultados práticos da adoção da tecnologia no mundo inteiro. O relatório de 2016 foi baseado em 1.096 entrevistas realizadas com empresas em 17 países (incluindo o Brasil).

Dentre os resultados apresentados, o relatório de 2016 dividiu as aplicações em seis grandes grupos que abrangem a maioria das soluções IoT, indicando o percentual de organizações que possuem ao menos um projeto em cada um destes grupos. O resultado é bastante significativo:

  • 51% possuem projetos em otimização e monitoramento do uso de bens e veículos;
  • 48% possuem projetos em automação predial;
  • 46% possuem projetos em segurança e monitoramento de ambientes;
  • 42% possuem projetos em automação de processos da cadeia de valor;
  • 41% possuem projetos em novos produtos conectados;
  • 40% possuem projetos em melhoria da segurança e sustentabilidade de espaços públicos.

Diante dos dados apresentados, uma das conclusões que se pode inferir do relatório é que estamos começando a entrar em uma segunda onda da Internet das Coisas. Na primeira onda IoT, a pergunta que todos se faziam era “o que eu posso conectar?” A ideia era simplesmente sair conectando “coisas” e avaliar o que fazia sentido e o que não funcionava. Nesta época surgiram ideias como a geladeira conectada, fechaduras e portas conectadas e a maioria dos wearables que vemos hoje.

Na segunda onda IoT, que estamos começando a vivenciar, já se observam modelos de negócios orientados aos dados, não à conexão. Com isso, a pergunta certa a se fazer hoje passa a ser “quais os objetivos de negócio eu quero atingir e quais os tipos de dados eu tenho de coletar para alcançar esses objetivos?” As organizações hoje passaram a se perguntar o que elas precisam fazer para operar mais eficientemente e qual solução IoT é necessária para atingir esse objetivo. Com isso, a IoT passa a ganhar uma cara mais corporativa.

O grande fato relevante por trás disso tudo é que estes novos modelos de negócio tem um tema subjacente em comum, que pode ser resumido como “tudo-como-serviço” ou everything-as-a-service. Hoje já é possível observar projetos de economia de energia como serviço, por exemplo. A empresa americana ADT Security, do ramo de segurança e automação residencial, já oferece o produto de segurança como serviço, permitindo monitorar sua casa apenas durante o período de férias. A grande vantagem destes modelos é a massificação da tecnologia: ao comprar um serviço, o usuário evita fazer pesados investimentos para utilizar sozinho um serviço que pode ser compartilhado. Por outro lado, os prestadores de serviço passam a rentabilizar melhor a infraestrutura necessária para ofertar sua solução. Ganha o usuário, ganha o prestador de serviço, e ganham os desenvolvedores da tecnologia.

Olhando para o cenário interno brasileiro, a segunda onda IoT, com essa proposta de “servicificação” da tecnologia, pode ajudar na recuperação do nosso combalido setor de serviços, que vem sofrendo bastante com a recessão econômica dos dois últimos anos. Mais do que isso, esta segunda onda IoT pode ajudar a efetivamente desenvolver nosso setor de serviços, levando-o a um patamar maior de especialização, incorporando-o ao processo de produção e de negócios empresariais, e reduzindo o peso dos serviços de custo e de baixa especialização no nosso PIB.

Enquanto o mercado IoT se apresenta como uma oportunidade multibilionária no mundo todo, o custo de entrada no negócio de desenvolvimento de soluções IoT pode ser surpreendente modesto em algumas ocasiões. Para entender onde estão estas oportunidades, precisamos lembrar como está organizado um ecossistema IoT. De maneira geral, esse ecossistema é composto por quatro camadas: são elas, “de baixo para cima”, hardware, comunicações, software e aplicações. A figura a seguir ilustra um ecossistema típico IoT, descrevendo as quatro camadas citadas.

Figura 1 – Ecossistema IoT (fonte: www.iot-analytics.com)

A primeira camada abrange os dispositivos físicos. É verdadeiramente a “coisa” da internet das coisas. Aqui encontramos sensores, processadores, termostatos e vários outros componentes que já existem há algum tempo, mesmo antes de ouvirmos falar da internet das coisas. Por estarem conectados à internet, estes dispositivos passaram a ter sistemas de defesa mais aprimorados para evitar o acesso indevido e ataques de hackers.

A segunda camada, responsável pelas comunicações, faz a coleta dos metadados associados ao serviço. A grande maioria dos protocolos são os mesmos já utilizados nas comunicações móveis e na internet comum. É nesta camada que estão, por exemplo, os padrões de comunicação como Bluetooth, Near Filed Communication (NFC), WiFi e LTE(4G). Aqui a padronização é essencial pois é por meio dela que dispositivos IoT irão “conversar” com sistemas de integração. Neste segmento, não se observam grandes oportunidades para novos players, especialmente porque estes componentes já são produzidos atualmente em cadeias globais de valor, principalmente pelos asiáticos, com grandes vantagens competitivas. Por mais que a retórica do recém-eleito presidente americano aponte em sentido contrário, dificilmente a “Doutrina Trump” vai conseguir reverter este quadro.

A terceira camada traz consigo todo hardware de backend e sistemas de integração. Aqui, todos os dispositivos IoT e seus metadados são agregados. É nesta camada que os desenvolvedores de aplicações IoT agregam seus dispositivos. Neste segmento, também não se observam grandes oportunidades para novos players. As barreiras de entrada são grandes porque os investimentos para se montar uma plataforma de agregação IoT são bastante elevados. Por precisar agregar centenas de milhares, às vezes até milhões de dispositivos, estes sistemas necessitam de alta capacidade de armazenamento de dados e de alta capacidade de processamento.  Não por coincidência, as maiores plataformas do mercado hoje estão associadas a grandes empresas do mercado de Tecnologia da Informação e Comunicação (TIC). São elas: Amazon AWS IoT, IBM Watson, Cisco Cloud Connect e Microsoft Azure.

A última camada é composta por aplicações que agregam dispositivos e sistemas em uma solução para qual existe uma demanda específica. Uma aplicação de cidade inteligente, por exemplo, agrega as informações de câmeras de segurança, sensores de estacionamento, sinais de trânsito, frotas de veículos de transporte público e os transforma em informação relevante para um centro de gerenciamento integrado de serviços públicos, permitindo melhor monitoramento de uma cidade e de seus serviços e um melhor tempo de resposta para situações de crise. É nesta camada que está a grande oportunidade para novos players deste mercado, sobretudo de desenvolvedores e empresas nacionais, em virtude das baixas barreiras de entrada. Desenvolvedores de aplicações diversas podem passar a desenvolver aplicações IoT sem a necessidade de grandes investimentos. Além disso, a vantagem para o desenvolvedor nacional torna-se mais evidente se ele optar por explorar nichos de mercado tipicamente brasileiros. Peculiarmente diferente do resto do mundo em muitos aspectos, nosso jeito de nos comunicarmos, nosso sistema bancário e nosso governo são apenas alguns exemplos de nichos especialmente nossos.

Assim, por tudo isso, pode-se dizer que a nova onda IoT vem para incorporar de vez a tecnologia ao mercado corporativo. Já é possível imaginar que em um futuro próximo, ela será tratada como indistinguível dos processos de negócio das corporações e passará a ser vista como uma funcionalidade intrínseca de um moderno sistema de uma fábrica, de uma frota de carros ou de uma solução de segurança, por exemplo. Dentre os desenvolvedores de aplicações, vai sair na frente aquele que melhor conseguir identificar as oportunidades e necessidades das organizações e conseguir traduzir essa necessidade em uma solução de serviços que incorporem aplicações IoT funcionando como uma parte intrínseca do ambiente de negócios.

Por que o Uber é tão amado pelos economistas?

Explorando falhas de mercado e lacunas regulatórias, o Uber se expandiu criando amantes e inimigos mortais: basta acompanhar as notícias para ver a batalha diária nas grandes cidades brasileiras entre seus motoristas e taxistas.

Porém, a simples popularização do serviço não é suficiente para que o caracterizemos como economicamente revolucionário. Se o serviço, por exemplo, apenas toma parte (ou toda) a demanda de transporte originalmente atendida por táxis, o impacto econômico trazido pela empresa é praticamente nulo. Neste caso ele se tornaria apenas um substituto do serviço de táxi. Se, por outro lado, o serviço passa a gerar uma demanda adicional de transporte individual, além da demanda que até então era atendida por táxis, então podemos afirmar que o novo serviço é inovador também sob o ponto de vista de geração de produto, passando a contribuir diretamente para o aumento do Produto Interno Bruto (PIB) de uma economia. Passados alguns anos do lançamento do serviço em todo mundo, não restam dúvidas que estamos diante da segunda opção.

Economistas tendem a amar o Uber. Em vários aspectos, o aplicativo funciona de maneira quase perfeitamente eficiente. O Uber é um mercado no qual os preços pagos pelos usuários respondem à oferta e à demanda, consequência do que a companhia chama de preço dinâmico Uber. Quando há muitos usuários procurando por um carro e poucos motoristas disponíveis, o preço aumenta. Isso gera uma pressão tanto na oferta quanto na demanda: novos motoristas que não estavam trabalhando sentem-se atraídos a entrar novamente no mercado, em virtude da alta nos preços. Por outro lado, consumidores que não estão dispostos a pagar um preço mais alto desistem momentaneamente da corrida, reduzindo a demanda. Tudo isso faz com que os preços voltem ao equilíbrio. E é assim que os economistas geralmente gostam que o mercado trabalhe.

Recentemente, os economistas ganharam um novo motivo adicional para amar o Uber: em um estudo baseado no histórico de transações realizadas pelo aplicativo, publicado em agosto de 2016, pesquisadores conseguiram calcular a curva de demanda pelo serviço. O artigo foi intitulado Using Big Data to Estimate Consumer Surplus: The Case of Uber. O Uber passou aos pesquisadores 54 milhões de sessões de usuários de quatro cidades americanas: Chicago, San Francisco, Nova York e Los Angeles. No Uber, os dados detalhados de cada corrida solicitada por consumidores são capturados e armazenados em um banco de dados. Os dados são coletados inclusive para corridas não realizadas: casos em que, por exemplo, o consumidor abre o aplicativo e, ao se deparar com um preço dinâmico mais alto, acaba por desistir da corrida.

E por que isso é importante? Explico: um dos primeiros assuntos que um estudante de economia aprende na faculdade é a curva de demanda: você entra em sala de aula, o professor desenha a curva de demanda no quadro, explica a teoria por trás daquela curva e pronto: a curva é instantaneamente aceita por todos e passa a existir como fundamento para uma série de outras análises. Porém, se olharmos ao nosso redor, na vida real, é difícil encontramos um exemplo em que a curva de demanda se encaixe perfeitamente. Se pararmos para pensar a fundo, é como se a curva de demanda existisse na literatura simplesmente para explicar o restante das transações que acontecem ao redor dela, mas jamais tenha sido efetivamente estimada em um exemplo prático da vida cotidiana. Em outras palavras, é como se a curva fosse como prótons e elétrons da física: nós conseguimos imaginar e entender seu comportamento para explicar o comportamento da matéria, mas ainda não conseguimos desenvolver uma ferramenta que nos permita enxergar diretamente um elétron. Aparentemente, esta situação mudou na economia com o Uber e seu banco de dados.

A importância de se conhecer a curva de demanda por um serviço se reflete em dois aspectos: para os fornecedores, conhecê-la faz com que eles saibam exatamente qual preço cobrar pelo serviço. Para os consumidores, uma vez conhecida a curva de demanda, passa a ser possível calcular o quanto de excedente do consumidor existe naquela transação. Vamos tomar um exemplo prático: se um consumidor está disposto a pagar até R$5,00 por uma maçã, mas consegue comprá-la por R$ 2,00, então o excedente do consumidor é igual a R$ 3,00. Este é o ganho do consumidor por ter comprado um item que queria por um preço aquém do qual ele estava disposto a pagar. O problema é que o quanto o consumidor está disposto a pagar por uma maçã varia a cada dia por uma série de fatores: o tamanho de sua fome, o quanto de estoque de maçãs que ele tem em casa, se ele prefere uma pêra naquele dia. Esta dinamicidade de variáveis dificulta muito repetir o experimento diversas vezes e, com isso, impede o cálculo de boas estimativas do excedente do consumidor. É neste ponto que entra o Uber e a teoria do Big Data.

Existem dois aspectos perfeitos sobre o Uber que permitem aos economistas medir o excedente do consumidor no serviço prestado: o primeiro é o fato de o aplicativo salvar as informações quando um consumidor abre o aplicativo, se depara com o preço acima do normal, e desiste da corrida. Esta funcionalidade do serviço é importante para o cálculo da curva de demanda porque o ponto chave para estimá-la é ter, para um mesmo consumidor, ou para consumidores similares, oferta de preços diferentes e, com isso, medir o comportamento deles frente aos diferentes preços ofertados. Como o banco de dados do Uber possui uma escala massiva, com milhões de interações, as conclusões derivadas das simulações efetuadas com estes dados nos permitem extrapolar os resultados observados para o mundo real com mais naturalidade.

O segundo aspecto é ainda mais importante, porém quase desconhecido para os consumidores. O algoritmo do preço dinâmico do Uber foi concebido para calcular o preço dinâmico exato para cada situação. Porém, para se apresentar de uma maneira mais simples para os consumidores, o multiplicador do preço dinâmico é arredondado para uma casa decimal: portanto, um consumidor, ao abrir o aplicativo e se deparar com um preço dinâmico de 1,2 pode ter como preço dinâmico real o valor de 1,24999. Por outro lado, se outro consumidor similar tiver o preço dinâmico real de 1,25001, ligeiramente superior ao preço dinâmico real anterior, ele irá se deparar com um preço dinâmico no aplicativo de 1,3. O efeito prático disso é um salto brusco nos preços, uma descontinuidade. É exatamente este tipo de comportamento que um economista busca em um experimento natural, porque são dois indivíduos essencialmente idênticos, para as quais são apresentados preços diferentes quase por acaso, em virtude do modelo de negócios adotado pelo Uber.

Como o banco de dados do Uber é enorme, com milhões de transações, existem milhões de observações que caem na situação ilustrada anteriormente e, com isso, no experimento retratado pelo artigo, foi possível estimar o comportamento dos consumidores a pequenas variações nos preços. Com isso, foi possível construir, passo a passo, a curva de demanda inteira para preços dinâmicos variando de 1,0 a 5,0.

Empiricamente, pode-se esperar do resultado do experimento um excedente do consumidor elevado: o serviço costuma ter grande aceitação por parte de seus usuários. Muitos dizem não usar mais o serviço de táxi; outros afirmam que o Uber é muito mais barato que o táxi, sinalizando que estariam dispostos a pagar mais caro pelo serviço prestado. Foi exatamente isso que o experimento encontrou: há um grande excedente do consumidor presente na prestação de serviços pelo Uber. Utilizando 50 milhões de observações individuais e uma análise de regressão das descontinuidades, os pesquisadores estimaram que, em 2015, apenas o serviço de UberX (responsável por 80% das corridas) gerou o equivalente a US$ 2,9 bilhões em excedente do consumidor, levando-se em consideração apenas as quatro cidades analisadas no estudo. Isto significa que, para cada dólar gasto pelos consumidores, US$ 1,60 é gerado em excedente do consumidor. Extrapolando-se os resultados para o restante dos EUA, o valor estimado em excedente do consumidor gerado é de US$ 6,8 bilhões. Porém, não se pretende, aqui, defender o o Uber como promovedor do bem-estar social. Afinal, vale frisar: o excedente do consumidor encontrado é extremamente disperso. Existe um número muito maior de consumidores do que de demais stakeholders da relação com o Uber, como, por exemplo, a própria empresa e seus motoristas credenciados.

Portanto, o resultado encontrado deve ser visto com cuidado. Sob o ponto de vista da política pública, os resultados obtidos com as estimativas de excedente do consumidor apresentam duas deficiências claras: em primeiro lugar, eles são derivados de elasticidades da demanda de curto prazo, enquanto qualquer política pública deve estar interessada nas consequências geradas no longo prazo. Em segundo lugar, porque as conclusões atingidas pelo estudo ignoram o excedente do consumidor associado a outros produtos de compartilhamento de carona (Uber Black, Lyft, Sidecar), assim como a própria resposta da indústria dos taxis (99taxis, EasyTaxi).

Apesar de tudo isso, os resultados não podem ser desprezados. Pode-se concluir que eles favorecem não só o argumento pró-Uber, mas o argumento em favor de todos os demais aplicativos da chamada “economia do compartilhamento”. Com o bem-estar social matematicamente calculado, o experimento traduz o mantra da maioria dos economistas: menos monopólio e mais concorrência se traduzem em melhor qualidade e preços mais baixos. E é por isso que os economistas tanto amam o Uber!

post7_fig1

Por que o novo cabo submarino Brasil-Europa é importante

Desde 2006, links de satélite internacionais são responsáveis por apenas 1% do tráfego internacional de telecomunicações. Todo o restante é transportado por cabos submarinos. Por ter uma confiabilidade alta e capacidade total de transporte chegando aos terabits por segundo (mil vezes mais rápido que o satélite), os cabos têm sido, até agora, a melhor solução técnica encontrada para atender à demanda cada vez maior de comunicação de dados em alta velocidade.

Os cabos submarinos são importantes pois o acesso pleno à internet depende da interconexão de todas as redes mundiais: de operadoras e provedores de acesso (com seus respectivos usuários) aos provedores de conteúdo. Como os agentes estão espalhados pelo mundo todo, as redes se encontram em grandes pontos de troca de tráfego internacional. Assim, os cabos submarinos são utilizados para conectar esses pontos de troca de tráfego, conhecidos como Internet Exchanges (IX).

Segundo um levantamento feito pela TeleGeography, empresa de consultoria do ramo de telecomunicações, existem, atualmente, 278 cabos submarinos em operação no mundo. Destes, seis estão em operação no Brasil. Além deles, mais quatro cabos em construção passam por aqui. De todos esses cabos citados, 7 interligam (ou interligarão) Brasil e EUA.

Ter um novo cabo submarino interligando Brasil e Europa já estava nos planos do Brasil desde 2012. O único cabo que faz este percurso atualmente, o Atlantis-2, já está com sua capacidade praticamente esgotada e é usado majoritariamente para comunicações de telefonia. Com pouca atenção desde sua idealização, o projeto ganhou novo significado em 2013, quando foram divulgados uma série de documentos que apontavam a espionagem das comunicações eletrônicas de empresas e autoridades brasileiras pelo governo dos EUA.

O cabo eulaLink está planejado para interligar Brasil e Portugal, com paradas dentro da rota em Cabo Verde, Madeira e Ilhas Canárias.  O custo estimado do projeto é de US$ 250 milhões. O consórcio responsável pela construção e lançamento do cabo é formado pela Telebras, com 35% de participação, e pela Islalink, uma operadora espanhola de telecomunicações, com 45% de participação. Um terceiro sócio, também brasileiro e ainda a ser definido, entrará no negócio com os 20% restantes de participação. A previsão atual é que o cabo entre em operação em 2018.

Atualmente, praticamente toda a comunicação sul-americana com os continentes europeu e asiático passam, necessariamente, pelos Estados Unidos. O projeto do cabo eulaLink nasce com o objetivo de evitar, ou pelo menos diminuir essa dependência. Na lista dos maiores pontos de interconexão de internet do mundo, os três maiores estão na Europa: DE-CIX (Frankfurt), AMS-IX (Amsterdã) e LINX (Londres). Dentre eles, o AMS-IX só possui pontos de presença na Holanda, podendo ser considerado um ponto de interconexão genuinamente europeu. Alcançá-lo significa ter acesso direto a provedores regionais, que só operam na Europa, e não podem ser alcançados diretamente nos EUA.

Além de beneficiar instituições acadêmicas e cientificas ao ampliar a troca de informações relevantes para o desenvolvimento da ciência e tecnologia, o novo cabo desperta grande interesse das instituições europeias por atender a uma grande demanda de banda com baixa latência para os observatórios e telescópios astronômicos instalados no Chile. Existem iniciativas da UNASUL para viabilizar um grande anel óptico interligando os países do continente sul-americano, um complemento ao projeto do cabo submarino, que possibilitará o escoamento dos dados vindos da Europa a toda a região (mais detalhes aqui e aqui).

A justificativa para a construção do novo cabo eulaLink pode ter nascido de uma reação exagerada do governo brasileiro às acusações de espionagem denunciadas por Edward Snowden em 2013. Afinal de contas, é pouco factível imaginar que a NSA e demais agências americanas fiquem interceptando todo o tráfego que chega a Miami e Nova York pelos cabos submarinos em busca de informações confidenciais sobre o Brasil ou outros países. Além disso, é difícil imaginar que a relação diplomática entre Brasil e EUA possa azedar ao ponto de os americanos interromperem as comunicações com o Brasil, isolando o país do resto do mundo.

Porém, não se pode negar que o novo cabo trará grandes benefícios para o Brasil: não pela blindagem das comunicações perante aos EUA, mas muito mais pela possibilidade de interconexão entre os dois continentes com menor latência e menor custo, o que tem grande impacto não só em aplicações de uso acadêmico para troca de informações relevantes ao desenvolvimento da ciência e tecnologia, mas também em aplicações corporativas, como computação em nuvem e no acesso ao mercado financeiro. Resta saber se, na situação política e macroeconômica atual, essa importância será reconhecida pelo governo central na hora de liberar recursos de investimento para a Telebras, empresa estatal que é parte fundamental do consórcio responsável pelo cabo.

Post6_Fig1

Por que a regulação tradicional não pode ser a única resposta a serviços inovadores

Este mês o Google anunciou um novo serviço de carona na Califórnia, chamado Waze Carpool. O aplicativo Waze, comprado pelo Google por US$ 1,5 bilhões em 2013, possui hoje mais de 50 milhões de usuários em todo mundo conectados diariamente em busca da melhor rota para fugir de engarrafamentos e demais problemas do trânsito. Uma mistura de rede social com um sistema de navegação via GPS, o Waze utiliza informações providas pelos próprios usuários para definir a melhor rota de um ponto a outro.

O novo serviço funciona da seguinte forma: passageiros devem fazer o download de um novo aplicativo, o Waze Rider. Pelo aplicativo, os passageiros procuram pelo motorista mais próximo que já está planejando dirigir pela mesma rota do passageiro para ir ao trabalho. Os motoristas, por sua vez, recebem pedidos de carona no próprio aplicativo Waze. O serviço faz a correspondência entre motoristas e passageiros com rotas praticamente idênticas, baseados nos seus endereços residenciais e de trabalho, cadastrados previamente em uma base de dados.

Disponível inicialmente apenas na região do Vale do Silício, o objetivo do serviço é permitir que os trabalhadores da região encontrem mais facilmente caronas de ida e volta de casa ao trabalho, uma maneira de incentivar caronas solidárias e viagens compartilhadas. Além de oferecer mais uma alternativa de transporte a custos relativamente baixos, a medida também ajuda a reduzir engarrafamentos e a poluição. Pesquisas na região mostraram que, durante os horários de pico, 70% dos veículos trafegam apenas com o motorista.

Um sistema automático de transferência de recursos, embarcado no aplicativo, transfere o dinheiro referente ao combustível de passageiros para o motorista por meio de um cartão de crédito cadastrado, a exemplo de outros aplicativos de carona e transporte privado. O valor atual é de US$ 0,54 por milha percorrida (cerca de R$ 3,10 por km), valor sugerido pelo Internal Revenue Service (IRS), uma agência americana com funções similares às da Receita Federal no Brasil. Esta é a grande diferença do Waze Carpool para os demais aplicativos de transporte como Uber: os recursos repassados ao motorista são suficientes apenas para cobrir os custos com combustível. Ele não consegue fazer deste serviço seu meio de ganhar a vida. Não há margem de lucro para o motorista. Ele não pode pegar passageiros que vão para outro lugar diferente do endereço de trabalho cadastrado. Além disso, as corridas estão limitadas a duas por dia: uma para ir, outra para voltar do trabalho.

Por mais que o novo serviço seja diferente de um serviço de táxi, uma vez que não tem por objetivo contratar motoristas para o transporte de passageiros, ele pode gerar competição com táxis e com o Uber, por fornecer uma alternativa de baixo custo, ou por servir como opção para aqueles que preferem socializar com colegas de trabalho da mesma empresa durante o trajeto casa-trabalho. Portanto, é natural se esperar que o novo serviço sofra algum tipo de tentativa de censura e repressão, assim como enfrenta o Uber na maioria das praças em que o serviço é lançado.

O rápido crescimento dos serviços de corrida compartilhada por aplicativos tem forçado mudanças fundamentais em um setor antigo e tradicionalmente protegido da competição pela regulação. O que se observa são batalhas entre atores que seguem um mesmo padrão: uma empresa startup entrega um novo serviço criativo e inovador que nasce quebrando regras antigas e segue ignorando estas mesmas regras até obter uma grande massa crítica de clientes satisfeitos. Os prestadores do antigo serviço, desacostumados com um ambiente de competição, passam a pressionar os formadores de opinião e reguladores para tentar encerrar os novos serviços inovadores. As empresas inovadoras e seus clientes satisfeitos contra-atacam, criticando os reguladores. Este ciclo se repete até que se chegue a um consenso, uma solução regulatória que, usualmente, não é um Ótimo de Pareto.

Na visão tradicional de modelo regulatório, normalmente utilizada pelo governo na regulação do mercado privado, a autorização prévia ou licença para prestação do serviço é utilizada como ferramenta básica. Assim funciona, por exemplo, com as licenças emitidas pela ANATEL quando um provedor quer começar a prestar um serviço de internet em banda larga e precisa de uma licença de Serviço de Comunicação Multimídia (SCM) para iniciar suas operações. A abordagem da regulação é impor o controle prévio dos atores por meio da imposição de altas barreiras de entrada.

Entretanto, para os novos serviços de tecnologia prestados sobre plataformas de comunicação e sobre a internet, este modelo não funciona. A maioria desses serviços não teria o sucesso que têm hoje se tivessem de pedir permissão para iniciar suas operações. Suas ideias simplesmente não teriam sido colocadas à prova. Na verdade, umas das principais inovações trazidas por estas plataformas é justamente a capacidade de se autorregularem, adaptativamente e em escala. A partir da grande quantidade de dados em tempo real disponíveis, os próprios provedores do serviço passam a fazer sua regulação. Esta realidade já é observada hoje pelo Uber. Por meio de um sistema que analisa uma grande quantidade de informação (as avaliações dos usuários finais do serviço), o Uber regula sua relação com seus motoristas, utilizando as informações disponibilizadas pelos usuários para forçar um padrão de atendimento e de comportamento aceitável. Esse processo se repete para grande maioria dos novos serviços solicitados por meio de aplicativos.

Nesse sentido, a pergunta que se faz é como implementar a regulação destes novos serviços? A questão, ainda sem resposta definitiva, nos traz também uma certeza: não será utilizando o modelo ultrapassado de barreiras de entrada criado no século passado. Os processos e modelos regulatórios devem ser transformados para adotar a ampla quantidade de dados disponíveis hoje, num modelo similar ao utilizado pelas empresas de inovação para regular seus parceiros.

O novo modelo deve oferecer um trade-off entre as partes, propondo uma relação “ganha-ganha” entre regulados e reguladores: por um lado, ele deve oferecer menores barreiras de entrada a empresas que queiram ingressar no mercado por meio da inovação, garantindo uma maior liberdade de operação para startups. Por outro, deve prever uma relação de maior cooperação dos regulados para com os reguladores, com mais transparência e, principalmente, com acordos de compartilhamento de informações com o poder público em caso de problemas específicos, como uma grande concentração de reclamações dos usuários ou em casos de crimes e infrações às leis nacionais.

Enquanto não houver consenso sobre as premissas acima entre as partes interessadas, vamos continuar tentando regular serviços inovadores da mesma forma que se iniciou a regulação de serviços de infraestrutura básica como energia elétrica, água e esgoto. As propostas de regulamentação dos serviços de transporte por aplicativo atualmente se baseiam, quase que majoritariamente, na cobrança de uma licença anual e um valor por quilômetro rodado. A proposta resolve apenas em parte o problema, pois acaba com o argumento de ilegalidade que paira atualmente sobre o Uber. Porém, certamente não é uma solução ideal, pois faz da barreira à entrada o ponto principal da regulamentação. Um serviço de carona solidária como o Waze Carpool, que propõe apenas um compartilhamento de custos entre os usuários dos serviços, poderia não resistir a uma cobrança destas, proposta por este modelo de regulação. Neste caso, estaríamos diante do cenário mais temerário a respeito deste tema: ao invés de termos um serviço inovador atuando às margens da lei, estaríamos diante de uma regulação anacrônica que inibe e atrapalha a inovação e a criação de novos serviços tecnológicos.

Post5_Waze_Carpool_FigUnica

O que pode estar por trás da limitação da banda larga fixa

A imposição de franquias de uso de dados por parte dos provedores de banda larga fixa gerou discussões acaloradas nos últimos dias. Enquanto as grandes operadoras defendiam a ideia de limitação do consumo com base na expansão do uso de serviços intensivos em banda e no congestionamento das redes, usuários e associações de defesa dos consumidores passaram a protestar veementemente contra a proposta. Nem mesmo dentro do órgão regulador do setor parece haver consenso: depois de ver seu próprio presidente anunciar que a era da internet ilimitada havia acabado, a Anatel voltou atrás e anunciou a proibição do corte e redução da velocidade da internet fixa ao término da franquia.

O setor de banda larga fixa no Brasil apresenta uma grande concentração: as três maiores operadoras de banda larga fixa do Brasil – Oi, Vivo e Claro – detêm 86% dos usuários. Impulsionadas pela sinergia dos investimentos e pela concorrência no mercado, estas empresas oferecem também os serviços de telefonia fixa e móvel e TV por assinatura.

Ao analisarmos o contexto desses serviços, percebemos os grandes desafios pelos quais passam as operadoras. O serviço de voz fixa tem apresentado sucessivas quedas na receita: entre 2005 e 2010, a receita agregada do setor caiu 8%; entre 2010 e 2015 a queda foi de 22%. Os serviços de TV por assinatura e de voz móvel, por sua vez, passaram a sofrer forte concorrência dos serviços de streaming de dados e voz sobre IP, como Netflix e Whatsapp. Talvez por estes motivos, o serviço de banda larga fixa se tornou o de maior importância para as operadoras. Por apresentar demanda crescente, sobretudo por servir de camada de transporte para os serviços e aplicações intensivos em banda altamente requeridos pelo mercado, este serviço tem tudo para se tornar o principal item da cesta de serviços das operadoras. A partir de 2015 os serviços de voz deixaram de ser a principal receita do setor de telecomunicações no Brasil (Figura 1).

Figura 1 – Receita Líquida das operadoras, por serviço prestado

image (1)

Fonte: Teleco

Porém, tentar vender a necessidade de restringir a internet ilimitada em função do congestionamento das redes é argumento convenientemente mal colocado. Na verdade, o que as operadoras buscam é uma nova forma de monetizar um serviço que tem um custo fixo elevado. Não há, atualmente, evidências claras de esgotamento da infraestrutura de rede, a não ser em alguns pontos isolados e regiões mais afastadas. Porém, a queda na receita, em especial nos serviços de voz, é evidente e significativa.

Assim, a proposta de mudança na composição dos planos apenas mostra que as operadoras estão atentas às demandas do mercado: até então, a venda do serviço se baseava basicamente na velocidade do acesso. Neste sentido, uma banda larga de, digamos, 15Mbps tinha muito mais valor para o consumidor do que uma banda larga de 2Mbps. Porém, à medida que a oferta de velocidades mais altas cresce, o interesse do usuário se altera: perde importância a velocidade do acesso e ganha importância a quantidade de dados consumidos. Trata-se de uma manifestação clara do conceito econômico da Lei da Utilidade Marginal Decrescente. Portanto, faz todo o sentido para as operadoras alterar a composição dos seus pacotes de serviços, incorporando a franquia de dados consumidos como ponto chave para a escolha do consumidor.

Entretanto, analisando-se especificamente o caso brasileiro, a imposição de franquias de consumo de dados para a banda larga fixa apresenta dois problemas: do ponto de vista finalístico, limitar o acesso a serviços intensivos em banda pode gerar desestímulos à inovação e a novos serviços prestados sobre a rede, algo essencial para o aumento da produtividade e da competitividade de que a economia brasileira tanto precisa. Os agentes do setor devem entender que a natureza da conexão à internet mudou: ela deixou de ser uma simples ferramenta de comunicação para se tornar uma forma de consumo e transferência de dados, de informação. Do ponto de vista regulatório, essa limitação nada mais é do que uma forma disfarçada de discriminação de tráfego pelas operadoras, ponto que foi exaustivamente debatido à época da aprovação do Marco Civil da Internet, regulamentado pela Lei 12.965/2014, e proibido por essa lei.

Os debates mencionados colocaram frente a frente dois grupos de interesse. De um lado, as operadoras de telecomunicações, interessadas em aprovar a possibilidade de discriminação de tráfego na rede. Segundo a sua proposta, as operadoras poderiam tratar de forma diferenciada na rede os pacotes de dados que transportam aplicações de streaming e os pacotes de dados que transportam um simples e-mail. Esta possibilidade de discriminação deixaria uma porta aberta para que as operadoras pudessem ofertar ao público pacotes de dados diferenciados: uns mais simples e mais baratos, que não dariam direito de acessar os serviços de streaming de vídeo, e outros mais completos, com acesso a todo tipo de aplicação, porém muito mais caros.

Do outro lado do embate estavam os principais provedores de conteúdo, que defendiam a neutralidade da rede: todos os pacotes de dados deveriam ter tratamento isonômico no transporte pelas operadoras, não podendo sofrer discriminação por conteúdo, origem, destino ou aplicação.

No debate, venceu a neutralidade de rede: o Marco Civil da Internet, aprovado pelo Congresso Nacional, veda o tratamento diferenciado dos dados em seu artigo 9º. A norma prevê a possibilidade de discriminação, após consulta aos órgãos reguladores como a Anatel, em apenas dois casos únicos: por priorização dos serviços de emergência e por requisitos técnicos indispensáveis à prestação dos serviços. Não há previsão na lei para a possibilidade de discriminação do tráfego pelo aumento do consumo de serviços intensivos em banda pelos usuários, ou mesmo para compensar as perdas de receita com os serviços de voz das operadoras. Portanto, a limitação do acesso ao serviço de banda larga fixa ao término do consumo da franquia é essencialmente ilegal, por ferir o marco civil da internet. Segundo ele, a única justificativa para o bloqueio do serviço é a inadimplência do consumidor.

A discriminação do tráfego (e, consequentemente, de preços) e a existência de planos com franquia fazem sentido para mercados maduros e em que haja ambiente de competição entre prestadores. Com uma ampla oferta de planos e prestadores, o consumidor pode escolher o que melhor se adapta às suas necessidades. Não é o caso, porém, do mercado brasileiro: com um mercado concentrado em três grandes prestadores de serviço, a discriminação de preços vai apenas aumentar o excedente do produtor, sem aumentar o número de usuários do serviço, além de prejudicar sua universalização, uma vez que os impactos serão sentidos com mais intensidade pelos usuários de mais baixa renda e pelos pequenos negócios.

Portanto, a atual discussão está servindo para deixar cada vez mais clara a necessidade de se atualizar o modelo regulatório das telecomunicações no Brasil. O modelo de concessão atual deve e precisa mudar: não faz sentido manter o serviço de voz fixa sob concessão, pois a importância e o interesse pelo serviço diminuem a cada dia entre a população. Por outro lado, faz muito mais sentido instituir o serviço de internet banda larga no modelo de concessão, uma vez que este serviço é o de maior demanda pela população atualmente, não é prestado em condições satisfatórias e similares em todo o território e é visto mundialmente como fator transformador social e, especialmente, econômico.

Um novo marco regulatório é essencial para destravar investimentos e diminuir a concentração do mercado. Hoje, os grandes provedores, em especial os concessionários, adiam investimentos em infraestrutura de rede, pois não há uma definição clara sobre a reversibilidade dos bens ao término dos contratos de concessão. Por outro lado, os pequenos provedores atuam apenas em cidades do interior, onde não há oferta adequada dos grandes provedores. Em virtude disto, os provedores cobram preços altos da parcela menos assistida da população.

Com um novo modelo que reconheça a importância dos pequenos provedores e dê, tanto a pequenos, como a grandes provedores, melhores condições de atuação, o Brasil poderá alcançar a maturidade no setor e, com isso, passar a prover um ambiente em que planos com e sem franquia de dados possam conviver harmonicamente com as necessidades dos consumidores.

Figura 2 – Distribuição de Receitas das Operadoras

RLOp

Fonte: Teleco.

Por que o novo marco regulatório das telecomunicações importa?

Nos últimos anos, muito tem se discutido sobre a necessidade de um novo marco regulatório das telecomunicações. A atenção que o tema tem recebido nos remete a uma dúvida básica: o que significa um marco regulatório? De acordo com a doutrina majoritária, marco regulatório é um conjunto de normas, leis e diretrizes que regulam o funcionamento dos setores nos quais agentes privados prestam serviços públicos. Além de estabelecer regras e indicadores de qualidade para o funcionamento de um setor, o marco traz um conjunto de instrumentos para garantir a execução de normas (auditorias e procedimentos de fiscalização).

No caso das telecomunicações, o marco regulatório atual é a Lei 9.472/97, também conhecida como a Lei Geral das Telecomunicações (LGT). Esta lei definiu em linhas gerais o novo modelo institucional das telecomunicações no Brasil após as privatizações do setor, sendo também responsável pela criação da Agência Nacional de Telecomunicações – ANATEL, órgão regulatório e fiscalizador das telecomunicações no Brasil.

Com as privatizações das telecomunicações, o Brasil passou à iniciativa privada o protagonismo para o desenvolvimento do setor no país, por meio de concessões. Considerando que o principal serviço de telecomunicações à época era o de telefonia fixa (STFC), fazia-se necessária a criação de um marco regulatório que trouxesse mecanismos para assegurar a universalização e a continuidade do serviço STFC pelas empresas privadas. Neste sentido, o marco regulatório foi eficiente porque, por um lado, possibilitava ao poder público o exercício do controle das tarifas e, por outro, dava segurança às empresas de que os objetivos de modicidade tarifária e de universalização seriam buscados, respeitando o equilíbrio econômico-financeiro da concessão.

Uma das maiores polêmicas no atual marco regulatório das telecomunicações reside no que a lei chama de bens reversíveis, que são aqueles usados na prestação do serviço e que serão revertidos ao poder público ao término da concessão, independentemente de terem sido transferidos ao concessionário ou de terem sido por ele incorporados durante a execução do contrato de concessão. Em 2013, a ANATEL estimava existir oito milhões de bens reversíveis, avaliados em R$ 105 bilhões. Grande parte da polêmica reside no fato de não existir uma definição clara, nem pela lei, nem pela ANATEL, de quais são estes bens. Os contratos de concessão classificam como bens reversíveis “todo bem que é essencial para prestação do serviço”. A partir desta vaga definição, a agência fez uma lista exaustiva, que incluiu, por exemplo, os sete mil prédios da operadora Oi.

Embora, nessa lista, as atenções se voltem sempre para os imóveis, para a prestação do serviço o mais importante é a rede de telecomunicações. Com relação a ela, o posicionamento majoritário dos formadores de opinião da agência é de classificar como bem reversível qualquer equipamento ou infraestrutra pelos quais passaram um “bit de voz”. Isto significa que todas as redes construídas pelas operadoras durante a concessão seriam repassadas ao Estado ao final dos contratos.

Este posicionamento da agência é arriscado. As redes de banda larga fixa, sobretudo as residenciais, baseadas na tecnologia ADSL, evoluíram a partir das redes de cabos metálicos, lançadas pelas empresas públicas antes da privatização, para atendimento residencial do serviço de voz fixa. Se por um lado esse serviço tem caído em desuso, o serviço de internet banda larga é hoje o principal interesse dos consumidores. E aqui é que mora o problema: o serviço de internet em banda larga não é um serviço público concedido a uma empresa privada. Ele é um serviço privado, que pode ser prestado com apenas uma autorização da ANATEL (uma licença de Serviço de Comunicação Multimídia – SCM). Todavia, de acordo com o entendimento da agência, se uma concessionária utiliza uma mesma infraestrutura para prestação dos dois serviços (STFC e SCM), essa infraestrutura é considerada um bem reversível.

O problema associado a essa situação é que, à medida que os contratos de concessão se aproximam do fim – faltam apenas 10 anos para seu término –, menos suscetíveis estarão os agentes privados a investir em infraestrutura para prestação do serviço, uma vez que existe incerteza sobre a propriedade dos bens após o término dos contratos (e eles não poderão ser renovados, de acordo com o marco regulatório atual). Se estes investimentos estivessem associados apenas ao serviço de voz fixa, talvez o problema fosse menor. Porém, eles afetam diretamente os serviços de internet banda larga, de grande importância atualmente, e para o qual se exige uma grande quantidade de investimentos, não só para universalização, como para expansão da qualidade do serviço nos locais onde ele já é oferecido.

À época da privatização das telecomunicações, o valor da telefonia fixa para o consumidor era bastante elevado: existia uma grande demanda reprimida para a qual o governo, enquanto provedor público do serviço, não conseguia assegurar a oferta. Porém, o que se observa atualmente é uma enorme perda de valor desse serviço. No Brasil, segundo dados da PNAD 2013, apenas 2,4% das residências possuíam o telefone fixo como o único acesso da residência. Esse número era de 27,9% em 2001 (ver gráfico abaixo). Por outro lado, percebe-se um aumento na quantidade de domicílios que possuem apenas o telefone celular como acesso telefônico do domicílio: os números saltam de 7,8% em 2001 para 54% em 2013. Os números mostram uma tendência de substituição do telefone fixo pelo móvel por motivos diversos: custos mais baixos, mobilidade, maior gama de serviços de valor agregado, etc.

Post3_Marco_Regulatorio_Tiago_v3_Fig1

Figura 1 – Penetração dos Serviços de Telefonia – PNAD 2013 (teleco.com.br)

Portanto, fica claro que uma simples renovação do modelo de concessão, nos moldes atuais, não seria atraente para o setor privado. Sob a óptica governamental, se na promulgação da LGT a principal preocupação era a universalização do STFC, ao longo dos últimos anos, as políticas públicas para o setor de telecomunicações têm tido seu foco alterado para a promoção da expansão da banda larga. Na última década, o governo tem promovido ações como o Programa Banda Larga nas Escolas, que trocou metas de instalação de orelhões pela instalação de banda larga nas escolas públicas. Também merece destaque o Plano Nacional de Banda Larga (PNBL), que tem por meta democratizar o acesso à internet no país. Portanto, o mais provável é que o novo marco regulatório tenha uma relação estreita com a banda larga, apresentando metas para sua universalização.

A necessidade de se atualizar o marco regulatório das telecomunicações brasileiras é premente. Porém, deve-se ficar atento às discussões a respeito do tema. Atualmente, muitos defendem uma maior regulação dos provedores de conteúdo: hoje eles são classificados como provedores de serviço de valor agregado e não são regulados. A justificativa por mais regulação, especialmente por parte dos concessionários, é que os provedores de conteúdo têm acesso direto aos seus clientes, entregam a eles seus serviços de conteúdo utilizando a rede de acesso instalada pelas concessionárias, muitas vezes competindo com elas com serviços de voz sobre a internet, mas não contribuem com os investimentos de ampliação e expansão da rede. Portanto, pode fazer sentido um pouco de regulação para promover uma competição justa entre as partes, de forma a manter o equilíbrio do mercado.

Por outro lado, não se pode deixar de reconhecer que os provedores de conteúdo são grandes contribuidores para a disseminação da informação, tendo sua contribuição reconhecida para diminuição da assimetria de informação em nossa sociedade, seja qual for o campo do conhecimento. Por este motivo, qualquer nova regulação discutida deve buscar preservar o livre acesso dos cidadãos a estes conteúdos e provedores para que possamos ter uma sociedade mais informada, consciente de seus direitos e obrigações cívicas.

Por mais importante que seja a revisão do marco regulatório das telecomunicações, principalmente em razão das questões de investimentos abordadas, a discussão e votação de um novo marco na situação de instabilidade política vivida atualmente é preocupante: ao analisarmos o contexto atual dos principais stakeholders do processo, vemos, de um lado, um Poder Executivo em crise fiscal, que vê o novo marco regulatório como uma oportunidade de aumentar a arrecadação com a renovação das concessões. De outro, vemos um Poder Legislativo pouco disposto a debates sobre temas não relacionados ao impeachment. Diante destas circunstâncias, o desenvolvimento de um novo marco regulatório pode não contar com a devida atenção e o devido debate que o tema exige para criação de um marco que atenda às demandas de concessionários, governo e usuários do serviço.

Qual a relação entre o setor de Tecnologia da Informação e Comunicação e o desenvolvimento econômico?

Desenvolvimento econômico e crescimento de longo prazo têm suas origens, usualmente, na inovação e no aumento da produtividade. A caracterização da produtividade e seu aumento contínuo como um fator determinante do desenvolvimento econômico é um fato estilizado da economia: um grande número de estudos mostra que diferenças no crescimento da produtividade são responsáveis não só pela variação na taxa de crescimento dos países ao longo do tempo, mas também pela diferença no nível de desenvolvimento deles.

Neste sentido, o objetivo deste post é avaliar qual a contribuição do setor de TIC para o desenvolvimento econômico dos países. Como este setor é conhecido por sua inovação constante e por fornecer significativos ganhos de produtividade, há de se esperar alguma correlação positiva entre o setor de TIC de um país e seu grau de desenvolvimento econômico. Para avaliar esta correlação quantitativamente, optou-se por calcular o coeficiente de correlação de Pearson utilizando as seguintes variáveis: como medida do setor de TIC, utilizou-se o Networked Readiness Index (NRI); como medida de desenvolvimento econômico, foi utilizado o conceito de densidade industrial.

O coeficiente de correlação de Pearson é uma medida do grau de relação linear entre duas variáveis quantitativas. Calculando-se o coeficiente de correlação entre duas variáveis, podemos avaliar não só se elas estão relacionadas, mas também qual a intensidade desta relação. O coeficiente varia entre -1 e 1. Quanto mais próximo dos extremos, mais correlacionadas as variáveis estão: ou seja, o crescimento de está associado ao crescimento da outra. O sinal indica se a correlação observada é direta ou inversa (se elas crescem no mesmo sentido ou em sentidos opostos).

O Networked Readiness Index (NRI) é um índice desenvolvido pelo Fórum Econômico Mundial para medir o nível de preparo tecnológico das economias. Seu objetivo é avaliar o grau de propensão dos países analisados para explorar as oportunidades oferecidas pelo setor de TIC, possibilitando, com isso, identificar áreas de prioridade para alavancar o desenvolvimento. Por ser considerado o indicador mais abrangente na avaliação das tecnologias da informação e comunicação dos países analisados, ele pode ser considerado um bom indicador de medida do grau de desenvolvimento do setor de TIC de um país. O índice foi abordado de forma mais abrangente em um post anterior.

A densidade industrial é uma medida que reflete a razão entre o valor adicionado da indústria de um país e sua população total. O conceito de densidade industrial busca identificar a capacidade e o interesse de um país em mobilizar seus recursos produtivos para promover o desenvolvimento industrial. O diagrama de espaço indústria, mostrado na Figura 1 abaixo (e explorado em post anterior), descreve a trajetória do desenvolvimento industrial dos países, utilizando um gráfico de três dimensões: densidade industrial, participação da indústria no PIB e participação dos serviços comerciais no PIB. O diagrama é dividido em quatro regiões distintas: R1, R2, R3 e R4.

Figura 1 – Diagrama Espaço Indústria

Diagrama Espaço IndustriaFonte: Arbache (2014).

Em geral, os países iniciam sua trajetória rumo ao desenvolvimento industrial na região R1. Nesta região, a densidade industrial é baixa, a participação da indústria no PIB é pequena e a participação dos serviços no PIB também é baixa. Logo, pode-se concluir que os países em R1 são essencialmente agrários, com grande parte do PIB vindo da agricultura. Com a chegada à região R2, os países alcançam o primeiro estágio de desenvolvimento industrial: indústrias de base, manufaturas de baixo valor adicionado e serviços de custo ganham importância na economia: a participação da manufatura no PIB cresce, mas a dos serviços comerciais é baixa.

O grande salto para o desenvolvimento é observado na transição da Região R2 para R3. Neste estágio, a densidade industrial passa a crescer rapidamente e vem acompanhada do aumento da participação dos serviços comerciais no PIB. A indústria passa a produzir bens mais sofisticados, que começam a requerer serviços profissionais especializados no processo de produção. Em virtude disso, a participação da indústria no PIB tende a diminuir: parte dos serviços da linha montagem industrial, até então executados internamente pela própria indústria, passam a ser terceirizados para empresas de serviços comerciais mais especializadas. É justamente neste ponto que começam a aparecer os serviços de outsourcing.

Finalmente, a região R4 é caracterizada pelo estágio mais avançado do desenvolvimento industrial (o qual poucos países alcançam). Nela, a densidade industrial continua a se expandir, juntamente com a demanda por serviços comerciais. Como consequência, a participação da indústria tende a declinar ainda mais, indicando uma intensa participação do setor de serviços profissionais na indústria, visando à produção de bens cada vez mais sofisticados: bens e serviços passam a se combinar para criar um terceiro produto, que não é um bem industrial tradicional, nem tampouco um serviço convencional. Os exemplos vão desde smartphones e tablets (nos quais os serviços de software compõem a maior parte do valor agregado) até mesmo carros e apartamentos do século XXI (com seus computadores de bordo e softwares de automação residencial).

Se, empiricamente, podemos esperar uma correlação positiva entre densidade industrial e serviços comerciais e profissionais, podemos esperar que esta correlação se manifeste também entre a densidade industrial e o setor de TIC. Este comportamento foi de fato observado avaliando-se os valores dos coeficientes de correlação calculados, apresentados na Tabela 1 abaixo.

Tabela 1 – Coeficiente de Correlação de Pearson para NRI e Densidade Industrial – 2012 a 2014

Coeficientes Correlação NRI-DIFonte: Elaboração própria a partir de dados do Banco Mundial e do Fórum Econômico Mundial.

Como era de se esperar, a correlação calculada é positiva e bastante forte. O resultado indica que os conceitos e indicadores por trás do NRI estão fortemente correlacionados com a densidade industrial dos países. Como o conceito de densidade industrial é uma medida de desenvolvimento econômico, o resultado nos leva a crer que o setor de TIC pode ter papel importante no desenvolvimento econômico dos países. Consequentemente, dar atenção especial ao setor de TIC pode ser um caminho interessante para o desenvolvimento.

O Brasil precisa pensar políticas públicas de desenvolvimento econômico que levem em conta o setor de serviços, que hoje representa 75% do PIB nacional. O tempo de se negociar acordos de comércio pensando em commodities e subsídios agrários ficou para trás: o país precisa pensar em como transformar seu setor de serviços, hoje essencialmente focado em serviços de custo de baixo valor agregado e de baixa produtividade, em um setor de serviços comerciais sofisticados, de alto valor agregado. Para tanto, reformas estruturantes (política, administrativa, tributária) são necessárias para que não só o setor de TIC volte a crescer, mas principalmente para que os setores demandantes de soluções de TIC também voltem a crescer, impulsionando assim a inovação e o desenvolvimento do país.

O Setor de TIC no Brasil e o Networked Readiness Index (NRI) do Fórum Econômico Mundial

O Fórum Econômico Mundial, em parceria com pesquisadores das universidades de Cornell e INSEAD, publica anualmente, desde 2001, uma série chamada Global Information Technology Report (GITR). O relatório apresenta um panorama global anual do setor de Tecnologia da Informação e Comunicação (TIC). São avaliados, sob o ponto de vista das tecnologias da informação, cento e cinquenta e dois países. O processo de avaliação é efetuado por meio de um índice desenvolvido para medir o nível de preparo tecnológico das economias avaliadas. Este índice é denominado Networked Readiness Index (NRI) e seu principal objetivo é avaliar o grau de propensão dos países analisados no relatório para explorar as oportunidades oferecidas pelo setor de TIC, possibilitando, com isso, identificar áreas de prioridade para alavancar o desenvolvimento.

Nesse sentido, o GITR é tido como a mais compreensiva avaliação de como as TICs impactam a competitividade e o bem-estar das nações e suas populações. O NRI, medido em uma escala que varia de 1 a 7, é composto por quatro categorias principais, dez pilares e cinquenta e três indicadores. Ele avalia não só o grau de desenvolvimento da infraestrutura dos países, mas também o cenário ambiental para o desenvolvimento de novas tecnologias, bem como o quanto elas estão integradas à vida e ao cotidiano da sociedade. As quatro categorias principais do NRI são:

  1. Categoria Ambiental: avalia as condições do ambiente de mercado e a estrutura regulatória dos países. Indicadores: efetividade do corpo legislativo, número de dias para se abrir um negócio;
  2. Categoria do Preparo: avalia a infraestrutura e se ela favorece a captação e o desenvolvimento do setor de TIC. Indicadores: cobertura da rede móvel celular, tarifas do setor de TIC (telefonia, banda larga);
  3. Categoria do Uso: avalia a adoção das TICs pelos principais stakeholders que compõem a sociedade. Indicadores: número de assinaturas de banda larga residenciais, índice de serviços de governo online;
  4. Categoria do Impacto: avalia a efetividade e o impacto econômico e social derivados do setor de TIC. Indicadores: Impacto das TICs no acesso a serviços básicos, acesso à internet nas escolas.

O Brasil ocupa atualmente a 84ª posição no ranking do NRI. A posição é bastante baixa, tendo-se em vista que o país está entre as dez maiores economias do globo. Comparando-o com seus similares, o Brasil aparece à frente apenas da Índia, quando comparado entre os BRICS. A Rússia, país com dimensões similares e com desafios de infraestrutura também parecidos, aparece consideravelmente à frente do Brasil, na 41ª posição do ranking.

Avaliando-se o NRI do Brasil aberto, percebemos que os maiores ofensores estão nos indicadores da categoria ambiental: a efetividade do corpo legislativo é avaliada como ruim, com 2,54 pontos de um total de 7. A Rússia possui 3,58 pontos neste quesito, enquanto a África do Sul possui 4,12. O indicador de número de dias para se abrir um negócio também é muito impactante para o Brasil: 83 dias, enquanto Rússia (11,2) e África do Sul (19) apresentam números abaixo de 20 dias. A alta carga tributária brasileira também desponta como um dos principais ofensores: por aqui, ela alcança 69% dos lucros das empresas; na África do Sul, 28,8%.

O Brasil também apresenta resultados ruins na categoria do impacto. Analisando-se os impactos econômicos, temos um número de patentes PCT (Patent Cooperation Treaty) no setor de TIC extremamente baixo, consequência direta do baixo incentivo à pesquisa e o baixo investimento em P&D no país. O percentual de empregos intensivos em conhecimento também é baixo no Brasil: 21% do total. A Rússia possui 43%. Esse resultado é consequência direta da queda da participação da indústria no PIB brasileiro, bem como da dominância do setor de serviços, formado basicamente por serviços de custo, pouco desenvolvidos. Hoje, o setor é responsável por mais de 70% do PIB e por 80% da mão de obra no Brasil.

Analisando-se os impactos sociais, temos um número baixo de escolas públicas conectadas à internet no Brasil. Além disso, a qualidade da conexão das escolas já conectadas pode ser considerada ruim. Outro indicador de impacto social, o do uso das TICs para eficiência governamental, também deixa a desejar. Prova disso é o recente caso do site e-social, criado para simplificar a emissão de guias tributárias do simples doméstico para o cidadão, e que ganhou destaque na imprensa pelos problemas apresentados e pela ineficiência em prestar o serviço a que foi proposto.

Assim, por tudo que foi aqui exposto, podemos afirmar que o desenvolvimento do setor de TIC vai muito além da melhoria da infraestrutura como a expansão da banda larga e da cobertura móvel celular, por exemplo. Hoje, os principais ofensores brasileiros estão nas categorias ambiental e de impacto, o que demonstra claramente um problema de coordenação. O país precisa de reformas: política, para tentar reverter o quadro de inefetividade de seu corpo legislativo; administrativa, para rever a burocracia que hoje sufoca o empreendedorismo; tributária, para diminuir a alta carga de impostos que sufoca indústria, comércio e contribuintes; dentre outras.

De nada vai adiantar alcançar 100% do território nacional com fibras ópticas e cobertura celular se esta infraestrutura não for aproveitada pela sociedade como um vetor para o desenvolvimento e para a transformação social. O setor de TIC só pode ser considerado efetivamente desenvolvido se, além de alcançar a maior parte dos usuários, também for utilizado para melhorar o acesso da população aos serviços básicos, melhorar a disseminação da informação na sociedade e criar novas oportunidades de emprego, funcionando como um catalisador de inovação e retroalimentando o sistema em busca de novas tecnologias e novos serviços, formando assim um círculo virtuoso.

PAÍS RANKING 2015 NRI 2015
Cingapura 1 6,02
Finlândia 2 6,00
Suécia 3 5,84
Holanda 4 5,80
Noruega 5 5,76
Suíça 6 5,68
Estados Unidos 7 5,64
Reino Unido 8 5,62
Luxemburgo 9 5,62
Japão 10 5,60
Rússia 41 4,53
China 62 4,16
África do Sul 75 3,99
Brasil 84 3,85
Índia 89 3,73

 

Tiago XavierTiago Xavier é engenheiro eletricista graduado pela Universidade de Brasília em 2003. Com sua formação voltada para a área de telecomunicações, trabalha há mais de dez anos com Tecnologia da Informação e Comunicação (TIC), com atuação em diversas empresas privadas e públicas.

 

© 2017 Economia de Serviços

Theme by Anders NorenUp ↑