Economia de Serviços

um espaço para debate

Tag: Internet (page 1 of 3)

Cidades Inteligentes

O desenvolvimento das cidades se dá pelo acúmulo no espaço dos resultados sucessivos decorrentes de múltiplos e heterogêneos agentes que interagem entre si e com o seu meio. Nessas interações, indivíduos e empresas decidem estrategicamente suas ações mediando suas expectativas de pay-off com o conjunto de informações que os mesmos extraem do contexto onde estão inseridos.

Tais informações podem ser referentes às características e comportamentos dos demais agentes, à disponibilidade de recursos e as condições para acessá-los visando o alcance dos resultados desejados, às instituições (formais e informais) que regulam as relações sociais e econômicas da sociedade, às restrições impostas pelo meio físico (natural e construído), às forças políticas que atuam no ambiente, etc. Todas esses pedaços de informação se juntam formando um todo que configura um determinado espaço.

Uma característica dos agentes é que nas suas múltiplas rodadas de interação eles aprendem com a experiência, adquirem novas informações e modificam e adaptam suas estratégias e suas ações, o que produzirá cumulativamente no espaço novos resultados e novas informações, as quais, por sua vez, deverão ser processadas pelos agentes. Assim, na medida em que as cidades crescem, mais complexo se torna o ambiente, como nas regiões metropolitanas, ficando cada vez mais difícil o conhecimento e o processamento de todas as informações que o ambiente está constantemente produzindo.

Considerando a limitada capacidade do ser humano para processar quantidades gigantescas de informação, esse processamento é muito difícil também para aqueles que atuam no planejamento e na gestão das cidades, haja visto que elas podem evoluir tais como organismos vivos, muitas vezes sofrendo mutações no meio do caminho e mudando o curso do que foi planejado. Informação incompleta e planejamento baseado em tendências do passado que não necessariamente irão continuar no futuro muitas vezes produzem políticas públicas insuficientes ou inócuas para garantir um desenvolvimento urbano sustentável. Mudanças repentinas de rumo, em geral, não são bem aceitas pelos planejadores.

Ferramentas e sistemas digitalizados já são utilizados há algum tempo para tentar lidar com as informações relativas ao espaço urbano, cruzando dados georreferenciados, sobrepondo mapas, localizando infraestruturas, etc.; de modo a orientar a tomada de decisão no planejamento e na gestão das cidades. No entanto, as novas tecnologias digitais (internet das coisas, computação em nuvem, conectividade entre equipamentos, big data, inteligência artificial, internet de alta velocidade, etc.), tem oferecido um novo conjunto de soluções para lidar com a dinâmica da vida nas cidades, manejando um conjunto crescente de informações e elevando a um novo patamar o planejamento das cidades e a gestão na prestação de serviços públicos.

Por exemplo, o monitoramento em tempo real de atividades nas áreas públicas, de funcionamento de serviços públicos e o cruzamento simultâneo de informações de diversas fontes em bases territoriais oferecem a oportunidade para que o gestor público responda com mais agilidade a eventos fortuitos, tomando decisões mais seguras e rápidas.

Essas mudanças caracterizam, grosso modo, o surgimento das Cidades Inteligentes (Smart Cities) que, basicamente, podem ser descritas como cidades nas quais o aumento da capacidade de integração de dados e processamento de informações nos processos de planejamento e gestão das políticas públicas permitidas pelas tecnologias digitais, aumenta a eficiência e a eficácia na prestação de serviços à população e promove um desenvolvimento urbano mais sustentável. Certamente, o foco não é no uso da tecnologia em si, mas na utilidade que o seu uso gera para o cidadão, ao permitir que o poder público atenda as diversas demandas da sociedade com a utilização mais racional e eficiente dos recursos disponíveis, resultando na melhoria da qualidade de vida urbana.

O conceito de Cidades Inteligentes envolve mais elementos do que o simples uso de tecnologias digitais, desde que incorpora também noções de desenvolvimento sustentável, criatividade e inovação, cooperação e engajamento coletivo, participação social, parcerias público-privadas, difusão de conhecimento e co-criação em redes, novas abordagens de ensino e aprendizagem, ganhos de produtividade, clusters tecnológicos integrando indústrias e universidades, transparência e políticas de dados abertos, start-ups, etc. Por trás disso tudo está a organização do espaço físico e virtual tendo o conhecimento e o fluxo de informações como fatores de integração.

A incorporação de ferramentas tecnológicas digitais que permitem a utilização cada vez mais intensa das informações produzidas no dia-a-dia da vida urbana para atacar os principais problemas das cidades já é uma realidade em vários países, e cada vez mais intensa no Brasil.

No mercado já existem tecnologias digitais para transportes e mobilidade urbana, mitigação de congestionamentos com informação de tráfego e navegação em tempo real, semaforização inteligente, cobrança eletrônica de pedágios, sistemas de compartilhamento de veículos, geração de energia renovável e eficiência energética, iluminação pública inteligente, sistemas inteligentes e automatizados de distribuição de energia, abastecimento de água, detecção de perdas e furtos do sistema de abastecimento de água, monitoramento da qualidade da água, monitoramento digital do descarte de lixo, otimização de rotas e coleta seletiva de resíduos sólidos, resiliência e segurança em espaços públicos, mapeamento de crime em tempo real, detecção sonora de disparos de armas de fogo, sistemas avançados de vigilância e reconhecimento facial, sistemas de alertas de emergência de eventos climáticos extremos, aplicativos de alerta pessoais e domésticos, engajamento comunitário e participação social, monitoramento ambiental (temperatura, emissão e redução de gases, umidade relativa, precipitação), dentre outras soluções.

A promoção das cidades inteligentes no Brasil tem crescido atraindo diversos players para o desenvolvimento de soluções para as cidades, o que exige mais investimentos na melhoria da infraestrutura de telecomunicações e internet de alta velocidade no país. Exige também, novas estruturas organizacionais e de governança no setor público. Pouco adiantará soluções tecnológicas integradas se ainda estiverem atreladas a ideias e instituições obsoletas, como a lógica organizacional hierárquica baseada em processos verticais excessivamente formais e burocratizados. Organizações constituídas de unidades autônomas organizadas em redes, adotando processos horizontais, mais ágeis e flexíveis, e soluções integradas por meio do compartilhamento de informações podem garantir melhores resultados na utilização das novas tecnologias digitais.

Cada vez mais o crescimento econômico estará atrelado ao acesso e utilização de informações nos processos produtivos. Indivíduos, empresas e o próprio setor público tomarão suas decisões a partir do processamento de uma quantidade quase infinita de informações o que demanda, além da mencionada melhoria da infraestrutura de IC, investimentos em capacitação.

A capacitação de pessoas já é estratégica, considerando o conhecimento necessário para utilização das novas tecnologias digitais, como utilizar as informações produzidas, a mão-de-obra disponível mais e mais envelhecida e o desaparecimento de algumas profissões com o surgimento de outras novas. Isso será fundamental para não ampliar ainda mais as desigualdades sociais, em especial nas áreas urbanizadas onde a maior parte do PIB é produzida e onde se encontra grande parte da pobreza, comprometendo o próprio desenvolvimento do país. A implementação de cidades inteligentes, no seu conceito mais amplo, será um imperativo cada vez mais forte para a atração de investimentos e mão-de-obra qualificada, para garantir uma maior qualidade de vida nas cidades e para a promoção do desenvolvimento sustentável.

Paulo Ávila é arquiteto e mestre em planejamento urbano pela Universidade de Brasília. Atua profissionalmente na área de planejamento urbano e regional, com ênfase em aspectos econômicos do espaço urbano. Foi professor no Curso de Arquitetura e Urbanismo Universidade Católica de Brasília. Atualmente é Analista de Infraestrutura lotado na Secretaria Nacional de Desenvolvimento Urbano (SNDU) do Ministério das Cidades onde coordena o Programa Nacional de Capacitação das Cidades.

Neutralidade de Redes e o Serviço de Prestação de Acesso à Internet

A Internet está presente em todos os aspectos da vida moderna. Desde o envio de uma simples mensagem de texto até o acesso a serviços essenciais, o acesso à Rede de redes é primordial para a execução de grande parte das nossas atividades cotidianas. Hoje é praticamente impossível imaginar “uma vida sem Internet”. Mas nem sempre o uso do serviço de acesso à Internet acontece de maneira satisfatória. Para um usuário de Internet, termos como “site indisponível”, “travar”,“lag” “velocidade lenta” também fazem parte da experiência de uso do acesso à Internet. O que imensa maioria dos usuários desconhece é que existe um princípio que garante o livre acesso à Internet e que este acesso não deve ser passível de interferências de qualquer tipo pelo provedor do serviço de acesso. Além disso, no Brasil o princípio é assegurado aos usuários por lei. Esse princípio pouco conhecido, mas muito importante, é chamado de Neutralidade de Redes.

O princípio da Neutralidade de Redes tem como objetivo garantir o acesso, amplo e irrestrito, aos usuários finais, por meio de sua conexão de acesso à Internet, a serviços, conteúdos e aplicativos legais e que não sejam prejudiciais à integridade e confiabilidade da rede.[1] O debate sobre Neutralidade de Redes, ao longo de quase duas décadas, tem sido bastante polêmico, em que as várias visões sobre o tema têm sido discutidas até mesmo de forma passional no âmbito acadêmico, empresarial, legislativo e governamental. Os críticos do tema já declaram a sua “morte” e a perda de sua relevância.[2] Apesar de momentos em que o princípio perdeu um pouco do seu apelo, sua importância ressurgiu e considero que o tema permanece pertinente.

A discussão sobre neutralidade evidencia que a ideia original para a Internet, como um ambiente que oferece igualdade de acesso e atuação para todos os usuários, vem sendo contestada pela atuação de alguns agentes, que tentam atuar sobre o acesso, utilização, fornecimento de conteúdo e, efetivamente, introduzir práticas que podem prejudicar a concorrência e os usuários.[3] A garantia do acesso amplo e irrestrito à Internet, que é o centro do princípio de neutralidade, envolve a consideração de diversos subtemas e questões, desde a discriminação de acesso a um site por um provedor de acesso à Internet até a interconexão entre as redes mais amplas e de longa distância da infraestrutura das redes de acesso.

Diante dessa variedade de desafios, cabe observar que é inviável esgotar todas as questões atinentes à Neutralidade de Redes em um único trabalho. Portanto, o foco deste artigo está na relação entre os provedores de acesso à Internet em banda larga, por meio da infraestrutura física fixa, e os provedores de aplicativos, serviços e conteúdo e os usuários. Nesse sentido, a Neutralidade de Redes consiste na garantia de acesso, amplo e irrestrito, aos usuários finais, por meio de sua conexão de acesso à Internet em banda larga fixa, a serviços, conteúdos e aplicativos legais e que não sejam prejudiciais à integridade e confiabilidade da rede.[4] Assim, não serão discutidas aqui questões, igualmente importantes para o debate, tais como privacidade, uso e guarda de dados, inovação, propriedade intelectual, censura a conteúdos específicos, liberdade de expressão, entre outros.

O debate sobre a Neutralidade de Redes e a ocorrência de casos de violação à neutralidade suscitaram a instituição de normas regulatórias em diversos países.[5] Em geral, o objetivo de uma intervenção regulatória de neutralidade consiste em garantir: (i) acesso e utilização, pela livre escolha dos usuários, de qualquer aplicativo, serviço ou conteúdo legal de Internet; e (ii) preservação e fomento da competição entre provedores de serviços de acesso à Internet, provedores de aplicativos,serviços e conteúdo. Em apertada síntese, a preservação da Neutralidade de Redes envolve uma avaliação da necessidade (ou não) de impor limitações sobre interesses privados dos operadores das redes físicas em nome da preservação do bem-estar social inerente à manutenção e desenvolvimento do espaço público que é a Internet.

No Brasil, as primeiras ocorrências de práticas de bloqueio e/ou discriminação de tráfego foram verificadas em 2005, quando provedores do serviço de acesso à Internet tentaram bloquear a oferta de serviços de telefonia via Internet (Voice over Internet Protocol – VoIP).[6] A Telemar foi denunciada por bloqueio do uso do aplicativo Skype nas suas redes de acesso à Internet. À época, os contratos da Telemar com os usuários continham uma cláusula que proibia o uso de qualquer serviço de VoIP. Adicionalmente, consumidores insatisfeitos com tentativas malsucedidas de utilizar o aplicativo Skype apresentaram reclamações à Anatel. A Anatel emitiu nota à imprensa sobre o uso de aplicativos de VoIP, para esclarecer que os contratos de prestação serviços de acesso à Internet em banda larga não poderiam impor restrições à transmissão de nenhum tipo de sinal. A Telemar removeu a cláusula de seus contratos com usuários sem a necessidade de uma intervenção direta da agência.

Em 2006, a GVT apresentou reclamação à Anatel de que a Brasil Telecom estava bloqueando chamadas oriundas de sua rede. A Anatel determinou que a Brasil Telecom cessasse com as práticas de bloqueio. Pode-se afirmar que essas ocorrências levaram ao aumento da preocupação com a possibilidade de práticas de interferência no tráfego e no uso de aplicativos por parte dos provedores de serviço de acesso à Internet. Por fim, a disseminação do serviço de acesso à Internet em banda larga pode ser apontada como um dos fatores que levou ao surgimento de preocupações com a discriminação de tráfego de dados.

Assim, a partir de 2006, a interferência dos provedores de acesso à Internet sobre o tráfego de dados e discriminação entre serviços utilizados por meio do serviço de acesso à Internet passaram a ser relevantes no Brasil. Em 2010, o projeto de lei do Marco Civil da Internet teve origem em projeto do Ministério da Justiça, quando a primeira minuta de projeto foi apresentada à sociedade para discussão. Após um longo período de debates, a Lei 12.965/2014 foi promulgada em 23.04.2014, estabelecendo princípios, garantias, direitos e deveres para o uso da Internet no Brasil, dispONDO em seu art. 2º, IV, que “a preservação e garantia da neutralidade de rede” é um dos princípios para o uso da Internet no Brasil.

A nova Lei introduziu a intervenção setorial específica sobre Neutralidade de Redes. Em 11.05.2016, o Decreto n.º 8.711, que regulamenta a Lei no 12.965, entrou em vigor para: (i) tratar das hipóteses admitidas de discriminação de pacotes de dados na Internet e de degradação de tráfego; (ii) indicar procedimentos para guarda e proteção de dados por provedores de conexão e de aplicações; (iii) apontar medidas de transparência na requisição de dados cadastrais pela administração pública; (iv) e estabelecer parâmetros para fiscalização e apuração de infrações. O tema foi debatido de maneira extensa e a introdução de normas de neutralidade representa um grande avanço institucional para o Brasil.

A regulação de Neutralidade de Redes é importante e necessária, dadas as características do mercado brasileiro de provimento de acesso do serviço à Internet em banda larga. Este mercado possui três grandes provedores de serviços de acesso: (i) o grupo Mexicano América Móvil, que opera com as marcas NET, Claro e Embratel; (ii) o grupo espanhol Telefonica, que opera com a marca Vivo. O grupo incorporou a GVT em 2015; e (iii) o grupo brasileiro Oi/Brasil Telecom. Estes três provedores de acesso respondem por 77,31% dos acessos realizado por meio acesso em banda larga fíxa, conforme dados da Anatel de março de 2018.[7]

A partir das informações obtidas do sítio da Anatel, verifica-se que 3.030 municípios brasileiros (59% do total) contam com a oferta de apenas um provedor de serviço de acesso à Internet em banda larga; 1.182 municípios (23%) possuem dois provedores para a oferta do serviço; 528 municípios (10%) contam com a presença de 3 provedores e 374 municípios (8%) possuem acesso a mais de 4 provedores do serviço. O Grupo Oi enfrenta concorrência da América Móvil e da Telefonica (com a rede da GVT) na maior parte dos municípios da sua área de concessão, enquanto que a Telefonica tem com principal competidora a América Móvil. O mercado, desse modo, apresenta uma estrutura com monopólios/duopólios em 82% dos municípios e poucos municípios contam com a oferta de mais de três provedores de serviços de acesso à Internet. Diante dos dados apresentados, verifica-se que a oferta no mercado brasileiro de acesso à Internet é bastante concentrada.

A ausência de concorrência suficiente no mercado brasileiro evidencia a importância da regulação de Neutralidade de Redes, estipulada pelo Marco Civil, e por seu decreto de regulamentação, pode ser caracterizada por um regime de neutralidade flexível, pois os dispositivos legais não proíbem taxativamente o gerenciamento de tráfego pelos detentores da infraestrutura de redes.[8] Há uma regra geral para a neutralidade, com possibilidade de exceções para o gerenciamento de tráfego, o que permite a ocorrência de algumas “discriminações”. O Decreto incorpora algumas definições importantes para práticas excepcionais relativas à discriminação e à degradação de tráfego. Adicionalmente, detalha requisitos técnicos indispensáveis, que devem ser observados na transmissão, comutação ou roteamento, além de impor a prestação de informações sobre práticas de gerenciamento.

A análise da regulamentação evidencia seu caráter amplo, genérico e que há, ainda, lacunas importantes. Questões específicas, dentre elas detalhes relacionados ao gerenciamento de tráfego e a transparência dessas práticas, permanecem sem endereçamento adequado. Desse modo, algumas inovações devem, eventualmente, ser incorporadas ao Decreto, para complementar a regulação e buscar sua maior efetividade e aplicabilidade. Cabe ressaltar que estas lacunas na regulação decorrem, principalmente, de questões políticas. A Anatel, após Consulta Pública de 2011, atua apenas pontualmente em questões relativas à neutralidade. A discussão sobre Neutralidade de Redes ficou concentrada na Casa Civil da Presidência da República até o impeachment da Presidente Dilma Rousseff em 2016. Nesse sentido, é importante notar que o Decreto de regulamentação do Marco Civil foi promulgado um dia antes do impeachment. Desde então, o tema não tem sido discutido amplamente por nenhum órgão do governo. Assim, a questão permanece em aberto e o aprofundamento e a melhoria da regulação vão depender da sua inclusão na agenda política do próximo governo para o setor de comunicações.

Tatiana Britto é especialista em Políticas Públicas e Gestão Governamental. Doutora em Economia – Universidade de Brasília. Visiting Scholar – University of Illinois at Urbana-Champaign(2015/2016). MBA em Gestão de Empresas – Eastern Illinois University. Mestre em Economia – Universidade de Brasília. Bolsista da CAPES.

Referências Bibliográficas

BRITTO, Tatiana Alessio, Neutralidade de redes – mercado de dois lados, antitruste e regulação, Tese de Doutorado, Faculdade de Economia, Administração, Contabilidade e Gestão de Políticas Públicas, Universidade de Brasília, 2018.

MARSDEN, C. Network Neutrality – from policy to law to regulation. Manchester: Manchester University Press, 2017.

PEREIRA JUNIOR, Ademir Antônio. Infraestrutura, regulação e Internet: a disciplina jurídica da neutralidade das redes. Tese de Doutorado, Faculdade de Direito, Universidade de São Paulo, 2018.

RAMOS, P. H. S. Neutralidade da Rede e o Marco Civil da Internet: um guia para interpretação. In: Marco Civil da Internet. São Paulo: Atlas, 2015.

YOO, C. Innovations in the Internet´s architecture that challenge the status quo. Journal on Telecommunications and High Technology Law, vol. 8, 2010.

WU, T. Network Neutrality, Broadband Discrimination. Journal on Telecommunications and High Technology Law, vol. 2 (1), 2003.

  1. MARSDEN, 2017.
  2. YOO, 2010.
  3. WU, 2003.
  4. BRITTO, 2018.
  5. MARSDEN, 2017.
  6. PEREIRA JUNIOR, 2018.
  7. Dados obtidos dos sítios dos três grupos econômicos, do Teleco www.teleco.com.br e da Anatel http://www.anatel.gov.br/dados/destaque-1/269-bl-acessos. Acesso em 06/06/2018.
  8. RAMOS, 2015.

 

TIC Empresas 2017 e as capacitações para comércio eletrônico

O comportamento on-line das empresas vem se tornando, cada vez mais, um diferencial competitivo. Com as tecnologias de informação e comunicação (TICs)se disseminando e ficando mais acessíveis, saber usar tecnologias para melhoria de processos e rotinas é uma competência essencial. Um dos exemplos mais esclarecedores das novas possibilidades que se abrem para as empresas é o comércio eletrônico: segundo a UNCTAD (2017), o comércio eletrônico gerou mundialmente, em 2015, U$ 22, 4 trilhões, sendo que 88% deste montante foram de comércio B2B e 12% de transações B2C. Portanto, há um mercado em expansão, tendo o ambiente digital como importante palco do comércio mundial. Estar on-line é uma obrigação e não mais uma opção.

E como se dá o contexto do comércio eletrônico no Brasil?

Segundo a pesquisa TIC Domicílios 2016, o Brasil possui cerca de 107 milhões de usuários de Internet. Destes, cerca de 41 milhões (38%) compraram ou encomendaram pela Internet.

Gráfico 1- Proporção de usuários de Internet que realizaram atividades de comércio eletrônico nos últimos 12 meses – 2012 a 2016 – Percentual sobre o total de usuários de Internet

Fonte: TIC Domicílios, 2016, Percentual sobre o total de usuários de Internet

No caso das transações B2C, há desafios a serem superados: como podemos ver abaixo, na maioria dos casos a Internet é usada como suporte da tomada de decisão, mas para a efetivação da compra.

Gráfico 2- Motivos para não comprar pela Internet nos últimos 12 meses (2016) – Percentual sobre o total de usuários de Internet que não adquiriram produtos e serviços pela Internet nos últimos 12 meses

Fonte: TIC Domicílios, 2016

Segundo os dados da pesquisa TIC Empresas 2017, 22% das empresas brasileiras afirmaram que venderam pela Internet, enquanto 66% disseram que compraram pela Internet. Ainda que o indicador de venda pela Internet aumente ao longo dos anos, é razoável supor que se trata de uma proporção baixa, havendo espaço para crescimento.

Gráfico 3 – Proporção de empresas que compraram e venderam pela Internet – Percentual sobre o total de empresas com acesso à Internet (%)

Fonte: TIC Empresas, 2017

Podemos relacionar essa baixa proporção justamente com a presença online: 55% das empresas brasileiras afirmaram possuir um website, sendo que esta proporção se concentra em empresas de grande porte e mercados de atuação específicos.

Gráfico 4 – Empresas que possuem website, 2017 – Percentual sobre o total de empresas com acesso à Internet (%)

Fonte: TIC Empresas, 2017

Quando perguntamos sobre as funcionalidades dos websites das empresas brasileiras, temos a seguinte constatação: os websites possuem informações, mas poucos canais de relação. Em sua maioria, as empresas possuem páginas estáticas, que oferecem informações institucionais, mas poucos canais de venda e de comunicação com os clientes.

Gráfico – 5 Empresas que possuem website por recursos oferecidos nos últimos 12 meses – 2015 e 2017 – Percentual sobre o total de empresas que possuem website (%)

 Fonte: TIC Empresas, 2017

Websites que ofereçam informações claras e bem estruturadas, aliado a canais de relacionamento rápido com o cliente são importantes para atrair o consumidor, estabelecendo uma relação de confiança na transação. Portanto, não é suficiente somente garantir a presença on-line da empresa, saber estar on-line é essencial para as empresas que buscam um diferencial competitivo no ambiente digital.

Os dados da pesquisa TIC Empresas, conduzida pelo Cetic.br, mostram que grande parte das empresas brasileiras não levam em consideração em suas estratégias a atuação no ambiente digital, bem como ainda é incipiente o cenário de comércio eletrônico no Brasil. Se problemas de infraestrutura e conexão são menores entre as empresas, cabe agora enfrentar os problemas de capacitações, isto é, tornar as empresas capazes de operar de forma qualificada com as TIC. Não se trata aqui de desenvolver uma receita para a digitalização das empresas, mas chamar a atenção para o fato que a maioria das empresas brasileiras falha em usos básicos de tecnologias que são essenciais para se inserir em um cenário que toma o ambiente digital como parte estruturante da competição.

 Leonardo Melo é Analista de Informação do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br), onde é responsável por conduzir pesquisas sobre o uso das TIC nas empresas brasileiras. Foi pesquisador do Centro Brasileiro de Análise e Planejamento (CEBRAP) e do Observatório da Inovação e Competitividade do Instituto de Estudos Avançados da Universidade de São Paulo (OIC/IEA/USP). Doutor em sociologia pela Universidade de São Paulo (USP). Possui experiência em pesquisas quantitativas e qualitativas. Atua em pesquisas com foco em políticas de ciência, tecnologia e inovação, mudança e aprendizado organizacional.

Referências:

Comitê Gestor da Internet no Brasil – CGI.br (2017a). Pesquisa sobre o uso das tecnologias de informação e comunicação nos domicílios brasileiros: TIC Domicílios 2016. São Paulo: CGI.br Disponível em: http://cetic.br/publicacao/pesquisa-sobre-o-uso-das-tecnologias-de-informacao-e-comunicacao-nos-domicilios-brasileiros-tic-domicilios-2016/

Comitê Gestor da Internet no Brasil – CGI.br (2018). Pesquisa sobre o uso das tecnologias de informação e comunicação nas empresas brasileiras: TIC Empresas 2017. São Paulo: CGI.br. Disponível em: http://cetic.br/publicacao/pesquisa-sobre-o-uso-das-tecnologias-de-informacao-e-comunicacao-nas-empresas-brasileiras-tic-empresas-2017/

Conferência das Nações Unidas sobre Comércio e Desenvolvimento – Unctad (2017). Information Economy Report: Digitalization, trade and development. Genebra: Nações Unidas. Disponível em: http://unctad.org/en/pages/PublicationWebflyer.aspx?publicationid=1872

20 anos do Google: Como a empresa evoluiu seguindo métodos e princípios não tradicionais

Em 2018, o Google completa 20 anos de sua fundação nos Estados Unidos. Desde 1998, a empresa é ao mesmo tempo produto e propulsora da globalização, pelo grande espectro de serviços fornecidos e pela explosão do número de dados on-line reproduzidos e disponibilizados. Já não é mais aceitável a concepção de um mundo sem o acesso livre e imediato à informação como o de décadas atrás.

É notável a importância da economia digital e dos serviços para o desenvolvimento econômico, e da adaptação às tendências. Muitas sociedades e organizações diversas buscam grandes resultados, e para isso desejam uma inserção mais ativa no mundo digital, para isso, tendem a abandonar práticas que possam ser disfuncionais no século da Internet.

Comumente sociedades discutem sobre a criação e replicação de “Vales do Silício”, regiões que concentrariam uma proliferação de inovações, de startups, e de empresas visionárias. O que também merece atenção são fatores como a cultura, a filosofia, e os novos modos de operação e de organização das empresas que despontaram como grandes plataformas. O Google é uma dessas plataformas, e alguns dos seus princípios e métodos foram descritos na obra “How Google Works” (2016) de Schmidt, Rosenberg e Eagle. Muitos desses princípios e métodos são compartilhados por outras grandes empresas do ramo, salvo algumas exceções (como a plataforma aberta).

A autonomia de pensamento é um princípio indispensável para o processo de criação e colaboração, e está desde o início no Google. É uma influência da raiz no mundo acadêmico da empresa, ao ser criada por Larry Page e Sergey Brin, cientistas da computação na Universidade de Stanford, com o suporte posterior de engenheiros e profissionais criativos. Na empresa, a discordância não é só estimulada, como é necessária, o que dá maior liberdade de opinião nas reuniões e encontros. E a qualidade da ideia é muito mais importante do que quem a sugere. Inclusive, há momentos em que, para o bem da empresa, a opinião da pessoa que recebe mais (tratadas de “Hippos”: Highest-Paid Person Opinions) não deve ser ouvida (!). Isso pode afetar o processo de criação na empresa, e o surgimento de novas ideias na equipe. Além disso, é muito valorizado na empresa a diversidade de origens dos talentos contratados, o que fornece vários pontos de vista e pensamentos.

Organizações de estrutura excessivamente hierárquica inibem a colaboração ativa e o questionamento. Tais estruturas supostamente promovem maior estabilidade, e os processos de tomada de decisão estão concentrados. No entanto, a competição com organizações de sucesso que estão mais adaptadas ao século das tecnologias da informação e comunicação pode tonar mais evidente a falta de progresso das empresas tradicionais. Ainda que seja necessária uma estrutura organizacional formal, arranjos mais planos permitem o acesso mais direto aos tomadores de decisões finais e fornecem maior celeridade na realização de projetos.

A própria organização do local de trabalho no Google é realizada de forma a valorizar a autonomia e a liberdade dos trabalhadores (o filme de comédia “The Internship”, de 2013, ajudou a difundir o ambiente pouco tradicional do Google ao público geral). Nesse ambiente, não necessariamente o reconhecimento está no tamanho da sala ou a vista mais bonita da janela. Os escritórios são projetados para maximizar a colaboração e a interação, evitando também a formação de “silos”, grupos que falham ao não se comunicarem livremente e efetivamente entre si.

O ambiente mais livre e que valoriza a autonomia de pensamento também é atrativo aos talentos denominados como “smart creatives”, trabalhadores multifuncionais e muito valorizados no mercado de trabalho. A contratação desses profissionais é uma das atividades mais importante dos executivos. E os líderes serão aqueles que demonstrarem maior paixão e desempenho (e não necessariamente experiência), sendo em torno deles/delas que serão formadas as equipes de trabalho. Nesse sentido, a recomendação é a de que os empreendedores invistam muito mais nas pessoas e na formação de equipes do que nos planos de trabalho. Os planos devem ser flexíveis e mudarão de acordo com o progresso e com as novas descobertas sobre produtos e tendências de mercado, e os talentos irão descobrir novos caminhos naturalmente.

No Google, assim como em outras plataformas digitais, a filosofia de trabalho defendida é a de foco no usuário e na excelência do produto. Para isso, a recomendação é apostar mais nos insights técnicos dos produtos e serviços do que necessariamente na receita. Supostamente, a receita acompanhará o ganho de mercado da excelência produzida. Como destacam Schmidt, Rosenberg e Eagle (2016), inicialmente os fundadores do Google não sabiam claramente como criar um modelo geral de receitas com adverstising, mesmo tendo uma ideia de um potencial. Larry Page e Sergey Brin passaram mais tempo no aumento de escala da plataforma. Mais tarde, a chegada de profissionais de conhecimento dos negócios ajudou no marketing e na captação de recursos.

Os insights técnicos promovem uma solução inovadora para algum problema, e são sobre eles que os produtos e plataformas são construídos. Exemplo disso é o mecanismo de anúncio e publicidade do Google que gera a maior parte da receita da empresa: o Google AdWords. O serviço foi baseado no insight de que os anúncios pudessem ser classificados e colocados em uma página com base em informações de valor e utilidade para os usuários, e não por quem ou qual empresa estivesse disposta a pagar mais (Schmidt; Rosenberg; Eagle, 2016).

O rápido crescimento da plataforma Google foi possível diante de outra importante decisão da empresa desde seus primeiros anos: deixá-la aberta aos usuários, o máximo possível. Após adquirir o sistema operacional Android em 2005, por exemplo, o Google optou por mantê-lo aberto, concedendo liberdade para usuários desenvolverem novos produtos, além de tê-lo disponibilizado para operadoras e fabricantes dos aparelhos. Tal decisão permitiu que a plataforma Google – e o acesso à Internet de modo geral – se expandisse ligeiramente pelos aparelhos móveis. Apesar disso, é claro que nem todo o sistema Google é aberto. A empresa mantém algoritmos relacionados ao mecanismo de pesquisa em segredo, sob a justificativa de manter a qualidade do serviço além da proteção da propriedade intelectual.

O Google inicialmente no final dos anos 1990 – com a concorrência da Netscape e da Microsoft – focou-se na qualidade de seu mecanismo de pesquisa, medindo-o em termos de velocidade, precisão, facilidade de uso, abrangência e atualização. Ao tornar-se principal referência na área no mundo, expandiu sua linha de atuação e de produtos. A empresa mais uma vez apostou mais nos insights técnicos e menos na pesquisa de mercado, buscando assim oferecer aos consumidores o que ainda não sabiam o que queriam (ponto também várias vezes destacado por Steve Jobs, apaixonado por excelência, e inspiração para os próprios fundadores do Google).

As atividades do Google foram e têm se expandido de tal forma que os seus fundadores realizaram em 2015 a maior restruturação da companhia ao criar a holding Alphabet. Dentre os objetivos estava o de tornar o Google mais enxuto e dedicado às atividades mais vinculadas aos serviços na Internet. Além, é claro, do Google, a Alphabet incorpora uma série de empresas e projetos: Fiber, serviço de Internet ultrarrápida; Verily, com pesquisas sobre saúde e prevenção de doenças; Sidewalk Labs, destinado a criar ambientes melhores nos centros urbanos; Calico, voltada à biotecnologia, e pesquisa sobre a longevidade; os braços de investimento CapitalG e GV; Jigsaw, que utiliza tecnologia para lidar com desafios de segurança global, como censura on-line, extremismo, ataques digitais; DeepMind, destinado à pesquisa sobre inteligência artificial; Waymo, para desenvolvimento de carros autônomos; Loon, voltada à provisão de acesso à Internet em áreas rurais e remotas; Project Wing, para desenvolvimento de drones para serviços de entrega; X, a fábrica de ambiciosos projetos de P&D; e Nest, voltada a produtos e dispositivos de automação residencial – “internet das coisas”, e incorporada pela equipe de hardware do Google. Esse “guarda-chuva” parece estar em constante mutação de acordo com o surgimento de novos projetos.

Apesar do sucesso, a dimensão de empresas como o Google merece muita atenção. Quanto maior o uso, maiores as plataformas, mais investimentos e recursos elas alavancam, e maior poder e concentração de mercado conseguem reter. Além disso, empresas de destaque como as citadas DeepMind e a Nest acabaram sendo adquiridas pelo próprio Google/Alphabet, o que o mantém numa posição muito privilegiada no mercado de inovação. Do ponto de vista da sociedade como um todo, essa concentração pode levar a questionamentos diversos, dentre eles a dificuldade de entrada de novos competidores e da livre concorrência.

Grande exemplo foi a decisão de autoridades antitruste da União Europeia em julho de 2018 de aplicar uma multa recorde de 4,34 bilhões de euros contra o Google por “utilizar o Android como um veículo para consolidar a posição dominante em seu motor de busca”, violando, assim, regras de livre concorrência, como o favorecimento de seus aplicativos. Além da grande parcela de mercado atingida, questiona-se a adoção de práticas abusivas pela empresa. A Comissão Europeia alega que o Google estaria obrigando operadoras e fabricantes a instalarem determinados aplicativos para ter acesso aos demais, além de incentivos financeiros, e impedimento para instalação de sistemas operacionais rivais por meio do Android. Outras investigações estão em andamento, como a do sistema de publicidade AdSense. O Google irá recorrer da decisão, e destaca os preços considerados acessíveis e a inovação rápida colaborativa dentro do ecossistema da plataforma.

Por fim, o século da Internet deve combinar a colaboração e a abertura, para que empreendedores tenham uma liberdade real de poder ascenderem nas redes com propostas inovadoras. Por outro lado, grandes plataformas digitais como o Google ditam os rumos da tecnologia e inovação, e possuem grande capacidade de se reinventarem. Por essas razões, possuem certo “poder de realizar previsões”. Logo, é extremamente importante acompanhá-las, e compreender sua forma de atuação – e suas mudanças, para que possamos conhecer um pouco do nosso futuro.

O 5G como catalisador de negócios no meio digital

Num mundo onde os dados assumem cada vez maior centralidade na geração de riqueza, as comunicações móveis evoluem para possibilitar maior capacidade, velocidade, segurança, ubiquidade e menor latência nas trocas de informações. Nesse contexto, a quinta geração de sistema sem fio (5G), prevista para 2020 pela União Internacional de Telecomunicações (UIT), pretende ser poderosa e suficientemente flexível para atender aos cenários de tráfego de dados previstos e desconhecidos. Catalisando o surgimento de novos serviços e de novos modelos de negócios, o 5G deve contribuir com a tendência do crescimento da participação do setor de serviços no PIB dos países.

O ciclo da quinta geração deverá ser bem diferente das anteriores por uma razão em especial: os motivos econômicos nunca experimentaram tamanha influência na formação de suas características. Diferentemente da primeira, segunda, terceira e quarta geração de comunicação móvel, voltadas para comunicação entre pessoas, o 5G deve estar voltado para atender serviços, conectar dispositivos e máquinas, ao invés de pessoas. Exemplos: com o 5G, espera-se aumento de pagamentos efetuados online, de uso de aplicativos que aumentem a comunicação do comprador e vendedor, de máquinas interconectadas dentro das fábricas potencializando o just in time e de robôs realizando serviços.

Dessa forma, o 5G acelera o crescimento da internet das coisas (IoT) e desperta interesse de vários agentes: a exemplo da 4.0, a indústria poderá automatizar ainda mais sua linha de produção e estar mais conectada aos distribuidores e consumidores. Já o setor financeiro anseia por aumento de robôs operando nas bolsas de valores e aumento na velocidade de troca de informações, a fim de antecipar acontecimentos e reduzir latência. No mercado financeiro, o ganho de milissegundos pode ser crucial para o sucesso de várias operações financeiras. Donos de plataformas digitais e operadores de comércio eletrônico, por sua vez, pretendem expandir capilaridade, incluir novos usuários e, consequentemente, aumentar a publicidade, as compras e receitas. Também para as operadoras de telefonia, o 5G representa geração de receitas, pois se trata de um novo serviço a ser explorado. Por fim, os usuários das redes observam no 5G a possibilidade de conexão mais veloz e confiável.

Com tantos agentes interessados na evolução do serviço móvel de trocas de dados, duas preocupações são crescentes: o suporte ao uso intensivo da rede e a otimização espectral. Assim, a arquitetura de comunicação necessitará de conexões inteligentes, que recebam e enviem informações aproveitando os melhores canais e caminhos disponíveis no momento. Pela primeira vez na história da rede móvel sem fio, os serviços não estarão limitados a uma banda específica. Em vez disso, devem seguir o melhor espectro disponível no momento da transmissão de dados.

Assim, espera-se maior dinamicidade, adaptação, flexibilidade e reconfiguração automática para a rede. A inteligência para tomada de decisão quanto à conexão será máxima nos dispositivos móveis, robôs, nas antenas e nos servidores.  Ademais, baterias de longa vida devem se tornar foco de pesquisas para o suporte de toda essa inteligência.

Tudo isso permitirá o surgimento de novos serviços dependentes de internet confiável como telemedicina, transporte através de veículos autônomos, pulverização de inseticida através de drones e etc. Imagine o caso de uma cirurgia feita por robôs. Agora pense como ela se tornaria inviável se a internet é passível de falha durante o corte.

Segundo dados da IHS (2017), entre 2020 e 2035 devem ser gerados US$ 12,3 trilhões em bens e serviços através do 5G, e os investimentos médios anuais devem ser da ordem de US$ 200 bilhões em sua cadeia de valor. Tal investimento deve ser capitaneado pelos Estados Unidos (EUA) e China, conforme ilustração abaixo.

Figura 1. Proporção de investimento em bens de capital e em pesquisa e desenvolvimento da cadeia de valor do 5G, em média, por país, entre os anos de 2020 e 2035

Fonte: IHS (2017), adaptado

No Brasil, a primeira demonstração do 5G foi feita em 2016 e, no geral, as empresas de telefonia já começaram a se preparar para oferecer o serviço no país. O Ministério da Ciência, Tecnologia, Inovação e Comunicações (MCTIC) tem se esforçado para ampliar o montante investido em 5G no território nacional e para estabelecer acordos multilaterais no desenvolvimento da tecnologia, com ações como chamadas de pesquisas conjuntas, fóruns de padronização e eventos anuais para compartilhamento de informações.

O mais recente esforço brasileiro para fomento e construção do ecossistema de quinta geração é o Projeto Brasil 5G, formalizado em fevereiro deste ano. Composto por Abinee, Anatel, Cetuc, CPqD, Ericsson, Fitec, Huawei, Inatel, Informa, NEC, Nokia, Oi, Qualcomm, Sindisat, SindiTelebrasil, Telebrasil, TIM, Trópico e MCTIC, o projeto também visa o preparo do país para as participações nas discussões internacionais. Esse grupo firmou em maio deste ano um acordo de cooperação tecnológica em 5G com a União Europeia, os Estados Unidos, a Coreia do Sul, o Japão e a China para o desenvolvimento da nova tecnologia.

A exemplo das teorias do comércio internacional, essas trocas e parcerias entre instituições brasileiras e grupos internacionais pode ser proveitosa para ambos os envolvidos. Porém, é preciso não perder de vista que o 5G pretende ser um meio pelo qual muita riqueza será gerada e, por isso, é necessário permanente amadurecimento das estratégias nacionais para a maximização de seu uso para o desenvolvimento de negócios no país. Aparentemente, estamos diante de uma nova forma de desenvolvimento e, se o Brasil não investir de forma estratégica nessa área agora, no futuro, a distância dele para os países desenvolvidos tenderá a ser ainda maior.

A Conectividade e a Vulnerabilidade dos Usuários da Internet

Atualmente, o Wi-Fi faz parte da vida das pessoas, que ficam satisfeitas por poderem se conectar no café, no hotel, no Shopping. Porém, o acesso à Internet pode expor as pessoas a risco de ataques maliciosos.

O avanço tecnológico também traz problemas, e um deles é o crime cibernético, que pode ser um grave problema para as pessoas. Depois do ataque cibernético de escala mundial que aconteceu na última sexta feira (12/05), muitos usuários da Internet puderam perceber que os benefícios da era digital também podem vir acompanhados de riscos.

De acordo com o Norton Cybercrime Report, empresa que realiza o estudo mais importante do mundo a respeito do tema, em 2015 cerca de 689 milhões de pessoas foram vítimas de crimes online em 21 países. No Brasil, a maior preocupação é com a vulnerabilidade de crianças e adolescentes online.

O montante perdido para o crime cibernético no Brasil em 2015 foi o equivalente a 45 bilhões de reais. O tempo gasto no mundo para sanar os ataques cibernéticos, em 2015, foi de 19,7 horas e o valor global estimado gasto com esses ataques foi de 125,9 bilhões de dólares, que é um valor considerado alto o suficiente para mobilizar recursos e incentivar os Governos a tratarem mais seriamente do assunto.

Depois que houve a invasão de hackers ao sistema Swift do Banco Central de Bangladesh, quando foram roubados 81 milhões de dólares, a rede Swift resolveu encorajar os demais bancos para que se unam e criem medidas para barrar esse tipo de crime. Diversos grandes bancos se uniram para tentar combater o crime cibernético e melhorar a segurança digital dos consumidores e das empresas. Esse é um exemplo de medida que envolve a possibilidade de ação conjunta entre o governo e a iniciativa privada.

Em março de 2016, a Norton publicou um post sobre os cuidados que os usuários devem ter ao se conectarem ao Wi-Fi público. Mais pessoas acreditam que, nos últimos 5 anos, está mais difícil ficar seguro online (63%) do que no mundo real (52%). Infelizmente, esses crimes podem ser caracterizados como uma das consequências geradas pela globalização, que talvez possa ser sanada, ao menos parcialmente, com a ampliação dos investimentos em tecnologia, principalmente nos países em desenvolvimento.

Para prevenir esses ataques, principalmente os de maior gravidade, como aqueles financeiros, bancários ou de bullying e invasão e exposição de dados privados, é importante reforçar a regulação do meio digital, mas sempre com o cuidado de não tornar a Internet menos livre ou menos propícia à inovação e ao surgimento de novos negócios.

A importância das telecomunicações para o crescimento econômico

Conforme exposto no post de Giovanini e Arend, o setor de serviços é essencial para o crescimento econômico, na medida em que aumenta a produtividade industrial. Este argumento, similar ao apresentado por Arbache (2016), parece também se aplicar especificamente ao setor de telecomunicações no Brasil, conforme mostrado a seguir.

Ao longo do tempo, como esperado, o aumento do acesso à Internet foi acompanhado de aumento no consumo de bens industriais necessários para se usufruir do serviço de telecomunicações, como os computadores pessoais. Veja a figura abaixo.

Figura 1. Número de Computadores pessoais e Usuários de Internet

Já o aumento da oferta de serviços de comunicações móveis foi acompanhado de inovações de máquinas que se deslocam no espaço, como laptops e tablets. A demanda destes produtos industriais aumentou, substituindo, em parte, a dos antigos PCs. Concomitantemente, o acesso à internet via Banda Larga Móvel cresceu, substituindo o acesso discado. Veja as ilustrações abaixo.

Estimativas da OCDE revelam que conexões à Internet promovem exportações de produtos a preços mais altos em diversos setores de manufatura, principalmente eletrônicos. Além disso, um aumento na densidade de telecomunicações de 10% está associado a preços entre 2% e 4% mais elevados no setor eletrônico e a um aumento no comércio intra-indústria deste setor, entre 7% e 9%.

No Brasil, de acordo com a Telebrasil e Teleco (2016), somente em 2015, o setor de telecomunicações movimentou R$ 232 bilhões, ou 4% do PIB nacional, além de ter sido responsável por R$ 28,6 bilhões investidos no ano, o equivalente a 3% da Formação Bruta de Capital Fixo. Segundo estimativas da Associação Brasileira da Indústria Elétrica e Eletrônica (ABINEE), a indústria de bens de telecomunicação passou a ser, em 2016, a de maior faturamento no setor da indústria eletroeletrônica.

Em comparação com outros países, o Brasil obteve a quinta maior receita mundial de telecomunicações no varejo em 2015, segundo a Ofcom (reguladora de comunicações do Reino Unido). O país está entre os 10 com maior número de linhas de telefones celulares ativas no mundo, sendo a maior parte delas pré-pagas, ou seja, das mais baratas para o consumidor. Em 2015, de acordo com a Anatel, existiam 125 celulares ativos para cada 100 brasileiros, isto é, mais de uma linha para cada pessoa. Esses dados evidenciam a importância das comunicações na vida da população brasileira, que parece priorizar a compra de serviços de telecomunicações, em detrimento de outros gastos.

Tal prioridade é observável em todas as regiões do País, para ambos os sexos e em todas as classes sociais. Ademais, o desenvolvimento das comunicações móveis tem colaborado com a inclusão social e democratização do acesso aos serviços digitais (OCDE, p.36) na medida em que o acesso à Internet realizado exclusivamente por meio do celular é mais frequente entre a população de baixa renda e entre os usuários residentes nas regiões cuja infraestrutura de internet fixa é mais precária, como no Nordeste, Norte e nas zonas rurais, tal como apontado no estudo TIC Domicílos 2015, do Comitê Gestor da Internet (CGI).

Está clara a contribuição do setor de telecomunicações para o PIB, investimentos, inclusão social e bem-estar da população, que só tende a aumentar, considerando a evolução do setor e as preferências do consumidor. Portanto, políticas que incentivem a ampliação do acesso à internet e o desenvolvimento do setor são cruciais para o crescimento sustentado, e o aprimoramento do setor por meio de políticas de organização, fomento e adaptação às características nacionais pode ser uma eficaz estratégia de catch-up.

Débora Albuquerque é economista e mestranda em telecomunicações e redes de comunicação de dados pela Universidade de Brasília (UnB). Especialista em economia e finanças, exerce a profissão no Ministério da Ciência, Tecnologia, Inovação e Comunicações (MCTIC)

 

A contradição entre o discurso protecionista e a ascensão da economia digital

A teoria normativa da política comercial sugere que as barreiras ao comércio internacional devem ser idealmente inexistentes. Conceitos-chave, como o modelo ricardiano de vantagens comparativas e o modelo Heckscher-Ohlin da dotação relativa dos fatores de produção, defendem que a ausência dessas barreiras evita distorções e permite alocação de fatores produtivos da maneira mais eficiente possível. Em conformidade com esses preceitos, as principais economias do mundo optaram pela gradual redução de tarifas internacionais nas rodadas de negociação do Acordo Geral de Tarifas e Comércio (GATT), posteriormente substituído pela Organização Mundial do Comércio (OMC).

Essa redução de tarifas foi um dos fatores que contribuiu para intensificar a globalização econômica, expandir a atividade industrial para novas fronteiras geográficas e, consequentemente, fragmentar as cadeias produtivas e dinamizar a economia mundial. Durante seis décadas, entre 1945 e 2005, o intercâmbio global de bens e o fluxo de investimentos estrangeiros cresceu de forma espetacular, a taxas superiores ao crescimento das economias, e favoreceu a retirada de milhões de pessoas da pobreza.

Com o desencadeamento da crise dos subprimes, em 2008, esse crescimento do fluxo de bens, no entanto, foi interrompido. Conforme estimativas da OMC, o comércio mundial apenas cresceu 1,7% em 2016, inferior à expansão econômica global (2,2%), e o quinto ano seguido em que o fluxo de bens cresceu abaixo de 3%. Como agravante, o plebiscito a favor do “Brexit”, a recente retirada dos Estados Unidos da Parceria Transpacífico (TPP) por decreto presidencial e as ameaças de políticas protecionistas pelo presidente Donald Trump sugerem crescente hostilidade à globalização e o fim do paradigma de produção fragmentada em cadeias globais de valor. Embora esses prenúncios pareçam bastante desalentadores, é provável que a redução no dinamismo do comércio global apenas expresse parte das tendências e das alterações na economia global.

Enquanto o intercâmbio de bens entre os países vem perdendo vigor, diversas mudanças nos padrões de consumo têm aumentado a relevância do comércio de serviços e de produtos tecnológicos intensivos em serviços, que requerem fatores como softwares, design, marcas para agregarem valor, a exemplo de smartphones. De acordo com dados da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), essas transformações significam que, por valor adicionado, os serviços já representam mais de 50% do comércio, com tendência crescente na próxima década. Essa provável maior importância dos serviços deve ser reforçada pela ascensão da economia digital, que está criando oportunidades para novos modelos de negócios.

Segundo um estudo da consultoria McKinsey, entre 2005 e 2014 o fluxo global de dados cresceu 45 vezes. Com a expansão da infraestrutura de conectividade e do modelo de código aberto de software, além de menores custos de computadores e de tecnologias relacionadas, esse fluxo deve aumentar em mais nove vezes até 2021.

Fontes: TeleGeography, Global Bandwidth Forecast Service, McKinsey Global Institute analysis

Embora esse acelerado crescimento do fluxo de dados tenha suscitado preocupações em relação ao risco de “protecionismo digital”, o controle do fluxo global de dados e do intercâmbio de serviços pela economia digital é mais difícil de ser implementado. Diferentemente do caso das teorias clássicas de comércio e das propostas de taxação de importações de bens e componentes, o estabelecimento de impedimentos ao comércio digital, inclusive de medidas de censura e de regulamentação dos direitos de privacidade, é uma questão bem mais complexa. Visto que dados podem ser gerados, armazenados e acessados em qualquer lugar, políticas de protecionismo que empregam uma visão fundamentada em termos de território e fronteira nacional, como as barreiras econômicas sugeridas pela administração Trump, tendem a ser menos eficazes.

São justamente as tendências da economia digital e as considerações no que se refere ao protecionismo que levaram 12 países do Pacífico a negociarem novas normas de comércio de serviços e padrões para o fluxo internacional de dados com vistas a alcançarem vantagens competitivas. Apesar de os Estados Unidos, surpreendentemente, terem renunciado à possibilidade de cimentarem seu domínio mundial na economia digital, os demais Estados-parte parecem ter reconhecido a oportunidade de seguir adiante com a TPP. Uma possível continuidade do TPP permitirá que economias dependentes de exportações, como o Japão e a Austrália, dinamizem seu comércio em um momento em que o intercâmbio de bens apresenta seu pior desempenho em décadas. Também proporcionará a opção de que outros países da região, a exemplo da China e da Coreia do Sul, se juntem ao acordo e de que os Estados Unidos, eventualmente, voltem a ser parte do acordo.

Daniel Köhler Leite é bacharelado em Economia na Universidade de Munique, mestrando em Economia na UnB e secretário executivo do Gabinete da Embaixada dos Emirados Árabes Unidos em Brasília.

O Barômetro da Internet das Coisas (IoT)

A Vodafone, uma das maiores empresas de telecomunicações do mundo, publica, anualmente, o relatório “Vodafone IoT Barometer” para medir não só a percepção do mercado em relação à Internet das Coisas (IoT), mas para também avaliar os resultados práticos da adoção da tecnologia no mundo inteiro. O relatório de 2016 foi baseado em 1.096 entrevistas realizadas com empresas em 17 países (incluindo o Brasil).

Dentre os resultados apresentados, o relatório de 2016 dividiu as aplicações em seis grandes grupos que abrangem a maioria das soluções IoT, indicando o percentual de organizações que possuem ao menos um projeto em cada um destes grupos. O resultado é bastante significativo:

  • 51% possuem projetos em otimização e monitoramento do uso de bens e veículos;
  • 48% possuem projetos em automação predial;
  • 46% possuem projetos em segurança e monitoramento de ambientes;
  • 42% possuem projetos em automação de processos da cadeia de valor;
  • 41% possuem projetos em novos produtos conectados;
  • 40% possuem projetos em melhoria da segurança e sustentabilidade de espaços públicos.

Diante dos dados apresentados, uma das conclusões que se pode inferir do relatório é que estamos começando a entrar em uma segunda onda da Internet das Coisas. Na primeira onda IoT, a pergunta que todos se faziam era “o que eu posso conectar?” A ideia era simplesmente sair conectando “coisas” e avaliar o que fazia sentido e o que não funcionava. Nesta época surgiram ideias como a geladeira conectada, fechaduras e portas conectadas e a maioria dos wearables que vemos hoje.

Na segunda onda IoT, que estamos começando a vivenciar, já se observam modelos de negócios orientados aos dados, não à conexão. Com isso, a pergunta certa a se fazer hoje passa a ser “quais os objetivos de negócio eu quero atingir e quais os tipos de dados eu tenho de coletar para alcançar esses objetivos?” As organizações hoje passaram a se perguntar o que elas precisam fazer para operar mais eficientemente e qual solução IoT é necessária para atingir esse objetivo. Com isso, a IoT passa a ganhar uma cara mais corporativa.

O grande fato relevante por trás disso tudo é que estes novos modelos de negócio tem um tema subjacente em comum, que pode ser resumido como “tudo-como-serviço” ou everything-as-a-service. Hoje já é possível observar projetos de economia de energia como serviço, por exemplo. A empresa americana ADT Security, do ramo de segurança e automação residencial, já oferece o produto de segurança como serviço, permitindo monitorar sua casa apenas durante o período de férias. A grande vantagem destes modelos é a massificação da tecnologia: ao comprar um serviço, o usuário evita fazer pesados investimentos para utilizar sozinho um serviço que pode ser compartilhado. Por outro lado, os prestadores de serviço passam a rentabilizar melhor a infraestrutura necessária para ofertar sua solução. Ganha o usuário, ganha o prestador de serviço, e ganham os desenvolvedores da tecnologia.

Olhando para o cenário interno brasileiro, a segunda onda IoT, com essa proposta de “servicificação” da tecnologia, pode ajudar na recuperação do nosso combalido setor de serviços, que vem sofrendo bastante com a recessão econômica dos dois últimos anos. Mais do que isso, esta segunda onda IoT pode ajudar a efetivamente desenvolver nosso setor de serviços, levando-o a um patamar maior de especialização, incorporando-o ao processo de produção e de negócios empresariais, e reduzindo o peso dos serviços de custo e de baixa especialização no nosso PIB.

Enquanto o mercado IoT se apresenta como uma oportunidade multibilionária no mundo todo, o custo de entrada no negócio de desenvolvimento de soluções IoT pode ser surpreendente modesto em algumas ocasiões. Para entender onde estão estas oportunidades, precisamos lembrar como está organizado um ecossistema IoT. De maneira geral, esse ecossistema é composto por quatro camadas: são elas, “de baixo para cima”, hardware, comunicações, software e aplicações. A figura a seguir ilustra um ecossistema típico IoT, descrevendo as quatro camadas citadas.

Figura 1 – Ecossistema IoT (fonte: www.iot-analytics.com)

A primeira camada abrange os dispositivos físicos. É verdadeiramente a “coisa” da internet das coisas. Aqui encontramos sensores, processadores, termostatos e vários outros componentes que já existem há algum tempo, mesmo antes de ouvirmos falar da internet das coisas. Por estarem conectados à internet, estes dispositivos passaram a ter sistemas de defesa mais aprimorados para evitar o acesso indevido e ataques de hackers.

A segunda camada, responsável pelas comunicações, faz a coleta dos metadados associados ao serviço. A grande maioria dos protocolos são os mesmos já utilizados nas comunicações móveis e na internet comum. É nesta camada que estão, por exemplo, os padrões de comunicação como Bluetooth, Near Filed Communication (NFC), WiFi e LTE(4G). Aqui a padronização é essencial pois é por meio dela que dispositivos IoT irão “conversar” com sistemas de integração. Neste segmento, não se observam grandes oportunidades para novos players, especialmente porque estes componentes já são produzidos atualmente em cadeias globais de valor, principalmente pelos asiáticos, com grandes vantagens competitivas. Por mais que a retórica do recém-eleito presidente americano aponte em sentido contrário, dificilmente a “Doutrina Trump” vai conseguir reverter este quadro.

A terceira camada traz consigo todo hardware de backend e sistemas de integração. Aqui, todos os dispositivos IoT e seus metadados são agregados. É nesta camada que os desenvolvedores de aplicações IoT agregam seus dispositivos. Neste segmento, também não se observam grandes oportunidades para novos players. As barreiras de entrada são grandes porque os investimentos para se montar uma plataforma de agregação IoT são bastante elevados. Por precisar agregar centenas de milhares, às vezes até milhões de dispositivos, estes sistemas necessitam de alta capacidade de armazenamento de dados e de alta capacidade de processamento.  Não por coincidência, as maiores plataformas do mercado hoje estão associadas a grandes empresas do mercado de Tecnologia da Informação e Comunicação (TIC). São elas: Amazon AWS IoT, IBM Watson, Cisco Cloud Connect e Microsoft Azure.

A última camada é composta por aplicações que agregam dispositivos e sistemas em uma solução para qual existe uma demanda específica. Uma aplicação de cidade inteligente, por exemplo, agrega as informações de câmeras de segurança, sensores de estacionamento, sinais de trânsito, frotas de veículos de transporte público e os transforma em informação relevante para um centro de gerenciamento integrado de serviços públicos, permitindo melhor monitoramento de uma cidade e de seus serviços e um melhor tempo de resposta para situações de crise. É nesta camada que está a grande oportunidade para novos players deste mercado, sobretudo de desenvolvedores e empresas nacionais, em virtude das baixas barreiras de entrada. Desenvolvedores de aplicações diversas podem passar a desenvolver aplicações IoT sem a necessidade de grandes investimentos. Além disso, a vantagem para o desenvolvedor nacional torna-se mais evidente se ele optar por explorar nichos de mercado tipicamente brasileiros. Peculiarmente diferente do resto do mundo em muitos aspectos, nosso jeito de nos comunicarmos, nosso sistema bancário e nosso governo são apenas alguns exemplos de nichos especialmente nossos.

Assim, por tudo isso, pode-se dizer que a nova onda IoT vem para incorporar de vez a tecnologia ao mercado corporativo. Já é possível imaginar que em um futuro próximo, ela será tratada como indistinguível dos processos de negócio das corporações e passará a ser vista como uma funcionalidade intrínseca de um moderno sistema de uma fábrica, de uma frota de carros ou de uma solução de segurança, por exemplo. Dentre os desenvolvedores de aplicações, vai sair na frente aquele que melhor conseguir identificar as oportunidades e necessidades das organizações e conseguir traduzir essa necessidade em uma solução de serviços que incorporem aplicações IoT funcionando como uma parte intrínseca do ambiente de negócios.

Por que o Uber é tão amado pelos economistas?

Explorando falhas de mercado e lacunas regulatórias, o Uber se expandiu criando amantes e inimigos mortais: basta acompanhar as notícias para ver a batalha diária nas grandes cidades brasileiras entre seus motoristas e taxistas.

Porém, a simples popularização do serviço não é suficiente para que o caracterizemos como economicamente revolucionário. Se o serviço, por exemplo, apenas toma parte (ou toda) a demanda de transporte originalmente atendida por táxis, o impacto econômico trazido pela empresa é praticamente nulo. Neste caso ele se tornaria apenas um substituto do serviço de táxi. Se, por outro lado, o serviço passa a gerar uma demanda adicional de transporte individual, além da demanda que até então era atendida por táxis, então podemos afirmar que o novo serviço é inovador também sob o ponto de vista de geração de produto, passando a contribuir diretamente para o aumento do Produto Interno Bruto (PIB) de uma economia. Passados alguns anos do lançamento do serviço em todo mundo, não restam dúvidas que estamos diante da segunda opção.

Economistas tendem a amar o Uber. Em vários aspectos, o aplicativo funciona de maneira quase perfeitamente eficiente. O Uber é um mercado no qual os preços pagos pelos usuários respondem à oferta e à demanda, consequência do que a companhia chama de preço dinâmico Uber. Quando há muitos usuários procurando por um carro e poucos motoristas disponíveis, o preço aumenta. Isso gera uma pressão tanto na oferta quanto na demanda: novos motoristas que não estavam trabalhando sentem-se atraídos a entrar novamente no mercado, em virtude da alta nos preços. Por outro lado, consumidores que não estão dispostos a pagar um preço mais alto desistem momentaneamente da corrida, reduzindo a demanda. Tudo isso faz com que os preços voltem ao equilíbrio. E é assim que os economistas geralmente gostam que o mercado trabalhe.

Recentemente, os economistas ganharam um novo motivo adicional para amar o Uber: em um estudo baseado no histórico de transações realizadas pelo aplicativo, publicado em agosto de 2016, pesquisadores conseguiram calcular a curva de demanda pelo serviço. O artigo foi intitulado Using Big Data to Estimate Consumer Surplus: The Case of Uber. O Uber passou aos pesquisadores 54 milhões de sessões de usuários de quatro cidades americanas: Chicago, San Francisco, Nova York e Los Angeles. No Uber, os dados detalhados de cada corrida solicitada por consumidores são capturados e armazenados em um banco de dados. Os dados são coletados inclusive para corridas não realizadas: casos em que, por exemplo, o consumidor abre o aplicativo e, ao se deparar com um preço dinâmico mais alto, acaba por desistir da corrida.

E por que isso é importante? Explico: um dos primeiros assuntos que um estudante de economia aprende na faculdade é a curva de demanda: você entra em sala de aula, o professor desenha a curva de demanda no quadro, explica a teoria por trás daquela curva e pronto: a curva é instantaneamente aceita por todos e passa a existir como fundamento para uma série de outras análises. Porém, se olharmos ao nosso redor, na vida real, é difícil encontramos um exemplo em que a curva de demanda se encaixe perfeitamente. Se pararmos para pensar a fundo, é como se a curva de demanda existisse na literatura simplesmente para explicar o restante das transações que acontecem ao redor dela, mas jamais tenha sido efetivamente estimada em um exemplo prático da vida cotidiana. Em outras palavras, é como se a curva fosse como prótons e elétrons da física: nós conseguimos imaginar e entender seu comportamento para explicar o comportamento da matéria, mas ainda não conseguimos desenvolver uma ferramenta que nos permita enxergar diretamente um elétron. Aparentemente, esta situação mudou na economia com o Uber e seu banco de dados.

A importância de se conhecer a curva de demanda por um serviço se reflete em dois aspectos: para os fornecedores, conhecê-la faz com que eles saibam exatamente qual preço cobrar pelo serviço. Para os consumidores, uma vez conhecida a curva de demanda, passa a ser possível calcular o quanto de excedente do consumidor existe naquela transação. Vamos tomar um exemplo prático: se um consumidor está disposto a pagar até R$5,00 por uma maçã, mas consegue comprá-la por R$ 2,00, então o excedente do consumidor é igual a R$ 3,00. Este é o ganho do consumidor por ter comprado um item que queria por um preço aquém do qual ele estava disposto a pagar. O problema é que o quanto o consumidor está disposto a pagar por uma maçã varia a cada dia por uma série de fatores: o tamanho de sua fome, o quanto de estoque de maçãs que ele tem em casa, se ele prefere uma pêra naquele dia. Esta dinamicidade de variáveis dificulta muito repetir o experimento diversas vezes e, com isso, impede o cálculo de boas estimativas do excedente do consumidor. É neste ponto que entra o Uber e a teoria do Big Data.

Existem dois aspectos perfeitos sobre o Uber que permitem aos economistas medir o excedente do consumidor no serviço prestado: o primeiro é o fato de o aplicativo salvar as informações quando um consumidor abre o aplicativo, se depara com o preço acima do normal, e desiste da corrida. Esta funcionalidade do serviço é importante para o cálculo da curva de demanda porque o ponto chave para estimá-la é ter, para um mesmo consumidor, ou para consumidores similares, oferta de preços diferentes e, com isso, medir o comportamento deles frente aos diferentes preços ofertados. Como o banco de dados do Uber possui uma escala massiva, com milhões de interações, as conclusões derivadas das simulações efetuadas com estes dados nos permitem extrapolar os resultados observados para o mundo real com mais naturalidade.

O segundo aspecto é ainda mais importante, porém quase desconhecido para os consumidores. O algoritmo do preço dinâmico do Uber foi concebido para calcular o preço dinâmico exato para cada situação. Porém, para se apresentar de uma maneira mais simples para os consumidores, o multiplicador do preço dinâmico é arredondado para uma casa decimal: portanto, um consumidor, ao abrir o aplicativo e se deparar com um preço dinâmico de 1,2 pode ter como preço dinâmico real o valor de 1,24999. Por outro lado, se outro consumidor similar tiver o preço dinâmico real de 1,25001, ligeiramente superior ao preço dinâmico real anterior, ele irá se deparar com um preço dinâmico no aplicativo de 1,3. O efeito prático disso é um salto brusco nos preços, uma descontinuidade. É exatamente este tipo de comportamento que um economista busca em um experimento natural, porque são dois indivíduos essencialmente idênticos, para as quais são apresentados preços diferentes quase por acaso, em virtude do modelo de negócios adotado pelo Uber.

Como o banco de dados do Uber é enorme, com milhões de transações, existem milhões de observações que caem na situação ilustrada anteriormente e, com isso, no experimento retratado pelo artigo, foi possível estimar o comportamento dos consumidores a pequenas variações nos preços. Com isso, foi possível construir, passo a passo, a curva de demanda inteira para preços dinâmicos variando de 1,0 a 5,0.

Empiricamente, pode-se esperar do resultado do experimento um excedente do consumidor elevado: o serviço costuma ter grande aceitação por parte de seus usuários. Muitos dizem não usar mais o serviço de táxi; outros afirmam que o Uber é muito mais barato que o táxi, sinalizando que estariam dispostos a pagar mais caro pelo serviço prestado. Foi exatamente isso que o experimento encontrou: há um grande excedente do consumidor presente na prestação de serviços pelo Uber. Utilizando 50 milhões de observações individuais e uma análise de regressão das descontinuidades, os pesquisadores estimaram que, em 2015, apenas o serviço de UberX (responsável por 80% das corridas) gerou o equivalente a US$ 2,9 bilhões em excedente do consumidor, levando-se em consideração apenas as quatro cidades analisadas no estudo. Isto significa que, para cada dólar gasto pelos consumidores, US$ 1,60 é gerado em excedente do consumidor. Extrapolando-se os resultados para o restante dos EUA, o valor estimado em excedente do consumidor gerado é de US$ 6,8 bilhões. Porém, não se pretende, aqui, defender o o Uber como promovedor do bem-estar social. Afinal, vale frisar: o excedente do consumidor encontrado é extremamente disperso. Existe um número muito maior de consumidores do que de demais stakeholders da relação com o Uber, como, por exemplo, a própria empresa e seus motoristas credenciados.

Portanto, o resultado encontrado deve ser visto com cuidado. Sob o ponto de vista da política pública, os resultados obtidos com as estimativas de excedente do consumidor apresentam duas deficiências claras: em primeiro lugar, eles são derivados de elasticidades da demanda de curto prazo, enquanto qualquer política pública deve estar interessada nas consequências geradas no longo prazo. Em segundo lugar, porque as conclusões atingidas pelo estudo ignoram o excedente do consumidor associado a outros produtos de compartilhamento de carona (Uber Black, Lyft, Sidecar), assim como a própria resposta da indústria dos taxis (99taxis, EasyTaxi).

Apesar de tudo isso, os resultados não podem ser desprezados. Pode-se concluir que eles favorecem não só o argumento pró-Uber, mas o argumento em favor de todos os demais aplicativos da chamada “economia do compartilhamento”. Com o bem-estar social matematicamente calculado, o experimento traduz o mantra da maioria dos economistas: menos monopólio e mais concorrência se traduzem em melhor qualidade e preços mais baixos. E é por isso que os economistas tanto amam o Uber!

post7_fig1

Older posts