Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
MARCELO DE CARVALHO PEREIRA
COMPETIÇÃO SCHUMPETERIANA E
CONSUMIDORES ORGANIZADOS EM REDE:
uma análise do mercado brasileiro de acesso à internet
Campinas 2015
UNIVERSIDADE ESTADUAL DE CAMPINAS
INSTITUTO DE ECONOMIA
MARCELO DE CARVALHO PEREIRA
COMPETIÇÃO SCHUMPETERIANA E
CONSUMIDORES ORGANIZADOS EM REDE:
uma análise do mercado brasileiro de acesso à internet
PROF. DR. DAVID DEQUECH FILHO – ORIENTADOR
PROF. DR. GIOVANNI DOSI – COORIENTADOR
Tese de Doutorado apresentada ao Programa de Pós-Graduação em Ciências Econômicas, área de concentração em Teoria Econômica, do Instituto de Economia da Universidade Estadual de Campinas para obtenção do título de Doutor em Ciências Econômicas, na área de concentração em Teoria Econômica.
ESTE EXEMPLAR CORRESPONDE À VERSÃO FINAL DA TESE DEFENDIDA PELO ALUNO MARCELO DE CARVALHO PEREIRA, ORIENTADO PELO PROF. DR. DAVID DEQUECH FILHO E COORIENTADO PELO PROF. DR. GIOVANNI DOSI. _____________________________ Orientador
Campinas 2015
iv
Ficha catalográfica
Universidade Estadual de Campinas
Biblioteca do Instituto de Economia
Mirian Clavico Alves - CRB 8/8708
Informações para Biblioteca Digital
Título em outro idioma: Schumpeterian competition and network-organized consumers: an
analysis of the Brazilian market for internet access.
Palavras-chave em inglês:
Competition
Social networks
Consumer behavior
Internet access
Internet - Brazil
Evolutionary economics
Área de concentração: Teoria Econômica
Titulação: Doutor em Ciências Econômicas
Banca examinadora:
David Dequech Filho [Orientador]
José Maria Ferreira Jardim da Silveira
Márcio Wohlers
Maria da Graça Derengowski Fonseca
Mário Luiz Possas
Data da defesa: 04-03-2015
Programa de Pós-Graduação: Ciências Econômicas
Pereira, Marcelo de Carvalho, 1966-
P414c Competição schumpeteriana e consumidores organizados em rede: uma
análise do mercado brasileiro de acesso à internet / Marcelo de Carvalho Pereira.
– Campinas, SP : [s.n.], 2015.
Orientador: David Dequech Filho.
Coorientador: Giovanni Dosi.
Tese (doutorado) – Universidade Estadual de Campinas, Instituto de
Economia.
1. Concorrência. 2. Redes sociais. 3. Comportamento do consumidor. 4.
Acesso à internet. 5. Internet - Brasil. 6. Economia evolucionária. I. Dequech Filho,
David, 1963-. II. Dosi, Giovanni. III. Universidade Estadual de Campinas. Instituto
de Economia. IV. Título.
v
TESE DE DOUTORADO
MARCELO DE CARVALHO PEREIRA
“COMPETIÇÃO SCHUMPETERIANA E
CONSUMIDORES ORGANIZADOS EM REDE:
uma análise do mercado brasileiro de acesso à internet”
Defendida em 04 / 03 / 2015
COMISSÃO JULGADORA
Prof. Dr. DAVID DEQUECH FILHO
Instituto de Economia / UNICAMP Prof. Dr. JOSÉ MARIA FERREIRA JARDIM DA SILVEIRA Instituto de Economia / UNICAMP Prof. Dr. MÁRCIO WOHLERS Instituto de Economia / UNICAMP Profa. Dra. MARIA DA GRAÇA DERENGOWSKI FONSECA Instituto de Economia / UFRJ Prof. Dr. MÁRIO LUIZ POSSAS Instituto de Economia / UFRJ
vii
Dedico este trabalho à minha querida Fer-
nanda e aos nossos maravilhosos filhos Ali-
ce e André, pela compreensão pelos perío-
dos ausentes e pelo constante estímulo e
apoio para que este projeto fosse concluído.
ix
Agradecimentos
Ao professor Dequech, pela sábia orientação e pela enorme dedicação e dispo-
sição para guiar e apoiar nossos passos com seu conhecimento e paciência, sempre aberto
para nos escutar nos momentos de angústia com esta tese, meu eterno agradecimento.
Ao professor Dosi, pela oportunidade de participar de seu excelente grupo de
pesquisadores na Scuola Sant’Anna e poder contar sempre com seus ensinamentos sábios e
iluminadores, que permitiram meu desenvolvimento como pesquisador e como pessoa.
Aos professores José Maria Silveira e Marco Valente, pelo inestimável apoio e
estímulo em uma área de estudo nem sempre aberta para os iniciantes e pela enorme gene-
rosidade de acolher nossas dúvidas a qualquer momento, mesmo a milhares de quilômetros.
Aos professores Adriana Ferreira, Alan Kirman, Alessio Moneta, Alexandre
Gori, Ana Rosa, Andrea Roventini, Angelo Secchi, Célio Hiratuka, Daniela Prates, Esther
Dweck, Fernando Sarti, Francesco Lissoni, Gerald Silverberg, José Braga, Laura Magazzi-
ni, Mariano Laplane, Mario Cimoli, Maurizio Iacopetta, Paulo Fracalanza, Peter Howitt,
Piero Tedeschi, Ricardo Carneiro, Robert Axtell, Rodolfo Hoffmann, Rodrigo Lanna,
Rosângela Ballini, Sebastian Ille, Simone Deos e Stefano Marmi pelos excelentes cursos
que tive o privilégio de frequentar durante os últimos anos, fundamentais para um enge-
nheiro, como eu, aprender economia.
Aos colegas Adriano, Alex, André, Caio, Daniele, Eduardo, Flavio, Francesco,
Guilherme, Humberto, Igor, Leandro, Marica, Marlene, Matteo, Mattia, Maurício, Newton,
Nicolas, Núria, Oana, Pedro, Rodrigo, Rafael, Thadeu e Samantha, pelos momentos de des-
contração e também pelas horas de conversas sérias e pela forma sempre acolhedora e
compreensiva com que receberam, como economistas competentes, um novato na profis-
são.
A todos os funcionários do IE e de Sant’Anna, em particular Fátima Dias e
Laura Ferrari, pela dedicação e por estarem sempre disponíveis para nos ajudar, com efici-
ência e competência e, acima de tudo, com muita simpatia.
A todos os amigos e familiares, que sempre me apoiaram em novos projetos,
em particular neste, e compreenderam minhas ausências enquanto estava envolvido neles.
xi
“History is a record of ‘effects’ the vast
majority of which nobody intended to
produce.”
Joseph Alois Schumpeter
“Too large a proportion of recent
‘mathematical’ economics are mere
concoctions, as imprecise as the initial
assumptions they rest on, which allow the
author to lose sight of the complexities and
interdependencies of the real world in a
maze of pretentious and unhelpful
symbols.”
John Maynard Keynes
xiii
Resumo
O objetivo da tese é o estudo do efeito da organização dos consumidores em re-
des sociais na dinâmica da competição entre produtores em setores com rápida mudança
tecnológica. O foco específico de pesquisa é o mercado brasileiro de serviço de acesso à
internet, no período 1996-2014. Para tanto é aplicada a metodologia de simulação computa-
cional agent-based history-friendly, baseada na teoria dos sistemas complexos. A hipótese
central é que a forma com que os consumidores de produtos e serviços em constante atuali-
zação tecnológica se inter-relacionam pode ser determinante sobre a dinâmica da competi-
ção entre fornecedores. O modelo de simulação é construído com base na teoria evolucio-
nária neoschumpeteriana, em conjunto com a teoria institucional contemporânea, em parti-
cular as vertentes que tratam o papel das redes sociais. Como será justificado, os resultados
empíricos verificados não são adequadamente explicados por cada uma dessas teorias, indi-
vidualmente, tampouco por outras abordagens usuais. A hipótese de trabalho é que a inte-
gração de uma dupla perspectiva teórica, coevolucionária, permitirá o tratamento adequado
dos fatos estilizados provenientes da análise empírica sobre o setor. Com base nessa análise
original, que forneceu uma visão abrangente da situação do mercado de acesso no Brasil e
no mundo, foi proposta uma solução de modelagem inovadora para responder algumas das
questões relevantes sobre a inter-relação da dinâmica competitiva e do comportamento dos
consumidores em mercados com essas características particulares. O modelo desenvolvido
é capaz de reproduzir os principais fatos estilizados setoriais e coloca luz no papel das redes
de consumidores na organização do mercado. Em particular, demonstra que a configuração
vigente nos mercados reais seria improvável sem a concorrência desse fenômeno.
Palavras-chave: concorrência, redes sociais, comportamento do consumidor, inovação,
difusão, internet, serviço de acesso, modelo de simulação, history-friendly, agent-based.
xv
Abstract
The objective of this PhD dissertation is to examine the effect of consumers
organized in social networks on the dynamics of competition among producers in sectors
undergoing fast technological change. The focus of research is on the Brazilian market for
internet-access services in the period 1996-2014. The agent-based, history-friendly
computer simulation methodology is applied for this purpose, supported by the theory of
complex systems. The central hypothesis is that the ways that consumers of goods and
services under constant technological updating interact can be determinants of the
dynamics of competition among suppliers. The simulation model is based on neo-
Schumpeterian evolutionary theory, together with contemporary institutional theory,
particularly on the role of social networks. The empirical results are not adequately
explained by any of these theories individually, nor by other usual approaches. Our
working hypothesis is that the integration of a dual, co-evolutionary theoretical perspective
will allow the proper treatment of the stylized facts coming from the empirical analysis.
Based on this initial analysis, which provided a comprehensive overview of the access
market situation in Brazil and in the world, an innovative modeling solution has been
proposed to answer some of the relevant issues regarding the interrelationship of the
competitive dynamics and the consumer behavior in markets with these particular
characteristics. The developed model is able to reproduce the main sectoral stylized facts
and brings light on the role of consumer networks in the organization of the market. In
particular, it demonstrates that the current configuration of real markets would be unlikely
without the contribution of this phenomenon.
Keywords: competition, social networks, consumer behavior, innovation, diffusion,
internet access service, simulation model, history-friendly, agent-based.
xvii
Lista de abreviaturas e siglas
3G/4G terceira/quarta geração de telecomunicações móveis
ABNT Associação Brasileira de Normas Técnicas
ACE agent-based computational economics
ADSL Asymmetric Digital Subscriber Line
Anatel Agência Nacional de Telecomunicações
Arpanet Advanced Research Projects Agency Network
BLS Bureau of Labor Statistics
BNDES Banco Nacional de Desenvolvimento Econômico e Social
C1 índice de concentração de mercado da maior firma
C4 índice de concentração de mercado das quatro maiores firmas
Cade Conselho Administrativo de Direito Econômico
CGI.br Comitê Gestor da Internet no Brasil
CETIC.br Centro de Estudos sobre as TIC do CGI.br
CNAE Classificação Nacional de Atividades Econômicas
CSLL Contribuição Social sobre o Lucro Líquido
DDD discagem direta à distância
DOCSIS Data Over Cable Service Interface Specification
EC economia das convenções francesa
EN economia neoclássica
EUA Estados Unidos da América
Fapesp Fundação de Amparo à Pesquisa do Estado de São Paulo
FCC Federal Communications Commission
FTTH Fiber-to-the-Home
GSM Global System for Mobile Communications
GSMA GSM Association
HHI índice Herfindahl-Hirschman
HTML Hypertext Markup Language
HTTP Hypertext Transfer Protocol
Ibase Instituto Brasileiro de Análises Sociais e Econômicas
IBGE Instituto Brasileiro de Geografia e Estatística
ICANN Internet Corporation for Assigned Names and Numbers
IETF Internet Engineering Task Force
IP Internet Protocol
IPEA Instituto de Pesquisa Econômica Aplicada
IR imposto de renda
ISOC Internet Society
xviii
ITU International Telecommunications Union
LCG linear congruential generator
LSD Laboratory for Simulation Development
LTE Long Term Evolution
MAB modelo de simulação agent-based
Mbps megabit por segundo
MHF modelo history-friendly
Minicom Ministério das Comunicações
NIE new institutional economics
NIO novo institucionalismo organizacional
PECD paradigma estrutura-conduta-desempenho
PPP purchase power parity
P&D pesquisa e desenvolvimento
OCDE Organização para a Cooperação e Desenv. Econômico
OI organização industrial
OIC organização industrial clássica
OIE original institutional economics
OIM organização industrial moderna
RNP Rede Nacional de Ensino e Pesquisa
SCM Serviço de Comunicação Multimídia
SDE Secretaria de Direito Econômico
SEAE Secretaria de Acompanhamento Econômico
Sepin Secretaria de Política de Informática e Automação
SMP Serviço Móvel Pessoal
SSIP sistema setorial de inovação e produção
TC teoria da complexidade ou dos sistemas complexos
TE teoria evolucionária neoschumpeteriana
Telebrás Telecomunicações Brasileiras S.A.
Telebrasil Associação Brasileira de Telecomunicações
TI teoria institucional
TIC/ICT tecnologias de informação e comunicação
TJ teoria dos jogos
TEJ teoria evolucionária dos jogos
UC unidade de capacidade de rede do modelo de simulação
UM unidade monetária arbitrária do modelo de simulação
UMTS Universal Mobile Telecommunication System
UNCTAD United Nations Conference on Trade and Development
UT unidade de tempo arbitrária do modelo de simulação
WiMAX Worldwide Interoperability for Microwave Access
xix
Lista de tabelas
Tabela 1 – Organização da pesquisa sobre o setor de acesso à internet. .............................. 6
Tabela 2 – Sumário do quadro teórico adotado para a análise. .......................................... 68
Tabela 3 – Estratégias ótimas para a firma incumbente. .................................................... 79
Tabela 4 – Estratégias disponíveis para os provedores modelados. ..................................194
Tabela 5 – Indicadores críticos para análise de sensibilidade. ..........................................217
Tabela 6 – Métricas de rede.............................................................................................224
Tabela 7 – Algorithms characteristics for selected random network models.....................325
Tabela 8 – Constraints imposed on random network generation by models......................329
Tabela 9 – Performance and general remarks about random network models...................331
Tabela 10 – Valores para teste de sensibilidade dos parâmetros. ......................................345
Tabela 11 – Métricas das redes pseudoaleatórias testadas. ...............................................347
Tabela 12 – Resultados do teste de sensibilidade dos parâmetros.....................................351
Tabela 13 – Conjuntos de valores para teste de sensibilidade conjunta. ...........................354
Tabela 14 – Resultados do teste de sensibilidade conjunta. ..............................................355
xxi
Lista de figuras
Figura 1 – Agentes, produtos e organização do setor de internet. ...................................... 22
Figura 2 – Evolução do número de conexões à internet no Brasil. .................................... 27
Figura 3 – Unidades com computador ou conexão à internet. ........................................... 28
Figura 4 – Distribuição acumulada do orçamento mensal médio dos usuários. ................. 29
Figura 5 – Market share dos provedores de acesso à internet em 1998. ............................ 30
Figura 6 – Ciclos de difusão de novas tecnologias no exterior e no Brasil. ....................... 33
Figura 7 – Evolução do tipo de conexão principal no domicílio. ....................................... 35
Figura 8 – Quantidade de acessos à internet. .................................................................... 36
Figura 9 – Proporção de usuários por atividade realizada na internet em 2013. ................. 37
Figura 10 – Taxa de churn mensal de serviços móveis (voz e dados). ............................... 38
Figura 11 – Intenção de churn semestral dos clientes de banda larga fixa. ........................ 39
Figura 12 – Divisão do mercado de acesso banda larga fixa à internet. ............................. 42
Figura 13 – Evolução do HHI e do C4 em âmbito nacional. ............................................. 44
Figura 14 – Market share do maior provedor de acesso, por estado. ................................. 45
Figura 15 – HHI do mercado de acesso banda larga, por estado........................................ 46
Figura 16 – Índice C4 do mercado de acesso banda larga, por estado. .............................. 47
Figura 17 – Velocidade média efetiva de conexão à internet. ............................................ 49
Figura 18 – Indicadores selecionados da qualidade de conexão à internet. ........................ 50
Figura 19 – Evolução da qualidade dos principais provedores de banda larga. .................. 52
Figura 20 – Velocidade média oferecida pelos principais provedores. .............................. 53
Figura 21 – Evolução do preço médio do acesso nos domicílios. ...................................... 54
Figura 22 – Faixas de preços unitários do acesso banda larga fixa. ................................... 55
Figura 23 – Evolução dos preços, da cobertura potencial e da cobertura real. ................... 56
Figura 24 – Receita líquida, custo médio e markup mensal por acesso.............................. 58
Figura 25 – Margem operacional e taxa de retorno de provedores selecionados. ............... 60
Figura 26 – Tipologia básica das estruturas de mercado adotadas pela OIM. .................... 74
Figura 27 – Estrutura de dados do modelo de simulação proposto. ..................................180
Figura 28 – Estrutura lógica de encadeamentos dos módulos do modelo. ........................181
xxii
Figura 29 – Processo de análise de sistemas de simulação computacional. ......................205
Figura 30 – Processo de modelagem e simulação. ...........................................................211
Figura 31 – Evolução da demanda real e simulada. .........................................................223
Figura 32 – Distribuição média de graus nas redes geradas..............................................224
Figura 33 – Distribuição média do coeficiente médio de clustering. ................................225
Figura 34 – Distribuição média do grau médio dos vizinhos. ...........................................226
Figura 35 – Variação do grau e do clustering médios ao longo das rodadas. ....................227
Figura 36 – Evolução do churning. .................................................................................228
Figura 37 – Evolução da parcela dos usuários atendida pelo serviço de acesso. ...............229
Figura 38 – Evolução do preço do serviço de acesso. ......................................................230
Figura 39 – Evolução da razão variância/preço. ...............................................................230
Figura 40 – Evolução da qualidade do serviço de acesso. ................................................231
Figura 41 – Evolução do número total de provedores no mercado. ..................................232
Figura 42 – Evolução das taxas de retorno sobre o capital empregado. ............................233
Figura 43 – Evolução da idade das redes dos provedores. ................................................234
Figura 44 – Evolução da produtividade do capital. ..........................................................235
Figura 45 – Evolução do market share total dos provedores entrantes. ............................236
Figura 46 – Evolução da idade média dos provedores incumbentes. ................................237
Figura 47 – Índice Herfindahl-Hirschman para o market share. .......................................238
Figura 48 – Índice Herfindahl-Hirschman para o capital empregado................................239
Figura 49 – Índice Herfindahl-Hirschman em cenários contrafatuais. ..............................241
Figura 50 – HHI em cenários de sensibilidade à qualidade. .............................................244
Figura 51 – HHI em cenários de preferências. .................................................................246
Figura 52 – HHI em cenários de estrutura de rede. ..........................................................247
Figura 53 – Comparação entre preço e custo médios. ......................................................249
Figura 54 – Seleção de estratégias por entrantes e incumbentes. ......................................250
Figura 55 – Preço médio em cenários com estratégias fixas. ............................................251
Figura 56 – Preço médio em cenários alternativos de reação de preços. ...........................252
Figura 57 – Preço médio em cenários alternativos de preço inicial. .................................254
Figura 58 – Evolução da idade média dos provedores entrantes. ......................................255
xxiii
Figura 59 – HHI em cenários de desconto para incumbentes. ..........................................256
Figura 60 – Distribuição da quantidade de provedores remanescentes. ............................258
Figura 61 – Idade dos entrantes em cenários de estrutura de rede. ...................................258
Figura 62 – Market share dos entrantes em cenários de preferências. ..............................259
Figura 63 – Churning em cenários de percepção da qualidade. ........................................260
Figura 64 – Churning em cenários de erro de avaliação da qualidade. .............................261
Figura 65 – Churning em cenários de fidelidade do usuário. ...........................................262
Figura 66 – Churning em cenários de preferências. .........................................................263
Figura 67 – Preço médio em cenários de estrutura de rede. ..............................................265
Figura 68 – Razão variância/preço em cenários de preferências. ......................................266
Figura 69 – Qualidade em cenários de estrutura de rede. ................................................267
Figura 70 – Parcela dos usuários atendida em cenários de preferências. ..........................268
Figura 71 – Demanda agregada em cenários de estrutura de rede. ...................................269
Figura 72 – HHI em cenários de economias de escala. ....................................................271
Figura 73 – Retorno e market share dos entrantes em cenários críticos. ...........................272
Figura 74 – Idade dos entrantes em cenários de estrutura de rede. ...................................273
Figura 75 – Distribuição de entrantes e incumbentes entre estratégias. ............................275
Figura 76 – Exemplo de diferentes níveis de qualidade entre provedores. ........................316
Figura 77 – Exemplo de desequilíbrio em um mercado competitivo. ...............................318
Figura 78 – Exemplo de desequilíbrio em um mercado monopolista. ..............................320
Figura 79 – Distribuição de grau de geradores de rede. ....................................................348
Figura 80 – Distribuição de clustering de geradores de rede. ...........................................349
Figura 81 – Distribuição do grau médio de vizinhos de geradores de rede. ......................350
xxv
Sumário
Introdução .......................................................................................................................... 1
Capítulo 1: Análise setorial apreciativa ............................................................................ 11
1.1. Metodologia de análise apreciativa ....................................................................... 12
1.2. Trajetória histórica do setor de internet ................................................................. 15
1.3. O sistema setorial de inovação e produção da internet ........................................... 19
1.4. Estrutura e dinâmica competitiva do mercado de acesso brasileiro ........................ 25
1.4.1. Contexto da demanda .................................................................................... 26
1.4.2. Contexto da oferta ......................................................................................... 30
1.4.3. Organização do mercado no período recente .................................................. 37
1.4.3.1. Organização da demanda e redes sociais ................................................ 37
1.4.3.2. Organização da oferta e concentração .................................................... 42
1.4.3.3. Qualidade .............................................................................................. 48
1.4.3.4. Preços e margens ................................................................................... 53
1.5. Conclusão ............................................................................................................. 61
Capítulo 2: Quadro de referência teórica .......................................................................... 67
2.1. O conceito de competição ..................................................................................... 69
2.2. Abordagens da organização industrial ................................................................... 70
2.2.1. Mercados contestáveis ................................................................................... 75
2.2.2. Modelo de Stackelberg-Spence-Dixit ............................................................ 77
2.2.3. Efeitos de rede e externalidades ..................................................................... 79
2.2.4. Preços de congestionamento e qualidade de rede ........................................... 82
2.2.5. Limitações da organização industrial ............................................................. 84
2.2.6. O setor de internet na perspectiva da organização industrial .......................... 86
2.3. Teoria evolucionária neoschumpeteriana .............................................................. 90
2.3.1. Teoria evolucionária e organização da indústria ............................................ 96
2.3.2. Regimes de competição schumpeteriana ........................................................ 98
2.3.3. Conhecimento, aprendizado e redes sociais ..................................................101
xxvi
2.3.4. Comparação com a organização industrial ....................................................106
2.3.5. Limitações da teoria evolucionária ...............................................................109
2.3.6. O setor de internet na perspectiva evolucionária ...........................................112
2.4. Abordagens institucionalistas ...............................................................................114
2.4.1. Os diferentes conceitos e tipos de instituição ................................................115
2.4.2. Correntes institucionalistas ...........................................................................118
2.4.2.1. Teoria evolucionária dos jogos ..............................................................118
2.4.2.2. Institucionalismo econômico original ....................................................120
2.4.2.3. Novo institucionalismo econômico .......................................................121
2.4.2.4. Economia das convenções francesa .......................................................122
2.4.2.5. Novo institucionalismo organizacional ..................................................124
2.4.3. Proposta de quadro teórico para a análise institucional .................................126
2.4.3.1. Mercados como campos organizacionais ...............................................131
2.4.3.2. Instituições definidoras de bens, de serviços e de qualidade ..................135
2.4.3.3. Redes sociais e comportamento do consumidor .....................................138
2.4.4. Limitações da análise institucional e complementaridade com TE ................140
2.4.5. O setor de internet na perspectiva institucional .............................................142
2.5. Conclusão ............................................................................................................147
Capítulo 3: Metodologia e especificação do modelo ........................................................153
3.1. Metodologia de modelagem .................................................................................155
3.1.1. Modelagem na teoria evolucionária neoschumpeteriana ...............................156
3.1.2. Teoria dos sistemas complexos .....................................................................158
3.1.3. Modelos de simulação agent-based ..............................................................162
3.1.4. Modelos de simulação history-friendly .........................................................169
3.1.5. Limitações da metodologia proposta.............................................................171
3.2. Especificação do modelo .....................................................................................174
3.2.1. Estratégia de modelagem ..............................................................................175
3.2.2. Modelagem dos objetos ................................................................................178
3.2.2.1. Dinâmica temporal das regras comportamentais ....................................180
3.2.2.2. Oferta ...................................................................................................182
xxvii
3.2.2.3. Demanda ..............................................................................................183
3.2.2.4. Rede social ...........................................................................................187
3.2.2.5. Inovação tecnológica ............................................................................190
3.2.2.6. Preços e estratégia competitiva .............................................................193
3.2.2.7. Capital e investimento ...........................................................................198
3.2.2.8. Financiamento ......................................................................................200
3.2.2.9. Entrada e saída ......................................................................................202
3.3. Programação do sistema ......................................................................................205
3.4. Conclusão ............................................................................................................207
Capítulo 4: Configuração e análise dos resultados do modelo ..........................................209
4.1. Metodologia de validação e análise ......................................................................210
4.2. Calibração e sensibilidade ....................................................................................215
4.2.1. Calibração dos parâmetros e valores iniciais .................................................216
4.2.2. Indicadores críticos do modelo .....................................................................217
4.2.3. Análise de sensibilidade ...............................................................................218
4.3. Análise dos resultados .........................................................................................221
4.3.1. Resultados gerais do modelo ........................................................................222
4.3.1.1. Demanda, preços e qualidade ................................................................222
4.3.1.2. Oferta, competição e concentração ........................................................232
4.3.2. Aderência dos resultados aos fatos estilizados e às trajetórias históricas .......239
4.3.2.1. Fato Estilizado 1: concentração de mercado persistente .........................240
4.3.2.2. Fato Estilizado 2: reduzida competição por meio de preços ...................248
4.3.2.3. Fato Estilizado 3: baixa taxa de entrada com sucesso ............................254
4.3.2.4. Fato Estilizado 4: intensa substituição de provedores (churning) ...........260
4.3.2.5. Fato Estilizado 5: influência da rede social no consumidor ....................264
4.3.3. Compatibilidade dos mecanismos de causação com hipóteses teóricas..........270
4.3.3.1. Hipótese 1: economias de escala e concentração ...................................270
4.3.3.2. Hipótese 2: busca inovadora, seleção sobre variedade e evolução
setorial .................................................................................................273
4.3.3.3. Hipótese 3: estruturas cognitivas compartilhadas e comportamento .......276
xxviii
4.3.3.4. Hipótese 4: redes sociais e formação de preferências.............................278
4.4. Conclusão ............................................................................................................279
Conclusão geral ..............................................................................................................283
Referências .....................................................................................................................293
Apêndice A: Qualidade do serviço de acesso à internet ...................................................315
A.1. Modelo simplificado de qualidade.......................................................................316
A.2. Planejamento da rede de serviço .........................................................................317
Apêndice B: Redes sociais sintéticas ...............................................................................323
B.1. Review of random network algorithms ................................................................324
B.2. Algorithms comparison .......................................................................................328
B.3. Algorithm selection criteria .................................................................................333
Apêndice C: Valores de calibração ..................................................................................335
C.1. Calibração dos parâmetros ..................................................................................335
C.1.1. Parâmetros sistêmicos ..................................................................................335
C.1.2. Parâmetros comportamentais individuais .....................................................340
C.2. Calibração dos valores iniciais ............................................................................341
C.3. Calibração dos parâmetros da rede social ............................................................342
Apêndice D: Resultados da análise de sensibilidade ........................................................345
1
Introdução
A interação entre produtores e consumidores de bens e serviços em mercados
competitivos tem sido um dos focos centrais da ciência econômica desde seus primórdios.
Entretanto, a partir dos trabalhos pioneiros dos autores clássicos, a análise privilegiou o
lado da oferta – a organização dos produtores – como principal elemento da dinâmica dos
mercados. Diversas escolas de pensamento econômico exploraram essa dinâmica para ex-
plicar os resultados observados nos mercados, com graus de sucesso variados. Proporcio-
nalmente, a literatura econômica que dá relevância aos processos de organização dos con-
sumidores – o lado da demanda – é muito menos rica, em especial no caso de consumidores
finais (indivíduos e famílias). Mais frequentemente, de modo relativamente uniforme entre
as diferentes escolas, os estudos sobre a operação dos mercados assumem consumidores
finais homogêneos, atomizados e relativamente passivos.
Enquanto o enfoque usual sobre a organização dos consumidores pode ser ade-
quando em diversas situações, é razoável supor que ele seja insuficiente para explicar todos
os mercados da economia real. Em particular, como procuraremos demonstrar nesta tese,
esse parece ser a situação de mercados de bens e serviços tecnologicamente inovadores, nos
quais o elevado grau de “novidade” implica na escassez de parâmetros puramente objetivos
para os consumidores formarem suas preferências, pelo menos no curto prazo. Nessas cir-
cunstâncias, essa é nossa hipótese, os consumidores provavelmente empregam mecanismos
complementares para definir essas preferências, de forma a reduzir a incerteza das transa-
ções que realizam no mercado. Entre os mecanismos à disposição de consumidores que
contam apenas com informação imperfeita sobre os bens e serviços que desejam adquirir,
um dos mais frequentemente citados na literatura é a interação com outros consumidores –
o conhecido “boca-a-boca”. Contudo, essa interação usualmente não se dá aleatoriamente,
mas por meio da rede de relacionamentos na qual o consumidor se insere.
A adoção de uma hipótese de dinâmica endógena das preferências tem conse-
quências importantes, que possivelmente ultrapassam o lado da demanda. Nesse caso, ela
pode não estar sendo adequadamente tratada por parte relevante da literatura sobre os mer-
cados. Por isso, ao introduzir a estrutura da rede social dos consumidores como componen-
2
te crítico da difusão de certas classes de bens e serviços, tornar-se indispensável a apreen-
são sobre a possível realimentação desse processo na organização do lado da oferta. Ainda,
se supusermos que a geração de inovação é frequentemente considerada o driver de setores
industriais envolvidos em mercados de produtos1 tecnologicamente dinâmicos, seria razoá-
vel supor que os modos de difusão desses produtos entre os consumidores tenham impacto
significativo no arranjo setorial. Logo, em princípio, isso deveria ser especialmente impor-
tante em mercados nos quais a concorrência entre produtores é significativa.
Nessa perspectiva, objetivo central desta tese é contribuir para a compreensão
da inter-relação entre os processos de formação de preferências, por consumidores que inte-
ragem entre si dentro de redes sociais, e de competição entre produtores, em indústrias com
dinâmica inovadora acentuada. Em particular, considerando a complexidade e a pertinência
de se tratar o tema de forma puramente abstrata, é proposta a análise de um mercado con-
creto no qual o fenômeno em questão aparentemente está presente, o serviço de acesso à
internet.2
A escolha de um dos principais mercados dentro do setor econômico da internet
não é fortuita. A internet foi, provavelmente, uma das invenções mais importantes do sécu-
lo XX, sendo seus reflexos particularmente relevantes para o desenvolvimento social e eco-
nômico do século XXI. Ela alterou, significativa e profundamente, a maneira pela qual pes-
soas e organizações se comunicam, se relacionam e transacionam. O setor da internet é um
dos elementos centrais do que alguns autores denominam a “terceira revolução industrial” –
ou a passagem para a “economia da informação”. Setores inteiros foram transformados – ou
destruídos – pela internet. O progresso técnico como força motriz do crescimento econômi-
co, a creative destruction de Schumpeter, tem na internet possivelmente uma de suas mani-
festações mais representativas.
O setor da internet teve origem nos anos 1960, tendo seu desenvolvimento via-
bilizado pelo surgimento das tecnologias de informação e comunicação (TIC) nos anos
1 O termo “produto”, no que segue, é utilizado para caracterizar bens e serviços, indistintamente. 2 Pesquisa anterior do autor (PEREIRA, 2014c) indicou que, no caso da introdução do serviço de acesso à
internet no Brasil, essa hipótese é, provavelmente, uma das melhores candidatas para explicar os dados empí-
ricos disponíveis. Entretanto, o tema foi explorado de modo preliminar e estilizado, em função da complexi-
dade e as dificuldades técnicas associadas à modelagem de consumidores interagindo dentro de redes sociais.
3
1950. Em paralelo, já em 1980-1990, a profunda mudança dos paradigmas institucionais
das telecomunicações contribuiu para acelerar a sua evolução, ao rapidamente expandir a
rede mundial de computadores – a internet. Em curto intervalo de tempo, o setor de teleco-
municações, que até então se desenvolvera de forma majoritariamente estatal e monopolis-
ta, passou à privatização e à abertura para novos competidores e tecnologias. Isso provocou
uma rápida e vigorosa expansão, tanto da quantidade e como da variedade, das opções dis-
poníveis para os consumidores da indústria nascente.3 A trajetória particular da internet
levou muitos analistas a considerá-la um caso clássico de desenvolvimento technology
push.4
Nesse cenário, a teoria microeconômica tradicionalmente considera que merca-
dos nascentes, como a internet, se caracterizariam – do lado da oferta – pela competição
dinâmica, pelo menos no período inicial, em virtude da elevada oportunidade tecnológica
associada com barreiras à entrada reduzidas e demanda crescente. Diversos autores utilizam
a expressão “competição schumpeteriana” para descrever essas situações.5 Ainda, do lado
da demanda, são usualmente supostos consumidores com preferências (razoavelmente)
formadas e estáveis, aptos a transacionar a partir dos sinais de mercado clássicos. Entretan-
to, a análise concreta do setor de internet sugere que essa perspectiva precisa ser mais bem
qualificada. Segundo vários relatos, pelo menos alguns segmentos do setor6 – o de acesso,
por exemplo – parecem marcados pela concorrência menos ativa em muitos países, mas não
todos. Adicionalmente, referências sobre as dificuldades dos consumidores em se relacionar
com a pletora de novos bens e serviços, introduzidos pela internet, são abundantes.
Particularmente, e a despeito do pujante dinamismo tecnológico que envolve o
setor e da ampla liberalização regulatória desde seus primórdios no país, a competição no
3 Em 2013, 39% da população do planeta era consumidora do serviço de acesso à internet, em uma indústria
com faturamento global superior a US$ 2 trilhões. Apesar do rápido crescimento desse mercado (250 milhões
de novos usuários em 2012), 4,4 bilhões de pessoas ainda estão off-line (ITU, 2013). 4 Ou estimulado pela tecnologia. Esse é o caso quando bens e serviços, antes inimagináveis para a maioria dos
consumidores, são criados a partir do desenvolvimento tecnológico endógeno ao setor. Essa situação se colo-ca em contraposição aos mercados de desenvolvimento demand pull, nos quais são as preferências (conheci-
das) e demandas dos usuários que orientam a trajetória do desenvolvimento tecnológico (DOSI, 1982). 5 Mais precisamente, esse regime é denominado de “Schumpeter Mark I”, como será visto no Capítulo 2. 6 O serviço de acesso é apenas um dos segmentos do setor de internet, que inclui ainda, pelo menos, os seg-
mentos de fornecimento de equipamentos e sistemas e de provimento de conteúdo, detalhados no Capítulo 1.
4
provimento do serviço de acesso à internet no Brasil tem sido modesta7. A estrutura setorial
e a concentração da oferta aparentemente continuam sendo influenciadas pela organização8
legada das telecomunicações, que se consolidou durante o período de monopólio estatal,
como discutido em pesquisa anterior9 do autor (PEREIRA, 2012a, b). Essa aparente contra-
dição – entre dinâmica tecnológica intensa e concorrência reduzida – representa outra ques-
tão relevante deste trabalho. A potencial influência da interação dos consumidores em redes
sociais no processo competitivo do mercado de serviço de acesso é a principal hipótese que
será testada na tese. Considerando, ainda, a centralidade da dimensão tecnológica nesse
mercado, é proposta para a compreensão da sua dinâmica a conjugação, pelo menos, das
teorias institucional e evolucionária.
O objetivo geral da tese é, portanto, oferecer um quadro analítico, teoricamente
embasado, que permita esclarecer quais são as possíveis justificativas e os principais de-
terminantes para as evidências apresentadas pela pesquisa empírica. O foco é o segmento
representado pelo mercado de prestação de serviço de acesso, dentro do setor de internet
brasileiro, no período 1996-2014. Espera-se compreender o modo pelo qual os mecanismos
institucionais – especialmente a interação em redes sociais – e evolucionários – com foco
na dinâmica tecnológica – interagiram no caso concreto. Em particular, por meio de um
modelo formal, utilizando-se simulação computacional agent-based, com base na teoria dos
sistemas complexos.
Assim, além da contribuição já mencionada acima, mais abstrata, a tese preten-
de aumentar a capacidade analítica disponível em uma área particularmente importante. A
maior parte da literatura sobre o tema consiste em estudos desenvolvidos na área de eco-
nomia/organização industrial – dentro e fora da mainstream economics – nos países avan-
çados. Ocorre que, frequentemente, a internet se desenvolveu em condições diversas nos
países emergentes, o que traz dificuldades para a transposição direta dos trabalhos empíri-
cos existentes para o Brasil.
7 Neste trabalho, o conceito adotado para a “competição” é de natureza relativa e comparativa: entre merca-dos, períodos etc. Está associado com a dinâmica da concentração, como será explorado a seguir. 8 O termo “estrutura”, no que segue, é utilizado para se referir a quaisquer entidades definidas pelos compo-
nentes de um sistema e pelas inter-relações destes (SAVIOTTI, 2009), salvo se mencionado em contrário. 9 A pesquisa se concentrou nos mecanismos do lado da oferta que potencialmente pudessem justificar as cons-
tatações empíricas, tratando a questão de heterogeneidade do lado da demanda de forma apenas superficial.
5
É inegável, por exemplo, a participação mais intensa dos estados nacionais nos
processos de organização e mudança setorial em áreas de industrialização recente. A assi-
metria institucional entre países pode tornar inadequada a utilização dos quadros analíticos
disponíveis no exterior. Essa situação se verificou, no caso brasileiro, tanto pela origem
estatal das telecomunicações quanto pela relevante atuação governamental após sua privati-
zação. Esse protagonismo engendrou uma série de mecanismos institucionais, como o au-
mento da importância de redes relacionais hierárquicas e o estabelecimento de convenções
de comportamento empresarial específicas. A pesquisa anterior do autor mostrou porque
esses fatores devem ser concomitantemente considerados, ainda que não sejam o objetivo
central da tese.
Em termos de relevância, deve-se mencionar que a internet é, reconhecidamen-
te, um dos “habilitadores” da Terceira Revolução Industrial. Os impactos da dinâmica do
setor são proeminentes sobre o desenvolvimento nacional, seja pela difusão penetrante e
ampla dos seus subprodutos por toda a economia,10
seja pela parcela significativa do PIB e
dos investimentos em inovação movimentados pelo macrossetor em que a internet se inse-
re, dentro do qual ela é um dos principais vetores de crescimento. Segundo a United Nati-
ons Conference on Trade and Development (UNCTAD, 2010), a participação dos serviços
de informação no valor adicionado agregado brasileiro é de 12%,11
enquanto em países
tecnologicamente mais dinâmicos (como Israel, Finlândia e Coreia) esse indicador atinge
16%. A posição mediana do Brasil nessa estatística revela o espaço para expansão em nos-
so país, além dos efeitos potencializadores para a economia em geral. “[O] mundo assiste a
uma nova era no que diz respeito ao potencial das tecnologias da informação e comunica-
ção (TIC) para contribuir [também] na luta contra a pobreza” (ibid., p. 108).
Considerando o cenário apresentado, espera-se que a presente pesquisa seja in-
teressante e oportuna, ao permitir a reavaliação de algumas questões usualmente levantadas
pelos estudos setoriais, além de propor metodologias inovadoras, como a simulação compu-
tacional, para essa tarefa. Acredita-se que a ampliação dos instrumentos disponíveis, para
10 Estima-se que cada ponto percentual de crescimento na penetração do serviço de acesso banda larga à in-
ternet produza um aumento entre 0,5% e 0,9% no valor adicionado nacional (CAMBINI; JIANG, 2009). 11 Apesar disso, o macrossetor foi responsável por até 20% do investimento brasileiro em inovação em deter-
minados anos (DE NEGRI; RIBEIRO, 2010).
6
além das ferramentas convencionais de estática comparativa, possa ser uma contribuição
não apenas para a teoria microeconômica, mas também para o campo da teoria antitruste.
Tabela 1 – Organização da pesquisa sobre o setor de acesso à internet.
Fatos estilizados Principais hipóteses teóricas Referências*
Concentração de mercado persistente
Economias de escala 2014c
Estruturas cognitivas compartilhadas Tese, 2014c
Características da rede social (provedores e consumidores)
Tese
Reduzida competição por meio de preços
Redes hierárquicas de relacionamento 2014c
Ação inadvertida do Estado 2014c
Estruturas cognitivas compartilhadas Tese, 2014c
Baixa taxa de entrada com sucesso
Vantagens de first-movers 2014c
Ação inadvertida do Estado 2014c
Estruturas cognitivas compartilhadas Tese, 2014c
Ciclos prolongados de difusão tecnológica
Evolução guiada por busca inovadora e seleção sobre variedade
2014c, Tese
Interação local e não linear dos agentes produzindo trajetórias open-ended
Tese, 2014c
Ação inadvertida do Estado 2014c
Intensa substituição de provedores (churning)
Características da rede social (consumidores)
Tese
Interação local e não linear dos agentes produzindo trajetórias open-ended
Tese, 2014c
Influência da organização social na escolha do
consumidor
Formação de preferências dentro de redes sociais complexas
Tese
Características da rede social (consumidores)
Tese
Estruturas cognitivas compartilhadas Tese, 2014c
*Ordem de relevância, conforme entrada do autor nas referências bibliográficas (PEREIRA, M. C.).
Como já mencionado, esta tese se insere em um projeto de pesquisa mais amplo
do autor (2012a-b, 2014a-c), focado nos temas da competição e das instituições em setores
de alta tecnologia. Ela representa o estado desse trabalho em janeiro de 2015. De forma
simplificada, os textos anteriores se concentraram na análise setorial pelo lado da oferta,
enquanto aqui o foco é a compreensão mais detalhada dos processos que envolvem redes
sociais complexas, em particular a organização dos consumidores do lado da demanda. A
Tabela 1 apresenta uma sucinta listagem dos temas abordados na tese, em relação ao esco-
7
po completo do projeto. Apesar da natural sobreposição de certos tópicos, diversos assuntos
tratados em maior profundidade em outros textos – em especial, Pereira (2012b, 2014c) –
não estão aqui reproduzidos. Sempre que possível, será feita referência a outros materiais
que compõem o projeto.
Em linhas gerais, o desenvolvimento do quadro analítico proposto será realiza-
do com base na metodologia history-friendly,12
proposta por Malerba et al. (1999):
Modelos History-friendly visam capturar, de forma estilizada, teorias qua-
litativas e “apreciativas” sobre os mecanismos e fatores que afetam a evo-lução industrial, o avanço tecnológico e a mudança institucional aponta-
dos, pelos pesquisadores empíricos de economia industrial, mudança tec-
nológica, organização e estratégia de empresas e outras ciências sociais [p. 3-4].
13
Nessa metodologia, o processo analítico é desenvolvido por meio da articulação
– nessa ordem – entre a análise empírica “apreciativa”, desenvolvida a partir da realidade
industrial, e o quadro de referência teórico selecionado “para representar as relações básicas
e características que foram descobertas no estudo da indústria” (GARAVAGLIA, 2004, p.
7). O modelo de simulação, então, deve ser capaz de reproduzir os “fatos estilizados”14
res-
saltados pela análise apreciativa, utilizando mecanismos e premissas consistentes tanto com
a informação empírica como com as hipóteses teóricas. O modelo permite, assim, o teste
lógico das hipóteses definidas pelo quadro teórico, enquanto explicativas da evidência pro-
veniente da análise apreciativa. Dessa maneira, o modelo é um dispositivo auxiliar de análi-
se, que possibilita a qualificação sistemática das hipóteses teóricas. Portanto, o método pro-
posto adota como princípio de inferência o que alguns autores denominam de abdução15
,
em vez da dedução ou da indução usuais.
A metodologia history-friendly é composta por, pelo menos, cinco etapas lógi-
cas: (i) o estudo apreciativo (qualitativo e quantitativo) das características do fenômeno e a
identificação das questões empíricas essenciais e dos respectivos fatos estilizados; (ii) a
12 As opções metodológicas serão discutidas detalhadamente ao longo dos capítulos, em seções específicas. 13 Exceto quando indicado o contrário, todas as traduções de citações são de responsabilidade do autor. 14 O termo foi introduzido por Kaldor (1961). Por “fato estilizado” compreende-se uma propriedade observá-
vel do fenômeno em estudo, apresentada como simplificação ou generalização da observação empírica. 15 “Abdução consiste em estudar os fatos e conceber uma teoria para explicá-los” (PEIRCE, 1867 apud
WERKER; BRENNER, 2004, p. 7). Ela se baseia na inferência a favor da melhor explicação, em um sentido
probabilístico. O tema será retomado no Capítulo 3.
8
seleção de um (ou mais) quadro(s) teórico(s) explanatório(s) para as questões levantadas e a
formulação das hipóteses de trabalho associadas, a serem examinadas e testadas; (iii) o de-
senvolvimento de um modelo capaz de traduzir a estrutura teórica em um sistema lógico de
simulação computacional; (iv) a calibração dos parâmetros do modelo e a análise de sensi-
bilidade dos resultados em relação a eles, com base nos dados provenientes da empiria; e
(v) a avaliação dos resultados do modelo, incluindo a verificação da reprodução dos fatos
estilizados e o teste das hipóteses teóricas.
Por simplicidade, a tese está organizada nessa mesma sequência de etapas. Ela
se desenvolve em quatro capítulos, além desta introdução e da conclusão geral.
O Capítulo 1 consolida a bibliografia e as demais fontes de informação disponí-
veis sobre a trajetória histórica do mercado de serviço de acesso à internet no Brasil e no
mundo. São avaliados os principais fenômenos relacionados ao tema de pesquisa e mapea-
dos os mecanismos observáveis de causação mais relevantes, além dos agentes e institui-
ções-chave. São identificadas as principais questões relativas à organização do mercado,
tanto pelo lado da oferta como pelo da demanda. Por fim, são apresentados os dados empí-
ricos e consolidados os fatos estilizados mais representativos.
O Capítulo 2 propõe a articulação de um esquema explicativo teórico, com base
em diversas abordagens. São exploradas contribuições da organização industrial, da teoria
evolucionária neoschumpeteriana e de algumas vertentes institucionalistas, por meio da
revisão bibliográfica alinhada pelos temas da mudança estrutural, da competição e da inte-
ração social e organizada pelos fatos estilizados empíricos. Em seguida, os resultados da
análise apreciativa são confrontados com os artefatos explanatórios de cada corpo teórico,
no intuito de avaliar sua pertinência nos casos em questão. São identificadas, ainda, as prin-
cipais hipóteses teóricas que sustentam o quadro selecionado.
O Capítulo 3 aborda o processo de especificação e construção do modelo de
simulação, incluindo a influência das redes de relacionamento intrassetoriais na operação
do mercado de acesso, tanto pelo lado da oferta e como do da demanda. São analisadas as
características da metodologia selecionada para o desenvolvimento do modelo, inclusive
suas limitações. São detalhadas as regras de comportamento necessárias para a configura-
ção da simulação, utilizando-se a técnica agent-based. A especificação do modelo é apre-
9
sentada por meio de equações em diferenças. Por último, são justificadas as ferramentas
computacionais escolhidas e descritos os principais atributos dos sistemas desenvolvidos
neste trabalho.
O Capítulo 4 apresenta, inicialmente, a validação do modelo. Discutem-se al-
ternativas e apontam-se soluções tanto para o problema de calibração dos parâmetros quan-
to para os testes de sensibilidade do modelo. Os valores de calibração selecionados são jus-
tificados, empregando dados empíricos sempre que possível. As conclusões da análise de
sensibilidade são expostas de modo a identificar os parâmetros críticos, permitindo a avali-
ação eficiente da robustez do modelo. Em seguida, os resultados são apresentados, com
atenção especial aos fenômenos em estudo. A aderência do modelo aos fatos estilizados
setoriais é verificada e as hipóteses teóricas assumidas são testadas.
Quatro apêndices complementam a tese. O primeiro discute com maior detalhe
as questões técnicas complexas que envolvem a medição e a manutenção da qualidade do
serviço de acesso à internet. O segundo detalha as alternativas de algoritmos disponíveis
para modelagem de redes sociais e propõe um critério de seleção entre elas. O terceiro mos-
tra como foram definidos os parâmetros e valores iniciais do modelo, inclusive para a rede
social simulada. O último apresenta os testes de sensibilidade de parâmetros e condições
iniciais.
11
Capítulo 1: Análise setorial apreciativa
Além de fornecer uma visão da configuração do mercado de serviço de acesso à
internet e do setor no qual ele se insere, este capítulo tem como objetivo consolidar as in-
formações necessárias para as próximas fasesdo trabalho. Para tanto, serão identificadas as
principais questões subjacentes à ação competitiva entre as firmas no mercado e o seu rela-
cionamento com os consumidores, selecionando-se dados empíricos que caracterizam essas
dimensões específicas (setor/mercado, oferta/demanda). A abrangência da pesquisa é majo-
ritariamente nacional (Brasil) e se concentra na fase pós-privatizações, em particular no
período 1999-2014, durante o qual se conformou o mercado existente.
A análise empírica será realizada em duas etapas. A primeira, neste capítulo, te-
rá uma abordagem apreciativa, buscando fornecer uma visão geral do mercado e do setor. A
segunda etapa, mais formal, será executada com o auxílio do modelo de simulação (Capítu-
lo 3) e com o aprofundamento das questões selecionadas (Capítulo 4).
A perspectiva teórica será bastante genérica neste capítulo. Ainda assim, é ine-
gável que o recorte analítico proposto foi influenciado pelo quadro teórico que será apre-
sentado no Capítulo 2. Evidentemente, na prática, a avaliação apreciativa é feita em parale-
lo com o desenvolvimento do instrumental teórico, em um processo de articulação contí-
nua. Mas, para efeito de registro, iniciou-se com a etapa empírica, adotando-se o padrão
usual da metodologia history-friendly. Logo, a partir das questões-chave identificadas nesta
fase, o próximo capítulo aprofundará a discussão teórica, em torno desses pontos específi-
cos, permitindo maior objetividade.
O setor de internet engloba um “ecossistema” complexo, que requer e demanda
um conjunto extenso de recursos humanos e materiais para seu desenvolvimento e opera-
ção. O setor industrial é aqui compreendido, à semelhança do proposto por Breschi e Ma-
lerba (1997), como o conjunto de atores (firmas, usuários, organizações de governança etc.)
e artefatos (físicos e tecnológicos) que constituem a essência das atividades necessárias
para a organização dos mercados para os bens e serviços oferecidos pela internet. Essa
complexidade inerente torna, até certo ponto, arbitrárias e nem sempre claras as fronteiras
definidoras do que está “dentro” do setor ou de cada um de seus segmentos.
12
Para efeito de pesquisa, foram considerados como componentes do setor de in-
ternet quatro segmentos:16
(i) serviços de telecomunicações para acesso à internet (ou, re-
sumidamente, “acesso”); (ii) serviços de criação, edição e informação eletrônicos (ou “con-
teúdo”); (iii) serviços de tecnologia da informação (ou “sistemas”); e (iv) fabricação de
equipamentos de comunicação (ou “equipamentos”).17
Cada segmento, por sua vez, englo-
ba um ou mais mercados para seus produtos. Além das firmas prestadoras de serviços e
fabricantes de equipamentos, o Estado, por meio de suas diversas agências, e os consumi-
dores/usuários dos bens e serviços produzidos, sejam eles indivíduos ou organizações, são
também atores relevantes. O foco do estudo setorial proposto é a organização da competi-
ção no segmento de serviços de telecomunicações para acesso à internet18
em seu mercado
principal,19
doravante denominado simplesmente como “mercado de acesso”.
O capítulo começa com uma breve discussão sobre a metodologia adotada nesta
etapa. Em seguida, a trajetória histórica do setor será rapidamente descrita. Na Seção 1.3
serão qualificadas as categorias que compõem o sistema setorial de inovação e produção da
internet. A Seção 1.4 analisa a estrutura da concorrência e do consumo no mercado de aces-
so brasileiro. O capítulo termina com uma conclusão preliminar, incluindo uma sumária
avaliação sobre os resultados empíricos obtidos e o conjunto de fatos estilizados.
1.1. Metodologia de análise apreciativa
Uma das constatações recorrentes dos inúmeros estudos empíricos setoriais dis-
poníveis é, justamente, a grande variedade de arranjos que cada indústria pode adotar em
determinado momento. Em paralelo, diversas tradições teóricas propuseram formas alterna-
16 Esses componentes não incluem diversas divisões e grupos da Seção J (serviços de informação e comunica-
ção) da Classificação Nacional de Atividades Econômicas (CNAE) (IBGE, 2007), como os serviços de tele-
comunicações por voz (fixos e móveis), radiodifusão (televisão e rádio) e de mídia impressa (livros, jornais e
revistas). A definição das fronteiras inter e intrassetoriais adotou corte semelhante ao de Edquist (2004). 17 Naturalmente, algumas firmas que participam do setor da internet também atuam em outros setores, mas,
para efeito analítico, serão consideradas apenas suas atividades dentro do(s) segmento(s) em questão. Esse
recorte não é isento de problemas, dadas as evidentes economias de escopo das empresas que operam em
múltiplos setores. No entanto, por questões práticas e metodológicas, acredita-se que, ainda assim, os resulta-
dos obtidos sejam valiosos para a compreensão – mesmo que parcial – da dinâmica do mercado de acesso. 18 O serviço de acesso à internet constitui-se no transporte bidirecional de informações (dados, sons e ima-
gens) sobre a infraestrutura de redes dos seus provedores, entre o ponto de acesso de usuário e o destino final
de comunicação, dentro da rede mundial de computadores, por qualquer tecnologia compatível. 19 O mercado principal do segmento de serviço de acesso é o de provimento de conexões individuais para
indivíduos, domicílios, empresas e organizações governamentais e da sociedade civil.
13
tivas de avaliar essa variedade e, em particular, identificar seus determinantes (MALERBA,
2005). Esse tema será mais bem explorado no próximo capítulo. No momento, parece sufi-
ciente selecionar, entre as alternativas existentes, uma diretriz metodológica razoavelmente
consolidada e compatível com as linhas teóricas escolhidas.
O quadro de referência escolhido deve dar conta de tratar as questões relevantes
no setor de internet e, em particular, no seu mercado de acesso. Entre elas, podem-se desta-
car a intensa inovação tecnológica e os seus mecanismos de apropriabilidade (NELSON;
WINTER, 1982/2005; DOSI, 1982; PAVITT, 1984; TEECE, 1986, 2006), além da signifi-
cativa influência de fatores institucionais. Tudo isso em uma indústria nova, construída em
torno de estruturas sociais organizadas em redes, com forte competição entre as firmas, e,
ainda, com profundas raízes no período dos monopólios estatais nas telecomunicações
(EDQUIST, 2004; NELSON, 2005b).
Considerando-se essas premissas, a adequação da proposta de Malerba (2002)
para a pesquisa empírica da dissertação parece evidente. Ela se baseia em uma perspectiva
dupla, das teorias evolucionária e dos sistemas de inovação, com a devida consideração da
questão institucional. Assim, a ênfase analítica é colocada na heterogeneidade dos agentes –
nas dimensões de experiência, capacidades e organização –, como fator-chave da dinâmica
setorial, e também na importância das interações entre eles – e do aprendizado subjacente –
para o processo inovador e para a difusão do seu resultado nos mercados.
O quadro analítico do “sistema setorial de inovação e produção” (SSIP), conso-
lidado por Malerba (2002, 2004, 2005), parte do produto – ou grupo de produtos – do setor
e do conhecimento associado para definir o conjunto de atividades e atores que compõem o
SSIP. O SSIP é caracterizado por uma base de conhecimento, uma demanda, tecnologias e
insumos específicos, criados por meio de interações formatadas por instituições, dentro e
fora de mercados organizados, entre agentes que buscam a criação, o desenvolvimento e a
difusão dos bens e serviços produzidos pelo setor.
O SSIP é, portanto, composto por: (i) agentes – firmas e indivíduos, fornecedo-
res e consumidores – e suas redes de relacionamento; (ii) conhecimento e tecnologias –
incluindo seus insumos e produtos; e (iii) instituições – formais e informais, explícitas e
14
implícitas, setoriais e nacionais. A “coevolução” desses elementos, por sua vez, dá origem
ao processo emergente de mudança e transformação do SSIP (NELSON, 2001, 2005a).
A relação das regularidades de “nível mais alto”, manifestada nas institui-
ções, regras e formas organizacionais, para processos evolutivos “de nível mais baixo” é complexa, envolvendo coevolução entre níveis de análise e
escalas de tempo e deve ser corretamente modelada como tal [DOSI;
MARENGO, 2007, p. 5, grifos no original].
Igualmente relevante para a compreensão do SSIP é a atenção simultânea aos
atores responsáveis pela oferta e pela demanda nos mercados do setor. Ao não tratar a de-
manda, por hipótese, como um conjunto agregado de usuários similares, a perspectiva dos
SSIP abre espaço para a consideração da sua influência essencial na dinâmica setorial, fre-
quentemente relegada ao segundo plano por outras abordagens (MALERBA, 2005).
A adoção do quadro dos SSIP obriga, ainda, a uma revisão do sentido usual-
mente adotado para o termo “estrutura setorial”. Nesse enfoque, o seu significado vai além
do uso habitual na economia industrial, que envolve principalmente as questões da concen-
tração ou da integração/diversificação. Aqui, “[m]ais propriamente, estrutura se relaciona
com as conexões e relações entre agentes, conhecimento, produtos e tecnologias [...] logo
se refere também a ‘redes’ [sociais]” (MALERBA, 2005, p. 67-68). O alargamento do hori-
zonte analítico, associado com essa premissa, é essencial para o estudo de fenômenos como
os aqui postos, conforme será discutido no Capítulo 2.
Para a qualificação do SSIP da internet, a pesquisa empírica será realizada em
três dimensões: (i) identificação dos agentes e explicitação dos principais mecanismos de
interação entre eles; (ii) mapeamento das instituições relevantes, formais ou não, nos níveis
geral e setorial; e (iii) sistematização das relações entre conhecimento, tecnologia e produ-
tos. Enquanto a primeira e a última dimensões propostas têm suas realizações razoavelmen-
te autoevidentes, a questão das formas institucionais essenciais merece algum detalhamen-
to. Para tanto, conforme Fligstein (2001b), um roteiro usual começa pela definição de um
campo particular de interesse. Baseado nisso, estudam-se as instituições locais, quem são os
atores coletivos, quais os recursos de que dispõem e que tipos de interações existem dentro
e entre os campos. Ainda, segundo o autor, devem ser analisadas as condições em que o
campo em estudo emergiu, se estabilizou ou se transformou.
15
1.2. Trajetória histórica do setor de internet
Antes da análise setorial propriamente dita, será apresentado um breve histórico
da trajetória do SSIP, como forma de contextualização. Esse relato não pretende, entretanto,
ser exaustivo ou detalhado.
As redes eletroeletrônicas para transmissão de informações à distância tiveram
origem no telégrafo, em meados do século XIX. Desde então, as tecnologias utilizadas para
a construção de redes de telecomunicações desenvolveram-se e multiplicaram-se, ganhando
substancial impulso a partir dos anos 1950, com a revolução da microeletrônica. O rápido
desenvolvimento das tecnologias de informação e comunicação (TIC) se deu dentro do
complexo de novas indústrias que foram estimuladas pelos volumosos gastos em pesquisa e
desenvolvimento (P&D) do governo norte-americano no pós-guerra (MOWERY;
SIMCOE, 2002). A gradual convergência entre as TIC produziu a base tecnológica que
geraria, entre diversos subprodutos, a “rede das redes” de computadores, ou “internet”.20
A internet originou-se, ainda nos anos 1960, de pesquisas patrocinadas pela
área de defesa norte-americana e que criaram a primeira rede de comutação de pacotes, a
Defense Advanced Research Projects Agency Network (Arpanet), a sua tecnologia básica
(CERF et al., 2000). Essa tecnologia revolucionária, posteriormente aprimorada por meio
do Internet Protocol (IP), alterou profundamente os paradigmas das telecomunicações e da
informática, até então baseados na comutação de circuitos,21
e permitiu substancial aumen-
to da capacidade e das possibilidades dos sistemas de comunicação e de computação.
A comutação de pacotes tornou-se possível (e necessária) a partir da difusão do
computador digital,22
mas sua aplicação, durante os primeiros vinte anos, concentrou-se nas
20 Redes de telecomunicações podem ser classificadas em diferentes níveis e conforme diferentes critérios.
Para os efeitos deste trabalho, uma rede é entendida como um artefato físico (hardware e software), sob qual-
quer tecnologia, que realiza a conexão entre usuários distintos da rede ou entre usuários e serviços disponibi-
lizados através da rede, permitindo o transporte de informação codificada entre eles. 21 De forma extremamente simplificada, a comutação de circuitos opera por meio do estabelecimento de ca-
nais de transmissão dedicados durante todo o período de comunicação, independentemente de sua efetiva
utilização durante o transporte das mensagens (áudio, vídeo ou dados). A comutação de pacotes parte do prin-cípio de compartilhamento dos canais de transmissão entre múltiplos processos de comunicação simultâneos,
através do fracionamento, e posterior remontagem, das mensagens em pequenos “pacotes” de informação. 22 A comunicação de dados entre computadores, através de longas distâncias, existia antes da invenção das
redes de pacotes. Entretanto, elas tornaram possível, pela primeira vez, o estabelecimento de redes complexas
e não hierárquicas entre múltiplos computadores, de forma equivalente às redes de telefonia entre pessoas.
16
comunidades militar e científica (GREENSTEIN, 2010). Apenas ao longo dos anos 1980
desenvolveu-se a internet como é conhecida hoje – após a popularização dos microcompu-
tadores e o desenvolvimento dos protocolos que são a sua “face visível” 23
. No início dos
1990 ela se transformou em uma plataforma economicamente importante (SHY, 2001).
A primeira conexão brasileira à internet, já sob protocolo IP, foi estabelecida
pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), em 1991, conec-
tando um pequeno número de instituições acadêmicas no Brasil. A administração do domí-
nio “.br” e dos endereços IP no Brasil também foi responsabilidade da Fapesp, até a criação
do Comitê Gestor da Internet no Brasil (CGI.br), em 1995 (GUIZZO, 2007).
As redes de comunicação de dados entre computadores, como a internet, nasce-
ram como extensões da rede de telefonia, compartilhando parcelas da infraestrutura física –
cabos e sistemas de rádio. Apenas a partir dos anos 1990, redes especializadas para o trans-
porte de dados – empregando exclusivamente comutação de pacotes – tornaram-se comuns,
absorvendo gradativamente o tráfego de telefonia, que se transformou em mais uma aplica-
ção das redes de dados24
(DALUM; VILLUMSEN, 2003).
A evolução técnica das redes que suportam a internet, e em particular das tecno-
logias utilizadas pelos usuários para acessar a rede, foi contínua desde a oferta dos primei-
ros serviços comerciais. Durante os vinte anos iniciais da internet comercial, pelo menos
quatro gerações tecnológicas mais importantes podem ser elencadas: (i) o acesso discado
(dial-up) “banda estreita”, utilizando o sistema telefônico legado; (ii) o acesso “banda lar-
ga” fixo (ADSL, DOCSIS/cabo), sobre as redes de cabeamento metálico e óptico existentes
(telefonia e televisão a cabo); (iii) o acesso banda larga móvel (UMTS/3G), com redes de
radiofrequência sem fio híbridas (voz e dados); e (iv) o acesso banda larga em altíssima
velocidade fixa, com cabeamento óptico fim a fim (FTTH), e móvel (LTE/4G), com redes
de radiofrequência de dados apenas. Outras tecnologias também foram disponibilizadas
23 Apesar de o “núcleo tecnológico” da internet, o protocolo IP e os demais protocolos de transporte de dados terem sido desenvolvidos ao longo dos anos 1970 e 1980, foi apenas com a criação dos protocolos de interfa-
ce amistosa da família world wide web (HTTP e HTML), no início dos anos 1990, que a internet se tornou
uma ferramenta acessível ao usuário comum e com interesse comercial para sua implantação em larga escala. 24 O processo de convergência tecnológica, para sistemas de transmissão digital, permitiu que as diversas
aplicações das redes (dados, voz, imagem) compartilhassem a mesma infraestrutura física.
17
nesse período, como o acesso por satélite e o acesso sem fio fixo, porém com penetração
muito inferior àquela das quatro gerações principais.25
A popularização das gerações tecnológicas se deu de modo cada vez mais veloz
nos países avançados. Entre o lançamento do primeiro serviço de acesso discado à internet
(nos Estados Unidos), em 1990, e a sua popularização, em 1995, verificou-se um período
de cinco anos (ZAKON, 2010). Da oferta inicial de acesso banda larga fixa em 1996, no
Canadá, até sua disponibilização em escala ampla na América do Norte, em 2000, foram
necessários quatro anos (FCC, 2004). Já a utilização em massa do acesso móvel tomou me-
nos de três anos da operação da primeira rede 3G em 2001, no Japão (POSSI, 2006). A
quarta geração levou ainda menos tempo, dois anos, entre o lançamento piloto em 2009 na
Escandinávia e a sua massificação na América do Norte e Europa (WIKIPEDIA, 2014).
Desde o início de sua adoção pelo público em geral, no começo dos anos 1990,
a internet gradualmente migrou de redes mantidas pela comunidade acadêmica – em geral
públicas – para um conjunto de redes conservadas e operadas por firmas majoritariamente
privadas (ZAKON, 2010). Sua disseminação, exceto nos Estados Unidos, se deu de forma
concomitante com o rápido processo de privatização dos antigos monopólios de serviços de
telefonia ao redor do mundo e a abertura para a competição (GREEN; TEECE, 1998; LI;
XU, 2004). Na maioria dos países, as empresas privatizadas foram as “herdeiras” das redes
físicas (cabeamento, equipamentos e sistemas) dos monopólios estatais. Apesar da frequen-
te inexistência de restrições à entrada de novos competidores, as redes privatizadas repre-
sentaram a maior parcela da infraestrutura da internet até meados dos anos 2000, especial-
mente fora dos Estados Unidos (ibid.).
Em 1992, surgiu o primeiro provedor de acesso à internet brasileiro fora da área
acadêmica (Ibase), ainda em caráter não comercial (CARVALHO, 2006). No fim de 1994,
a Embratel, parte do monopólio estatal na época (sistema Telebrás), lançou o primeiro ser-
viço comercial de acesso, em modo experimental. Em meados de 1995, ele entrou em ope-
ração definitiva (GUIZZO, 2007). Em paralelo, a Rede Nacional de Ensino e Pesquisa
(RNP), até então a principal estrutura da rede internet no Brasil, passou a oferecer acesso
25 Autores como Lehr e Chapin (2010) argumentam que as diversas tecnologias são apenas parcialmente subs-
titutas, como é usualmente o caso de sucedâneos tecnológicos, por causa de diferenças importantes entre elas,
o que estimula o seu desenvolvimento continuado, reduzindo a probabilidade de convergência.
18
para setores fora da área acadêmica. Simultaneamente, surgiram os primeiros provedores de
acesso privados, estimulados pela decisão do Ministério das Comunicações de abrir o mer-
cado de provimento de acesso à competição, com a criação de 21 novos provedores em
1995 (ibid.). A partir de 1996-1997, o mercado doméstico consolidou-se e iniciou seu cres-
cimento em larga escala, com a entrada de grandes grupos de mídia (Abril, Folha, RBS).
No entanto, a oferta de cada geração de tecnologias de acesso no Brasil se deu
de progressivamente mais atrasada em relação aos centros mundiais de inovação. Enquanto
o acesso discado começou a se difundir com cinco anos de atraso (GUIZZO, 2007), a banda
larga fixa tomou impulso com seis anos de retardo, em 2002 (TELEBRASIL, 2014). Já o
acesso móvel passou a ser ofertado, em 2009, oito anos depois do lançamento pioneiro no
Japão (ibid.). Contudo, essa tendência parece ter se revertido no caso do acesso móvel de
quarta geração (4G/LTE), disponível no Brasil menos de cinco anos após o início da opera-
ção das primeiras redes comerciais na Europa (WIKIPEDIA, 2014).
Ao longo da trajetória do setor de internet, a produção de equipamentos físicos
e a provisão de serviços intangíveis (acesso, conteúdo e software) foram sempre comple-
mentares. Fornecedores de produtos inovadores – incluídos aí muitos serviços – foram gra-
dualmente se integrando ao “ecossistema”, atraindo parcelas crescentes da população para a
utilização da rede. A migração da interface humana direta para a interface mediada por
computadores tornou indispensável, além dos microcomputadores e outros dispositivos, a
criação de uma grande quantidade de programas para a interação dos usuários, estimulando
o desenvolvimento de um segmento de software pujante. Não obstante, a maior oportunida-
de criada com a internet foi a virtual emergência de uma indústria de informação eletrônica
– ou de “conteúdo”. Diferentemente da telefonia, a rede do tipo web criou um espaço to-
talmente novo para a troca de informações, não apenas entre usuários, mas principalmente
entre estes e a florescente comunidade de firmas provedoras de conteúdo para a nova mídia.
Em curto período de tempo – menos de trinta anos –, a ampla difusão e a pro-
funda penetração da “rede das redes” atingiram a maioria dos sistemas econômicos do pla-
neta (CORROCHER, 2001). As mudanças no ambiente institucional, com a introdução da
competição para as operadoras de telecomunicações, o movimento na direção dos sistemas
19
abertos26
e o crescimento da importância dos serviços de comunicação de dados foram cru-
ciais para isso (DALUM; VILLUMSEN, 2003). Uma série de setores tornou-se obsoleta.
Vários outros foram significativamente transformados ou simplesmente destruídos, enquan-
to um grupo crescente de novos setores foi viabilizado tão somente graças à internet. Em
paralelo, nos seus precursores imediatos – as telecomunicações e a informática –, a diferen-
ciação funcional e a diversidade organizacional aumentaram expressivamente (EDQUIST,
2004).
1.3. O sistema setorial de inovação e produção da internet
A “onipresença” da internet na maioria das atividades econômicas pode levar à
definição de fronteiras muito amplas para o que seria, afinal, o setor. Fundamentada em
uma definição mais restrita, apresentada anteriormente, esta pesquisa visa focar tão somen-
te nos elementos que constituem a base essencial – ou mínima – da internet e do mercado
de acesso. A questão das fronteiras é crítica na especificação do SSIP. A demarcação de
quem são os agentes27
analiticamente relevantes no sistema setorial deve estar relacionada,
de algum modo, com as funções que eles desempenham nos processos que conduzem ao
seu desenvolvimento e transformação.
Em última instância, a função do SSIP é promover o desenvolvimento e a difu-
são das inovações correlatas à internet, bem como proporcionar as condições para sua dis-
ponibilização na forma de produtos que atendam às necessidades dos consumidores e usuá-
rios, atuais e potenciais28
. Para isso, é fundamental a capacidade do sistema setorial de: (i)
criar conhecimento novo, ou novas combinações do conhecimento existente; (ii) mobilizar
os insumos e recursos necessários para o provimento dos bens e serviços; (iii) estabelecer
mercados que permitam sua circulação; e (iv) gerar os demais estímulos requeridos para a
mobilização de todos os atores envolvidos.
26 Sistemas abertos são aqueles cujas interfaces têm suas funcionalidades e especificidades bem conhecidas,
transparentes e prontamente disponíveis para os interessados. 27 O termo “agente” (ou “ator”), ao longo da tese, pode representar tanto indivíduos quanto organizações,
sejam elas firmas ou outras estruturas formais com objetivos explícitos (agências governamentais, associações
profissionais, comitês, universidades etc.). 28 A diferenciação entre consumidores e usuários é normalmente adotada no setor de telecomunicações e diz
respeito, no primeiro caso, à natureza mercantil da fruição dos bens e serviços envolvidos.
20
Para realizar sua atribuição primordial, segundo Edquist (2004), outras funções
tornaram-se essenciais no SSIP da internet: (i) a pesquisa, o desenvolvimento e a produção
de equipamentos (hardware) e sistemas (software); (ii) a expansão da infraestrutura técnica
de rede e a provisão de conexão com ela; (iii) a criação, a edição e a distribuição de conteú-
do pela rede; (iv) o gerenciamento de padrões e a regulação do sistema; e (v) a disponibili-
zação de educação, treinamento e consultoria relativos a todos os outros itens. Dada sua
complexidade, cada uma dessas funções é, usualmente, executada por grupos especializa-
dos de agentes, com superposições relativamente raras.
Como já mencionado, o ponto de partida da internet confunde-se com a con-
fluência histórica entre os setores de informática e de telecomunicações.
Durante mais de cem anos, até os anos 1980, o progresso tecnológico do das te-
lecomunicações ocorreu sem maiores sobressaltos. A partir do alto grau de cumulatividade
e apropriabilidade da sua base de conhecimento, o desenvolvimento do setor caracterizou-
se pela sequência de inovações incrementais, ao longo de uma mesma trajetória tecnológi-
ca29
(MALERBA; NELSON, 2011). Mesmo a inovação mais “radical” do período – a digi-
talização dos sistemas de telefonia, nos anos 1960 – não foi suficientemente “perturbadora”
para provocar alterações relevantes30
na sua estrutura, monopolista (CORROCHER, 2001).
Além disso, o ritmo de avanço era, usualmente, definido pelos monopólios estatais, inclusi-
ve por meio de agências oficiais – nacionais e internacionais – estabelecidas para essa fina-
lidade, especialmente no pós-guerra. No sentido dado por Pavitt (1986), o setor de teleco-
municações caracterizava-se pelo processo de creative accumulation, em contraposição ao
regime de creative destruction31
que é mais comumente associado com a internet.
Antes da internet, portanto, a organização do setor de telecomunicações era bas-
tante simples. Existia alta previsibilidade tecnológica e, por conseguinte, baixo risco. A
principal decisão da operadora limitava-se a sobre quando investir e não com qual tecnolo-
gia. Para os fornecedores de equipamentos e sistemas, o setor também fornecia muita esta-
29 Utilizamos o sentido proposto por Dosi (1982) para os termos “trajetória tecnológica”, “paradigma tecnoló-gico” etc., como será aprofundado no próximo capítulo. 30 Pelo contrário, a digitalização representou, antes, um passo importante na consolidação de economias de
escala e escopo das firmas dominantes, no sentido sugerido por Chandler (1990), reforçando sua posição
(DAVIES, 1996). 31 Esse tema será abordado conceitualmente no Capítulo 2.
21
bilidade, com contratos de longo prazo e diretrizes claras para o desenvolvimento de seus
produtos (DALUM; VILLUMSEN, 2003). Entretanto, o sistema de inovação das teleco-
municações, baseado em padrões acordados ex ante definidos por agências governamentais,
não conseguiu identificar adequadamente o potencial revolucionário de microprocessadores
baratos e poderosos nos equipamentos dos usuários, principais “demandantes” da internet.
A dinâmica distinta das bases de conhecimento entre informática e telecomuni-
cações, desde seus primórdios, deu origem a trajetórias tecnológicas que puderam se manter
relativamente separadas, pelo menos até os anos 1990. Por isso, um dos processos cruciais
na formação da base de conhecimento do setor de internet foi a gradual convergência32
en-
tre essas, e outras, trajetórias. Em primeiro lugar, a convergência das tecnologias de infor-
mação e comunicação. Em seguida, dessas com as tecnologias audiovisuais e de radiodifu-
são, que tornaram possível a “revolução” multimídia (CORROCHER, 2001).
Uma das principais consequências dos processos descritos, de estabelecimento
de um novo arranjo institucional e de desenvolvimento de uma base de conhecimentos nova
e complexa, foi a progressiva atração de novos atores para o setor de internet, além dos
participantes “naturais” provenientes das telecomunicações e da informática. Em mercados
historicamente dominados pelas operadoras incumbentes de telecomunicações ou pelos
“campeões nacionais” fabricantes de equipamentos, entrantes como provedores de acesso
ou de conteúdo e fornecedores de dispositivos puderam aproveitar o potencial proporciona-
do pelas mudanças para competir com sucesso, pelo menos parcialmente. Simultaneamente,
o acirramento da competição nos mercados novos acelerou a difusão das tecnologias mais
recentes e atraiu um número crescente de usuários. A organização geral dos agentes que
resultou desse processo – em conjunto com seus respectivos produtos – está esboçada na
Figura 1.
O nível superior da Figura 1 representa os consumidores e usuários da internet,
sejam eles organizações ou indivíduos, que gradualmente incorporaram os novos recursos
oferecidos pela rede mundial em seus processos e hábitos. A completa novidade da maioria
desses recursos, associada aos brutais ganhos de produtividade e conveniência viabilizados
32 Deve ser diferenciada a convergência de tecnologias, tratada aqui, da convergência de serviços ou de dispo-
sitivos, que podem ter impactos muito diversos da primeira (TENNENHOUSE et al., 1996).
22
por ela, tornou explosiva a demanda pelos produtos do setor. Por exemplo, “a demanda por
[comunicação de] dados pelos consumidores privados é uma das principais forças motrizes
para o desenvolvimento da [internet] banda larga” (DALUM; VILLUMSEN, 2003, p. 10).
À medida que os usuários percebem os benefícios inerentes aos produtos da internet, mes-
mo que de forma gradual e imperfeita, mais se acelera a sua difusão (EDQUIST, 2004).
Figura 1 – Agentes, produtos e organização do setor de internet.
Fonte: elaboração do autor.
No entanto, as relações entre desenvolvimento tecnológico e a sociedade, em
geral, e os consumidores, em particular, não são unidirecionais. Enquanto moldam as novas
demandas que estimulam, tecnologias como a internet são constantemente “direcionadas”
para trajetórias compatíveis com os interesses dos diversos grupos sociais envolvidos (DI-
MAGGIO et al., 2001). Os consumidores e usuários dos produtos resultantes diferem subs-
tancialmente entre si, até por abrangerem porções amplas da população de indivíduos e
organizações. As combinações das exigências heterogêneas desses usuários, em conjunto
com as estratégias dos demais atores do SSIP, orientam um processo de seleção pelo mer-
cado, definindo quais produtos – bem como seus produtores – se desenvolvem e quais de-
saparecem.
Nesse cenário, a combinação entre demanda heterogênea e múltiplas ofertas
competindo dá origem a efeitos de rede – incluindo externalidades – na adoção de muitos
Regulação e padronização
Financia-mento
Consumidores e usuários
Provedores de acesso
Fornecedores de Equipamentos e Sistemas
Rede Terminais Sistemas básicos
Provedores de Conteúdo
Aplicações Informação
Educação e treinamento
Consultoria
23
dos bens e serviços setoriais.33
Isso estimulou o desenvolvimento de uma estrutura de mer-
cado razoavelmente fragmentada, em particular no segmento de conteúdo, com produtos
diversificados para nichos específicos de usuários (SHAPIRO; VARIAN, 1999). Não obs-
tante, estudos empíricos indicam ser inadequada uma perspectiva completamente atomizada
dos consumidores. Sua organização em redes de interação social tem impactos na estrutura
setorial e na definição dos padrões tecnológicos (SILVERBERG; DOSI; ORSENIGO,
1988; MOWERY; SIMCOE, 2002; BIRKE; SWANN, 2006).
A presença de economias de escala significativas é característica importante de
segmentos do setor de internet, particularmente no provimento de sistemas e de conteúdo.
Enquanto a produção da “primeira” unidade de um novo serviço ou conteúdo geralmente
envolve custos elevados, sua posterior replicação costuma apresentar gastos negligíveis.
Além disso, a migração de serviços de informação para a internet usualmente estimula sua
demanda de modo substancial, alavancando o processo (HITT; TAMBE, 2007). Essa carac-
terística parece ter fomentado a significativa concentração dos mercados que se estabelece-
ram em torno de alguns conteúdos e serviços disponibilizados pela rede (SHY, 2001).
Por outro lado, historicamente os segmentos de conteúdo e de equipamentos e
sistemas têm sido exemplos frequentes de intensa concorrência, com heterogeneidade e
dinâmica turbulenta da estrutura industrial, em nível nacional e global. Pode-se facilmente
constatar que muitas das empresas hoje líderes nesses dois segmentos sequer existiam ou
eram economicamente irrelevantes quando a internet despontou comercialmente. Voltar
apenas dez ou cinco anos no tempo é o bastante para perceber as mudanças frequentes e
constantes. Nem mesmo a existência de empresas muito grandes, lucrativas e tecnologica-
mente capazes parece ser suficiente para impedir que entrantes, mais aptas e agressivas,
rapidamente alcancem participações de mercado significativas. Para os consumidores, por
sua vez, as consequências desse processo dinâmico são evidentes: diversidade na oferta,
inovações contínuas e preços cadentes.
Entre os extratos superior e inferior da Figura 1, entre consumidores/usuários e
provedores de equipamentos, sistemas e conteúdo, encontra-se ainda o segmento dos pro-
33 Os serviços de rede social (Facebook, Twitter etc.) são exemplos óbvios da importância desse fenômeno. A
discussão sobre a presença de externalidades de rede será aprofundada no Capítulo 2.
24
vedores de acesso. O acesso dos usuários à internet, ou seja, a possibilidade de conexão
com todos os demais usuários e provedores de informação da rede, depende da existência
de um conjunto de redes físicas interconectadas que suportem o processo de comunicação
de dados entre os pontos que compõem a internet (MACKIE-MASON; VARIAN, 1996). O
desenvolvimento, a operação e a manutenção dessas redes constituem o papel do segmento
de acesso, usualmente na forma de grandes empresas de telecomunicações integradas, que
oferecem simultaneamente diversos serviços, como telefonia e televisão por assinatura
(DALUM, VILLUMSEN, 2003).
Ao contrário dos outros segmentos, nos quais firmas outrora entrantes frequen-
temente se transformam em líderes, as principais firmas no segmento de acesso costumam
serem as mesmas que já dominavam o setor de telecomunicações, pelo menos no plano
nacional. Isso se verifica a despeito de um cenário institucional formalmente aberto para
novos competidores e um mercado economicamente atrativo e em rápida mudança tecnoló-
gica (GREEN; TEECE, 1998; LI; XU, 2004), a partir de uma base de conhecimento aberta
e não proprietária. Como será detalhado mais à frente, isso comumente se reflete, de modo
paradoxal, em um ambiente competitivo mais limitado, especialmente quando comparado
com os demais segmentos setoriais.
Uma explicação possível para o paradoxo apontado é a de que a emergência de
um paradigma tecnológico, em uma indústria profundamente marcada pelo passado de in-
tervenção estatal e de restrição da competição convencional, como as telecomunicações,
trouxe impactos econômicos profundos no novo sistema setorial (CORROCHER, 2001;
PEREIRA, 2014c). Modelos mentais e rotinas quotidianas das organizações, estabelecidos
ao longo de décadas, tanto nas firmas quanto nos governos e usuários, tiveram de ser trans-
formados. As empresas, em particular, tiveram de enfrentar não apenas uma mudança no
paradigma tecnológico, na maior parcela de suas operações, mas também – possivelmente,
de forma mais profunda – uma readequação das suas capacidades34
que permitisse a explo-
ração das novas oportunidades em um ambiente agora competitivo. Mas, a utilização das
capacidades inatas das firmas incumbentes, em particular o amplo controle das redes físicas
existentes e da infraestrutura de radioespectro disponível, colocou-as numa posição vanta-
34 O termo “capacidades” – ou “capabilities” – tem aqui o sentido proposto por Teece e Pisano (1994).
25
josa para a adoção das principais tecnologias que emergiram (DAVIES, 1996). Isso teria
proporcionado a essas companhias importante vantagem competitiva durante o período
crítico de formação do mercado de serviço de acesso à internet (EDQUIST, 2004). Essa
questão será retomada na próxima seção.
Apesar de sua habitual predominância, as incumbentes originárias das teleco-
municações não são as únicas firmas operando no mercado de acesso. Nem suas vantagens
são intrinsecamente insuperáveis, pelo menos teoricamente. Outras companhias, como inte-
gradores e fornecedores de sistemas, empresas de mídia ou novas operadoras de telecomu-
nicações, aproveitaram a oportunidade representada pelo desenvolvimento da internet para
também participar do segmento. Essas entrantes, em alguns cenários, transformaram-se em
competidoras vigorosas das incumbentes, frequentemente por meio das capacidades dife-
renciadas de que dispunham (NOAM, 1994), mas em geral desde que contassem com su-
porte mínimo do Estado35
(WALLSTEM, 2007).
Além das categorias de agentes abordadas, outros atores são ainda relevantes na
organização do setor de internet. Detalhes sobre eles, bem como informações adicionais
sobre o SSIP e suas instituições fundamentais e o processo de convergência dos setores
originários, estão disponíveis em Pereira (2014c).
1.4. Estrutura e dinâmica competitiva do mercado de acesso brasileiro
O sistema setorial de inovação e produção da internet é complexo, como visto.
Verifica-se significativa heterogeneidade entre os SSIP nacionais, originária das condições
econômicas, políticas e sociais existentes em cada país (CORROCHER, 2001). Sutilezas
nas trajetórias históricas domésticas foram sendo amplificadas com o passar do tempo e
tornaram-se determinantes da trajetória efetivamente percorrida (path dependence). Dife-
renças entre as taxas de penetração do serviço de acesso à internet, os preços médios e as
aplicações mais populares são algumas das dimensões que podem desencadear esse proces-
so. São ainda importantes, na determinação das trajetórias nacionais, a especificidade da
estrutura industrial e o papel das instituições locais (BRESCHI; MALERBA, 1997).
35 A plena interconexão com a rede do incumbente é, tipicamente, o requisito mínimo nesse sentido, sendo
frequente a necessidade de outros direitos mínimos para o entrante, como a colocalização de equipamentos.
26
A seleção do foco analítico no mercado de acesso à internet não foi fortuita.
Como se espera demonstrar, ele tem algumas características discrepantes com as interpreta-
ções econômicas mais usuais, distintamente dos demais segmentos setoriais. Em vez da
concorrência vibrante e dinâmica, típica da elevada oportunidade tecnológica e da baixa
apropriabilidade das inovações (PAVITT, 1984), a evidência empírica parece apontar na
direção da estabilidade competitiva e dominância de poucas firmas grandes. Como discuti-
do anteriormente, uma hipótese possível é que, por causa da forma particular como as insti-
tuições do mercado de acesso se organizaram, o processo de competição schumpeteriana
clássico (SCHUMPETER, 1912/1997) não pôde se estabelecer completamente.36
No restante do capítulo, a discussão está desdobrada em duas etapas. Na primei-
ra, será apresentado o contexto do mercado brasileiro de serviço de acesso à internet, com
atenção sobre os principais atributos da demanda e da oferta. Na segunda, será analisada a
organização desse mercado. Em ambas, a ênfase é na identificação dos fatos estilizados.
1.4.1. Contexto da demanda
Desde sua introdução comercial, em 1995, a internet tem se desenvolvido rapi-
damente no Brasil, assim como na maioria dos países de renda média. Em 2013, o serviço
de acesso estava disponível em mais de 95% dos municípios, atendendo 86 milhões de usu-
ários regulares – ou 51% da população acima de 10 anos de idade (CETIC.BR, 2012b,
2014a). Naquele ano, 42% dos domicílios37
dispunham de acesso (IBGE, 2014).
Em uma perspectiva global, a International Telecommunications Union (ITU),
agência especializada da ONU, avalia o desenvolvimento dos países em relação às TIC por
meio do ICT Development Index (IDI)38
. No que diz respeito ao índice geral, o Brasil ocu-
36 Obviamente, essa é apenas uma das possíveis leituras. Autores que tratam de “serviços inovadores” (ver,
por exemplo, Miles (2005)), elencam outras possibilidades, em princípio não conflitantes com aquelas aqui
propostas. Por outro lado, considera-se aqui o acesso à internet, a despeito do seu conteúdo tecnológico, mais
próximo dos serviços públicos “convencionais” (utilities) em relação àqueles tratados por esses autores. 37 O acesso domiciliar é apenas uma das formas de acesso à internet, em geral a mais importante. Para o esco-
po da análise que se segue, será considerado como “serviço de acesso” tão somente a conexão individual (de
pessoa, domicílio ou empresa). Não será considerado o potencial proporcionado pela utilização compartilhada do serviço de acesso (dentro dos domicílios e empresas, em lan houses, escolas etc.), ou seja, o número po-
tencial de pessoas que podem acessar a internet será superior ao número de conexões instaladas. 38 O IDI combina um total de 11 indicadores, agrupados em três índices intermediários (ITU, 2014), dos quais
o Access Sub-index é o mais relevante para a presente discussão. Ele captura a disponibilidade e a viabilidade
da infraestrutura para as TIC, para o que o serviço de acesso é elemento fundamental.
27
pa a posição 65 de um total de 166 países, ao passo que no subíndice de acesso está em 71º
lugar (ITU, 2014). Isso representa uma situação intermediária tanto no mundo como na
América Latina, onde o Brasil está atrás de países como Uruguai, Costa Rica, Chile e Ar-
gentina (ibid.).
Figura 2 – Evolução do número de conexões à internet no Brasil.
(milhões de acessos em domicílios e empresas; a linha representa a curva quadrática de tendência,
ajustada aos pontos por mínimos quadrados)
Fonte: elaboração do autor, com base em CETIC.br (2006-2014), IBGE (2014), ITU (2011) e Sepin
(2000).
A Figura 2 mostra o rápido crescimento no número de conexões à rede mundial
no Brasil, à medida que a internet tem se transformado em recurso indispensável para uma
parcela crescente dos brasileiros. A principal razão para esse incremento acelerado é a in-
clusão dos diversos serviços oferecidos pela internet à rotina quotidiana de indivíduos, fa-
mílias e organizações (COSTA; BIANCHINI, 2008).
Entretanto, o avanço das conexões é limitado pelo parque instalado de disposi-
tivos que se interconectam à internet. Isso fica claro na Figura 3. A grande maioria dos do-
micílios, escolas e empresas que contavam com computadores já dispunha de conexão em
2010. O crescimento aconteceu em conjunto com a base instalada desses equipamentos,
recentemente expandida pela popularização da tecnologia de acesso móvel sem fio. Além
dos smartphones – telefones que permitem a interface funcional com a internet –, uma nova
y = 96,296x2 - 403,47x + 1546,7R² = 0,9943
4
8
12
16
20
24
28
28
geração de produtos, de eletrodomésticos a máquinas industriais, está surgindo preparada
para utilizar a rede em diversas situações, desde o comércio eletrônico até a manutenção à
distância, independentemente do comando das pessoas – a chamada “internet das coisas”.
Figura 3 – Unidades com computador ou conexão à internet.
(porcentual sobre o total de unidades por tipo, base out. 2010 e out. 2013)
Fonte: elaboração do autor, com base em CETIC.br (2012b, 2014a, 2014b).
Além da crescente demanda por novos usos e modalidades de conexão, o aces-
so individual à internet ainda segue com grande potencial de crescimento no Brasil. Como
indica a Figura 4, mais de 70% dos domicílios contavam com orçamento disponível39
para
gastos com acesso, enquanto apenas 43% deles estavam efetivamente conectados em 2013
(CETIC.BR, 2014a; IBGE, 2014). Isso permite estimar um incremento possível de pelo
menos mais 17 milhões de domicílios, somente nessa modalidade.
A realização do potencial de crescimento da penetração do serviço de acesso
depende, porém, da significativa redução dos preços, uma vez que o orçamento disponível,
para os domicílios localizados na base da demanda, é de apenas R$10,00 por mês, enquanto
o mínimo praticado em 2013 era de cerca de R$30,00 (CETIC.BR, 2014a). A relevância
dos preços, como principal barreira para a difusão do acesso à internet – e das TIC em geral
39 A forma mais comum de pagamento pelo serviço de acesso à internet é a cobrança de uma mensalidade
fixa, insensível à utilização do serviço. Entretanto, com a introdução da banda larga móvel, a cobrança por
volume predefinido de tráfego está se tornando mais popular.
0%
20%
40%
60%
80%
100%
2010 2013 2010 2013 2010 2013
Domicílios Escolas Empresas
Com computador
Com internet
29
–, foi empiricamente determinada em outros estudos (por exemplo, ITU, 2014). Todavia, o
patamar de preço necessário para inclusão desses domicílios já foi atingido para um serviço
similar40
– a telefonia móvel –, que compartilha a rede com o acesso de banda larga móvel,
indicando sua viabilidade ao menos com a utilização das tecnologias sem fio.
Figura 4 – Distribuição acumulada do orçamento mensal médio dos usuários.
(distribuição acumulada média do orçamento mensal real dos usuários residenciais em reais para o
serviço de acesso, em porcentual do total de domicílios e reais, no período 2005-2012; a linha
representa a curva exponencial ajustada aos pontos por mínimos quadrados)
Fonte: elaboração do autor, com base em CETIC.br (2006-2013) e IBGE (2014).
Aparentemente, a dinâmica de crescimento do mercado de acesso à internet,
com seus múltiplos vetores, pode prover demanda para assegurar o aumento contínuo do
número de conexões, por um período ainda longo. Segundo a pesquisa anual sobre o uso
das tecnologias de informação e comunicação no Brasil, produzida pelo Centro de Estudos
sobre as TIC do CGI.br (2014a), estima-se que, nas condições atuais, existiria um potencial
para pelo menos 185 milhões de conexões, entre todas as modalidades. Isso representaria
um crescimento de mais de 380% sobre a base existente, de pouco menos de 38 milhões em
2013 (CETIC.BR, 2014a; IBGE, 2014; TELEBRASIL, 2014). Quando se compara com a
trajetória de um serviço correlato – a telefonia móvel – conclui-se que essa expectativa é,
40 Conforme relatórios financeiros das operadoras de telefonia móvel (Vivo, Claro, TIM e Oi).
y = 0,8568e-0,18x
R² = 0,994
0%
10%
20%
30%
40%
50%
60%
70%
80%
10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200
30
em princípio, viável: essa expansão significaria atingir menos de 70% da penetração41
que
os celulares dispunham em 2013.42
1.4.2. Contexto da oferta
Uma das características da primeira geração da tecnologia de acesso era o seu
custo de implantação relativamente baixo – para os provedores – e a ampla possibilidade de
competição, por meio do compartilhamento da rede pública de telefonia existente (SI-
QUEIRA, 1997; NEWMAN, 1999). Isso possibilitou o surgimento de muitos provedores,
no Brasil e no exterior, durante os primeiros anos da internet como fenômeno de massas. A
entrada de grandes firmas provenientes da área de mídia (grupos Folha, Abril e RBS), a
partir de 1996, potencializou o rápido crescimento desse mercado no país. Esse desenvol-
vimento se deu, inicialmente, sem a participação relevante das empresas estatais de teleco-
municações – que compunham o sistema Telebrás – ou de suas sucedâneas, resultantes do
processo de privatização em 1998 (SIQUEIRA, 2000).
Figura 5 – Market share dos provedores de acesso à internet em 1998.
Fonte: elaboração do autor, com base em Yankee Group (1998).
A Figura 5 mostra a situação no ano de 1998. Apesar da deficiência das infor-
mações disponíveis sobre esse período, a evidência empírica é de que o nível de concorrên-
41 O termo “penetração” diz respeito à proporção da população com acesso ao serviço. Em geral, é calculada
como porcentual da população, mas em alguns casos pode se referir à proporção de domicílios ou organiza-
ções que dispõem de acesso para uso de seus membros. 42 Segundo a Anatel (2014a), existiam pouco mais de 270 milhões de conexões de telefonia móvel em dezem-
bro de 2013.
12%
11%
6%
2%
2%
1%
59%
UOLZazMandicBR HomeShoppingIBM/GSIAmchamOpen LinkOriginetUninetDialdataOutros
C4 = 0,31
HHI = 0,03
31
cia do mercado de acesso era mais elevado – e a concentração muito mais reduzida – do
que no período subsequente. No entanto, essa conclusão necessita ser mais bem qualificada.
Até a privatização da Telebrás, em 1998, os serviços de telecomunicações eram
quase exclusivamente oferecidos pelas empresas estatais federais que compunham o siste-
ma.43
Ainda no período pré-privatização, o Ministério das Comunicações autorizou a ope-
ração privada dos provedores de acesso à internet (Portaria 148, de 31 de maio de 1995) e
restringiu a atuação direta da Telebrás, temendo a extensão do domínio da estatal para o
novo mercado (MINICOM, 1996). Imediatamente após a privatização44
, as incumbentes de
telefonia fixa iniciaram a entrada no segmento, a despeito da manutenção da Portaria 148.
Dadas as limitadas alternativas tecnológicas disponíveis na época, as incumbentes móveis
não se envolveram no processo nessa ocasião.
Apesar de, no primeiro momento, não participarem diretamente da oferta do
serviço de acesso, as operadoras de telecomunicações fixas forneciam a maior parte da in-
fraestrutura envolvida. Tanto a rede telefônica quanto o backbone45
da internet nacional já
pertenciam a essas empresas. Por isso, na prática, fração majoritária do valor adicionado
pelo serviço de acesso sempre foi capturada por elas, seja na forma de cobrança dos con-
sumidores pelas chamadas telefônicas para conexão com os provedores ou de pagamento
por estes do transporte de dados para a rede mundial.
Essa lógica, que obscurecia as fronteiras entre o provedor de acesso e as opera-
doras de telecomunicações, ficou ainda mais evidente em 2000, com o lançamento dos pro-
vedores “gratuitos”, nos quais o usuário não pagava mais o provedor de acesso. Com base
43 Nesse sistema, a Embratel fornecia os serviços internacionais e interestaduais e um conjunto de 27 empre-
sas estaduais oferecia os serviços locais e estaduais. Além das empresas do sistema Telebrás, controlado pelo
governo federal, existiam ainda três pequenas operadoras controladas por governos municipais e uma única
operadora privada, na região sul do estado de Minas Gerais. 44 Na privatização, a Telebrás foi reorganizada e consolidada em apenas quatro empresas de serviços fixos: a
Embratel e outras três concessionárias de telefonia fixa regionais: Telesp (futura Telefônica/Vivo) no estado
de São Paulo, Tele Norte Leste (depois, Telemar/Oi) nas regiões Norte e Leste e Tele Centro Sul (Brasil Tele-
com/Oi) nas regiões Centro-Oeste e Sul, além de dez empresas de telefonia móvel, separadas das concessio-
nárias fixas, e dez novas licenças para telefonia móvel, vendidas simultaneamente (MINICOM, 1996). Em
curto espaço de tempo, essas vinte empresas foram consolidadas em quatro grandes grupos (Vivo, Claro, Oi e TIM), três deles integrados às concessionárias incumbentes de telefonia fixa originais (TELECO, 2011). 45 Backbone é a infraestrutura de transporte de informação que compõe a parcela de nível hierárquico mais
elevado da internet, representando redes de elevada capacidade de transmissão de dados e grande cobertura
geográfica, que interconectam as redes menores e permitem a integração do sistema no nível nacional e inter-
nacional, de forma transparente para os usuários.
32
nos valores das ligações locais – os “pulsos” – pagas pelos usuários, as telefônicas incum-
bentes passaram a remunerar diretamente os provedores, repassando uma parcela de suas
receitas.46
O novo modelo rapidamente tornou-se muito popular e permitiu, na prática, que
as operadoras de telecomunicações assumissem o controle do mercado de acesso à internet,
pois podiam “escolher” arbitrariamente os provedores que ofereciam o serviço “gratuito”
por meio de suas redes telefônicas.47
Como seria de esperar, os provedores associados às
operadoras prontamente dominaram a cena.
Apenas após a consolidação do mercado de acesso discado, em 2002, a banda
larga começou a ser oferecida em escala ampliada no país (TELEBRASIL, 2014). Nesse
momento, o domínio das incumbentes originárias do sistema Telebrás era evidente na tec-
nologia tradicional – o acesso discado – e, especialmente, na nova tecnologia – a banda
larga fixa. A restrição da competição na tecnologia tradicional, a partir de 2000, aparente-
mente reduziu a possibilidade de que algum provedor de acesso “independente” dispusesse
de condições, ou estímulo, para oferecer acesso banda larga, em escala significativa, antes
das incumbentes. Os provedores grandes, em sua maioria, haviam sido adquiridos pelas
operadoras de telefonia. Os demais, ou foram enfraquecidos pela concorrência com os pro-
vedores “gratuitos” das incumbentes ou dependiam de repasses financeiros destas para so-
breviver ou, simplesmente, desapareceram.
Esse processo de gradual concentração e redução do número de competidores
teve como consequência a peculiaridade do perfil dos ciclos de difusão das tecnologias de
conexão no Brasil, conforme a Figura 6. De acordo com os registros históricos, a difusão
das novas tecnologias de acesso à internet se verificou de modo gradualmente vez mais
acelerado nos países avançados. Como discutido anteriormente, cada uma das quatro prin-
cipais gerações tecnológicas levou, sucessivamente, menos tempo para se tornar disponível
para uma parcela relevante do universo de usuários. Entretanto, no Brasil, ocorreu o fenô-
meno inverso. Enquanto a primeira geração (acesso discado) foi disponibilizada simultane-
46 Esse modelo, de “taxa de interconexão invertida”, surgiu inicialmente na Inglaterra (CORROCHER, 2001). 47 As três operadoras de telefonia local, a partir de 2000, selecionaram inicialmente apenas um provedor “gra-
tuito” em todas as 3 redes, o iG. A partir da aquisição do iG pela Telemar, em março de 2001, a extinta Brasil
Telecom adquiriu seu próprio provedor, o iBest, seguida pela Telefônica, que inaugurou o iTelefônica.
33
amente aqui e no exterior, a segunda (ADSL e cabo) chegou com dois anos de atraso e a
terceira (UMTS) e quarta (fibra e LTE) gerações, com cinco anos de retardo.
Figura 6 – Ciclos de difusão de novas tecnologias no exterior e no Brasil.
(período, em anos, entre a introdução da tecnologia de acesso e o início de sua massificação nos
países avançados e no Brasil)
Fonte: elaboração do autor, com base em FCC (2004), Possi (2006), Guizzo (2007), Zakon (2010) e
Wikipedia (2014).
Uma possível – e frequente – explicação para esse fenômeno supõe que, sem a
ameaça de concorrentes capazes de antecipar a introdução da banda larga (fixa e móvel), as
incumbentes puderam aguardar o momento mais propício para a modernização de suas re-
des.48
Isso possibilitou retardar a oferta massiva da banda larga (TELEBRASIL, 2014),
preservando a capacidade financeira das empresas para os intensos movimentos de fusões e
aquisições verificados no período (TELECO 2011). No caso da banda larga móvel, um fa-
tor adicional de retardo foi a demora da Anatel em oferecer o espectro de radiofrequência
necessário para a implantação da tecnologia UMTS/3G (1,9 / 2,1 GHz) e LTE/4G (2,5 GHz
48 “Em termos tipicamente schumpeterianos, o processo de introdução de inovações tecnológicas radicais no
sistema induz um conflito político e social entre os interesses dos monopolistas estabelecidos, que tentam usar seu poder institucional para influenciar o padrão das mudanças tecnológicas em seu favor, e os de uma nova
esfera de inovadores, que buscam expor o sistema à competição (SCHUMPETER, 1943, p. 87). A concorrên-
cia de novas tecnologias ameaça minar o poder das práticas monopolistas tradicionais que visam defender
posições estabelecidas, protegendo o capital fixo, ao retardar a introdução de novas tecnologias, e definindo
os preços para maximizar os lucros de curto prazo” (DAVIES, 1996, p. 1172).
0
1
2
3
4
5
6
7
8
9
1ª geração - acessodiscado
2ª geração - banda largafixa (ADSL/cabo)
3ª geração - banda largamóvel (UMTS)
4ª geração - banda largaalta velocidade (fibra/LTE)
ExteriorBrasil
34
e 800 MHz).49
Apesar de a maioria dos países avançados ter realizado as licitações para a
cessão do espectro requerido ainda no fim dos anos 1990 (3G) e início dos 2000 (4G)
(FUNK, 2009), no Brasil esse processo aconteceu tão somente em 2007 (3G) (TELECO,
2011), quando 190 redes UMTS operavam em 45 países (GSMA, 2011), e em 2012 (4G)
(ANATEL, 2014a), em um momento no qual 91 redes LTE estavam em uso em 44 países
(WIKIPEDIA, 2014).
Um dos aspectos do atraso da introdução da tecnologia de banda larga móvel,
favorável para as operadoras incumbentes, foi a possibilidade de depreciação da geração de
rede móvel anterior (GSM/2G), que havia sido instalada a partir de 2001. Caso a entrada da
tecnologia UMTS/3G no Brasil tivesse se dado simultaneamente à dos países avançados,
em 2002-2004, as firmas incumbentes teriam arcado com custos adicionais substanciais.50
Dessa forma, a pressão competitiva, para a introdução de novas tecnologias no período, foi
bloqueada pelo processo regulatório estabelecido pela Anatel, que concedeu apenas uma
licença de rede móvel “nova” durante a década de 2000 (TELECO, 2011).51
Porém, como sugerem Ansari e Garud (2009), deve-se ressaltar que a implanta-
ção da banda larga móvel, além da questão da disponibilidade de radioespectro, encontrou
outros percalços. Desalinhamentos setoriais observados, mas não antecipados pelos agentes
que participavam do processo, sustentam essa conclusão: (i) restrições de financiamento
das operadoras, por causa da então recente crise das empresas “.com” e do elevado custo
das redes; (ii) demanda restrita dos usuários, associada com a demora na difusão de disposi-
tivos e serviços populares para o desfrute da internet com mobilidade; (iii) oposição de ana-
listas financeiros, acionistas e ambientalistas, preocupados com os riscos (tecnológicos,
49 A indisponibilidade de radioespectro para os entrantes é um dos fatores críticos de restrição da competição
no segmento de acesso móvel. Redes fixas, que não requerem licenças de radioespectro, têm custos iniciais
muito elevados, o que aumenta o risco e desestimula a entrada de novas operadoras. Redes sem fio, inclusive
as móveis, têm custos fixos iniciais muito menores e, por isso, costumam ser a opção tecnológica preferencial
dos entrantes, ao permitir o crescimento orgânico com risco relativamente reduzido (LEHR; CHAPIN, 2010). 50 Considerando a necessidade de depreciação acelerada das redes móveis de segunda geração, caso novas
licenças fossem disponibilizadas para operadoras entrantes, que disporiam da tecnologia de banda larga móvel
competitiva também com a tecnologia fixa (ADSL) empregada na época. Nesse cenário, as incumbentes pos-sivelmente se veriam obrigadas a substituir rapidamente as redes antigas, para manter sua competitividade. 51 O bloqueio foi reforçado, ainda, pela paralisação do processo para licenças para uma tecnologia de banda
larga móvel alternativa ao UMTS ou ao LTE, o WiMAX (utilizando espectro em 3,5 GHz ou 10,5 GHz). A
outorga de novas licenças permanece retido desde 2006, em virtude de processos judiciais movidos pelos
incumbentes e da pressão do Minicom (COMPUTERWORLD, 2006, 2011; TELETIME, 2006).
35
financeiros e sanitários) inerentes à nova tecnologia; e (iv) evoluções incrementais da tec-
nologia antiga (GSM/2G), que ofereceram sobrevida às redes legadas, incorporando alguns
dos benefícios planejados para o UMTS/3G (ibid.). Bohlin, Gruber e Koutroumpis (2010)
encontraram relevante evidência empírica desse último fenômeno em 177 países. Portanto,
além da escassez do radioespectro, provavelmente os interesses específicos das incumben-
tes brasileiras obtiveram suporte na fragilidade das potenciais entrantes, no ambiente insti-
tucional desfavorável e no aparente desinteresse inicial dos usuários. Por outro ângulo,
aporta evidência da importância da difusão das novas tecnologias no lado da demanda e sua
influência em casos que são usualmente tratados apenas no contexto da oferta.
Figura 7 – Evolução do tipo de conexão principal no domicílio.
(participação por tipo de conexão nos domicílios da área urbana sobre domicílios com acesso)
Fonte: elaboração do autor, com base em CETIC.br (2006-2014).
A Figura 7 mostra as participações de cada geração tecnológica, considerando-
se a principal forma de acesso nos domicílios como unidade de análise. Resta clara a relati-
va estabilização nos últimos anos. Entretanto, quando se analisam os números absolutos52
em todas as modalidades de acesso, na Figura 8, é patente o maior potencial de crescimento
52 A contagem do número de acessos de banda larga móvel é problemática. Como as tecnologias empregadas
se prestam a diversas finalidades além do acesso à internet – como voz, transações bancárias, telemetria etc. –,
não é possível definir com precisão o número de acessos móveis efetivamente utilizados com esse propósito.
No que segue, convencionou-se considerar a quantidade total de acessos UMTS/3G como métrica, o que
certamente superestima o número real de acessos à internet.
0%
20%
40%
60%
80%
2005 2006 2007 2008 2009 2010 2011 2012 2013
Banda larga fixa
Banda larga móvel
Acesso discado
Não sabe / não resp.
36
da banda larga móvel, em particular na modalidade de acesso individual (fora da residên-
cia), seguido pela banda larga fixa, com o acesso discado relativamente estagnado.
Figura 8 – Quantidade de acessos à internet.
(milhões de acessos no fim de cada ano, apenas acessos de uso exclusivo para o serviço)
Fonte: elaboração do autor, com base em CETIC.br (2006-2014), Telebrasil (2014) e Anatel
(2014a).
Apesar dos retardos na implantação, já em 2011 a tecnologia de banda larga
móvel se tornou a primeira alternativa de acesso.53
A partir do início da oferta de serviços
UMTS/3G, os acessos móveis são os que crescem mais velozmente. A quantidade de aces-
sos discados, tecnologia mais antiga, segue em redução constante desde meados da década
de 2000, em função do caráter estrito de substituição entre banda estreita e banda larga. Já
entre banda larga fixa e móvel existe uma relação híbrida: enquanto são substitutas em cer-
tas situações, são complementares em outras54
(LEHR; CAPIN, 2010).
53 Uma questão institucional chave para o crescimento do acesso banda larga fixo é o regime de unbundling,
ou seja, a obrigação – ou não – e as condições impostas às operadoras incumbentes para compartilhar sua
infraestrutura física com as operadoras entrantes (CAMBINI; RONDI, 2012). A evidência empírica internaci-
onal indica que a existência de um regime eficaz de unbundling representa um importante estímulo para a
aceleração da penetração da banda larga (DISTASO; LUPI, MANENTI, 2006). Entretanto, um regime de unbundling atrativo para as entrantes não foi viabilizado pela Anatel no Brasil, o que se depreende da virtual
inexistência desse tipo de competição (intraplataforma) no país. Por isso, a discussão que se segue trata ape-
nas da competição interplataformas, na qual as entrantes são obrigadas a construir suas próprias redes físicas. 54 O caráter de substituição advém do fato de ambas serem plataformas de transporte de protocolo IP multis-
serviços e de alta capacidade. A complementaridade é proveniente da maior confiabilidade e capacidade da
5
10
15
20
25
30
35
40
45
2005 2006 2007 2008 2009 2010 2011 2012 2013
Banda larga móvel
Banda larga fixa
Acesso discado
37
1.4.3. Organização do mercado no período recente
Esta última seção está dividida em quatro partes. A primeira aborda rapidamen-
te a evidência empírica sobre a organização da demanda e a influência da rede social dos
consumidores nesse processo. Na segunda, são apresentados os dados sobre a divisão do
mercado entre os provedores e analisadas as questões ligadas à concentração. Na terceira,
são avaliados os dados disponíveis sobre os atributos definidores da qualidade do serviço
de acesso. A derradeira trata da informação sobre preços e margens dos serviços.
1.4.3.1. Organização da demanda e redes sociais
Segundo a Anatel (2014a), no fim de 2013 o Brasil contava com 63,3 milhões
de conexões à internet em banda larga, em suas diversas modalidades (22,2 milhões na fixa
e 41,1 milhões na móvel), além de cerca de 2,8 milhões de usuários de banda estreita (CE-
TIC.BR, 2014a). Em termos domiciliares, eram 27,6 milhões de domicílios com micro-
computador conectado, ou 42,4% do total (IBGE, 2014). Esse contingente de acessos su-
portava 85,9 milhões de usuários regulares, ou 51% da população maior que 10 anos (CE-
TIC.BR, 2014a).
Figura 9 – Proporção de usuários por atividade realizada na internet em 2013.
Fonte: elaboração do autor, com base em CETIC.br (2014a).
plataforma fixa, em comparação à mobilidade associada com restrição de banda (escassez de radioespectro)
da plataforma móvel (LEHR; CAPIN, 2010).
0%
20%
40%
60%
80%
100%
Comunicação Informação etransações
Multimídia Educação Downloads e criaçãode conteúdo
38
É digna de nota que a principal atividade dos usuários é a comunicação entre si.
Em 2013, nada menos do que 77% dos usuários brasileiros utilizaram a internet para se
comunicar por meio das plataformas de redes sociais – como o Facebook – configurando-se
como a maior finalidade de uso (CETIC.BR, 2014a). A Figura 9 detalha essas atividades.
Figura 10 – Taxa de churn mensal de serviços móveis (voz e dados).
(média nacional, países selecionados, base segundo trimestre de 2013)
Fonte: análise do autor, com base em Merrill Lynch (2013).
Apesar da rápida difusão do acesso à internet no Brasil, são recorrentes as evi-
dências de insatisfação dos consumidores com os serviços, em especial no que diz respeito
à questão da qualidade, como será discutido na Seção 1.4.3.3. A Figura 10 apresenta uma
das consequências dessa insatisfação, o elevado churn. Nos serviços móveis brasileiros, a
0% 1% 2% 3% 4% 5% 6%
Japan
Switzerland
Australia
Sweden
Canada
Hon Kong
US
Germany
Belgium
France
Portugal
Turkey
Argentina
New Zealand
Korea
UK
Spain
Italy
Chile
Mexico
China
Nigeria
Colombia
Russia
Brazil
India
South Africa
Peru
39
taxa de churn era de 3,8% no segundo trimestre de 2013,55
enquanto a taxa mundial, de
3,6% (MERRILL LYNCH, 2013).56
Isso significa que, em média, mais de 45% de todos os
usuários brasileiros trocam de provedor anualmente, número que tem crescido significati-
vamente nos últimos anos (MERRILL LYNCH, 2012). Por outro lado, em termos globais,
apenas 24% dos usuários estão satisfeitos com o provedor atual (NOKIA SIEMENS, 2013).
Figura 11 – Intenção de churn semestral dos clientes de banda larga fixa.
(no prazo de até 6 meses, porcentual dos respondentes conforme a velocidade contratada, em países
selecionados)
Fonte: Analysis Mason (2013).
Infelizmente, os dados relativos ao serviço de acesso fixo são mais escassos. A
informação disponível indica que as taxas de churn na modalidade fixa, apesar de inferiores
às da móvel, são também bastante elevadas, inclusive no Brasil (ANALYSIS MASON,
2013; FOLHA DE S. PAULO, 2013). Como referência, a Figura 11 apresenta outra pesqui-
sa (ANALYSIS MASON, 2013), envolvendo consumidores de acesso fixo, em seis paí-
55 Nesse caso, a taxa de churn mede a fração da base dos usuários do serviço de telefonia móvel (voz e dados)
que sai da base dos respectivos provedores a cada mês. Em termos gerais, o churning é o termo usual dado ao
movimento de “entrada” e “saída”, dos usuários de produtos/serviços de consumo recorrente, nos fornecedo-
res/provedores respectivos. 56 Média trimestral, considerando os 48 principais mercados nacionais do mundo.
40
ses.57
Nela, verifica-se situação pouco melhor do que no serviço móvel: 14% dos respon-
dentes estavam avaliando trocar seu provedor atual de acesso fixo nos próximos seis meses,
contra 23% dos usuários de acesso móvel. Parece razoável supor que o cenário da banda
larga fixa doméstica, para o qual dados semelhantes não estão disponíveis, não seja distinto.
No que toca à forma de organização da demanda, e a despeito da falta de infor-
mação específica do caso em tela, é razoavelmente rica a literatura empírica que mostra a
influência das redes sociais58
nos processos decisórios dos consumidores de produtos sofis-
ticados (EARL; POTTS, 2004; MORONE; TAYLOR, 2010). Isso inclui situações que são
próximas ao mercado de acesso, como os serviços de telefonia móvel, de rede social online
e de mensagens instantâneas e o de telefones móveis (BIRKE; SWANN, 2006; DOYLE,
2007; YANG; HE; LEE, 2007; DASGUPTA et al., 2008; DIERKES; BICHLER;
KRISHNAN, 2011; MARTIN; LUEG, 2013).
Apesar de não terem sido identificados estudos aprofundados sobre o tema no
Brasil, a informação anedótica parece indicar que as circunstâncias culturais e institucionais
particulares do país podem reforçar a influência da rede social na decisão dos consumido-
res. Pesquisa da agência DraftFCB em cinco países mostrou que mais de 40% dos consu-
midores no Brasil, China ou Índia usualmente recebem influência da sua rede social durante
a decisão de aquisição de produtos, contra 29% nos Estados Unidos e apenas 15% na Ale-
manha (SCHELLER, 2012).
Dasgupta et al. (2008) e Dierkes et al. (2011) usaram volumosas bases de dados
de chamadas de telefonia móvel para identificar o papel das relações interpessoais em uma
rede social de grande escala. Eles mostraram que a fidelidade de um cliente com o provedor
de telefonia – e, portanto, o churn – foi fortemente dependente do comportamento e do nú-
mero de seus conhecidos. O segundo grupo de autores também detectou a significativa cor-
relação de compras cruzadas (cross-buy) entre os usuários interconectados na rede. As in-
fluências foram identificadas com o processo de difusão no interior da rede social, no qual
57 4.445 respondentes em amostras representativas das populações dos países. 58 Note-se que se trata aqui, e no que segue, de redes sociais na acepção geral do conceito (a organização das
relações entre indivíduos socializados) e não das plataformas eletrônicas – como o Facebook – que são usu-
almente denominadas pelo mesmo termo. Essas plataformas são um dos possíveis substratos sobre os quais as
redes sociais se configuram, certamente não o único.
41
o peso das conexões (medido pela frequência e duração das chamadas entre os indivíduos)
foi decisivo para a dinâmica das decisões de churn e cross-buy. Usando um modelo de rede
de Markov, a influência da rede social explicou 19,5% do churn e 8,4% do cross-buy dos
consumidores (ibid.).
Resultados semelhantes foram encontrados no caso dos serviços de redes soci-
ais online59
(KARNSTEDT et al., 2010; KAWALE; PAL; SRIVASTAVA, 2009). Nesse
sentido, Doyle (2007) apresentou dados que indicam, para os Estados Unidos, que 76% dos
consumidores de determinados bens e serviços consultam os amigos antes de decidir sobre
a compra desses itens. Amigos foram a principal fonte de informação para a de tomada de
decisão, à frente de experiências anteriores com as empresas/marcas (68%), recomendações
da imprensa (22%), propaganda (15%) e sites na internet (8%).
Na mesma linha, Bhatt et al. (2010) estudaram a adoção de serviços (pagos)
dentro de grandes redes de mensagens instantâneas. Os autores encontraram um elevado
grau de correlação entre a adoção dos produtos e a proximidade social dos adotantes (cross-
buy). Surpreendentemente, houve pouca evidência de influência de indivíduos altamente
conectados (os nós de grau elevado) nos menos,60
mas, ao contrário, um forte indício de
que a “pressão dos pares” era uma força mais relevante para adoção. “Vizinhanças sociais
[na rede] ricas em adoções [...] contribuíram mais para novas adoções em comparação com
as vizinhanças que são pobres” (BHATT; CHAOJI; PAREKH, 2010, p. 1039).
Yang et al. (2007) apresentaram evidência sobre o efeito do grupo social na de-
cisão de aquisição de telefones celulares em dois países (EUA e China). No estudo, as pos-
síveis influências interpessoais foram avaliadas em diferentes níveis (informacional, utilitá-
rio e de valoração). Essas influências foram estatisticamente significativas em ambos os
países. Detectou-se, ainda, que entre os diversos níveis de influência, a do tipo informativo
teve o maior impacto na opção do consumidor. Apesar das diferenças culturais, os resulta-
dos foram bastante semelhantes entre os países, mesmo em grupos de referência distintos
(sexo, idade, profissão). Deve-se notar, no entanto, que a influência social não foi tão im-
59 Diferentemente do conceito mais amplo de rede social, aqui, rede social online significa tão somente um
tipo de serviço eletrônico de troca de informações oferecido por provedores de conteúdo (Facebook, Twiter
etc.), usualmente manejado pelos usuários de forma homóloga às suas redes sociais reais. 60 Como é geralmente sugerido pela literatura sobre redes sociais (ex. JACKSON, 2010).
42
portante quanto o preço/custo ou o design/tecnologia na determinação de compra, indican-
do a concorrência dos mecanismos individuais clássicos e dos sociais.
A questão da interação entre o processo de influência das redes sociais e a aná-
lise preço-qualidade convencional é complexa, conforme aponta a maioria dos trabalhos
empíricos. Aparentemente, na decisão de aquisição de bens e serviços inovadores, ou com
alto grau de incerteza sobre os atributos de qualidade e utilidade, em diversas situações a
influência da rede social pode ser decisiva. Mas, como lembra um experiente profissional
de pesquisas de mercado, sem ignorar que “[d]epois que a pessoa adquire conhecimento [do
bem ou serviço], o custo-benefício passa a ser determinante” (SCHELLER, 2012).
1.4.3.2. Organização da oferta e concentração
A infraestrutura da internet no Brasil está concentrada em quatro backbones
principais. Três deles pertencem às operadoras de telecomunicações incumbentes – Embra-
tel, Oi e Vivo – originadas da privatização do sistema Telebrás. O quarto é composto pela
Rede Nacional para o Ensino e Pesquisa (RNP), mantida por entidades majoritariamente
públicas – federais e estaduais. Os quatro têm cobertura nacional e múltiplas conexões com
os maiores backbones internacionais. Eles fornecem conexão tanto diretamente – para indi-
víduos e organizações – quanto para provedores de acesso pequenos e médios.
Figura 12 – Divisão do mercado de acesso banda larga fixa à internet.
(base ago. 2014)
Fonte: elaboração do autor, com base em Anatel (2014c).
91%
3%
6%
Provedores grandes(> 1 milhão usuários)
Provedores médios(entre 50 mil e 1 milhão usuários)
Provedores pequenos(< 50 mil usuários)
43
O mercado de acesso à internet no Brasil contava com 2.176 provedores em
agosto de 2014 (Anatel, 2014c). Entre os provedores de banda larga fixa, os quatro princi-
pais detinham 91% desse mercado (ibid.), conforme a Figura 12. Na banda larga móvel, os
quatro maiores controlavam 99% (ibid.). Se forem considerados somente os acessos banda
larga fixa e móvel (as tecnologias dominantes),61
os cinco grandes grupos do setor62
con-
centravam 95% do mercado em 2014 (ibid.).
Apesar do significativo número de pequenos e médios provedores de acesso no
mercado brasileiro, apenas um provedor entrante, a empresa GVT, logrou obter participa-
ção nacional superior63
a 1% no período recente (ANATEL, 2014c; TELEBRASIL, 2014).
Quando se analisa a banda larga fixa, identificam-se somente 44 firmas entrantes com pelo
menos 1% de market share em seus respectivos mercados estaduais em 2014 (ANATEL,
2014c). Esses 44 provedores regionais possuíam market share médio de apenas 4% nos
seus estados e, em conjunto, representavam tão somente 1,5% do total das conexões de
banda larga fixa no Brasil (ibid.). No segmento móvel, o cenário é ainda mais extremo. Das
duas únicas entrantes nos últimos quinze anos, a Aeiou/Unicom deixou o mercado após
poucos meses de operação e a Nextel detinha share inferior a 1% em julho de 2014.
Quando se avalia a evolução da concentração da oferta no mercado de acesso
desde 2003, segundo a Figura 13, verifica-se uma lenta mas constante redução na banda
larga fixa. Entretanto, parte dessa diminuição é compensada pelo crescimento da participa-
ção da banda larga móvel, que apresenta concentração maior. Isso manteve estável o nível
médio ponderado do índice de Herfindahl-Hirschman64
(HHI), considerando esses dois
segmentos do mercado, em torno de 0,25 entre 2009 e 2013 (ANATEL, 2014c; TELE-
BRASIL, 2014). Esse patamar, a partir da diretriz convencional do Departamento de Justiça
dos Estados Unidos (2010), classificaria o mercado como “concentrado”, mas não como
61 Em virtude da indisponibilidade de dados com o mesmo nível de desagregação para as três principais famí-
lias tecnológicas de acesso – discado (banda estreita), banda larga fixa e banda larga móvel – o maior deta-
lhamento será fornecido apenas para as tecnologias de banda larga. Isso não reduz a relevância dos resultados,
dado que a tecnologia de acesso discado está em franco declínio e representa parcela pouco relevante. 62 Vivo, Embratel/Net/Claro, Oi, TIM e GVT. 63 13% de participação no acesso fixo e 1,8% no total (ANATEL, 2014c). 64 O índice de Herfindahl-Hirschman (HHI) é calculado pela soma dos quadrados do market share – ou parti-
cipações de mercado – de cada firma em um mercado específico. É a principal medida de concentração de
mercado avaliada pela Agência Nacional de Telecomunicações (Anatel).
44
“altamente concentrado”. Porém, a medida de concentração pelo índice de participação das
quatro maiores firmas (C4),65
referência usual dos órgãos antitruste brasileiros, fornece o
valor médio de 0,93 estabilizado entre 2009 e 2013, bastante acima do limite (0,75) aponta-
do como “indício de concentração” (SEAE; SDE, 2001). Isso sugere, ainda, que a ligeira
redução do HHI, apontada pela Figura 13, se deu principalmente por meio da redistribuição
do market share entre os quatro provedores grandes, e não do aumento da participação dos
entrantes – com a exceção da GVT na banda larga fixa.
Figura 13 – Evolução do HHI e do C4 em âmbito nacional.
(resultados dos índices de Herfindahl-Hirschman e de concentração das quatro maiores firmas nos
segmentos de banda larga fixa e móvel)
Fonte: elaboração do autor, com base em Telebrasil (2014).
Note-se que os resultados mostrados na Figura 12 e na Figura 13 são nacionais,
ou seja, avaliam a competição entre todos os provedores existentes, a partir de uma base
que inclui todos os consumidores de acesso brasileiros. No entanto, a concorrência entre
essas firmas não se dá, simultaneamente, em todo o território nacional. 99% dos provedores
pequenos e médios tem abrangência local ou estadual (CETIC.BR, 2012b), enquanto ape-
nas um dos incumbentes não tem cobertura nacional (ANATEL, 2014c). Logo, a questão da
65 O índice de concentração das quatro maiores firmas (C4) é calculado pela soma da participação das quatro
firmas com maior market share em um mercado. É a medida de concentração mais frequentemente utilizada
pelas agências que compõem o sistema antitruste brasileiro: Conselho Administrativo de Defesa Econômica
(Cade), Secretaria de Acompanhamento Econômico (SEAE) e Secretaria de Direito Econômico (SDE).
0,00
0,10
0,20
0,30
0,40
0,50
0,60
0,70
0,80
0,90
1,00
2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013
C4 banda larga móvel
C4 banda larga fixa
HHI banda larga móvel
HHI banda larga fixa
45
geografia parece ser crucial para a análise da competição entre os provedores de acesso à
internet. A avaliação considerando apenas a agregação nacional pode ser enganosa (IPEA,
2010).
Figura 14 – Market share do maior provedor de acesso, por estado.
(maior participação nos mercados estaduais de banda larga fixa (índice C1), base ago. 2014; a linha
tracejada indica a média nacional ponderada)
Fonte: elaboração do autor, com base em Anatel (2014c).
Tome-se o exemplo da banda larga fixa, que representava 66% dos acessos nos
domicílios em 2013 (CETIC.BR, 2014a). Nesse segmento, a competição nacional é bastan-
te limitada, como já demonstrado (C4 = 0,91 e HHI = 0,23, em agosto de 2014). Uma apre-
ciação superficial poderia indicar uma concorrência intensa entre esses grandes provedores,
mas, quando se analisa a informação no nível dos estados, chega-se à conclusão de que
somente um provedor – sempre o incumbente originado na privatização (Oi ou Vivo) – tem
sozinho, em média ponderada, 47% de participação nos mercados respectivos (ANATEL,
2014c). A Figura 14 retrata o cenário da banda larga fixa nos estados. Em 55% das unida-
des da federação, o incumbente concentra market share superior a 50%. Na média estadual,
ponderada pelo número de acessos, o C4 atinge 0,94 e o HHI passa para 0,37 (ibid.).
Nos mercados estaduais de banda larga móvel o panorama também é de con-
centração elevada, ainda que de forma menos marcante. O mercado nacional apresentava
C4 igual a 0,99 e HHI 0,26 em julho de 2014 (ANATEL, 2014c). Mas, desagregando-se os
0%
20%
40%
60%
80%
100%
AC AL AM AP BA CE DF ES GO MA MG MS MT PA PB PE PI PR RJ RN RO RR RS SC SE SP TO
Média
46
dados no âmbito estadual, o C4 médio ponderado mantém-se em 0,99, mas o HHI sobe para
0,31 (ibid.). Isso se deve à divisão menos equânime do mercado de cada estado, que se-
guem partilhados entre as quatro incumbentes que detêm licenças para operação nacional.66
Figura 15 – HHI do mercado de acesso banda larga, por estado.
(base ago. 2014 (fixa) e jul. 2014 (móvel))
Fonte: elaboração do autor, com base em Anatel (2014c).
Em resumo, segundo qualquer critério, tanto o mercado de banda larga nacional
como os regionais são bastante concentrados. A Figura 15 e a Figura 16 mostram os índices
HHI e C4 para cada estado brasileiro nas duas famílias tecnológicas dominantes. O HHI
estadual para a banda larga fixa reflete a concentração do mercado com o incumbente histó-
rico. Para a banda larga móvel, todavia, os valores substancialmente inferiores do HHI in-
dicam a maior distribuição dos usuários entre os quatro provedores incumbentes. Contudo,
o índice C4, na Figura 16, apresenta a limitada extensão dessa competição. Em apenas qua-
tro estados (Goiás, Minas Gerais, Rio de Janeiro e São Paulo), existem competidores rele-
vantes fora do grupo dessas quatro firmas (C4 < 1).
É pertinente ressaltar que a Figura 13, a Figura 15 e a Figura 16 segmentam o
mercado de acesso pelo tipo da tecnologia empregada (à exceção do acesso discado, em
virtude da indisponibilidade de dados). À primeira vista, essa divisão poderia parecer arbi-
66 De forma distinta do subsegmento de banda larga fixa, que possui entrada livre, a oferta de serviços móveis
requer licença específica da Anatel. Existem limitações tanto no número de licenças outorgadas, através de
complexos processos licitatórios, como no escopo geográfico de abrangência de cada licença.
0,00
0,20
0,40
0,60
0,80
1,00
AC AL AM AP BA CE DF ES GO MA MG MS MT PA PB PE PI PR RJ RN RO RR RS SC SE SP TO
Banda larga fixa Banda larga móvel
47
trária. Afinal, as diferentes modalidades serviços de acesso baseados nessas tecnologias
são, em boa medida, substitutas entre si, cabendo, portanto, a análise conjunta de seu mer-
cado. Esse não foi o caminho adotado, para efeitos de quantificação dos resultados, por dois
motivos. Primeiro, por causa da insuficiência dos critérios aplicados pela Anatel67
para
classificar as conexões de banda larga conforme a plataforma tecnológica, o que torna ina-
propriada a combinação dos dados disponíveis para as duas categorias. Segundo, por conta
da participação dos três grupos empresariais (Claro/Net/Embratel, Vivo e Oi) em parcelas
majoritárias tanto nas plataformas fixas (76%) quanto nas móveis (75%), indicando que,
para eles, as estratégias entre plataformas são, essencialmente, complementares, e não de
substituição. Além disso, com praticamente os mesmos grupos atuando nas duas platafor-
mas, os indicadores de concentração, para o mercado consolidado, não seriam qualitativa-
mente diferentes dos descritos.
Figura 16 – Índice C4 do mercado de acesso banda larga, por estado.
(base ago. 2014 (fixa) e jul. 2014 (móvel))
Fonte: elaboração do autor, com base em Anatel (2014c).
Outra questão importante é a avaliação do potencial negativo, sobre a concor-
rência, do cruzamento do controle societário entre plataformas, quando três grupos contro-
67 A Anatel não distingue o tipo de uso dos terminais de rede que fornecem acesso em banda larga. Ela conta-
biliza, na mesma rubrica, modems e smartphones, para acesso à internet, em conjunto com outros equipamen-
tos e telefones, sem acesso. Entretanto, adotou-se a premissa simplificadora usual de que a distribuição de
tipos de terminais entre os provedores é semelhante, o que permite a aproximação das estatísticas utilizadas.
0,80
0,85
0,90
0,95
1,00
AC AL AM AP BA CE DF ES GO MA MG MS MT PA PB PE PI PR RJ RN RO RR RS SC SE SP TO
Banda larga fixa Banda larga móvel
48
lam mais de 75% do mercado total em todas elas. Em princípio, a propriedade de múltiplas
plataformas por um controlador comum inibiria o desenvolvimento da concorrência, ao
reduzir as alternativas de diferenciação para os entrantes. Como indicam estudos empíricos
realizados em diversos países – ver, por exemplo, Pereira e Ribeiro (2011) –, a restrição da
competição entre as plataformas tecnológicas costuma ser negativa para os usuários, resul-
tando em preços maiores ou menor penetração do serviço.
1.4.3.3. Qualidade
A medição da qualidade do acesso à internet é um tema complexo, tanto quando
analisado a partir da perspectiva do usuário como da do provedor.68
A informação empírica,
materializada nas elevadas taxas de churn, parece indicar que os consumidores estão, em
geral, insatisfeitos com o serviço, no Brasil e na maioria dos países, como discutido na Se-
ção 1.4.3.1. Pesquisas apontam para um conjunto de motivos para essa insatisfação, entre
eles, justamente a qualidade é um dos mais regularmente citados.
Estudo da empresa Nokia Siemens (2013) em países desenvolvidos e emergen-
tes, incluindo o Brasil,69
identificou que, entre os usuários de serviços móveis, o principal
motivo para o churning era a qualidade, ligeiramente à frente do custo. Revelou ainda que,
à medida que os consumidores utilizam o serviço de acesso ao longo de um período maior,
mais relevante é o peso da qualidade na decisão de escolha (ou de abandono) do provedor.
Por outro lado, os resultados indicaram que a maioria dos usuários está relativamente satis-
feita com a qualidade da cobertura e da telefonia (voz), colocando em evidência a impor-
tância do acesso à internet no relacionamento entre consumidores e provedores.
Em outra pesquisa, da consultoria Analysis Mason (2013), já parcialmente mos-
trada na Figura 11, a maior razão para a insatisfação dos consumidores era a qualidade,
tanto no caso do acesso fixo como no do móvel. Em particular, a taxa de transmissão de
dados (“velocidade”) inadequada era o maior problema dos usuários do acesso fixo.
Na mesma linha, outra publicação, da consultoria Ovum (2014), confirmou que
a qualidade da banda larga também é o principal quesito na avaliação dos provedores de
68 Maiores detalhes sobre as dimensões técnicas dessa questão estão disponíveis no Apêndice A. 69 Com 8.700 entrevistados em: Dinamarca, Coreia do Sul, Japão, Reino Unido, Estados Unidos, Brasil, Co-
lômbia, Rússia (Moscou) e Índia.
49
serviços móveis.70
37% dos respondentes afirmaram que já mudaram ou planejam mudar de
provedor, especificamente devido à baixa velocidade do acesso à internet. Do total de usuá-
rios entrevistados, 23% declararam que iriam trocar de provedor, por qualquer razão, en-
quanto 25% informaram que estavam considerando essa mudança (ibid.).
Um quarto trabalho, realizado pela consultoria CVA Solutions com mais de seis
mil pessoas no Brasil (FOLHA DE S. PAULO, 2013), indicou que 73% dos usuários de
banda larga fixa e 69% dos da móvel pretendiam trocar de provedor. Os serviços de acesso
móvel e fixo obtiveram o primeiro e o segundo piores resultados, respectivamente, entre 38
setores avaliados (bens e serviços para consumidores finais).
Figura 17 – Velocidade média efetiva de conexão à internet.
(em megabits por segundo, escala logarítmica, países selecionados)
Fonte: elaboração do autor, com base em Akamai (2014).
O churning não é o único indicador que auxilia na ponderação da qualidade do
serviço de acesso. Em termos internacionais, pesquisa de UNCTAD (2013) mostrou que o
Brasil está dentro do grupo intermediário de países, no que diz respeito à qualidade geral do
serviço de acesso, junto com outros 60 países.71
Nessa classificação, o país é um daqueles
70 Envolvendo 15.000 consumidores e 2.700 empresas nos 15 maiores mercados de telecomunicações móveis,
inclusive o Brasil. 71 O primeiro grupo – com os melhores serviços – é composto por 43 países, em geral os afiliados à OCDE.
0,5
5,0
50,0
Coreia do Sul
Japão
Estados Unidos
Reino Unido
Portugal
França
Chile
México
Argentina
China
Brasil
50
que atende apenas aos requisitos mínimos de qualidade necessários para a adequada fruição
dos serviços básicos proporcionados pelas TIC.
A Figura 17 mostra a posição do país na medição periódica realizada pela em-
presa Akamai (2014), sobre as velocidades médias de acesso efetivas72
em países selecio-
nados durante sete anos. Do grupo de países analisados, o Brasil sistematicamente esteve
entre aqueles com as conexões de menor velocidade média (1,7 Mbps), apesar da taxa de
melhoria no período (239%) ter sido ligeiramente superior à média dos países considerados
(217%). Entretanto, se comparado com a média dos demais países emergentes (290%), o
Brasil divide com a Argentina a última colocação na melhora.
Figura 18 – Indicadores selecionados da qualidade de conexão à internet.
(valores relativos à média mundial de cada indicador no ano de 2010 (mundo em 2010 = 100),
médias de 12 meses dos períodos terminados em dez. 2010 e ago. 2014)
Fonte: elaboração do autor, com base em Ookla (2014).
No ranking da empresa Ookla (2014),73
em setembro de 2014 a banda larga fixa
no Brasil ocupava a 69ª posição entre 192 países e a banda larga móvel, a 74ª entre 116
(posições menores indicam maior qualidade). Essa companhia, dona da principal platafor-
72 Velocidades reais de acesso à internet, independentemente dos valores contratados. Como discutido no
Apêndice A, a velocidade de acesso é usualmente o parâmetro de qualidade mais importante do serviço de
acesso. Mas não é o único ou, tampouco, o mais adequado para diversas aplicações. 73 Ookla Net Index para downloads. Os demais índices dessa plataforma tiveram desempenho semelhante.
0
50
100
150
200
250
2010 2014* 2010 2014* 2010 2014* 2010 2014*
Velocidade Latência Jitter Perda de pacotes
Mundo(2010 = 100)
Brasil
América Latina(exceto Brasil)
51
ma para medição da qualidade da internet no mundo, é a única que disponibiliza microda-
dos que permitem o exame mais aprofundado da situação brasileira.74
A Figura 18 mostra
uma síntese dos resultados dos indicadores de qualidade, em dois períodos.
As métricas de qualidade mostradas na Figura 18 são algumas das mais usuais
(em ordem de relevância): velocidade (de download), latência, jitter e perda de pacotes75
.
Para o primeiro indicador, números maiores indicam maior qualidade. Para os demais, va-
lores menores são preferíveis. Como se depreende, o quesito no qual os provedores brasilei-
ros mais se distanciam da média é a velocidade, o mais importante na avaliação dos consu-
midores (BEREC, 2014; OVUM, 2014). Além disso, no período em que os dados estão
disponíveis, não se verifica tendência de redução dessa distância. Não obstante, a qualidade
dos serviços oferecidos no Brasil está em linha com o restante da América Latina, a despei-
to da latência um pouco mais elevada (pior) e da menor perda de pacotes (melhor).
Somente no período mais recente os organismos responsáveis pela regulação do
serviço de acesso, no Brasil e no mundo, passaram a acompanhar de modo sistemático a
problemática da qualidade e a divulgar (alguns) dados para os usuários. Isso, além de limi-
tar a disponibilidade de séries para a apreciação de períodos longos, exemplifica a escassez
de informações objetivas que os consumidores contam para poder fazer suas escolhas. No
Brasil, a Anatel implantou seu sistema de medição da qualidade do serviço no fim de 2012
(ANATEL, 2014a), sendo que os primeiros relatórios consistentes foram apresentados no
segundo semestre de 2013 (ANATEL, 2014b).
A Figura 19 apresenta a comparação recente da qualidade dos principais prove-
dores, realizada pela Anatel (2014),76
para os indicadores que medem a proporção entre a
velocidade efetivamente disponibilizada e a contratada pelos usuários, tanto no caso da
banda larga fixa (índice SCM5) como no da móvel (índice SMP11). Apesar do período
74 Estão disponíveis dados relativos a mais de 84 bilhões de testes realizados em todo o mundo no período
entre janeiro de 2008 e setembro de 2014, dos quais cerca de 2,6 bilhões no Brasil (OOKLA, 2014). 75 Grosso modo, a velocidade representa a taxa com que as informações são transferidas em relação ao tempo;
a latência mede o retardo na transmissão das informações; o jitter avalia a variação desse retardo ao longo do
tempo; e a perda de pacotes indica a fração das informações que são perdidas durante a sua transmissão. 76 As medições são realizadas por organização independente (a Entidade Aferidora da Qualidade da Banda
Larga), operando com critérios definidos pela Anatel, e são a primeira tentativa de aferição rigorosa da quali-
dade dos serviços oferecidos pelos provedores de acesso no Brasil. Além do estabelecimento de regras claras
para a medição de diversos parâmetros de qualidade, a Anatel definiu patamares mínimos – e crescentes no
tempo – que devem ser observados pelos provedores, sob pena de multa em caso de descumprimento.
52
relativamente curto, os dados apontam para um quadro de estabilidade da qualidade dos
maiores provedores de banda larga fixa, com os incumbentes históricos de telefonia (Oi e
Vivo) operando com níveis de qualidade sistematicamente inferiores aos demais. Por outro
lado, o único entrante “autêntico” nesse mercado (GVT), opera com um dos mais elevados
patamares de qualidade, frequentemente oferecendo padrões acima daqueles contratados
pelos consumidores.
Figura 19 – Evolução da qualidade dos principais provedores de banda larga.
(índices de qualidade SCM5 (fixo) e SMP11 (móvel) medidos pela Anatel, representando a
proporção média da velocidade de download contratada e aquela efetivamente disponibilizada)
Fonte: elaboração do autor, com base em Anatel (2014b).
Na banda larga móvel, o quadro é de convergência do indicador de disponibili-
dade da velocidade contratada, com os piores provedores (TIM e Oi) gradualmente melho-
rando, enquanto os melhores (Vivo e Claro) apresentam desempenho relativamente estável.
A qualidade dos serviços móveis, no entanto, segue em geral inferior à dos fixos, tanto nos
indicadores mostrados (SCM5 e SMP11) como nos demais índices acompanhados mensal-
mente pela Anatel (2014b).
Os indicadores de qualidade da Anatel acompanham a distância que os princi-
pais parâmetros de qualidade do serviço de acesso à internet estão de certas metas preesta-
belecidas – como os compromissos contratuais assumidos com os consumidores. Represen-
tam, portanto, valores relativos da qualidade oferecida. A Figura 20, por sua vez, mostra a
mais importante variável de qualidade absoluta, a velocidade de download disponibilizada
pelos maiores provedores. Como se depreende do gráfico, existe uma razoável dispersão da
velocidade média oferecida, sem que exista correlação entre esses resultados e as participa-
80%
90%
100%
Banda larga fixa
Net
GVT
Outras
Vivo
Oi
60%
70%
80%
90%
100%Banda larga móvel
Vivo
Claro
Outras
Oi
TIM
53
ções de mercado.77
Também não se identifica uma estratégia única dos entrantes: dentro
desse grupo encontram-se muitas empresas ofertando, alternativamente, tanto velocidades
médias muito altas como muito baixas, em relação aos incumbentes (OOKLA, 2014).
Figura 20 – Velocidade média oferecida pelos principais provedores.
(em megabits por segundo para download, escala logarítmica)
Fonte: elaboração do autor, com base em Ookla (2014).
1.4.3.4. Preços e margens
Considerando o elevado nível de concentração do serviço de acesso à internet,
como discutido na Seção 1.4.3.2, cabe agora avaliar se os provedores dominantes exercem
de fato o poder de mercado de que aparentemente dispõem. Um dos principais reflexos do
exercício desse poder, apontado pela literatura antitruste, costuma se dar nos preços (VIS-
CUSI; HARRINGTON; VERNON, 2005; IPEA, 2010). À primeira vista, conforme indica
a Figura 21, não se identificam, inequivocamente, efeitos nos preços do domínio exercido
pelos grandes grupos. Os dados históricos indicam uma redução real nos preços médios
praticados nos domicílios de 11% ao ano, entre 2004 e 2013, de forma bastante consistente
(CISCO, 2013; CETIC.BR, 2006-2014; IBGE, 2014). Essa queda seria, ainda, superior à
77 A análise econométrica entre as participações de mercado (variável dependente) e as diversas medidas de
qualidade dos provedores (variáveis independentes) rejeitou a hipótese de correlação – em nível ou em pri-
meira diferença – mesmo com significância de 10%. Infelizmente não foi possível utilizar os preços na análi-
se, em função da indisponibilidade das séries de preços médios praticados por cada provedor.
0,5
5,0
50,0
2008 2009 2010 2011 2012 2013 2014
TIM
Vivo
GVT
Claro/Net/Embratel
Outras
Oi
54
verificada em mercados como o norte-americano, que teve diminuição real de preços da
banda larga de cerca 5% ao ano, no período 2004-200978
(GREENSTEIN; MCDEVITT,
2011).
Figura 21 – Evolução do preço médio do acesso nos domicílios.
(preço médio líquido mensal real em reais, base out. 2013)
Fonte: elaboração do autor, com base em Cisco (2013), CETIC.br (2006-2014) e IBGE (2014).
Entretanto, diversas análises mostram que os preços do serviço de acesso à in-
ternet no Brasil estão entre os mais elevados do mundo (IPEA, 2010). A Figura 22 apresen-
ta os preços, entre os países de renda mais elevada, para banda larga fixa nos grandes cen-
tros, em setembro de 2012. Em relação ao preço mínimo do megabit por segundo (Mbps),
os valores praticados no Brasil eram cerca de 120% superiores à média da OCDE (2013).
Outra pesquisa, da ITU (2014), coloca o Brasil na posição 46 (de 165) entre os
países com menores custos para a banda larga fixa.79
Esse resultado deixa o país atrás de
todas as nações avançadas e mesmo de muitos países em desenvolvimento. O mesmo estu-
do, em uma comparação de preços da banda larga móvel entre 144 países (desenvolvidos e
em desenvolvimento), revelou que os preços brasileiros estão ainda pior colocados, ocu-
78 Entretanto, é prática comum o aumento da banda disponibilizada para os consumidores nos EUA, sem
alteração nos preços ou necessidade de alteração contratual, situação menos frequente no Brasil. 79 O ITU compara o preço entre os diferentes países como um percentual da renda nacional bruta mensal per
capita, considerando o preço médio do serviço de mais comum em 2013, que era de 1 Mbps (ITU, 2014).
0
20
40
60
80
100
120
2004 2005 2006 2007 2008 2009 2010 2011 2012 2013
55
pando o 102º lugar para o serviço pós-pago, acima de praticamente todos os países da Amé-
rica Latina, e o 53º para o pré-pago (ibid.).80
Esse cenário não é recente, desde 2010 a
UNCTAD (2010) já apontava a banda larga móvel brasileira como uma das mais caras do
mundo, dessa vez entre 78 países.
Figura 22 – Faixas de preços unitários do acesso banda larga fixa.
(preços brutos mensais em dólares PPP, mínimos e máximos, por megabyte por segundo, ofertados
pelos principais provedores em países selecionados, escala logarítmica, base set. 2012)
Fonte: elaboração do autor, com base em OCDE (2013).
Os elevados preços praticados no Brasil poderiam estar relacionados com uma
oferta de qualidade superior, no caso da internet associada principalmente à velocidade de
acesso mais elevada. No entanto, como discutido na seção anterior, as velocidades oferta-
das pelos países da OCDE na banda larga fixa em setembro de 2012, para preços mínimos
em média 55% menores, eram mais de duas vezes maiores do que aquelas oferecidas no
Brasil (AKAMAI, 2014; OOKLA, 2014). Enquanto no Brasil a média das ofertas era de 36
80 Para um pacote de 500 megabytes por mês para o pós-pago e 600 megabytes por mês para o pré-pago.
1,69
1,25
1,12
1,14
0,96
0,77
0,74
0,65
0,64
0,61
0,59
0,56
0,53
0,52
0,47
0,46
0,46
0,45
0,42
0,40
0,40
0,39
0,39
0,36
0,35
0,35
0,34
0,30
0,27
0,23
0,22
0,22
0,11
0,08
0,04
58,98
16,72
48,98
29,60
19,28
11,78
38,16
130,20
6,93
47,17
28,93
5,05
41,70
10,56
58,06
6,27
18,02
127,12
6,75
23,25
12,35
2,12
9,86
1,79
18,10
25,94
6,81
26,67
13,35
5,10
2,07
15,99
18,63
4,52
21,34
0,0 0,1 1,0 10,0 100,0 1000,0
Mexico
Greece
Turkey
Brazil
Chile
Israel
Spain
New Zealand
Italy
Ireland
Belgium
Austria
United States
Luxembourg
Switzerland
Portugal
Norway
Poland
Iceland
Germany
Czech Republic
United Kingdom
Canada
Denmark
Slovak Republic
Slovenia
Australia
Hungary
Estonia
France
Korea
Finland
Sweden
Netherlands
Japan
56
Mbps, a média da OCDE era de 45 Mbps (OCDE, 2013). Deve ser ressaltado que a veloci-
dade média contratada, de cerca de 5 Mbps (CISCO, 2013),81
era muito inferior ao valor
médio ofertado no Brasil.
Outra possível explicação para os preços médios elevados seria a substancial di-
ferenciação entre a qualidade dos diversos fornecedores, que deslocaria o processo compe-
titivo do foco em preço (produtos homogêneos) para outro baseado em atributos específicos
(qualidade, marketing, disponibilidade etc.). Porém, a avaliação da seção anterior mostrou
que essa não é a situação geral do mercado brasileiro. Como se depreende da leitura da Fi-
gura 19, a diferenciação do principal indicador de qualidade é bastante modesta e variável
ao longo do tempo, assim como dos demais índices acompanhados pela Anatel (2014b).
Parece, portanto, discutível que as diversas ofertas de serviço de acesso sejam claramente
distinguíveis pelos usuários, pelo menos se utilizando quesitos objetivos de qualidade.
Figura 23 – Evolução dos preços, da cobertura potencial e da cobertura real.
(redução porcentual nos valores do ano anterior do preço médio líquido real do serviço de acesso
nos domicílios, do aumento da cobertura potencial dos domicílios a partir do preço médio praticado
e do aumento da cobertura real dos domicílios atendidos pelo serviço de acesso)
Fonte: elaboração do autor, com base em Cisco (2013), CETIC.br (2006-2014) e IBGE (2014).
81 A mediana das velocidades contratadas era de apenas 1 Mbps (CISCO, 2013; ITU, 2014).
-20%
0%
20%
40%
60%
80%
100%
2005 2006 2007 2008 2009 2010 2011 2012 2013
Redução preço
Aumento cobertura potencial
Aumento cobertura real
57
Por isso, a consideração isolada do binário preço-qualidade aparenta ser inapro-
priada para a determinação da competitividade no mercado de acesso. Um dos motivos para
esse cenário, pelo lado dos preços, é o fato das firmas encontrarem uma curva de demanda
razoavelmente elástica. Por causa da significativa restrição orçamentária da maioria dos
domicílios brasileiros (CETIC.BR, 2014a), a redução contínua dos preços é pré-requisito
para a expansão do mercado, à medida que se atinge a saturação para cada nível de valo-
res.82
Assumindo a premissa, normalmente aceita, da ausência de deseconomias de escala
no setor, pelo menos no âmbito nacional (NOAM, 1994; DAVIES, 1996; TENNENHOU-
SE et al., 1996; CORROCHER, 2001; DALUM; VILUMSEN, 2003), o comportamento de
diminuição gradual dos preços pode ser uma estratégia perfeitamente racional para o au-
mento dos lucros – e da rentabilidade dos investimentos –, com a concomitante redução da
competição (IPEA, 2010). A Figura 23 coloca luz sobre essa questão.
A correlação negativa entre preços e penetração do serviço de acesso, controla-
dos os demais fatores pertinentes, foi identificada empiricamente em diversos países
(BOUCKAERT; DIJK; VERBOVEN, 2010). Para o Brasil, a Figura 23 mostra o impacto
da redução efetivamente praticada dos preços versus a variação do número de domicílios
potencialmente atendidos, além do acréscimo real do número dos efetivamente cobertos. Os
resultados foram obtidos pela estimação da curva de demanda, por meio da aplicação dos
preços médios reais praticados para determinar o porcentual de domicílios com orçamento
suficiente para a contratação do serviço, com a utilização da curva de tendência da Figura
4, supondo uma proporção de adesão efetiva (elasticidade) constante.83
Os dados do período 2008-2012 parecem indicar que a redução nos preços foi
muito próxima daquela necessária para permitir o crescimento no número de domicílios
potenciais compatível com o incremento efetivo da quantidade de domicílios conectados.
Por outro lado, a relativa estabilidade dos preços em 2013 foi acompanhada da menor ex-
pansão da cobertura em mais de uma década. Portanto, os movimentos dos preços podem
82 Essa hipótese é compatível com o cenário de redução de preços ainda mais lenta em países de renda per
capita mais elevada, como os EUA (GREENSTEIN; MCDEVITT, 2011). 83 A comparação da Figura 2 (domicílios com serviço), Figura 4 (intenção de contratação do serviço) e Figura
21 (preços ofertados) indica a existência de uma “brecha” de adesão, entre o número de domicílios com inten-
ção de contratar os serviços, num dado nível de preços, e o número efetivo de domicílios que os contratam.
58
ser, grosso modo, explicados pelo deslocamento ao longo da curva de demanda,84
sugerin-
do a mesma correlação negativa entre preços e penetração verificada por Bouckaert, Dijk e
Verboven (2010) para vinte países da OCDE. O comportamento das firmas na diminuição
de seus preços parece ajustado, assim, com aquele esperado do monopolista clássico, quan-
do a redução dos preços pode aumentar seu lucro total, pelo menos enquanto a receita mar-
ginal da adição de usuários for positiva. Na ausência de deseconomias de escala, como su-
posto, esse movimento não teria limites, em princípio, até o patamar inferior dos orçamen-
tos disponíveis, desde que algum grau de discriminação de preços seja possível. A recente
proliferação da banda larga móvel pré-paga pode ser um desses mecanismos. Logo, a ten-
dência declinante dos preços no tempo (Figura 21) não pode descartar o exercício, em para-
lelo, de poder de mercado pelos incumbentes.
Figura 24 – Receita líquida, custo médio e markup mensal por acesso.
(valores aproximados anuais reais médios ponderados, em reais, markup em pontos percentuais,
para o serviço de acesso de um conjunto selecionado de provedores,85
base dez. 2013)
Fonte: elaboração do autor, com base em relatórios financeiros das companhias, Anatel (2014c),
Telebrasil (2014) e IBGE (2014).
84 A partir de um nível constante de porcentual de adesão sobre cada ponto da curva de restrição orçamentária
(Figura 4), o que a análise mostra ser razoável no período 2008-2010 – dadas as variações muito próximas
entre os aumentos das coberturas potencial e real.
0
20
40
60
80
100
2009 2010 2011 2012 2013
Receita líquida (por acesso)
Custo médio (por acesso)
Markup (p.p.)
59
Por fim, é interessante avaliar-se a situação das firmas no que diz respeito à sua
posição na curva de custos médios. A Figura 24 compara a receita líquida com o custo
(médias ponderadas), por acesso banda larga, na planta de provedores incumbentes selecio-
nados85
que representam cerca de 40% dos acessos no Brasil (ANATEL, 2014c).
Da análise da Figura 24 conclui-se que as margens de lucro brutas médias
(markup) praticadas foram superiores a 20% durante o período analisado, além de modera-
damente crescentes. A redução dos preços médios, observada na Figura 23, esteve associa-
da a uma queda mais do que proporcional dos custos, seja pela possível presença de eco-
nomias de escala ou pela conhecida erosão dos gastos com os equipamentos de rede, devida
ao avanço tecnológico. Isso indica que o aumento da base de usuários parece ser ainda bas-
tante interessante para os provedores grandes, especialmente enquanto associado à redução
dos custos unitários.86
Além disso, a estabilidade do markup é mais um indício do modera-
do nível de competição do mercado de acesso banda larga (fixo e móvel).
Outro modo, mais genérico, de analisar o efeito da diminuição dos preços e do
crescimento da base de usuários, é avaliar o seu impacto nos resultados globais dos prove-
dores. A Figura 25 mostra o desempenho operacional dessas firmas no período analisado,
por meio de duas métricas: a margem operacional (lucro bruto sobre receita líquida) e a
taxa de retorno sobre o capital empregado (lucro bruto sobre o estoque de capital emprega-
do). Em ambos os casos os números se mantiveram relativamente estáveis entre 2009 e
2013, em torno de 21% para a primeira métrica e 15% para a segunda (médias ponderadas).
Portanto, parece evidente que a redução dos preços se deu, efetivamente, na
medida da erosão dos custos dos provedores, sem afetar significativamente a sua capacida-
de financeira. Ao crescerem rapidamente suas bases de usuários, ao mesmo tempo em que
preservavam a lucratividade, os incumbentes criaram uma importante barreira à entrada de
novos provedores. Seja pela indisponibilidade de consumidores rentáveis ainda não atendi-
85 Valores obtidos dos relatórios financeiros de Oi (fixa), Net, TIM e Vivo (parcial), por serem os únicos com
detalhamento suficiente para a análise mínima do negócio de acesso (banda larga). Por causa do contínuo processo de consolidação do setor, não foi possível obter séries mais longas sobre custos e rentabilidade. 86 Uma conclusão definitiva, por meio da posição sobre a curva de custos marginal, dependeria de informa-
ções desagregadas que não estão disponíveis nos relatórios financeiros das empresas. Entretanto, a declivida-
de da curva de custos unitários médios (-28% ao ano) face à grande variação na quantidade média de usuários
(+47% ao ano), entre 2009 e 2013, parece suportar a hipótese de retornos crescentes à escala.
60
dos (custos elevados de “aquisição”), seja pela crescente escala mínima de operações ne-
cessária para operação rentável, o cenário prospectivo provavelmente não se configurava
como atraente para a maioria dos potenciais entrantes no período analisado.
Figura 25 – Margem operacional e taxa de retorno de provedores selecionados.
(valores anuais reais médios estimados ponderados para o serviço de acesso de um conjunto
selecionado de provedores,85
em pontos percentuais, base dez. 2013)
Fonte: elaboração do autor, com base em relatórios financeiros das companhias, Anatel (2014c),
Telebrasil (2014) e IBGE (2014).
Justificado o provável interesse dos incumbentes na redução verificada nos pre-
ços, por questões não associadas a uma hipotética competição de preços, cabe então indagar
sobre a relevância dos pequenos provedores nesse processo, ao menos para acelerá-lo. Co-
mo não estão disponíveis levantamentos sistemáticos ou abrangentes dos preços oferecidos
pelos provedores menores, não é possível responder rigorosamente essa questão. Entretan-
to, alguns indícios parecem apontar para a restrita importância dos entrantes para a queda
observada nos preços médios.
Para tanto, em primeiro lugar, foi realizada uma pesquisa,87
pontual e superfici-
al, dos preços praticados pelos maiores provedores alternativos nas cidades de São Paulo e
Rio de Janeiro, detentores de 1,3% do mercado domiciliar de banda larga fixa nessas regi-
87 Levantamento realizado em outubro de 2011 com as empresas GVT, CTBC Telecom, AES Atimus (TIM) e
Mundivox para serviços nas capitais dos estados de São Paulo e Rio de Janeiro. Os dois estados, em conjunto,
representam 53% do mercado doméstico nacional para essa modalidade de serviço.
0%
10%
20%
30%
2009 2010 2011 2012 2013
Margem operacional (EBITDA)
Taxa de retorno investimento (RoE)
61
ões – representando mais da metade do market share agregado de todos os pequenos e mé-
dios provedores brasileiros (ANATEL, 2014c). O levantamento apontou preços sempre
superiores aos ofertados pelos incumbentes, para serviços semelhantes. Essa constatação
parece compatível com as margens relativamente modestas dos incumbentes (Figura 24),
apesar de suas escalas de operação e atualização tecnológica. Nessa situação, não é razoá-
vel supor que os entrantes pudessem adotar estratégias exitosas de competição de preços.
Por fim, realizou-se uma pesquisa sumária das campanhas publicitárias realiza-
das pelos entrantes em um período típico de vendas (Natal).88
Praticamente inexistiram
ações dessas firmas, na mídia ou na internet, contendo ofertas de preços para o serviço de
acesso, à exceção de ações pontuais de duas empresas. Assim, a informação anedótica indi-
ca que a principal estratégia dos entrantes foi a segmentação geográfica (atender regiões
inadequadamente servidas pelas incumbentes) ou os nichos de qualidade (níveis de serviço,
em particular velocidades, superiores aos dos incumbentes).
1.5. Conclusão
A breve trajetória do setor de internet representa um processo histórico intenso
e poderoso, baseado no surgimento de um paradigma tecnológico – as redes IP –, que não
apenas criou um novo setor, mas transformou diversos outros. Indústrias que lhe deram
origem, como as telecomunicações e a informática, foram alteradas de forma profunda.
Muitos segmentos da economia, que adotaram as inovações introduzidas ou viabilizadas
pela internet, também se modificaram, enquanto alguns simplesmente desapareceram.
O exame do sistema setorial de inovação e produção que se desenvolveu em
torno da internet mostrou ser este composto por vários tipos de agentes, que podem ser
aproximadamente agrupados conforme as diversas funções que desempenham. Fabricantes
de equipamentos e sistemas, provenientes principalmente dos setores de telecomunicações
e informática, tiveram de se adaptar ao novo cenário, de intenso investimento em P&D,
elevada incerteza, baixa apropriabilidade e competição acirrada. Provedores de conteúdo,
88 Levantamento das campanhas realizadas no mês de novembro de 2011, nos principais veículos nacionais e
regionais, identificou ações localizadas apenas da GVT, em alguns estados, e da CTBC, em algumas cidades.
62
por sua vez, dispuseram de uma oportunidade única com a internet, com a possibilidade de
ganhos de escala e escopo em nível global.
Uma interação complexa, de cooperação-competição, desenvolveu-se de modo
distinto entre os segmentos do setor. Enquanto nos de equipamentos e sistemas e de conte-
údo a dinâmica de creative destruction foi provavelmente majoritária, no segmento de
acesso existiu espaço para a manutenção de processos de creative accumulation, que histo-
ricamente caracterizaram as telecomunicações. Por meio de um conjunto de capacidades
específicas, as antigas incumbentes lograram ocupar uma posição dominante no mercado de
acesso em muitos países, a despeito da intensa concorrência de firmas entrantes. Como de-
clarou recentemente Vincent Cerf, um dos inventores da internet:
[N]a década de 1990, havia sete ou oito mil provedores de serviço [de
acesso à] internet [nos EUA], porque a internet era acessada através de di-al-up. Se você quisesse mudar [de provedor] você simplesmente alterava
o número de telefone [que usava] para se conectar. Quando a banda larga
chegou, o número de opções que você tinha havia sido reduzido para até um ou dois: ou uma empresa de telefonia ou uma de [TV à] cabo ou am-
bas, e então se evaporou a concorrência [BRODKIN, 2013].
Para ajudar a compreender o processo competitivo no segmento de acesso, foi
apresentada a trajetória brasileira, emblemática da supremacia das incumbentes de teleco-
municações. Graças a uma demanda forte e dinâmica, o mercado de acesso à internet do-
méstico tem crescido a taxas elevadas, difundindo-se rapidamente por toda a base de dispo-
sitivos capazes de conexão à grande rede, mesmo considerando-se as restrições impostas
pelo limitado poder aquisitivo da maior parte da população e pela restrita qualidade dos
serviços oferecidos. Dessa avaliação particular do mercado brasileiro, alguns fatos estiliza-
dos mereceram destaque.
Concentração de mercado persistente. A partir da aparente ausência das ope-
radoras incumbentes de telecomunicações no mercado de acesso até o fim dos anos 1990, o
que permitiu níveis significativos de competitividade e baixa concentração, o século XXI
marcou o domínio dos provedores controlados pelas incumbentes e a rápida concentração
do mercado. Com o controle das tecnologias de acesso em banda larga – fixa e móvel –,
esse ciclo se completou, com o estabelecimento de um oligopólio bastante estável. Desde
meados da década de 2000, quatro grupos empresariais oriundos das operadoras privatiza-
63
das nos anos 1990 passaram a dominar mais de 90% do mercado de acesso à internet. Ape-
nas uma empresa entrante, nesse período, logrou sucesso efetivo. Todos os indicadores
usuais (HHI, C4, C1) apontaram para elevada concentração, em um cenário de estabilidade
e concorrência local efetivamente restrita entre os cinco maiores grupos.
Reduzida competição por meio de preços. Apesar da grande concentração e,
consequentemente, do poder de mercado potencialmente detido pelos incumbentes, foi
identificada queda relevante e contínua dos preços praticados. No entanto, quando compa-
rados com os preços em outros países, o custo do acesso no Brasil se posicionou entre os
mais elevados para países de renda média e alta. A investigação aprofundada sugeriu que
um cenário retrospectivo plausível para a redução verificada nos preços está relacionado
com o interesse dos incumbentes de adicionar novos usuários ao mercado, suportado pela
provável existência de economias de escala. A análise de receitas e custos de alguns dos
principais provedores confirmou margens razoavelmente altas e crescentes bem como a
constante diminuição dos custos em face do rápido crescimento da base de usuários. Logo,
a redução experimentada pelos preços, em princípio, parece não se dever à pressão compe-
titiva, real ou potencial, mas tão somente a uma manifestação particular do comportamento
clássico do monopolista discriminador, para capturar o orçamento disponível de novos con-
sumidores.
Baixa taxa de entrada com sucesso. O número de provedores de acesso no
mercado brasileiro, a despeito de sua concentração, é significativo, representando mais de
duas mil firmas, sendo grande parte relativamente jovem. Contudo, o diagnóstico dos mer-
cados estaduais e nacional mostrou que, em sua imensa maioria, esses provedores são mui-
to pequenos, incapazes de competir em preços com os incumbentes ou crescer significati-
vamente, ocupando nichos marginais. Em todo o histórico recente do setor, apenas uma
empresa entrante (GVT) conseguiu êxito e transformou-se em um provedor de acesso im-
portante, ainda que relativamente pequeno. Esse fenômeno foi característico da segunda
geração tecnológica – a banda larga fixa – e tornou-se mais agudo com a terceira e quarta
gerações – a banda larga móvel e de alta velocidade. Em particular, no caso das terceira e
quarta gerações, sequer existem entrantes em número ou tamanho relevantes, dadas as res-
trições impostas pela agência reguladora setorial – a Anatel – na liberação de recursos es-
64
senciais para a entrada (licenças e espectro radioelétrico). Desde o fim da década de 1990,
somente duas novas licenças foram concedidas, mas uma das firmas entrantes fracassou
após poucos meses de operação e a outra estava em situação crítica.
Intensa substituição de provedores (churning). Considerada a restrita dispo-
nibilidade de provedores grandes, o número de consumidores que troca de provedor a cada
ano é muito elevado. Se considerado apenas o acesso móvel, 45% dos usuários brasileiros
substituem seu provedor anualmente, em média. Apesar de menos intenso, o panorama no
acesso fixo não é substancialmente distinto, com indicações de que esse volume seja supe-
rior a 30% ao ano. Quando se analisam as razões por detrás do churning, a qualidade cos-
tuma ser a principal motivação dos consumidores. Essa razão se torna mais importante à
medida que aumenta a experiência dos usuários, o que ajuda a compreender a aceleração do
churning verificada nos últimos anos. A análise indicou, ainda, que a problemática da men-
suração da qualidade dos serviços – ex ante e ex post – têm provavelmente papel central
nesse cenário. Ficou clara, também, a diferenciação no quadro internacional, nitidamente
relevante para os países de renda média como o Brasil, onde restou evidente a correlação
inversa entre o churning e a qualidade.
Influência da organização social na escolha do consumidor. A despeito da
restrita evidência empírica, no caso específico da banda larga, sobre a relação entre as for-
mas de organização dos consumidores e a dinâmica do mercado, esse fenômeno foi identi-
ficado em diversos mercados correlatos ou semelhantes. Essa restrição, ainda, deve ser
ponderada pelo fato de que, dentro das práticas correntes de avaliação e medição, tipica-
mente pouca atenção é dedicada ao tema. Entretanto, a partir da informação disponível, a
influência das redes sociais no desenvolvimento da demanda parece claramente identifica-
da.89
Pesquisas genéricas apontam que as redes das quais o consumidor faz parte influenci-
am mais de 40% dos brasileiros na sua decisão de comprar um produto. Isso é de certo mo-
do natural, até pela importância dada pelo consumidor na utilização do serviço de acesso: a
comunicação com sua rede social é a principal atividade realizada na internet para 77%
deles. Na telefonia móvel, quase 20% do churn e 10% das aquisições são explicados pela
89 Isso reforça a suspeita de ausência pura e simples de dados. Em analogia com a econometria, a hipótese de
trabalho, neste momento, é de que isso possa indicar um problema de “variável omitida” na pesquisa empírica
disponível. O modelo de simulação deverá fornecer recursos para se rejeitar ou não essa hipótese.
65
interferência da rede social sobre o consumidor. 76% dos compradores de bens e serviços
sofisticados nos EUA, por sua vez, consultam os amigos antes de decidir sobre a compra.
Autores como Tennenhouse et al. (1996) sugerem que, com a convergência dos
serviços de telecomunicações e de conteúdo, estimulada pela digitalização, forças relevan-
tes podem direcionar o mercado para um desfecho mais ou menos competitivo,90
conforme
essa confluência se dê em um ritmo de inovação tecnológica maior ou menor, respectiva-
mente. Caso existam economias de escala ou escopo no processo, como sugere a evidência
empírica, apenas a contínua mudança técnica poderia contrabalançar a tendência à concen-
tração. Essa circunstância parece se aplicar ao Brasil, com algumas qualificações. Cada vez
mais, as empresas que se originaram da privatização do sistema Telebrás – e controlam
mais de 90% do mercado – organizam suas estratégias com base na convergência entre
meios de acesso e formas de conteúdo (telefone, celular, internet, televisão a cabo, conteú-
do digital, e-commerce). Pelo menos uma das consequências dessa situação é inequívoca:
preços elevados contrapõem-se a qualidade restrita e a taxas relativamente baixas da pene-
tração do serviço de acesso à internet.91
90 “Competitivo” é compreendido aqui como o mercado no qual existem limites ou restrições, de ordem con-correncial ou institucional, para o processo de concentração da influência econômica das firmas, conforme
será discutido no Capítulo 2. 91 A partir dos dados de ITU (2014) e UNCTAD (2013). A evidência dos países da OCDE indica significativa
correlação positiva entre a existência de competição, em especial do tipo interplataformas, e a penetração do
serviço de acesso à internet banda larga (HÖFFLER, 2007; BOUCKAERT; DIJK; VERBOVEN, 2010).
67
Capítulo 2: Quadro de referência teórica
O objetivo geral deste capítulo é o aprofundamento do quadro teórico de supor-
te para a análise do setor de internet, em particular no que diz respeito à dinâmica competi-
tiva do mercado de acesso e a influência da organização da demanda.
[P]ara representar uma indústria artificial [por meio de um modelo de si-mulação agent-based], e ser capaz de realizar análises sobre ela, [...] pre-
cisamos de uma teoria que represente os comportamentos dos agentes no
modelo e as respostas dos ambientes para a interação desses comporta-
mentos e eventuais alterações neles [GARAVAGLIA, 2004, p. 7].
Embora a perspectiva do “sistema setorial de inovação e produção” tenha sido
satisfatória para a apreciação empírica, ela não será suficiente, sozinha, para orientar a eta-
pa de modelagem setorial. O processo de modelagem necessita de mediações teóricas ade-
quadas – e suficientemente detalhadas – para poder representar apropriadamente os fatos
estilizados relevantes, provenientes da análise apreciativa. Para tanto, o presente capítulo
tem como objetivo específico a montagem de um quadro de referência teórica, satisfatoria-
mente aprofundado, para dar conta de justificar os fatos estilizados obtidos no Capítulo 1 e
que serão tratados pelo modelo de simulação proposto no Capítulo 3.
Para a tarefa proposta, diversas abordagens estão disponíveis na literatura eco-
nômica, entre as quais foram selecionadas, de forma não exaustiva, algumas consideradas
mais adequadas para o objetivo da tese. Isso porque a combinação particular de característi-
cas do setor de internet traz dificuldades para algumas vertentes analíticas, pelo menos
quando utilizadas isoladamente, como será discutido a seguir. Portanto, a intenção do capí-
tulo é compor um quadro analítico com capacidade explanatória suficiente para tratar as
questões-chave levantadas e que permita esclarecer suas as possíveis justificativas e os seus
principais determinantes.
Considerando-se a relativamente ampla seleção de enfoques investigados neste
capítulo, a Tabela 2 apresenta o roteiro proposto. Como fica evidente, parte-se de três cor-
pos teóricos até certo ponto homogêneos – a organização industrial (clássica e moderna), a
teoria evolucionária neoschumpeteriana e algumas correntes institucionalistas – para focar-
se em abordagens específicas, em princípio relevantes para a investigação que se segue.
68
Tabela 2 – Sumário do quadro teórico adotado para a análise.
Corpo teórico Abordagens selecionadas Relevância*
Organização industrial
Barreiras à entrada clássicas
Papel das economias de escala e escopo (ainda que limitado)
Mercados contestáveis e guerras de atrito
Importância dos custos irrecuperáveis (redes de telecomunicações, publicidade)
Modelo de Stackelberg-Spence-Dixit
Investimentos irreversíveis como instru-mento de sinalização para entrantes
Efeitos de rede e externalidades
Ausência das externalidades de rede clássicas (telefonia fixa) e relevância das externalidades para consumidores
Preços de congestionamento e qualidade
Complexo balanço entre preço (ex ante) e qualidade (ex post) no ambiente da competição
Teoria evolucionária neoschumpeteriana
Inovação e dinâmica industrial
Compreensão da dinâmica industrial baseada na rápida introdução de inova-ções tecnológicas
Mercados como mecanismo de seleção
Determinação das possibilidades de “su-cesso” entre firmas competidoras
Regimes de competição Possibilidade (e tipos) dos múltiplos “equilíbrios” do processo competitivo
Conhecimento e dinâmica do aprendizado em rede
Importância da interação entre firmas competidoras no estabelecimento da base de conhecimentos da indústria
Teoria institucional
Jogos evolucionários Análise do espaço de possibilidades na interação provedor-consumidor
Mercados como campos organizacionais
Definição dos paradigmas de governança e do conjunto de possibilidades dos agentes no mercado
Comportamento dos agentes dentro de redes sociais
Importância das redes sociais na estrutu-ração da relação entre atores, inclusive ao nível informacional
Instituições definidoras de bens, serviços e qualidade
Papel de instituições informais (taken-for-granted) na formação de preferências
sob elevado nível de incerteza
*Para o presente estudo.
Este capítulo está organizado em quatro seções. Inicialmente, o conceito de
competição empregado na tese é mais bem definido. Na segunda seção, são apresentadas
brevemente algumas abordagens tradicionais, na ciência econômica, para o diagnóstico da
estrutura competitiva setorial, assim como as limitações que exibem para o caso em ques-
tão. A Seção 2.3 discorre sobre a alternativa analítica oferecida pela teoria evolucionária
69
neoschumpeteriana, especificamente no tratamento da inovação técnica e da “competição
schumpeteriana”. A Seção 2.4 aborda sucintamente algumas vertentes da teoria institucio-
nal, complementando organicamente algumas lacunas das perspectivas anteriores e apre-
sentando pontos-chave que permitem tanto a interpretação de alguns dos fatos estilizados
como a qualificação dos fenômenos de interação dos agentes dentro de redes sociais. Por
fim, na conclusão do capítulo, serão identificadas as questões teóricas centrais para a pes-
quisa – as hipóteses de trabalho.
2.1. O conceito de competição
O conceito de competição (ou concorrência), apesar de central dentro da teoria
econômica, não tem uma definição absoluta ou inequívoca (POSSAS, 2002). Conforme o
propósito de seu uso, ou o quadro teórico no qual se insere, diversos detalhes e sutilezas
devem ser considerados. Apesar do conceito adotado para o termo competição não ser in-
questionável, para o presente propósito, provavelmente a melhor definição nos dicionários
brasileiros está no Michaelis (2004):
competição sf (competir+ção) 1 Ato ou efeito de competir. 2 Disputa por
algum prêmio ou vantagem; certame; concurso. 3 Esforço de duas ou mais
partes para ganharem como freguês uma terceira parte, pela oferta dos termos mais vantajosos; concorrência. 4 Estado de mercado em que gran-
de número de compradores e vendedores independentes competem por
mercadorias idênticas e negociam livremente entre si. 5 Sociol Forma de interação, universal e contínua, pela qual indivíduos procuram apoderar-se
de recursos materiais e morais que somente existem em quantidade inferi-
or à dos concorrentes. Na sua forma mais simples, é a luta pela existência,
no sentido biológico [grifos no original].
Adota-se aqui, como ponto de partida, a definição de número três acima. Nessa
acepção, parece natural que diversos atributos da competição representem dimensões rele-
vantes para a pesquisa. Assim, em termos quantitativos, a concorrência é frequentemente
representada por grandezas como (i) o número de participantes do mercado; (ii) o grau de
diferenciação entre elas; (iii) a concentração das participações de mercado nas empresas
maiores; e (iv) as taxas de entrada e saída das firmas no mercado.
Mas, em uma abordagem aprofundada, o processo competitivo pode não ser
adequadamente compreendido tão somente a partir dos seus atributos quantitativos. A con-
jugação de algumas dimensões qualitativas desse processo é igualmente importante. Entre
70
elas, deve-se destacar: (i) os requisitos e condicionantes para a entrada e a saída de firmas
no mercado; (ii) as oportunidades em termos de inovação, de produtos e processos, dispo-
níveis para os participantes; (iii) as capacidades de que as firmas dispõem para aproveitar
essas oportunidades; e (iv) as condições que ensejam a interação das empresas do setor,
seja por meio de cooperação, concorrência ou acomodação. Neste trabalho, o uso do termo
competição também incluirá essas dimensões específicas.
Como lembra Metcalfe (1998, p. 10), “uma teoria que é criada para iluminar a
alocação de recursos dados para fins definidos será completamente diferente de outra que
seja montada para explorar a natureza do desenvolvimento econômico e a criação de recur-
sos e oportunidades ao longo do tempo”. Nessa perspectiva, o objetivo deste trabalho é ana-
lisar a concorrência enquanto limite ao processo de concentração da influência econômica
das firmas, e não o contrário. A sua preservação – ou não – é abordada como resultado de
um delicado mecanismo de manutenção de certas condições, por meio da difusão da inova-
ção, da entrada e saída de competidores e das reações dos consumidores nos mercados.
Cada tradição teórica adotou uma perspectiva relativamente distinta para a
competição. Porém, para vários autores parece bem aceita a visão de que, frequentemente,
os diversos “conceitos de competição não são logicamente contraditórios, ao contrário, to-
mados em conjunto, formam um quadro mais completo das forças competitivas que as fir-
mas enfrentam” (BARNEY, 1986, p. 792). Por isso, optou-se pela investigação, nas seções
que seguem, de abordagens diferentes – de equilíbrio e dinâmica –, não obstante o potencial
de conflito. Considerou-se, antes, que “a evidência acumulada até agora parece sugerir uma
sutil e intrincada mistura desses dois elementos” (DOSI et al., 1997, p. 12) como sendo
mais adequada para a apreensão abrangente do fenômeno da competição.
2.2. Abordagens da organização industrial
Desde os autores da economia clássica do século XIX, o estudo da concorrência
entre firmas, nos mercados de bens e serviços, é um tema recorrente da ciência econômica.
O perfil típico da competição, durante a Primeira Revolução Industrial, era o do mercado
com numerosas empresas de pequeno e médio portes, fornecedoras de produtos homogê-
neos e submetidas à intensa disputa de preços. A premissa usual dos economistas, então,
71
era de que a concorrência traria os preços para seu nível “natural”, pelo qual seria proporci-
onada aos competidores a taxa de lucro média do restante da economia, equalizando a ren-
tabilidade dos fundos alocáveis para investimento, globalmente. Esse cenário, com alguns
aprimoramentos, deu origem ao modelo da competição “perfeita”,92
que até hoje é uma das
bases da microeconomia neoclássica.
Já no fim do século XIX, os paradigmas da economia clássica tornaram-se insu-
ficientes para tratar os desdobramentos da Segunda Revolução Industrial na competição
(CHANDLER, 1977, 1990). Com a consolidação das grandes firmas e dos trustes, especi-
almente nos Estados Unidos e na Alemanha, a premissa de “comportamento atomizado”
tornou-se a situação excepcional e a concorrência interfirma ganhou novos contornos93
.
Para dar conta dessa problemática, a economia clássica (e, depois, a neoclássi-
ca) gradualmente introduziu outros modelos, além da competição perfeita: os mercados
monopolistas e algumas situações particulares de oligopólio94
como condição particular
entre os extremos teóricos da organização dos mercados. Contudo, a permanência desse
tipo de concorrência “imperfeita” tinha como premissa alguma “falha”95
no mercado em
questão. Resolvidas as falhas, o mercado tenderia naturalmente à competição perfeita, pelo
menos no longo prazo. Essa reconciliação era uma necessidade do paradigma teórico do
equilíbrio geral walrasiano e somente seria formalmente superada, no arcabouço neoclássi-
co, com a introdução da teoria dos jogos (KIRMAN, 1997), que será tratada mais à frente.
Desde os anos 1930, com trabalhos como os de Chamberlin, Robinson e Ma-
son, novos modelos de competição, agora pressuposta como frequente e persistentemente
imperfeita, passaram a ocupar os pesquisadores de microeconomia. Tornou-se recorrente o
92 O conceito de competição perfeita é calcado em três ideias básicas: (i) todas as transações para bens idênti-
cos são realizadas pelo mesmo preço (“mercado perfeito”); (ii) irrelevância do volume transacionado por
qualquer agente individual (“comportamento atomizado”); e (iii) liberdade de entrada e saída em qualquer
nível de atividade (“mobilidade de recursos” e “equalização da taxa de retorno”) (VARIAN, 2006). 93 A premissa de retornos decrescentes à escala também costuma ser apontada como crítica. Conforme Arrow
(1996, p. 647), “[e]quilíbrio competitivo somente é viável se as possibilidades de produção forem conjuntos
convexos, que não apresentem retornos crescentes”. 94 Os modelos tradicionais são os oligopólios de Bertrand (concorrência por preços, com resultados similares à competição perfeita) e Cournot (concorrência por quantidades, intermediário entre o monopólio e a compe-
tição perfeita, conforme o número de firmas no mercado) (SHY, 1995; VARIAN, 2006). 95 Entre os exemplos clássicos de falhas de mercado, estão: o controle no acesso a insumos, a presença de
escalas mínimas de produção, a formação de cartéis e as restrições impostas pelos Estados, inclusive a exis-
tência de patentes bloqueando o acesso à tecnologia.
72
estudo da concorrência oligopolística, nos mercados nos quais a concentração de parcela
significativa da oferta sob o controle de um número reduzido de firmas assume caráter du-
radouro, sem a necessidade de elementos exógenos para justificá-la. Nessa perspectiva, a
rampante diferenciação entre os produtos e os retornos constantes, ou crescentes à escala,
abriram espaço para a competição além dos preços (SHY, 1995).
A partir dos trabalhos pioneiros, o modelo da concorrência oligopolística con-
solidou-se nos anos 1950, dando origem à organização industrial clássica (OIC) e ao para-
digma “estrutura-conduta-desempenho” (PECD), consolidado por Bain (1959/1987) e ou-
tros autores (WEISS, 1979). Nessa vertente, a estrutura do mercado determinava a conduta
das firmas participantes, que, por sua vez, definia o desempenho – resultados e desdobra-
mentos – do próprio mercado.96
A OIC foi, ainda, o quadro teórico de base para a teoria
antitruste contemporânea (VISCUSI; HARRINGTON; VERNON, 2005). Sem embargo
dos insights oferecidos pela OIC, sua utilização na análise empírica geralmente encontrou
problemas, especialmente no que diz respeito à causalidade prevista pelo PECD na avalia-
ção econométrica (TIROLE, 1988).97
Desde os anos 1970, a teoria dos jogos (TJ) abriu novos horizontes para o diag-
nóstico da dinâmica competitiva, sem abrir mão das principais hipóteses neoclássicas, tor-
nando-se a ferramenta padrão da organização industrial moderna (OIM). Centrada na inter-
pretação do conflito estratégico, a TJ forneceu meios para a modelagem teórica da competi-
ção. Nela, a assimetria de informações foi alçada ao papel causal central para justificar
mercados nos quais a concorrência é imperfeita ou não existe plena eficiência.98
Uma das principais contribuições da OIM é a utilização extensiva da TJ, como
substrato para o estudo das relações estratégicas entre as firmas. A modelagem do compor-
tamento oligopolista, por exemplo, baseia-se frequentemente em jogos não cooperativos.
Nesse caso, o comportamento das firmas, em estratégias puras ou mistas, é determinado
96 Indústrias com barreiras à entrada elevadas, poucas firmas grandes, produtos diferenciados e baixa elastici-
dade da demanda se caracterizariam por lucros elevados e vice-versa (KUPFER, 2002). Essa tradição “enfati-
zava a importância de algumas características relativamente invariantes das tecnologias de produção como determinantes últimos das estruturas e desempenhos observados” (MALERBA; ORSENIGO, 1996, p. 52). 97 Uma discussão das características e das principais críticas à OIC é feita em Pereira (2014c). 98 Na tradição neoclássica, a eficiência do mercado está relacionada com a organização da atividade econômi-
ca que minimiza seus custos globalmente, de forma a maximizar a geração de bem-estar social proveniente
desta atividade, desconsideradas as questões distributivas associadas (MUSGRAVE, 1959).
73
exclusivamente pelo interesse próprio, produzindo, em geral, soluções do tipo equilíbrio de
Nash.99
Por meio da TJ, tornou-se possível a formalização da interação estratégica das fir-
mas nos mercados, inclusive o caso de colusão.100
Os comportamentos estratégicos das empresas, baseados essencialmente nos
motivos e na racionalidade das firmas, foram trazidos para o centro da análise competitiva
na TJ. Como consequência, isso relegou as restrições estruturais – como aquelas ressaltadas
pela OIC – para um plano de menor relevância (MALERBA; ORSENIGO, 1996).
Por fim, deve-se ressaltar que o conceito de dinâmica na TJ é bastante específi-
co: ele se limita à repetição do jogo ao longo do tempo, com a premissa de estabilidade das
“regras do jogo” durante todas as rodadas (AXELROD, 1984).101
Assim, as firmas (e o
analista) podem antecipar da estratégia ótima de cada competidor, pela solução do proble-
ma de backward looking para o jogo pertinente. Como as empresas conseguem antever o
impacto futuro de suas decisões no presente, as estratégias dos jogadores “convergem” para
o primeiro período do jogo, mesmo que exista assimetria na informação disponível aos
agentes – pelo tratamento do equilíbrio bayesiano (TIROLE, 1988).
A Figura 26 reproduz o esquema interpretativo básico das estruturas de merca-
do segundo os principais modelos da OIM. A OIM é um campo essencialmente teórico, em
que o papel central é ocupado pelo desenvolvimento de modelos formais e, frequentemente,
com reduzida generalidade. Sua ênfase é a análise positiva (explanatória), sem descartar a
aplicação normativa. Nessa tradição, a relevância da evidência empírica na orientação teó-
rica, ao contrário da OIC, é secundária (TIROLE, 1988). A OIM é aplicada em estudos de
caso de indústrias específicas, tendo contribuído para a compreensão de mecanismos parti-
culares que, de alguma forma, tornaram imperfeita a competição. Entretanto, outra caracte-
rística da OIM é a profusão de modelos alternativos para a interpretação das situações em-
99 “Um conjunto de ações [ou estratégias] está em equilíbrio de Nash se, dadas as ações de seus rivais, uma
firma não pode aumentar seu próprio lucro escolhendo outra ação [ou estratégia] que não sua ação [ou estra-
tégia] de equilíbrio [de Nash]” (TIROLE, 1988, p. 206). 100 As situações em que existe a possibilidade de colusão entre as firmas no mercado podem ser tratadas por meio de jogos cooperativos repetidos (SHY, 1995). Apesar de a colusão permitir, em tese, a mudança das
regras de decisão durante a repetição do jogo, a OIM não trata essa situação como relevante. Isso porque, no
caso da colusão explícita, existe dificuldade de assinar contratos enforceable ou porque, no caso da colusão
tácita, na prática se recai na situação não cooperativa, pela inviabilidade da punição crível (VARIAN, 2006). 101 A teoria evolucionária dos jogos flexibiliza essa restrição, como será abordado adiante.
74
píricas (SHY, 1995). Em função do grau de abstração elevado e a generalidade restrita da
maioria deles, uma das dificuldades que se colocam para o analista é a comparação e a se-
leção do modelo mais apropriado para cada cenário empírico específico (TIROLE, 1988).
Figura 26 – Tipologia básica das estruturas de mercado adotadas pela OIM.
Fonte: Shy (1995).
Considerando os objetivos deste trabalho, quatro linhas analíticas frequente-
mente empregadas pela OIM foram selecionadas para consideração: a hipótese dos merca-
(comportamento tomador de preço) Decisão: quantidade produzida
Competição perfeita Competição imperfeita
Oligopólio Duopólio
Dinâmico Estático
Monopólio
(enfrenta curva de demanda)
N.D.
D. N.D.
D.
Cooperativo Não cooperativo
(cada firma enfrenta
demanda residual) Decisão: preço ou quantidade
(cada firma enfrenta demanda residual)
Movimentos simultâneos Movimentos sequenciais Jogo repetido
Cartel: colusão (colusão em preço
ou quantidade)
Bertrand
Decisão: preço
Cournot
Decisão: quantidade
Decisão: preço ou quantidade
Decisão: preço ou quantidade
D. = Discriminador
N.D. = Não Discriminador
Modelos líder-seguidor
75
dos “contestáveis”, o modelo de Stackelberg-Spence-Dixit, os efeitos/externalidades de
rede e os preços de congestionamento. Todas abordam situações propícias para oligopólios
não cooperativos com movimentos sequenciais e investigam características relevantes do
campo empírico em questão.
2.2.1. Mercados contestáveis
Conforme o paradigma estrutura-conduta-desempenho, indústrias com ganhos
crescentes de escala ou custos fixos elevados representam um desafio para a entrada de
novos competidores. Aqui, a consequência provável apontada pelo PECD é na direção do
monopólio natural (PINTO; FIANI, 2002) ou do oligopólio com poucas firmas benefician-
do-se de lucros extraordinários no longo prazo (ou “quase rendas”). Baumol, Panzar e Wil-
lig (1982/1988) rejeitaram essa conclusão, enquanto universal, e formularam a hipótese dos
mercados contestáveis. Nela, argumentam que a simples presença de custos fixos, a menos
que irrecuperáveis (“sunk costs”),102
não justifica resultado diferente do esperado para um
mercado competitivo (SCHMALENSEE, 2004).
A ideia do mercado contestável é intuitivamente simples. Suponha um dado
mercado, no qual existam m firmas incumbentes produzindo quantidades 𝑞𝑖 e atendendo à
demanda D, com certo nível de preços p, com market clear (∑ 𝑞𝑖 = 𝐷(𝑝)𝑚𝑖=1 ) e margens
positivas (𝑝𝑞𝑖 ≥ 𝐶(𝑞𝑖)). Se, para qualquer configuração de equilíbrio desse mercado, ne-
nhuma entrante potencial conseguir obter lucro, ao tomar o preço dos incumbentes como
dado, ele será (perfeitamente) contestável (TIROLE, 1988). Nessa situação, os autores de-
monstram que: (i) haverá apenas uma empresa na indústria, (ii) ela terá lucro zero e (iii) os
preços serão iguais aos custos médios (BAUMOL; PANZAR; WILLIG, 1982/1988). Logo,
diferentemente da situação de monopólio natural, a ameaça da entrada tem efeito próximo
ao mercado competitivo sobre o monopolista (preço igual ao custo médio versus preço
igual ao custo marginal), sem possibilidade de melhoria (de Pareto) – opção second-best.
Para efeito das condições de entrada, portanto, um mercado contestável torna-se
teoricamente fechado para a entrada eficaz, da mesma maneira que o monopólio natural,
102 Custos irrecuperáveis são a parcela dos custos que não pode ser revertida ou recuperada pela firma, ou
ainda aquela fração dos investimentos, quando ainda não realizada, que não possa ser convertida para outra
finalidade e, quando já realizada, não possa ser revendida (SHY, 1995).
76
sem, entretanto, ter os mesmos problemas na perspectiva do bem-estar social.103
Mas, como
os próprios autores reconhecem, a contestabilidade depende das funções de demanda e cus-
tos da indústria e, em certas situações, pode não existir solução sustentável para o jogo
acima (TIROLE, 1988). Nesses casos, os lucros podem se tornar positivos e a entrada se
viabilizar (oligopólio) ou não (monopólio natural). Por outro lado, a presença de níveis re-
duzidos de custos irrecuperáveis viabiliza não apenas a obtenção de quase rendas, mas tam-
bém o bloqueio efetivo da entrada (STIGLITZ, 1987b).
Alternativa semelhante, novamente crítica à inevitabilidade do – ou, ao “dano”
causado pelo – monopólio natural em mercados com retornos crescentes à escala, é o mo-
delo da guerra de atrito (em analogia com a biologia). O conceito básico é o de que duas
firmas, disputando um mercado na condição de duopólio, provavelmente incorrerão em
prejuízo (competição de Bertrand) até o momento em que uma delas desista e a outra assu-
ma o papel de monopolista. Nesse caso, durante um período t aleatório, as empresas com-
petem, praticando preços equivalentes aos custos marginais. No instante t, uma das empre-
sas abandona o mercado e a outra passa a praticar o preço de monopólio. Com base em al-
gumas premissas, Tirole (1988) argumenta que o fluxo de prejuízos incorridos durante a
fase de duopólio será equivalente ao de lucros do sobrevivente, tornando uma nova entrada
improvável após o estabelecimento do monopólio.
Em resumo, os refinamentos propostos pela OIM ao modelo clássico de mono-
pólio natural não alteram significativamente o cenário da entrada efetiva nesse tipo de in-
dústria. Por diferentes mecanismos, a expectativa de entrada com êxito segue sendo nula ou
remota. A discussão restringe-se, em essência, à possibilidade ou não da extração de lucros
de monopólio pelo incumbente e, portanto, à possível ineficiência desse arranjo segundo a
perspectiva do bem-estar social. Além disso, exceto nos mercados perfeitamente contestá-
veis, esses modelos apontam para tendência à formação de sobrecapacidade instalada, tem-
porária ou permanentemente, assim como na OIC.
103 A conclusão da inviabilidade da entrada em mercados contestáveis depende da premissa de velocidade de
ajuste de preços adotada. Caso os preços sejam relativamente rígidos, em relação ao tempo necessário para
alterações da capacidade instalada, então estratégias do tipo hit-and-run entry tornam-se possíveis (TIROLE,
1988; KUPFER, 2002). Essa situação particular não foi considerada para o cenário geral de entrada efetiva.
77
2.2.2. Modelo de Stackelberg-Spence-Dixit
Em geral, a abordagem da OIM se baseia na análise da variedade de estratégias
disponíveis para as firmas, conforme o caso, deterem ou acomodarem suas rivais no merca-
do. A partir de interações no curto prazo, as competidoras buscam alternativas de compor-
tamento que proporcionem alguma vantagem sobre as demais, em função da característica
de convergência estratégica para o primeiro jogo, já mencionada. Nessa situação, a origem
primária de qualquer vantagem competitiva, a seu turno, deve estar associada a alguma
assimetria preexistente entre as empresas (CARLTON, 2004). Logo, a estratégia ótima das
firmas dependerá, essencialmente, do perfil da interação incumbente-entrante.
A interação entre incumbente104
e entrante é usualmente classificada, alternati-
vamente, como de substituição ou de complementaridade estratégica (TIROLE, 1988). Esse
perfil é determinado pela inclinação das funções de reação,105
conforme sejam descendentes
(substitutos estratégicos) ou ascendentes (complementares estratégicos). No caso mais co-
mum, de substitutos estratégicos, a implantação ou o aumento irreversível da capacidade de
uma competidora induzirá, como reação ótima, à redução de capacidade da(s) outra(s) fir-
ma(s). A credibilidade dessa irreversibilidade é a questão central desse jogo (CARLTON,
2004). A interação estratégica introduz a dinâmica na análise, uma vez que o processo de
sinalização – no exemplo, por meio de sunk costs – envolve sempre mais de um período.
No perfil de substitutos estratégicos, as incumbentes normalmente acumulam
antecipadamente capacidade produtiva, ou outra forma de investimento de capital, suficien-
te para limitar a entrada, ou mesmo bloqueá-la, se existirem retornos crescentes à escala.
Ainda que o compromisso da incumbente não seja totalmente crível, a entrada pode ser
desencorajada pelo aumento do risco do entrante, até na ausência de economias de escala
(SCHMALENSEE, 2004). Assim, apesar de tecnologia e custo equivalentes, a incumbente
pioneira tem condições de manter rentabilidade permanentemente superior às entrantes,
potenciais ou efetivas. São vantagens temporais intrínsecas da(s) primeira(s) firma(s) (first-
mover advantages) que restringem a competição e a entrada (TIROLE, 1988).
104 O termo “incumbente” é utilizado aqui para a firma que se estabeleceu primeiro ou, em geral ao longo do
texto, que detém elevada participação de mercado ou possui algum papel dominante no mercado. 105 A função de reação representa o conjunto de respostas ótimas da firma i a cada escolha da firma j, i ≠ j.
78
Fudenberg e Tirole (1984) propuseram uma taxonomia para os perfis de intera-
ção estratégica, como aqueles descritos acima, com um modelo simples de dois períodos.
Nele, para o caso de duas firmas no mercado (incumbente e entrante), ambas decidem no
primeiro período (simultaneamente) seus volumes de produção (𝑥1 e 𝑥2) para o segundo,
com base no investimento comprometido pela incumbente (𝐾1) no primeiro. Seus lucros no
segundo período serão Π1(𝐾1, 𝑥1, 𝑥2) e Π2(𝐾1, 𝑥1, 𝑥2), respectivamente. Se as curvas de
reação (da quantidade produzida), de uma competidora em relação à outra, propiciarem a
convergência para a estabilidade (equilíbrio de Nash), o ponto de equilíbrio será
{𝑥1∗(𝐾1), 𝑥2
∗(𝐾1)}.
Nesse cenário, a entrada será desencorajada, ou bloqueada, se 𝐾1 for escolhido
pela incumbente de forma que:
Π2(𝐾1, 𝑥1∗(𝐾1), 𝑥2
∗(𝐾1)) ≤ 0 (1)
Note-se que a opção da incumbente entre bloquear, desencorajar ou acomodar a
entrada – e arcar com os custos correspondentes – depende da sua avaliação da demanda e
da tecnologia, dadas as características da indústria, em um problema de otimização. De
qualquer maneira, o efeito das decisões da incumbente no lucro da entrante será:
𝑑Π2
𝑑𝐾1=𝜕Π2
𝜕𝐾1 +
𝜕Π2
𝜕𝑥1
𝑑𝑥1∗
𝑑𝐾1 (2)
O lucro da entrante dependerá tanto das escolhas pré-entrada (𝐾1) quanto do
comportamento pós-entrada (𝑑𝑥1
∗
𝑑𝐾1) da incumbente. A imagem que a incumbente terá inte-
resse de projetar para a entrante, portanto, será de uma firma “dura” ou “suave”, conforme
𝜕Π2
𝜕𝐾1 seja negativo ou positivo, respectivamente. “[S]e o investimento faz a firma 1 [parecer]
dura, então a firma 1 deve ‘sobreinvestir’ para dissuadir a entrada” (TIROLE, 1988, p. 325)
e vice-versa.
No caso em que a incumbente opta pela acomodação da entrante, o efeito das
decisões desta no lucro daquela será:
efeito
direto efeito
estratégico
79
𝑑Π1
𝑑𝐾1=𝜕Π1
𝜕𝐾1 +
𝜕Π1
𝜕𝑥2
𝑑𝑥2∗
𝑑𝐾1 (3)
Nesse caso, a decisão de investimento da incumbente será direcionada pelo efei-
to estratégico resultante da influência da escolha de produção – e investimento – da entran-
te no segundo período. Assim, “a firma 1 deve sobreinvestir (subinvestir) se o efeito estra-
tégico for positivo (negativo)” (ibid., p. 326).
Tabela 3 – Estratégias ótimas para a firma incumbente.
Perfil da interação
Ação incumbente
Efeito do investimento da incumbente no lucro da entrante
106
𝑑Π2
𝑑𝐾1< 0
𝑑Π2
𝑑𝐾1> 0
Substitutos estratégicos
Acomodar ou desencorajar entrada
top dog lean & hungry
Complementos estratégicos
Acomodar entrada puppy dog fat cat
Desencorajar entrada top dog lean & hungry
Fonte: Tirole (1988).
Com base na análise precedente, Fudenberg e Tirole (1984) propuseram a taxo-
nomia para as possíveis estratégias da incumbente: (i) top dog – ser grande/forte para pare-
cer agressivo (sobreinvestir); (ii) puppy dog – ser pequena/fraca para ser considerada ino-
fensiva (subinvestir); (iii) lean & hungry – ser pequena, mas criar impressão de agressivi-
dade (subinvestir); e (iv) fat cat – ser grande, mas parecer inofensiva (sobreinvestir). A Ta-
bela 3 sumariza essa taxonomia, conforme o cenário estratégico.
2.2.3. Efeitos de rede e externalidades
A consideração dos efeitos das redes sociais no processo econômico, por meio
de padrões específicos de conexão entre indivíduos ou organizações, consumidores ou pro-
dutores, começou a ganhar espaço na organização industrial nos anos 1980 (DAVID, 1985;
106 Assumindo que
𝜕Π2
𝜕𝐾1= 0, no caso da acomodação, para simplificar as opções (TIROLE, 1988).
80
FARRELL; SALONER, 1985; KATZ; SHAPIRO, 1985). Esse movimento buscou agregar
ao estudo da concorrência fatores produzidos pelas interações entre os atores relevantes. A
OIM concentrou-se inicialmente na utilização instrumental107
do conceito de externalidade
de rede, como suporte analítico para alguns problemas de natureza alocativa, gerados pelo
comportamento dinâmico de mercados particulares108
(BRITTO, 2002). Em particular, a
definição de externalidade de rede da demanda como “uma alteração no benefício ou exce-
dente que um agente deriva de um bem quando muda o número de outros agentes consu-
mindo o mesmo tipo de bem [ou serviço]” (LIEBOWITZ; MARGOLIS, 1998), permitiu
reavaliar o papel da interação mútua nas escolhas dos consumidores.
Externalidades de rede de demanda proporcionam rendimentos crescentes nos
mercados em que são verificadas. Logo, elas aumentam a interdependência entre consumi-
dores e, de certa forma, alteram suas preferências endogenamente. Por isso, as expectativas
sobre a formação de redes de usuários em torno de produtos e serviços específicos, total ou
parcialmente incompatíveis com seus concorrentes diretos, acabam por definir aqueles que
sobreviverão em seus respectivos mercados, pela ação de mecanismos que atuam além das
considerações usuais de eficiência109
(DAVID, 1985). Esse fenômeno, de realimentação
positiva, produz efeitos de rápida concentração do mercado ao redor de apenas um produto
ou padrão tecnológico, inviabilizando a existência de alternativas, exceto em nichos parti-
culares (BESEN; FARRELL, 1994). Uma consequência direta da presença de externalida-
des de rede, observada em diversos mercados, é a inaplicabilidade dos teoremas clássicos
do bem-estar social, ainda que seja possível o estabelecimento de equilíbrio competitivo
dos preços, situação que caracteriza uma falha de mercado (SHY, 2001).
As externalidades de rede explicam a concentração persistente da telefonia fi-
xa, por exemplo. Nessa indústria, a adoção crescente pelos usuários da rede telefônica de
107 Quadros de referência teórica baseados em jogos em rede eram, nesse momento, em geral aplicados à
investigação de fenômenos cooperativos entre agentes – ver, por exemplo, Jackson e Yariv (2007). 108 A literatura sobre externalidades distingue, pelo menos, quatro tipos particulares: (i) externalidades técni-
cas, relativas à interdependência produtiva entre firmas; (ii) externalidades pecuniárias, associadas com a interação entre preços relativos de fatores e as estruturas de custos; (iii) externalidades tecnológicas, induzidas
pelo efeito de spillover do conhecimento tecnológico entre firmas; e (iv) externalidades de demanda, associa-
das à influência dos demais consumidores nas escolhas do consumidor (BRITTO, 2002). 109 O processo de formação conjunta de expectativas é intrinsecamente indeterminado (open-ended) e conduz
a soluções de “equilíbrios múltiplos” quando modelado analiticamente (SHY, 2001).
81
determinada empresa criaria incentivos diretos, até certo ponto crescentes, para que os no-
vos usuários também escolhessem essa firma, em detrimento de competidoras com menor
número de clientes.110
Segundo Shy (2001), pode-se formalizar esse processo. Considere-se
um grupo de 𝜂 usuários potenciais do serviço telefônico, ordenados uniformemente no in-
tervalo [0,1] conforme sua disposição decrescente a pagar por ele. Como ilustração, os 𝜂
3
usuários com maior propensão a contratar uma linha telefônica estão contidos em [0,1
3]. Se
𝑞, 0 ≤ 𝑞 ≤ 1, representar o total de contratantes de um telefone e 𝑝 for o seu preço, pode-
se definir a função de utilidade 𝑈𝑥 para um usuário 𝑥 qualquer, 𝑥 ∈ [0,1], como:
𝑈𝑥 = {(1 − 𝑥)𝑞 − 𝑝, para usuários conectados0, para usuários desconectados
(4)
Dado um preço 𝑝 para o serviço, o usuário �̂� que é indiferente entre contratá-lo
ou não (𝑈𝑥 = 0) será dado por:
�̂� =𝑞 − 𝑝
𝑞 (5)
Como por definição 𝑞 = 𝜂�̂�, a função inversa da demanda será dada por:
𝑝 = (1 − �̂�)𝜂�̂� (6)
A função (6) tem a forma de parábola, com preço máximo dado em 𝑥 =1
2. Isso
significa que, com poucos usuários, o preço deve ser baixo pela pouca utilidade do serviço
– os efeitos de rede dominam o preço –, mas pode crescer à medida que novas conexões são
realizadas. Apenas depois de atingir a metade da população potencial, a função inversa de
demanda assume a inclinação descendente usual. Essa característica da curva de demanda
produz, simultaneamente, dois impactos importantes sobre a competição: (i) para um mes-
mo nível de preços, a rede com mais usuários será sempre preferível às demais; e (ii) à me-
dida que cresce a população de usuários potenciais, maior poderá ser o preço praticado.111
110 A premissa essencial para o surgimento da externalidade de rede, nesse caso, é a ineficiência do regime de
interconexão entre as diversas redes, que impossibilita um usuário de acessar usuários de outras redes ou
ocasiona custo mais elevado para as chamadas inter-redes (em relação às chamadas intrarrede). 111 O risco de comportamento predatório, resultante do inevitável processo de concentração, justificou a ação
do Estado para concentrar e regular a operação do sistema, frequentemente por meio de monopólio estatal. A
82
2.2.4. Preços de congestionamento e qualidade de rede
Considerando as características particulares do serviço de acesso à internet, au-
tores como MacKie-Mason e Varian (1994b) levantaram ainda a hipótese de que modelos
do tipo “preço de congestionamento” seriam mais adequados para explicar o mercado de
acesso à internet. Nesses modelos, o preço ótimo (do ponto de vista do bem-estar social) a
ser cobrado, sobre cada unidade de informação (“pacote”) que trafega na rede, deveria ser
determinado com base na alocação eficiente dos custos dos recursos mobilizados nessa si-
tuação. Esses autores pressupõem o desdobramento conceitual do preço em duas parcelas:
uma constante, para recuperação dos custos operacionais alocados conforme algum critério
fixo, e outra variável, para controlar o uso “abusivo” e manter o congestionamento da rede
dentro de níveis aceitáveis. A representação desse modelo é esboçada a seguir.
É dado o número 𝜂 de usuários potenciais da rede, supondo-se que o usuário 𝑖,
𝑖 = 1,… , 𝜂, seja responsável pela movimentação de 𝑞𝑖 pacotes em cada momento. Dessa
forma, 𝑄 = ∑ 𝑞𝑖𝜂𝑖=1 representaria a quantidade total de pacotes que circulam na rede no
período em questão. Entretanto, a rede física que suporta a internet é dimensionada para o
transporte de até �̅� pacotes com padrão adequado de serviço, ou seja, sem que a qualidade
percebida pelos usuários seja significativamente prejudicada.112
Com isso em mente, Ma-
cKie-Mason e Varian (ibid.) propuseram uma função de utilidade para o usuário 𝑖:
𝑈𝑖 = √𝑞𝑖 − 𝛿𝑄
�̅�− 𝑝𝑞𝑖 (7)
𝛿 é o parâmetro que quantifica a perda de utilidade com o congestionamento da
rede, medido pelo grau de utilização da capacidade instalada �̅�. Quando 𝑄
�̅�≤ 1, a rede está
subutilizada e a qualidade percebida pelos usuários é adequada. 𝑝 representa o preço para
cada pacote que trafegado. No caso de 𝑝 = 0, o tráfego demandado pelo usuário 𝑖 será
aquele que resolva (8), dadas as condições de primeira e segunda ordem em (9).
partir dos anos 1980, essa tendência começou a ser gradualmente substituída pelo paradigma da interconexão, por meio do controle administrativo do “preço de acesso” à rede do incumbente. 112 Em função da natureza probabilística das redes de comutação de pacotes, algum nível de congestionamen-
to, com consequente atraso no fluxo de informações, é inerente ao próprio projeto da capacidade física das
redes. A degradação da qualidade dos serviços é, em geral, avaliada com base nesse nível projetado para a
qualidade. O tema é detalhado no Apêndice A.
83
max𝑞𝑖
𝑈𝑖 = √𝑞𝑖 − 𝛿𝑄
�̅�− 𝑝𝑞𝑖, 𝑄 = 𝑞𝑖 +∑𝑞𝑗
𝜂
𝑗≠𝑖
, 𝑝 = 0 (8)
d𝑈𝑖d𝑞𝑖
=1
2√𝑞𝑖−𝛿
�̅�− 𝑝 = 0,
d2𝑈𝑖d(𝑞𝑖)2
= −1
4√(𝑞𝑖)3< 0 (9)
𝑞𝑖 = (�̅�
2𝛿)
2
, 𝑄 = 𝜂𝑞𝑖 = 𝜂 (�̅�
2𝛿)
2
(10)
A conclusão obtida em (10) é inequívoca: a capacidade demandada pelos usuá-
rios, nesse cenário, cresce segundo o quadrado da capacidade instalada da rede. Logo, os
congestionamentos seriam inevitáveis sem a adequada cobrança pelo tráfego gerado. Mas,
se o preço 𝑝 for maior que zero, a utilização tenderá a se reduzir, de forma que 1 ≤ 𝑞𝑖 <
(�̅�
2𝛿)2
. Supondo que, nessa situação, todos os usuários utilizem a mesma quantidade de pa-
cotes 𝑞 = 𝑞𝑖, para 𝑖 = 1,… , 𝜂, o preço máximo 𝑝𝑚𝑎𝑥, que torna o usuário indiferente em
incrementar ou não sua utilização da rede (𝑈𝑖 = 0), é dado por:
𝑝𝑚𝑎𝑥 =1
√𝑞− 𝛿
𝜂
�̅� (11)
Cada provedor de acesso à internet 𝑗, 𝑗 = 1,… , 𝜆 (𝜆 é o número de provedores)
tem no investimento na capacidade 𝑄𝑗 de sua rede a principal ação de diferenciação do seu
produto, apesar de nenhum provedor, individualmente, ter controle sobre a capacidade total
da rede �̅� = ∑ 𝑄𝑗𝜆𝑗=1 . Ainda assim, o resultado obtido em (11) indica que o compromisso
clássico entre qualidade e preço também está presente nesse caso e que os valores efetiva-
mente praticados provêm da maximização do lucro pelos provedores, supondo que altera-
ções na capacidade 𝑄𝑗 individuais sejam insignificantes para a definição de �̅�. Então, para
os pequenos provedores (𝑄𝑗 ≪ �̅�), a única estratégia disponível é a de “tomadores de pre-
ço” (price takers). Isso significa que, em um cenário com a presença de economias de esca-
la, os provedores maiores poderão, potencialmente, definir preços que inviabilizem as fir-
mas menores e bloqueiem a entrada de novas, uma espécie de barreira à entrada dinâmica.
84
2.2.5. Limitações da organização industrial
Não obstante o inegável avanço representado pela OIM para explicar o compor-
tamento estratégico das firmas no mercado, antes e após a entrada de competidores, suas
premissas restritivas são apontadas como importantes limitantes de sua aplicação generali-
zada na avaliação empírica (PYKA; EBERSBERGER; HANUSCH, 2004). Mesmo com o
maior rigor que a teoria dos jogos aportou para elucidar os preços em oligopólio, com base
em processos de coordenação tácitos ou explícitos, a OIM segue incapaz de explorar as
consequências desse fenômeno além da questão alocativa estática. A ênfase estrita no me-
canismo de preços e no equilíbrio dificulta o tratamento de outras questões relevantes, es-
pecialmente aquelas de natureza dinâmica (POSSAS, 2002).
A premissa da escolha perfeitamente racional pelas firmas, desenvolvida logi-
camente ao limite pela TJ, fornece insights importantes em alguns tipos de situação, mas é
limitada como ferramenta explanatória em muitos outros (KIRMAN, 1997; WINDRUM,
2007). Em diversas situações concretas, a hipótese de racionalidade substantiva113
assumida
pela teoria dos jogos é problemática, pois implica que considerações sobre incerteza e pru-
dência dos agentes são subestimadas na busca do equilíbrio (SIMONSEN, 1988; DE-
QUECH, 2003, 2006). Essas restrições podem acarretar problemas nos resultados analíti-
cos, particularmente em setores tecnologicamente dinâmicos, nos quais o nível de incerteza
elevado e o aprendizado coletivo são essenciais para a dinâmica setorial. O tratamento que
a OIM dá ao desenvolvimento cooperativo do conhecimento, ao focalizar o tema essenci-
almente nos spillovers, agrava essa questão (PYKA; GILBERT; AHRWEILER, 2009),
apesar de trabalhos recentes na TJ estarem tentando superar essa limitação – ver, por exem-
plo, Stein (2008).
Outro ponto problemático são as situações que envolvem alteração de valores
sociais e instituições, inclusive as tecnológicas, que na OIM são frequentemente modeladas
como soluções de equilíbrio múltiplo (DOSI; NELSON, 1994). Compreender como uma
solução particular de equilíbrio é selecionada, entre as diversas alternativas, é igualmente
113 O termo se coloca em oposição à racionalidade limitada (bounded rationality) que, por sua vez, é definida
como “categoria residual”, caracterizada por qualquer forma de racionalidade inferior à omnisciência. Ela se
origina na limitação dos indivíduos, em um ambiente de incerteza, de conhecer todas as alternativas possíveis
e, portanto, de calcular completamente as consequências das suas ações e das dos outros (SIMON, 1979).
85
importante (ARTHUR, 1988). A explicação da mudança – e não apenas do equilíbrio –
deveria ser um dos elementos centrais do tratamento da competição (METCALFE, 1998).
[No quadro conceitual da OIM] apenas a dimensão quantitativa dos esta-
dos potenciais de equilíbrio e sua estática comparativa [são] considerados. No nível setorial isso significa que a análise é restrita para estruturas de
equilíbrio de longo prazo descrevendo, por exemplo, o número de firmas
em uma indústria particular, sem por ênfase nos fatores que impulsionam a emergência e a maturação das indústrias, [...] basicamente negligencian-
do os processos de inovação e desenvolvimento tecnológico [PYKA;
EBERSBERGER; HANUSCH, 2004, p. 192].
Em uma abordagem de equilíbrio geral, na qual os agentes hiper-racionais abso-
lutamente não interagem, ou na teoria dos jogos clássica, em que os atores hiperconectados
se relacionam com todos os demais, não costuma existir espaço para uma representação
intermediária,114
que privilegie padrões de interação local complexa (KIRMAN, 1997;
PYKA; FAGIOLO, 2005). Como lembra Georgescu-Roegen (1967, p. 32), na perspectiva
da neoclássica “a condição comumente classificada como de ‘indústria perfeitamente com-
petitiva’ na realidade não envolve nenhuma competição”, pois as firmas se ajustam passi-
vamente, por meio de preços, quantidades ou investimentos, sem que seja necessária a inte-
ração ativa. A introdução dos jogos em rede mitigaria, em princípio, essa limitação, permi-
tindo o tratamento da interação estratégica local pela OIM. Porém, os modelos passíveis de
serem tratados pelos jogos em rede são bastante restritos, em especial por causa de sua limi-
tada generalidade em face da multiplicidade de topologias de rede e da falta de solução
adequada para o problema da coordenação no equilíbrio (KÖNIG; BATTISTON; SCHWEIT-
ZER, 2009). Os resultados possíveis, produzidos utilizando-se topologias muito simples, não
se mantêm quando são introduzidas redes mais complexas – e próximas dos arranjos reais
(GOYAL, 2007).
Um dos problemas analíticos críticos é que a operação das redes de agentes he-
terogêneos adaptativos – que compõem os sistemas econômicos – acontece frequentemente
fora do escopo de atratores globais para o equilíbrio. Até em suas formas mais sofisticadas,
incluindo a análise de redes, a teoria dos jogos não oferece recursos técnicos suficientes
114 Autores como Potts (2000) argumentam que essa restrição tem origem na geometria do espaço matemático
adotado pela teoria neoclássica, na forma de um campo no ℝ𝑛, onde obrigatoriamente todos os elementos têm
que estar conectados com todos os demais, por definição.
86
para lidar com essa realidade complexa (HOLLAND, 1988; KIRMAN, 1997). “Inovação é
uma questão de comportamento diferencial e comportamento diferencial é a base para a
mudança estrutural” (METCALFE, 1998, p. 37). A adoção do agente representativo (ou da
homogeneidade entre eles), a despeito da tratabilidade matemática, obstrui a consideração
da mudança estrutural e da inovação, pelo menos no sentido que esses termos normalmente
adquirem fora da OIM. Em situações reais, usualmente as firmas respondem de modo dife-
renciado aos mesmos sinais recebidos do mercado, de forma completamente racional, por-
que nem todas as escolhas são claramente superiores às outras ex ante (DAVID, 1985).
Caso sejam conceitualmente abstraídos os desafios impostos pela inovação, a
OIM, em princípio, é também aplicável em situações de racionalidade limitada. Mas sua
aplicação, nessas condições, requer que os contextos nos quais os atores tomam suas deci-
sões sejam razoavelmente familiares para eles, permitindo um nível adequado de previsibi-
lidade e homogeneidade dos comportamentos ótimos, ou pelo menos superiores 115
(DOSI;
NELSON, 1994). Contudo, nessa situação, o tratamento de como e quais condutas “racio-
nais” poderiam ser aprendidas pelos agentes é problemático, pois a OIM, em essência, des-
considera o ambiente institucional – valores, normas, crenças, práticas compartilhadas –
que guia e restringe a seleção dos comportamentos efetivamente adquiridos.116
Ora, talvez a
principal fragilidade teórica da organização industrial seja justamente explicar as condutas
das firmas sem compreender as forças tecnológicas e sociais que as moldaram, partindo da
premissa de que, independentemente de como o processo se deu, o resultado final possa ser
predito e, além disso, seja ótimo e universal.
2.2.6. O setor de internet na perspectiva da organização industrial
Uma das conclusões preliminares do exame do mercado de acesso à internet é a
inaplicabilidade dos modelos “padrão” de concentração industrial. Um oligopólio de Ber-
115 A premissa básica é supor que os atores se comportam “como se” eles conhecessem o que estão fazendo e
que, no caso de ocorrência de erros de julgamento, os agentes inevitavelmente descobririam as respostas cor-
retas e adequariam o seu comportamento, excluindo a possibilidade de erros sistemáticos (NELSON, 1995). 116 A questão de fundo é a premissa da otimização em condições estritas de racionalidade. Mesmo relaxados
os pressupostos sobre a previsibilidade das escolhas, com a introdução dos conceitos de risco, relacionamento
em rede e variáveis estocásticas, a OIM necessita assumir que o conjunto de escolhas da firma, inclusive tec-
nológicas, é dado, finito e conhecido a priori. Assim, cabe à concorrência tão somente o papel de gerar os
sinais e incentivos para que os competidores façam as escolhas corretas (DOSI, 1982).
87
trand pressupõe competição por preços, o que parece descartado pela evidência empírica do
Capítulo 1.117
Por hipótese, tampouco uma leitura baseada no modelo de Cournot é compa-
tível com o mercado de acesso, no qual os provedores, na prática, sequer têm controle dire-
to sobre as quantidades que oferecem.118
Ao investigar as principais condições para a concentração sugeridas pela OIC,
diversos pré-requisitos habituais não se verificam no mercado de acesso. Como aponta a
pesquisa empírica, a diferenciação dos produtos é limitada, restrita principalmente à esfera
da qualidade, a elasticidade-preço da demanda é bastante elevada e as barreiras à entrada
estáticas são restringidas pela dinâmica do progresso técnico setorial. Também não parece
ter papel importante a sinalização de retaliação pelos incumbentes, considerando o volume
elevado de entrantes, a despeito do seu eventual insucesso em crescer.
As operadoras tradicionais tentam defender o seu monopólio natural na
rede de telefonia local por meio do reforço do papel das externalidades de rede, custos irrecuperáveis e economias de escopo. [...] No entanto, as
economias de escala atribuída ao acesso local já não são suficientes para
impedir a concorrência a partir de novas tecnologias de radiocomunicação
digital e de acesso por fibra óptica [DAVIES, 1996, p. 1176].
Além disso, leitura tradicional do setor de telecomunicações como monopólio
natural, em virtude dos custos irrecuperáveis ou das externalidades de rede diretas, também
não parece se transpor diretamente para a o cenário da internet. Nesse caso, as barreiras à
entrada estáticas, bem como os sunk costs, são, em geral, muito menos relevantes do que na
telefonia fixa. Isso porque estão disponíveis tecnologias de acesso que permitem a constru-
ção de redes com escalas relativamente reduzidas, viabilizando a competição (economica-
mente eficiente) entre redes de serviço sobrepostas, como demonstrado pela telefonia mó-
vel – e que utiliza plataforma tecnológica compartilhada com o acesso à internet.119
A existência de vantagens de escala e escopo para os provedores de acesso
maiores não pôde ser descartada pela análise empírica e, aparentemente, é uma das forças
117 O modelo de Bertrand pode ser, no entanto, uma representação, em princípio, razoável para o segmento de
equipamentos e sistemas, no qual a relativa concentração do mercado acontece simultaneamente com intensa
competição de preços e margens reduzidas. 118 Tanto em termos técnicos quanto regulatórios, as condições desse mercado dificultam o controle eficaz, no
curto prazo, do número de usuários e do volume de tráfego que um provedor efetivamente atende. 119 Apesar da frequente introdução de novas e mais produtivas tecnologias de acesso, que requerem a constan-
te substituição de redes obsoletas, a vantagem dos first-movers, apesar de reduzida, não foi completamente
eliminada, como parece indicar a frequente dominância dos provedores históricos.
88
de estímulo para a concentração no caso concreto.120
Por outro lado, a avaliação dos custos
e rentabilidades das incumbentes do mercado de acesso parece afastar, pelo menos prelimi-
narmente, a hipótese de mercado contestável (Seção 2.2.1). Margens substanciais – preços
razoavelmente acima dos custos médios – foram constatadas para as incumbentes. Tam-
pouco foram detectados indícios da ocorrência de “guerras de atrito” entre as firmas. Pelo
contrário, a convivência por meio da divisão geográfica do mercado é dominante.
É frequente a proposição de que, à semelhança da telefonia, externalidades de
rede proporcionem importante vantagem para os incumbentes (Seção 2.2.3). Isso porque,
como a telefonia, o serviço de acesso mostra clara evidência da presença de efeitos de rede
na sua adoção pelos usuários (SHAPIRO; VARIAN, 1999/2002). Mas, em virtude das ca-
racterísticas específicas da internet, em particular a interconexão de baixo custo generaliza-
da, esses efeitos não se manifestam diretamente em benefício de uma rede,121
como na tele-
fonia. Afinal, não é relevante para a maioria dos usuários em qual rede eles estão conecta-
dos, uma vez que todas as sub-redes que compõem a internet estão interconectadas e, em
geral, não existe diferenciação de preço para troca de informações inter ou intrarredes.
Além disso, custos de migração entre provedores tampouco parecem ser consideráveis,
considerando-se o elevado churning. Por isso, o comportamento monopolista de redes
“clássico” não está no conjunto de possibilidades estratégicas dos provedores de acesso,
mesmo os maiores.122
A avaliação das estratégias das firmas do setor, baseada na TJ, não é tarefa sim-
ples, em função da convivência de jogos cooperativos e não cooperativos, característica da
trajetória da internet. Adicionalmente, a dinâmica do setor alternou, frequentemente, distin-
tas “regras do jogo”, muitas vezes oriundas das redes sociais de cooperação ad hoc estabe-
lecidas entre os agentes, o que complica a análise. Ainda assim, resultados em um nível
120 Vale notar que mesmo no segmento de conteúdo, no qual a presença de significativas economias de escala
é ainda mais marcante, a dominância das firmas líderes tem sido relativamente efêmera, marcada pela inces-
sante competição por meio da introdução de serviços e conteúdos inovadores. 121 Esse tipo de externalidade de rede costuma ser denominada “indireta” (KATZ; SHAPIRO, 1985). Ela se dá
quando as decisões dos usuários influenciam as preferências por causa do estímulo indireto para a oferta de bens complementares àqueles que estão sendo avaliados. 122 Isso se deve crucialmente ao modelo aberto de interconexão, que historicamente se estabeleceu entre os
maiores provedores, pelo menos, reforçado posteriormente pelas diretrizes dos organismos de governança da
internet. Isso restringiu, na prática, a utilização das externalidades produzidas pela rede para promoção de
estratégias monopolistas pelas firmas detentoras da infraestrutura da internet.
89
mais elevado de generalidade, compatíveis com a concentração verificada empiricamente,
são passíveis de tratamento com a TJ – ver, por exemplo, Faulhaber e Hogendorn (2000).
Em especial, o modelo de Stackelberg-Spence-Dixit (Seção 2.2.2) é adequado
para tratar alguns cenários específicos do mercado de acesso, mesmo que em condições de
elevada generalidade. A informação empírica parece dar sustentação à hipótese de que o
significativo volume de investimento irreversível realizado pelos incumbentes pode induzir
alguma restrição para entrada. Em conjunto com a presença de economias de escala, isso
estabelece um círculo vicioso para os entrantes, que chegam ao mercado com tamanho pe-
queno demais para se tornarem competidores efetivos. A evidência anedótica aponta que o
único caso de entrante exitoso no mercado brasileiro, a GVT, foi precisamente um dos pou-
cos provedores iniciantes que investiram em escala comparável à das incumbentes.123
Por fim, o modelo de preços de congestionamento (Seção 2.2.4) é interessante
para esclarecer algumas características do mercado de acesso, em particular a questão espe-
cialmente delicada do balanço entre preços e qualidade (capacidade). Considerando que os
consumidores podem avaliar objetivamente a qualidade dos serviços apenas após sua frui-
ção, a sinalização dos preços é uma das poucas alternativas dos provedores para evitar os
congestionamentos das redes e o impacto negativo na qualidade. Por outro lado, ao oferece-
rem um produto razoavelmente homogêneo, os preços são simultaneamente operados como
instrumento de ação competitiva. Essa dupla atribuição para os preços – em princípio con-
traditória – produz realimentação e não linearidade na função de resposta de oferta e de-
manda, potencialmente desestabilizando o sistema. Obviamente essa problemática não pode
ser estudada a partir da perspectiva de equilíbrio. Preliminarmente, parece possível estender
o estudo dessa questão utilizando a teoria dos jogos evolucionários, uma vez que se trata
evidentemente de um problema de coordenação.124
No entanto, esse é forçosamente um
tema para pesquisa futura, considerando-se que a avaliação preliminar, sumarizada no
Apêndice A, mostra que aparentemente não existe solução simples para esse jogo.
123 O elevado volume de investimento da GVT e da Nextel foram, até o momento, casos únicos no Brasil. Mas
isso demonstrou a viabilidade da entrada, atendidas certas condições, independentemente da capacidade insta-
lada das incumbentes. 124 Agradeço ao prof. Sebastian Ille pela ideia dessa extensão.
90
Adicionalmente, o modelo de preços de congestionamento esclarece o modo
pelo qual os incumbentes podem praticar valores que bloqueiem a entrada, mas ainda assim
permanecerem lucrativos. Entretanto, o modelo não é capaz de esclarecer como se dá essa
dinâmica entre incumbentes e entrantes, fundamental para explicar a estrutura setorial.
2.3. Teoria evolucionária neoschumpeteriana
O que torna o capitalismo diferenciado é a sua capacidade, descentraliza-
da e distribuída, para a introdução de novos padrões de comportamento; sejam tecnológicos, organizacionais ou sociais, eles são o combustível que
impulsiona a mudança econômica [METCALFE, 1998, p. 3].
O conceito de “creative destruction” (“destruição criadora”) de Schumpeter
(1943/1976) talvez seja uma das melhores e mais sucintas descrições de uma teoria evolu-
cionária na ciência econômica. Schumpeter (1912/1997) transformou o espaço clássico de
estudo da concorrência interfirma, ao reconhecer que as firmas procuram ativamente se
diferenciar entre si, pelas incessantes inovação e imitação, tecnológica125
e organizacional,
em busca do “lucro de monopólio”.126
Apontou também que o padrão de avanço, gerado
endogenamente nesse processo, influenciava fortemente a estrutura competitiva do mercado
(SCHUMPETER, 1943/1976). “Ele identificou como processo-chave do desenvolvimento a
‘realização de novas combinações’, e, na economia competitiva, ‘novas combinações signi-
ficam a eliminação competitiva do velho’” (NELSON; WINTER, 1982/2005, p. 402). É em
sua obra de 1943 que ele apresenta a célebre “hipótese schumpeteriana”: a presença de em-
presas grandes, com efetiva capacidade de inovar, em mercados crescentemente concentra-
dos, é condição necessária para o progresso econômico acelerado observado no século XX.
Como ilustra Possas (2002), a perspectiva schumpeteriana representa uma mu-
dança radical de paradigma na análise da competição. Formulações usuais da concorrência
na teoria neoclássica, como aquelas apresentadas por Arrow (1962) ou Dasgupta e Stiglitz
(1980), restringem o papel da concorrência ao processo de eliminação de vantagens ou dife-
125 Tecnologia, em um contexto neoschumpeteriano, pode ser definida como “um conjunto composto por
conhecimento, diretamente ‘prático’ (relacionado com problemas e dispositivos concretos) ou ‘teórico’ (mas aplicável na prática apesar de não necessariamente já ter sido aplicado), know-how, métodos, procedimentos,
experiência de sucessos e falhas e [...] dispositivos e equipamentos físicos” (DOSI, 1982, p. 151-152). 126 Conceito da economia clássica – as “quase rendas” – que representa o lucro capturado pelo monopolista,
além da cobertura dos custos marginais, e que é possível apenas na situação de competição imperfeita (VA-
RIAN, 2006).
91
renças entre as firmas concorrentes, a partir da sinalização promovida pelo sistema de pre-
ços – e da disponibilidade da tecnologia como bem público.127
Nesse enfoque, monopólio
ou oligopólio representam situações estritamente antagônicas ao mercado competitivo en-
quanto instrumento alocativo ótimo (POSSAS, 2002). Já para Schumpeter, a competição
não tem relação direta com a eficiência econômica estática. Pelo contrário, a inovação con-
tínua tende a fragilizar a concorrência, ao criar vantagens dinâmicas para os inovadores de
sucesso, restando a alocação dos benefícios do progresso tecnológico como conjuntural – e
não predeterminada por uma forma particular de competição (DOSI; NELSON, 2010).
Com base na herança schumpeteriana, Nelson e Winter (1982/2005) propuse-
ram a teoria evolucionária (TE), que se tornou ponto de referência para o desenvolvimento
da escola neoschumpeteriana desde os anos 1980. Ela é dita “evolucionária” porque a eco-
nomia capitalista se desenvolve (“evolui”) ao longo do tempo, por meio de “um processo
ininterrupto de introdução e difusão de inovações em sentido amplo,128
isto é, de quaisquer
mudanças no ‘espaço econômico’ no qual operam as empresas” (POSSAS, 2002, p. 418,
grifos no original). Por sua própria natureza, processos evolucionários são o que se conven-
ciona chamar de open-ended, ou seja, não podem ser completamente predeterminados –
sem tampouco serem aleatórios – pois dependem de uma interação complexa entre múlti-
plos fatores, inclusive os de ordem institucional, que se modificam no decorrer da trajetória
temporal (LOASBY, 1999).
A adoção de uma abordagem evolucionária para a economia foi inspirada pela
biologia,129
apesar de não ter sido realizada com exclusividade pela escola neoschumpeteri-
ana. A contribuição relevante da vertente, porém, foi a formalização da rica visão apreciati-
va de Schumpeter sobre o capitalismo, como potente mecanismo de indução da mudança.
De forma geral, a teoria evolucionária pode ser vista como uma teoria so-
bre como a sociedade, ou a economia, aprende: em casos muito especiais o aprendizado leva à convergência para alguns repertórios de “comporta-
mentos ótimos”; normalmente ele acarreta a adaptação mais ou menos
127 Para uma visão geral das características dos modelos desses autores, em particular das diferenças entre as
premissas adotadas com aquelas assumidas por Schumpeter, ver Hasenclever e Ferreira (2002). 128 Schumpeter (1912/1997) apresentou uma tipologia para as inovações: (i) introdução de um novo produto;
(ii) introdução de um novo método de produção; (iii) abertura de um novo mercado; (iv) conquista de nova
fonte de insumos; (v) reorganização da indústria, visando ao aumento do poder de mercado. 129 Apesar da importância pedagógica da referência evolucionária na biologia, diversos autores têm criticado
essa prática, considerando a inadequação dessa analogia em diversas circunstâncias (WINDRUM, 2007).
92
temporária, e altamente subótima, para o que é percebido serem as restri-
ções e oportunidades ambientais vigentes, e também muitos erros sistemá-
ticos, tentativas e descobertas [DOSI; NELSON, 1994, p. 158].
Pelo menos três elementos fundamentais costumam definir uma abordagem
evolucionária: (i) o princípio da variação: indivíduos de uma população se diferenciam
com respeito a uma ou mais características – ou unidades de seleção – relevantes; (ii) o
princípio da hereditariedade: os mecanismos de reprodução do sistema garantem a geração
e a regeneração no tempo dessa microdiversidade, mesmo que de modo imperfeito; e (iii) o
princípio da seleção: os atributos de alguns indivíduos são mais bem adaptadas do que os
de outros, provocando o aumento da sua participação relativa ao longo do tempo, transfor-
mando diversidade em padrões de mudança (METCALFE; FONSECA; RAMLOGAN,
2002). Com base nesses princípios, processos evolucionários podem ser analisados por qua-
tro “blocos básicos”: (i) as unidades elementares de seleção relevantes dos agentes (o equi-
valente aos genes na biologia); (ii) os mecanismos que interligam as unidades de seleção (o
“genótipo”) com o comportamento (o “fenótipo”); (iii) as interações no mercado, que pro-
porcionam a dinâmica de seleção; e (iv) os processos que dão origem à variabilidade dos
genótipos e, consequentemente, dos “fenótipos” (DOSI; NELSON, 1994; NELSON, 1995).
No caso dos mercados, as unidades de seleção das firmas produtoras são for-
madas por estruturas complexas, frequentemente aninhadas umas dentro das outras. Capa-
cidades específicas, em um sentido amplo, como tecnologias, bases de conhecimento, mo-
delos mentais e de comportamento e cultura organizacional, são, em um nível mais elevado
de abstração, candidatos importantes para o papel dos “genes” de que as empresas dispõem
para responder às oportunidades e formas de decisão e ação. Já a “aptidão”130
(“fitness”) é
definida a partir dos resultados das interações que ocorrem no mercado, suportada pelas
características (“fenótipo”) que cada organização desenvolve por meio das capacidades de
que dispõe (“genótipo”). A aptidão, nessa perspectiva, representa a habilidade das firmas
para resolver os problemas específicos com que se deparam no processo de seleção compe-
130 “Uma entidade que está adaptada tem a propriedade da aptidão; ela está em um relacionamento viável com
as demandas do seu ambiente. Em contraste, adaptabilidade diz respeito ao potencial para se ajustar a circuns-
tâncias mutáveis de uma forma apropriada” (TOULMIN, 1981 apud METCALFE, 1998, p. 35).
93
titiva, sejam eles de origem tecnológica, organizacional ou política, com o objetivo de so-
breviver com maior lucratividade (NELSON, 1995).
As capacidades das firmas podem se materializar tanto como recursos específi-
cos, adquiridas previamente, quanto pelos procedimentos e regras de decisão – ou rotinas131
– desenvolvidas para lidar com as condições internas e externas com que se depara. Essas
capacidades, em última instância, definem o modo pelo qual a atividade produtiva trans-
forma insumos em produtos, da melhor maneira acessível à empresa (METCALFE, 1998).
As rotinas operam em diversos níveis do processo empresarial, dos quais Nelson e Winter
(1982/2005) distinguem pelo menos três: (i) os procedimentos operacionais padronizados,
que determinam como e quanto produzir em diversas circunstâncias, dadas as disponibili-
dades de capital e as restrições aplicáveis no curto prazo; (ii) os processos que decidem o
investimento, em função dos lucros e de outras variáveis; e (iii) os métodos deliberativos da
firma, que definem as estratégias válidas para a busca de inovações que permitam melhorar
a forma como ela produz e se organiza.132
Em um cenário de racionalidade limitada, os
agentes adotam procedimentos baseados em rotinas específicas do contexto em que se inse-
rem e, até certo nível, independentes dos eventos, como instrumento de defesa contra a in-
certeza no desdobramento de suas ações e nas dos outros (DOSI; NELSON, 1994).
[U]ma perspectiva evolucionária se concentra nos processos pelos quais as empresas persistentemente buscam e adotam novas tecnologias, bem
como novas formas organizacionais e novos padrões de comportamento,
como meio de ganhar vantagens sobre seus concorrentes e no processo competitivo que impele o crescimento, o declínio e o possível desapare-
cimento de várias empresas [DOSI; NELSON, 2010, p. 54].
Diversamente da vertente darwiniana na biologia,133
a TE localiza os mecanis-
mos de geração de variedade e adaptação das firmas nas rotinas de busca e experimentação
de “novas combinações” (de capacidades), pelos quais são constantemente introduzidas
131 Rotinas são conjuntos de comportamentos baseados em regras de decisão previamente deliberadas, razoa-
velmente invariantes no curto prazo, e que são formatadas pelo histórico de aprendizado dos agentes, sua base
de conhecimentos e pelo quadro institucional em que se inserem (DOSI; NELSON, 1994). Elas têm a conota-
ção de comportamento que é executado sem muita avaliação explícita, após sua formulação, uma vez que elas são assumidas como apropriadas e efetivas nas situações em que são empregadas (NELSON, 1995). 132 Os métodos deliberativos não assumem qualquer relação acurada entre os objetivos das estratégias e os
resultados da busca inovadora (NELSON; WINTER, 2010). 133 É por isso que diversos autores classificam a inspiração evolucionária na economia como lamarckiana,
apesar do desprestígio dessa corrente na biologia (NELSON, 1995).
94
mudanças, dentro e fora das fronteiras organizacionais (SCHUMPETER, 1912/1997; DO-
DGSON, 2011). Isso se dá de três maneiras: (i) inovação, com a introdução de novas capa-
cidades (produtos, processos ou formas de organização); (ii) difusão, pela propagação dife-
rencial de certas capacidades entre rivais; e (iii) imitação, pela cópia deliberada134
(e poten-
cialmente imperfeita) de capacidades desenvolvidas por outras empresas e, eventualmente,
potencializada por ativos complementares135
(TEECE, 1986). Apesar de relevantes, as ca-
pacidades iniciais das firmas tornam-se menos importantes com o passar do tempo, à medi-
da que novas capacidades se acumulam durante o aprendizado, intrinsecamente path de-
pendent136
(PETERAF, 1993; DOSI; MARENGO; FAGIOLO, 2003). Deve ser ressaltado
que esse processo não se restringe apenas à esfera técnica, mas estende-se a toda a dimen-
são organizacional (CORIAT; DOSI, 1998, 2002).
As ações das firmas são constantemente avaliadas pelo mercado, como princi-
pal dispositivo de seleção.137
“A hipótese é que, através do fluxo ciência-tecnologia-
produção, as ‘forças econômicas’, [...] em conjunto com fatores institucionais e sociais,
operam como um dispositivo de seleção” (DOSI, 1982, p. 153, grifo no original). É sobre a
aptidão individual, condicionada pelas capacidades particulares, pelos resultados da busca
tecnológica e materializada na inovação, que age o processo de seleção, determinando as
probabilidades de desenvolvimento e sobrevivência. Portanto, a eficiência do mercado, na
abordagem evolucionária, está associada com seus atributos seletivos, em vez dos alocati-
vos (NELSON; WINTER, 1982/2005; POSSAS, 2004).
Teece, Pisano e Shuen (1997) mostram que é razoável esperar que, em uma po-
pulação de firmas, algumas disporão de capacidades superiores para gerar e se beneficiar de
inovações. Ao mesmo tempo, outras firmas poderão contar com habilidades únicas para
rapidamente se adaptar às mudanças, pela imitação, ao disporem de capacidade de absorção
134 O processo de imitação não deve ser pressuposto como fácil ou barato (DOSI; NELSON, 2010). 135 Ativos complementares (tangíveis ou não) são aqueles que viabilizam ou potencializam a comercialização
com êxito da inovação, sem os quais a firma inovadora pode ser rapidamente superada por um imitador hábil
(TEECE, 1986). O controle e a distribuição dos ativos complementares entre os agentes determinam a divisão
dos benefícios da inovação, desempenhando papel essencial no processo evolucionário (TEECE, 2006). 136 A “dependência da trajetória” – ou path dependence – caracteriza os processos em que os resultados finais
dependem, em um grau considerável, da trajetória histórica através da qual são atingidos, em particular de
eventos remotos, incluindo aqueles dominados pelo acaso (ARTHUR, 1988, 1989; DAVID, 1985). 137 Em indústrias particulares, o mercado não é o dispositivo de seleção mais relevante, como nos setores de
defesa e saúde pública, nos quais a avaliação profissional ou política cumprem esse papel (NELSON, 1995).
95
e ativos complementares adequados (COHEN; LEVINTHAL, 1989; TEECE, 1986). Algu-
mas empresas, ainda, não contando com qualquer dessas capacidades diferenciadas, terão
dificuldade para sobreviver (PEREZ; SOETE, 1988; TEECE, 2006). Por isso, o conceito de
aptidão no processo de seleção é eminentemente relacional: trata-se aqui de compreender
como se posicionam as competidoras umas em relação às outras em cada mercado. Os cri-
térios de seleção – que emergem da interação entre os atores – determinam as taxas de ex-
pansão ou declínio da participação individual no mercado (DOSI; NELSON, 1994; MET-
CALFE, 1998). Maior ou menor aptidão é uma consequência, não totalmente passível de
antecipação pelas firmas, dos mecanismos de busca e aprendizado que estão em ação e do
quanto elas efetivamente avançaram. Como reforçam Dosi e Nelson (2010), nessa perspec-
tiva a eficiência é uma questão relativa. A “melhor prática” é definida pelo desempenho
das competidoras mais eficientes, em um ponto de vista ex post, e não pela máxima eficácia
teoricamente possível.
Uma das diferenças essenciais entre a TE e a OIM é o foco da análise dinâmica
da mudança, a partir da interação entre agentes com racionalidade limitada. Em um ambi-
ente no qual as firmas estão buscando continuamente a melhor forma de agir, no qual pre-
valecem choques frequentes ou contínuos, gerados interna e externamente, “se torna peri-
goso assumir que o sistema sequer chegue a um equilíbrio; logo o [ponto de] equilíbrio fixo
ou móvel, na teoria, deve ser entendido como um ‘atrator’ e não uma característica de onde
o sistema está” (NELSON, 1995, p. 49).
A característica dinâmica torna, por outro lado, mais complexa a utilização do
instrumental analítico convencional, o que costuma limitar o interesse pela abordagem evo-
lucionária, por causa da preocupação com a tratabilidade e da preferência pela elegância
matemática. No entanto, como apontam Arthur, Durlauf e Lane (1997), seis propriedades
particulares dos sistemas econômicos colocam dificuldades importantes para a abordagem
matemática tradicional: (i) a interação dispersa e paralela entre agentes heterogêneos, não
redutíveis a um “agente representativo”; (ii) a inexistência de uma entidade global que con-
trole as interações; (iii) a organização hierárquica, com estruturas de interação complexas
permeando os vários níveis; (iv) a adaptação contínua de comportamentos, estratégias e
produtos, pelo aprendizado constante; (v) a inovação perpétua, com a criação ininterrupta
96
de novos mercados, tecnologias e instituições; e (vi) a dinâmica “fora de equilíbrio”, impul-
sionada pela eterna e endógena introdução de inovações, mantendo a economia em movi-
mento constante e distante de pontos de equilíbrio globais. Esse tipo de sistema, adaptativo
e não linear, caracteriza-se pelo fato de não poder ser modelado tão somente por meio de
estímulos e respostas (ibid.).
Como modo de superar o problema da tratabilidade, parte significativa da pes-
quisa na TE emprega técnicas de simulação computacional para a modelagem de sistemas
dinâmicos (DOSI; NELSON, 1994; VALENTE, 2002; YOON; LEE, 2009). Essa mudança
no paradigma metodológico trouxe consequências importantes para a análise, como será
discutido no Capítulo 3.
2.3.1. Teoria evolucionária e organização da indústria
O lócus clássico da análise evolucionária é o setor industrial, um sistema com-
plexo no qual os atores estão relacionados e interagem de diversas maneiras e não apenas
no mercado (MALERBA, 2006). Segundo a TE, o desenvolvimento da estrutura competiti-
va se dá pela interação entre geração e seleção de diversidade em um meio de firmas rivais,
impulsionada pela inovação contínua.138
É o processo de busca inovadora, nas suas múlti-
plas formas, que introduz novas variedades de comportamento dentro da organização indus-
trial existente (METCALFE, 1998).
“A estrutura de mercado deve ser vista como fator endógeno numa análise de
concorrência schumpeteriana, em que as conexões entre a inovação e a estrutura de merca-
do têm mão dupla” (NELSON; WINTER, 1982/2005, p. 407). Nessa visão, a estrutura do
mercado surge enquanto propriedade emergente das taxas diferenciais de crescimento das
firmas, pois o impulso à competição capitalista não se dá, primordialmente, pelo ajuste de
preços, mas sim pela inovação diferencial (METCALFE, 1998). Nos modelos evolucioná-
rios, as diferenças nas capacidades de inovar entre os agentes representam forças conduzin-
do, contraditoriamente, para estruturas oligopolizadas e para a manutenção da concorrência,
138 O processo inovador pode ser caracterizado em três etapas: (i) invenção, quando se criam coisas que não
existiam anteriormente; (ii) inovação, a partir da aplicação da invenção em um novo processo, produto ou
serviço; e (iii) difusão/imitação, no momento em que a inovação, com modificações ou não, é aplicada por
outros agentes (HASENCLEVER; FERREIRA, 2002).
97
conforme as condições particulares da trajetória histórica. A organização da indústria de-
pende, portanto, da configuração setorial específica dessas forças (DOSI, 1982).
“A relação entre inovação e mudança industrial foi sempre central no trabalho
de Schumpeter, sob várias formas ou especificações” (MALERBA, 2006, p. 4). O ponto
teórico fundamental, apontado por Schumpeter, está na dinâmica gerada pela diferenciação
do comportamento das firmas competindo no mercado. Em particular, de empresas conce-
bidas dentro do que viria a ser conhecido como tradição “behaviorista” de Simon, Cyert e
March (CYERT; MARCH, 1963/1992; TIGRE, 1998). Nessa perspectiva, as fronteiras
analíticas do mercado, da indústria ou, ainda, do setor não são dadas pelas características
das companhias em si, como na organização industrial, mas por mecanismos de seleção
comuns imersos em um ambiente institucional compartilhado (POSSAS, 2002).
A perspectiva de vantagens diferenciais adquiridas pelas [firmas] líderes
em sucesso tecnológico e [participação de] mercado, em minha opinião, provavelmente influenciam e estimulam o processo de inovação muito
mais do que a estrutura de mercado ex ante como tal. O processo de ino-
vação em si é, com certeza, compelido para afetar a estrutura industrial e
formatar suas transformações [DOSI, 1982, p. 158].
Diferentemente do paradigma da OIM, as premissas da TE, em particular a de
que os agentes dispõem de racionalidade limitada e capacidades139
distintas, assumem a
presença de mecanismos causais que induzem ao comportamento heterogêneo entre as fir-
mas (METCALFE, 1998). Ao contrário, “no contexto da racionalidade substantiva [da
OIM], no qual a melhor tecnologia pode ser facilmente determinada e adotada, a diversida-
de é insustentável” (JONARD, N.; YILDIZOĞLU, 1998, p. 36).
No ambiente da competição schumpeteriana, a firma, entrante ou não, consegue
apenas de modo imperfeito antecipar o futuro sobre o resultado das inovações que ela pró-
pria, e os seus concorrentes, estão desenvolvendo. Logo, escolhas entre inovar ou imitar e o
momento adequado de fazê-lo não podem ser avaliadas a priori com precisão. Assim, os
custos de inovar, estimados ex ante, transformam-se em um “alvo móvel”; mesmo “o imi-
tador nem sempre entra na ‘mesma’ tecnologia que os inovadores” (PEREZ; SOETE, 1988,
p. 472), devido à natureza fundamentalmente incerta desse processo (DEQUECH, 2000).
139 O sentido do temo “capacidade” aqui, e na TE em geral, identifica-se com a abordagem das capacidades
dinâmicas proposta por Teece e Pisano (1994).
98
Quando inovações radicais surgem [em uma firma], seu impacto definiti-
vo pode não ser compreendido por algum tempo, após o qual pode ser tar-
de demais para as [demais] firmas com tecnologias e capacidades ultra-passadas competirem [...] Por outro lado, acreditar cedo demais que uma
determinada inovação irá se tornar dominante pode comprometer a sobre-
vivência da firma no longo prazo ao apostar em uma tecnologia ou mer-
cado que termina não se tornando dominante [BARNEY, 1986, p. 795].
Existe sempre a possibilidade imponderável de a inovação proposta por uma
entrante alterar a indústria, por vezes de maneira profunda, em benefício ou não dessa fir-
ma. Nesse caso, não apenas as decisões em si importam – o timing é também fator decisivo
para o sucesso da entrada ou da imitação (MALERBA; ORSENIGO, 1997). Considerações
sobre o acaso, portanto, não podem ser desconsideradas em um ambiente de competição
schumpeteriana, trazendo a questão da incerteza para o centro de discussões sobre as condi-
ções de entrada efetiva e, de resto, da própria organização setorial. As firmas que terão
maior êxito, no longo prazo, são frequentemente definidas por pequenos eventos aleatórios
na fase inicial do mercado. A prevalência de “retornos crescentes dinâmicos”140
exacerba
essa situação de path dependence: as tecnologias vitoriosas são imprevisíveis ex ante, nem
existem garantias de que a “melhor” alternativa venha a ser efetivamente selecionada (DO-
SI 1982; DAVID, 1985). A hipótese implícita é de que a dúvida somente é resolvida ex
post, por meio da competição (NELSON, 1995). Destarte, a presença – ou não – de meca-
nismos para redução da incerteza associada ao processo competitivo é outro elemento-
chave da abordagem evolucionária.
2.3.2. Regimes de competição schumpeteriana
A heterogeneidade persistente, resultante das diferenças entre as capacidades
das empresas competidoras e da ação do processo de seleção, é amplamente constatada pela
pesquisa empírica: “[em uma indústria] as firmas diferem praticamente ao longo de qual-
quer dimensão observável, como tamanho, idade, produtividade, salários, criação e destrui-
ção de emprego, padrões de investimento e atividades inovadoras” (DOSI et al., 1997, p. 6;
140 Os retornos crescentes dinâmicos configuram uma situação especial em que quanto mais uma dada tecno-logia é utilizada, melhor ela se posiciona frente às suas potenciais competidoras, em função do caráter de
cumulatividade do processo de busca, a presença de externalidades de rede ou a característica de complemen-
taridade com tecnologias existentes (DOSI; NELSON, 1994). Assim, spillovers de aprendizado beneficiam as
firmas que adotam essa tecnologia, conduzindo, em casos extremos, ao fenômeno de lock-in (ARTHUR,
1989).
99
JENSEN; MCGUCKIN, 1997). A preservação da heterogeneidade garante uma vantagem
dinâmica sustentável equivalente à de barreiras ex post à competição para as contendoras
com as capacidades mais adequadas (PETERAF, 1993).
A despeito da heterogeneidade interfirma, os estudos empíricos mostram a exis-
tência de certas regularidades entre setores industriais. Isso permite a sua organização em
algumas dimensões comuns, em particular a dinâmica tecnológica (DOSI; NELSON,
2010). Segundo Pavitt (1984), a tipologia mais simples para organizar os perfis setoriais foi
proposta pelo próprio Schumpeter – de forma não explícita. Nessa tipologia, pelo menos
dois regimes tecnológicos podem ser identificados: (i) Schumpeter Mark I (SCHUMPE-
TER, 1912/1997) ou empreendedor, característico de setores com barreiras tecnológicas
reduzidas, participação relevante das firmas novas nas atividades inovadoras e erosão con-
tínua das vantagens competitivas das incumbentes (creative destruction); e (ii) Schumpeter
Mark II (SCHUMPETER, 1942/1976) ou rotinizado, típico de indústrias marcadas por bar-
reiras significativas para os entrantes, predomínio das incumbentes nas atividades inovado-
ras e dominância de poucas empresas, que são continuamente inovadoras devido à acumu-
lação de capacidades tecnológicas ao longo do tempo (creative accumulation).
O regime, em cada indústria, é uma função das oportunidades tecnológicas, da
apropriabilidade das inovações (incluindo a necessidade de ativos complementares), da
cumulatividade do avanço técnico e das propriedades da base de conhecimento específica
(HASENCLEVER; TIGRE, 2002). Contudo, os regimes não são uma consequência auto-
mática do estágio de desenvolvimento do setor, apesar de certa prevalência do regime Mark
I em setores nascentes e do Mark II nos maduros (DOSI, 1982). O trabalho empírico de
vários autores mostrou que o regime tecnológico, é mais relevante do que outros fatores –
como tamanho das firmas ou o perfil da demanda – para a compreensão da dinâmica da
inovação e da estrutura de mercado (BRESCHI; MALERBA; ORSENIGO, 2000).
De acordo com os regimes tecnológicos, a questão da entrada efetiva pode ser
redefinida. O ponto central deixa de ser a sobrevivência da firma entrante, mas, sobretudo,
se ela se torna participante efetivo do processo inovador da indústria, pois essa é a forma de
a entrante causar efeitos relevantes na dinâmica estrutural. Nesse cenário, o conceito de
barreiras à entrada deve ser revisto, para considerar, primordialmente: (i) a presença de
100
baixas oportunidades tecnológicas, restringindo as opções para entrada inovadora; (ii) a
elevada cumulatividade do avanço técnico, proporcionando vantagem importante às in-
cumbentes; e (iii) uma base de conhecimento de tipo genérico (versus uma de tipo específi-
co), possibilitando o aproveitamento de capacidades acumuladas pelas incumbentes em
muitos mercados (BRESCHI; MALERBA; ORSENIGO, 2000).
Oportunidades tecnológicas refletem a probabilidade de inovar para uma dada quantidade de dinheiro investida em pesquisa. [...] Apropriabilidade
das inovações sumariza as possibilidades de proteger inovações da imita-
ção e de capturar os lucros provenientes das atividades inovadoras. [...] Cumulatividade dos avanços técnicos é relacionado ao fato de que o co-
nhecimento e as atividades inovadoras de hoje formam a base e os blocos
funcionais das inovações de amanhã. [...] As propriedades da base de co-
nhecimentos dizem respeito à natureza do conhecimento que suporta as atividades inovadoras [ibid., p. 391-392, grifos no original].
Além do regime característico, o ciclo de vida do paradigma tecnológico141
é
outra maneira de avaliar as condições estruturais do setor industrial. Klepper (1996) propôs
uma tipologia baseada nas três etapas principais que compõem esse ciclo: (i) a emergência
do paradigma tecnológico após o surgimento de uma inovação radical,142
com taxa de en-
trada elevada e a rápida reformatação das redes interorganizacionais; (ii) a estabilização do
paradigma pelo estabelecimento de um projeto dominante e rápido crescimento do merca-
do, com entrada moderada e saída relevante e a restrição da busca tecnológica e da dinâmi-
ca da rede setorial; e (iii) a maturidade do paradigma, com a consolidação do mercado e o
aumento da disputa por suas parcelas e a concentração, com a redução de entrada e saída e,
potencialmente, a maior abertura para novas inovações radicais (PEREZ; SOETE, 1988;
UTTERBACK, 1994/1996; ROSENKOPF; TUSHMAN, 1998).
Deve ser ressaltada, ainda, a distinção lógica entre a busca tecnológica, realiza-
do pelas firmas, e o seu resultado durante o processo histórico setorial, representado pelo
desenvolvimento do paradigma tecnológico (DOSI, 1982). A origem das forças que condu-
zem à concentração da estrutura industrial costuma ser distinta nas etapas do ciclo de vida
141 O paradigma tecnológico representa o modelo e o padrão de solução de um conjunto determinado de pro-
blemas tecnológicos, com base em princípios provenientes das ciências naturais e de tecnologias materiais selecionadas (DOSI, 1982), caracterizando um quadro cognitivo compartilhado coletivamente no setor (DO-
SI; ORSENIGO; LABINI, 2005). 142 É usual classificar as inovações em “radicais”, quando associadas à mudança no paradigma tecnológico, ou
“incrementais”, nas quais o progresso se dá ao longo das trajetórias tecnológicas já estabelecidas pelo para-
digma vigente (DOSI; NELSON, 2010).
101
e, dentro delas, ao longo das trajetórias tecnológicas.143
Na fase emergente, as posições de
liderança oligopolística estão mais frequentemente associadas à exploração das economias
de escala dinâmicas e às assimetrias temporárias de capacidades. Já no estágio da maturida-
de, a estrutura que conduz ao oligopólio baseia-se tanto no progresso técnico continuado
(“incremental”) quanto nas barreiras estáticas apontadas pela OIC (ibid.).
Vários setores importantes, no entanto, não se conformam ao modelo de ciclo
de vida, em virtude da especificidade e do caráter tácito144
da base de conhecimento, sem,
contudo, deixarem de dispor de processos bem definidos de busca e aprendizado (PAVITT,
1984; CORIAT; DOSI, 2002). As particularidades, pelo contrário, usualmente engendram
descontinuidades na base de conhecimento e na trajetória tecnológica, com a consequente
desestabilização das estruturas industriais “esperadas” pelo esquema de ciclo de vida. Nes-
sas circunstâncias, as firmas estabelecidas podem ter dificuldade para adquirir as novas
capacidades necessárias para sobreviver no novo regime, mesmo após, aparentemente, al-
cançarem o estágio da maturidade (DOSI; NELSON, 1994).
2.3.3. Conhecimento, aprendizado e redes sociais
A compreensão sobre como o conhecimento novo é gerado e de que maneira
seus impactos operam através da economia é um tema basilar da literatura neoschumpeteri-
ana (DOSI; NELSON, 2010). Os processos de acumulação e disseminação do conhecimen-
to, nessa perspectiva, são centrais para a dinâmica da organização setorial, como elementos
fundamentais do esforço inovador, em particular por causa de sua propriedade intrínseca de
retornos crescentes,145
mas também a difusão e a imitação das inovações. Por outro lado,
eles somente se realizam plenamente em sua dimensão coletiva: spillovers, externalidades
de rede, evolução endógena das preferências, comportamento de “manada” etc. (ibid.).
143 Segundo Dosi (1984, p. 17), a trajetória tecnológica é o “movimento de trade-offs multidimensionais entre
variáveis tecnológicas que o paradigma [tecnológico] define como relevante”. Ela representa o padrão “nor-
mal” das atividades de busca e aprendizado, a partir de um determinado paradigma tecnológico (DOSI, 1982). 144 Por “tácito”, subentende-se aqui a situação em que mesmo um observador sofisticado encontraria dificul-
dade para definir explicitamente a sequência de procedimentos pela qual o conhecimento se materializa, resul-tando que esse conhecimento não pode ser articulado por meio de uma codificação totalmente explícita. 145 Essa propriedade deriva de algumas características específicas do conhecimento: (i) o uso não rival, ou
seja, a adoção por um agente não impede a utilização pelos demais agentes; (ii) a não divisibilidade, a utilida-
de do conhecimento não é igual à soma das utilidades de suas parcelas; e (iii) o elevado custo para sua obten-
ção em relação ao baixo custo para sua reprodução (DOSI; ORSENIGO; LABINI, 2005).
102
Nesse sentido, a utilização do conceito de rede, para representar a dimensão social do co-
nhecimento, tem se tornado cada vez mais frequente (SAVIOTTI, 2009).
Nesse caso, a ênfase recai na caracterização das estruturas em rede como
um objeto específico de investigação. Estas estruturas estariam associadas a determinados elementos básicos constituintes, bem como a mecanismos
de operação particulares, responsáveis pela geração de estímulos endóge-
nos indutores de processos adaptativos face à evolução do ambiente [BRITTO, 2002, p. 350, grifo no original].
Segundo Britto (2002), duas abordagens distintas costumam utilizar o conceito
de rede para tratar a questão da interação social dos atores dentro de mercados e setores
industriais. Na Seção 2.2.3 foi tratada a perspectiva usual da organização industrial, que
utiliza as redes para o estudo de situações em que as premissas habituais da teoria neoclás-
sica não são suficientes para esclarecer o impacto da interação social assimétrica entre os
agentes que competem. A abordagem evolucionária – e a institucional, como se verá a se-
guir – emprega a concepção de rede não apenas como instrumento de avaliação da compe-
tição, mas como meio para compreender a disposição do sistema de relações entre os atores
e destes com seu ambiente (POTTS, 2000). No limite, pode-se representar a organização da
economia como um conjunto de redes articuladas, que influenciam e são modificadas pelos
processos econômicos (KIRMAN, 1997).
Em um enfoque evolucionário, importa compreender não apenas os efeitos pro-
duzidos pelas redes, mas buscar trazer para a análise os processos que dão origem e as
transformam, bem como a natureza das suas conexões constitutivas, em uma causação ex-
plicitamente endógena (PYKA, 2002). A configuração de uma rede completamente conec-
tada, ou mesmo com vínculos incompletos, mas estáticos, é logicamente incompatível com
a perspectiva dinâmica da organização econômica.
Se supusermos que as conexões [da rede] são completas então excluire-
mos [seu] potencial para compreender melhor a estrutura da economia. De
uma perspectiva schumpeteriana, no entanto, o problema é mais grave do que simplesmente deturpar a estrutura, porque se presumirmos que as co-
nexões possam ser completas, então, logicamente, não há nenhum escopo
adicional para novas conexões e, portanto, não há nenhum escopo para a estrutura da economia para mudar “a partir de dentro” [EARL; WAKE-
LEY, 2012, p. 177].
Resta óbvio, consequentemente, que a consideração somente dos impactos alo-
cativos das redes, como faz a OIM, frequentemente não dará conta de esclarecer esses pro-
103
cessos. Para efeito de exposição, esta seção explora inicialmente a dimensão das redes no
aprendizado e na inovação. Na Seção 2.4 o escopo será ampliado, para tratar a inter-relação
entre redes sociais e instituições de forma mais geral.
A relação estreita entre redes relacionais e inovação tem origem na característ i-
ca intrinsecamente local do conhecimento (PYKA, 2002). Conhecimento raramente é fruto
isolado de indivíduos, envolvendo mais frequentemente elementos de interação social – no
interior de organizações particulares ou entre conjuntos específicos delas (DOSI; NELSON,
2010). Conforme Saviotti (2003), a consideração dos processos de criação e utilização de
conhecimento é crucial a análise qualitativa da mudança, proposta pela TE. São esses pro-
cessos que dão gênese aos novos artefatos e entidades, que materializam a inovação e são a
base do desenvolvimento econômico (DOSI; MARENGO; FAGIOLO, 2003).
É uma característica das sociedades modernas que as pessoas desejem que
o futuro seja de certa forma diferente do passado: nós, portanto, deman-damos conhecimento não só para entender e nos adaptar ao que existe, e
para as alterações no que existe, mas para criar mudanças que sejam acei-
táveis para os outros [LOASBY, 1999, p. 6].
Além disso, é necessário reconhecer que o conhecimento não se desenvolve li-
near e generalizadamente, como quando, por exemplo, existem demandas do mercado para
tanto. Para tornar isso mais claro, é indispensável, primeiro, evidenciar a diferença entre a
informação146
“pura” e o conhecimento. Este último é inerentemente relacional: diz respeito
à capacidade de correlacionar características observáveis do ambiente exterior, a realidade
que independe do observador e as variáveis que representam e “medem” diferentes aspectos
dela.147
A presença dessas correlações torna o conhecimento cumulativo: ele permite redu-
zir, gradualmente, a quantidade de informação necessária para compreender – e modificar –
o ambiente externo (PYKA, 2002).
A correlação entre as características observáveis da realidade tem natureza lo-
cal: não é qualquer propriedade apreendida que simplifica o aprendizado de qualquer outra.
O conhecimento sobre determinada questão irá reduzir os custos de instrução para temas de
146 Adota-se aqui a perspectiva clássica de Shannon (1948): a informação não é portadora de significado e
requer do receptor, portanto, a capacidade de dar-lhe sentido. Essa capacidade “se refere a, ou está correlacio-
nada de acordo com, algum sistema com certas entidades físicas ou conceituais” (ibid., p. 379). 147 Evidentemente, essas variáveis são representações mentais do observador, obviamente imperfeitas, mas
que de algum modo tentam ser isomórficas com a realidade exterior a ele (LOASBY, 1999).
104
alguma forma “próximos” do conhecimento disponível. Assim, admitindo-se que conheci-
mentos específicos possam ser representados como pontos em um espaço multidimensio-
nal, a probabilidade de um dado conhecimento existente na aquisição de um novo poderia
ser representada como em Saviotti (2003):
𝑃𝑡(𝐾𝑛𝑒𝑤|𝐾𝑜𝑙𝑑) ∝1
𝐷(𝐾𝑛𝑒𝑤 , 𝐾𝑜𝑙𝑑), 𝐷:ℝ𝑛 × ℝ𝑛 → ℝ (12)
𝐷(⋅) representa alguma medida conveniente da distância entre dois pontos no
espaço representativo do conhecimento, 𝐾𝑜𝑙𝑑 retrata o que já dominado pelo agente, 𝐾𝑛𝑒𝑤 é
um novo conhecimento que pode ser adquirido e 𝑃𝑡(⋅) expressa a probabilidade de ele ser
efetivamente adquirido no período 𝑡. O modelo procura deixar claro que o processo de se-
leção dos conhecimentos necessários para resolver qualquer problema técnico – uma tecno-
logia – parte, obrigatoriamente, do conjunto preexistente de conhecimentos – provavelmen-
te locais – dos atores envolvidos, e não apenas do estímulo representado pelo problema
econômico em si.
Uma abordagem local do conhecimento traz, ainda, a questão da sua organiza-
ção, uma vez que isso influencia diretamente a forma com que ele se desenvolve, se difun-
de e estimula a heterogeneidade entre os atores que o detêm (JONARD; YILDIZOĞLU,
1998; LOASBY, 1999). Nesse sentido, parece especialmente adequado representar essa
organização por meio de redes (SAVIOTTI, 2009). Elas permitem estruturar não somente
as relações entre conhecimentos específicos de um indivíduo, mas também articular a
“composição” entre aqueles que controlam conjuntos complementares de conhecimento,
uma representação em múltiplos níveis da estrutura social envolvida no processo inovador,
imitador ou de difusão (MALERBA, 2002; DODGSON, 2011). Ou seja, entre o conheci-
mento novo que necessita ser adquirido, está aquele sobre com quem e como eles devem
interagir (KIRMAN, 1997).
Além disso, descrevem Kline e Rosenberg (1986), a criação do conhecimento
novo envolve mecanismos de feedback (realimentação) entre os diferentes elementos do
aprendizado. Isso envolve, frequentemente, subprocessos que acontecem em paralelo e com
loops (laços) interativos. Por conseguinte, o aprendizado não é, usualmente, redutível a uma
sequência linear – ou mesmo completamente previsível – de etapas. É isso que lhe confere
105
a característica de path dependence normalmente verificada, por exemplo, no desenvolvi-
mento tecnológico ou na difusão das inovações pelos seus usuários.
Nesse contexto, as firmas – bem como os indivíduos dentro e fora delas – espe-
cializam-se em uma complexa divisão social do trabalho, sejam como inovadores, imitado-
res ou difusores. Isso se dá, também, como maneira de lidar com a crescente complexidade
dos conhecimentos envolvidos e, assim, mitigar a inevitável incerteza associada a esse tipo
de processo (ROSENKOPF; TUSHMAN, 1998; MALERBA, 2006; KÖNIG; BATTIS-
TON; SCHWEITZER, 2009).
Aqui não é suficiente apenas saber o que os outros estão fazendo, mas as
firmas também precisam saber como as tecnologias respectivas funcio-
nam e trabalham em conjunto. E para oferecer suporte a esse aprendizado de know-how interfirma, frequentemente cumulativo, tácito e local no
longo prazo, um ambiente colaborativo estável e de longa duração é ne-
cessário [PYKA, 2002, p. 158, grifos no original].
A criação de redes de empresas para a colaboração no processo inovador – e
não apenas em P&D – tem inequívoco impacto nas condições de competitividade de cada
uma. Isso acontece pelo incremento do potencial de inovação conjunto, usualmente mais
que proporcional, que se torna essencial para a sobrevivência em setores dinâmicos (BRIT-
TO, 2002; PYKA; GILBERT; AHRWEILER, 2009). Afinal, como lembram Dosi e Nelson
(2010), são a acumulação e a difusão do conhecimento que determinam a distribuição das
habilidades essenciais para a competição e, dessa forma, condicionam a estrutura da própria
indústria.
Ressalte-se que a inovação não se dá apenas com o compartilhamento do co-
nhecimento existente, mas durante o próprio aprendizado coletivo e do desenvolvimento
das novas capacidades sociais que a rede de colaboração requer (SAVIOTTI, 2009). “[O]s
indivíduos que participam da economia aprendem e o seu comportamento evolui, mas isso
também, por sua vez, leva a estrutura de rede, dentro da qual eles operam, a evoluir ao lon-
go do tempo” (KIRMAN, 1997, p. 351). O aprendizado assume uma característica – em sua
dimensão – eminentemente evolucionária, que de maneira alguma se restringe ao processo
inovador (DOSI; MARENGO, 2007).
Vale notar que não são somente as firmas competidoras no mercado que se or-
ganizam na busca do conhecimento. Segundo Earl e Potts (2004), o aprendizado – direta-
106
mente – é apenas um dos mecanismos disponíveis para os usuários fazerem frente à mu-
dança contínua dos produtos. Com a inovação tecnológica rápida e profunda, pelo lado da
oferta, os consumidores igualmente se valem de redes sociais, como instrumento para for-
mar suas preferências a respeito de bens e serviços com os quais não estejam completamen-
te familiarizados (EARL; WAKELEY, 2010). A especialização, representada pela divisão
do conhecimento e sua organização nas redes sociais ou mercados secundários de informa-
ção, oferece alternativas cada vez mais importantes ao aprendizado isolado. Daí a impor-
tância dos consumidores – e do marketing – nas redes que fomentam a demanda pelo co-
nhecimento novo e pela inovação (DODGSON, 2011).
2.3.4. Comparação com a organização industrial
Muitas das contribuições da TE não são contraditórias com as conclusões da
organização industrial moderna (OIM) ou do paradigma estrutura-conduta-desempenho
(OIC). Elas não contestam, por exemplo, a existência de barreiras à entrada ou a relevância
dos incentivos da estrutura setorial aos atores (NELSON; WINTER, 1982/2005). Pelo con-
trário, a TE indica barreiras e incentivos adicionais, não antevistos pela OIC (PEREZ; SO-
ETE, 1988). Mas, diversamente da OIC, a TE não assume a estabilidade ou a previsibilida-
de plena do processo de mudança estrutural. Portanto, não depende de premissas pouco
realistas quanto a habilidades inatas ou a choques externos para explicar a heterogeneidade
dos agentes ou a dinâmica estrutural (DOSI et al., 1997). Por outro lado, a divergência es-
sencial da TE com a OIM está na incapacidade da maioria dos modelos desta em tratar as
respostas diferenciadas das firmas aos mesmos sinais do mercado e os impactos da hetero-
geneidade resultante na organização da indústria (DOSI; MARENGO, 2007).
A TE tampouco rompe com todas as premissas da OIC e da OIM (em conjunto,
OI). A hipótese de que as firmas são racionais e buscam o lucro é preservada, apesar de a
forma pelo qual o fazem, bem como as restrições que enfrentam, seja uma diferença impor-
tante. Em vez da simples opção entre fatores e tecnologias de produção, com possibilidade
de ampla antevisão das consequências das decisões – suas e dos outros –, os modelos evo-
lucionários baseiam-se na perspectiva do acesso limitado à tecnologia – e à inovação em
geral – associada à imponderabilidade sobre muitos dos impactos das escolhas das empre-
107
sas. Nesses modelos, o resultado das ações colocadas em curso, pela firma e seus concor-
rentes, pode ser apenas parcialmente antecipado.
Logo, na abordagem da TE, não é possível o estabelecimento de escolhas defi-
nitivas ou de estratégias de “resposta ótima”, na acepção usual desses termos. Isso porque
os agentes precisam se manter preparados para responder a situações inesperadas e que não
podem ser antecipadas, a menos que sejam assumidas premissas muito restritivas, no limite
da omnisciência.148
Por isso, nesse cenário, torna-se impossível, por princípio, a tomada ex
ante de decisões que maximizem os lucros, no sentido forte dado pela OI para a expressão
“maximizar”.
Alguns modelos teóricos ortodoxos parecem, superficialmente, estar fora do escopo [da crítica evolucionária] – por exemplo, modelos de busca
ótima e outros modelos de decisão sequencial que parecem não envolver
uma otimização definitiva. Mas uma análise mais detalhada revela que aquilo que é modelado constitui de fato a escolha definitiva de uma estra-
tégia de resposta ótima à situação que se desenrola; na verdade, o fato de
essa redução a uma escolha definitiva ser possível constitui a essência do poder analítico da noção de uma estratégia. Isso significa que os atores de
modelos ortodoxos sofisticados, assim como os dos mais simples, são
concebidos como incapazes de responder a informações verdadeiramente
inesperadas [NELSON; WINTER, 1982/2005, p. 56, grifo no original].
A modificação no foco proposta pela TE, ao alinhar o objeto da teoria no pro-
cesso de mudança endógena e não apenas em suas consequências, é crucial para a compre-
ensão de sua diferenciação em relação à OI (POSSAS, 2002). Mecanismos evolucionários,
pela sua própria definição, não podem ser caracterizados de forma completamente determi-
nística e tampouco, totalmente aleatória. A incerteza é parte integral e essencial, assim co-
mo a ação racional, ainda que limitada, dos agentes (NELSON, 1995).
A importância dos estímulos da competição interfirma é compartilhada pela TE
com a OIM. As forças competitivas restringem, efetivamente, as decisões empresariais e
conduzem os desdobramentos da atuação nos mercados, também no que diz respeito à sua
estrutura e à sua dinâmica. É nesse contexto que se dá a interação e se determina dinami-
camente a aptidão diferenciada de cada competidor – elemento central na abordagem evo-
lucionária (METCALFE, 1998). É por isso que, segundo a TE, a noção de equilíbrio não
148 A abordagem neoclássica permite tratar certas formas de incerteza ou erros inerentes à informação limitada
disponível para os agentes, mas não admite erros sistemáticos originados por ignorância, incapacidade de
processar as informações disponíveis ou mesmo pura teimosia ou inércia (DOSI; NELSON, 1994).
108
pode ser adotada como premissa lógica inicial, pelo risco de o conjunto de possibilidades
aberto para as firmas ser reduzido artificialmente a priori. A concorrência, mesmo quando
conduz a algum equilíbrio ex post, constantemente abre oportunidades para os atores, que
irão explorá-las ou não, conforme as capacidades de que disponham.
Na TE, portanto, o conceito de aptidão para o processo seletivo é intrinseca-
mente ex post, consequência não apenas das capacidades estáticas das firmas, mas também
da interação nos mercados de produtos e fatores. Por isso, frequentemente importa mais o
transcurso da competição do que a eventual situação de equilíbrio entre as empresas sobre-
viventes no longo prazo.149
A firma no mercado está, invariavelmente, focada na sua sobrevivência e re-
produção, por meio do lucro. Nesse ambiente, os seus competidores buscam incessante-
mente novas maneiras de superá-la, conjugando processos – imperfeitos e repletos de erros
– de aprendizado e de busca inovadora, sob a ação dos mecanismos de seleção impostos
pelo mercado (DOSI; NELSON, 1994, 2010). Diferentemente do pressuposto usual da OI,
a leitura evolucionária considera que “[a]s firmas não são normalmente capazes de se adap-
tar rapidamente à produção de qualquer tipo de produto por qualquer método de produção,
em resposta a alterações nos incentivos de mercado” (EARL; WAKELEY, 2010, p.176),
pois elas dependem de aprendizado, complexo e relativamente lento, para tentar ajustar
suas rotinas e suas capacidades à mudança induzida pela competição. Definitivamente, não
se trata aqui apenas de realizar modificação na combinação ótima de fatores e produto, den-
tro de funções de produção (tecnologias) conhecidas e bem comportadas, a partir da sinali-
zação fornecida pelos preços.
Assim, em termos práticos, a questão central de divergência entre a OI e a TE é
sintetizada pela própria hipótese schumpeteriana. Com base em uma perspectiva dinâmica,
a concentração de mercado produzida pelas inovações de sucesso não deveria ser conside-
rada intrinsecamente anticompetitiva, como indicaria a avaliação alocativa estática. Pelo
contrário, nesse caso, a concentração, possivelmente temporária, pode simplesmente repre-
149 “[A] negligência teórica em relação ao processo competitivo constitui uma espécie de incompletude lógica
[...] O modelo de comportamento otimizador de vários atores individuais só funciona realmente em situações
de equilíbrio. O comportamento no desequilíbrio não é totalmente especificado (a não ser por meio de pressu-
postos ad hoc)” (NELSON; WINTER, 1982/2005, p. 58, grifo no original).
109
sentar o resultado esperado do processo competitivo, como mecanismo essencial do pro-
gresso técnico.
Por isso mesmo, concorrência não é o contrário de monopólio. Se bem-
sucedida, a busca de novas oportunidades, ou inovações em sentido am-plo, deve gerar monopólios, em maior ou menor grau e duração. Se eles
serão ou não eliminados eventualmente, por meio de novos concorrentes
e/ou imitadores, é algo que não pode ser preestabelecido [POSSAS, 2002, p. 419, grifos no original].
2.3.5. Limitações da teoria evolucionária
O espaço de aplicação da TE, ao menos na sua formulação original, concentra-
se nos setores econômicos em que a inovação, em sentido amplo, é relevante e nos quais a
competição está submetida ao mercado, como mecanismo de seleção predominante. Quan-
do essas condições não se verificam, “a intensidade das forças associadas ao processo com-
petitivo, atuantes na seleção das inovações em geral, pode ser muito débil, excessiva ou
simplesmente mal direcionada do ponto de vista do progresso e, portanto, do bem-estar”
(POSSAS, 2004, p. 92). Em segmentos da economia como a saúde, a defesa ou, de modo
global, as indústrias cuja entrada é restrita por regulação, o foco apenas no mercado, como
mecanismo de seleção, é problemático, como indicado por diversos autores evolucionários
(NELSON, 1995; DOSI; NELSON, 2010). Esses casos requerem outras mediações para a
determinação das firmas mais “aptas”, dadas as especificidades dos dispositivos de seleção
em curso, assim como de qual é a organização setorial esperada.
Se o mercado não atua como mecanismo de seleção – ou sua ação não é sufici-
entemente intensa150
–, torna-se um pré-requisito para o diagnóstico da estrutura industrial a
definição ampliada das fronteiras da “indústria”, incluindo a infraestrutura institucional que
a sustenta (NELSON, 1995; DOSI; ORSENIGO; LABINI, 2005). Isso porque, apesar de o
elemento central da análise evolucionária ser a firma, o arranjo institucional – no nível seto-
rial ou global – afeta a dinâmica da competição de múltiplos modos, seja por definir, ex
ante, os próprios instrumentos da disputa competitiva, seja por estabelecer externalidades e
políticas (DOSI; NELSON, 2010). A pressão do processo seletivo vem do ambiente social
150 “O processo de seleção, em última análise, incide sobre as firmas, de forma que a sobrevivência e o maior
sucesso econômico de firmas mais competitivas e/ou inovadoras estará indicando maior eficiência seletiva do
mercado; enquanto, reciprocamente, a sobrevivência indefinida de firmas pouco competitivas e/ou inovadoras
estará indicando baixa seletividade” (POSSAS, 2004, p. 93).
110
em que as empresas se inserem; ambientes diferentes determinam distintas trajetórias evo-
lucionárias (HOLLAND, 1988).
A eficiência do mercado como dispositivo de seleção depende, segundo Possas
(2004), da existência de, pelo menos, dois pré-requisitos básicos: (i) condições institucio-
nais que viabilizem um nível adequado de pressão competitiva sobre as firmas, eventual-
mente com base em políticas governamentais (comercial, regulatória e tecnológica); e (ii)
capacidade competitiva adequada das firmas no mercado, tanto pela qualidade de suas es-
tratégias e recursos como pelas suas capacidades inovadoras. São, portanto, características
institucionais ou específicas de cada indústria que vão estabelecer – ou não – um processo
seletivo eficiente por meio do mercado.
A importância dos fatores institucionais não se limita ao estabelecimento do
mecanismo de seleção. Outras instituições são essenciais para o desenvolvimento econômi-
co – e elas igualmente estão sujeitas a processos do tipo evolucionário (METCALFE;
FONSECA; RAMLOGAN, 2002). Por exemplo, a inovação nos setores tecnologicamente
mais dinâmicos dependeu, historicamente, da interação entre diversos agentes organizados
em redes complexas, evidência marcante do papel da construção social no processo evolu-
cionário (BELUSSI; ARCANGELI, 1998). Durante a fase de progresso tecnológico acele-
rado, indústrias relevantes dependeram, por vezes de forma crucial, do surgimento de redes
interorganizacionais, como no caso da internet. Essas redes operam como lócus para as
atividades de aprendizado e busca de consenso, permitindo a exploração de trajetórias que
reduzem a incerteza envolvida e, ainda, viabilizam a criação de novos paradigmas tecnoló-
gicos (ROSENKOPF; TUSHMAN, 1998). Como consequência, o impacto da inovação
torna-se contingente não apenas das oportunidades e restrições tecnológicas, mas também
dos modos de organização e de comportamento característicos do ambiente institucional
vigente (DOSI; ORSENIGO; LABINI, 2005).
A busca da vantagem competitiva é inerente ao capitalismo moderno, por meio
da contínua tentativa de diferenciação e de proteção às fontes de vantagem comparativa
entre firmas competidoras (PORTER, 1980/1986). Entretanto, como aponta a literatura
empírica, não são raras as situações em que as empresas, ao menos aquelas mais importan-
tes em determinado setor, não se pautam por essa dinâmica e, ainda assim, não pereçam.
111
Mesmo em cenários nos quais as trajetórias tecnológicas estão distantes do esgotamento, é
relativamente frequente que os participantes do mercado optem pela “estabilização” do
processo competitivo, por meio de estruturas sociais específicas (FLIGSTEIN, 2001a), em
contradição aparente com os princípios da TE. À medida que surgem padrões de interação
em redes que envolvem firmas, fornecedores, clientes e o Estado, as relações econômicas
tornam-se parte das relações sociais. Os atores tornam-se, coletivamente, conscientes de
seus interesses e necessidades e agem baseados nisso (GRANOVETTER, 1985), como será
visto a seguir.
Por meio das regras de comportamento e interação entre firmas, que se
desenvolvem espontaneamente, através da formação de uma variedade de
organizações associadas à indústria, que decidem assuntos como padrões por meio da ação política, [...] a própria indústria molda fortemente seu
próprio ambiente de seleção [NELSON, 1995, p. 77].
A pesquisa empírica mostra que as pressões competitivas, sozinhas, frequente-
mente não são fortes o suficiente para forçar a saída de todas as firmas que não são eficien-
tes como as líderes, inclusive durante períodos longos (DOSI; NELSON, 1994). Além dis-
so, é normalmente elevado o número de empresas que entram e saem a cada intervalo de
tempo (“turbulência”), com entrantes comumente operando com eficiência abaixo das esca-
las mínimas previstas pela análise estratégica estática151
(DOSI et al., 1997). A turbulência
e a entrada líquida positiva são, aparentemente, fenômenos “pervasivos”, verificados com
frequência em amplo espectro de setores,152
incluindo aqueles com barreiras elevadas, ape-
sar da ausência de uma interpretação evolucionária clara para isso (MALERBA; ORSENI-
GO, 1996; ACS; AUDRETSCH, 1991).
Assim, uma das críticas frequentes feitas à OIM pode ser, em certa extensão,
estendida à TE: o tratamento superficial dos fatores institucionais. Mesmo como atores cen-
trais do processo evolucionário, a TE frequentemente reserva para as firmas um papel de
“[meras] portadoras de ‘tecnologias’, a partir de práticas particulares ou de capacidades que
151 Estatisticamente, entretanto, tamanho, idade e taxa de crescimento têm se mostrado positivamente correla-
cionados com a capacidade de sobrevivência das firmas (DOSI et al., 1997), apesar de que, em cada momen-to, uma diversidade significativa de produtividade e lucratividade costuma ser observada em uma dada indús-
tria (DOSI; NELSON, 1994). 152 “A turbulência [em um setor] tende a ser negativamente correlacionada com variáveis como taxa de inova-
ção, publicidade e intensidade de capital e positivamente correlacionada com concentração e crescimento”
(MALERBA; ORSENIGO, 1996, p. 57).
112
determinam ‘o que elas fazem’ e ‘quão produtivamente’ em circunstâncias específicas”
(DOSI; NELSON, 1994, p. 162, grifo nosso). Essa abordagem da questão institucional tem
origens no nascimento dessa vertente teórica, com base na hipótese, explicitamente assumi-
da, da “trégua dos conflitos” (NELSON; WINTER, 1982/2005). Desse modo, é comum a
TE relegar ao segundo plano a importância dos padrões de desenvolvimento social setorial,
tratados apenas como influências genéricas de longo prazo (DOSI, 1982), e subestimar as
questões cognitivas e políticas que podem ser, e repetidamente são, tão dinâmicas quanto a
inovação tecnológica (TORDJMAN, 2004). Ressalve-se que uma série de autores neos-
chumpeterianos, em particular Nelson (por exemplo, 2005), procurou mais recentemente
cobrir essa lacuna, propondo como fundamental para a TE adotar uma perspectiva efetiva-
mente coevolucionária, abrangendo o avanço simultâneo de tecnologias e instituições.
2.3.6. O setor de internet na perspectiva evolucionária
Em termos gerais, a abordagem evolucionária parece se adequar melhor do que
a organização industrial à evidência empírica do setor de internet. Ela aparentemente dá
conta tanto da questão, crucial, da dinâmica tecnológica quanto de suas consequências no
padrão geral da organização setorial. Também a assimetria entre as firmas e a forma com
que o conhecimento se difunde – tanto do lado da oferta como do da demanda – parecem
ser apropriadamente representadas pela TE.
O setor de internet parece, em primeira aproximação, operar em um regime
Schumpeter Mark I. Nesse regime tecnológico, o papel do empreendedorismo é essencial,
pois, dadas as barreiras tecnológicas relativamente reduzidas, graças à ampla difusão da
base de conhecimento, a participação das firmas novas foi e continua sendo relevante para
as atividades inovadoras, ocasionando a erosão contínua das vantagens competitivas das
empresas maiores. Mesmo as empresas que não inovam têm, ainda, a possibilidade de imi-
tar as inovações de sucesso e aprimorá-las, pela cópia e pelo learning-by-doing, em função
dos spillovers. Com uma demanda sistematicamente crescente, tanto em número de usuá-
rios quanto nos seus gastos, e a introdução constante de novos produtos e funcionalidades,
o setor tem criado oportunidades continuamente, o que vem desencadeando, concomitan-
temente, forte turbulência (entradas e saídas) nos seus mercados.
113
Contudo, a caracterização do regime Mark I não parece se adequar adequada-
mente aos registros empíricos do mercado de acesso, em particular no que diz respeito ao
processo concorrencial, apesar de os principais elementos habilitadores da competição
schumpeteriana estarem presentes nessa parcela da internet. As firmas provedoras de servi-
ço de acesso enfrentam demanda em crescimento acelerado e participam de cadeias longas
e complexas em conjunto com o restante do setor. Suas atividades dependem, vitalmente,
de um grande número de outras empresas, que fornecem equipamentos e programas e, mui-
tas vezes, constroem as próprias redes que habilitam os provedores a operar. Nesse sentido,
o segmento de acesso caracteriza-se pelo baixo nível de desenvolvimento tecnológico en-
dógeno, apropriando-se principalmente das inovações geradas em outros segmentos setori-
ais. Isso, em princípio, deveria tornar o acesso à tecnologia ainda mais amplo do que nos
demais segmentos, potencializando a desenvoltura dos entrantes, embora esse não tenha
sido o resultado observado na evidência empírica.
Em termos puramente schumpeterianos, a restrita oportunidade de diferencia-
ção, induzida pelo reduzido volume de inovação endógena agregada aos seus produtos, não
justificaria a raridade da entrada com êxito de firmas inovadoras no mercado de acesso.
Essa perspectiva tampouco ajuda a explicar a reduzida agressividade verificada entre as
incumbentes – especialmente se for considerada a manutenção de preços relativamente ele-
vados, com margens tipicamente superiores àquelas dos segmentos mais competitivos da
internet. Afinal, dentro da lógica usual da TE, empresas do próprio setor poderiam avançar
“a jusante”, utilizando sua capacidade de inovar mais apurada para conquistar rapidamente
parcelas significativas do mercado de acesso, oferecendo serviços diferenciados, provavel-
mente com maior agilidade do que as incumbentes seriam capazes. A mudança técnica fre-
quente observada no caso concreto, induzindo à substituição periódica das plataformas de
rede, contribuiria para acentuar essa tendência, criando de tempos em tempos “janelas de
oportunidade” para a entrada em “campos nivelados”, quando eventuais vantagens associa-
das à escala ou aos sunk costs são, na prática, virtualmente eliminadas.
Entretanto, a evidência no mercado de acesso é clara: a despeito da presença
dos incentivos descritos acima e de barreiras convencionais relativamente reduzidas, a en-
trada inovadora usualmente não aconteceu. Pelo contrário, o Capítulo 1 mostrou que novas
114
modalidades do serviço de acesso são introduzidas de forma bastante homogênea entre os
poucos competidores, de modo quase sempre simultâneo e com preços e características
técnicas semelhantes. Esse cenário aponta para a necessidade de investigar outros meca-
nismos para explicar a situação descrita.
Aparentemente, as capacidades acumuladas pelas firmas incumbentes, no seg-
mento de acesso, não se restringiram àquelas do tipo tecnológico ou puramente organizaci-
onal. Antes disso, concentraram-se em uma série mais complexa de habilidades de empre-
endedorismo institucional, conforme se depreende da pesquisa empírica. Adicionalmente, o
enfraquecimento do mecanismo de seleção, devido às características do serviço e ao modo
como os consumidores interagem entre si e com os provedores, também pode ter sido rele-
vante. Assim, e apesar de sinalizar a importância das questões institucionais no processo
evolucionário, como já discutido, a TE frequentemente não considera o impacto cruzado da
dinâmica coevolucionária – de tecnologias e instituições –, o que potencializa resultados
não completamente esclarecidos com base nessa vertente teórica, isoladamente. Essa limi-
tação parece ser importante neste caso e deverá ser tratada na próxima seção.
2.4. Abordagens institucionalistas
O estudo das instituições é recorrente na ciência econômica. Desde Smith e
Marx, a consideração das questões de ordem institucional na análise dos fenômenos
econômicos foi uma constante. No início do século XX, autores como Veblen e Commons
iniciaram a tradição hoje conhecida como “economia institucional original” (OIE, do inglês
original institutional economics), trazendo a questão das instituições para o centro da pes-
quisa econômica. Nos anos 1960, em especial com as contribuições de Coase e Williamson,
ganhou impulso a “nova economia institucional” (NIE, do inglês new institutional econo-
mics). Nos anos 1980, desenvolveu-se a economia das convenções francesa (EC), igual-
mente centrada nos temas institucionais. Essas três escolas serão brevemente abordadas.
Outras linhas dentro da ciência econômica, como a escola austríaca, trataram de aspectos
institucionais, ainda que de forma menos ampla, mas não serão analisadas aqui.
Fora da disciplina da economia, os autores de estudos organizacionais igual-
mente empreenderam esforços na compreensão do papel das instituições no comportamento
115
econômico de indivíduos e organizações, desenvolvendo, a partir dos anos 1970, o novo
institucionalismo organizacional (NIO). Essa corrente ocupou espaço paralelo ao das ver-
tentes institucionais contemporâneas na economia e também será tratada a seguir.
Diferentemente das seções anteriores, que trataram de corpos teóricos relativa-
mente organizados e homogêneos, esta seção busca selecionar um “caminho” no vasto e
disperso repertório das teorias institucionais. O roteiro proposto é o seguinte: (i) conceituar
o termo “instituição”, segundo as várias abordagens, e eleger uma definição suficientemen-
te abrangente e compatível; (ii) apresentar sumariamente algumas das principais vertentes
teóricas, na tentativa de mapear os pontos mais relevantes para a pesquisa empírica; (iii)
propor um quadro teórico consolidado para a análise institucional, com foco particular no
conceito de campo organizacional e nos processos de dinâmica e empreendedorismo insti-
tucional; e (iv) sintetizar as contribuições pertinentes para a avaliação dos mercados como
estruturas institucionais, inclusive os seus requisitos importantes, em especial o estabeleci-
mento de instituições definidoras da qualidade, bem como o papel das redes sociais no
comportamento dos consumidores.
2.4.1. Os diferentes conceitos e tipos de instituição
O termo “instituição” tem uso frequente na economia e em diversas outras dis-
ciplinas, como a história, a sociologia, a ciência política e a filosofia. Isso se deve à onipre-
sença e à multiplicidade de sistemas institucionais que se sobrepõem, se complementam e
competem entre si, presentes que estão virtualmente em qualquer estrutura social (SCOTT,
2001), apesar de não existir uma definição única para o termo (HODGSON, 2006). Mesmo
as correntes institucionalistas, nas várias disciplinas, utilizam definições distintas e muitas
vezes incompatíveis entre elas. Por isso, a noção de instituição não é um conceito coerente
de forma global e necessita ser compreendido dentro do escopo empregado pelos distintos
autores e vertentes teóricas (NELSON; SAMPAT, 2001).
No domínio da economia, talvez a mais simples e conhecida das definições seja
a de North (1990, p. 3): as instituições são as “regras do jogo” ou, especificamente, “as res-
trições concebidas pela humanidade que conformam a interação humana”. A definição de
Hodgson (2006, p. 2), por outro lado, trata as instituições como “sistemas de regras sociais,
116
estabelecidas e dominantes, que estruturam as interações sociais”. Já na teoria organizacio-
nal, Scott (2008, p. 48) define as instituições como “estruturas sociais duráveis compostas
por elementos simbólicos, atividades sociais e recursos materiais”.
Na linha sugerida por Dequech (2008, p. 527), este trabalho adota uma defini-
ção simples e ampla: “instituições são padrões de comportamento ou de pensamento soci-
almente compartilhados”. Padrões são aqui entendidos não apenas como aqueles efetiva-
mente praticados, mas também os prescritos ou recomendados (as “regras do jogo”). Essa
definição abrange as dimensões comportamental e cognitiva, e é, em geral, compatível com
– porém não equivalente – a maioria das conceituações utilizadas pelas diversas vertentes
teóricas.
Fligstein sugere uma definição alternativa mais detalhada, útil para a pesquisa
empírica, com a qual se alinha a abordagem deste trabalho:
Instituições são regras e significados compartilhados (implicando que as
pessoas são cientes deles ou que eles podem ser conscientemente conhe-
cidos) que definem relações sociais, ajudam a definir quem ocupa que po-sição nesses relacionamentos e guiam a interação ao fornecer quadros
cognitivos para os atores[153]
ou conjuntos de significados para interpretar
o comportamento dos outros. [...] As instituições podem, é claro, afetar as
situações dos atores com ou sem o seu conhecimento ou entendimento [2001b, p. 108].
As instituições podem ser classificadas conforme algumas tipologias. Elas são
formais ou informais. Entre as formais, encontram-se, por exemplo, as leis e regulamentos,
o Estado e o sistema judiciário. No escopo das informais, estão as normas sociais, que são
estabelecidas, e controladas, pelo grupo social ou comunidade, e as convenções, institui-
ções relativamente arbitrárias, nas quais a conformidade se deve à expectativa de cada
agente de que os demais também se conformarão, independentemente de aplicação de san-
ção externa (DEQUECH, 2009). Outras definições para convenção, nem sempre conver-
gentes, são adotadas na literatura.154
153 Quadros cognitivos são os esquemas mentais conscientes que os indivíduos constroem para compreender o
mundo, sendo normalmente compartilhados entre grupos que estão expostos às mesmas instituições (DOB-BIN, 2004), permitindo a organização mental do ambiente social (BECKERT, 2010). 154 Para Weber (1921/1968), se trata de uma parcela dos costumes que é seguida dentro de um grupo social,
sendo reconhecida como “obrigatória” e sua desobediência sujeita à sanção de desaprovação pelo grupo. Le-
wis (1969), utilizando a teoria dos jogos, define convenção como uma regularidade de comportamento, inclu-
indo padrões de pensamento, à qual se espera que todos os membros da população sejam conformes, indepen-
117
Um conceito diretamente relacionado com o de instituição é o de “organiza-
ção”, do qual o Estado e as firmas são casos particulares. Na definição proposta por Hodg-
son (2006), as organizações são um tipo especial de instituição, que dispõem de algumas
características peculiares: (i) critérios definidores para suas fronteiras (limites) e membros;
(ii) princípios de soberania e de escolha da liderança; e (iii) cadeia de comando e distribui-
ção de responsabilidades definidas. Organizações são formadas por indivíduos ou outras
organizações, mas podem ser tratadas como atores sociais “unitários” desde que “elas te-
nham meios de chegar a decisões e de atuar sobre algumas delas”, a despeito de potenciais
conflitos internos (HINDESS, 1989, p. 89). As organizações têm, assim, uma propriedade
dual, pois são, simultaneamente, instituições por si sós e também participantes de outras
instituições (GREIF, 2006), em um caso particular de hierarquia recursiva, aninhadas umas
dentro das outras (ARTHUR; DURLAUF; LANE, 1997).
As instituições desempenham múltiplas atribuições na vida social, por meio de
diversos mecanismos de influência no comportamento e no pensamento dos agentes. De-
quech (2006, 2011) elenca três papéis distintos das instituições: (i) restritivo; (ii) cognitivo;
e (iii) motivacional. O papel restritivo, prescritivo dos comportamentos aceitáveis e das
sanções aplicáveis em situação de desvio, é provavelmente o menos controverso entre todas
as vertentes teóricas. Nesse sentido, as principais organizações da sociedade, como o Esta-
do, os mercados, as famílias e a religião representam instituições que restringem tanto os
fins quanto os meios das condutas, sendo importantes no nível dos indivíduos e no das or-
ganizações (SCOTT, 2001).
Segundo Scott (2008), uma das principais funções das instituições é a de forne-
cer suporte informacional para os agentes, operando como “repertório de conhecimento
coordenador interpessoal” (ibid., p. 69). Esse papel cognitivo, além de prover informações,
é responsável, de modo mais profundo, por dotar os atores de modelos mentais pelos quais
eles selecionam, organizam e interpretam as próprias informações, influenciando o modo
como formas institucionais e relacionais são legitimadas.
dentemente da aplicação de sanções. Young (1996) abranda estes requisitos, caracterizando a convenção por
um padrão de comportamento habitual, esperado e autoaplicável, entre outros possíveis, mas não adotados.
118
Por fim, no papel motivacional, as instituições oferecem incentivos e influenci-
am os objetivos e obrigações que os indivíduos se atribuem (DEQUECH, 2011). Ao estru-
turar as relações entre atores, as instituições operam para reduzir a incerteza e a ansiedade
que ela causa (NORTH, 1990). Para Giddens (apud DIMAGGIO; POWELL, 1991, p. 23),
essa ansiedade seria “a origem motivacional mais generalizada da conduta humana”. Por
isso, os agentes sujeitos à incerteza buscam formas de coordenação entre si, como estraté-
gia para lidar com a situação de interdependência dentro do grupo social e viabilizar a ação
coletiva coordenada.
2.4.2. Correntes institucionalistas
Foram selecionadas algumas correntes teóricas institucionalistas para uma bre-
ve resenha. Este esforço não pretende ser exaustivo ou abranger todas as vertentes de estu-
do das instituições. Intencionalmente, nos concentramos aqui nas diretrizes teóricas elenca-
das, para compor um quadro teórico razoavelmente abrangente para a pesquisa proposta.
2.4.2.1. Teoria evolucionária dos jogos
Antes de discutir as correntes teóricas autodenominadas institucionalistas, é im-
portante ressaltar que, com a definição de instituição adotada neste trabalho, a teoria dos
jogos, em particular na sua versão evolucionária, também se constitui em uma forma de
teoria institucional.
Segundo Axelrod (1984), a teoria dos jogos tradicional (TJ), sob a premissa de
escolhas racionais, considera as instituições como o resultado das interações estratégicas
dos atores, supondo que os conjuntos de regras e estratégias para decisão sejam mantidos
fixos. Portanto, na perspectiva da TJ, a ação é tão somente uma adaptação dos agentes às
condições materiais vigentes (SCOTT, 2008). É importante ressaltar que, sem esses pressu-
postos, as conclusões da TJ não se sustentariam (FLIGSTEIN, 2001b). Uma vez que regras
e recursos são considerados como dados, as instituições decorrem destes, como consequên-
cia lógica. Logo, não influenciam nem dependem da cognição dos atores.
As premissas da TJ são restritivas quando se procura explicar um ambiente so-
cial complexo e dinâmico, no qual os agentes tentam, frequentemente, inovar e alterar não
apenas as “regras do jogo”, mas o “modo como o jogo é jogado”, em benefício próprio
119
(SCOTT, 2008; DEQUECH, 2009). Além disso, como argumenta Orléan (2004), ao partir
da conceptualização de indivíduos “atomizados”, a TJ desconsidera a (eventual) dimensão
coletiva. Dessa maneira, não é capturada na análise teórica a influência das arenas sociais e
da dinâmica de suas hierarquias, bem como a necessidade dos atores de estabelecer redes
de relações para obter cooperação e viabilizar seus objetivos (FLIGSTEIN, 2001b).
A teoria evolucionária dos jogos (TEJ) relaxa algumas das restrições da TJ tra-
dicional. Ao adotar a premissa de racionalidade limitada (bounded rationality) de Simon
(1958), ela permite que as próprias estratégias para a decisão passem a fazer parte dos es-
forços de coordenação entre os atores. Em jogos com equilíbrios múltiplos, como é fre-
quentemente o caso, são necessárias convenções de coordenação das estratégias adotadas,
para que equilíbrios, pelo menos localmente estáveis, possam ser obtidos. É a coordenação
entre os agentes, portanto, que viabiliza a emergência do que é usualmente chamado de
“estratégia evolucionariamente estável” (SUGDEN, 1986/2004; YOUNG, 1996). Assim,
eles desenvolvem as estratégias ao longo de jogos repetidos sobre trajetórias que não são
únicas, ou seja, a(s) estratégia(s) evolucionariamente estável(is) apresenta(m) path depen-
dence. Por isso, diferentemente da TJ, o número e a natureza dos pontos de equilíbrio pos-
síveis comumente não podem ser especificados ex ante na TEJ.
A TEJ é um passo na direção dos sistemas complexos dinâmicos, mas represen-
ta, ainda, um caso particular deles. Isso porque preserva o pressuposto da TJ de que o con-
junto de estratégias factíveis é finito e conhecido, com a possibilidade de múltiplos equilí-
brios a partir de combinações delas (NELSON, 1995). Por isso são necessárias convenções
que resolvam os problemas de coordenação e permitam manter a cooperação, ainda que no
contexto de jogos repetidos.
A consideração da situação de equilíbrios múltiplos permite à TEJ explicar di-
ferenças institucionais, por exemplo, entre países, utilizando-se o conceito de path depen-
dence, o que não é possível com a TJ tradicional (NORTH, 1990; DOBBIN, 2004). Discre-
pâncias nas condições iniciais, nas escolhas ou mesmo o acaso, durante o processo evoluci-
onário, podem gerar instituições persistentemente distintas – sem nenhuma garantia de que
serão (Pareto) eficientes. Entretanto, a convergência institucional continua sendo esperada
120
no longo prazo, pelo menos em nível local, pois a TEJ não considera a hipótese de lock-
in155
entre comunidades que interagem (YOUNG, 1996).
2.4.2.2. Institucionalismo econômico original
A tradição do institucionalismo econômico original (OIE, na sigla em inglês)
trata as instituições como sistemas de regras socialmente determinadas, que organizam as
interações dos atores na sociedade (HODGSON, 2006). Mas, indo além da vertente instru-
mental da economia neoclássica, a OIE enfatiza a importância dos hábitos na formação das
instituições – e vice-versa –, ao ressaltar o papel mental destas. Elas “proveem [os agentes
com] um quadro cognitivo para interpretação das sensações imediatas e fornecem hábitos
ou rotinas intelectuais para transformar informação em conhecimento útil” (HODGSON,
1998, p. 171).
Na OIE, a imbricação entre hábitos – de pensamento e comportamento – e insti-
tuições é o componente central para a compreensão da mecânica institucional (HODGSON,
2006). Hábito, consciente ou não, é definido como a disposição para reproduzir comporta-
mentos ou pensamentos, adquiridos anteriormente no ambiente social, por meio do estímu-
lo ou contexto adequado. Assim, os “hábitos são a matéria-prima das instituições, provendo
para elas durabilidade, poder e autoridade normativa reforçados” (DIMAGGIO; POWELL,
1991, p. 7). Como proposto por Simon (1958), os hábitos não devem ser considerados ape-
nas elementos passivos, mas sim formas de direcionar a atenção dos atores para aspectos
selecionados das situações, em detrimento de demais (DIMAGGIO; POWELL, 1991). Por
isso, os hábitos são importantes no processo de evolução institucional, na medida em que,
com informação limitada, operam como “guias” para a convergência de certas convenções,
em prejuízo de outras (HODGSON; KNUDSEN, 2004).
As instituições tendem a se perpetuar, entre outros motivos, porque elas influ-
enciam e delimitam as próprias aspirações dos indivíduos, ao criar as bases para sua exis-
tência enquanto seres sociais, ao proporcionar uma ligação específica entre o mundo ideal e
o real. Por isso, as instituições têm a capacidade de modificar os atores, seus objetivos e
155 O conceito de lock-in é complementar ao de path dependence, no sentido de que as condições iniciais ou as
escolhas durante o processo histórico podem levar certas trajetórias que se tornam muito persistentes. Isso
dificulta ou mesmo inviabiliza outras trajetórias potencialmente equivalentes, ou mesmo superiores em termos
de resultados esperados, restringindo as opções futuras dos agentes (ARTHUR, 1989; DAVID, 1985).
121
preferências (HODGSON; KNUDSEN, 2004). Assim, na perspectiva da OIE, as institui-
ções são, simultaneamente, estruturas objetivas, exógenas ao agente, e fontes subjetivas de
oportunidades para a ação humana (HODGSON, 2006).
Os autores recentes da OIE reforçam a importância das interações sociais na
construção das capacidades conceituais dos indivíduos. Estruturas sociais formam-se jus-
tamente pela interação das instituições com o conjunto das relações sociais,156
inclusive as
episódicas e as desestruturadas ou não reguladas. Isso porque a maioria dos quadros cogni-
tivos, que os agentes utilizam para apreender o mundo social, é representada por meio de
linguagens sociais. Por conseguinte, “a ‘realidade’ que nós ‘vemos’ e ‘entendemos’ é parci-
almente construída socialmente” (HODGSON, 1988, p. 120).
Os agentes [têm] que estruturar cognitivamente os problemas que encon-
tram – para “dar sentido” aos seus problemas – tanto quanto resolvê-los [...] Para “dar sentido”, para aprender e para se adaptar, os agentes adotam
uma variedade de processos cognitivos. As categorias particulares que
eles empregam para converter informação sobre o mundo em ação emer-gem da experiência [...] Os agentes, portanto, habitam um mundo o qual
eles precisam interpretar de forma cognitiva – um [mundo] que é compli-
cado pela presença e pelas ações de outros agentes e que está em perma-nente mudança [...] E disso deriva que qualquer “conhecimento comparti-
lhado” que os agentes possam ter sobre os demais tenha que ser obtido de
processos cognitivos específicos e concretos, operando a partir das expe-
riências adquiridas por meio de interações concretas [ARTHUR, 1997, p. 5].
2.4.2.3. Novo institucionalismo econômico
O novo institucionalismo econômico (NIE) surgiu dos trabalhos de Coase e
Williamson, alterando o foco do estudo das instituições informais (hábitos), característico
da OIE, para aquelas do tipo formal (leis, contratos etc.). A famosa definição de North
(1990) – as instituições são as “regras do jogo” – é emblemática dos novos institucionalis-
tas, não obstante o autor não se inserir apenas no escopo do NIE. Os autores dessa vertente
consideram as instituições formais preponderantes na vida econômica (WILLIAMSON,
2000), por causa de sua ação reguladora no comportamento social (GREIF, 2006). Uma das
principais características do NIE é o tratamento das instituições centrado na sua dimensão
156 O conceito de “relação social” adotado baseia-se na definição clássica de Weber (1921/1968): o compor-
tamento de um grupo de atores no qual o comportamento de cada um leva em conta os dos demais e é por elas
orientada. A ação é social, portanto, na medida em que o ator associa significado a esses comportamentos.
122
comportamental, sendo sua eventual extensão cognitiva tratada somente em seu atributo
expectacional (GREIF, 2006; YOUNG, 1996).
O NIE considera as instituições resultado da agência humana deliberada, uma
tentativa de indivíduos limitadamente racionais para tratar a informação incompleta de que
dispõem e reduzir seus riscos, em um ambiente complexo (KINGSTON; CABALLERO,
2009). Segundo Williamson (1996; 2000), as instituições são arranjos sociais, produtos da
ação instrumental individual, destinadas à minimização dos custos inerentes à realização de
transações econômicas. Para North (1990), os custos de transação são justamente aqueles
relacionados à manutenção do sistema formal de direitos de propriedade, nas condições
modernas de especialização e divisão do trabalho.
Vale notar que a NIE não requer a premissa de racionalidade substantiva, ape-
sar de vários de seus proponentes – mas não todos – também considerarem que o processo
econômico conduz, inexoravelmente, a formas institucionais eficientes (KINGSTON; CA-
BALLERO, 2009). Como argumenta Williamson (1996), a perspectiva da racionalidade
limitada de Simon (1958) é mais adequada para definir a conduta dos agentes. Essa limita-
ção seria a causa de os contratos serem inevitavelmente incompletos, abrindo espaço para o
comportamento oportunista. Isso, por sua vez, demanda a existência de instituições de go-
vernança e um ambiente institucional adequado para a mitigação dos riscos agregados e a
garantia do cumprimento dos contratos – especialmente leis e tribunais apropriados (DI-
MAGGIO; POWELL, 1991). A adoção da racionalidade limitada no NIE, porém, não re-
solve o problema da diversidade institucional, pois, ao centrar a análise no conceito de
comportamento oportunista, segue insatisfatório o tratamento das diferenças entre as atitu-
des dos atores, em situações semelhantes, usualmente verificadas em nível local e global
(DOBBIN, 2004).
2.4.2.4. Economia das convenções francesa
A economia das convenções francesa (EC) estuda as questões institucionais da
ação e da coordenação entre os agentes, compreendidas de uma forma interdisciplinar, en-
volvendo a economia, a sociologia e a filosofia (ORLÉAN, 2004). A ênfase da EC é no
conceito de convenção, como regra de comportamento interindividual (“regra convencio-
123
nal”) e como modelo de avaliação desse comportamento, fundamentado em “lógicas de
justificação” compartilhadas.
As convenções, simultaneamente à sua origem na ação social, balizam as con-
dutas dos atores, em um processo de realimentação. As convenções são interpretadas por
eles como representações de um “mundo” social comum, justificado por meio de princípios
compartilhados (BATIFOULIER; LARQUIER, 2001). As regras convencionais necessitam
de interpretação antes da sua aplicação: a justificação é a construção mental que suporta e
dá legitimidade a esse processo para o indivíduo (STORPER; SALAIS, 1997). A justifica-
ção é especialmente importante em situações de conflito, quando as partes envolvidas –
quem critica e quem é criticado – precisam justificar mutuamente suas ações. “A ênfase [da
EC] nas disputas é baseada na premissa que estas tornam particularmente visível os recur-
sos e as competências mobilizados pelos atores” (JAGD, 2007, p. 78).
Segundo o conceito da lógica de justificação, os agentes orientam sua ação por
princípios de justificação gerais, de modo a se coordenarem com os demais que comparti-
lham um mesmo mundo social, na presença da incerteza gerada por essa interação (BOL-
TANSKI; THÉVENOT, 1991; JAGD, 2007). O esforço dos atores para a coordenação sig-
nifica abrir mão de parte da autonomia individual em benefício do processo social, pois
envolve a construção coletiva de estruturas cognitivas e de relacionamento dinâmicas e
complexas (STORPER; SALAIS, 1997). A coordenação é, assim, necessariamente resulta-
do da ação social, e não apenas a conjugação de preferências individuais ou a influência da
estrutura social preexistente.
Boltanski e Thévenot propuseram uma tipologia, não exaustiva, das “ordens de
valor”157
que ordenariam “mundos” sociais distintos: inspiração, opinião/renome, cívico,
mercado, industrial e doméstico (DEQUECH, 2008). O conceito particular de valor utiliza-
do pela EC diz respeito a um ordenamento qualitativo, peculiar ao mundo em questão, com
base no qual os agentes valoram pessoas e objetos. Portanto, uma ordem de valor é uma
construção cognitiva, mas também social e política, que permite aos atores “medirem-se
dentro de suas ações quotidianas” (BOLTANSKI; THÉVENOT, 1991, p. 161). Diferentes
157 A ordem de valor representa um conjunto específico de “relações sociais, concepções do que é correto,
métricas de valor e noções de qualidade” (LATSIS; LARQUIER; BESSIS, 2010, p. 552).
124
ordens de valor podem ser utilizadas por cada ator, combinada e simultaneamente, confor-
me a visão de mundo aplicável na situação específica. De acordo com os “mundos” dos
quais o agente tome parte, os modos de justificação serão diversos; a falta de concordância
e a disputa envolvem diferenças entre os valores relativos (“la grandeur”) atribuídos, pelas
partes, a pessoas ou objetos (DEQUECH, 2008).
Assim, o estabelecimento da convenção, pelo compartilhamento de uma visão
de mundo, permite a coordenação dos atores e a resolução do conflito, baseada em uma
crença generalizada sobre o comportamento coletivo – uma certa ordem de valor comum –
aceitando como central a tensão entre ação individual e estrutura (STORPER; SALAIS,
1997). “A convenção constitui uma exterioridade cuja presença transforma os indivíduos e
suas relações. [...] Ela introduz um elemento novo, de natureza coletiva ou social, que esca-
pa à pura lógica da racionalidade estratégica” (ORLÉAN, 2004, p. 13, grifo no original).
2.4.2.5. Novo institucionalismo organizacional
O novo institucionalismo nos estudos organizacionais (NIO) tem como uma de
suas características centrais a rejeição da racionalidade “atomista” (a partir dimensão do
indivíduo) como explicação para a organização das estruturas sociais – uma das principais
premissas da economia neoclássica. Em vez disso, o NIO tem um enfoque “organicista”
(SCOTT, 2008), fundamentado na análise de padrões de relações sociais dentro de campos
específicos (BECKERT, 2010). Essa vertente teórica enfatiza o papel da cultura e da cogni-
ção158
no processo social e na natureza frequente de imbricação (taken-for-grantedness) das
instituições na vida econômica (THORNTON; OCASIO, 2008). A tese central é que os
processos sociais formatam o comportamento econômico em seu núcleo e não apenas de
forma periférica (DOBBIN, 2004).
Para o NIO, as instituições decorrentes dos processos sociais estruturam a ação
e restringem a capacidade dos atores de agir de maneira puramente instrumental, além de
privilegiarem grupos cujos interesses estejam alinhados com elas (DIMAGGIO; POWELL,
1991). Nesse ambiente, o comportamento dos indivíduos é orientado fundamentalmente por
158 Cognição é o processo pelo qual os atores dão sentido ao mundo ao seu redor, bem como às suas conven-
ções sociais (DOBBIN, 2004), por meio de representações simbólicas internalizadas da mediação entre os
estímulos externos e a resposta do indivíduo, formatadas pelo quadro cultural no qual o ator está imerso
(SCOTT, 2008).
125
uma “lógica de adequação” (appropriateness) e não pela “lógica de consequências”, pres-
suposta na conduta estritamente racional (MARCH, 1994). Assim, o papel das instituições
seria o de formatar os comportamentos (SCOTT, 2008), estabelecendo uma relação direta
entre instituições e agência, mas sem excluir a possibilidade da ação instrumental sobre a –
e além da – estrutura institucional.
A premissa teórica crucial do NIO é que parcela relevante das relações sociais
não é baseada em instituições formais ou em características individuais dos atores (BEC-
KERT, 2010). O NIO enfatiza a natureza informal e taken-for-granted de boa parte do qua-
dro institucional, normalmente subestimada pelos teóricos utilitaristas, como os do NIE
(DIMAGGIO, 1988). Isso significa que, em uma perspectiva cultural-cognitiva, as institui-
ções precisam ser analisadas além de seus aspectos normativos159
e regulatórios.160
Isso
obriga o analista a penetrar em um universo consideravelmente mais “intratável” e “opaco”
do que aquele das abordagens que se atêm primordialmente a essas particularidades (DI-
MAGGIO, 1988; POWELL, 1991; SCOTT, 2001).
Autores como DiMaggio e Powell (1983) propõem que os agentes dentro de um
mesmo campo adotam modelos mentais compartilhados para estruturar sua interação, tendo
em vista seus objetivos, confiando para isso em arranjos institucionais taken-for-granted,
adquiridos socialmente. Desse modo, os três elementos – cultural-cognitivo, normativo e
regulatório – são “blocos” que formam um contínuo – do inconsciente para o consciente –
que é o substrato das instituições (SCOTT, 2008). Nas instituições reais, o que se verifica é
uma combinação variada entre esses componentes constitutivos (TOLBERT; ZUCKER,
1996; SCOTT, 2001, 2008). A persistência institucional, em particular, está diretamente
associada ao alinhamento entre eles.
Por se basearem em premissas pré-conscientes, ou taken-for-granted, os ele-
mentos cultural-cognitivos encontram-se no nível mais profundo das instituições (BEC-
159 Scott (2008) define as regras normativas como aquelas baseadas em valores e normas e que atuam em uma
dimensão prescritiva, avaliativa e obrigatória da vida social. Os valores representam uma concepção do que é
desejável ou preferível, tornando-se padrões por meio dos quais as estruturas e comportamentos são compara-dos. Já as normas especificam os comportamentos adequados às diversas circunstâncias, definindo quais são
os meios legítimos para perseguir fins compatíveis com os valores. 160 Restrições ou estímulos explícitos, formais ou informais, geradas a partir do processo de regulação: leis,
regulamentos, órgãos de supervisão, atividades de sanção etc. A coerção é o principal mecanismo de controle
nesse caso (SCOTT, 2008).
126
KERT, 1999; SCOTT, 2008). “Cultura, instituições e relações sociais não são apenas fer-
ramentas para os atores; elas influenciam a cognição e a ação destes de forma importante e
frequentemente inconsciente” (BATTILANA; LECA; BOXENBAUM, 2009, p. 73), “con-
trolando a conduta humana [...] antes ou à parte de quaisquer mecanismos ou sanções cria-
dos para suportar [as instituições]” (BERGER; LUCKMAN, 1967 apud DIMAGGIO;
POWELL, 1991, p. 21). A conformidade institucional não decorre, portanto, somente de
repressão ou de outros modos de reação racional do grupo social, mas acontece principal-
mente porque outros tipos de comportamento são comumente inconcebíveis para o ator
(SCOTT, 2008). “Rotinas [institucionalizadas] são seguidas porque elas estão assumidas
implicitamente [taken-for-granted] como ‘o jeito que nós fazemos essas coisas’” (ibid., p.
58).
2.4.3. Proposta de quadro teórico para a análise institucional
Como se depreende da breve resenha das principais vertentes institucionalistas,
pode-se, em primeiro plano, classificá-las segundo a ênfase em elementos normativos e
regulatórios (novo institucionalismo econômico) ou cultural-cognitivos (institucionalismo
econômico original, economia das convenções e novo institucionalismo organizacional).
Essa clivagem é crucial para a pesquisa: sem ignorar a importância dos três fatores na apre-
ensão de um arranjo institucional particular, a bibliografia de estudos empíricos mostra que
não existe uma combinação única ou ideal para o diagnóstico das situações concretas. As-
sim sendo, é uma das tarefas da análise determinar a relevância intrínseca de cada elemento
na realidade específica.
No caso particular deste trabalho, conforme algumas hipóteses já apresentadas
no Capítulo 1, os elementos cultural-cognitivos parecem ter sido importantes para a con-
formação institucional do setor de internet, sem ignorar o valor dos demais. Logo, na cons-
trução da proposta para o quadro teórico, parece indicado privilegiar as correntes teóricas
que enfatizam esse elemento, em especial as abordagens da EC e do NIO, essencialmente
convergentes em seus pontos centrais.
Como visto, a perspectiva do novo institucionalismo organizacional (NIO) é
distinta daquela do novo institucionalismo econômico (NIE), apesar de ambos convergirem
127
no papel normativo das instituições na restrição da racionalidade instrumental pura (DI-
MAGGIO; POWELL, 1991). No entanto, enquanto o NIE considera o tema das relações
sociais e de poder como dominado pela racionalidade econômica – ainda que limitada –, os
autores do NIO procuram abordar a questão institucional de modo mais abrangente (ibid.).
Ao considerar que o comportamento econômico dos agentes é delineado, significativamen-
te, por questões cultural-cognitivas, e não apenas pela mobilização instrumental de interes-
ses, a maneira como os significados simbólicos são adquiridos e aplicados pelos atores ga-
nha relevância, assim como o ambiente social em que esse processo ocorre (DIMAGGIO,
1988). Afinal, os “estudos empíricos tipicamente mostraram que a economia não era um
domínio distinto – [...] ela estava emaranhada na vida social” (DOBBIN, 2004, p.3).
Uma crítica frequente ao institucionalismo original é o peso excessivamente
amplo dado à estrutura social, incluindo as instituições, sobre os atores. Em um contexto de
“sobressocialização”, eles passam a ter seu comportamento incondicional e automaticamen-
te guiado por instituições poderosas e estáveis, em que a inovação institucional endógena
não seria possível e a exógena, improvável (JAGD, 2007). “A teoria institucional [original]
não tem uma teoria, explícita ou formal, do papel que os interesses operam na instituciona-
lização” (DIMAGGIO, 1988, p. 4). Outro ponto questionado do institucionalismo original,
apontado por autores como Beckert (1999), é sua incapacidade de considerar as diferenças
individuais entre agentes, uma vez que se desconsidera a função da ação estratégica nos
processos de construção e transformação institucional.
Para superar esses problemas nas formulações institucionalistas anteriores, os
autores do NIO propuseram tratar o modelo do ator racional da TJ e o do institucionalismo
original como extremos de um contínuo teórico, no qual operam também os processos de
decisão e de agência161
(TOLBERT; ZUCKER, 1996; BATTILANA; LECA; BOXEN-
BAUM, 2009). Como lembra DiMaggio (1988), na mesma linha da EC francesa, os inte-
resses e conflitos entre grupos são essenciais para a compreensão da dinâmica institucional.
Portanto, a integração da perspectiva da agência ao quadro teórico institucional é essencial
para prover uma visão integral. Segundo Emirbayer e Mische:
161 O termo “agência se refere à habilidade de um ator em ter algum efeito sobre o mundo social – alterando
as regras, os laços relacionais ou a distribuição de recursos” (SCOTT, 2008, p. 77).
128
Toda ação social é uma síntese concreta, formatada e condicionada, de um
lado, pelos contextos temporal-relacionais da ação e, por outro, pelos pró-
prios elementos dinâmicos da agência. Isto garante que a ação social em-pírica nunca será completamente determinada ou estruturada. De outro la-
do, não existe momento hipotético no qual a agência efetivamente fica
“livre” da estrutura [apud SCOTT, 2001, p. 194].
Essa tensão, contraditória e permanente, entre agência estratégica e estrutura
social permeando a vida econômica, pode ser mais adequadamente abordada pela teoria dos
campos organizacionais e pela correlação desta com as redes sociais.
O conceito de campo organizacional (organizational field) provém do trabalho
de Bourdieu (1972). O campo representa o lócus da ação social de um determinado conjun-
to de grupos organizados, em que atores coletivos tentam criar um sistema de relações, por
meio da produção de uma cultura local, que defina e dê significado às relações sociais entre
eles. A cultura fornece os elementos cognitivos simbólicos para os indivíduos, ajudando-os
a interpretar sua posição na estrutura e sua identidade social. Isso os habilita a compreender
a ação dos outros, com quem se relacionam, consequentemente “enquadrando” as ações de
cada ator em relação ao grupo (DIMAGGIO; POWELL, 1983; FLIGSTEIN, 2001b;
SCOTT, 2008). Além disso, a cultura provê, ainda, os esquemas mentais que permitem a
percepção, e eventualmente a mudança, das instituições (DENZAU; NORTH, 1994; DOB-
BIN, 2004). “Campos organizacionais altamente estruturados proveem um contexto no qual
os esforços individuais para lidar racionalmente com a incerteza e as restrições frequente-
mente levam, no agregado, à homogeneidade de estrutura, cultura e resultados” (DIMAG-
GIO; POWELL, 1983, p. 147). A noção de campo organizacional permite a avaliação si-
multânea das estruturas sociais relevantes para a dinâmica da vida econômica, conciliando
as potenciais contradições analíticas entre estrutura e agência (BECKERT, 2010).
A teoria dos campos organizacionais privilegia a interpretação sobre como os
significados compartilhados do campo – suas instituições – são internalizados (taken-for-
granted) pelos atores (BECKERT, 1999; FLIGSTEIN, 1997). Essas instituições passam,
então, a operar como restrições à ação, limitando e determinando o comportamento ao lon-
go do tempo. Não obstante, elas funcionam como habilitadoras para a aquisição do conhe-
cimento necessário para que os agentes possam tomar suas próprias decisões e, em certas
ocasiões, iniciar o processo de transformação do campo (DIMAGGIO; POWELL, 1991;
129
HODGSON, 1988; SCOTT, 2008). As instituições formatam a conduta humana nos cam-
pos, não apenas ao fornecer para os atores representações compreensíveis dos relaciona-
mentos sociais, mas também ao provê-los com scripts (rotinas) que orientam sua ação
(DOBBIN, 2004). Nesse contexto, a institucionalização é a mecânica pela qual formas de
pensar ou de agir tornam-se compartilhadas e, desse modo, constitutivas dos padrões de
interação dentro dos campos (JEPPERSON, 1991).
Conforme DiMaggio e Powell (1983), a institucionalização do campo organiza-
cional não é predeterminada, pela sua própria natureza, apesar de tampouco ocorrer espon-
tânea ou aleatoriamente.162
A institucionalização dos campos e a consequente redução da
incerteza que ela traz são pré-requisitos da ação estratégica (BECKERT, 1999). Como mos-
trou Simon (1958), escolhas minimamente racionais são possíveis apenas em condições
moderadas de incerteza, que permitam, pelo menos, a formação de expectativas pelos ato-
res. Ao induzir perspectivas sobre o comportamento e o pensamento dos outros, as institui-
ções reduzem a incerteza e viabilizam a ação instrumental. Além disso, a “agência estraté-
gica que [inclusive] viole as regras institucionais existentes pode ser esperada [mesmo] em
situações caracterizadas por níveis de certeza relativamente altos dentro de um campo insti-
tucional” (BECKERT, 1999, p. 783). Quanto maior o grau de institucionalização, então,
potencialmente maiores serão os benefícios inerentes à agência e ao desvio. Ao criar as
condições para a ação estratégica, as instituições fomentam os mecanismos que ensejam a
desestabilização e a mudança nos campos, em um processo permanente e contraditório
(BECKERT, 1999).
As relações de poder entre atores fazem parte e estão imbricadas (embedded)
com a estrutura do campo, também no que diz respeito aos recursos disponíveis para cada
agente (HARDY; MAGUIRE, 2008). “Os campos organizacionais são compostos por es-
truturas específicas de redes sociais163
que criam diferenças de poder entre [os atores] e
162 Em termos genéricos, as etapas da institucionalização são: (i) o rápido crescimento das interações entre os
atores do campo; (ii) a emergência de estruturas de dominação interorganizacional e padrões de coalizão; (iii) o aumento do volume de informação sobre a qual os agentes decidem; e (iv) o desenvolvimento de padrões
específicos e estáveis de interação (DIMAGGIO; POWELL, 1983). 163 As redes sociais são compostas de grupos de indivíduos ou organizações interconectadas por alguma forma
de interdependência. O conceito de rede está associado à ideia durkheimiana de que a identidade e o compor-
tamento são moldados pela posição social.
130
hierarquias de posições” (BECKERT, 2010, p. 609). São as posições dos agentes na hierar-
quia que determinam o poder de que disporão e as oportunidades a que terão acesso. Nesse
sentido, o poder não é um atributo individual, mas das posições que ocupam na estrutura do
campo.
O poder relativo dos agentes é, dessa forma, definido pelo arranjo institucional
e das redes sociais, que estimulam certos comportamentos ou interpretações e desestimulam
outros. “As instituições em cada campo organizacional são únicas e estão imbricadas com
as relações de poder entre grupos” (FLIGSTEIN, 2001b, p. 109). Note-se que poder, nessa
acepção, vai além da simples capacidade de coerção: envolve também a habilidade de defi-
nir as percepções e os interesses dos outros, inclusive sobre o que é considerado “racional”
(DOBBIN, 2004). Nas interações dentro de um campo organizacional, os grupos que ocu-
pam as posições que dispõem de mais poder – os incumbentes164
– “se valem das regras
culturais aceitáveis para reproduzir o seu poder [...] esse processo torna a ação nos campos
[organizacionais] continuamente conflituosa e inerentemente política” (FLIGSTEIN,
2001a, p. 15). A despeito da proeminência dos interesses dos atores poderosos, os campos
oferecem benefícios para os menos poderosos – os desafiantes – na medida em que estes
consigam garantir sua sobrevivência, ainda que com um nível restrito de recursos (FLIGS-
TEIN, 2001b). A teoria dos campos organizacionais tem como um de seus objetivos justa-
mente compreender como, por meio da ação estratégica, em um sentido fraco, esses espa-
ços sociais podem tornar-se e manter-se estáveis, apesar da persistência dos conflitos e da
heterogeneidade (FLIGSTEIN, 1997; POWELL, 1991).
Todas as ações dentro do campo organizacional envolvem interação. Portanto, o
processo econômico é, simultaneamente, “restrito e suportado por redes definidas com base
em padrões recorrentes de interação [social] entre os agentes” (ARTHUR; DURLAUF;
LANE, 1997, p. 6). Ao “absorverem” os indivíduos, as “redes sociais [se tornam] as porta-
doras das novas práticas econômicas e das novas ideias [inclusive] sobre o que significa ser
164 Incumbentes, na perspectiva institucional, são os atores que mais se beneficiam do arranjo do institucional
vigente e detêm poder suficiente para sua reprodução nesse papel (FLIGSTEIN, 2001a). Os atores que, por
oposição, menos se beneficiam do status quo são denominados desafiantes. Essa é o modo mais elementar de
representação do conflito imanente às estruturas sociais.
131
racional e eficiente” (DOBBIN, 2004, p. 5), relativizando o papel da agência em sua forma
mais forte – como na teoria dos jogos.
A seguir, dois desdobramentos da perspectiva institucional proposta são deta-
lhados, dada sua relevância para o caso empírico em questão.
2.4.3.1. Mercados como campos organizacionais
Conforme lembra Powell (1991), é frequente na literatura empírica a oposição
entre os setores baseados em mercados e os institucionalizados, no sentido de que os últi-
mos seriam menos propícios ao processo competitivo. Mas, como reforça esse autor, os
mecanismos de competição e institucionalização não são necessariamente excludentes. É
comum, ainda, a percepção de que o espaço dos processos institucionais esteja no âmbito
da sociedade – regional, nacional ou mesmo global. Porém, segundo DiMaggio e Powell
(1991), nas sociedades contemporâneas, cada setor industrial é um campo privilegiado para
a dinâmica da institucionalização.
Mercados são elementos constitutivos da modernidade capitalista (POLANYI,
1944; TORDJMAN, 2004; HODGSON, 2008). Os mercados contemporâneos podem ser
genericamente definidos como campos organizacionais criados para a produção e a venda
de bens e serviços – os produtos – em volumes significativos, por múltiplos atores hetero-
gêneos e com interesses particulares, como transações voluntárias, repetidas, competitivas e
estruturadas (CORIAT; WEINSTEIN, 2005; BECKERT, 2010). Por estruturadas, compre-
ende-se que essas transações ocorrem dentro de arranjos institucionais específicos, formais
e informais, que as organizam (FLIGSTEIN; DAUSTER, 2007). Os mercados são, por con-
seguinte, instituições em si, no sentido de representarem regras e práticas mentais e com-
portamentais compartilhadas, que viabilizam e regulam as transações recorrentes165
(HOD-
GSON, 2008).
Para Coriat e Weinstein (2005), a teoria dos campos organizacionais fornece
uma alternativa analítica interessante para o estudo dos mercados. Nesse caso, a contribui-
ção essencial é a incorporação das estruturas institucionais, em adição ao mecanismo de
preços, na organização dos mercados, em um quadro teórico integrado. Segundo Gibbons
165 Outras formas de mercado, talvez menos estruturadas ou institucionalizadas, existiram e continuarão a
existir, em circunstâncias históricas específicas e periféricas ao modelo capitalista contemporâneo.
132
(1992), a interpretação do mercado como campo organizacional é consistente com o con-
ceito de mercado de produtores normalmente adotado pela economia industrial tradicional,
aproximando as perspectivas da economia e dos estudos organizacionais. O campo organi-
zacional de um mercado particular é composto pelas firmas que produzem produtos ou ser-
viços similares, seus fornecedores mais importantes, os usuários e as agências governamen-
tais pertinentes (DIMAGGIO; POWELL, 1983). Essa abordagem se aproxima daquela dos
sistemas setoriais de inovação e produção (MALERBA, 2002), descrita no Capítulo 1.
No tratamento usual da economia neoclássica (EN), o funcionamento dos mer-
cados se daria de modo “natural” e desinstitucionalizado, operando de forma autorregulada
e autoequilibrada (CORIAT; WEINSTEIN, 2005; HODGSON, 2008). Entretanto, nas pa-
lavras de DiMaggio e Powell (1983, p. 150), “as firmas não competem apenas por recursos
e clientes, mas por poder político e legitimidade institucional, por aptidão social bem como
econômica”. A concorrência, em mercados estabilizados ou não, tem reflexos importantes
na organização interna e externa das empresas.166
Logo, a posição de uma firma em relação
às outras, dentro da estrutura social do campo, tem influência marcante nos seus resultados
econômicos. Por isso, a infraestrutura institucional requerida para a operação dos mercados
não pode ser simplificada, como frequentemente faz a EN, a uma soma de relações bilate-
rais (CORIAT; WEINSTEIN, 2005). Uma representação mais fiel dos mercados, argumen-
tam Hodgson (1998, 2008) e Orléan (2004), necessita trazer para a discussão o reconheci-
mento de outros mecanismos, além do sistema de preços. Não se trata simplesmente de
substituir o foco na otimização econômica pelo das forças sociais em ação.
Nessa linha, um arranjo institucional razoavelmente complexo é necessário para
o desenvolvimento dos mercados capitalistas, ou seja, os agentes dependem de relações
sociais minimamente estruturadas, baseadas em confiança e poder, para transacionar. Por
isso, “os atores do mercado desenvolvem estruturas sociais para mediar os problemas que
eles encontram na troca, competição e produção” (FLIGSTEIN; DAUTER, 2007, p. 114).
Além das instituições, as redes sociais que os agentes criam durante esse processo têm um
papel essencial na geração da confiança necessária entre os principais indivíduos envolvi-
166 Os dois elementos centrais da organização das firmas são: (i) suas estratégias, ou os meios que utilizam
para alcançar seus objetivos; e (ii) sua estrutura, ou a forma com que se organiza internamente (divisões, hie-
rarquias etc.).
133
dos – empreendedores, administradores, trabalhadores, consumidores, firmas e governos
(GRANOVETTER, 1985).
Tampouco cabe, nessa perspectiva, a oposição conceitual entre firma e merca-
do, enquanto espaços de otimização de custos de transação, ao contrário do que propõe o
NIE, em função da intrincada condição de interdependência e complementaridade entre um
e outro (CORIAT; WEINSTEIN, 2005). Assim, empresas podem eventualmente sobreviver
mesmo com ineficiência evidente, situação que, do ponto de vista estritamente técnico, de-
veria causar sua extinção. Isso não significa, entretanto, que considerações sobre desempe-
nho e eficiência sejam irrelevantes, mas apenas que são somente algumas das variáveis que
determinam a reprodução das organizações (POWELL, 1991). Na ordem produzida pela
estrutura social dos mercados, a definição sobre o que é “eficiente”, ou não, é gerada endó-
gena e localmente em cada mercado. A estrutura social torna disponível para os atores que
participam do mercado – produtores e consumidores em particular – mais informação do
que simplesmente preços, além de fornecer instrumentos cognitivos para selecionar, orga-
nizar e interpretar essas informações. A informação adicional, entre outras coisas, permite a
construção de redes de relacionamento e a redução da dependência dos agentes menos po-
derosos. Por outro lado, essa estrutura pode ser utilizada para mitigar os efeitos da competi-
ção, ao facilitar para as firmas poderosas a hierarquização das relações e a mobilização dos
recursos diferenciados de que dispõem (FLIGSTEIN; DAUTER, 2007).
Granovetter (1985) argumenta que, pelos motivos apontados, a interação eco-
nômica dos agentes no mercado obrigatoriamente precisa se basear nas estruturas das rela-
ções sociais subjacentes a ele, caracterizando o que denominou de “embeddedness of mar-
kets” – ou a imbricação dos mercados nas relações sociais. Os mercados, apesar de não
fazerem parte da esfera cultural, são diretamente influenciados pela cultura e pelas redes de
interações sociais. A estabilidade dessas relações, ao longo do tempo, aumenta a confiança
dos atores de que os compromissos assumidos durante as transações mercantis serão cum-
pridos, permitindo que os mercados se desenvolvam. A questão da confiança, nesse caso,
não se limita às ponderações sobre a duração das relações; é determinada também pelas
questões de poder e dependência mútua (FLIGSTEIN; DAUTER, 2007).
134
Ainda que importante, a dimensão da competição não é a única que estrutura o
campo mercado. Os relacionamentos das firmas a montante, com fornecedores, e a jusante,
com consumidores, compõem a hierarquia do campo. As relações sociais no mercado são
influenciadas pelo poder relativo entre os atores e as dependências mútuas167
que estes es-
tabelecem entre si. Ao assumir a premissa de que, em qualquer troca mercantil, uma das
partes pode depender mais da outra do que o contrário – por exemplo, na relação entre mui-
tos fornecedores e poucos consumidores –, criam-se as condições para que o ator dependen-
te seja obrigado a se conformar às determinações do dominante. Ou, simplesmente, correr o
risco de não sobreviver nesse mercado. Esse tipo de dominação é conhecido como “resour-
ce dependence”. As redes de relacionamento entre fornecedores e entre consumidores168
surgem justamente para controlar a resource dependence e aumentar a chance de sobrevi-
vência dos indivíduos mais fracos, sem, no entanto, neutralizar totalmente o poder dos in-
cumbentes (FLIGSTEIN; DAUTER, 2007).
A inovação tecnológica, tampouco, é independente dos arranjos sociais e insti-
tucionais: para que ela aja como dinamizadora dos mercados, é necessário, antes, que a
organização social a torne relevante (FLIGSTEIN, 2001a). A percepção sobre o impacto da
inovação, por exemplo, não é inequívoca para os consumidores, em função da influência de
entendimentos compartilhados socialmente na avaliação sobre “o que é mais eficiente”, ou
mesmo a respeito de “qual é a utilidade desse produto”. A simples eficiência produtiva po-
de ser pouco importante para a sobrevivência das firmas competidoras nessas circunstân-
cias; questões nas esferas política e institucional frequentemente podem ser mais significa-
tivos (POWELL, 1991), como a influência de leis, regras e outras concepções compartilha-
das, sem subestimar a importância do Estado como agente (FLIGSTEIN, 2001a).169
167 A relação produtor-consumidor é mediada pela cultura na qual está imersa: significados compartilhados
sobre os produtos, seus usos, sua legitimidade. “Produtos são objetos culturais imbuídos com significado
baseado em conhecimento compartilhado e são eles mesmos símbolos ou representações desses significados”
(FLIGSTEIN; DAUTER, 2007, p. 116). 168 O problema de enquadrar cognitivamente os produtos é essencial para os produtores, para que suas merca-dorias não sejam apenas “úteis”, mas também alinhadas com os valores dos consumidores, pois o sucesso dos
produtos no mercado está, frequentemente, associado ao alinhamento cognitivo entre produtores e consumi-
dores (BECKERT, 2010). 169 Dentro do mesmo recorte teórico, as questões de dinâmica institucional, poder setorial e o Estado como
agente foram aprofundadas em Pereira (2014c).
135
2.4.3.2. Instituições definidoras de bens, de serviços e de qualidade
A teoria neoclássica usualmente adota, em particular nos seus modelos mais ri-
gorosos, a hipótese de nomenclatura (BENETTI; CARTELIER, 1980). Isso significa que
os consumidores devem ser capazes de definir, completamente e a priori, o conjunto de
bens e serviços que desejam consumir – independentemente de qualquer processo intra ou
extramercado. No que toca à qualidade dos produtos elencados, essa classe de modelos
assume ou a premissa de homogeneidade dos produtos – equivalente à disponibilidade de
informação completa para os consumidores – ou de diferenciação “bem comportada” – o
viés nas preferências introduzido pela informação incompleta não produz erros sistemáticos
na escolha ótima.170
Em outras palavras, assume-se que todos os agentes possuem a mesma
representação da economia. Ou, pelo menos, que eles não se desviam sistematicamente da
“representação verdadeira” (ORLÉAN, 2003).
A questão sobre como definir a qualidade raramente é abordada. A incer-
teza, a fonte dos distúrbios [nesse processo], é vista como o resultado de
uma falta de informação. As “verdadeiras” qualidades dos bens estão cla-ramente definidas, de forma exógena, como se estivessem estampadas nos
produtos [EYMARD-DUVERNAY, 1989, p. 332].
No entanto, pelo menos duas das vertentes institucionalistas (a EC e a NIO)
propõem uma visão alternativa sobre o processo pelo qual os consumidores formam suas
preferências, refutando a hipótese implícita de objetividade das mercadorias (EYMARD-
DUVERNAY, 1989, 2003; ORLÉAN, 1991, 2003; BECKERT, 2003, 2009).
Mercados não são definidos apenas pelas transações de bens e serviços, mas são
também caracterizados pela competição. Portanto, a existência de um mercado requer a
presença de, no mínimo, três agentes: dois ofertantes de algum produto potencialmente he-
terogêneo e um consumidor apto a comparar as ofertas desses ofertantes. Logo, além dos
indivíduos e dos produtos, um mercado para existir pressupõe a disponibilidade dessa apti-
dão especial do consumidor, algo exógeno à transação em si171
(EYMARD-DUVERNAY,
1989; BECKERT, 2009). Nesse cenário, a importância do mecanismo de preços surge tão
170 Sem essas premissas, o mecanismo concorrencial neoclássico deixa de produzir alocações que sejam óti-
mos de Pareto, com consequências importantes sobre o teorema do bem-estar (STIGLITZ, 1987a). 171 Mesmo no caso de produtos homogêneos, o consumidor precisa estar apto a confirmar a homogeneidade
dos produtos efetivamente ofertados.
136
somente após o estabelecimento de procedimentos para avaliar a qualidade de bens e servi-
ços ofertados.172
Segundo Orléan (2003), não é razoável supor que o processo de escolha dos
consumidores, pelos produtos que são transacionados nos mercados, seja puramente objeti-
vo e desvinculado do campo no qual o mercado está incrustrado (embedded). Assim, antes
de tornarem-se evidentes para o consumidor, os critérios para a avaliação dos atributos de
qualidade de um bem ou serviço dependem de um processo prévio de adesão social, mini-
mamente generalizada, a um conjunto de regras, valores ou representações comuns (EY-
MARD-DUVERNAY, 1989). O ponto é que, para poder elencar e ordenar preferências,
primeiro o consumidor necessita reconhecer e aceitar o “artefato” que está sendo ofereci-
do, ou seja, considerá-lo como algo que tem valor para ser transacionado, para depois poder
avaliá-lo (BECKERT, 2009). Nos termos da discussão anterior, trata-se da necessidade
prévia da institucionalização de critérios para a definição do valor e da qualidade do produ-
to ofertado.173
[A] questão da funcionalidade e conveniência de produtos e serviços para a coordenação dos processos econômicos [...] chama a atenção para a ne-
cessidade de correspondência mútua entre os atores na interpretação de
objetos ou situações sociais como condição prévia para o funcionamento
dos mercados. Uma inovação só se torna uma inovação por meio do reco-nhecimento intersubjetivo que as características do objeto são de fato uma
inovação [BECKERT, 2003, p. 778].
A inovação de produto, no sentido schumpeteriano de algo que oferece novas
combinações e possibilidades – antes indisponíveis ou mesmo inimagináveis para os con-
sumidores dos bens e serviços existentes – representa um caso evidente da importância des-
sas instituições particulares. Instituições definidoras de qualidade suportam o consumidor
na tarefa de atribuição de utilidade e qualidade ao novo produto, pelo aprendizado coletivo
que é frequentemente necessário para dotar o consumidor das capacidades cognitivas re-
172 Essa situação foi tratada, formalmente, pelo trabalho clássico de Akerlof (1970), sobre o mercado de carros
usados. Entretanto, esse autor não colocou ênfase na compreensão dos processos que impossibilitaram a
“adequada” organização desse mercado. Ele focou a análise no resultado da inadequação institucional, ou
seja, na indisponibilidade de informação para os consumidores avaliarem a qualidade dos produtos. 173 Um exemplo anedótico desse ponto seria a oferta em uma sociedade atrasada de produtos tecnologicamen-
te sofisticados. Diversos desses artefatos seriam provavelmente úteis – ou mesmo radicalmente importantes –
para indivíduos nessa sociedade (máquinas, ferramentas, instrumentos etc.). Porém, a maioria desses artefatos
possivelmente não seria valorizada. Isso porque, na maior parte dos casos, os consumidores não estariam
“prontos” (cognitiva e socialmente) para utilizá-los, ou mesmo para avaliar sua eventual utilidade.
137
queridas para a avaliação (como discutido na Seção 2.3.3). Sem isso, a incerteza sobre o
valor da inovação pode se tornar elevada demais para o consumidor, situação na qual a
transação mercantil tipicamente não se materializa, a despeito de considerações, forçosa-
mente ex post, sobre preços e benefícios (BECKERT, 2009). Ou seja, a estruturação de
mercados para as inovações – a difusão – pressupõe um processo social intenso de defini-
ção e classificação desses artefatos, pelo compartilhamento entre os participantes de regras,
valores e representações que permitam a apreensão de seus atributos de qualidade (objeti-
vos e subjetivos) (ORLÉAN, 1991).
É importante notar que os problemas causados por deficiências nas instituições
definidoras da qualidade vão além da simples ausência, incompletude ou assimetria de in-
formações (EYMARD-DUVERNAY, 2003). Isso porque elas fornecem aos agentes, além
da questão puramente informacional, instrumentos para dar sentido às informações dispo-
níveis, bem como para interpretar e prever os comportamentos dos demais membros do
mercado (ORLÉAN, 1991). “Interações estratégicas assumem um entendimento intersubje-
tivo de sinais, como o que constitui uma ameaça, uma oferta, ou um acordo” (BECKERT,
2003, p. 778). Sem esse entendimento prévio as transações tornam-se menos prováveis,
dados os riscos aumentados que as partes teriam que assumir. Isso é relevante nos mercados
de bens e, particularmente, crítico nos de serviços, nas situações em que a qualidade não é
completamente definível a priori, dependendo de interações interpessoais para a materiali-
zação a posteriori do objeto da transação.
Por fim, deve-se ressaltar que a estabilidade de instituições definidoras da qua-
lidade está sujeita a movimentos constantes, conforme os atores alteram seus julgamentos
anteriores, a partir da introdução de novos produtos ou da reavaliação dos existentes
(CALLON; MÉADEL; RABEHARISOA, 2002). A evidência empírica, entretanto, mostra
que essa dinâmica não conduz necessariamente para trajetórias ótimas, no sentido de definir
uma ordem de valores que seja Pareto-eficiente (BECKERT, 2009). Isso significa que cer-
tas categorias de produtos, avaliadas por meio de instituições construídas em contextos so-
cioculturais específicos, são transacionadas em mercados nos quais os mecanismos de efi-
ciência da economia neoclássica não operam. Nesses casos, ainda, redes sociais são fre-
138
quentemente fontes importantes de convenções (de atribuição de valor) para os consumido-
res (DIMAGGIO; LOUCH, 1998).174
2.4.3.3. Redes sociais e comportamento do consumidor
Em áreas que vão da economia à antropologia, naturalmente passando pelo
marketing e sociologia, a influência das redes sociais nas decisões dos consumidores é am-
plamente reconhecida, tanto na perspectiva teórica como na empírica. Desde muito tempo,
a maioria dos estudiosos de marketing concorda sobre a importância do fenômeno do “bo-
ca-a-boca” (“word-of-mouth” – WOM) nos mercados.175
Na economia, no entanto, é um
assunto de interesse mais recente, mas crescente (ver, por exemplo, CAMPBELL, 2013).
As redes sociais são um ambiente adequado para o estudo do WOM, tanto no processo de
decisão do consumidor como na dinâmica de “contágio” (DOYLE, 2007; KOZINETS et
al., 2010).
Como precursor de autores do NIO, Granovetter (1985; 2005) produziu alguns
trabalhos seminais, nos quais ele percebeu a importância dos laços sociais (fortes e fracos)
entre os indivíduos para a tomada de decisões. Esse é um elemento essencial da sua célebre
hipótese sobre a necessidade lógica do encastramento (embeddedness) dos mercados dentro
da estrutura social. A ideia básica é que a ação econômica de agentes socializados não pode
ser compreendida considerando apenas sua dimensão atomizada (o homo economicus ma-
ximizador da utilidade) e negligenciando as “estruturas contínuas das relações sociais” de
que fazem parte. Em consequência, “um relato sofisticado da ação econômica deve consi-
derar sua imersão nessas estruturas” (GRANOVETTER, 1985, p. 481). Segundo o autor, as
estruturas representadas pelas redes de relações interpessoais construídas pelos indivíduos
desempenham um papel relevante na formação do comportamento e influenciam as deci-
sões econômicas, em paralelo com considerações puramente individuais. Nessas circuns-
tâncias, as redes sociais têm uma influência não periférica sobre os processos de mercado,
tanto no lado da oferta como no da demanda.
174 Bens e serviços com capacidade de sinalizar o status social do seu proprietário/usuário são o exemplo mais frequente. Entretanto, não são os únicos e, talvez, sequer os mais importantes. De fato, qualquer produto que
não possa ser – ou, por qualquer motivo, não seja – objetivamente avaliado pelos consumidores, ainda que ex
post, apresentará característica semelhante. 175 A revisão dessa literatura está fora do nosso escopo; Kozinets et al. (2010) e Duhan (1997) fornecem vi-
sões gerais sobre o tema da perspectiva do marketing, em princípio compatível com a narrativa institucional.
139
Outros autores, como Powell (1990; 2004) e Saviotti (2007; 2009), ampliaram o
quadro teórico sobre como as redes influenciam a vida econômica, para incluir dimensões
como as organizações e o conhecimento. Em particular, a pesquisa sobre as formas de or-
ganização em rede social e o seu papel na difusão do conhecimento – não restrita a fluxos
de informação – é relevante aqui. As estruturas de correlação que compõem as redes sociais
organizam, simultaneamente, os padrões de comunicação e o intercâmbio entre os indiví-
duos, representando frequentemente uma força importante para a explicação dos fenômenos
econômicos, incluindo os processos de mercado (POWELL, 1990). As redes oferecem al-
gum nível de organização para partes do mercado que estão “desconectadas”. Isso é espera-
do mesmo quando essas redes são heterogêneas, em termos de como as conexões são esta-
belecidas e mobilizadas e de como se dão as ligações entre os seus vários níveis (PO-
WELL; SMITH-DOERR, 2004).
Um aspecto fundamental da influência das redes nos mercados é a maneira co-
mo elas moldam os fluxos de conhecimento, incluindo os de informações. Isso é relevante
por conta do caráter local do conhecimento (cf. Seção 2.3.3), originado pela inviabilidade
prática de redes totalmente conectadas, o que geralmente define limites importantes para a
difusão de informação (YOUNG, 2002). Por sua vez, essa limitação deve-se à dinâmica
própria das redes sociais (nas quais os nós são tipicamente criados mais rapidamente do que
as ligações) e à restrição da quantidade de correlações que podem ser estabelecidos pelos
agentes entre as variáveis relevantes e suas faixas de valores (SAVIOTTI, 2007). Se isso
for verdadeiro, parece razoável supor que as redes ofereçam algum nível de estrutura para o
sistema econômico. Além disso, quando ocorrem alterações nessa estrutura de rede subja-
cente, é provável que o sistema torne-se instável e, até, sofra uma transição de estado. O
princípio é que “a adaptação coletiva envolve coordenação das ações dos indivíduos, resul-
tando em uma queda no número de graus de liberdade [que] de outra forma [seria] disponí-
vel para os indivíduos” (SAVIOTTI, 2009, p. 21). Assim, o comportamento individual, em
certa medida, pode ser restringido pela rede social na qual está inserido (embedded), o que,
por sua vez, torna qualquer interpretação atomística provavelmente enganosa.
As obras teóricas sobre o entrelaçamento de redes sociais complexas e compor-
tamento econômico pavimentaram o caminho para uma ampla vertente de pesquisa empíri-
140
ca no tema. Do lado do WOM, existe literatura consolidada que mostra a relevância da con-
fiabilidade das fontes de informação – e, portanto, da proximidade social e da força dos
laços – tanto para o processo de decisório do consumidor como para a difusão da adoção de
novos produtos (DE MATOS; ROSSI, 2008; MARTIN; LUEG, 2013).
2.4.4. Limitações da análise institucional e complementaridade com TE
“Campos [organizacionais] tecnológicos representam padrões contínuos de re-
lacionamentos entre entidades heterogêneas que incluem objetos e atores” (GARUD;
KARNØE, 2001, p. 9, grifo nosso). Apesar de pouco exploradas na bibliografia institucio-
nalista, as instituições tecnológicas, e sua evolução, constituem-se em importante vetor de
dinâmica nos mercados, conforme aponta a vasta literatura do tema (DOSI; NELSON,
1994; NELSON, 1995, STORPER; SALAIS, 1997; DOSI; ORSENIGO; LABINI, 2005).
Como afirma Benner (2007, p. 110), “descontinuidades tecnológicas frequentemente cau-
sam disrupção nas formas taken-for-granted de realizar lucros em uma indústria e introdu-
zem novos competidores vindos de outras indústrias”.
O campo organizacional é, afinal, o resultado da inter-relação dos processos so-
ciais e técnicos. Por isso, os autores da linha performático-institucional criticam a usual
negligência da interação entre a atividade econômica e os processos de desenvolvimento
científico e tecnológico. Essa interação introduz uma nova fonte de dinamismo cultural nas
instituições dos mercados e reforça o papel da inovação tecnológica nessa dinâmica
(FLIGSTEIN; DAUTER, 2007).
A vinculação entre os processos de busca e exploração da tecnologia em
mercados novos e os problemas de resource dependence, competição, tro-
ca mercantil e legitimidade será provavelmente uma direção de pesquisa frutífera [p. 119].
Desse modo, a integração entre as abordagens institucional e evolucionária na
avaliação da estrutura de mercados e setores específicos parece um esforço analítico coe-
rente e relevante. Como argumenta a escola neoschumpeteriana, o desenvolvimento tecno-
lógico é o fator crítico de diferenciação entre os atores do campo-mercado, o que, por sua
vez, acarreta importantes desdobramentos nos comportamentos e as redes de relacionamen-
to que são estabelecidas nesse campo (ROSENKOPF; TUSHMAN, 1998).
141
Segundo Powell (1991, p. 184), “as organizações diferem na medida na qual
seu sucesso depende da solução de problemas técnicos ou do enfrentamento de demandas
institucionais”. Mas, argumentam Nelson e Winter (2007, p. 6), “entre as instituições, as
[mais] relevantes são aquelas que afetam a capacidade das empresas para capturar os resul-
tados das suas inovações”. Essa dupla perspectiva define como as firmas se articulam inter-
na e externamente: na dimensão tecnoeconômica, quando o retorno é a questão central, e no
plano institucional, em que a adequação na maneira de agir e de se organizar é o quesito
crítico. No entanto, como ressaltam esses autores, as organizações do mundo real não são
dicotômicas, técnicas ou institucionais, mas uma composição de ambas. A separação entre
os processos, entretanto, não é trivial, sua avaliação conjunta é essencial para a apreensão
do movimento complexo dentro dos mercados.
A estratégia dos atores, em campos tecnológicos, toma frequentemente a forma
de “bricolagem”, no sentido dado por Giddens (1984 apud GARUD; KARNØE, 2001). Ou,
alternativamente, de “visões de mundo” criadas pelos próprios, na acepção da EC. Isso se
dá por meio de negociação local entre os agentes, sob a influência da estrutura institucional
e das conexões sociais, em que são constantemente testados novos arranjos, mesmo quando
a existência dos atuais é justificada por demandas globais. O conceito de bricolagem parte
da premissa de certo nível de improvisação e experimentação dos arranjos sociais e dos
recursos disponíveis (SCOTT, 2001), em acordo com o significado original empregado por
Levi-Strauss para o termo, mas também compatível com as características idiossincráticas
da busca inovadora schumpeteriana (DOSI, 1982). Pela bricolagem, a evolução do campo
tecnológico176
pode ser compreendida como um processo emergente, baseado na interação,
apreendido apenas globalmente dentro do campo (KARNØE, 1996 apud GARUD; KAR-
NØE, 2001), conduzindo ao estabelecimento de um paradigma tecnológico compartilhado
entre eles, com base em mecanismo do tipo downward causation.
Ambos os processos, tecnológico e social, têm natureza evolucionária, no senti-
do de que a mudança envolve tentativas, erros e aprendizado, ao longo de trajetórias path
dependent dentro do tempo histórico (NELSON; WINTER, 1982/2005; HODGSON, 1988;
176 A organização do campo organizacional, formado pelo complexo das firmas, sociedades profissionais,
universidades e estruturas legais e regulatórias, é de certo modo similar ao conceito de regime tecnológico na
literatura evolucionária neoschumpeteriana (DOSI, 1982; DOSI; NELSON, 1994).
142
STORPER; SALAIS, 1997). O mercado, nessa perspectiva, representa “tecnologias soci-
ais” específicas que, simultaneamente, habilitam e restringem a inovação (POWELL,
1991). É nele que a qualidade dos produtos é constantemente avaliada e sua sobrevivência
definida, por meio de uma série de processos econômicos e sociais, irredutíveis à simples
coordenação entre quantidades e preços (JAGD, 2007). Eles, por sua vez, conformam o
modo pelo qual as tecnologias físicas contribuem para a dinâmica dos próprios mercados.
Na realidade, grandes sistemas técnicos que parecem ser autônomos ad-
quiriram um elevado nível de momento. O conceito de momento não ape-nas apoia a ideia de que a tecnologia é moldada pelas — e formata as —
instituições sociais; ele captura os fatores estruturais e eventos contingen-
tes que influenciam o desenvolvimento dos sistemas [DAVIES, 1996, p. 1149].
No entanto, “no mundo de hoje, as tecnologias que estão provando serem as
mais difíceis de avançar muito frequentemente possuem um grande componente social e
um papel limitado de [componente tecnológico] físico” (NELSON, 2005a, p. 207). Em vir-
tude dos diferentes processos de busca, invenção e desenvolvimento da tecnologia social,
seu avanço costuma dar-se em ritmo menor do que o da inovação na tecnologia física. Isso
tem consequências importantes no avanço destas tecnologias, uma vez que elas se tornam
crescentemente dependente das sociais. Todavia, o problema de avaliar tecnologias sociais
– como aquelas que suportam os mercados – envolve a questão da ideologia, sobre o que é
apropriado ou efetivo, quando as decisões são coletivas e políticas (ibid.).
2.4.5. O setor de internet na perspectiva institucional
Algumas das principais dimensões institucionais do setor da internet foram
apontadas na pesquisa empírica. Resta, portanto, aprofundar a compreensão dos mecanis-
mos de atuação da infraestrutura institucional sobre a organização e a dinâmica setorial, em
particular nas situações, já identificadas, em que as outras interpretações teóricas não foram
completamente satisfatórias.
Uma das construções institucionais críticas para a trajetória histórica da internet
foram as redes sociais e as organizações estabelecidas para a sua governança.177
Ao estrutu-
177 No sistema setorial de internet, parcela relevante das atribuições de padronização e regulação foi assumida,
mundial e nacionalmente, por organizações não governamentais com características quase públicas (MO-
143
rar as relações entre os agentes setoriais, em um ambiente sem paradigmas tecnológicos
estabelecidos, essas instituições reduziram as significativas incertezas e permitiram o de-
senvolvimento, tecnológico e comercial, em velocidade e em trajetórias provavelmente
distintas daquelas que se dariam apenas pela ação dos mecanismos tradicionais de mercado.
Em uma primeira aproximação, a construção das organizações de governança
da internet aproximou-se do jogo clássico de coordenação entre agentes maximizadores,
que barganham para definir regras institucionais normativas em seu próprio benefício. Isso
aconteceria pela escolha de um ponto de equilíbrio, entre as inúmeras soluções técnicas e
de governança que seriam possíveis para o novo setor, como resultado endógeno do proces-
so social de convergência para o equilíbrio, uma adaptação às condições materiais vigentes.
No entanto, essa leitura, usual no NIE, não é imune a críticas. Como é natural em campos
que estão nascendo, não existia, ex ante, uma definição clara sobre quais eram as “regras do
jogo” aceitáveis – ou mesmo as “formas como o jogo é jogado” – entre as quais os atores
pudessem selecionar aquelas que “maximizassem” seus lucros. Até porque o arranjo insti-
tucional inovador que emergiu não refletiu, ex post, disposições vigorantes em nenhum dos
setores econômicos da época. Tampouco esse processo aconteceu apenas pela interação das
firmas interessadas. A participação dos usuários e do governo foi decisiva para as institui-
ções que foram gradualmente criadas pela intensa interação social que se verificou.
Muitas atividades e setores que geralmente são concebidos como regula-dos pelo mercado apresentam na verdade uma estrutura de governança
mista. [...] A internet [por exemplo] foi criada por meio de uma combina-
ção de esforços privados e públicos [NELSON, 2005a, p. 4].
O papel das instituições, no nível motivacional, foi importante para a orientação
que a internet tomou de princípio. A partir da combinação de aspirações extramercado dos
principais agentes, nesse momento as universidades – que necessitavam compartilhar os
poucos computadores existentes de forma econômica – e o governo americano – que dese-
java construir redes de comunicação que suportassem cataclismos como a guerra nuclear –,
foram produzidos e legitimados objetivos e incentivos que conduziram o setor durante seus
vinte primeiros anos. Isso foi especialmente crítico na formação de um campo tecnicamente
WERY; SIMCOE, 2002). Entre as mais relevantes estão: Internet Corporation for Assigned Names and Num-
bers (ICANN), Internet Society (ISOC) e Internet Engineering Task Force (IETF).
144
complexo, quando ainda não existiam paradigmas estabelecidos ou tecnologias que pudes-
sem ser adquiridas nos mercados. A coordenação entre os atores foi o meio encontrado por
eles, nesse ambiente simultaneamente muito incerto, mas com elevadas oportunidades tec-
nológicas, para perseguir esses desígnios.
Parte majoritária da inovação setorial é gerada de modo distribuído, em firmas
dispersas em cadeias produtivas longas e complexas, utilizando uma base de conhecimento
que é, em grande medida, compartilhada. Esse compartilhamento da informação tecnológi-
ca foi estimulado pela maneira relativamente aberta pelo qual a pesquisa tecnológica se deu
no setor desde o seu início.178
Ao concentrar o desenvolvimento das etapas conceituais e de
padronização das tecnologias em organizações profissionais abertas, a ação individual foi
desestimulada, em favor da coletiva, para parcela significativa da P&D da internet.179
Essa
é uma constatação algo surpreendente, especialmente quando contrastada com a realidade
de diversos outros setores, em que a base de conhecimento e o processo de P&D são consi-
derados questões estritamente confidenciais de cada empresa, em particular das maiores,
como importante elemento de diferenciação competitiva. Seja em na perspectiva da OIM
ou na da TE, esse comportamento pode parecer incompatível com as grandes firmas, que
contam com capacidade de P&D própria e que poderiam se beneficiar da maior apropriação
dos resultados dos seus investimentos, notadamente no período após a superação da fase de
enorme incerteza.180
Novamente a dimensão institucional parece ter sido determinante aqui. É razo-
ável supor que esse modo institucionalizado de tratar o desenvolvimento tecnológico foi
fortemente influenciado pelas características do campo organizacional durante sua origem.
Convenções naturais de um ambiente em princípio menos competitivo, a universidade, fo-
ram em parte recepcionadas pelo setor como um todo, mesmo depois que a participação de
firmas privadas – intensamente competitivas – tornou-se majoritária na P&D a partir dos
178 A complexidade da base de conhecimentos utilizada pelo setor, associada à incerteza associada ao seu
desenvolvimento e à velocidade do seu avanço, tornou impossível a tarefa de definição centralizada da traje-
tória tecnológica, nos moldes clássicos de setores como as telecomunicações ou a informática. 179 Apenas as etapas finais – e menos arriscadas – do processo tecnológico setorial, como as técnicas de fabri-
cação, teste e empacotamento, costumam ser desenvolvidas de forma mais individualizada. 180 Esse é o comportamento usual do setor de informática, por exemplo, em que as firmas líderes, quando as
tecnologias começam a amadurecer, frequentemente abandonam os fóruns de cooperação técnica e passam a
promover suas próprias soluções tecnológicas fechadas, na tentativa de estabelecer vantagens competitivas.
145
anos 1990. A justificação da manutenção desse tipo de arranjo convencional, no cenário
hodierno, certamente não pode ser derivada apenas da ação racional das empresas ou dos
mecanismos de mercado. Construções mentais compartilhadas entre os participantes – uma
“ordem de valor” –, que justificam as convenções vigentes, parecem ser melhores candida-
tas para essa finalidade. Aparentemente, está presente alguma consideração taken-for-
granted de que essa é a forma mais adequada para o avanço técnico setorial. Os processos
sociais, que permitiram o acelerado desenvolvimento tecnológico cooperativo, podem estar
restringindo a capacidade de diversos agentes de atuar de maneira puramente instrumental,
ainda que sem descaracterizá-los como entidades que buscam o lucro e a superação de seus
concorrentes.
A organização do mercado de serviço de acesso à internet no Brasil – e em ou-
tros países – também parece ter sido significativamente influenciada por processos institu-
cionais. A premissa aqui é de que estruturas institucionais específicas, historicamente de-
terminadas, sustentaram esse segmento relativamente “isolado” da dinâmica competitiva do
restante do setor. Especificamente, estruturas cognitivas e relacionais teriam sido “importa-
das” do campo organizacional da telefonia – a base humana e material do segmento – para
o novo campo. A despeito da profunda mudança organizacional e tecnológica, característi-
cas culturais e cognitivas distintivas dos grupos sociais que migraram para o setor aparen-
temente foram preservadas, ao menos durante um período razoavelmente longo.
As telecomunicações desenvolveram-se por mais de um século dentro de uma
lógica de coordenação monopolista, na qual a competição era cerceada por mecanismos
normativos estritamente institucionais – leis, regulamentos e práticas. As principais firmas
do mercado de acesso são provenientes dos antigos monopólios estatais e compostas, até
recentemente, de parcela significativa de indivíduos oriundos daquele período. A “cultura”
local, frequentemente internalizada por pessoas e organizações, pode não ter sofrido altera-
ções drásticas durante a migração para o novo campo organizacional, não obstante a mu-
dança ostensiva das formas de organização. Nossa hipótese é, portanto, de que “a antiga
maneira de fazer negócios”, especialmente no que diz respeito à estrutura hierárquica de
poder “herdada”, de algum modo foi reproduzida na lógica de coordenação competitiva que
se instalou no mercado de acesso.
146
Por que a eventual “herança” de parte da estrutura do campo das telecomunica-
ções, no caso do segmento de acesso, seria relevante na configuração de um setor novo e
dinâmico como a internet? Durante o centenário domínio dos monopólios de telefonia, re-
des sociais complexas e estáveis foram construídas, com tempo suficiente para que os pa-
péis dos atores pudessem ser bem definidos, estabelecidos e internalizados. Adicionalmen-
te, a interpenetração dessas firmas com diversas instâncias governamentais era comum – e
ainda o é em diversos países, inclusive o Brasil –, proporcionando grande capacidade de
influência política para os incumbentes.
[U]ma estrutura integrada como aquela existente no setor de telecomuni-
cações pode gerar assimetrias de poder e pode não ser a solução adequada
para o provimento da melhor combinação de serviços para os usuários fi-nais [CORROCHER, 2001, p. 14].
Em resumo, a visão de mundo dominante nas telecomunicações, historicamen-
te, colocava as firmas “provedoras de acesso” no topo de sua hierarquia. Com o surgimento
da internet, parece razoável supor que parte importante dessa configuração institucionaliza-
da pudesse ser transferida para o novo setor. As estratégias do passado provavelmente con-
tinuaram compondo o repertório das convenções consideradas adequadas no cenário da
internet – e não apenas pelos incumbentes. Os quadros cognitivos de “como as coisas fun-
cionam”, por suposto, não se alteraram imediatamente, tão somente pela mudança acelerada
da tecnologia. Isso ajudaria a explicar por que, até recentemente, os incumbentes comanda-
ram áreas críticas das redes de relacionamento, apesar de não mais deterem vantagens com-
parativas radicalmente diferenciadas ou outras capacidades – técnicas, organizacionais ou
financeiras – superiores.
Para realizar seu modelo preferido de evolução da rede, os interesses ino-
vadores novos [das firmas entrantes] terão que quebrar o momentum téc-nico, econômico e político do sistema existente. Caso contrário, alguma
versão do sistema hierárquico e centralizado vai prevalecer, projetando
para o futuro características técnicas e organizacionais adquiridas a partir dos anos 1880, quando as redes telefônicas nacionais foram criadas. Isso é
o que Hughes chama de “a persistência de características adquiridas em
um ambiente em mudança” (1987, p. 77) [DAVIES, 1996, p. 1174].
Exemplos de como o arranjo institucional específico do setor apoiou a estabili-
zação do mercado de acesso são abundantes na evidência empírica. Restrições injustifica-
das na alocação de recursos públicos (licenças, espectro etc.) foram frequentes, proporcio-
147
nando prioridade – na prática ou formalmente – para os incumbentes. Processos administra-
tivos complexos e morosos exigiram dos participantes no mercado elevado nível de conhe-
cimento particular – não técnico e de difícil reprodução – e aumentaram a percepção de
impotência dos entrantes. A coordenação tácita de preços e a retaliação sobre o comporta-
mento divergente foram de complexa caracterização e punição pelo regime antitruste esta-
belecido – pouco eficaz para serviços de prestação continuada. Lentidão e requisitos dis-
criminatórios para acesso a financiamento de longo prazo – em especial, nos bancos públi-
cos – foram incompatíveis com a dinâmica das firmas entrantes. Esse arranjo institucional,
majoritariamente informal, proporcionou o surgimento e a manutenção de assimetrias im-
portantes, que não eram diretamente calcadas em mecanismos econômicos em si, mas que
determinaram seu desempenho.
Porém, considerar que esse tipo de fenômeno possa restringir-se tão somente ao
lado da oferta pode deixar elementos essenciais fora da análise. Afinal, o nível elevado de
incerteza – ou ignorância –, que aparentemente foi decisivo na conformação do campo or-
ganizacional, do lado da oferta, também estava presente – e provavelmente ainda está – do
lado da demanda. Em particular, o “equivalente” da busca tecnológica para os consumido-
res – a formação de preferências sobre categorias de bens e serviços radicalmente novas –
está sujeito, qualitativamente, à mesma espécie de dificuldades, como discutido anterior-
mente. Portanto, é razoável supor que mecanismos sociais semelhantes àqueles mobilizados
no lado da oferta possam ter estado em ação no lado da demanda. Nesse caso, particular-
mente para a definição de critérios eficazes para a avaliação da qualidade das propostas de
serviço de acesso disponíveis.
2.5. Conclusão
O capítulo buscou avaliar as contribuições de diversas vertentes do pensamento
econômico, que pudessem ser utilizadas na construção de um quadro de referência teórico
para suportar a análise do setor de internet. Em retrospecto, quatro hipóteses teóricas prin-
cipais emergiram, como descrito a seguir.
A avaliação das propostas da organização industrial mainstream (OI) para o
tema em tela mostrou resultados apenas parcialmente satisfatórios. Em particular, no seg-
148
mento de acesso foi difícil articular alguns dos conceitos da OI para um mercado de presta-
ção de serviços com intensa inovação técnica. Entretanto, a hipótese de (1) correlação posi-
tiva entre economias de escala e concentração aparentemente é pertinente no caso concre-
to. Outro insight importante é a influência da interação estratégica entre entrantes e incum-
bentes no reforço das vantagens destes últimos, em função da provável presença de first-
mover advantages. A compreensão da inter-relação crítica entre preços e qualidade nos
serviços de redes de dados também pôde ser adequadamente representada pelo ferramental
neoclássico. Apesar de não dar conta, completamente, das intrincadas questões competiti-
vas setoriais, a perspectiva da OI é útil para o esclarecimento desses mecanismos específi-
cos.
A abordagem da teoria evolucionária neoschumpeteriana (TE) mostrou-se mais
adequada para caracterizar uma série de processos de um setor que é, por natureza, marcado
pela elevada dinâmica tecnológica. Os mecanismos de geração de diversidade e seleção
atuaram de forma decisiva desde o seu surgimento e, em princípio, foram determinantes da
trajetória histórica verificada pela pesquisa empírica. Portanto, a hipótese de que a (2) evo-
lução se deu pelos mecanismos de busca inovadora e de seleção sobre a variedade parece
bastante apropriada para o quadro analítico. Além disso, conforme argumentam os autores
evolucionários, as firmas plausivelmente não se guiaram apenas por critérios de maximiza-
ção convencionais, pelos quais a dinâmica e a organização setorial dificilmente teriam a
configuração experimentada na realidade. Isso reforça a importância da interação local e
não linear entre os agentes, conduzindo a trajetórias open-ended, repletas de path depen-
dencies e lock-ins, e justificando a característica intrinsecamente incognoscível, ex ante, do
processo evolucionário.
Todavia, alguns traços da competição no mercado de acesso não restaram to-
talmente esclarecidos como fenômenos de natureza evolucionária. A convivência, dentro do
setor da internet, de segmentos como o acesso, com baixa intensidade competitiva, com
outros muito mais dinâmicos, a despeito do intenso ritmo de inovação tecnológica em todos
eles, mostrou-se problemática para essa abordagem. A aplicação dos conceitos provenientes
de algumas vertentes institucionais (TI), particularmente daquelas oriundas da economia
149
das convenções francesa e dos estudos organizacionais, permitiu o estabelecimento de ou-
tras hipóteses para esclarecer os pontos não endereçados pela TE.
Nesse sentido, a hipótese de que (3) estruturas cognitivas compartilhadas con-
dicionaram as alternativas de comportamento no mercado, por meio de mecanismos insti-
tucionais não formais, revelou-se essencial para a compreensão dessas situações. Por outro
lado, a consideração da hipótese complementar, de que as (4) instituições e redes sociais
foram importantes na conformação endógena das preferências, colocou luz sobre a impor-
tância das relações interpessoais na formação dos recursos sociais e cognitivos necessários
para lidar com as inovações introduzidas pela internet.
Em resumo, o quadro proposto para a análise parte da premissa da organização
setorial em três esferas complementares. Assim, além da dinâmica evolucionária de nature-
za tecnológica, o mercado de acesso teria sido institucionalmente dominado por uma lógica
de estabilização da competição, operada pelas firmas incumbentes – e com o suporte invo-
luntário do Estado. Nesse caso, no qual parcela relevante da ênfase explanatória estaria no
uso do poder estabelecido pela hierarquia vigente, construída durante a etapa monopolista
(estatal), para a articulação de redes relacionais e instituições que suportassem um meca-
nismo concorrencial restritivo no novo setor, associado às vantagens já apontadas pela OI.
Logo, a estrutura de mercado anterior se reproduziria – parcialmente – à medida que as
antigas incumbentes de telefonia utilizassem esse poder para preservar tanto suas velhas
prerrogativas no novo mercado quanto as relações de dependência das firmas dos demais
segmentos setoriais, reduzindo eficazmente a pressão competitiva.
Adicionalmente, uma terceira esfera da competição parece presente: aquela gui-
ada pelos consumidores que, em princípio, se organizaram de forma mais complexa do que
o habitualmente suposto. Isso se daria a partir da ação dos consumidores dentro das redes
sociais de que fazem parte, como meio de atenuar a incerteza associada com o conjunto de
inovações radicais representadas pela internet. Essa articulação da demanda, pelas suas
características específicas, aparenta ter sido um dos fatores relevantes de conformação dos
segmentos industriais que compõem o setor, como está estabelecido para os segmentos de
equipamentos e sistemas. Mas pode também ter operado no mercado de acesso, hipótese
usualmente não considerada na compreensão desse segmento, pelo menos até o momento.
150
Por intermédio da TI, espera-se articular e mediar as relações inter e intragrupos
setoriais, aportando o papel dos elementos sociais para a análise: cultura, quadros cogniti-
vos compartilhados, redes sociais, poder e hierarquias. Essa conjugação permite que a tare-
fa analítica seja realizada de maneira estruturada, comportando a agregação da dinâmica de
segmentos distintos sem a necessidade de adoção de modelos “representativos” uniformes.
Por isso, um enfoque institucional, no recorte proposto, articula-se bem com a TE, em fun-
ção da complementaridade entre ambas (METCALFE; FONSECA; RAMLOGAN, 2002).
Porém, como lembram Dosi, Orsenigo e Labini (2005), essa articulação não é isenta de
riscos. Se, por um ângulo, ela supera uma perspectiva inocente de determinismo tecnológi-
co, frequentemente atribuída ao pensamento schumpeteriano, por outro, abre espaço para
formas radicais de construtivismo social.
[O] processo de acumulação de conhecimentos tecnológicos implica em
uma lógica e restrições internas [para seu desenvolvimento], as quais os estímulos sociais ou econômicos dificilmente podem superar, pelo menos
no curto prazo. Uma perspectiva coevolucionária, de fato, implica em uma
identificação meticulosa do entrelaçamento sutil entre “janelas de oportu-
nidade” para a ação social, de um lado, e restrições vinculantes herdadas da história e/ou de tecnologias disponíveis, de outro [ibid., p. 34].
A abordagem teórica com base em múltiplas perspectivas, como proposto nesta
tese, recebe algumas vezes a denominação de “eclética”, nem sempre com uma conotação
positiva. A crítica mais frequente ao “ecletismo” costuma estar associada à tentativa de
explicação de um fenômeno por diversas teorias, para posterior “consolidação” analítica
dos resultados. Pelo menos nessa interpretação, espera-se que tenha restado claro que não é
esse o objetivo do presente trabalho. Em particular, a articulação proposta entre as diferen-
tes vertentes visou tão somente dar conta de diferentes aspectos do fenômeno em estudo,
que não são adequadamente explicados por um único corpo teórico. Trata-se, portanto, da
organização do processo analítico de modo a que questões distintas da realidade concreta,
mesmo que compondo uma estrutura “meso” única, possam ser estudados com os instru-
mentos apropriados em cada caso específico.
A combinação proposta, de adotar uma perspectiva institucionalista integrada
com a teoria evolucionária neoschumpeteriana, é sugerida por diversos autores de ambas as
tradições (LOASBY, 1999; NELSON; SAMPAT, 2001; FLIGSTEIN; DAUTER, 2007;
151
SCOTT, 2008). A hipótese crítica por trás dessa concertação é que existem setores industri-
ais nos quais uma abordagem de “coevolução endógena”, de tecnologias e instituições, em
função da configuração do ambiente institucional, é mais apropriada para a compreensão de
sua dinâmica (DOSI; MARENGO, 2007). Nessas situações, premissas sobre instituições ou
mudança tecnológica exógenos – e relativamente estáticos – não seriam convenientes para a
avaliação, requerendo-se do pesquisador, consequentemente, a conjugação simultânea da TI
e da TE.
A análise conjunta de capacidades, regimes tecnológicos, demanda e insti-
tuições permitem uma análise sistemática dos efeitos dinâmicos dos prin-cipais fatores que afetam a inovação, a estrutura de mercado e a evolução
das indústrias [MALERBA, 2010, p. 25].
A adoção do ferramental analítico institucional na pesquisa econômica setorial
apresenta, contudo, algumas dificuldades. Existem divergências e incompatibilidades entre
as várias correntes teóricas institucionalistas, o que dificulta um tratamento homogêneo.
Apesar disso, a TI vem sendo aplicada com êxito em estudos empíricos sobre setores espe-
cíficos. A utilização da teoria institucional no quadro de referência empírica continua repre-
sentando um desafio, que se espera que tenha sido superado, pelo menos parcialmente, por
meio da construção de um “recorte” particular, mais uniforme, tentando agrupar alguns dos
elementos essenciais e compatíveis das vertentes institucionalistas selecionadas.
153
Capítulo 3: Metodologia e especificação do modelo
Os dois primeiros capítulos da tese apresentaram um conjunto de proposições
sobre a operação do setor de internet, em particular da dinâmica no mercado de serviço de
acesso. No Capítulo 1, foram relatados os principais fatos estilizados, enquanto o Capítulo
2 selecionou algumas hipóteses teóricas que os justificariam. O próximo objetivo, realizado
no Capítulo 4, é testar se essas hipóteses são logicamente compatíveis com os fatos estili-
zados, além de adequadas para explicá-los. Para tanto, é proposta a realização do teste das
hipóteses utilizando-se um modelo formal do mercado de acesso, que será desenvolvido
neste capítulo, após a discussão metodológica pertinente.
A finalidade do modelo formal, entretanto, vai além do teste de hipóteses. Ele
pretende, em termos mais gerais, selecionar, apresentar e combinar ideias e hipóteses teóri-
cas – inclusive relações de causa e efeito entre variáveis –, ao mesmo tempo em que tenta
permanecer compatível com os dados provenientes da pesquisa empírica. Dessa forma, o
modelo pode gerar resultados – propriedades emergentes – que não são imediata ou facil-
mente derivados das hipóteses ou das premissas assumidas, permitindo o aprofundamento
da compreensão dos mecanismos causais de um sistema complexo.181
As características das hipóteses teóricas discutidas no Capítulo 2 tornam pro-
blemática a utilização do instrumental matemático convencional para modelagem. Apenas
em um nível bastante abstrato é possível reproduzir analiticamente os processos que carac-
terizam a dinâmica competitiva, segundo uma perspectiva evolucionária (METCALFE,
1998). É um desafio metodológico significativo modelar agentes heterogêneos que partici-
pam de busca cujo fim está em aberto, inseridos em ambiente incerto e que se altera conti-
nuamente (NELSON, 1995). A introdução de mecanismos institucionais complexos torna
ainda mais intratável uma abordagem puramente matemática182
(ARTHUR; DURLAUF;
LANE, 1997). Essa discussão compõe a primeira parte do capítulo.
181 O modelo constitui tão somente um artefato auxiliar da análise e não é capaz, por si só, de propor hipóteses
explicativas ou, em linhas gerais, avançar para além do escopo do quadro teórico de suporte. 182 Abordagens de modelagem puramente matemáticas, por questões de tratabilidade, em geral adotam pre-
missas simplificadoras restritivas quanto à diversidade dos agentes. Esse enfoque é problemático em diversas
situações, uma vez que a restrição da heterogeneidade, entre outras consequências, tende a relegar a questão
154
No entanto, um modelo formal continua sendo desejável: não somente como
complemento à análise apreciativa, proposta no Capítulo 1, mas principalmente como for-
ma de articular consistentemente os principais processos setoriais, identificados empirica-
mente, conforme o quadro teórico desenvolvido no Capítulo 2. Para superar a questão da
tratabilidade, comum a toda uma classe de sistemas dinâmicos complexos, na segunda parte
do capítulo empregam-se técnicas de simulação computacional para a modelagem.
A simulação é um método distinto da dedução ou da indução convencionais,183
seja na modalidade como é implementada ou nos seus objetivos.184
Como no método dedu-
tivo, ela parte de um conjunto de premissas explícitas, mas, ao contrário dele, não fornece
provas gerais sobre os fenômenos que investiga. Por outro lado, a simulação oferece rique-
za de dados adequada para a abordagem pelo método indutivo, contudo, diferentemente
deste, as informações são geradas rigorosamente em acordo com os pressupostos, e não
com as referências empíricas (AXELROD; TESFATSION, 2006).
O objetivo da modelagem é compreender a relação entre variáveis e parâmetros
do sistema simulado, examinando em maior profundidade (do que é possível com dados
exclusivamente empíricos) os nexos causais, para obter conhecimento sobre o setor econô-
mico real descrito pelo modelo. No caso presente, “o método explanatório [da simulação]
busca os mecanismos de causação no nível da ação humana que formam a base da associa-
ção entre fatores sociais” (MACY; WILLARD, 2002, p. 147). Porém, “a obtenção de co-
nhecimento válido depende crucialmente da adequação do modelo de simulação” (BREN-
NER; WERKER, 2007, p. 240) e esse é o principal desafio.
Neste capítulo, o modelo proposto será apresentado inicialmente em linhas ge-
rais, e posteriormente com o detalhamento necessário para a modelagem computacional. A
da interação entre os agentes para o segundo plano, prejudicando a compreensão da dinâmica social inerente
aos sistemas econômicos. (KIRMAN, 1992; METCALFE; FOSTER, 2004; PYKA; EBERSBERGER;
HANUSCH, 2004; PYKA; FAGIOLO, 2005). 183 A metodologia de simulação é frequentemente classificada como abdução, ao categorizar eventos particu-
lares como representativos de padrões gerais (LAWSON, 1997), com base na dialética entre teoria e empiria.
A abdução auxilia – mas não assegura – a identificação dos elementos estruturais que explicam a observação empírica (BRENNER; WERKER, 2007; PRADO, 2009). 184 Segundo Axelrod e Tesfatsion (2006), os objetivos dos modelos de simulação são: (i) compreensão empí-
rica – explicação de regularidades sistêmicas globais observadas; (ii) compreensão normativa – descoberta
dos arranjos sistêmicos mais adequados; (iii) heurística – compreensão dos mecanismos sistêmicos causais
fundamentais; e (iv) avanço metodológico – melhoria dos artefatos computacionais disponíveis.
155
parametrização e os resultados serão discutidos no Capítulo 4. O presente capítulo está or-
ganizado em três seções. Na primeira, é apresentada e justificada a proposta metodológica
adotada para a modelagem, incluindo suas principais limitações. Na Seção 3.2 está descrita
a especificação do modelo, com foco especial nas regras de comportamento dos agentes. A
Seção 3.3 analisa as características relevantes do sistema de simulação que suporta o mode-
lo. Uma conclusão parcial encerra o capítulo.
3.1. Metodologia de modelagem
A literatura de pesquisa industrial, campo no qual a presente tese se insere, fre-
quentemente adota metodologias radicalmente distintas: estudos de caso estritamente
“apreciativos” ou modelagem matemática extremamente estilizada. Ambos os extremos,
bem como suas vantagens e desvantagens, foram discutidos nos capítulos anteriores. A
proposição metodológica deste trabalho é adotar um caminho intermediário, procurando
preservar parte da riqueza dos detalhes da análise apreciativa – conforme sejam logicamen-
te significativos para os processos de causação dos fenômenos – mas mantendo o rigor, não
apenas qualitativo, no tratamento dos nexos entre os mecanismos em ação.
Acreditamos que um dos papéis mais importantes da teorização formal na economia é se engajar no diálogo com os argumentos que apresentam ex-
plicações causais de padrões observados nos fenômenos econômicos
apontados pelos pesquisadores empíricos de um assunto. Chamamos essas explicações orientadas empiricamente de teoria “apreciativa” [...] e na
maioria dos casos reflete o que o analista acredita que está realmente
acontecendo. Entretanto, como convencionalmente apresentada, a teoria apreciativa não é geralmente bem adaptada para a exploração lógica sobre
se os argumentos causais apontados são consistentes (e se forem, se são
suficientes para fornecer uma explicação) ou se eles precisam de alguma
forma ser aprofundados [MALERBA et al., 1999, p. 4].
Um dos objetivos-chave da tarefa de modelagem é preservar o mínimo de deta-
lhes que ainda permita a adequada compreensão dos fenômenos, sem desconsiderar que
certo nível de abstração é indispensável para que o modelo seja, simultaneamente, compre-
ensível e útil (ANDERSEN; VALENTE, 2002). Portanto, a definição de um compromisso
entre generalidade e especificidade é o primeiro passo da estratégia de modelagem.
[U]m modelo simples pode ser melhor para explicar fenômenos simples
nos quais as premissas necessárias, para se obter uma solução analítica,
não sejam demasiadamente irrealistas. Em um ambiente econômico sim-
156
ples e estável, a premissa de hiper-racionalidade [requerida para o trata-
mento analítico convencional] não parece ser tão irrealista como uma
aproximação dos comportamentos humanos. Com certeza, seria melhor se impuséssemos rotinas comportamentais mais sofisticadas, mas às vezes a
vantagem da simplicidade ultrapassa a perda provocada pela ausência de
realidade. Porém, se estamos preocupados com a dinâmica complexa, re-
pleta de incerteza knightiana e as mudanças estruturais, a hiper-racionalidade e o conceito de equilíbrio são demasiado irrealistas. Nesse
caso, como disse [Kenneth] Arrow (2000), “o mar da verdade se encontra
na complexidade”. Então, pode ser melhor empregar um modelo comple-xo, mesmo sacrificando a tratabilidade analítica [YOON; LEE, 2009, p.
57].
A metodologia mais utilizada para o estudo de sistemas econômicos complexos
é a simulação computacional (TESFATSION, 2006). Contudo, a utilização desses modelos
como ferramenta analítica não está completamente estabelecida dentro da ciência econômi-
ca. Apesar de seu uso cada vez mais frequente, a simulação de sistemas econômicos apre-
senta questões metodológicas não totalmente resolvidas (AXELROD; TESFATSION,
2006; WINDRUM, 2007). Para mitigar essa limitação, a proposta de trabalho aqui é partir
de algumas das melhores práticas disponíveis, em particular da longa tradição da teoria
evolucionária neoschumpeteriana. A escolha se deu, em última instância, pela compatibili-
dade com o quadro de referência teórica proposto no Capítulo 2.
Especificamente, será adotada a metodologia de simulação computacional
agent-based do tipo history-friendly. Ela está bem estabelecida para o teste de hipóteses
evolucionárias em setores industriais (MALERBA et al., 1999). Para tanto, essa abordagem
será estendida para o teste das principais hipóteses institucionais, utilizando-se os conceitos
geralmente aplicáveis à simulação de sistemas sociais complexos (ARTHUR, 2000).
Por fim, para a modelagem da rede social complexa, formada pelos consumido-
res-usuários, foi escolhida a representação por meio de grafos pseudoaleatórios, calibrados
com informação empírica sobre redes semelhantes. O Apêndice B detalha essa opção.
3.1.1. Modelagem na teoria evolucionária neoschumpeteriana
Os primeiros exercícios teóricos baseados em métodos de simulação, na ciência
econômica, se deram no âmbito da TE, ainda nos anos 1970 (PYKA; EBERSBERGER;
HANUSCH, 2004; YOON; LEE, 2009). Isso porque, ao contrário das técnicas matemáticas
convencionais, esse tipo de ferramenta não coloca limitações às formas funcionais dos mo-
157
delos, característica essencial para a representação da dinâmica schumpeteriana (NELSON,
1995; VALENTE, 2002; PYKA; FAGIOLO, 2005).
Desde suas origens nos anos 1980, a teoria evolucionária neoschumpeteriana
(TE) tem sido utilizada com sucesso como suporte teórico para o estudo empírico de diver-
sos setores industriais (GARAVAGLIA, 2010). Em particular, importantes avanços foram
obtidos na compreensão dos processos subjacentes à dinâmica industrial empregando-se a
metodologia de simulação computacional (DOSI; NELSON, 1994, 2010). Alguns atributos
distintivos conferem coerência coletiva aos modelos criados na TE, a partir do trabalho
seminal de Nelson e Winter (1982/2005). Neles, existe uma “visão de mundo” claramente
compartilhada sobre como atuam os agentes reais no espaço econômico,185
além de um
conjunto identificável de algoritmos comuns, com base no qual a maioria dos modelos ne-
oschumpeterianos foi construída (WINDRUM, 2007).
Em um modelo econômico evolucionário, o foco está nas ações que os atores
efetivamente empreendem, em um ambiente inerentemente imprevisível, e não sobre as
suas propriedades estáticas, abrindo espaço para a heterogeneidade das condutas (DOSI;
NELSON, 2010). Isso ocasiona a impossibilidade de avaliação ex ante das alternativas de
ação, complicando sobremaneira a representação analítica formal dos fenômenos evolucio-
nários (PYKA; FAGIOLO, 2005). Por exemplo, a competição interfirma é representada na
TE por um sistema adaptativo complexo, composto de um grande número de agentes, com
comportamentos que se ajustam dinamicamente às circunstâncias do ambiente, envolvidos
em múltiplas interações locais paralelas. “O resultado é um sistema dinâmico complicado,
com cadeias de causalidade recorrente conectando condutas individuais, redes de interação
e impactos no bem-estar social” (TESFATSION, 2003, p. 262).
No entanto, “os modelos de simulação de primeira geração, como o de Nelson e
Winter (1982), eram bastante estilizados e não focavam em fenômenos empíricos” (PYKA;
EBERSBERGER; HANUSCH, 2004, p. 193). Eles eram projetados para explorar a dinâ-
185 Segundo Windrum (2007), cinco aspectos comuns são identificados nos modelos neoschumpeterianos: (i)
envolvimento dos agentes com a inovação (busca em aberto pela novidade); (ii) a inovação se dá em um am-
biente que se altera dinamicamente; (iii) a interação é não linear e sujeita à emergência de path dependencies
e lock-ins; (iv) a operação do sistema econômico se dá por meio de mecanismos de seleção sobre a variedade
dos agentes; e (v) a interação contínua entre variedade e seleção mantém o sistema longe do equilíbrio.
158
mica evolucionária dos processos econômicos e não para compreender casos empíricos
específicos (MALERBA et al., 1999). Recentemente, uma nova família de modelos – de
segunda geração – desenvolveu-se “com o objetivo explícito de alcançar predições empíri-
cas mais satisfatórias” (GARAVAGLIA, 2010, p. 259), ao custo de menor generalidade
(PYKA; FAGIOLO, 2005). Em particular na sua variante history-friendly, os novos mode-
los da TE têm sido empregados com sucesso no estudo da evolução de diversos setores
industriais (MALERBA, 2010).
Ainda assim, os modelos evolucionários de segunda geração tratam de forma
bastante esquematizada algumas questões relevantes para o presente tema de pesquisa. Ca-
racterísticas importantes do modelo proposto, como a heterogeneidade cognitiva dos agen-
tes e os efeitos da interação social (além do processo de seleção) e da adaptação deles à
dinâmica institucional, não são tratadas com o detalhamento desejado. Sem esse aprofun-
damento, muitos atributos de interesse seriam essencialmente eliminados – ou supostos
exógenos e estáticos (NELSON, 2001) – apesar de serem elementos relevantes para a re-
presentação da maioria dos sistemas socioeconômicos (ARTHUR; DURLAUF; LANE,
1997; ARTHUR, 2000; PRADO, 2006a).
3.1.2. Teoria dos sistemas complexos
Muitos autores têm enfatizado a importância da teoria dos sistemas complexos
(TC) para a modelagem de sistemas econômicos dinâmicos (ARTHUR, 1994, 2005, 2006;
TESFATSION, 2003, 2006; METCALFE; FOSTER, 2004; COLANDER, 2005, 2008;
PRADO, 2009). Um sistema é considerado complexo186
na medida em que apresente pelo
menos duas qualidades essenciais: (i) seja composto de unidades que interagem entre si,
usualmente de maneira difusa; e (ii) exiba propriedades emergentes, a partir dessa intera-
ção eventualmente em múltiplos níveis, ou seja, propriedades que não sejam resultado ape-
nas da agregação trivial daquelas das unidades individuais (TESFATSION, 2006).187
Em
186 A definição sobre o que caracteriza um sistema complexo é, em si, “complexa”. Segundo Potts (2000), existem dezenas de definições distintas, parcialmente compatíveis e incompatíveis entre si. Adotou-se aqui a
caracterização funcional proposta por Tesfatsion (2006). 187 A utilização dos conceitos da teoria da complexidade no âmbito da ciência econômica teve origem no fim
dos anos 1980, dentro do programa de pesquisa do Santa Fe Institute (ANDERSON; ARROW; PINES, 1988).
Ela surgiu nas ciências naturais para explicar fenômenos envolvendo sistemas com múltiplos elementos (uni-
159
particular, as características dos processos evolucionários, discutidas anteriormente, são
compatíveis com os atributos centrais da TC: geração de variedade e inovação endógena
permanente e dinâmica fora do equilíbrio, mecanismos de seleção e interação dispersa den-
tro de estruturas hierárquicas multiníveis, seleção por aptidão e adaptação contínua (MET-
CALFE; FONSECA; RAMLOGAN, 2002).
A hipótese central da teoria dos sistemas complexos é de que o “todo” comple-
xo contém mais informação do que a simples soma de suas unidades individuais, e não po-
de, portanto, ser adequadamente representado tão somente por elas (HOLLAND, 1998;
ARTHUR, 2006). “[A] nova [teoria da] complexidade admite a falácia da composição, em
contraste com a abordagem dos modelos com agente representativo nos quais o indivíduo
se equipara ao agregado” (ROSSER, 1999, p. 184).
A perspectiva da complexidade vem sendo crescentemente utilizada nas ciên-
cias sociais, em particular na economia (AXELROD; TESFATSION, 2006). Nesse domí-
nio, os fenômenos complexos são caracterizados, em termos gerais, por sistemas que apre-
sentam dualidade “micro-macro”.188
Novamente, a ideia crucial é que, por mais detalhada
que seja a representação do nível micro – composto por entidades heterogêneas –, não é
possível assumir, mecanicamente, a compreensão dos fenômenos que se desenvolvem no
plano macro189
(METCALFE; FOSTER, 2004; COLANDER, 2005; PYKA; FAGIOLO,
2005).
O nível macro – ou “meso”, conforme o caso – é o espaço privilegiado de fe-
nômenos sociais, como a organização dos mercados e as redes relacionais dos participantes.
Essas redes sociais podem ser entendidas como estruturas190
relativamente abstratas, for-
madas por elementos, simbolizando os agentes (indivíduos ou organizações), e suas cone-
xões, na forma de conhecimentos e entendimentos compartilhados entre eles (POTTS,
dades) e cujos comportamentos não podem ser previstos por meio da análise do comportamento ou das carac-
terísticas individuais dos seus componentes. 188 Alguns autores sugerem tratar essa relação como “micro-meso-macro”, dado que os fenômenos emergen-
tes complexos são verificados em diversos níveis, a partir do “micro” (DOPFER; FOSTER; POTTS, 2004). 189 Sistemas simples podem ser analisados considerando-se tão somente seus “microfundamentos”. Isso não
significa que os sistemas complexos não tenham microfundamentos. Nesse caso, eles são essencialmente
contextuais e somente podem ser compreendidos no seu conjunto (COLANDER, 2005). 190 Adota-se aqui a definição de Bertalanffy (apud PRADO, 2006a, p. 308) de que, “grosso modo, o termo
estrutura designa o modo de organização próprio dos elementos de um sistema”.
160
2000).191
. Diferentemente dos sistemas simples, nas redes frequentemente o papel das co-
nexões se sobrepõe ao dos elementos. Consequentemente, a compreensão dos processos
dinâmicos que determinam essas ligações entre agentes, seja pela interação estratégica ou
pela influência do ambiente institucional, é essencial para o estudo dos fenômenos emer-
gentes (HOLLAND, 1988).
[D]e uma perspectiva de complexidade, a estrutura importa. Primeiro, es-truturas baseadas em rede se tornam importantes. Toda ação econômica
envolve interações entre agentes, logo a funcionalidade econômica é, si-
multaneamente, restrita e suportada por redes definidas pelos padrões re-correntes de interação entre os agentes. Essas estruturas em rede são ca-
racterizadas por conexões relativamente esparsas. Segundo, a ação eco-
nômica é estruturada por papéis sociais emergentes e por procedimentos
suportados socialmente – ou seja, pelas instituições. Terceiro, as entidades econômicas têm uma estrutura recursiva: elas mesmas consistem de enti-
dades. […] O princípio organizador fundamental é a ideia de que as uni-
dades em um nível se combinam para produzir [novas entidades] no pró-ximo nível mais elevado [ARTHUR; DURLAUF; LANE, 1997, p. 6].
A complexidade de um sistema costuma ser expressa como função da quantida-
de N de elementos e do número de conexões (interações) entre eles. Assumindo conexões
mútuas, seu máximo seria 𝑁(𝑁−1)
2, caracterizando uma rede totalmente conectada, como
aquelas que resultam das soluções analíticas adotadas pela teoria neoclássica (POTTS,
2000). Entretanto, os casos de interesse para a abordagem da complexidade são aqueles
representados por grafos não triviais (“dispersos”), ou seja, cuja topologia não é nem com-
pletamente conectada (todos os nós interagem com todos os demais) nem um conjunto va-
zio (nenhuma interação).192
Além disso, as conexões entre elementos podem ter “intensida-
des” distintas, conforme a geometria do grafo (FRENKEN, 2006).
A TC adota um enfoque simultaneamente bottom-up e top-down das interações
entre os agentes heterogêneos e as estruturas emergentes resultantes dessas interações. Nes-
se sentido, a TC representa uma mudança importante do paradigma metodológico tradicio-
nal da ciência econômica, apenas bottom-up ou top-down (TESFATSION, 2003; PYKA;
191 Ou, de forma mais técnica, como os vértices e as arestas de um grafo, respectivamente. O grafo é a repre-
sentação matemática das relações entre objetos de um determinado conjunto. Um grafo é uma estrutura com-posta de um conjunto não vazio de vértices e um conjunto de arestas (pares não ordenados de vértices). 192 Apesar de grafos totalmente conectados “parecerem complexos”, eles permitem representação matemática
simples, uma vez que todos os elementos têm a mesma “posição” em relação a todos os outros ou, usando
linguagem mais precisa, todos os vértices podem ser representados em um campo no ℝ𝑛 (POTTS, 2000).
161
FAGIOLO, 2005; ARTHUR, 2006; SAVIOTTI, 2009). A hipótese crítica é que as intera-
ções produzem fenômenos agregados que, por sua vez, influenciam os comportamentos
individuais, em um processo de feedbacks positivos e negativos, contínuo e dinâmico
(HODGSON; KNUDSEN, 2004; ARTHUR, 2005). Assim, para Pyka e Fagiolo (2005, p.
11), “as decisões tomadas hoje por qualquer agente dependem diretamente – por meio de
expectativas adaptativas – das escolhas passadas feitas por subgrupos de outros indivíduos
na população”. Adicionalmente, os subgrupos relevantes aqui são, mais frequentemente,
aqueles “próximos” no espaço socioeconômico, denotando a importância das interações
locais (em detrimento daquelas do tipo global). Existe um número importante de situações
importantes em que isso se verifica (BROCK, 1988), por isso a aplicação das abordagens
convencionais, exclusivamente top-down ou bottom-up,193
torna-se inadequada (MACY;
WILLER, 2002).
Com o quadro teórico aqui proposto, se torna possível superar o dilema
entre individualismo metodológico e coletivismo metodológico. Ao não
atuar diretamente sobre as decisões individuais, mas sobre as disposições habituais [dos indivíduos], as instituições exercem downward causation
reconstitutivo sem reduzir o papel da agência individual. Upward causa-
tion, dos indivíduos para as instituições, é ainda possível, sem assumir que
o indivíduo é dado ou imanentemente concebido. Explicações dos fenô-menos socioeconômicos não são reduzidas, apenas, nem para os indiví-
duos nem para as instituições [HODGSON; KNUDSEN, 2004, p. 41].
A aplicação empírica da TC é particularmente conveniente quando se observam
padrões que emergem a partir de processos não lineares que se repetem por períodos pro-
longados. Por isso, sua modelagem demanda análise dinâmica não linear (COLANDER,
2008) e, por conta da questão da tratabilidade, técnicas de simulação computacional são
privilegiadas (RASMUSSEN; BARRETT, 1995; ARTHUR, 2006). Nesse quesito, os re-
quisitos da TC são maiores do que as da TE194
, tanto no que diz respeito aos atributos ne-
cessários dos elementos como na a variedade das topologias das conexões que compõem o
sistema. Por isso, a TC utiliza, frequentemente, métodos computacionais sofisticadas, como
193 A abordagem top-down convencional procura explicar os mecanismos causais do sistema econômico com
base na observação e na abstração das características generalizadas dos seus elementos, pressupondo a com-pleta conexão entre todos, ignorando a possibilidade de interações locais (POTTS, 2000). Já uma perspectiva
bottom-up pura não considera a possibilidade de realimentação do sistema agregado sobre seus componentes
(HODGSON; KNUDSEN, 2004). 194 Sistemas complexos são naturalmente evolucionários, e sua modelagem, por meio de simulação, baseia-se
na “tradução” do problema da seleção em um processo dinâmico estocástico (ARTHUR, 2006).
162
as redes neurais e os algoritmos genéticos (HOLLAND, 1992). A possibilidade de modelar
agentes dotados de capacidade cognitiva e comportamento adaptativo195
é crítica para a
emulação de sistemas que exibem propriedades emergentes, inclusive os socioeconômicos
(ARTHUR; DURLAUF; LANE, 1997; MACY; WILLER, 2002; COLANDER, 2005;
BRENNER, 2006; PRADO, 2006b).
3.1.3. Modelos de simulação agent-based
A utilização de recursos computacionais para o estudo de processos econômi-
cos, modelados como sistemas dinâmicos de atores que interagem entre si (com as caracte-
rísticas discutidas na seção anterior) é denominada de ACE – agent-based computational
economics, na definição proposta por Tesfatsion (2006).196
A simulação, nessa perspectiva,
é um sistema interativo artificial que modela outro – o sistema real – e permite o cálculo
aproximado de sua dinâmica. Apesar de não existir exigência formal para que esses mode-
los sejam operacionalizados via informática, é apenas por meio dela que eles se tornam
viáveis na prática, considerando o enorme volume de operações e de dados requeridos para
o seu processamento (ANDERSEN; VALENTE, 2002). Por causa dessas demandas, e da
limitação computacional, foi somente nos últimos 20 anos que os modelos agent-based
(baseados em agentes – MAB) puderam se desenvolver de forma significativa (ORME-
ROD; ROSEWELL, 2009).
Os MAB representam uma abordagem metodológica destinada ao teste, ao refi-
namento e à extensão de teorias que não são adequadamente formuladas ou avaliadas utili-
zando-se as ferramentas estatísticas e matemáticas convencionais. Os MAB permitem a
compreensão aprofundada dos mecanismos causais fundamentais de sistemas complexos
(AXELROD; TESFATSION, 2006) e viabilizam, nas ciências sociais, instrumentos próxi-
mos aos laboratórios das ciências naturais. Eles possibilitam a exploração experimental de
fenômenos como a mudança institucional, as trajetórias de desenvolvimento tecnológico e a
implantação de políticas públicas (PYKA; FAGIOLO, 2005).
195 Sistemas adaptativos são aqueles nos quais os agentes são reativos e aprendem, ou seja, são capazes de
exibir atributos sistematicamente distintos em reação a mudanças ambientais (TESFATSION, 2006). 196 A ACE surgiu a partir das diversas situações em que os modelos matemáticos convencionais não eram
capazes de capturar os detalhes necessários para a análise satisfatória de diversos fenômenos econômicos, em
particular na sua dimensão dinâmica, além da questão de tratabilidade (HOLLAND, 1988).
163
Em nossa opinião, a tentativa para modelar a agregação dinâmica de eco-
nomias descentralizadas com base em uma microfundamentação mais de-
talhada (e mais realista), como aquela postulada pelos MAB, é o principal requisito para perseguir um dos mais importantes desafios das ciências
sociais hoje, nomeadamente a análise da mudança qualitativa. […] De
certa forma, os modelos agent-based podem ser considerados uma abor-
dagem sistêmica, permitindo a consideração e integração de diferentes “realidades” sociais, o que o torna uma ferramenta extremamente valiosa
para a análise dos processos sociais, que podem ser considerado como fe-
nômenos multifacetados [ibid., p. 20].
Os MAB são construções lógicas abstratas, à semelhança dos modelos matemá-
ticos convencionais,197
especificados com precisão e estruturados formalmente por meio de
conjuntos de operações lógicas e matemáticas realizadas ao longo do tempo (GARAVA-
GLIA, 2004; PRADO, 2009). “Modelos de simulação grosso modo contêm dois componen-
tes, implicações e premissas [...] Executar a simulação significa obter conhecimento sobre
as implicações dessas premissas, de maneira similar à análise de equações matemáticas”
(BRENNER; WERKER, 2007, p. 228). Os MAB representam o funcionamento de sistemas
que agregam agentes heterogêneos, tanto no nível dos atributos quanto no dos comporta-
mentos. Como representações de sistemas complexos, as propriedades agregadas emergem
da interação entre indivíduos,198
ao evoluírem no tempo (RASMUSSEN; BARRETT, 1995;
TESFATSION, 2003, 2006; PYKA; FAGIOLO, 2005; PRADO, 2009).
O interesse da análise e os objetivos de estudos, então, não são direta e
explicitamente modelados nos quadros analíticos [do modelo de simula-ção]. Ao contrário, eles emergem da programação de interações repetidas
dos componentes do modelo. [...] A estrutura agregada emerge da organi-
zação dos agentes interagindo [GARAVAGLIA, 2010, p. 259].
Rasmussen e Barrett (1995) propuseram uma formalização para o processo di-
nâmico representado pelos MAB, cujas linhas gerais são apresentadas a seguir.
Partindo da premissa de operação em tempo discreto, em um MAB regras de
transição implícitas determinam a transformação do sistema do instante 𝑡 para 𝑡 + Δ𝑡,
mesmo que não seja possível definir formalmente expressões analíticas para essa dinâmica.
197 Diferentemente dos modelos convencionais, nos modelos de simulação a matemática, em si, não é a base
teórica (dedutiva), mas tão somente um instrumento de modelagem (COLANDER, 2005). 198 Nesse tipo de modelo, costumam emergir estruturas no nível “meso”, não diretamente associadas às carac-
terísticas dos agentes “micro” (DOPFER; POTTS, 2004). Elas podem tomar diversas formas, como redes
relacionais ou hierárquicas, e não são determinadas a priori, uma vez que não existe premissa de equilíbrio
estático nos MAB. Equilíbrio, único ou múltiplo, pode eventualmente ser uma característica emergente de
alguns sistemas complexos, assim como a completa instabilidade (ARTHUR, 2006).
164
Cada objeto199
𝐴𝑖𝑙 do modelo representa a trajetória temporal de um elemento 𝑖 do nível 𝑙 do
modelo e pode ser definido como em (13).
𝐴𝑖𝑙 = 𝐴𝑖
𝑙(𝑑𝑖 , 𝐼𝑖,𝑗𝑙 , 𝑠𝑖 , 𝑡𝑖), 𝑖, 𝑗 = 1,… , 𝑛, 𝑙 = 1, 2,… (13)
𝑨𝒊𝒍: i-ésimo objeto observável no l-ésimo nível de descrição; 𝒅𝒊: vetor de regras que representam a di-
nâmica do i-ésimo objeto; 𝑰𝒊,𝒋𝒍 : matriz que representa a de interação do i-ésimo objeto com o j-ésimo ob-
jeto; 𝒔𝒊: vetor de variáveis que definem o estado do i-ésimo objeto; 𝒕𝒊: coordenada temporal do i-ésimo
objeto; 𝒏: número de objetos do modelo, em todos os níveis de descrição.
O sobrescrito l representa o nível de agregação em que se encontra o elemento
representado. 𝑙 = 1 constitui o patamar mais baixo, no qual se encontram os agentes indi-
viduais. O modelo 𝑀 é o conjunto de todos os objetos 𝐴𝑖𝑙 ∈ 𝑀, sendo que os 𝐴𝑖
𝑙, 𝑙 > 1, são
subsistemas de 𝑀. 𝑠𝑖 é o vetor de microestados, que caracteriza o elemento 𝐴𝑖𝑙 em cada
ponto da trajetória temporal 𝑡𝑖, e é endogenamente modificado pelas regras 𝑑𝑖, dada a ma-
triz multidimensional de interação 𝐼𝑖,𝑗𝑙 . 𝐼𝑖,𝑗
𝑙 é a representação das estruturas “sociais” de 𝑀,
nos diversos níveis 𝑙.200 Ela retrata relacionamentos acontecendo dentro de redes, em prin-
cípio, esparsas (e não em uma relação do tipo “todos com todos”) (KÖNIG; BATTISTON;
SCHWEITZER, 2009).
No caso dos agentes (𝑙 = 1) 𝑑𝑖 representa as microrregras de decisão. A matriz
𝐼𝑖,𝑗𝑙 define a estrutura da interação de cada elemento com todos os demais em 𝑀, inclusive
nos outros níveis l. A trajetória de 𝐼𝑖,𝑗𝑙 também é endogenamente gerada pelas regras 𝑑𝑖, a
partir do conjunto de vetores de microestado 𝑠𝑖. O vetor de algoritmos 𝑑𝑖 determina a di-
nâmica temporal tanto do microestado 𝑠𝑖 e como das conexões 𝐼𝑖,𝑗𝑙 dos 𝐴𝑖
𝑙. Os 𝑑𝑖 são expli-
citamente definidos (programados) apenas no primeiro nível de organização (𝑙 = 1)201. De
certo modo, 𝑑𝑖 encerra parcela importante da caracterização do ambiente institucional de 𝑀
199 Objetos são representações computacionais versáteis, que no caso dos MAB podem representar tanto os
agentes “micro”, diretamente programados e configurados pelo modelo, quanto agregações de outros objetos,
representando entidades em “níveis” superiores (“meso”, “macro” etc.) (ANDERSEN; VALENTE, 2002). 200 Uma representação alternativa mais conveniente para a estrutura de interação, conforme a aplicação, é a topologia de um grafo (POTTS, 2000; FRANKEN, 2006). A representação matricial, entretanto, costuma ser
mais conveniente para a configuração de sistemas computacionais. 201 Nos níveis agregados (l > 1), os “algoritmos” de transição são definidos implícita e endogenamente pela
interação dos elementos dos níveis inferiores. Esses algoritmos não são programados e frequentemente não
podem ser determinados de forma explícita (RASMUSSEN; BARRETT, 1995; PYKA; FAGIOLO, 2005).
165
ao qual os elementos 𝐴𝑖𝑙 estão submetidos. Note-se que, pelo menos em seu estado inicial
(𝑡 = 0), 𝑑𝑖 é obrigatoriamente anterior tanto ao estado 𝑠𝑖 como às conexões 𝐼𝑖,𝑗1 dos 𝐴𝑖
1 de
𝑀. Entretanto, os microparâmetros que especificam os procedimentos 𝑑𝑖 podem ser endo-
genamente alterados pelos próprios algoritmos de 𝑑𝑖, com a informação contida em 𝑠𝑖 e 𝐼𝑖,𝑗𝑙 ,
representando a capacidade de aprendizado ou adaptação dos 𝐴𝑖1, desde um estado inicial
conhecido (𝑡 = 0).
Entre cada intervalo de tempo Δ𝑡, a função de atualização sistêmica 𝑈 realiza a
transição interativa do estado 𝑠𝑖 e da estrutura de interação 𝐼𝑖,𝑗𝑙 de cada objeto 𝐴𝑖
𝑙 ∈ 𝑀, como
indicado em (14). Ela é também responsável pelo alinhamento temporal dos objetos – a
sincronização das trajetórias 𝐴𝑖𝑙(𝑡). Dessa forma, a simulação do sistema (15) é realizada
pela iteração das regras comportamentais de cada objeto no conjunto 𝑀. Portanto, as pro-
priedades dinâmicas do modelo 𝑀 são implicitamente definidas por 𝑑𝑖, 𝐼𝑖,𝑗𝑙 , 𝑠𝑖 e 𝑈.
𝐴𝑖𝑙(𝑡 + Δ𝑡) = 𝑈[𝐴𝑖
𝑙(𝑡), Δ𝑡], 𝑖 = 1, … , 𝑛 (14)
{𝐴𝑖𝑙(𝑡 + 1)} = 𝑈[{𝐴𝑖
𝑙(𝑡)}], 𝑖 = 1, … , 𝑛 (15)
𝑨𝒊𝒍: i-ésimo objeto observável no l-ésimo nível de descrição; 𝑼: função de atualização sistêmica que de-
fine, organiza e executa o procedimento interativo que realiza a transição de estado dos objetos; 𝒕: perí-
odo de referência; 𝒕 + 𝚫𝒕: próximo período de referência; {∙}: conjunto todos os objetos de 𝑀.
Ainda segundo Rasmussen e Barrett (1995), uma das etapas críticas é a confi-
guração dos comportamentos e da interação no primeiro plano (𝑙 = 1). A modelagem defi-
ne o seu estado inicial, ao especificar os atributos (𝑑𝑖, 𝐼𝑖,𝑗𝑙 e 𝑠𝑖) dos elementos 𝐴𝑖
1 que repre-
sentam os agentes. Mas, partindo daí, o sistema “virtual” evolui ao longo do tempo sem a
intervenção do modelista, dentro de um processo histórico simulado baseado nas intera-
ções. São essas interações, organizadas por 𝑈, que dão origem aos fenômenos emergentes,
aos desdobramentos sistêmicos em um nível estrutural (𝑙 > 1) acima daquele que foi expli-
citamente modelado (TESFATSION, 2003).
É importante notar que, por construção, na modelagem da conduta dos agentes
(representada em 𝑑𝑖 e 𝐼𝑖,𝑗𝑙 ) não pode ser adotada a premissa da hiper-racionalidade, pelo
simples fato de o estado “futuro” da simulação estar sempre em aberto. Por isso, ao privile-
166
giar uma perspectiva de racionalidade limitada, os MAB não são aptos para a adoção de
alguns pressupostos da modelagem matemática tradicional, como a adequada e recíproca
antecipação do futuro (SIMON, 1979). Mesmo assim, diversos tipos de algoritmos podem
ser selecionados para modelar as “mentes” (limitadas) dos atores computacionais, permi-
tindo desde a calibração da tomada de decisão com dados empíricos (TESFATSION, 2003)
até o uso de métodos computacionais que simulam o aprendizado (HOLLAND, 1992).
Além disso, comportamento e interação podem ser representados por meio de estilizações,
provenientes da teoria aplicada ou da evidência empírica disponível. Isso permite mesclar a
avaliação qualitativa com as técnicas formais de modelagem, para representar os atores
econômicos e as suas relações (PYKA; EBERSBERGER; HANUSCH, 2004).
É importante ressaltar que a identificação dos fenômenos emergentes 𝑃, na si-
mulação, requer a existência de uma função de observação 𝑂𝑛 apropriada ao nível de análi-
se. Para o primeiro plano (𝑙 = 1), por exemplo, a função de observação 𝑂1 é necessária
para a inspeção dos objetos 𝐴𝑖1. Novos objetos 𝐴𝑖
2, no próximo nível da estrutura (𝑙 = 2),
podem então ser produzidos, a partir da interação de 𝑈 e da inspeção dos objetos do primei-
ro por 𝑂1, conforme representado em (16). Obviamente esse processo de emergência pode
prosseguir para ordens mais elevadas, como mostrado em (17).
𝐴𝑘2 ← 𝑈[{𝐴𝑖
1(𝑑𝑖, 𝐼𝑖,𝑗𝑙 , 𝑠𝑖 , 𝑡𝑖)}, 𝑂
1], 𝑖, 𝑗 = 1,… , 𝑛, 𝑙 = 1, 2 (16)
𝐴𝑘𝑁 ← 𝑈[{𝐴𝑖
𝑁−1}, 𝑂𝑁−1, … , {𝐴𝑗1}, 𝑂1], 𝑖, 𝑗 = 1,… , 𝑛 (17)
𝑃 ∈ 𝑂2({𝐴𝑖2}) mas 𝑃 ∉ 𝑂1({𝐴𝑗
1}), 𝑖, 𝑗 = 1,… , 𝑛 (18)
𝑨𝒌𝟐: k-ésimo objeto observável no segundo nível de descrição; 𝑨𝒊
𝟏: i-ésimo objeto observável no primei-
ro nível de descrição; P: propriedade emergente; 𝑶𝒍: função de observação no l-ésimo nível estrutural;
{∙}: conjunto de todos os elementos.
Propriedades 𝑃 que sejam observadas exclusivamente em níveis estruturais su-
periores (𝑙 > 1), são definidas como propriedades emergentes do sistema. Por exemplo,
(18) representa essas propriedades no segundo nível da estrutura do modelo. Dessa manei-
ra, a emergência depende essencialmente do observador, que precisa dispor de artefatos
analíticos 𝑂𝑛 adequados para sua detecção. A presença de componentes estocásticos nas
167
regras de decisão 𝑑𝑖 implica, ainda, que a dinâmica das propriedades 𝑃 será descrita por
processos de Markov que não necessitam de parametrização explícita, dada sua natureza
emergente (PYKA; FAGIOLO, 2005).
A interação entre os agentes 𝐴𝑖1 dá origem aos fenômenos 𝐴𝑘
2 , que por sua vez
podem ter efeitos causais sobre 𝐴𝑖1, por meio da inter-relação entre os objetos de ambos os
níveis, representada em 𝐼𝑖,𝑗𝑙 . Esta propriedade, a downward causation
202 (ou causação rever-
sa) é uma das características dos fenômenos de ordem social e institucional que podem ser
representados dessa forma203
(HODGSON; KNUDSEN, 2004). A downward causation
depende da capacidade de os atores considerarem efeitos de ordem superior em suas regras
de relacionamento 𝐼𝑖,𝑗𝑙 (ou seja, disporem de capacidades analíticas 𝑂𝑛 adequadas).
204 Um
atributo essencial da abordagem dos modelos de simulação é a possibilidade de identificar,
pela inspeção das microvariáveis do sistema 𝑀, em que ordem 𝑛 os fenômenos de interesse
emergem e como eles interagem com os outros níveis estruturais, além de esclarecer seus
mecanismos de causação (VALENTE, 2002).
Uma importante vantagem da técnica agent-based diz respeito justamente à
possibilidade de descrever os detalhes das interações entre os objetos do modelo que geram
as propriedades emergentes de interesse, mesmo que a dinâmica global possa ser conhecida
apenas de modo implícito. Esse é o caso, por exemplo, das situações nas quais somente se
podem obter medidas indiretas sobre o comportamento dos agregados205
(RASMUSSEN;
202 O tipo de downward causation considerado aqui é aquele conhecido como de tipo “forte”, pois afeta não apenas características gerais da população de agentes (o tipo “fraco”), mas cada agente individual em particu-
lar. É algumas vezes denominada “reconstitutive downward causation” (SPERRY, 1991; HODGSON;
KNUDSEN, 2004). 203 Existe uma corrente de autores, os “saltacionistas”, na definição de Prado (2009), que tem ressalvas a essa
forma de caracterizar os processos de downward causation, com base na premissa de que os fenômenos
emergentes não podem ser determinados a partir tão somente do conjunto de elementos e da estrutura do sis-
tema em que se inserem. 204 “[A]s capacidades de composição, mudança e restrição de instituições sociais [enquanto propriedades
emergentes da interação entre indivíduos] dão origem a novas percepções e disposições internas aos indiví-
duos” (HODGSON; KNUDSEN, 2004, p. 39-40), apesar de que “os fenômenos em nível mais elevado, ao
exercerem controle descendente, não desorganizam ou intervêm nas relações causais da atividade que com-põem o nível subjacente” (SPERRY, 1991, p. 230). 205 Diversos fenômenos econômicos concretos não são passíveis de mensuração direta, ou sequer são de fácil
definição. Sistemas de simulação, pelo contrário, trabalham com eventos precisos e bem definidos, requeren-
do especial atenção para que essa característica – a precisão – não seja assumida como “transferida” ao objeto
econômico sobre o qual se aplica esse tipo de técnica analítica. Portanto, cuidado especial é requerido no
168
BARRETT, 1995; VALENTE, 2002). Suponha-se que 𝐺1 seja a função global que descre-
ve as mudanças de estado para 𝑙 = 1, representadas por 𝑆1, como em (19). Nessa situação,
a dinâmica do sistema simulado 𝑀 pode ser gerada sem que seja manifesta a função 𝐺1, tão
somente pela definição de 𝑈(∙) e da interação dos 𝐴𝑖1, como em (15) (PYKA; FAGIOLO,
2005).
𝑆1(𝑡) = {𝑠11(𝑡), … , 𝑠𝑛
1(𝑡)} (19)
𝑆1(𝑡 + 1) = 𝑈(𝐺1[𝑆1(𝑡)])
𝑺𝟏: estado do sistema no nível estrutural 1; 𝒔𝒊: vetor de variáveis que definem o estado do i-ésimo obje-
to; 𝑮𝟏: função global de mudança do sistema; 𝑼: função de atualização sistêmica que define, organiza e
executa o procedimento interativo que realiza a transição de estado dos objetos.
Portanto, mesmo que o sistema em estudo não possa ser, a priori, sequer des-
crito, digamos, para 𝑙 = 2, ainda assim, pela descrição completa do seu primeiro nível será
possível simular sua dinâmica em 𝑙 = 2. Isso porque os objetos e as relações de ordem
𝑙 = 2 emergem sem a necessidade de 𝑀 ser explicitamente programado para tanto. Em
termos formais, a dinâmica dos objetos do nível 𝐴𝑖2 pode ser gerada a partir da simulação da
interação dos objetos do plano 𝐴𝑗1, conforme (20). O modelo 𝑀 permite, desse modo, a
apreensão de fenômenos que não estão representados ou expressamente codificados, viabi-
lizando de forma abrangente a captura de propriedades emergentes do sistema modelado.
𝐴𝑖2 ← 𝑈({𝐴1
1, … , 𝐴𝑛1 })
(20)
𝑃2 = 𝑂2({𝐴12, … , 𝐴𝑛
2 })
𝑨𝒊𝟐: i-ésimo objeto observável no segundo nível de descrição; 𝑨𝒋
𝟏: j-ésimo objeto observável no primeiro
nível de descrição; 𝑷𝟐: propriedade emergente no segundo nível estrutural; 𝑶𝟐: função de observação
no segundo nível estrutural.
Baseados nas características gerais dos MAB, autores como Rassmussen e Bar-
rett (1995) e Valente (2002) propuseram uma metodologia de pesquisa para sua aplicação,
composta de quatro etapas: (i) definir quais fenômenos dinâmicos – ou fatos estilizados –
serão estudados, certificando-se de que eles sejam gerados em uma ordem de agregação
mapeamento do que o analista apreende como “realidade econômica”, no mundo empírico, para a “realidade
virtual”, no universo da simulação, e vice-versa.
169
superior àquele no qual as interações elementares acontecem; (ii) escolher métodos que
permitam a identificação dos elementos do sistema simulado criam os fenômenos de inte-
resse; (iii) formular modelos dos subsistemas subjacentes aos elementos relevantes, com as
propriedades desejadas, tanto no nível dos agentes como no de suas interações, independen-
temente da plataforma computacional; e (iv) implementar o modelo completo, transfor-
mando a especificação abstrata de cada subsistema em um programa de computador, de
forma que os episódios em estudo possam ser produzidos e analisados numericamente. Esse
é também o roteiro adotado para a modelagem neste trabalho.
No que diz respeito ao item (iii) acima, a modelagem dos subsistemas do mode-
lo, adota-se aqui a arquitetura sistêmica sugerida por Valente, Ciarli e Lorentz (2010). Se-
gundo esses autores, o projeto do MAB deverá, pelo menos, contemplar os seguintes itens:
(i) uma população de agentes econômicos heterogêneos, autônomos ou semiautônomos; (ii)
agentes com interesses definidos (egoístas, “maximizadores”206
etc.), mas racionalmente
limitados; (iii) um conjunto de estados internos e de regras de comportamento especificados
para cada agente; e (iv) possibilidade de interação direta (interações locais) e, possivelmen-
te, destes com o ambiente (influência institucional).
3.1.4. Modelos de simulação history-friendly
Uma categoria particular dos MAB são os modelos history-friendly (MHF). Os
MHF desenvolveram-se no fim dos anos 1990, a partir do trabalho pioneiro de Malerba,
Nelson, Orsenigo e Winter (1999) sobre o setor de informática. Os MHF buscam verificar
se mecanismos particulares, incluídos nos modelos, são capazes de replicar – e, portanto,
explicar – características selecionadas da história207
(MALERBA et al., 1999). Para tanto, a
metodologia aplica a informação empírica disponível para reduzir a generalidade dos MAB,
ao mesmo tempo em que produz resultados que podem ser objetivamente testados (BREN-
NER; WERKER, 2007).
Por meio de modelagem econômica evolucionária history-friendly quere-
mos dizer modelos formais que visam capturar a essência da teoria apreci-
206 Trata-se aqui de um conceito “local” de maximização, uma vez que como as capacidades do agente são
tecnicamente restritas, ele não dispõe dos recursos necessários para maximização no nível global. 207 A construção de cenários prospectivos (previsão), por outro lado, não é objetivo primário desse tipo (GA-
RAVAGLIA, 2004) ou dos MAB como categoria geral (MACY; WILLER, 2002; COLANDER, 2005).
170
ativa apresentada pelos analistas da história de uma indústria ou uma tec-
nologia e, assim, possibilitar sua exploração lógica. O termo “formal” sig-
nifica que toda a lógica que conduz aos resultados do modelo é explícita e, pelo menos potencialmente, visível, uma característica compartilhada
pelos modelos de simulação e os modelos analíticos [matemáticos] [MA-
LERBA et al., 1999, p. 5].
Os MHF compartilham as características gerais dos MAB na representação de
sistemas complexos. Em particular, eles buscam “analisar os fatores que afetam a dinâmica
da tecnologia, inovação, estrutura de mercado, arquitetura da indústria e liderança industri-
al” (MALERBA, 2010, p. 10). Isso se dá, nos MHF, pela emergência – não explicitamente
programada no modelo – desses elementos no nível “meso”, a partir da configuração da
interação repetida dos agentes heterogêneos, no plano “micro” (GARAVAGLIA, 2010),
como discutido para o caso geral dos MAB.
Com base na crítica sobre a elevada abstração dos modelos evolucionários de
primeira geração, os MHF têm como ponto de partida a análise histórica e os estudos de
caso existentes (MALERBA, 2010). Os MHF “procuram capturar, de forma estilizada, teo-
rias qualitativas sobre os mecanismos e fatores que afetam a inovação e a evolução das in-
dústrias” (ibid., p. 9). Eles utilizam informações da pesquisa apreciativa – nas áreas de or-
ganização industrial, estratégias de negócio e história – no projeto dos sistemas de simula-
ção e na calibração de seus parâmetros.208
Essas [informações empíricas] detalhadas são usadas para alimentar o
processo de simulação em alguns aspectos-chave. Primeiro, o modelista deve utilizar os dados empíricos como um guia durante a especificação
dos agentes (seu comportamento, regras de decisão e interações) e do am-
biente no qual eles operam. Segundo, estudos de caso empíricos detalha-
dos permitem especificar testes mais exigentes para as saídas do modelo. [...] Terceiro, estudos de caso podem ajudar na identificação de parâme-
tros particulares de variáveis-chave (entre as muitas variáveis no modelo)
que provavelmente foram importantes na geração da história observada [WINDRUM, 2007, p. 424].
A necessidade da investigação específica de indústrias particulares, em vez da
utilização de modelos genéricos, adveio dos avanços da pesquisa empírica. Ela tem de-
monstrado que aspectos como “não linearidade, dinâmica estocástica, heterogeneidade,
208 Os sistemas que dão suporte aos MHF são configurados de modo a que interações e comportamentos dos
agentes econômicos reflitam os “fatos estilizados” indicados pela teoria apreciativa disponível sobre os meca-
nismos que condicionaram a evolução de indústrias específicas (GARAVAGLIA, 2010).
171
incerteza, interação, racionalidade limitada, path dependence e coevolução [...] parecem ser
altamente específicos de cada indústria” (GARAVAGLIA, 2010, p. 260). Como visto no
Capítulo 1, essas são características presentes também no setor de internet (DAVIES, 1996;
CORROUCHER, 2001).
3.1.5. Limitações da metodologia proposta
Segundo Ormerod e Rosewell (2009), por se tratar de uma inovação recente, o
próprio desenvolvimento metodológico das simulações agent-based encontra-se em pleno
processo evolucionário de seleção. O qual costuma ser, justamente, mais intenso no período
subsequente ao surgimento de inovações radicais, como é o caso dos MAB.
A flexibilidade da abordagem de simulação é, ao mesmo tempo, uma van-
tagem e uma desvantagem. A vantagem é que modelos de simulação po-dem cobrir uma faixa mais ampla de temas de pesquisa quando compara-
do com métodos alternativos. A desvantagem é que modelos de simulação
variam substancialmente [entre si] – muito mais do que modelos utilizan-
do métodos alternativos, os quais são usualmente baseados em premissas-chave pacificadas na comunidade científica [BRENNER; WERKER,
2007, p. 228].
A aceitação da metodologia de modelos de simulação na literatura econômica é
ainda relativamente restrita (YOON; LEE, 2009; DWECK, 2010). No entanto, as restrições
aos MAB estão relacionadas, frequentemente, com características inerentes à relativa ima-
turidade metodológica nesse campo209
(ROSSER, 1999; AXELROD; TESFATSION, 2006;
ORMEROD; ROSEWELL, 2009). Diferentes alternativas procedimentais para a aplicação
dos MAB têm sido propostas nos últimos anos, e o trabalho na área está em franco anda-
mento. Isso resulta, no momento, na ausência de protocolos amplamente compartilhados ou
de quadros analíticos unificados (GARAVAGLIA, 2010).
Um problema particularmente importante, e não resolvido, é a necessida-de de garantir que os resultados dos experimentos da ACE reflitam aspec-
tos fundamentais do problema considerado e não simplesmente as peculia-
ridades do [modelo de simulação] ou da linguagem de programação parti-culares utilizados para implementar os experimentos [TESFATSION,
2003, p. 267].
209 Questões associadas com a incapacidade estrutural dos MAB de lidar com algumas das premissas usuais
da teoria neoclássica, como a análise de equilíbrio e agentes hiper-racionais, são também levantadas (PYKA;
FAGIOLO, 2005).
172
A questão levantada por Tesfatsion (ibid.), uma crítica frequente, diz respeito
ao potencial para a adoção de premissas arbitrárias e a sobreparametrização dos MAB210
(PYKA; FAGIOLO, 2005; ARTHUR, 2006; YOON; LEE, 2009). Argumenta-se que, com
o incremento do número de graus de liberdade, os modelos de simulação poderiam ser con-
figurados para produzir quaisquer resultados desejados pelo modelista, independentemente
das suas características estruturais. “[C]omo os estudos fora do equilíbrio requerem mode-
lagem detalhada de como o comportamento individual se ajusta (e como os agentes intera-
gem), eles encorajam pressupostos comportamentais que são ad hoc” (ARTHUR, 2006, p.
1555). Mesmo quando se adota o procedimento de calibração dos parâmetros com dados
empíricos, como na estratégia history-friendly, parcela considerável deles não costuma dis-
por das informações quantitativas necessárias.
Autores como Valente (2002) minimizam essa crítica, reforçando que modelos
estruturalmente bem projetados são menos sujeitos à influência dos parâmetros, pelo menos
quando eles são razoavelmente próximos de valores qualitativamente compatíveis com a
experiência empírica. Outros acadêmicos, ainda, fazem recomendações específicas sobre
como reduzir esse tipo de problema, por meio da análise de sensibilidade dos resultados e
da simulação Monte-Carlo das constelações de parâmetros (PYKA; FAGIOLO, 2005). Por
fim, abordagens metodológicas mais recentes endereçaram o tema com a redução delibera-
da da dimensão do espaço de parametrização, especialmente pela aplicação de instrumental
proveniente da teoria da complexidade, como os algoritmos genéticos (AXELROD, 1997;
FRENKEN, 2006).
A proposta dos MHF, com a construção de modelos em diálogo com a evidên-
cia empírica, é um exemplo importante de método para mitigação da potencial arbitrarieda-
de dos MAB (MALERBA, 2010). Apesar disso, autores como Windrum (2007) questionam
a eficácia da metodologia dos MHF. O ponto crítico, para eles, está no caráter contestável
da própria história. “A história não é simplesmente uma coleção de ‘fatos’ cujo significado
é reconhecido e acordado pelos historiadores. A escrita da história é, em si, um processo
criativo no qual muitos fragmentos de ‘dados’, transmitidos desde o passado até nós, são
210 Deve ser ressaltado que a questão não se restringe aos modelos de simulação, alcançando também outras
metodologias de modelagem, como os modelos analíticos convencionais (WINDRUM; FAGIOLO; MONE-
TA, 2007).
173
filtrados pelo historiador” (ibid., p. 430). A questão da parcialidade intrínseca dos relatos
históricos reforça a importância da qualidade da pesquisa, como base dos MHF, e as limita-
ções às quais estão sujeitas a validação dos seus resultados. Isso requer que o modelista, de
um lado, evite restrições prematuras nos modelos e, de outro, crie neles suficiente flexibili-
dade para considerar cenários alternativos.
O recurso à história não pode garantir soluções para todos os nossos pro-blemas de modelagem. Ele não necessariamente nos ajudará a identificar
as dinâmicas que dão origem a um conjunto de objetos incondicionais, ou
nos dirá como modelar corretamente o comportamento dos agentes, suas rotinas de aprendizagem, regras de interação e assim por diante [WIN-
DRUM, 2007, p. 431].
Além disso, uma vez que as definições de modelagem e os procedimentos de
teste são escolhas particulares do analista, em que medida elas podem ser consideradas co-
mo “determinadas” pelo processo histórico? Se a própria realização da história pode repre-
sentar um caso limite das alternativas concretas então disponíveis para o sistema econômico
em estudo – e, portanto, de replicação improvável –, como avaliar os resultados globais do
modelo a partir apenas dessa realização específica? Novamente citando Windrum (2007):
[I]mplementar simulações que repliquem a história ou divirjam dela re-
quer uma história “típica”. Não obstante, uma história típica, ou seja, uma
história invariante que seja comum para todas as firmas, não existe. Por isso, deve-se recorrer a algum tipo de descrição “estilizada” dos eventos.
Isso pode ser uma descrição estilizada da indústria em geral, ou então uma
descrição estilizada de uma firma particular. A escolha é arbitrária [p. 429].
Existem outras questões metodológicas em aberto, como a conveniência de
adoção de modelos genéricos ou especializados, as melhores formas de comunicação entre
pesquisadores sobre os resultados (estatísticas, gráficos etc.) e os métodos preferenciais
para validação com dados empíricos (TESFATSION, 2006). Isso pode ser facilmente cons-
tatado pela heterogeneidade e comparabilidade restrita entre os modelos existentes, pela
insuficiente padronização das técnicas de construção e mensuração ou pela relação proble-
mática entre modelos e dados empíricos (WINDRUM; FAGIOLO; MONETA, 2007).
A superação das dificuldades apontadas é tema de diversos trabalhos na área de
metodologia, tanto para a padronização das técnicas de construção e comparação dos mode-
los (VALENTE, 2002; ORMEROD; ROSEWELL, 2004; TESTFATSION, 2006; BREN-
174
NER, 2006) quanto para sua calibração e avaliação com dados empíricos (WERKER;
BRENNER, 2004; WINDRUM; FAGIOLO; MONETA, 2007). À medida que as diferentes
direções de pesquisa avançam, entretanto, protocolos compartilhados e plataformas de de-
senvolvimento e análise unificadas são esperados para a ACE (YOON; LEE, 2009; GA-
RAVAGLIA, 2010).
3.2. Especificação do modelo
O objetivo do modelo de simulação é a compreensão dos mecanismos que
eventualmente produzam a replicação qualitativa dos fatos estilizados, apresentados no
Capítulo 1, a partir das hipóteses do quadro teórico, definido no Capítulo 2. Para que essas
hipóteses sejam adequadamente avaliadas, o modelo deve ser especificado e construído de
forma a respeitar as premissas adotadas pelo quadro teórico, para que simule sobre cenários
semelhantes àqueles abordados pela teoria, pois de outro modo seria impossível a compara-
ção entre os resultados e as hipóteses teóricas. A emergência de propriedades agregadas no
modelo, que confirmem – ou rejeitem – essas hipóteses, será o principal instrumento analí-
tico. Testadas as hipóteses intermediárias, a avaliação da hipótese central da tese torna-se,
então, decorrência imediata, como desenvolvido no Capítulo 4.
O modelo proposto não visa replicar a realidade histórica do setor de internet no
nível dos dados empíricos quantitativos. Apesar de MHF calibrados quantitativamente se-
rem potencialmente factíveis (WERKER; BRENNER, 2004), o objetivo aqui é a represen-
tação qualitativa do desenvolvimento setorial.211
Essa opção favorece a construção de um
modelo parcimonioso em termos de parâmetros de ajuste. Além da crítica metodológica já
apresentada (WINDRUM; FAGIOLO; MONETA, 2007), o número excessivo de parâme-
tros representa um problema prático para a programação, a depuração e a análise (GARA-
VAGLIA, 2004). Sempre que possível, os MAB devem “explorar o conjunto mais simples
de premissas comportamentais requeridas para gerar os padrões macro de interesse expla-
natório” (MACY; WILLER, 2002, p. 146). Isso simplifica a calibração e reduz a complexi-
dade e a subjetividade da avaliação dos resultados.
211 A limitação tem origem nos recursos necessários – de tempo e de dados empíricos – para a calibração e a
validação quantitativa do modelo. Por outro lado, a calibração e a validação quantitativa não são pré-
requisitos da metodologia dos MHF (GARAVAGLIA, 2010; MALERBA, 2010).
175
Serão modelados dois mercados, o de serviço de acesso e o de bens de capital
para construção das redes dos prestadores. Considerou-se suficiente esse escopo, uma vez
que a dinâmica em torno do produto “serviço de acesso” se dá, essencialmente, no eixo
desses mercados. Esse recorte está, portanto, de acordo com o recomendado pela aborda-
gem dos sistemas setoriais de inovação e produção, descrita na Seção 1.1.
O restante da seção desenvolverá o segundo e o terceiro pontos do roteiro pro-
posto anteriormente:212
(i) a definição da estratégia de modelagem; e (ii) a explicitação
formal dos objetos que comporão o modelo. O quarto ponto, a implementação do sistema
de simulação, será desenvolvido na próxima seção.
3.2.1. Estratégia de modelagem
Um modelo de simulação é uma imitação simplificada dos processos que o ana-
lista considera mais importantes para a reprodução do sistema. A partir da primeira tentati-
va de configuração, inicia-se um procedimento iterativo até que todos os detalhes conside-
rados essenciais estejam representados. Um modelo precisa ser dinamicamente completo
para funcionar, ou seja, “deve ser capaz de se desenvolver ao longo do tempo somente com
base nas interações dos agentes, sem intervenções adicionais do modelista” (TESFATSI-
ON, 2006, p. 837). Essa restrição dos sistemas computacionais, de um lado, favorece a con-
sistência, mas, de outro, requer a especificação de detalhes que não seriam essenciais para a
análise formal.213
O modelo é definido em termos de séries temporais, representando as variáveis
de estado selecionadas para representar os processos em questão. As séries utilizadas são
definidas em tempo discreto. O formato geral de uma variável de estado está mostrado em
(21). 𝑋𝑡 representa uma variável qualquer no instante 𝑡, 𝒁𝑡 é o vetor contendo todas as de-
mais variáveis do modelo nesse instante e 𝛼 é o vetor de parâmetros.
𝑋𝑡 = 𝑓(𝑋𝑡−ℎ ,𝒁𝑡−𝑘, 𝛼), 0 ≤ ℎ ≤ 𝑡 − 1, 0 ≤ 𝑘 ≤ 𝑡 (21)
212 O primeiro ponto do roteiro foi desenvolvido no Capítulo 1. 213 Exemplos de detalhes normalmente considerados implícitos na análise formal são as apurações contábeis
das firmas (estoques de produto, de capital e dívida, fluxos de caixa etc.) e indicadores e agregados setoriais.
176
Uma “rodada” é representada por uma sequência temporal completa do conjun-
to de todas as variáveis de estado que descrevem o modelo, na forma {𝑋0, 𝑋1, 𝑋2, … , 𝑋𝑇},
com 𝑇 representando o horizonte temporal de simulação. Portanto, o modelo proposto é
orientado pelo tempo (time driven), e não pelos eventos simulados (event driven). Logo,
eventos contemporâneos são supostos como ocorrendo simultaneamente, em qualquer mo-
mento 𝑡. Assim, cada variável 𝑋 pode assumir apenas um valor (numérico) em 𝑡, a partir do
cálculo da equação de estado (21) correspondente. A estrutura do modelo descreve, justa-
mente, como as variáveis de estado nos instantes 0, 1, 2, . . . , 𝑡 − 1 são utilizadas na defini-
ção das variáveis no tempo 𝑡.
Vale notar que os eventos contemporâneos, entre 𝑡 − 1 e 𝑡, “convergem” para o
instante 𝑡. No caso particular em que 𝑘 = 0 em (21), torna-se crítica a ordem pela qual as
variáveis são avaliadas. Isso deve ser considerado durante a especificação das funções 𝑓,
para tornar a análise não ambígua. Para tanto, a estrutura de defasagens de cada variável 𝑋𝑡
necessita ser construída de modo a evitar situações em que a sequência de avaliação das
variáveis seja importante. Por fim, o sistema computacional que programa o modelo precisa
detectar dessas situações, facilitando a correção de cenários problemáticos.
A representação dos agentes no modelo pressupõe a configuração de atributos
específicos de “inteligência”. Conforme a recomendação de Pyka e Fagiolo (2005), eles
devem dispor, pelo menos, de: (i) autonomia, com os agentes operando sem o controle dire-
to dos outros;214
(ii) habilidade social, no sentido deles poderem estabelecer interações
competitivas e cooperativas com os demais; (iii) reatividade, ou a capacidade de percepção
do ambiente e de resposta a ele; e (iv) proatividade, que os habilita a tomar iniciativas –
como escolher estratégias e inovar – e não apenas se adaptar às circunstâncias.
Os pontos acima indicam que os atores na simulação são capazes não
apenas de adaptar seu comportamento para um dado conjunto de circuns-
tâncias, mas que eles são também, em um sentido neoschumpeteriano, ca-pazes de aprender a partir da própria experiência e de modificar seu com-
portamento criativamente, de forma a mudar as próprias circunstâncias.
[...] Não é apenas a dotação de recursos que formatam a natureza dos ato-res, são suas rotinas individuais que dão origem a uma grande parte da he-
terogeneidade dos atores [PYKA; FAGIOLO, 2005, p. 18-19].
214 Se existe controle direto, não seria necessário modelar o agente no MAB, pois ele poderia ser configurado
como subsistema de outro agente, sem prejuízo analítico e com simplificação da modelagem.
177
Os agentes são modelados no formato de objetos215
da linguagem de programa-
ção empregada. Cada objeto representando um agente (um indivíduo, uma firma, uma tec-
nologia etc.) contém todas as variáveis que definem o seu estado individual (microestado).
Objetos, porém, não têm sua utilização restrita à representação de agentes. Objetos conten-
do outros objetos são usados para representar elementos agregados do sistema (conjunto
das firmas, conjunto dos usuários, mercado, indústria) ou outras entidades relevantes, como
o conjunto de tecnologias disponíveis. Essa organização hierárquica dos objetos é essencial
para a observação de propriedades emergentes agregadas durante a simulação.
Uma mesma variável de estado, com diferentes instâncias contidas em múlti-
plos objetos, será representada por um vetor �⃗⃗� 𝑡 como em (22). Apesar disso, a atualização
temporal de cada instância pode ocorrer – e geralmente ocorre – de modo independente.
�⃗⃗� 𝑡 = {𝑋𝑡1, 𝑋𝑡
2, … , 𝑋𝑡𝑛} (22)
Para tornar os modelos não ambíguos, diversos cuidados na modelagem são su-
geridos na bibliografia (VALENTE; CIARLI; LORENTZ, 2010) e foram adotados. Por
exemplo, os parâmetros 𝛼 não são alterados exogenamente em uma rodada, mas podem ser
modificados endogenamente ao longo da simulação em situações específicas. As funções 𝑓,
que definem as transições de estados, não se alteram, sendo possível, entretanto, a seleção
endógena entre mais de uma especificação para uma dada função (𝑓1, 𝑓2 , … , 𝑓𝑛), escolhida
conforme o estado global do sistema 𝒁𝑡−𝑘 no instante 𝑡, 0 ≤ 𝑘 ≤ 𝑡.
Por fim, um esquema apropriado de atualização dos microestados dos agentes é
necessário. Como no modelo nenhuma variável é atualizada mais do que uma vez a cada
período, isso equivale a dizer que os agentes modelados não podem “reconsiderar” seus
estados individuais durante o período 𝑡 e, portanto, a ordem pela qual as múltiplas variáveis
são atualizadas é importante.216
Outra característica do arranjo proposto para a atualização é
sua natureza paralela, ou seja, todos os agentes têm a oportunidade de atualizar os microes-
215 Objetos são “contêineres” de estruturas de dados heterogêneas, ao contrário dos vetores, que organizam informações homogêneas. Representações baseadas em objetos são recursos computacionais que permitem o
tratamento organizado de informações complexas como unidades identificáveis. 216 Obviamente, a adoção de decisão simultânea é uma conveniência prática ao adotar um processo em tempo
discreto. Em um modelo de simulação em tempo “contínuo”, essa restrição poderia, naturalmente, ser relaxa-
da, mas ao custo do aumento expressivo da complexidade técnica e analítica do modelo.
178
tados em cada intervalo 𝑡. Isso é crítico para garantir que eles possam atuar sobre os mes-
mos conjuntos de informação. A operação computacional do esquema de atualização será
realizada pela plataforma técnica selecionada, descrita na Seção 3.3.
3.2.2. Modelagem dos objetos
Duas classes principais de agentes são modeladas: provedores de serviço de
acesso à internet (firmas) e seus consumidores-usuários (pessoas). Ambas as classes são
compostas por indivíduos heterogêneos, cuja população pode variar ao longo do tempo.
Isso configura um sistema de simulação multiagente, na definição de Windrum (2007).
Diferentemente dos modelos evolucionários de primeira geração, o modelo
proposto define explicitamente agentes do tipo consumidor – ou usuários – com preferên-
cias heterogêneas. Isso traz duas vantagens: a possibilidade de modelagem da adoção gra-
dual e a eliminação da necessidade de uma replicator equation217
explícita. O emprego de
uma curva exógena de adoção,218
por uma população heterogênea de consumidores poten-
ciais, permite caracterizar de forma mais realista a dinâmica do mercado para difusão de
novos produtos, especialmente na sua fase inicial de rápido crescimento (SHAPIRO; VA-
RIAN, 1999/2002). Ao se modelar detalhadamente o processo de busca dos usuários, é via-
bilizada a representação de processos complexos de decisão do consumidor, como o uso de
sua rede social. Outra vantagem é a maior transparência da emergência das participações de
mercado (market shares) das firmas e dos nichos de mercado. Abordagem semelhante foi
adotada por outros autores (WINDRUM; BIRCHENHALL, 1998; MALERBA et al., 1999;
ORMEROD; ROSEWELL, 2004).219
A dinâmica geral do modelo é relativamente simples. Os provedores de acesso
interagem entre si, acompanhando as ofertas (preço e qualidade) e as estratégias (investi-
mento e preço) das outras firmas no mercado. Os consumidores inter-relacionam-se tanto
217 A replicator equation é uma forma usual de modelagem do processo de seleção evolucionária. Ela define a
taxa de crescimento das firmas, de acordo com sua “aptidão” relativa (METCALFE, 1998). Quando ela é
explícita, é possível abstrair-se os detalhes da demanda com a premissa de consumidores homogêneos (DOSI; NELSON, 2010), o que não é o caso aqui. 218 Foi modelado crescimento da demanda (mercado potencial) do tipo “epidêmico”, na forma de uma curva
logística, adequada para representar esse tipo de fenômeno (YOUNG, 2009; MORONE; TAYLOR, 2010). 219 Apesar de semelhantes na estratégia de abordagem – usuários com preferências heterogêneas definem a
demanda endogenamente –, os modelos empregam formas distintas para modelar a escolha do usuário.
179
com os provedores (comparando ofertas e contratando serviços) como entre si (obtendo
informação sobre qualidade). A interação entre consumidores acontece dentro de uma rede
esparsa (gerada exogenamente). Os detalhes sobre como essas interações são utilizadas
pelos agentes, para definir seus comportamentos, serão apresentados a seguir.
O serviço de acesso à internet é oferecido pelos provedores aos usuários, com
preços e qualidades diferenciados. O consumidor o contrata por certo número de períodos.
Em um instante 𝑡, cada provedor disponibiliza somente uma oferta, com qualidade e preço
fixos. O preço de um provedor se aplica apenas para os consumidores que contratam o ser-
viço em 𝑡, e perdura ao longo de seus contratos. A qualidade é sempre homogênea (mas
variável ao longo do tempo) para todos os usuários de um mesmo provedor, independente-
mente de quando o contrato foi firmado.220
Os usuários selecionam o melhor provedor, de
acordo com seu perfil (heterogêneo) de preferências por preço e qualidade, além da in-
fluência dos outros usuários e do orçamento disponível.
A dinâmica tecnológica do serviço de acesso é gerada endogenamente no setor
de internet, mas exogenamente ao mercado de acesso. O mercado de equipamentos, que
fornece os bens de capital para construção das redes dos provedores, está modelado de for-
ma simplificada. Nesse caso, o modelo simula diretamente o resultado – estilizado – da
trajetória tecnológica esperada, com a premissa de concorrência schumpeteriana (nesse
segmento específico), conforme o Capítulo 2.
A estrutura de dados do modelo está representada na Figura 27. No nível supe-
rior de organização, ela é composta por elementos que representam agregações dos objetos
do plano intermediário. O objeto “EndUsers” é constituído por todos os objetos do tipo
“User” (usuários), materializando a rede social que define a demanda agregada do mercado
de acesso. O objeto “AccProviders” contém os objetos “Provider”, representando o lado da
oferta do mercado. “NetEqTechnologies” agrupa as tecnologias de rede disponíveis, mode-
lando o espaço de alternativas tecnológicas no mercado de equipamentos de rede. Em pa-
tamar intermediário encontram-se os objetos que correspondem aos agentes: “Provider”,
para as firmas provedoras de serviço de acesso à internet; “User”, para os indivíduos usuá-
220 Como discutido no Apêndice A, os usuários de um mesmo provedor usualmente compartilham uma única
estrutura de rede, independentemente de quando e em que condições particulares o serviço foi contratado.
180
rios e nós da rede de relacionamento social; e “Technology”, para as distintas tecnologias
que podem ser utilizadas pelos provedores de acesso para a construção de suas redes de
prestação de serviço. O modelo dispõe ainda de elementos do tipo “Network” e “Link”, em
nível de agregação inferior ao dos agentes e estão agrupados – em múltiplas instâncias –
dentro de objetos do tipo “Provider” e “User”, respectivamente. Os do tipo “Network” re-
fletem as redes operadas por um dado provedor, para cada tecnologia. Já os do tipo “Link”
definem os laços de amizade de cada usuário com os demais e, no seu conjunto, são as ares-
tas do grafo que modela a rede social dos consumidores.
Figura 27 – Estrutura de dados do modelo de simulação proposto.
(rótulo da classe do objeto no sistema de simulação entre parênteses)
Fonte: análise do autor.
A descrição técnica detalhada de todos os objetos e da sua estrutura interna está
disponível no site do modelo na internet (PEREIRA, 2014a).
3.2.2.1. Dinâmica temporal das regras comportamentais
A dinâmica, entre cada intervalo discreto de tempo, é gerada a partir da aplica-
ção de regras de comportamento individual no conjunto de objetos. O encadeamento geral
entre essas regras está representado na Figura 28.
Internet
Fornecedores de equipamentos e
sistemas (NetEqTechnol.)
Tecnologia 1 (Technology)
Tecnologia n (Technology)
Provedores de acesso
(AccProviders)
Provedor 1 (Provider)
Rede 1 (Network)
Rede n (Network)
Provedor n (Provider)
Usuários (EndUsers)
Usuário 1 (User)
Relação 1 (Link)
Relação n (Link)
Usuário n (User)
... ... ...
... ...
181
Figura 28 – Estrutura lógica de encadeamentos dos módulos do modelo.
Fonte: análise do autor.
Em resumo, em cada período 𝑡, a dinâmica do modelo envolve os seguintes
passos:
a) o fornecedor de equipamentos de rede realiza busca tecnológica (P&D), para
incrementar a produtividade das tecnologias existentes e para, eventualmente,
lançar novas tecnologias, mais produtivas do que as até então disponíveis;
b) entrantes potenciais heterogêneos avaliam a conveniência (rentabilidade e opor-
tunidade) de entrada no mercado e, em caso positivo, dimensionam sua capaci-
dade de rede inicial e selecionam uma estratégia (de investimento e preço);
c) provedores decidem os preços que serão praticados no período e os investimen-
tos a serem realizados (definidores da qualidade), dadas as expectativas (miópi-
cas) de acréscimo ou decréscimo de usuários e a estratégia corrente;
Estoque capital (capacidade rede)
Qualidade
Preço
Estratégia comercial
Estratégia investimento
Lucro
Planejamento de rede
Receita
Custo
Oferta
Demanda Escolhas usuários
Preferências
Fluxo caixa
Crédito
Novas tecnologias
Aumento produtividade
Busca tecnológica
Base de conhecimento
Rede social
182
d) novos usuários heterogêneos entram no mercado, enquanto a saturação não é
atingida (curva logística exógena);
e) usuários formam sua avaliação sobre a qualidade do provedor atual (se existir) e
dos provedores utilizados pelos seus relacionamentos diretos (rede social);
f) usuários sem provedor – ou com contrato encerrado – escolhem seu provedor,
de acordo com suas preferências no espaço preço x qualidade e seu orçamento;
g) provedores decidem a forma de financiamento dos investimentos e de utilização
dos eventuais lucros para amortizar dívidas, de acordo com suas capacidades;
h) provedores falidos ou pequenos demais deixam o mercado, encerrando os con-
tratos de seus usuários (que devem buscar novos provedores); e
i) provedores avaliam seus resultados (periodicamente) e eventualmente trocam
de estratégia (de investimento e preço), considerando o desempenho dos prove-
dores em seu grupo (incumbente ou entrante).
3.2.2.2. Oferta
No mercado de acesso do modelo, o lado da oferta é composto por 𝑁𝑡𝑝𝑟𝑜𝑣
pro-
vedores em cada período 𝑡. 𝑁𝑡𝑝𝑟𝑜𝑣
varia ao longo do tempo, nos momentos em que as fir-
mas entram e deixam o mercado. Qualquer provedor 𝑖 oferece no mercado seu serviço de
acesso à internet em todos os instantes 𝑡, definindo um preço 𝑃𝑡𝑖.
221 Ao escolher o provedor
𝑖, o consumidor 𝑘 contrata por um prazo fixo de duração 𝑇𝑡𝑘, definido no instante da contra-
tação, 222
pagando em cada período um o valor fixo �̃�𝑡𝑘 = 𝑃
𝑡0𝑘𝑖 , sendo 𝑡0
𝑘 quando se deu a
contratação. Alterações posteriores do preço (𝑃𝑡0+ℎ𝑖 , ℎ > 1) do provedor 𝑖 somente são
aplicadas aos contratos de novos clientes ou nas renovações dos antigos, após o término de
𝑇𝑡𝑘. A forma como 𝑃𝑡
𝑖 é determinado será descrita na Seção 3.2.2.6.
É suposto que o provedor 𝑖 apresenta apenas uma oferta de serviço de acesso à
internet no período 𝑡.223 Ela é composta por uma combinação de preço 𝑃𝑡
𝑖 e de qualidade
221 O modelo impõe, ainda, um limite nocional para os preços praticados pelos provedores, 𝑃𝑚𝑎𝑥. 222 Sorteado caso a caso a partir de uma distribuição normal, com média e variância parametrizadas. 223 Essa simplificação, em comparação ao mercado real, não é tão significativa como pode parecer a princípio.
Não se trata do provedor fornecer, por exemplo, apenas uma única velocidade de acesso, mas sim garantir um
183
planejada �̂�𝑡𝑖. O provedor 𝑖 tem liberdade para definir o ajuste entre o 𝑃𝑡
𝑖 e �̂�𝑡𝑖, segundo sua
estratégia de negócio e as condições do mercado.224, 225
𝑀𝑡𝑖 = (
�̅�𝑡𝑖
𝑄𝑡𝑖)
𝑞
, 0 < q ≤ 1 (23)
A qualidade efetiva 𝑀𝑡𝑖 dos serviços oferecidos aos consumidores é inversamen-
te proporcional à intensidade de utilização da capacidade física total instalada da rede �̅�𝑡 𝑖
de cada provedor 𝑖, conforme (23) (ver Apêndice A para detalhes). Assim, à medida que 𝑖
aumenta a capacidade �̅�𝑡 𝑖 de sua rede mais rapidamente do que cresce sua base efetiva de
usuários 𝑄𝑡𝑖, a qualidade 𝑀𝑡
𝑖 de seu serviço aumentará e vice-versa. �̅�𝑡 𝑖 é escolhida a partir
da qualidade planejada �̂�𝑡𝑖 para atender a demanda esperada �̂�𝑡
𝑖. Por definição,226
uma uni-
dade de capacidade física de rede é projetada pelo fabricante de equipamentos para supor-
tar, de forma adequada, o consumo de um usuário. 𝑞 é um parâmetro fixo e representa a
característica usual de não linearidade entre capacidade e qualidade percebida.227
A rotina
de investimento em capacidade instalada �̅�𝑡 𝑖 é descrita na Seção 3.2.2.4.
3.2.2.3. Demanda
O lado da demanda, no modelo, é representado por uma população variável de
𝑁𝑡𝑢𝑠𝑒𝑟 consumidores-usuários, organizados em uma rede social não homogênea. O número
mesmo nível de serviço – como discutido no Apêndice A – para todos os usuários, independentemente das
velocidades de acesso individual. Esse é, em geral, o caso da maioria dos provedores reais. 224 Não há inovação de produto no modelo, apenas mudanças de preço e qualidade, por causa da natureza do serviço considerado. O que normalmente se associa como “inovação de produto” no mercado de acesso à
internet, como a introdução da banda larga ADSL, 3G etc., é modelado simplificadamente como inovação de
processo, ou seja, uma forma mais barata de transportar mais bits, mais rapidamente. 225 Na prática, essa especificação faz com que o mercado possa se fragmentar em nichos, com provedores
oferecendo serviços de maior (ou menor) qualidade por preços acima (ou abaixo) da média, buscando atender
grupos de usuários que dão peso maior (ou menor) à qualidade. O número de nichos vai depender, natural-
mente, do grau e da forma de dispersão dos pesos atribuídos pelos usuários, constantes ao longo da simulação. 226 O equipamento de rede é projetado de forma a que uma unidade de capacidade seja a oferta considerada
“adequada” para atender a demanda média de um usuário. Dessa forma, por exemplo, um provedor que dis-
ponha de uma rede com 1.000 unidades de capacidade e atenda 1.000 usuários com essa capacidade terá qua-
lidade equivalente a 1. Essa escolha padroniza a capacidade física dos equipamentos em função da demanda de utilização da rede pelos usuários, eliminando a necessidade de representação, em separado, da forma que
essa demanda varia ao longo da simulação. 227 A questão da medida da qualidade de rede, na perspectiva do usuário, é complexa, dadas as diferentes
aplicações utilizadas pelos usuários. Isso torna o processo de planejamento e configuração da rede bastante
complicado, tanto na perspectiva técnica quanto na econômica (KRUSE, 2009). Ver Apêndice A.
184
de usuários 𝑁𝑡𝑢𝑠𝑒𝑟 cresce com o tempo, ao longo de uma curva de adoção logística, definida
exogenamente com base em parâmetros determinados empiricamente.
Em termos representacionais, o conjunto dos consumidores,
𝑉 = {1, … , 𝑘, … ,𝑁𝑡𝑢𝑠𝑒𝑟}, é composto pelos nós (ou vértices) de um grafo e 𝐸 é o conjunto
de ligações (ou arestas) entre eles. Essa rede é representada por um grafo 𝐺 = (𝑉, 𝐸), não
direcionado e não ponderado. Equivalentemente, podemos descrever o grafo como
𝐺 = (𝑉, 𝒆), 𝒆 = [𝑒𝑘𝑙], 𝑘 ≠ 𝑙, é a matriz de adjacência 𝑁𝑡𝑢𝑠𝑒𝑟 × 𝑁𝑡
𝑢𝑠𝑒𝑟, que lista quais vérti-
ces 𝑘 e 𝑙 (consumidores) estão conectados (possuem relacionamento entre si), com 𝑒𝑘𝑙 = 1,
ou não, quando 𝑒𝑘𝑙 = 0. A matriz de adjacência, representando a topologia da rede, é gera-
da exogenamente e permanece constante ao longo da simulação.
𝐵𝑡𝑘 = (1 + 𝑔𝐵)𝐵𝑡−1
𝑘 (24)
Cada usuário 𝑘 dispõe de um orçamento fixo 𝐵𝑡𝑘 para a contratação do serviço
de acesso, que varia com taxa 𝑔𝐵 ao longo do tempo conforme (24). 𝑔𝐵 é suposta igual para
todos os usuários. Portanto, a demanda potencial agregada do modelo é exógena, dada pela
despesa total máxima, calculada sobre 𝐵𝑡𝑘 alocado os 𝑁𝑡
𝑢𝑠𝑒𝑟 usuários potenciais no período
𝑡. Como eles podem contratar preços inferiores a 𝐵𝑡𝑘 – ou não contratar nada –, a demanda
efetiva é normalmente menor do que a demanda potencial. Como já visto, o preço �̃�𝑡𝑘 per-
manece constante até o fim do prazo contratual 𝑇𝑡𝑘, sendo atualizado (para o preço corrente)
apenas nesse momento, mesmo que seja mantido o provedor anterior.
A seleção do provedor 𝑖 pelo usuário 𝑘 se dá com base na maximização local da
utilidade 𝑈𝑡𝑖,𝑘
oferecida pelo conjunto de provedores no momento da contratação. A utilida-
de é representada por uma função CES (constant elasticity of substitution) Cobb-Douglas
tradicional em (25).228
Os parâmetros 𝑏1𝑘 , 𝑏2
𝑘 e 𝑏3𝑘 são exógenos, heterogêneos entre os con-
sumidores e constantes. O preço 𝑃𝑡𝑖, normalizado pelo preço médio ponderado do mercado
�̅�𝑡, é considerado no cálculo da utilidade 𝑈𝑡𝑖,𝑘
(preço menor é preferível).
228 A utilização de funções de utilidade contínuas sofre críticas por sua pouca aderência à experiência empíri-
ca (VALENTE, 2009). Apesar disso, em função da complexidade de configuração dos algoritmos mais sofis-
ticados requeridos pelas soluções mais realistas, preferiu-se adotar aqui especificação semelhante à adotado
por Malerba et al. (1999), e em acordo com a recomendação de Fonseca e Zeidan (2004).
185
𝑈𝑡𝑖,𝑘 = (
�̅�𝑡−1
𝑃𝑡𝑖 )
�̃�1𝑘
(�̃�𝑡−1𝑖,𝑘 )
�̃�2𝑘
(0,5 + 𝑠𝑡−1𝑖,𝑘 )
�̃�3𝑘
,
�̃�1𝑘 = 𝜌𝑏1
𝑘 , �̃�2𝑘 = 𝜌𝑏2
𝑘 , �̃�3𝑘 = 𝜂𝑏3
𝑘 , 𝜌 =1 − 𝜂𝑏3
𝑘
𝑏1𝑘 + 𝑏2
𝑘 , 𝜂 =|N𝑝𝑟𝑜𝑣(𝑘)|
𝜃|N(𝑘)|
𝑃𝑡𝑖 > 0, 𝑏1
𝑘 + 𝑏2𝑘 + 𝑏3
𝑘 = 1, 𝑏1𝑘 ≥ 0, 𝑏2
𝑘 ≥ 0, 𝑏3𝑘 ≥ 0
(25)
A utilidade 𝑈𝑡𝑖,𝑘
considera também um componente de qualidade, o índice de
qualidade percebida �̃�𝑡𝑖,𝑘
pelo usuário 𝑘 (qualidade maior é preferível). Ele é normalizado
para o nível de qualidade definido pelos fornecedores de equipamentos, como discutido na
nota 226 acima. Valores abaixo de 1 apontam para a superutilização da rede e qualidade
inferior, enquanto os superiores a 1 indicam qualidade média superior.
�̃�𝑡𝑖,𝑘 {
~N(𝑀𝑡𝑖, 𝑒𝑑
𝑘(1 − 𝜂)𝑀𝑡𝑖) se 𝑖 ≠ 𝑃𝑟𝑜𝑣𝑡−1
𝑘
= 𝑀𝑡𝑖 se 𝑖 = 𝑃𝑟𝑜𝑣𝑡−1
𝑘, 𝑒𝑑
𝑘 ≥ 0 (26)
Na linha sugerida por Ormerod e Rosewell (2004), o usuário no modelo não
dispõe de uma referência precisa sobre a qualidade real 𝑀𝑡𝑖 da rede de cada provedor. A
qualidade percebida (retrospectivamente) do serviço do provedor 𝑖 pelo usuário 𝑘, �̃�𝑡−1𝑖,𝑘
, é
modelada como função da qualidade real, 𝑀𝑡−1𝑖 , impactada por um erro aleatório individual
(com distribuição normal e média zero), associado com a competência do usuário de avaliar
a qualidade (MALERBA, 2006). O erro não afeta a percepção do consumidor sobre o seu
provedor atual, como explicitado em (26).
Ainda em (25), toma parte do cálculo da utilidade a influência de outros usuá-
rios sobre 𝑘, recebida por meio da sua vizinhança N(𝑘) = {𝑙 ∶ 𝑒𝑘𝑙 = 1} na rede social
𝐺 = (𝑉, 𝒆), como sugerido na Seção 2.4.3.2. A primeira interferência da rede 𝐺 é mera-
mente informacional, ao reduzir em (26) a incerteza representada pela variância do erro na
avaliação da qualidade percebida �̃�𝑡𝑖,𝑘
dos provedores dos vizinhos.229
A segunda influência da rede social diz respeito à consideração do market share
𝑠𝑡𝑖,𝑘
de cada provedor 𝑖 na sub-rede N(𝑘) e é primordialmente qualitativa. Provedores des-
229 Em (26), a variância da distribuição normal utilizada para o sorteio do erro de avaliação é inversamente
proporcional à razão 𝜂 de vizinhos (decisores) na rede social que utilizam o serviço de acesso.
186
conhecidos da vizinhança do usuário 𝑘 têm menor probabilidade de serem escolhidos, en-
quanto os mais “populares” serão mais preferidos. Note-se que não se trata, aqui, do fenô-
meno clássico de externalidade de rede (SHY, 2001), pois se supõe que o fato de comparti-
lhar o provedor com sua rede de relacionamentos não traz qualquer benefício concreto para
o usuário.230
Pelo contrário, essa disposição pode fazer com que a escolha recaia sobre pro-
vedor com atributos objetivos (em preço ou qualidade) inferiores, mas com elevada popula-
ridade na sua rede social, a despeito da ausência de vantagens tangíveis.
Com essa configuração, o modelo permite o exame do processo seletivo em um
espaço de três dimensões (preço x qualidade x influência da rede). À medida que 𝑏1𝑘 , 𝑏2
𝑘 e
𝑏3𝑘 variam dentro da população de consumidores (distribuição uniforme), alguns usuários
dão preferência a preço menor (𝑏1𝑘 > 𝑏2
𝑘) ou a qualidade percebida superior (𝑏1𝑘 < 𝑏2
𝑘).
Outros valorizam mais a conformidade com as escolhas do grupo social (𝑏3𝑘 > 𝑏1
𝑘 , 𝑏2𝑘). Os
usuários poderão, ainda, não contratar nenhuma firma, caso seu orçamento 𝐵𝑡𝑘 seja inferior
ao preço 𝑃𝑡𝑖 de todas aquelas com utilidade 𝑈𝑡
𝑖,𝑘 positiva. Note-se que os parâmetros 𝑏1
𝑘 , 𝑏2𝑘
e 𝑏3𝑘 são “modulados” pelo grau de penetração 𝜂 do serviço de acesso na vizinhança N(𝑘)
do usuário 𝑘 (em (25), |N(𝑘)| é o número de vizinhos e |N𝑝𝑟𝑜𝑣(𝑘)| é a quantidade de vizi-
nhos com acesso). 𝜃 é um parâmetro que representa a proporção de tomadores de decisão
na população de usuários. �̃�1𝑘 , �̃�2
𝑘 e �̃�3𝑘 são ajustados para sua soma também ser igual a um,
logo 𝑏3𝑘 aumenta seu peso à medida que o serviço se difunde.
𝑝𝑟𝑜𝑣𝑡𝑘 =
{
𝑝𝑟𝑜𝑣𝑡−1
𝑘 se 𝑡 − 𝑡0𝑘 < 𝑇𝑘
𝑝𝑟𝑜𝑣𝑡−1𝑘 se max
𝑖(𝑈𝑡
𝑖,𝑘) ≤ 𝑒𝑠𝑘𝑈𝑡
𝑝𝑟𝑜𝑣𝑡−1𝑘 ,𝑘
𝑖 | max𝑖(𝑈𝑡
𝑖,𝑘) se max𝑖(𝑈𝑡
𝑖,𝑘) > 𝑒𝑠𝑘𝑈𝑡
𝑝𝑟𝑜𝑣𝑡−1𝑘 ,𝑘
e 𝑡 − 𝑡0𝑘 ≥ 𝑇𝑘
(27)
A decisão de manter, ou não, o serviço de acesso contratado com a última firma
escolhida (𝑃𝑟𝑜𝑣𝑡−1𝑘 ) é avaliada ao fim do período 𝑇𝑡
𝑘 (duração do contrato)231
pelo usuário
𝑘. A escolha é realizada em função da utilidade 𝑈𝑡𝑖,𝑘
, descrita em (27). A mudança de pro-
230 Conforme discutido no Capítulo anterior, essa preferência está associada com a incerteza sobre os atributos
do serviço, além da questão mais objetiva da qualidade técnica 𝑀𝑡𝑖, como, por exemplo, a confiabilidade téc-
nica, a credibilidade do provedor, a sua adequação para o propósito específico do consumidor etc. 231 Em cada renovação de contrato, os usuários têm um novo período contratual 𝑇𝑡
𝑘 definido, de forma a dis-tribuir aleatoriamente os momentos de renovação na população e evitar “ondas” no sistema.
187
vedor ocorre quando a melhor 𝑈𝑡𝑖,𝑘
disponível no momento, segundo a perspectiva do usuá-
rio k, for superior a um limiar (threshold) 𝑒𝑠𝑘, predefinido para cada consumidor, conforme
(27).232
Esse parâmetro representa a eventual preferência do usuário em permanecer com
seu provedor atual caso o benefício da mudança seja relativamente pequeno.233
𝑠𝑡𝑖 =
𝑄𝑡𝑖
𝑁𝑡𝑢𝑠𝑒𝑟 , 𝑁𝑡
𝑢𝑠𝑒𝑟 = ∑ 𝑄𝑡𝑖
𝑁𝑡𝑝𝑟𝑜𝑣
𝑖=1
(28)
A modelagem descrita em (27), aplicada para todos os usuários, configura uma
de seleção evolucionária do tipo replicator equation234
, de forma emergente e implícita
(METCALFE, 1998). Assim, o market share de cada provedor 𝑖 é ajustado conforme o
número de clientes adquiridos e perdidos no período 𝑡, como em (28). Provedores com as
combinações preço-qualidade-popularidade mais adequadas tenderão a conquistar market
share 𝑠𝑡𝑖 maiores e vice versa. Contudo, esse mecanismo de seleção é “moderado” tanto
pela influenciada social como pela fidelidade – ou tolerância – dos consumidores com o
provedor atual.
3.2.2.4. Rede social
Para completar a especificação da demanda, é necessário modelar o grafo
𝐺 = (𝑉, 𝒆) que representa a estrutura da rede social dos consumidores-usuários. Como não
estão disponíveis microdados empíricos sobre redes de consumo equivalentes, optou-se
pela geração de redes artificiais (ou grafos pseudoaleatórios) para uso no modelo, criadas
com base na informação empírica sobre os principais parâmetros de redes de consumidores
reais (por exemplo, telefonia celular, Facebook etc.).235
Assim, é possível a utilização de
algoritmos apropriados para a criação de grafos pseudoaleatórios “calibrados”, ou seja, que
reproduzem diversos desses parâmetros simultaneamente (ALBERT; BARABÁSI, 2002;
DOROGOVTSEV; MENDES, 2002).
232 Obviamente, a escolha se dá apenas caso a restrição orçamentária 𝐵𝑡
𝑘 seja satisfeita. 233 Essa preferência pode decorrer, entre outros motivos, da influência de fatores institucionais ou custos de migração (SHY, 2001). Sua introdução permite, ainda, o teste da importância desse atributo, frequentemente
apontada pela pesquisa empírica. 234 Ver nota 217. 235 Os grafos aleatórios gerados dessa forma representam redes “sintéticas”, similares às redes reais das quais
os parâmetros foram obtidos, sendo aleatórias apenas nas propriedades não estruturais das redes produzidas.
188
À medida que os algoritmos geradores são capazes de reproduzir simultanea-
mente mais parâmetros, os grafos pseudoaleatórios produzidos se tornam estruturalmente
mais semelhantes com as redes que forneceram esses parâmetros.236
É sabido que os méto-
dos mais simples, como o modelo Erdős-Rényi (que reproduz apenas o grau médio dos
nós), produzem grafos que são “demasiado” aleatórios para representar as redes observadas
empiricamente (ALBERT; BARABÁSI, 2002). A pesquisa de algoritmos que permitem a
reprodução de vários parâmetros simultaneamente é bastante recente e diversificada, em
função da inexistência de uma abordagem geral para a sua criação (TABOURIER; ROTH;
COINTET, 2011). Somente uma fração desses algoritmos replica as principais característi-
cas das redes sociais humanas (GUILLAUME; LATAPY, 2006).237
O Apêndice B apresen-
ta o extensivo estudo realizado para avaliar e comparar as múltiplas opções disponíveis.
Entre as opções avaliadas, o algoritmo 2.5K-Graphs238
, proposto por Gjoka,
Kurant e Markopoulou (2013), foi selecionado.239
Esse método é utilizado, em conjunto
com os modelos clássicos, para configurar topologias alternativas da rede social dos con-
sumidores. Isso permite explorar o efeito da estrutura da rede na dinâmica do mercado de
acesso, em múltiplos cenários. O 2.5K-Graphs, é baseado na geração de grafos aleatórios
que preservam as principais características estruturais das redes sociais. Os parâmetros dire-
tamente replicados pelo algoritmo são a distribuição conjunta de grau de pares de nós da
rede (joint degree distribuion – 𝐽𝐷𝐷) e o coeficiente médio de clustering grau-dependente
(degree-dependent average clustering coefficient – 𝑐�̅�(𝑢)).
A 𝐽𝐷𝐷(𝑢, 𝑣) representa a frequência das arestas do grafo conectando nós de
grau 𝑢 com aqueles de grau 𝑣, conforme (29). Como anteriormente, 𝑉 é o conjunto de vér-
tices e 𝒆 é a matriz de adjacência de 𝐺 = (𝑉, 𝒆).
236 Os algoritmos podem ser classificados conforme a dimensão da correlação conjunta grau-dependente dos
nós da rede que são capazes de gerar: (i) grau médio; (ii) distribuição de graus; (iii) distribuição de grau con-
junta de duplas; (iv) distribuição de grau conjunta de triplas; e assim por diante (MAHADEVAN et al., 2006). 237 As quatro características críticas são: tamanho (número de vértices e bordas), distância média, clustering e
scale-freeness até certo nível (GUILLAUME; LATAPY, 2006). 238 Como o nome (2.5K) indica – de acordo com a tipologia proposta por Mahadevan et al. (2006) – o algo-ritmo replica completamente a distribuição de grau conjunta de pares de nós (2K) e o coeficiente de clustering
grau-dependente médio da rede (0.5K). 239 Alternativas interessantes, consideradas no Apêndice B, foram descartadas pela menor capacidade de re-
produção simultânea de parâmetros e pela complexidade ou ineficiência algorítmica. Entretanto, métodos
como os grafos Kronecker (LESKOVEC et al., 2010) parecem ser também promissores para pesquisa.
189
𝐽𝐷𝐷(𝑢, 𝑣) = ∑ ∑ 1{𝑒𝑎𝑏=1}𝑏∈𝑉𝑣𝑎∈𝑉𝑢
,
𝑉𝑢 = {𝑎 ∶ deg(𝑎) = 𝑢}, 𝑉𝑣 = {𝑏 ∶ deg(𝑏) = 𝑣}, 𝑉𝑢 , 𝑉𝑣 ⊂ 𝑉
(29)
O coeficiente de clustering representa a probabilidade de que os vizinhos de um
nó 𝑘 estejam conectados entre si – e, portanto, de formarem um clique (uma tríade total-
mente conectada). Assim, pode-se calcular o coeficiente para cada vértice 𝑘:
𝑐𝑙𝑘 =2𝑇𝑔𝑘
deg(𝑘) (deg(𝑘) − 1), 𝑘 ∈ 𝑉 (30)
𝑇𝑔𝑘 é o número de triângulos que um nó 𝑘 participa no grafo 𝐺. Também é
possível calcular o coeficiente para níveis sucessivamente maiores de agregação: temos um
valor de 𝑐�̅�(𝑢) para cada subgrafo 𝑉𝑢 que contém todos os nós de 𝑉 de grau 𝑢. Ou, ainda, o
coeficiente 𝑐�̅� de todo o grafo 𝐺. Ambas as métricas são descritas em (31).
𝑐�̅�(𝑢) =1
|𝑉𝑢|∑ 𝑐𝑙𝑘𝑘∈𝑉𝑢
e 𝑐�̅� =1
|𝑉|∑𝑐𝑙𝑘𝑘
(31)
O algoritmo 2.5K-Graphs parte dos valores da matriz 𝐽𝐷𝐷(𝑢, 𝑣) e do vetor
𝑐�̅�(𝑢), obtidos por estimação com base em amostras de redes reais240
, para produzir grafos
pseudoaleatórios que preservam esses parâmetros na sua estrutura. Antes da aplicação do
método de geração, todavia, é necessário verificar a factibilidade da JDD, uma vez que não
existe garantia de que existam grafos que atendam a JDD de uma dada amostra.241
Gjoka,
Kurant e Markopoulou (2013) propuseram um algoritmo heurístico que faz pequenas alte-
rações na matriz da 𝐽𝐷𝐷 de forma a garantir que ela seja sempre realizável.242
O algoritmo de geração do grafo pseudoaleatório funciona em três passos. No
primeiro, é produzido um grafo com a 𝐽𝐷𝐷(𝑢, 𝑣) dada utilizando-se o modelo de configu-
240 Utilizam-se amostras (grandes) de redes sociais reais porque, em geral, os dados relativos às redes comple-
tas não estão disponíveis. É possível, entretanto, a geração dos parâmetros a partir de redes originais. Como
desvantagem, o uso de amostras requer, ainda o pós-processamento dos dados, para remoção de problemas usualmente introduzidos pelos algoritmos de amostragem (GJOKA; KURANT; MARKOPOULOU, 2013). 241 Obviamente, a restrição pode ser relaxada no caso dos dados terem sido gerados a partir da rede completa. 242 Segundo os autores (ibid.), em todas as simulações realizadas o algoritmo de pós-processamento alterou
sempre menos do que 3% das arestas em 𝐸.
190
ração clássico de Molloy e Reed (1995).243
No segundo, é aplicada rotina heurística para
adicionar ao grafo um grande número de arestas “locais”, isto é, conectando nós próximos,
o que acaba criando novas tríades e aumentando significativamente o clustering. O objetivo
da rotina é, precisamente, introduzir uma elevada quantidade de tríades sem alterar a 𝐽𝐷𝐷
do grafo resultante da etapa anterior. Provavelmente, por construção, o novo grafo apresen-
tará clustering 𝑐�̅� superior ao da rede original. O terceiro passo utiliza a técnica Markov
Chain Monte Carlo (MCMC) (MAHADEVAN et al., 2006) para realizar trocas de pares de
arestas (rewiring), preservando a 𝐽𝐷𝐷 em cada câmbio, até se atingir a distribuição 𝑐�̅�(𝑢)
desejada. Como o grafo inicial possui clustering muito elevado, o processo MCMC, na prá-
tica, tem como finalidade desfazer tríades. Isso é computacionalmente bastante mais efici-
ente do que os métodos usuais de rewiring, que buscam criar tríades, principalmente porque
evitam dead-ends (“becos sem saída”) e restarts (reinícios) na etapa MCMC.
3.2.2.5. Inovação tecnológica
No modelo existem dois tipos de agentes potencialmente inovadores: o fabri-
cante de equipamentos de rede e os provedores de acesso à internet. Por isso, dois tipos de
rotinas comportamentais foram configurados. No primeiro caso, do fabricante de equipa-
mentos, como um processo estocástico de duas etapas, na tradição do modelo de Nelson e
Winter (1982/2005). Estratégia semelhante foi adotada em diversos modelos evolucioná-
rios, como os de Chiaromonte, Dosi e Orsenigo (1993), Possas et al. (2001) e Dosi et al.
(2008, 2010, 2013). No segundo caso, dos provedores, não existe componente aleatório na
rotina de busca tecnológica. É suposto que eles não realizam atividades de pesquisa e de-
senvolvimento, apenas selecionando e aplicando as inovações geradas a montante, pelo
fabricante de equipamentos.
A dinâmica de inovação é, portanto, exógena ao mercado de acesso, mas endó-
gena ao setor de internet. O progresso tecnológico está incorporado nas safras de equipa-
mentos de rede produzidos pelo fabricante, à semelhança do modelo de Silverberg e Vers-
pagen (1994). Esse fabricante tem interesse na difusão de suas safras mais recentes e in-
243 Uma das características do modelo de configuração é a geração de grafos com coeficientes de clustering
tendendo a zero, muito inferiores aos verificados em redes reais (GUILLAUME; LATAPY, 2006).
191
forma sua existência aos provedores. Como elas são diretamente comparáveis, a cada perí-
odo existe uma melhor prática, em termos de tecnologia, que é de conhecimento de todos.
Os preços dos equipamentos de rede são, em princípio, constantes e iguais para
todas as firmas, sem previsão de descontos por escala. Entretanto, incumbentes podem dis-
por de preços descontados (segundo o parâmetro 𝑝𝑖𝑛𝑐𝑡𝑒𝑐ℎ), permitindo a modelagem da ação
de estruturas de relacionamento hierárquico que favoreçam esses provedores.244
A evidên-
cia empírica do Capítulo 1 sugere a avaliação dessa premissa.
O modelo implementa o algoritmo de busca tecnológica (P&D) do fabricante de
equipamentos de rede245
por meio de dois componentes. O primeiro é do tipo comporta-
mental – baseado em rotinas –, pelo qual o agente explora o seu ambiente de forma estrutu-
rada, na procura de inovações que permitam o aumento da produtividade das tecnologias
existentes ou a criação de novas. O segundo componente é estocástico, refletindo a natureza
incerta do processo inovador no aperfeiçoamento ou na concepção de tecnologias.
Para modelar os componentes da P&D, um procedimento em duas etapas é uti-
lizado, considerando isoladamente as contribuições de inovações incrementais regulares e
de inovações radicais periódicas. A solução é semelhante à proposta por Possas et al.
(2001). A inovação incremental é associada com as melhorias graduais da produtividade 𝑎𝑡𝑗
das safras (𝑗) de equipamentos de rede existentes, com potencial decrescente ao longo da
sua vida. A inovação radical está vinculada à criação de novas tecnologias, mais eficientes
do que as anteriores. Tanto o momento de introdução quanto o nível de produtividade de
ambas são gerados aleatoriamente.
A etapa de avanço incremental acontece mediante um processo aleatório em
dois estágios. No primeiro, para cada tecnologia 𝑗 existente, em cada período 𝑡 existe uma
probabilidade Pr(𝑑𝑡𝑗= 1) > 0 de se obter uma melhoria tecnológica incremental. Essa
probabilidade tem distribuição Poisson e é crescente no tempo, a partir da última inovação
incremental em 𝑡0𝑖𝑛𝑐𝑟,𝑗
, com parâmetro de sucesso 𝑝𝑖𝑛𝑐𝑟 como indicado em (32).
244 Conforme discutido no capítulo anterior, Seção 2.4.3.1. 245 Como já mencionado, o segmento de equipamentos de rede foi modelado de forma simplificada, configu-
rando apenas o resultado esperado de um mercado inovador em competição schumpeteriana, por meio de
apenas um fabricante de equipamentos “representativo”.
192
Pr𝑖𝑛𝑐𝑟
(𝑑𝑡𝑗= 1)~Poisson [
(𝑡 − 𝑡0𝑖𝑛𝑐𝑟,𝑗)
𝑝𝑖𝑛𝑐𝑟] , 𝑝𝑖𝑛𝑐𝑟 > 0 (32)
Caso no primeiro estágio seja obtido o avanço incremental (𝑑𝑡𝑗= 1) da tecno-
logia 𝑗, é calculado o novo potencial de produtividade �̂�𝑡𝑗, com distribuição normal centrada
na corrente, 𝑎𝑡−1𝑗
:
�̂�𝑡𝑗~N(𝑎𝑡−1
𝑗, 𝑣𝑡
𝑗𝑎𝑡−1𝑗 ) (33)
𝑣𝑡𝑗= 𝑣𝑖𝑛𝑐𝑟 −
𝑣𝑖𝑛𝑐𝑟
1 + exp(𝑣0 (1 −𝑡 − 𝑡0
𝑗
𝑝𝑟𝑎𝑑))
, 𝑣𝑖𝑛𝑐𝑟 > 0, 𝑣0 > 0
(34)
O desvio padrão do avanço incremental decresce à medida que aumenta a idade
da tecnologia (34), representando o esgotamento da trajetória tecnológica, dada a expectati-
va de inovações radicais 𝑝𝑟𝑎𝑑. 𝑣𝑖𝑛𝑐𝑟 e 𝑣0 são parâmetros. A rotina predefinida em (35) é de
adoção da inovação obtida apenas se existir ganho em relação à produtividade atual.
𝑎𝑡𝑗= max(𝑎𝑡−1
𝑗, �̂�𝑡
𝑗) (35)
A etapa de criação de nova geração tecnológica de equipamentos, por meio de
um avanço radical, segue um processo semelhante, como explorado por Malerba et al.
(1999). Aqui, no caso de sucesso do primeiro estágio (36), o potencial de aumento de pro-
dutividade baseia-se na da melhor tecnologia correntemente disponível 𝑎𝑡𝑡𝑜𝑝
, como indica
(37). Os parâmetros 𝑝𝑟𝑎𝑑 e 𝑣𝑟𝑎𝑑 permitem a representação da (menor) probabilidade de
inovações radicais, conjugada com a (maior) potencialidade de incrementos de produtivi-
dade. Novamente, a regra comportamental (38) é de adoção da inovação gerada apenas se
sua produtividade �̂�𝑡𝑛𝑒𝑤 for superior àquela da tecnologia corrente, 𝑎𝑡
𝑡𝑜𝑝.
Pr𝑟𝑎𝑑(𝑑𝑡 = 1)~Poisson [
(𝑡 − 𝑡𝑎𝑡−1𝑡𝑜𝑝)
𝑝𝑟𝑎𝑑] , 0 < 𝑝𝑟𝑎𝑑 < 𝑝𝑖𝑛𝑐𝑟 (36)
�̂�𝑡𝑛𝑒𝑤~N[(1 + 𝑣𝑟𝑎𝑑)𝑎𝑡−1
𝑡𝑜𝑝, 𝑣𝑟𝑎𝑑𝑎𝑡−1
𝑡𝑜𝑝], 0 < 𝑣𝑖𝑛𝑐𝑟 < 𝑣𝑟𝑎𝑑 (37)
193
𝑎𝑡𝑡𝑜𝑝
= {𝑎𝑡−1𝑡𝑜𝑝 se �̂�𝑡
𝑛𝑒𝑤 ≤ 𝑎𝑡−1𝑡𝑜𝑝
�̂�𝑡𝑛𝑒𝑤 se �̂�𝑡
𝑛𝑒𝑤 > 𝑎𝑡−1𝑡𝑜𝑝 (38)
Como a produtividade 𝑎𝑡𝑗 da tecnologia é medida pela perspectiva do provedor
de acesso, seu preço 𝑃𝑡𝑡𝑒𝑐ℎ,𝑗
é diretamente derivado de 𝑎𝑡𝑗 (39), representando, portanto, o
custo de oportunidade do provedor. Já o custo unitário de manutenção 𝑐𝑚𝑡𝑗, por período, de
cada geração tecnológica 𝑗, é uma proporção fixa 𝑐𝑚0 do preço corrente do equipamento
(40), sendo, assim, decrescente ao longo do tempo. Por fim, é assumida a presença de uma
escala mínima 𝑄𝑚𝑖𝑛𝑗
para implantação,246
calculada em (41) com base naquela da tecnologia
anterior, 𝑄𝑚𝑖𝑛𝑗−1
, como uma fração do aumento da produtividade 𝑎𝑡𝑗 sobre 𝑎𝑡
𝑗−1. Logo, a esca-
la mínima é crescente no decorrer do tempo, em acordo com dados empíricos.
𝑃𝑡𝑡𝑒𝑐ℎ,𝑗
=1
𝑎𝑡𝑗 (39)
𝑐𝑚𝑡𝑗= 𝑐𝑚0𝑃𝑡
𝑡𝑒𝑐ℎ,𝑗, 0 < 𝑐𝑚0 < 1 (40)
𝑄𝑚𝑖𝑛𝑗
= 𝑄𝑚𝑖𝑛𝑗−1
(𝑎𝑡𝑗
𝑎𝑡𝑗−1) (41)
3.2.2.6. Preços e estratégia competitiva
O comportamento das firmas é modelado segundo uma abordagem tecnológica
evolucionária. Entretanto, a evidência empírica tem mostrado que a inovação organizacio-
nal é tão ou mais importante do que a tecnológica em diversos setores (DOSI; NELSON,
2010). No modelo, a inovação organizacional será representada pela dinâmica, relativamen-
te lenta em relação aos demais processos do mercado,247
das estratégias técnico-comerciais,
fontes potencialmente relevantes de heterogeneidade.
Os provedores no modelo buscam – no longo prazo – um nível satisfatório (“sa-
tisficing”) da taxa de retorno do investimento médio por usuário, 𝑚𝐿𝑖 , enquanto, simultane-
246 Existência de escalas mínimas para implantação de equipamentos de rede é uma constatação empírica. 247 A inovação organizacional, pelo menos no modelo, apresenta importantes limites no que diz respeito tanto
à frequência como aos requisitos necessários para que uma firma altere sua estratégia, como exposto a seguir.
194
amente, procuram conquistar o maior market share 𝑠𝑡𝑖 compatível com esse objetivo. Para
perseguir essa dupla meta, eles ajustam heuristicamente suas metas – de curto prazo – para
o preço desejado �̂�𝑡𝑖 e a qualidade-alvo �̂�𝑡
𝑖. O modelo simula firmas razoavelmente “inteli-
gentes” (mas não maximizadoras), empregando algoritmos heurísticos simples que regulam
essas duas variáveis.248
Isso permite que as firmas, por comportamento adaptativo, utilizem
diferentes rotinas para implementar suas estratégias, ou seja, busquem de estratégias melho-
res no insucesso da corrente (BRENNER, 2006). A Tabela 4 lista as estratégias disponíveis.
Tabela 4 – Estratégias disponíveis para os provedores modelados.
Número Estratégia Tipo Descrição
1 Share máximo,
retorno alvo I/E
Maximizar market share, se possível atingindo meta de retorno sobre capital empregado com meta de qualida-de fixa
2 Share máx., qualida-de mín., retorno alvo
I/E Maximizar market share, se possível atingindo meta de retorno sobre capital empregado com menor qualidade possível
3 Preço
I Segue o preço médio dos incumbentes com meta de qualidade fixa
E Segue o preço médio dos entrantes com meta de qua-lidade fixa
4 Preço e qualidade I Segue o preço e a qualidade médios dos incumbentes
E Segue o preço e a qualidade médios dos entrantes
5 Preço mercado I/E Segue o preço médio do mercado com meta de quali-dade fixa
6 Preço e qualidade
mercado I/E Segue o preço e a qualidade médios do mercado
7 Preço desejado I/E Atingir meta de retorno sobre o capital empregado com meta de qualidade fixa
8 Preço e qualidade
máximos I/E Preço máximo permitido e qualidade máxima
9 Preço e qualidade
mínimos I/E
Preço igual ao custo médio do mercado e qualidade mínima
(I/E: estratégia disponível para incumbentes e entrantes; I: estratégia disponível apenas para
incumbentes; E: estratégia disponível apenas para entrantes). Fonte: análise do autor.
248 Conforme com a proposta de Ormerod e Rosewell (2009): “[u]m critério que pode ser utilizado para de-
terminar o desempenho [do modelo] é a simplicidade do comportamento, com base no princípio de que se
regras simples para os agentes podem produzir uma boa descrição, isso é melhor do que regras complicadas.
[...] [U]ma forma de testar um MAB nas ciências sociais é designar níveis crescentes de cognição para os
agentes para ver em que ponto o modelo deixa de fornecer uma descrição da realidade” (ibid., p. 138).
195
A busca estratégica parte da comparação dos próprios resultados (taxa de retor-
no do investimento 𝑚𝐿𝑖 e market share 𝑠𝑡
𝑖) com aqueles dos concorrentes em períodos ante-
riores (em prazo longo). Assim, o modelo permite que as estratégias passem por seleção a
partir do aprendizado das firmas e da imitação daquelas adotadas pelos provedores “mais
eficazes”. O modelo trabalha com um conjunto predefinido de estratégias, sendo possível
para as firmas escolher rotinas dentro dele. Provedores em grupos sociais distintos – in-
cumbentes ou entrantes – dispõem de conjuntos estratégicos diferentes.
É suposto que cada provedor conhece o conjunto de alternativas estratégicas
utilizadas por seu grupo e consegue identificar aquela que é aplicada pelos concorrentes
dentro dele.249
A possibilidade de compartilhamento de estratégias – formas de agir para
responder aos problemas que enfrentam durante a simulação – permite a avaliação de al-
gumas hipóteses institucionais, como a emergência de convenções sobre como compreen-
der o “mundo” virtual e reagir a ele.250
Em princípio, os preços 𝑃𝑡𝑖 praticados pelos provedores deveriam ser determi-
nados a partir daquele desejado, �̂�𝑡𝑖, compatível com o objetivo de rentabilidade por usuário
𝑚𝐿𝑖 . Contudo, a estratégia corrente pode optar por diferentes metas complementares – ou
mesmo não buscar o objetivo de rentabilidade – conforme explicitado em sua respectiva
equação de preço 𝑃𝑡𝑖. Além do ajuste dos preços, as estratégias podem – ou não – alterar as
metas de qualidade de rede �̂�𝑡𝑖 dos provedores.
251
𝑃𝑡𝑖 = {
(1 + 𝑝𝑠𝑡𝑒𝑝𝑖 )𝑃𝑡−1
𝑖 ≤ �̂�𝑡𝑖 se 𝑔𝑠,𝑡−1
𝑖 > 𝑔𝑠𝑠𝑒𝑛𝑠
𝑃𝑡−1𝑖 se 𝑃𝑡−1
𝑖 ≤ 𝑐�̅�𝑒,𝑖 ou − 𝑔𝑠
𝑠𝑒𝑛𝑠 ≤ 𝑔𝑠,𝑡−1𝑖 ≤ 𝑔𝑠
𝑠𝑒𝑛𝑠
(1 − 𝑝𝑠𝑡𝑒𝑝𝑖 )𝑃𝑡−1
𝑖 ≥ 𝑐�̅�𝑒,𝑖 se 𝑃𝑡−1
𝑖 > 𝑐�̅�𝑒,𝑖 e 𝑔𝑠,𝑡−1
𝑖 < −𝑔𝑠𝑠𝑒𝑛𝑠
𝑝𝑠𝑡𝑒𝑝𝑘 > 0, 0 < 𝑔𝑠
𝑠𝑒𝑛𝑠 < 1
(42)
𝑔𝑠,𝑡𝑖 =
𝑠𝑡𝑖 − 𝑠𝑡−1
𝑖
𝑠𝑡−1𝑖 (43)
249 As informações utilizadas para avaliação das estratégias adotadas pelos provedores reais são usualmente
disponíveis de forma pública, pelo menos para empresas de capital aberto, maioria entre as firmas maiores. 250 Conforme Seção 2.4.3 do capítulo anterior. 251 O Apêndice A apresenta os detalhes sobre porque qualquer objetivo de qualidade no modelo (e no merca-
do de acesso real) é sempre tentativo e sujeito a razoável nível de incerteza, não redutível a simples risco.
196
As equações (42) - (45) detalham as estratégias de número 1 e 11 da Tabela 4,
as mais complexas, como exemplo.252
Nesse caso, as estratégias dão prioridade ao aumento
do market share 𝑠𝑡𝑖, em relação à busca da rentabilidade 𝑚𝐿
𝑖 . A decisão de preço 𝑃𝑡𝑖, em
(42), é tomada em função da taxa 𝑔𝑠,𝑡𝑖 de crescimento – ou redução – do 𝑠𝑡
𝑖 da firma, con-
forme (43). 𝑔𝑠,𝑡𝑖 somente é considerada significativa para valores acima do limiar de sensi-
bilidade (parâmetro 𝑔𝑠𝑠𝑒𝑛𝑠). Senão, o provedor mantém seu preço anterior, 𝑃𝑡−1
𝑖 .
Nessas duas estratégias, se o market share tiver crescido no período anteceden-
te, a firma aumentará seu preço em direção ao preço desejado �̂�𝑡𝑖, definido por (44). Se a
média ponderada praticada pelo mercado, �̅�𝑡, for superior ao preço necessário para o obje-
tivo 𝑚𝐿𝑖 , o provedor assume �̅�𝑡 como alvo. Na situação oposta, se o market share for decli-
nante, ele reduzirá seu preço até atingir o equivalente ao custo unitário esperado 𝑐�̅�𝑒,𝑖
, acei-
tando, portanto, rentabilidades inferiores a 𝑚𝐿𝑖 .
�̂�𝑡𝑖 = max[𝑚𝐿
𝑖 �̅�𝑡𝑒,𝑖 + 𝑐�̅�
𝑒,𝑖 , �̅�𝑡−1] , 𝑚𝐿𝑖 > 0 (44)
�̅�𝑡𝑒,𝑖 =
𝐾𝑡−1𝑖
𝑄𝑡−1𝑖 , 𝑐�̅�
𝑒,𝑖 =𝐶𝑡−1𝑖
𝑄𝑡−1𝑖 (45)
O cálculo do custo unitário médio esperado 𝑐�̅�𝑒,𝑖
é realizado com base no custo
total 𝐶𝑡𝑖, detalhado à frente. As estratégias de números 1 e 11 preveem, ainda, um ritmo de
aumento ou redução de preços 𝑝𝑠𝑡𝑒𝑝 distinto segundo o market share 𝑠𝑡𝑖 do provedor; pro-
vedores pequenos (𝑠𝑡𝑖 < 𝑠𝑖𝑛𝑐) são mais agressivos. O parâmetro 𝑠𝑖𝑛𝑐 define o tamanho
mínimo de uma firma para ser considerada incumbente.
O algoritmo de aprendizado estratégico funciona da seguinte forma: após um
número (constante) 𝑛𝑚𝑖𝑛𝑠𝑡𝑟𝑎𝑡 de períodos desde a última mudança de estratégia, o provedor
passa a avaliar se o seu objetivo de rentabilidade 𝑚𝐿𝑖 está sendo atingido. Em caso afirmati-
vo, mantém sua estratégia atual. Se negativo, avalia se as estratégias dos concorrentes, den-
tro do seu grupo (incumbente ou entrante), estão proporcionando rentabilidade e market
share superiores aos seus, passando a imitar a melhor estratégia, se pertinente. Em situa-
252 As demais estratégias são implementadas de forma semelhante e não foram reproduzidas detalhadamente
aqui, mas estão disponíveis na documentação do sistema de simulação (PEREIRA, 2014a).
197
ções excepcionais (vários períodos de fluxo de caixa negativo ou market share próximo de
zero), a avaliação das estratégias se torna menos exigente, e a imitação requer apenas renta-
bilidade ou market share melhor do que os do provedor com problemas. De modo seme-
lhante, as entrantes escolhem suas estratégias iniciais com base nas melhores práticas do
mercado (de entrantes) para rentabilidade e market share, nessa ordem de prioridade.253
Portanto, os provedores estão continuamente observando características exter-
nas visíveis do seu grupo, relativas ao desempenho de seus concorrentes, para avaliar pos-
síveis mudanças no seu comportamento, em um processo mimético (DIMAGGIO; PO-
WELL, 1983). Nesse caso, os agentes utilizam informações agregadas, por tipo de estraté-
gia que faz parte da “cultura compartilhada” do seu grupo social (incumbente ou entrante).
Existe, ainda, certa persistência do passado, pela adoção de médias móveis ponderadas (por
market share) para avaliação dos resultados agregados das estratégias, em uma forma de
“habituação” às práticas de sucesso mais populares (HODGSON, KNUDSEN, 2004).
As firmas imitam sempre que acreditam que a imitação pode melhorar sua situ-
ação.254
Nesse sentido, elas substituem regras de comportamento com resultados ruins por
outras que são plausíveis naquele momento. Trata-se, assim, da combinação de conduta
rotinizada – seguir a estratégia traçada – com comportamento heurístico adaptativo – alterar
a rotina se ela não atender a objetivos “satisficing”. Na prática, está-se simulando o aspecto
expectacional do direcionamento estratégico do provedor, por meio de um conjunto de re-
gras “miópicas” relativamente simples, na linha proposta por Simon (1979). Como as fir-
mas no modelo são limitadamente racionais, elas levam em conta a informação mais impor-
tante localmente disponível, de modo a, em primeiro lugar, sobreviver e, se possível, buscar
seu objetivo de lucratividade ou de market share. Os algoritmos de decisão e os parâmetros
individuais associados variam de acordo com a “personalidade cognitiva” do provedor (in-
cumbente ou entrante). Essa personalidade evolui ao longo da simulação, à medida que
253 No caso particular de indisponibilidade de histórico das práticas do mercado, como no início da simulação,
as estratégias são sorteadas com igual probabilidade para todas aquelas disponíveis. 254 O algoritmo simples adotado não prevê o aprendizado de “escolhas ruins”, conforme a experiência passada ou a experiência de outras firmas, observando apenas os resultados das estratégias nos períodos mais recentes.
Dependendo das condições da firma no momento da imitação, essa escolha pode se mostrar ruim para a firma
imitadora, forçando-a, mais à frente, a trocar novamente de estratégia. Entretanto, essa inadequação da estra-
tégia “fracassada” não é “aprendida”, no sentido de que, se a firma necessitar trocar de estratégia por uma
terceira vez, pode ser que ela volte a escolher essa estratégia, de forma eventualmente autodestrutiva.
198
grupos distintos de agentes apresentam desempenhos diferenciados e os mecanismos de
imitação e seleção atuam.
3.2.2.7. Capital e investimento
O estoque de capital 𝐾𝑡𝑖 da firma 𝑖 é composto do inventário de equipamentos
𝐾𝑡𝑖,𝑗
de diversas tecnologias 𝑗, ou “safras tecnológicas”, em uma abordagem semelhante à
adotada pelo modelo clássico de Silverberg e Verspagen (1994). Por isso, a capacidade
física instalada total �̅�𝑡𝑖 do provedor 𝑖, como indicado em (46), depende, além de 𝐾𝑡
𝑖,𝑗, da
produtividade 𝑎𝑡𝑗 de cada uma dessas safras 𝑗. Como a firma i dispõe de 𝑁𝑡
𝑡𝑒𝑐ℎ,𝑖 safras dis-
tintas em operação em um dado momento 𝑡, a produtividade do estoque de capital – a rede
de serviço – não é uniforme. O número 𝑁𝑡𝑡𝑒𝑐ℎ,𝑖
de tecnologias da firma é definido dinami-
camente, conforme o conjunto de regras de planejamento de investimento, a seguir.
�̅�𝑡𝑖 = ∑ 𝑎𝑡
𝑗𝐾𝑡𝑖,𝑗
𝑁𝑡𝑡𝑒𝑐ℎ,𝑖
𝑗=1
(46)
𝐾𝑡𝑖 = 𝐾𝑡−1
𝑖 + 𝐼𝑡𝑖, 𝐾𝑡
𝑖 = ∑ 𝐾𝑡𝑖,𝑗
𝑁𝑡𝑡𝑒𝑐ℎ,𝑖
𝑗=1
(47)
Em cada período de planejamento 𝑇𝑝𝑙𝑎𝑛, o provedor 𝑖 avalia a necessidade de
aumento de capital empregado, sendo que todo o eventual investimento novo 𝐼𝑡𝑖 é realizado
na tecnologia 𝑎𝑡𝑡𝑜𝑝
, a mais produtiva disponível no momento. A regra de decisão de inves-
timento 𝐼𝑡𝑖 é descrita em (48). No início de 𝑇𝑝𝑙𝑎𝑛 (constante), 𝐼𝑡
𝑖 é calculado com base na
demanda esperada �̂�𝑡𝑃,𝑖
em 𝑡, da possível depreciação 𝐷𝑡𝑖 de parte da rede e do preço
𝑃𝑡𝑡𝑒𝑐ℎ,𝑡𝑜𝑝
da tecnologia 𝑎𝑡𝑡𝑜𝑝
. 𝐼𝑡𝑖 é sujeito, ainda, à escala mínima da tecnologia, 𝑄𝑚𝑖𝑛
𝑗.
𝐼𝑡𝑖 = {
(�̂�𝑡𝑖�̂�𝑡
𝑖 − 𝑄𝑡−1𝑀,𝑖 +𝐷𝑡
𝑖)𝑃𝑡𝑡𝑒𝑐ℎ,𝑡𝑜𝑝
se �̂�𝑡𝑖�̂�𝑡
𝑖 − �̅�𝑡−1𝑖 + 𝐷𝑡
𝑖 ≥ 𝑄𝑚𝑖𝑛𝑗
𝑄𝑚𝑖𝑛𝑗𝑃𝑡𝑡𝑒𝑐ℎ,𝑗𝑐 , se �̂�𝑡
𝑖�̂�𝑡𝑖 − �̅�𝑡−1
𝑖 + 𝐷𝑡𝑖 < 𝑄𝑚𝑖𝑛
𝑗 (48)
Considerando a qualidade planejada para seus serviços, segundo a estratégia do
provedor, a capacidade contratada é ajustada de acordo com o objetivo �̂�𝑡𝑖 de cada firma 𝑖.
199
Os provedores não dispõem de informação completa para planejar sua demanda e, conse-
quentemente, para manter a capacidade de rede estritamente adequada para cumprir �̂�𝑡𝑖
(detalhes no Apêndice A). Esse é um problema semelhante ao modelado por autores como
Ormerod e Rosewell (2004), quando o processo de decisão é necessariamente tentativo e
sujeito a erros. A qualidade efetiva, 𝑀𝑡𝑖, é aquela que se verifica após a instalação da capa-
cidade de rede planejada para atender a demanda �̂�𝑡𝑖 e a adesão real dos usuários 𝑄𝑡
𝑖. Por
isso, 𝑀𝑡𝑖 pode resultar distante do valor planejado �̂�𝑡
𝑖. Entretanto, o planejamento de rede é
adaptativo e segue, em cada ciclo 𝑇𝑝𝑙𝑎𝑛, tentando eliminar eventuais brechas.
�̂�𝑡+𝑛𝑖 =
{
𝑄𝑡𝑖 se 𝑄𝑡
𝑖 < 𝑄𝑡−𝑛𝑖
𝑄𝑡𝑖 +
𝑚𝑄𝑖 (𝑄𝑡
𝑖 −𝑄𝑡−𝑛𝑖 )
𝑛 se 𝑠𝑡
𝑖 ≤ 𝑠𝑖𝑛𝑐
𝑄𝑡𝑖 +
𝑚𝑄𝑖 𝑠𝑡
𝑖(𝑁𝑡𝑢𝑠𝑒𝑟 −𝑁𝑡−𝑛
𝑢𝑠𝑒𝑟)
𝑛 se 𝑠𝑡
𝑖 > 𝑠𝑖𝑛𝑐
, 𝑚𝑄𝑖 ≥ 0 (49)
O provedor planeja sua capacidade de rede total �̅�𝑡+𝑛 𝑖 prospectivamente em ci-
clos de duração 𝑛 = 𝑇𝑝𝑙𝑎𝑛, conforme (49). Inicialmente, ele define sua expectativa para
aquisição de novos usuários (�̂�𝑡+𝑛𝑖 − 𝑄𝑡
𝑖) durante o período de planejamento. Firmas meno-
res – com market share inferior ao parâmetro 𝑠𝑖𝑛𝑐 – projetam a demanda futura sobre o
crescimento – ou a redução – da sua base de clientes no ciclo de planejamento anterior
(𝑄𝑡𝑖 −𝑄𝑡−𝑛
𝑖 ) e de um parâmetro individual 𝑚𝑄𝑖 que representa a expectativa sobre a repeti-
ção do crescimento passado no futuro. Provedores maiores – que detêm market share rele-
vante – avaliam a demanda à frente em termos da dinâmica do mercado (𝑁𝑡𝑢𝑠𝑒𝑟 −𝑁𝑡−𝑛
𝑢𝑠𝑒𝑟).
Caso tenha expectativa de decréscimo no número de clientes, a firma mantém a capacidade
instalada �̅�𝑡 𝑖 existente. Redução de �̅�𝑡
𝑖 , se necessária, acontece apenas pelo processo de
depreciação, com a não reposição de parcela dos equipamentos depreciados.
Considerando o total planejado �̅�𝑡+𝑛 𝑖 , os provedores avaliam a capacidade �̅�𝑡
𝑖
de que dispõem, depreciam os equipamentos cuja tecnologia não é mais economicamente
eficiente e investem em novos bens de capital, para atender tanto à demanda incremental
quanto à eventual depreciação 𝐷𝑡𝑖. Ela é calculada com base em (50). A cada 𝑛 = 𝑇𝑝𝑙𝑎𝑛
períodos de planejamento, o provedor 𝑖 avalia todas as j tecnologias que compõem a sua
200
rede, comparando o valor presente do custo unitário de manutenção 𝑐𝑚𝑗
com o custo 𝑐𝑚𝑎𝑡𝑡𝑜𝑝
da tecnologia mais produtiva disponível. Se a diferença entre o 𝑐𝑚𝑗
, na vida útil remanes-
cente 𝑇𝑡𝑙𝑖𝑓𝑒,𝑗,𝑖
for maior que o preço de substituição 𝑃𝑡𝑡𝑒𝑐ℎ,𝑡𝑜𝑝
, a safra antiga é substituída,
segundo (51). A taxa de juros 𝑟𝑡𝑖, utilizada no cálculo de (52), é aquela corrente para o pro-
vedor, como definido à frente. 𝑇𝑑𝑒𝑝𝑟𝑡𝑒𝑐ℎ é um parâmetro constante que define a vida útil má-
xima dos equipamentos de rede.
𝐷𝑡𝑖 = ∑ 𝐷𝑡
𝑖,𝑗
𝑁𝑡𝑡𝑒𝑐ℎ,𝑖
𝑗=1
, (50)
𝐷𝑡𝑖,𝑗= {
�̅�𝑡𝑖,𝑗 se NPVt
i(𝑐𝑚𝑗 ) − NPVt
i (𝑐𝑚𝑎𝑡𝑡𝑜𝑝
) ≥ 𝑃𝑡𝑡𝑒𝑐ℎ,𝑛𝑒𝑤 ou 𝑇𝑡
𝑙𝑖𝑓𝑒,𝑗,𝑖≥ 𝑇𝑑𝑒𝑝𝑟
𝑡𝑒𝑐ℎ
0 se NPVti(𝑐𝑚
𝑗 ) − NPVti (𝑐𝑚
𝑎𝑡𝑡𝑜𝑝
) < 𝑃𝑡𝑡𝑒𝑐ℎ,𝑛𝑒𝑤 e 𝑇𝑡
𝑙𝑖𝑓𝑒,𝑗,𝑖< 𝑇𝑑𝑒𝑝𝑟
𝑡𝑒𝑐ℎ (51)
NPVti(𝑐𝑚
𝑗 ) = 𝑐𝑚𝑗∑
1
(1 + 𝑟𝑡−1𝑖 )
𝑙
𝑇𝑡𝑙𝑖𝑓𝑒,𝑗,𝑖
𝑙=1
, 𝑇𝑡𝑙𝑖𝑓𝑒,𝑗,𝑖
= 𝑇𝑑𝑒𝑝𝑟𝑡𝑒𝑐ℎ − (𝑡 − 𝑡0
𝑡𝑒𝑐ℎ,𝑗,𝑖) (52)
Considerando que a produtividade 𝑎𝑡𝑗 de cada safra tecnológica é igual para to-
dos os provedores (ausência de learning-by-using), estruturas de capital 𝐾𝑡𝑖 com proporção
superior de tecnologias mais recentes oferecem menor custo total de manutenção 𝐶𝑀𝑡𝑖 mé-
dio por usuário. Isso beneficia especialmente as firmas entrantes no mercado, que sempre
iniciam com a tecnologia mais produtiva na totalidade de sua rede. Os demais provedores
precisam investir novamente para depreciar suas safras antigas e, portanto, somente o fa-
zem quando a equação de custos (51) fica equilibrada, o que pode implicar na operação de
safras menos eficientes por prazo longo.
3.2.2.8. Financiamento
O processo financeiro do provedor de acesso acontece como se segue. A receita
𝑅𝑡𝑖 e o lucro Π𝑡
𝑖 gerados em cada período de operação do provedor 𝑖 são calculados pelas
suas definições contábeis em (53) e (54). O custo total 𝐶𝑡𝑖 em 𝑡, descrito em (55), é obtido a
201
partir do custo variável de manutenção 𝐶𝑀𝑡𝑖,𝑗
de cada tecnologia utilizada pelo provedor 𝑗
(56), do custo operacional 𝑐𝑓𝑄𝑡𝑖 (ambos sujeitos a ganhos de escala 𝑐𝑠) e do custo financeiro
𝑟𝑡𝑖𝐹𝑡
𝑖. São parâmetros 𝑐𝑠, 𝑐𝑓, 𝑟0, 𝑟𝑙𝑒𝑣 e 𝑟𝑠𝑖𝑧𝑒.
Π𝑡𝑖 = 𝑅𝑡
𝑖 − 𝐶𝑡𝑖 (53)
𝑅𝑡𝑖 =∑𝑃𝑡
𝑘
𝑄𝑡𝑖
𝑘=1
(54)
𝐶𝑡𝑖 = (𝐶𝑀𝑡
𝑖 + 𝑐𝑓𝑄𝑡𝑖)𝑐𝑠+ 𝑟𝑡
𝑖𝐹𝑡−1𝑖 , 𝑐𝑓 > 0, 0 < 𝑐𝑠 ≤ 1 (55)
𝐶𝑀𝑡𝑖 = ∑ 𝑐𝑚𝑡
𝑗�̅�𝑡𝑖,𝑗,
𝑁𝑡𝑡𝑒𝑐ℎ,𝑖
𝑗=1
𝑐𝑚𝑡𝑗> 0 (56)
A princípio, as firmas têm acesso irrestrito a endividamento, sob uma taxa de
juros 𝑟𝑡𝑖, individual e variável, aplicável no estoque da dívida 𝐹𝑡
𝑖. Por simplicidade, não foi
modelada nenhuma forma de racionamento quantitativo de crédito. Isso, no entanto, não
está associado com condições do tipo Modigliani-Miller (apud PINTO, 2002), uma vez que
empresas com baixo desempenho operacional dispõem de taxas de juros crescentes e vice
versa, conforme (57), restringindo o papel do crédito para provedores muito endividados.
𝑟𝑡𝑖 = {
𝑟0 [1 + 𝑟𝑙𝑒𝑣ln (𝐹𝑡−1𝑖
𝐾𝑡−1𝑖 )] [1 + 𝑟𝑠𝑖𝑧𝑒 𝑙𝑛(𝑅𝑡−1
𝑖 )]𝑟𝑖𝑛𝑐 se 𝐾𝑡−1𝑖 > 0 e 𝑅𝑡
𝑖 > 0
𝑟0 se 𝐾𝑡−1𝑖 = 0 ou 𝑅𝑡
𝑖 = 0
,
𝑟0 > 0, 𝑟𝑙𝑒𝑣 > 0, 𝑟𝑠𝑖𝑧𝑒 > 0, 0 < 𝑟𝑖𝑛𝑐 ≤ 1
(57)
A taxa de juros 𝑟𝑡𝑖 disponível para a firma 𝑖 é ajustada de acordo com o fatura-
mento 𝑅𝑡𝑖 (tamanho) e a razão
𝐹𝑡𝑖
𝐾𝑡𝑖 entre o estoque de dívida e o capital (alavancagem), como
descrito em (57). O comportamento da taxa de juros parte do modelo proposto por Lavoie
(1992) e inclui algumas premissas clássicas de Stiglitz (1974). Incumbentes podem dispor
de uma taxa mais favorecida, quando um desconto 𝑟𝑖𝑛𝑐 é aplicado.
202
As rotinas financeiras estão relacionadas ao processo de decisão de alocação do
caixa gerado pela firma e de gestão do estoque de dívida 𝐹𝑡𝑖. O caixa do provedor é definido
pelo seu estoque de lucros acumulados nos períodos anteriores ΣΠ𝑡𝑖 e o lucro Π𝑡
𝑖 do corren-
te. A necessidade líquida de financiamento 𝑁𝐹𝑡𝑖, em 𝑡, é calculada em (58), a partir do in-
vestimento planejado 𝐼𝑡𝑖, do resultado Π𝑡−1
𝑖 do período anterior – positivo ou negativo – e
dos eventuais lucros retidos acumulados ΣΠ𝑡−1𝑖 .
𝑁𝐹𝑡𝑖 = {
0 se 𝐼𝑡𝑖 ≤ ΣΠ𝑡−1
𝑖 + Π𝑡−1𝑖
𝐼𝑡𝑖 − (ΣΠ𝑡−1
𝑖 + Π𝑡−1𝑖 ) se 𝐼𝑡
𝑖 > ΣΠ𝑡−1𝑖 + Π𝑡−1
𝑖 (58)
Caso exista disponibilidade de lucros acumulados ΣΠ𝑡𝑖 após os investimentos 𝐼𝑡
𝑖
planejados, o valor excedente é utilizado para a amortização 𝐴𝐹𝑡𝑖 de parte do estoque de
dívida 𝐹𝑡𝑖, se aplicável, como em (59). A prioridade da firma, no modelo, é sempre a expan-
são da capacidade de rede demandada �̂�𝑡𝑖, ou seja, 𝐹𝑡
𝑖 é a variável de ajuste do orçamento do
provedor, como mostra (60). Por outro lado, a firma não retém caixa enquanto existir dívi-
da, ou seja, só existe acumulação de lucros (ΣΠ𝑡𝑖 > 0) quando 𝐹𝑡
𝑖 = 0. Lucros não aplicados
em investimento ou amortização são retidos, sem distribuição de dividendos, segundo (61).
𝐴𝐹𝑡𝑖 = {
ΣΠ𝑡−1𝑖 + Π𝑡−1
𝑖 − 𝐼𝑡𝑖 se ΣΠ𝑡−1
𝑖 + Π𝑡−1𝑖 − 𝐼𝑡
𝑖 ≤ 𝐹𝑡−1𝑖 e 𝐼𝑡
𝑖 ≤ ΣΠ𝑡−1𝑖 + Π𝑡−1
𝑖
𝐹𝑡−1𝑖 se ΣΠ𝑡−1
𝑖 + Π𝑡−1𝑖 − 𝐼𝑡
𝑖 > 𝐹𝑡−1𝑖 e 𝐼𝑡
𝑖 ≤ ΣΠ𝑡−1𝑖 + Π𝑡−1
𝑖
0 se 𝐼𝑡𝑖 > ΣΠ𝑡−1
𝑖 +Π𝑡−1𝑖
(59)
𝐹𝑡𝑖 = 𝐹𝑡−1
𝑖 + 𝑁𝐹𝑡𝑖 − 𝐴𝐹𝑡
𝑖 (60)
ΣΠ𝑡𝑖 = ΣΠ𝑡−1
𝑖 +Π𝑡−1𝑖 + 𝑁𝐹𝑡
𝑖 − 𝐼𝑡𝑖 − 𝐴𝐹𝑡
𝑖 (61)
3.2.2.9. Entrada e saída
A definição dos critérios para entrada de novos provedores de acesso, bem co-
mo a saída das firmas existentes, é uma etapa crítica, uma vez que afeta diretamente a orga-
nização do mercado. Poucos modelos na literatura configuraram detalhadamente as condi-
ções de entrada, frequentemente assumindo a inexistência de entrada ou a simples reposi-
ção de empresas que saíram do mercado (WINDRUM, 2007; GARAVAGLIA, 2010). Se
isso pode ser razoável na análise de setores maduros, é provavelmente insatisfatório para os
emergentes, como a internet. Sem entrada e saída, o conjunto de características individuais
203
da população de provedores mudaria mais lentamente, reduzindo a eficiência do dispositivo
de seleção. Logo, o algoritmo de entrada e saída pode ter importante influência nos resulta-
dos e por isso requer cuidado especial (HODGSON; KNUDSEN, 2004).
A saída de firmas do mercado é configurada em duas situações distintas, de
acordo com (62): 𝑛𝑒𝑥𝑖𝑡 períodos consecutivos (i) de market share 𝑠𝑡𝑖 inferior ao limite 𝑠𝑚𝑖𝑛
ou (ii) de lucros Π𝑡𝑖 negativos sem que exista estoque ΣΠ𝑡
𝑖 de lucro acumulado. 𝑛𝑒𝑥𝑖𝑡 e 𝑠𝑚𝑖𝑛
são parâmetros. Esses são critérios clássicos de saída, adotados por diversos modelos na
literatura – desde Nelson e Winter (1982/2005) até Dosi et al. (2008, 2010, 2013) – e com-
patíveis com a evidência empírica. A saída pode ocorrer a qualquer momento em que essas
condições sejam verificadas, depois de decorridos 𝑛𝑒𝑥𝑖𝑡 períodos em sequência contínua,
para cada condição. Quando o provedor 𝑖 deixa o mercado (𝐸𝑥𝑖𝑡𝑡𝑖 = 1), seus clientes têm
seus contratos imediatamente expirados e ficam livres para buscar outro provedor.
𝐸𝑥𝑖𝑡𝑡𝑖 = {
0 se 𝐿𝑡𝑖 + 𝐴𝐿𝑡
𝑖 ≥ 0 e 𝑠𝑡𝑖 > 𝑠𝑚𝑖𝑛
1 se 𝑡 − 𝑡𝑒𝑥𝑖𝑡 < 𝑛𝑒𝑥𝑖𝑡 e (𝐿𝑡𝑖 + 𝐴𝐿𝑡
𝑖 < 0 ou 𝑠𝑡𝑖 ≤ 𝑠𝑚𝑖𝑛)
(62)
O processo de entrada proposto, por sua vez, não segue nenhum dos modelos da
literatura, mas contém elementos das contribuições de Kim e Lee (2003), Ormerod e Rose-
well (2004) e Garavaglia, Malerba e Orsenigo (2006). O princípio geral parte do insight de
Dosi e Nelson (2010), pelo qual o estímulo à entrada (e à sobrevivência das entrantes) é
função do gap (brecha) entre a escala de eficiência mínima e o tamanho das firmas.
Assim, em cada período de tempo 𝑇𝑚𝑖𝑛𝑒 existe um conjunto de 𝑒𝑚𝑎𝑥 potenciais
provedores entrantes (ambos são parâmetros). A decisão de cada entrante potencial é defi-
nida a partir da avaliação da taxa de retorno média Π̅𝑡𝑎𝑣𝑔
�̅�𝑡𝑎𝑣𝑔 observada no setor e da disponibili-
dade de parcela relevante 𝑠𝑒 do mercado ainda não atendida (igual a 1 −𝑁𝑡𝑎𝑣𝑔
𝑃𝑜𝑝𝑡). São parâme-
tros 𝑒𝑚𝑎𝑥, 𝑟0 e 𝑠𝑒. O processo tenta inserir, sequencialmente, as firmas entrantes 𝑖 no mer-
cado, enquanto a regra de entrada em (63) for cumprida (𝐸𝑛𝑡𝑟𝑦𝑡𝑖 = 1). A decisão de entrar
é tomada sobre médias móveis (período 𝑛𝑎𝑣𝑔) dos agregados Π̅𝑡 e 𝐾𝑡 do setor, conforme
(64).
204
𝐸𝑛𝑡𝑟𝑦𝑡𝑖 =
{
0 se
Π̅𝑡𝑎𝑣𝑔
𝐾𝑡𝑎𝑣𝑔
+ �̂�𝑡≤ 𝑟0 ou 1 −
𝑁𝑡𝑎𝑣𝑔
𝑃𝑜𝑝𝑡≤ 𝑠𝑒
1 se Π̅𝑡𝑎𝑣𝑔
𝐾𝑡𝑎𝑣𝑔
+ �̂�𝑡> 𝑟0 e 1 −
𝑁𝑡𝑎𝑣𝑔
𝑃𝑜𝑝𝑡> 𝑠𝑒
, 𝑟0 > 0, 𝑠𝑒 ≥ 0 (63)
Π̅𝑡𝑎𝑣𝑔
=1
𝑛𝑎𝑣𝑔∑ Π̅𝑡−ℎ
𝑛𝑎𝑣𝑔
ℎ=1
, 𝐾𝑡𝑎𝑣𝑔
=1
𝑛𝑎𝑣𝑔∑𝐾𝑡−ℎ
𝑛𝑎𝑣𝑔
ℎ=1
, 𝑁𝑡𝑎𝑣𝑔
=1
𝑛𝑎𝑣𝑔∑𝑁𝑡−ℎ
𝑢𝑠𝑒𝑟
𝑛𝑎𝑣𝑔
ℎ=1
,
𝑛𝑎𝑣𝑔 ≥ 1
Π̅𝑡 = ∑ Π𝑡𝑖
𝑁𝑡𝑝𝑟𝑜𝑣
𝑖=1
, 𝐾𝑡 = ∑ 𝐾𝑡𝑖
𝑁𝑡𝑝𝑟𝑜𝑣
𝑖=1
(64)
O capital �̂�𝑡𝑖 de cada entrante 𝑖 é definido como um processo aleatório, como
representado em (65). Esse processo tem distribuição normal, com média e desvio padrão
proporcionais ao estoque de capital necessário para respeitar a escala mínima de operação
𝑄𝑚𝑖𝑛𝑗
da tecnologia 𝑎𝑡𝑡𝑜𝑝
. O entrante tem acesso à tecnologia pelo seu preço padrão
𝑃𝑡𝑡𝑒𝑐ℎ,𝑡𝑜𝑝
, sem descontos. 𝑘0 é um parâmetro que permite configurar entrantes de tamanho
�̂�𝑡𝑖 razoável (em relação à dimensão 𝑁𝑡
𝑢𝑠𝑒𝑟 do mercado), mas menores do que os incumben-
tes, de acordo com a evidência empírica (DOSI et al., 2008).
�̂�𝑡𝑖~N(𝑘0𝑁𝑡−1
𝑢𝑠𝑒𝑟𝑃𝑡𝑡𝑒𝑐ℎ,𝑎𝑡
𝑡𝑜𝑝
, 𝑘0𝑁𝑡−1𝑢𝑠𝑒𝑟𝑃𝑡
𝑡𝑒𝑐ℎ,𝑎𝑡𝑡𝑜𝑝
) , 𝑘0 ≥ 0,
�̂�𝑡𝑖 ≥ 𝑄
𝑚𝑖𝑛
𝑎𝑡𝑡𝑜𝑝
𝑃𝑡𝑡𝑒𝑐ℎ,𝑎𝑡
𝑡𝑜𝑝
(65)
�̂�𝑡 = ∑ �̂�𝑡𝑖
𝑁𝑡𝑒𝑛𝑡𝑟
𝑖=1
(66)
Os entrantes consideram também os investimentos �̂�𝑡, previamente comprome-
tidos por outros entrantes no mesmo período (66), ao decidirem a entrada, como em (63). A
entrada de novas firmas no mercado acontece apenas a cada intervalo de 𝑇𝑚𝑖𝑛𝑒 períodos
(parâmetro), com um limite preestabelecido (parâmetro 𝑒𝑚𝑎𝑥), para permitir a modelagem
de restrições regulatórias temporais.
205
3.3. Programação do sistema
Esta seção descreve como foi elaborado o último ponto do roteiro proposto para
a modelagem setorial, a programação (ou codificação) do modelo de simulação, de modo
que o sistema artificial, seus elementos e conexões possam ser analisados de forma transpa-
rente e consistente com a sua contraparte real. O desenvolvimento do programa de compu-
tador é uma atividade iterativa, uma vez que tanto o processo de modelagem, apresentado
na Seção 3.2, quanto o de avaliação dos resultados, desenvolvida no próximo capítulo, inte-
ragem constantemente entre si. O desenvolvimento do programa tem, portanto, o papel de
mediar continuamente o processo analítico, conforme representado na Figura 29.
Figura 29 – Processo de análise de sistemas de simulação computacional.
Fonte: análise do autor, com base em Andersen e Valente (2002).
Existem diversas alternativas para a codificação de modelos de simulação, des-
de as mais simples e limitadas, como planilhas eletrônicas de cálculo (ex. Excel), até pro-
gramação em linguagens genéricas avançadas (ex. C++, Java). Como já mencionado, a pla-
taforma selecionada para o desenvolvimento do modelo – sua codificação, configuração e
testes – deve oferecer suporte para organização dos dados por meio de objetos, dada sua
conveniência para representação dinâmica dos elementos e de suas formas agregadas.
A modelagem orientada a objetos é um tipo de programação na qual o
programador define entidades autocontidas, que consistem não apenas de dados, mas também das operações que são aplicadas à estrutura de dados.
Equações, algoritmos e grafos para rodar o
modelo
Desenvolvimento do sistema de simulação
Parâmetros para simulação
Parâmetros do modelo
Valores iniciais das variáveis
Avaliação dos resul-tados da simulação
Grafos pseudo-aleatórios
206
[…] A execução do programa consiste na interação desses objetos inde-
pendentes e idiossincráticos e essa interação conduz no final para a emer-
gência dos resultados do modelo [GARAVAGLIA, 2004, p. 13].
O programa deve permitir, ainda, a configuração dos parâmetros do modelo, do
estado inicial de variáveis defasadas, da topologia do grafo pseudoaleatório e das demais
condições de simulação (número de agentes, horizonte temporal, armazenamento de variá-
veis etc.). Além disso, deve ser capaz de gerar os resultados necessários, inclusive séries
temporais de variáveis de estado e de indicadores relevantes, nos formatos apropriados.
Para o propósito deste trabalho, foi escolhido o sistema LSD (Laboratory for
Simulation Development), desenvolvido pelo professor Marco Valente (2002). Operado por
meio de uma interface amigável e com recursos da linguagem orientada a objetos C++, o
LSD permite um nível de desempenho, capacidade e flexibilidade próximo aos das lingua-
gens genéricas de programação. Ao mesmo tempo, ele fornece um ambiente integrado e
otimizado para o processamento de simulações, permitindo ao modelista se concentrar nas
questões diretamente associadas à configuração e ao teste do modelo e não nos detalhes
técnicos do processo. Para isso, o LSD oferece as ferramentas de suporte necessárias para
declaração dos elementos do modelo, definição dos valores iniciais, organização automática
da ordem de atualização das equações,255
apresentação gráfica etc.
Complementarmente, foi adicionado código nativo ao LSD para a criação dos
grafos pseudoaleatórios clássicos (Erdős-Rényi, preferential attachment / scale-free e
small-world) bem como importar e exportar grafos de e para programas especializados.
Essa interface com outros sistemas permite a utilização de grafos pseudoaleatórios mais
sofisticados (modelo de configuração, grafos bipartidos, modelo exponencial, algoritmos de
rewiring/switching/closure etc.) empregando ou adaptando ferramentas de geração total ou
parcialmente presentes em plataformas específicas, como o R.
As equações descritas na Seção 3.2.2 foram codificadas na linguagem C++ e
carregadas no sistema LSD para compilação e execução da simulação. Os grafos pseudoa-
255 Para a atualização das múltiplas equações em diferenças, em período de simulação 𝑡, é necessário definir uma ordem de atualização das equações que permita sua solução. Conforme as equações que definem as vari-
áveis de estado utilizam valores contemporâneos de outras equações, nem todas as sequências de cálculo das
variáveis são factíveis. Uma das principais atribuições do sistema LSD é justamente determinar a sequência
de dependências mútuas e organizar a execução a fim de tornar não ambígua a solução de todas as equações.
207
leatórios, utilizando o algoritmo 2.5K-Graphs (GJOKA; KURANT; MARKOPOULOU,
2013) foram produzidos empregando-se o código em linguagem Python fornecido pelos
autores256
, com alguns ajustes para esta aplicação, e importados no sistema LSD. A codifi-
cação das equações e algoritmos está documentada e disponível no site do modelo na inter-
net (PEREIRA, 2014a). Complementarmente, o processamento dos resultados foi realizado
por scripts na plataforma estatística R.257
Os processos aleatórios simulados são produzidos a partir do gerador de núme-
ros pseudoaleatórios interno ao sistema LSD, baseado em um algoritmo do tipo LCG (line-
ar congruential generator).258
Esse gerador permite, para cada “semente” escolhida, a gera-
ção de 231 − 1 extrações distintas antes que qualquer número seja repetido. A distribuição
dessas extrações atende a todos os critérios usuais de distribuição espectral uniforme e elas
não apresentam problemas de correlação serial para sequências de até cem milhões de nú-
meros (PRESS et al., 1992). Cada rodada do modelo é realizada sempre com uma semente
distinta, para garantir sequências de números pseudoaleatórios distintas e independentes.
3.4. Conclusão
A rápida evolução dos modelos de simulação neoschumpeterianos, dos quais
esta tese é tributária, vem permitindo a ampliação das fronteiras de pesquisa, por meio do
aumento do escopo dos fenômenos analisados ou do conteúdo dos modelos. Os especialis-
tas nessa área “estão desenvolvendo quadros analíticos sofisticados, multiagentes e outros,
que eram simplesmente inimagináveis quando Nelson e Winter começaram a experimentar
com simulação” (WINDRUM, 2007, p. 431). Espera-se que o modelo proposto siga nessa
tradição de expansão das fronteiras, ao propor algumas soluções de modelagem inovadoras
e relevantes para a dinâmica da organização setorial, em particular no campo institucional.
A pesquisa metodológica indicou que os modelos agent-based têm as caracte-
rísticas necessárias para modelagem de sistemas complexos como o proposto, o que inclui a
capacidade de representação de agentes heterogêneos e das interações locais entre eles,
256 O código está disponível em http://www.minasgjoka.com/2.5K. 257 Disponível em http://cran.r-project.org. 258 Gerador de números pseudoaleatórios Park-Miller, com baralhamento Bays-Durham e as proteções pro-
postas por Press et al. (1992).
208
viabilizando a reprodução e a apreensão de fenômenos emergentes. Isso é essencial para o
estudo de sistemas complexos, e a simulação agent-based é, usualmente, o artefato mais
adequado para suportá-la. Essa abordagem é particularmente apropriada para a modelagem
formal de processos evolucionários e institucionais, que apresentam propriedades emergen-
tes e, frequentemente, processos de upward e downward causation.
Foi selecionada a metodologia agent-based do tipo history-friendly, caracterís-
tica da segunda geração de modelos evolucionários. Ela foi criada explicitamente para a
investigação de setores industriais, com o objetivo de permitir o teste de teorias qualitativas
sobre os mecanismos que orientam a evolução setorial, utilizando a informação disponibili-
zada pela análise empírica para construção e validação dos modelos. A aderência – ou não
– dos resultados aos fatos estilizados permite a avaliação da adequação lógica do quadro
teórico. As informações produzidas pelo modelo permitem o aprofundamento analítico,
ordenando a relevância de cada fator, o que usualmente não é possível no sistema real, além
de identificar fenômenos emergentes, não expressamente modelados, ou mesmo sequer
previstos a priori. Essa exploração será apresentada no próximo capítulo.
Apesar de sua relativa complexidade algorítmica – o código necessário para
programar o conjunto de 44 equações principais tem mais de mil linhas –, o modelo resul-
tou razoavelmente parcimonioso. Vale notar que, dessas equações, 26 são críticas para o
desempenho do modelo, por incorporar as premissas específicas do quadro de referência
teórico desenvolvido no Capítulo 2. As demais equações representam, em princípio, apenas
racionalizações gerais – de preceitos contábeis, por exemplo – necessárias para a completu-
de lógica do modelo, mas que não deveriam ser fonte de preocupação analítica.
O modelo necessita ainda de 42 parâmetros calibráveis (além dos valores para
configurar o gerador de grafos pseudoaleatórios) e nove variáveis com condições iniciais
não triviais (diferentes de zero). Por construção, parcela significativa deles tem impacto
marginal nas saídas do modelo, como avaliado no próximo capítulo. Essa composição rela-
tivamente simples foi intencional. Com isso buscou-se mitigar uma das principais críticas à
utilização de simulação, a sua susceptibilidade à configuração inicial de parâmetros e vari-
áveis. Com isso, espera-se reforçar a importância da estrutura do modelo – o sistema de
equações e o quadro teórico que as embasou – como orientador principal dos resultados.
209
Capítulo 4: Configuração e análise dos resultados do modelo
Com base no modelo descrito no Capítulo 3, este capítulo busca esclarecer os
potenciais mecanismos geradores dos fatos estilizados apontados no Capítulo 1, a fim de
testar as hipóteses teóricas levantadas no Capítulo 2. Dessa forma, espera-se verificar se o
quadro teórico proposto é adequado e suficiente para justificar o cenário empírico e ajudar a
responder às questões aventadas pela análise apreciativa.
Para produzir resultados, entretanto, o modelo descrito no Capítulo 3 precisa,
inicialmente, ser adequadamente configurado e validado. A configuração envolve a escolha
adequada de valores de parâmetros e condições iniciais, além de outros detalhes do pro-
grama de simulação computacional. Já o processo de validação tenta estabelecer se o mode-
lo pode representar de modo apropriado o sistema setorial, pelo menos dentro do escopo
particular dos objetivos propostos. Isso implica tanto a avaliação da configuração adotada
quanto a sensibilidade do modelo a ela, para, em seguida, testar a sua compatibilidade com
a evidência empírica.
Ademais, validado o modelo e confirmada sua compatibilidade, o recurso da
simulação permite o aprofundamento da pesquisa apreciativa, iniciada no Capítulo 1. O
modelo, conforme sugere Malerba (2010), representa uma abstração do setor industrial, um
artefato investigativo que fornece meios para o estudo dos pormenores da dinâmica da es-
trutura e da competição, normalmente não acessíveis para o exame empírico apreciativo.
Na ciência econômica, modelos de simulação têm por propósito justamente a
análise experimental e exploratória de sistemas econômicos. A reprodução do “setor artifi-
cial” enseja a exploração de alguns fenômenos observados no mundo real, por intermédio
da manipulação de seus parâmetros e variáveis, o que é impossível nos sistemas econômi-
cos concretos (GARAVAGLIA, 2004). Com isso, ao ganhar conhecimento sobre os fatores
e processos que explicam o comportamento do modelo, pode-se avaliar a possibilidade de
transposição das suas conclusões para a compreensão da realidade. Em síntese, essa é a
perspectiva metodológica do presente capítulo.
A próxima seção do capítulo apresenta com mais detalhes as principais conside-
rações metodológicas desta etapa. Em seguida, a Seção 4.2 discute as alternativas para a
210
calibração dos parâmetros e avalia a sensibilidade do modelo aos parâmetros e condições
iniciais selecionados. Na Seção 4.3, realiza-se a avaliação dos resultados, com ênfase na
aderência aos fatos estilizados e na compatibilidade com as hipóteses teóricas. Uma breve
conclusão encerra o capítulo.
4.1. Metodologia de validação e análise
Como mencionado no capítulo anterior, não existe metodologia padronizada na
literatura para calibração e validação de modelos agent-based (MAB). Essa é uma área re-
lativamente nova, mas fundamental para a construção de modelos robustos (FAGIOLO;
WINDRUM; MONETA, 2006). A identificação de padrões complexos, que se desenvol-
vem baseados nos processos não lineares de interação proporcionados pela simulação, re-
quer tratamento não trivial dos dados, dada sua natureza eminentemente probabilística
(COLANDER, 2008). Diversas técnicas econométricas e estatísticas estão disponíveis para
o processamento de informações de sistemas sociais reais, porém sua adaptação para os
simulados não está plenamente desenvolvida (WERKER; BRENNER, 2004).
Para mitigar essa restrição, adota-se um enfoque inspirado nas sugestões de
Brenner e Werker259
(2004, 2007), sem, no entanto, aprofundar o tratamento estatístico da
validação de resultados. Mesmo com a consequente limitação do escopo analítico, essa
proposta de validação do modelo é considerada adequada para o propósito em questão –
teste de hipóteses teóricas e estudo de mecanismos causais (KLÜGL, 2008). Uma aborda-
gem mais limitada, desconsiderando a validação estatística completa, é recomendada por
autores como Malerba (2010) e Epstein (2006), especialmente na fase inicial de pesquisa.
Esse encaminhamento talvez seja excessivamente restritivo para outras aplicações, como a
construção de cenários prospectivos, na qual se faz necessário maior nível de controle tanto
dos parâmetros quanto dos aspectos quantitativos dos resultados (KLÜGL, 2008). Mas,
também nessa situação, “a problemática sobre se um MAB deveria gerar implicações quan-
titativas (e, nesse caso, tem que ser avaliado com base no seu ajustamento aos dados do
mundo real) ainda está em aberto” (PYKA; FAGIOLO, 2005, p. 18).
259 Esses autores propuseram o “realismo crítico” como alternativa metodológica: “essa abordagem utiliza
abdução para inferir dos fatos empíricos e observações para os padrões gerais que os suportam, fornecendo
portanto uma explicação causal em um nível mais profundo” (WERKER; BRENNER, 2004, p. 7).
211
Figura 30 – Processo de modelagem e simulação.
Fonte: análise do autor, com base em Andersen e Valente (2002).
Isso considerado, o roteiro proposto para este capítulo é formado por cinco eta-
pas: (i) seleção do conjunto de parâmetros e condições iniciais para calibragem do modelo;
(ii) avaliação da sensibilidade dos resultados aos parâmetros e condições iniciais; (iii) reali-
3. Implementação do modelo
4. Depuração do modelo
5. Calibração do modelo
6. Geração de estatísticas
7. Análise de sensibilidade 8. Validação do modelo
9. Exploração do modelo
10. Refinamento da especificação 11. Análise dos resultados
1. Definição do problema
2. Especificação do modelo
12. Apresentação dos resultados
212
zação dos lotes de simulação; (iv) análise qualitativa dos resultados, com validação contra
os fatos estilizados empíricos, e eventuais ajustes no modelo; e (v) teste das hipóteses teóri-
cas, utilizando-se os resultados previamente validados. As etapas (i), (iii) e (iv) têm nature-
za eminentemente iterativa, pois requerem que os processos de modelagem e análise intera-
jam entre si, tornando-as interligadas, como representado na Figura 30. Em particular, essas
etapas estão representadas pelos passos 5 a 11 da figura (os passos 1 a 4 foram desenvolvi-
dos no capítulo anterior).
A interação entre modelagem e análise é crítica no caso dos modelos history-
friendly (MHF). Nos MHF, um dos principais objetivos é justamente a reprodução dos fatos
estilizados produzidos pela pesquisa empírica apreciativa (GARAVAGLIA, 2010). Esse
ponto foi discutido no Capítulo 3. No entanto, a metodologia dos MHF não se restringe a
isso. A identificação dos fatos estilizados empíricos entre as propriedades emergentes do
modelo representa apenas uma fase preliminar (WINDRUM, 2007). Superada essa fase, a
análise passa à busca dos insights que o modelo possa fornecer, por analogia, sobre a ope-
ração dos processos econômicos reais, como reforçaram Nelson e Winter (1982/2005).
Deve ser notado que, nos MHF, não é objetivo da modelagem a construção de
sistemas de simulação que produzam valores numéricos ajustados com precisão aos dados
históricos. Antes disso, a finalidade – dos MAB, em geral – é a reprodução de padrões qua-
litativos relativos às principais questões analíticas. No cenário específico dos MHF, a meta
é a descrição das tendências dos descritores-chave do sistema, em particular a estrutura
industrial e o desempenho setorial, de modo a esclarecer os mecanismos causais que justifi-
cam as hipóteses propostas pelo quadro teórico escolhido (MALERBA, 2010).
A primeira etapa do roteiro, a escolha de um conjunto adequado de parâmetros
(incluindo condições iniciais), é importante não apenas para garantir o comportamento sa-
tisfatório do modelo, mas também para assegurar a compatibilidade com os dados empíri-
cos. Para diversos autores, constelações de parâmetros, que possam ser justificadas confor-
me a evidência empírica, são o primeiro passo para a construção de modelos de simulação
robustos (WERKER; BRENNER, 2004; WINDRUM, 2007; MALERBA, 2010). A utiliza-
ção da informação empírica provenientes do sistema modelado permite a redução da gene-
ralidade do modelo, tornando mais específicos e conclusivos os seus resultados, mesmo que
213
ao custo de menor aplicabilidade a outros setores econômicos (BRENNER; WERKER,
2007). A adoção de premissas realistas na calibragem é um critério comum de seleção de
modelos pelos representantes da escola evolucionária (FRENKEN, 2006).
No entanto, nem todos os parâmetros necessários costumam estar disponíveis
nas fontes empíricas. Isso frequentemente obriga o analista a arbitrar valores, que devem
ser justificadamente compatíveis com o sistema econômico concreto. Uma boa prática é a
abordagem de Malerba et al. (1999), que recomendam tornar o modelo tão transparente
quanto possível quando são necessárias escolhas que não se baseiam na pesquisa empírica.
Segundo Pyka e Fagiolo (2005), considerando-se os parâmetros inicialmente
coletados – ou arbitrados –, um procedimento usual para a seleção dos valores para calibra-
ção começa com a avaliação dos resultados produzidos pelo modelo. Caso eles sejam plau-
síveis em face dos fatos estilizados, o próximo passo é avaliar a sensibilidade do modelo
quando esses parâmetros mudam. O objetivo é estabelecer quais faixas de variação produ-
zem saídas convergentes e divergentes com a história do setor (WINDRUM, 2007). Isso
possibilita a apreensão de explicações causais provenientes do modelo, potencialmente for-
necendo novos insights sobre a situação concreta em estudo (PYKA; FAGIOLO, 2005).
A utilização de fatos estilizados no processo de calibração – e na modelagem
em geral – costuma ser criticada, em virtude do fenômeno da sobreidentificação (ROSSER,
1999; FRENKEN, 2006). Fatos estilizados são sobreidentificados na medida em que podem
ser gerados por vários modelos distintos. Segundo Frenken (2006), a mitigação desse pro-
blema requer a seleção de especificações, incluindo sua parametrização, que “integrem no
modelo uma parcela significativa do conhecimento disponível no tópico em questão” (ibid.,
p. 151). Uma estratégia complementar para mitigar a objeção, proposta pelo autor, é a re-
produção de múltiplos fatos estilizados, simultaneamente e pelo mesmo modelo, a partir de
uma gama relativamente ampla dos valores dos parâmetros.
Outro ponto relevante do método proposto é a possibilidade de geração de co-
nhecimento não apenas com base nos dados produzidos pelo modelo, mas também pelo
processo iterativo de calibração e análise de sensibilidade. Até quando resultados inespera-
dos ocorrem: “um evento de baixa probabilidade gerado pelo modelo é importante (e fre-
quentemente crucial) para compreender alguns mecanismos causais presentes no mundo
214
real” (PYKA; FAGIOLO, 2005, p. 18). Nessa linha, Malerba (2010) sugere que, com o
modelo devidamente depurado de problemas de programação, deve ser testada a verossimi-
lhança de conclusões significativamente distintas pela alteração de parâmetros relativos às
variáveis-chave. Nesse caso, o objetivo do teste da sensibilidade não é, por si, o desenvol-
vimento de “histórias diferentes” (experimento contrafatual),260
e sim o teste da mecânica
de causação do modelo.
Concluídas as etapas de calibração e análise de sensibilidade, inicia-se a avalia-
ção dos resultados produzidos pelo modelo e sua aplicação no estudo do sistema econômico
real. De acordo com Valente, Ciarli e Lorentz (2010), o uso científico de modelos de simu-
lação consiste em dois passos lógicos: (i) a busca de explicação para os eventos relevantes
– uma interpretação da “história virtual”; e (ii) a verificação da aplicabilidade das explica-
ções da história virtual para os fenômenos do mundo real. Portanto, o primeiro critério de
julgamento do modelo deve ser sua capacidade de replicar o maior número possível de fa-
tos estilizados, sem o que será difícil a reconciliação entre a história virtual e a real
(FRENKEN, 2006).
Por fim, uma limitação apontada para os procedimentos de modelagem em ge-
ral, e para a modelagem history-friendly em particular, diz respeito ao tipo das regularida-
des empíricas que norteiam a construção do modelo. Se elas representarem tão somente
propriedades de distribuições estacionárias, serão necessárias informações adicionais para
compreender o processo estocástico dinâmico originário (BROCK, 1999) pois, se conside-
radas isoladamente, podem não representar um teste suficiente para o modelo (WINDRUM,
2007). Como discutido no capítulo anterior, a existência inexorável de alguma arbitrarieda-
de na modelagem restringe não apenas a possibilidade analítica de “identificar” se o mode-
lo reproduz ou não a história, mas a precisão com que os seus parâmetros conseguem ser
calibrados (FAGIOLO; WINDRUM; MONETA, 2006). Essas são questões que não estão
integralmente resolvidas para qualquer forma de modelagem, diga-se, e não somente a si-
mulação (LOASBY, 1999). No entanto, elas devem ser mitigadas pela análise cuidadosa
dos resultados e mecanismos causais e da sua adequada justificação (VALENTE, 2002).
260 Análise contrafatual têm caráter exploratório e não se baseia em dados empíricos. Busca responder pergun-
tas especulativas do tipo “o que poderia ter acontecido no passado se...” e não projetar o futuro ou indicar
práticas a serem adotadas (GARAVAGLIA, 2004).
215
4.2. Calibração e sensibilidade
A organização do processo de calibração e teste de sensibilidade é uma caracte-
rística peculiar dos MHF. Em geral, a metodologia comum para os MAB consiste em, ini-
cialmente, identificar as regiões do espaço dos parâmetros – pela análise de sensibilidade –
para, na sequência, realizar a calibração dos parâmetros com foco nas regiões identificadas
como “críticas” ou “mais interessantes” (KLÜGL, 2008). Entretanto, em uma abordagem
history-friendly, não faz sentido utilizar parâmetros incompatíveis com a evidência empíri-
ca, exceto quando de experimentos contrafatuais (GARAVAGLIA, 2004). Esse procedi-
mento reduz sobremaneira a região do espaço de parâmetros que necessita ser analisada, às
expensas da generalidade das conclusões para outros cenários.
No que se segue, valores de referência relativos a preços e custos estão expres-
sos em unidades monetárias (UM) genéricas. Valores referentes a intervalos cronológicos
são indicados em unidades de tempo (UT) abstratas. Apesar de as UM e UT não serem res-
tritas a uma grandeza específica do mundo real, para a calibração optou-se pela associação
de equivalência, grosso modo, entre 1 UM e R$ 10.000,00 e entre 1 UT e 1 trimestre. Essa
opção parece razoável tanto do ponto de vista da “unidade de tempo” em que se supõe que
se verificam as decisões relevantes dos agentes modelados – em particular, as firmas –
quanto da frequência com que informações as empíricas costumam ser disponibilizadas. Os
valores de medida de capacidade de rede de acesso estão denominados em unidades padro-
nizadas de capacidade (UC), definida como a capacidade de rede adequada, em um dado
período, para a utilização por um agente artificial do tipo usuário (cf. Apêndice A).
Outra premissa da calibração é a relação entre os objetos do tipo “User” do mo-
delo e os consumidores reais que eles representam. Por limitações técnicas – e reduzido
interesse analítico –, não é conveniente a representação 1:1 dos agentes do mundo real, es-
pecialmente em um setor com dezenas de milhões de usuários. Como a simulação trabalha
com milhares de objetos heterogêneos desse tipo, a perda de generalidade no tratamento da
heterogeneidade não é significativa.261
Por isso, cada objeto “User” descreve um grupo ho-
mogêneo de 10.000 consumidores reais.
261 Entretanto, isso altera a “escala” de alguns resultados quantitativos do modelo, tornando mais complicada
sua comparação direta com os equivalentes nos dados empíricos.
216
4.2.1. Calibração dos parâmetros e valores iniciais
A etapa de calibração consiste na escolha de parâmetros262
adequados para que
o modelo, suposto como estruturalmente correto, produza resultados válidos. Diferentemen-
te do paradigma convencional da modelagem por simulação, que aborda esse problema
essencialmente como uma questão de “otimização” (KLÜGL, 2008), a abordagem dos
MHF recomenda que os parâmetros sejam preferencialmente derivados da pesquisa empíri-
ca, se não direta pelo menos qualitativamente (YOON; LEE, 2009). Eles representam o
benchmark para a investigação que se segue e contra os quais o modelo será validado.
O modelo requer a definição de 42 parâmetros, nove condições iniciais de vari-
áveis que requerem valores não triviais (diferentes de zero) e a parametrização do gerador
de grafos aleatórios (cujo número de parâmetros depende do gerador e da rede concreta
utilizados). O detalhamento e a justificação dos valores selecionados estão no Apêndice C.
O processo buscou adotar números de calibração que apresentassem ordens de
grandeza, pelo menos, compatíveis com os dados empíricos disponíveis. A maior restrição
para esse procedimento, no entanto, proveio da indisponibilidade, ou da dificuldade de
mensuração, de valores associados com os parâmetros e condições iniciais.
A escolha da parametrização do gerador de grafos pseudoaleatórios, para a si-
mulação da topologia da rede social dos usuários, foi realizada com base em diversos estu-
dos empíricos sobre redes reais, conforme abordado na Seção 1.4.3.1. Infelizmente nenhu-
ma dessas redes era proveniente de mercados de acesso à internet. Por isso optou-se por
utilizar como proxy outras redes, que fossem semelhantes àquela do mercado em questão.
A utilização de geradores de grafos pseudoaleatórios de elevada fidelidade re-
quer a disponibilidade de amostras significativas das redes reais emuladas, para a obtenção
de um grande número de parâmetros (maiores detalhes no Apêndice C). Após triagem ini-
cial entre as potenciais candidatas, foi selecionada uma sub-rede da rede social online Fa-
cebook (VISWANATH et al., 2009). Além do fato de ser uma rede que, por definição, se
organiza a partir das redes reais de relacionamento humano, a escolha se deu também pelo
porte da rede, que inclui uma parcela ponderável da população mundial e, ainda, pelo rele-
262 Exceto quando explicitamente diferenciado, o termo “parâmetro” será sempre utilizado, no que se segue,
significando tanto parâmetros propriamente ditos quanto valores de condições iniciais não triviais (não zero).
217
vante trabalho de pesquisa desenvolvido sobre ela e seu uso para a geração de grafos pseu-
doaleatórios (GJOKA et al., 2010; SALA et al., 2010; UGANDER et al., 2011).263
4.2.2. Indicadores críticos do modelo
Segundo Ormerod e Rosewell (2009, p. 130), um dos passos essenciais na vali-
dação do MAB “é construir critérios corretos pelos quais os resultados de um modelo de-
vem ser avaliados”. Nesse sentido, são propostos alguns indicadores sintéticos, que se espe-
ra capturem de forma abrangente os fenômenos em estudo, pois sem eles o próprio conceito
de validação perde substância (KLÜGL, 2008). É importante limitar o máximo possível a
quantidade de indicadores, de modo a manter tratável a validação.
Tabela 5 – Indicadores críticos para análise de sensibilidade.
Símbolo Descrição
𝑃𝑡𝑎𝑣𝑔
Preço médio ponderado do serviço de acesso
𝑀𝑡𝑎𝑣𝑔
Média ponderada da qualidade de rede do mercado
𝑉𝑀𝑅𝑡𝑃 Razão variância/média do preço ofertado
𝑝𝑜𝑝𝑡𝑐𝑜𝑣 Porcentual da população potencial coberta pelo serviço
𝐻𝐻𝐼𝑡𝑠 Índice Herfindahl-Hirschman do market share (concentração)
𝐻𝐻𝐼𝑡𝐾 Índice Herfindahl-Hirschman do capital empregado (concentração)
𝑁𝑡𝑝𝑟𝑜𝑣
Número de provedores de acesso
𝑎𝑔𝑒𝑡𝑎𝑣𝑔
Idade média dos provedores ativos no mercado
𝑠𝑡𝑇,𝑒𝑛𝑡𝑟 Market share agregado dos entrantes
𝐿𝐾𝑡𝑇,𝑎𝑣𝑔,𝑒𝑛𝑡𝑟
Rentabilidade (L/K) média ponderada dos entrantes
Fonte: análise do autor.
A análise de sensibilidade será realizada por meio de um conjunto de indicado-
res, listados na Tabela 5, que representam estados relevantes do sistema e que capturam
dimensões importantes dos fatos estilizados em investigação. Eles permitem, ainda, avaliar
se o modelo é capaz – ou não – de reproduzi-los, com base nos valores de calibração.
263 A premissa adotada é que a rede social real dos usuários do Facebook seja estruturalmente semelhante à
sua versão eletrônica. Indícios dessa similitude já foram obtidos pela aplicação das técnicas de comparação
paramétrica de redes sociais complexas (SALA et al., 2010).
218
Os indicadores podem ser divididos em dois grupos. O primeiro grupo (𝑃𝑡𝑎𝑣𝑔
,
𝑀𝑡𝑎𝑣𝑔
, 𝑉𝑀𝑅𝑡𝑃 , 𝑝𝑜𝑝𝑡
𝑐𝑜𝑣), mais geral, foi escolhido por representar atributos agregados rele-
vantes para a compreensão da organização do mercado, além de usualmente disponíveis nas
bases de informação mantidas por reguladores, associações setoriais etc. O segundo conjun-
to (𝐻𝐻𝐼𝑡𝑠, 𝐻𝐻𝐼𝑡
𝐾, 𝑁𝑡𝑝𝑟𝑜𝑣
, 𝑎𝑔𝑒𝑡𝑎𝑣𝑔
, 𝑠𝑡𝑇,𝑒𝑛𝑡𝑟
, 𝐿𝐾𝑡𝑇,𝑎𝑣𝑔,𝑒𝑛𝑡𝑟
), mais específico, busca representar
algumas das principais dimensões da competição, em linha com as referências normalmente
empregadas pela literatura, privilegiando indicadores que possam ter suas contrapartes em-
píricas obtidas ou calculadas.
4.2.3. Análise de sensibilidade
A análise de sensibilidade é um trabalho experimental no qual os valores dos
parâmetros são alterados, de acordo com um procedimento selecionado, e os resultados do
modelo de simulação são avaliados. Esse processo é repetido para cada combinação de pa-
râmetros selecionada – cada uma delas representando um ponto no espaço multidimensio-
nal da parametrização. Testar o comportamento do modelo, com diversas configurações de
parâmetros, é essencial para a avaliação de sua robustez e dependência das escolhas de ca-
libração (BRENNER; WERKER, 2007).
Embora a maioria dos processos complicados e complexos envolvidos se-ja retratada, geralmente pesquisadores usando modelos History-friendly
têm dificuldades em identificar os mecanismos gerais subjacentes, que
podem ser reencontrados em circunstâncias históricas semelhantes. Em
certa medida, a realização de análises de sensibilidade dos resultados pode resolver esse problema, porque isso dá uma indicação de quão estáveis
são os resultados e sua dependência de efeitos aleatórios [p. 234].
A sensibilidade dos parâmetros não pode ser testada apenas individualmente,
restringindo a aplicação da técnica ceteris paribus tradicional. Como os MAB contêm di-
versos laços de realimentação entre agentes e destes com o ambiente e vice-versa, mesmo
nos níveis agregados mais elevados, “isso conduz a efeitos não lineares da mudança de pa-
râmetros e pode até resultar em efeitos caóticos” (KLÜGL, 2008, p. 40). Os efeitos combi-
nados de diferentes parâmetros e condições iniciais podem atuar de forma coordenada, exi-
gindo que as estimativas – em particular, a de sensibilidade – sejam realizadas de conjun-
tamente. Por isso, a dimensão do espaço de parâmetros é uma variável-chave no estabele-
219
cimento da estratégia de análise de sensibilidade – e da validação em geral – dos MAB.
Contudo, cada incremento linear na dimensão do espaço de parâmetros representa um au-
mento exponencial no número de possíveis pontos de teste. Modelos com mais do que al-
guns poucos parâmetros dificilmente podem ser avaliados por uma estratégia de “força bru-
ta”, por exemplo, do tipo Monte Carlo puro (BRENNER; WERKER, 2007).
Além da quantidade de parâmetros, outro ponto crítico é a escolha dos valores
de teste para cada parâmetro.264
Novamente, a evidência empírica pode ser utilizada para
delimitar a faixa razoável de variação – ou, pelo menos, sua ordem de grandeza – para a
maioria dos parâmetros de um modelo do tipo history-friendly (WERKER; BRENNER,
2004; WINDRUM, 2007). Mesmo assim, ainda é necessária a seleção de um número restri-
to de valores de teste para cada parâmetro, dentro da faixa aplicável.
A proposta é realizar a avaliação de sensibilidade dos parâmetros do MAB do
mercado de acesso em três etapas. Na primeira, serão definidos os conjuntos (finitos) de
teste para os parâmetros, tendo a referência empírica como guia na determinação dos ex-
tremos. A segunda etapa vai aferir a sensibilidade dos indicadores críticos à variação de
cada parâmetro, mantidos os demais em seus valores de calibração (análise ceteris paribus).
Por fim, na terceira etapa, os parâmetros com maior influência individual nos indicadores
serão testados conjuntamente (análise Monte Carlo).
A metodologia proposta é passível de críticas. Parâmetros que são individual-
mente pouco influentes poderiam potencializar impactos relevantes quando combinados
com alterações em outros. Ou, ainda, esses parâmetros talvez sejam decisivos sobre outras
variáveis não identificadas como indicadores críticos, mas mesmo assim influenciando de
modo importante o sistema (BRENNER; WERKER, 2007). No entanto, acredita-se que a
solução de compromisso adotada seja minimamente capaz de selecionar os pontos mais
interessantes do espaço de parâmetros, capturando seus aspectos cruciais, e, pelo menos,
identificar comportamentos inesperados ou indesejados do sistema simulado.
Um tema pouco discutido sobre os MAB é a definição do tamanho da amostra
de rodadas, necessária para a caracterização dos resultados do modelo (ORMEROD; RO-
264 Evidentemente, o teste dentro do conjunto infinito dos números reais não é factível, logo subconjuntos
particulares (finitos) são escolhidos para cada parâmetro, em função do sistema computacional disponível.
220
SEWELL, 2009).265
A geração de parâmetros estatísticos por meio de múltiplas rodadas –
com uma mesma configuração de parâmetros – é requerida por causa da presença de pro-
cessos estocásticos (KLÜGL, 2008). A investigação do procedimento adotado nos diversos
modelos disponíveis na literatura mostra valores dispersos em uma faixa que vai, em linhas
gerais, de dez a mil rodadas para cada constelação única de parâmetros. Contraintuitiva-
mente, modelos mais complexos são usualmente testados com amostras menores, em virtu-
de das limitações relativas ao tempo de processamento e ao número de pontos de teste no
espaço de parâmetros. No caso em tela, serão realizadas cinquenta rodadas de simulação
para cada ponto, a exemplo do adotado por Dosi et al. (2010, 2013) para um modelo de
dimensão semelhante. Esse valor foi determinado pela especificação de uma precisão mí-
nima de ±5% para estimação dos indicadores críticos, com confiança de 95%.
As rodadas do modelo são geradas a partir de diferentes “sementes” do gerador
de números aleatórios, garantindo as condições de independência estatística (ausência de
correlação serial) para os componentes de natureza estocástica, incluindo o grafo pseudoa-
leatório (rede social). Em seguida, são inferidas as estimativas paramétricas para os indica-
dores críticos (Seção 4.2.2). Para efeito de análise, no que se segue, eles serão representa-
dos por suas médias e desvios padrão266
ao longo de cada rodada de simulação.
Considerando que 47 conjuntos de parâmetros estão sendo testados, com cinco
valores cada, um total de quase 12 mil rodadas deve ser executado, produzindo 118 mil
resultados distintos para os indicadores. Os testes de sensibilidade estão detalhados no
Apêndice D. Alguns detalhes desses testes serão explorados na próxima seção, em particu-
lar explorando os parâmetros267
com impactos críticos nos resultados (𝑐𝑠, �̅�1𝑘-�̅�3
𝑘 , 𝑞, 𝑔𝐵).
Em geral, conclui-se que, apesar do número relativamente elevado de parâmetros do mode-
lo, apenas um grupo reduzido deles tem capacidade de produzir, individualmente, altera-
ções relevantes nos indicadores críticos. Ainda assim, o impacto de cada um deles restou
265 Esse procedimento é necessário porque, para um dado número de rodadas (amostras), o nível de confiança
e a precisão da estimação dos parâmetros estatísticos variam em sentidos opostos (COSTA NETO, 1977). 266 A análise preliminar confirmou que as distribuições estatísticas, para a maioria dos indicadores, são sufici-
entemente simétricas e unimodais para justificar a representatividade desses dois momentos das distribuições. 267 Respectivamente, a sensibilidade para preço e para influência da rede social, a sensibilidade à variação da
qualidade, a taxa de crescimento do orçamento dos usuários e o fator de escala para custos operacionais. Um sexto parâmetro, não numérico, também foi identificado como crítico para os resultados: a estrutura da rede
social (𝑛𝑒𝑡𝑡𝑦𝑝𝑒), que será tratado mais adiante.
221
razoavelmente modesto, mostrando a importância da estrutura do modelo sobre suas saí-
das.268
Mudanças expressivas nos resultados foram obtidas, tão somente, com a manipula-
ção intensa e combinada de múltiplos parâmetros.
4.3. Análise dos resultados
A avaliação do comportamento do modelo não é uma tarefa trivial. A verifica-
ção das relações gerais entre entradas e saídas, realizada durante a análise de sensibilidade,
é apenas o passo inicial desse processo.
[O] teste de MABs pode borrar a fronteira [...] entre verificação e valida-ção. Se podemos testar o MAB em questão, alterando as variáveis de en-
trada diferentes para avaliar o intervalo de valores de saída possível que o
modelo produz, então temos que ter alguns meios para julgar se esse in-tervalo é consistente com o correto funcionamento do modelo ou não. Na
maioria dos casos, isso apenas pode ser feito se considerarmos a plausibi-
lidade dos resultados com referência aos intervalos de entrada que foram
escolhidos. Isso, por sua vez, geralmente se baseará na parcela da realida-de que o modelo tenta explicar. Esta é uma das razões por que uma des-
crição clara do problema a ser modelado e como a saída deve ser julgada é
essencial para a verificação e a validação [ORMEROD; ROSEWELL, 2009, p. 133].
Com base no teste de sensibilidade do modelo, a primeira etapa de avaliação
consiste na validação dos resultados gerais produzidos, a partir da informação da pesquisa
empírica. Isso se dá pela verificação da plausibilidade dos valores, das relações entre variá-
veis e da dinâmica proveniente das múltiplas rodadas do modelo (KLÜGL, 2008). Por cau-
sa das características próprias dos MAB, os procedimentos de investigação têm de envolver
não apenas as propriedades agregadas do modelo, mas sobretudo aquelas oriundas de sub-
conjuntos dos agentes, ou mesmo de agentes individuais (ibid.).
Em uma segunda etapa, dentro da metodologia dos MAB history-friendly, será
avaliada a aderência dos resultados aos fatos estilizados e trajetórias históricas provenientes
da análise apreciativa (MALERBA, 2010). Por fim, testa-se a compatibilidade entre os me-
canismos de causação verificados no modelo e as hipóteses teóricas adotadas.
268 Essa constatação deve ser devidamente qualificada. Em virtude da restrição de tempo e de capacidade de processamento, inerentes aos modelos de simulação mais complexos, apenas regiões reduzidas do espaço de
valores dos parâmetros puderam ser exploradas. Entretanto, acredita-se que a estratégia proposta permitiu
selecionar as regiões mais interessantes para o processo de análise de sensibilidade, segundo uma perspectiva
history-friendly. Sem a pretensão de generalidade sobre os resultados obtidos, parece claro que eles sejam
suficientemente representativos do quadro empírico modelado, como será discutido a seguir.
222
4.3.1. Resultados gerais do modelo
Os resultados do modelo foram logrados por meio da repetição de 50 rodadas
de simulação, sob a mesma configuração de parâmetros e valores iniciais, a partir das quais
são geradas as séries temporais. Cada rodada envolveu 250 unidades de tempo (UT), repre-
sentando um período de mais de 60 anos no setor investigado. Esse método permite não
apenas a representação paramétrica (médias e desvios padrão) dos indicadores que sumari-
zam os resultados, mas também uma perspectiva da dinâmica temporal dos processos.269
No que se segue, serão descritos resultados em termos dos intervalos de confiança obtidos
nas múltiplas rodadas, além de suas médias. Os intervalos foram construídos com um nível
elevado de significância (1%), de modo que os seus limites confinam os resultados da vasta
maioria das rodadas.
4.3.1.1. Demanda, preços e qualidade
Na configuração testada, compatível com a evidência empírica do setor de in-
ternet real (ver Apêndice C), o mercado de acesso é iniciado com quatro provedores e 1,2
milhão de usuários do serviço distribuídos uniformemente entre eles.270
Esses provedores
contam com tecnologias, redes, qualidades e preços iguais no momento inicial (𝑡 = 0). Os
usuários, nesse instante, contam com orçamento equivalente aos preços ofertados pelos
provedores. A partir do período 𝑡 = 0, novos usuários potenciais chegam continuamente ao
mercado de internet, até que seja atingida a saturação em torno de 𝑡 = 150.271
O crescimen-
to da demanda potencial total tem o perfil clássico da curva logística, ajustada aos dados
empíricos brasileiros (COSTA; BIANCHINI, 2008; CETIC.BR, 2006-2014; IBGE, 2014),
conforme a Figura 31.
269 Obviamente, não existe a expectativa de que a trajetória histórica de qualquer variável do sistema real seja
representada, por exemplo, pela trajetória média gerada pelo sistema para a versão modelada dessa variável.
Dada sua unicidade e não reprodutibilidade, a trajetória concreta pode perfeitamente representar um caso
limite dentro do modelo proposto, sem que isso configure uma anomalia da modelagem (WINDRUM, 2007). 270 Conforme apresentado no Apêndice D, o número inicial de provedores ou de usuários potenciais não é
crítico para os resultados gerais do modelo, exceto durante o período inicial (𝑡 < 50). 271 Os novos usuários dispõem de orçamentos distribuídos aleatória e individualmente. Todos os valores de
parâmetros e condições iniciais adotados estão detalhados no Apêndice C.
223
Figura 31 – Evolução da demanda real e simulada.
(milhões de unidades, conexões permanentes do serviço de acesso)
Fonte: análise do autor, com base em Sepin (2000), CETIC.br (2006-2014) e IBGE (2014).
Os usuários são heterogêneos nos orçamentos, na posição que ocupam na rede
social e também nos parâmetros (pesos fixos) que ordenam a utilidade relativa das ofertas –
conforme a função definida na Seção 3.2.2.3. Essas preferências são formadas consideran-
do-se três dimensões: preço, qualidade e market share dentro da sua rede de relacionamen-
to, representando a influência de outros usuários. Assim, a composição das escolhas dos
vizinhos tem relação direta com a decisão do consumidor, configurando um problema de
otimização em duas dimensões globais e uma local – os preços e qualidades ofertados são
iguais para todos, mas a configuração das vizinhanças é distinta em diferentes regiões da
rede social. Logo, a estrutura dessa rede é crítica para a dinâmica de difusão da informação
e a adoção dos serviços (JACKSON; YARIV, 2007; MORONE; TAYLOR, 2010).
A organização dos usuários dentro da rede de relacionamento social foi mode-
lada como um grafo pseudoaleatório estático, utilizando-se um algoritmo avançado (2.5K-
Graphs) que permite grande controle sobre as redes artificiais produzidas. A parametrização
adotada, obtida por estimação com base em uma parcela da rede social online Facebook, foi
10
20
30
40
50
60
70Acessos internet (real)
Acessos internet (simulação)
224
empregada para gerar um conjunto de 50 redes relativamente pequenas, com cerca de 13
mil nós272
e 180 mil conexões cada. As médias para as métricas usuais são descritas na Ta-
bela 6. Como esperado, todas elas apresentaram valores compatíveis com as redes de social
reais utilizadas como referência (GJOKA et al., 2013).
Tabela 6 – Métricas de rede.
Densidade Diâmetro Caminho
médio Grau médio
Clustering
médio Assortativity
Expoente
power-law
0,0022 10,36 3,56 28,32* 0,201* -0,038 2,01
(Valores médios de 50 redes geradas; *diretamente derivado da parametrização adotada).
Figura 32 – Distribuição média de graus nas redes geradas.
(fração dos usuários para cada grau e intervalo de confiança, escala logarítmica).
Não são apenas as métricas gerais da rede que se mostraram adequadas, mas
também as principais distribuições estatísticas de algumas características importantes para
redes de relacionamento humano. A distribuição de grau (o número de conexões que cada
nó tem na rede), representada na Figura 32, tem a propriedade usual de “fat tail” (“cauda
272 Que, por sua vez, representam o universo de cerca de 130 milhões de usuários potenciais no mercado real.
225
longa”) scale-free. A estimação do parâmetro 𝛼 – de uma distribuição com a forma geral
P(𝑥) = 𝑥−𝛼 – forneceu valor 2,01, dentro do esperado para esse tipo de rede (JACKSON,
2010). A distribuição de grau é um dos fatores mais relevantes para a difusão de informa-
ções na rede, inclusive das ofertas no mercado de acesso.
Figura 33 – Distribuição média do coeficiente médio de clustering.
(coeficiente de clustering médio para cada grau e intervalo de confiança, escala logarítmica).
Outra característica importante das redes sociais reais, reproduzida pelo mode-
lo, é o clustering – a probabilidade que os vizinhos de um nó também sejam vizinhos entre
si, uma medida da importância relativa dos fatores locais. A Figura 33 indica que as redes
produzidas apresentam clustering relativamente estável e razoavelmente elevado ao longo
de todo o conjunto de graus presentes, atributo essencial para reproduzir a situação de inte-
ração local dos consumidores no mercado.
As redes pseudoaleatórias produzidas pelo modelo apresentam a propriedade de
assortativity positiva significativa, pelo menos para uma parcela importante dos nós, como
evidenciado na Figura 34. Essa propriedade, derivada da distribuição de grau conjunta, in-
dica a propensão de nós com grau elevado – ou mais conectados – se conectar com outros
226
nós com muitas ligações. Por isso, assortativity positiva é associada com a baixa eficiência
de nós “hiperconectados” como difusores de informação nas redes, como frequentemente
assumido nos estudos sobre difusão (JACKSON, 2010). Obviamente, a limitação do tama-
nho da rede faz com que, a partir de certo grau, a assortativity inevitavelmente torne-se
negativa, por uma questão de escala. Essa é uma distorção inevitável que a adoção de uma
escala diferente de 1:1 introduz no modelo.273
Figura 34 – Distribuição média do grau médio dos vizinhos.
(grau médio dos vizinhos para nós de cada grau e intervalo de confiança, escala logarítmica).
A configuração da rede social é definida em 𝑡 = 0 e permanece constante ao
longo da rodada de simulação.274
Entretanto, como uma realização distinta de rede é utili-
zada em cada rodada, certa “dinâmica” pode ser apreendida pela avaliação de cortes trans-
versais do conjunto de rodadas. Apesar da estrutura das redes empregadas nas rodadas ser
273 No caso, a escala adotada é de 1:10.000, por restrições computacionais. 274 Essa é uma restrição importante. Ela equivale à premissa de que, ao longo de anos, a rede de relações soci-
ais dos usuários não se altera. Por outro lado, a modelagem de redes estocasticamente dinâmicas no tempo
introduziria, além da complexidade técnica, problemas para a identificação da composição dos efeitos da rede
social sobre o mercado. Por isso, optou-se, em uma primeira etapa, privilegiar a análise dos efeitos estruturais
da rede, deixando o estudo sobre os efeitos dinâmicos para pesquisa posterior.
227
estável – por construção – o processo de geração dá origem a alguma variação entre cada
“versão”, mesmo nas métricas “macro”, como fica claro na Figura 35. Por outro lado, ao se
analisar as redes no nível “micro”, é possível constatar a completa distinção entre as ver-
sões. A homogeneidade, no nível macro, e a heterogeneidade, no micro, são essenciais para
estabelecer relações entre as propriedades estruturais das redes e sua influência no mercado
de maneira rigorosa e não casuística.
Figura 35 – Variação do grau e do clustering médios ao longo das rodadas.
(grau médio (escala esquerda) e coeficiente de clustering médio (escala direita)).
Todavia, não é apenas a estrutura da rede que organiza localmente os usuários.
A combinação das duas primeiras dimensões das preferências275
– preço e qualidade – ten-
de a agrupar os clientes em nichos ou submercados. Em rodadas típicas do modelo mostra
que se formam nichos de grupos de usuários com preferências “radicais” – peso muito mai-
or em uma ou duas das primeiras dimensões –, para os quais provedores específicos forma-
tam uma oferta especial (preço baixo ou qualidade alta e vice versa). Nesses casos, é co-
mum se desenvolver a relação clássica de lock-in. Em virtude da distribuição uniforme ado-
tada para a atribuição das preferências, esses nichos costumam ser pequenos, assim como
275 Preço menor é preferido ao maior, qualidade superior é preferível à inferior e provedor mais popular na
vizinhança da rede social do consumidor é preferível à um menos popular.
0,17
0,19
0,21
0,23
0,25
20
22
24
26
28
30
32
1 11 21 31 41
Grau médio (esq.)
Clustering médio (dir.)
228
os provedores que se especializam neles – apesar das rentabilidades elevadas frequente-
mente observadas nos nichos de alta qualidade. Os nichos não podem ser eficazmente aten-
didos por um único provedor, em função da restrição de oferta única para cada firma e a
possível incompatibilidade entre as dimensões de escolha – em particular, por causa do
antagonismo entre preço e qualidade.
Figura 36 – Evolução do churning.276
(média móvel277
da fração dos usuários que mudam de provedor e intervalo de confiança278
).
Um dos fatos estilizados mais importantes do mercado de acesso, o elevado
churning (troca de provedores pelos usuários), pode ser identificado no modelo, como pro-
priedade emergente (não explicitamente programada). A Figura 36 apresenta esse resultado.
Níveis de churn da ordem de 4% por UT – similares aos reais (Seção 1.4.3.3) – são verifi-
cados na etapa de aceleração do crescimento da demanda (𝑡 < 50). A partir daí, o churn
reduz-se gradualmente, estabilizando-se em um patamar, ainda alto, acima de 1% por UT.
276 Em todos os gráficos a seguir, o eixo das abscissas representa o tempo em unidades de tempo de simulação
(UT), ou aproximadamente um trimestre, exceto quando indicado em contrário. 277 A filtragem de algumas variáveis, por meio de médias móveis de 4 UT (unidades de tempo), visa remover a oscilação de alta frequência que é criada ao se permitir entradas apenas em períodos múltiplos de 4 UT. 278 A análise da distribuição dos resultados obtidos ao longo das rodadas de simulação pode ser sintetizada
pela construção de intervalo de confiança para as médias. Todos os intervalos de confiança a seguir foram
obtidos a partir de amostras de cinquenta rodadas, ao nível de 1% de significância, exceto quando explicita-
mente especificado em contrário.
0%
2%
4%
6%
8%
1 51 101 151 201
229
Figura 37 – Evolução da parcela dos usuários atendida pelo serviço de acesso.
(fração dos usuários potenciais com acesso à internet e intervalo de confiança, 𝑡 ≥ 30279).
Outra característica do comportamento da demanda no modelo é a possibilidade
de exclusão de um grande número de usuários potenciais do serviço de acesso, em função
da possível inexistência de provedores com preço compatível com os orçamentos individu-
ais. Entretanto, o cenário de simulação mais provável é de cobertura superior a 95% da po-
pulação ao longo do tempo, apesar de que, em rodadas atípicas, a proporção de usuários
atendidos pode permanecer baixa, em torno de 40%. A Figura 37 evidencia esse padrão.
Notar que o porcentual mostrado é definido sobre a população potencial de usuários naque-
le momento e não sobre a total, apesar da primeira convergir para a segunda. Em todas as
rodadas, porém, uma parcela significativa da população potencial resta desconectada no
estágio inicial do setor (𝑡 < 80),280
por causa dos preços elevados do serviço. Analisando
as decisões das firmas e suas “contabilidades virtuais”, esse fenômeno se explica, majorita-
riamente, pelos altos custos iniciais da tecnologia e pela reduzida escala de operação, o que
implica em preços excessivos e menos usuários com orçamento suficiente.
279 No período 𝑡 < 30, a fração dos usuários potenciais do serviço de acesso diminui no modelo, como resul-
tado da premissa – arbitrária – de considerar 100% dos usuários potenciais atendidos em 𝑡 = 0. Como esse resultado depende inteiramente dessa premissa, tomada com base na ausência de melhor informação, remo-
veu-se da figura a parcela da curva afetada – o “warm-up” do modelo. Isso não afeta os demais resultados. 280 Ou cerca de 20 anos, considerando que cada unidade de tempo simulada corresponde, grosso modo, a 1
trimestre no tempo histórico do setor concreto.
20%
40%
60%
80%
100%
30 80 130 180 230
230
Figura 38 – Evolução do preço do serviço de acesso.
(em UM (unidades monetárias), média ponderada dos preços281
e intervalo de confiança).
Figura 39 – Evolução da razão variância/preço.
(razão entre variância do preço médio ponderado e preço médio ponderado e intervalo de
confiança).
281 Nesse e em todos os casos a seguir, exceto quando mencionado em contrário, a ponderação é realizada
utilizando-se o respectivo market share das firmas como peso.
0
50
100
150
200
250
300
1 51 101 151 201
0
10
20
30
40
1 51 101 151 201
231
O comportamento dos preços médios ponderados praticados no mercado é mos-
trado na Figura 38. Novamente, o comportamento é semelhante aos resultados empíricos
(Seção 1.4.3.4). A análise das rodadas indicou que os preços mais elevados no período ini-
cial (𝑡 < 75) são devidos, em um primeiro momento (𝑡 < 25), aos preços iniciais configu-
rados para os provedores pioneiros, mas, rapidamente, tornam-se consequência dos custos
ainda altos das tecnologias de rede disponíveis. Apesar da variação entre rodadas, à medida
que avança a produtividade da tecnologia, na maioria dos casos os preços convergem para
patamares compatíveis com os orçamentos de parcela majoritária da população de usuários
potenciais. Destaque-se, essa não é uma convergência automática – em rodadas atípicas o
preço imódico foi mantido indefinidamente – nem implica margens de lucro reduzidas na
maior parte das rodadas.
A Figura 39 mostra, ainda, que a dispersão dos preços aumenta rapidamente na
fase de crescimento acelerado (𝑡 < 50) e depois se torna continuamente decrescente, mes-
mo após a estabilização do preço (𝑡 > 100). Isso indica que, apesar da aparente “tranquili-
dade assintótica” no comportamento da Figura 38, uma intensa dinâmica de diferenciação
dos preços está em ação no mercado virtual durante expressiva parcela de tempo.
Figura 40 – Evolução da qualidade do serviço de acesso.
(média móvel da média ponderada do índice de qualidade e intervalo de confiança; o nível 1
representa a qualidade “padrão”, valores maiores representam qualidade superior).
0,9
1
1,1
1,2
1,3
1,4
1 51 101 151 201
232
De modo consistente com a função de utilidade fixa dos usuários, e a despeito
da flexibilidade dos provedores para modificar suas qualidades de rede no processo compe-
titivo, a qualidade média ponderada do serviço ofertado manteve-se relativamente constante
(Figura 40), ainda que com tendência de redução ao longo do tempo. Isso parece compatí-
vel com a evidência empírica apresentada na Seção 1.4.3.3. Por outro lado, a dispersão da
trajetória da qualidade entre as rodadas foi muito significativa, superior ao caso do preço.
Diferenças de mais de 50% nos níveis de qualidade foram frequentes, reproduzindo mais
um fato estilizado importante: a grande variabilidade nos graus de qualidade entre diferen-
tes mercados reais – e entre provedores, dentro destes.
4.3.1.2. Oferta, competição e concentração
Figura 41 – Evolução do número total de provedores no mercado.
(média móvel do número de provedores e intervalo de confiança).
Pelo lado da oferta, a análise das rodadas de simulação mostra que a entrada e a
saída de firmas no mercado são intensas durante a fase de crescimento da demanda (medida
pela população de usuários potenciais), que acontece quando 𝑡 < 125, caracterizando um
regime turbulento nessa etapa. Conforme se depreende da Figura 41, o regime de entrada e
saída e o número de provedores tendem a se estabilizar no período de maturidade do setor
2
6
10
14
18
22
1 51 101 151 201
233
simulado (𝑡 > 125). Em qualquer rodada, a quantidade máxima de firmas relevantes282
atuando foi de 34, apesar de, na maior parte do tempo, o número ser bastante inferior – em
média, 16 provedores na fase de crescimento acelerado, revertendo para 13 durante a matu-
ridade. Rodadas com o surgimento de monopólio foram observadas, apenas durante a matu-
ridade, com probabilidade pequena, mas não negligível – superior a 10%. O número de
provedores maiores – os incumbentes283
– variou tipicamente entre três, durante o cresci-
mento acelerado, e dois, na maturidade. Tudo isso está em acordo – pelo menos qualitati-
vamente – com a análise empírica (Seção 1.4.3.2).
Figura 42 – Evolução das taxas de retorno sobre o capital empregado.
(média móvel das taxas de retorno médias ponderadas e intervalos de confiança, escala logarítmica).
A turbulência no grupo de provedores entrantes284
pode ser parcialmente expli-
cada, segundo a dinâmica do modelo, pela significativa e persistente diferença de rentabili-
dade entre entrantes e incumbentes. Os dados de rentabilidade – ou retorno sobre o capital
empregado (investimento) – estão mostrados na Figura 42, sob a forma das taxas médias
brutas ponderadas pela participação de mercado e são compatíveis com a Seção 1.4.3.4.
282 A simulação modelou apenas firmas com market share médio igual ou superior a 1%, independentemente
da viabilidade econômica de provedores menores. 283 Foram classificados como incumbentes aqueles provedores que detiveram market share de pelo menos
20% durante 20 UT consecutivas, além dos provedores iniciais. 284 Os entrantes são definidos por contraste aos incumbentes, ou seja, são aqueles provedores que adentram o
mercado após o período inicial (𝑡 > 0) e que não atingem market share superior a 20% por mais de 20 UT.
0%
1%
10%
100%
1 51 101 151 201
Incumbentes
Entrantes
234
A rentabilidade dos entrantes é baixa, em especial após a segunda metade do
período de crescimento acelerado (𝑡 > 40). O intervalo 90 < 𝑡 < 120 é especialmente
crítico, quando são frequentes casos de prejuízo. Porém, a taxa bruta de retorno sobre o
capital empregado dessas firmas acomoda-se em um patamar em torno de 5% na maturida-
de, o que ajuda a explicar a dificuldade para entrada e sobrevivência nessa etapa do desen-
volvimento do mercado. Isso ocorre a despeito da turbulência e do acesso pleno dos entran-
tes às tecnologias de rede mais recentes. Já a rentabilidade dos incumbentes persiste, duran-
te toda a simulação, em patamares substancialmente superiores a 10% – apenas ao redor de
𝑡 = 40 as rentabilidades se aproximam, por um prazo curto.
Figura 43 – Evolução da idade das redes dos provedores.
(em UT, média móvel da média poderada das idades das redes e intervalo de confiança).
A baixa rentabilidade dos entrantes, na perspectiva evolucionária, pode parecer
surpreendente. Confirmando as expectativas teóricas, o exame das “safras” tecnológicas das
redes de incumbentes e entrantes, representada na Figura 43, mostra uma significante e
persistente vantagem para os entrantes – redes em média sete UT (quase dois anos) mais
novas – o que se traduz em custos unitários médios de operação e manutenção menores
para essas firmas (redes recentes têm produtividade superior). Isso é particularmente impor-
tante considerando-se o ritmo veloz do avanço tecnológico, verificado no modelo pelo in-
cremento da produtividade do capital, mostrados na Figura 44.
0
10
20
30
40
1 51 101 151 201
Incumbentes
Entrantes
235
Figura 44 – Evolução da produtividade do capital.
(em UM, média móvel da produtividade unitária do capital da média ponderada dos provedores e da
tecnologia mais avançada disponível).
No entanto, a análise aprofundada do modelo revela que o lock-in285
de usuários
em alguns provedores, a presença de economias de escala e a baixa agressividade comercial
entre incumbentes (resultante do processo de aprendizado e seleção de estratégias discutido
na Seção 3.2.2.6) são os principais fatores para a manutenção das margens superiores des-
sas firmas, bem como para a saída frequente de entrantes do mercado, não obstante a van-
tagem tecnológica destes. Essa combinação é responsável pela limitada participação de
mercado dos entrantes na maioria das rodadas, conforme a Figura 45, em sintonia com a
evidência empírica (Seção 1.4.3.2).
No modelo, a ocorrência do lock-in dos usuários em certos provedores se dá,
principalmente, devido à prioridade que muitos consumidores dão para as firmas populares
em seu círculo de relacionamento (vizinhança da rede social em que se inserem). De forma
secundária, o lock-in surge também no caso de combinações de preço e qualidade especi-
almente adequadas para grupos específicos de usuários, mas esse é um fenômeno mais res-
trito no modelo, de formação de pequenos nichos especializados.
285 A ocorrência do lock-in é caracterizada pela manutenção persistente, pelo usuário, do provedor de acesso,
mesmo quando existem ofertas (combinações de preço e qualidade) de outros provedores significativamente
superiores (DAVID, 1985).
0,000
0,005
0,010
0,015
0,020
1 51 101 151 201
Fronteira tecnológica
Produtividade média
236
Na Figura 45, de um pico de 56% de market share do conjunto de provedores
entrantes, obtido em meados do período de crescimento acelerado do mercado, a tendência
na maturidade é de declínio consistente para uma participação modesta – em torno de 25%.
Considere-se, entretanto, que os raros entrantes exitosos (com share individual superior a
20% após20 UT) passam a ser considerados incumbentes no modelo, o que certamente su-
bavalia o impacto dos entrantes na Figura 45.
Figura 45 – Evolução do market share total dos provedores entrantes.
(participação no mercado total e intervalo de confiança).
A questão da modesta parcela de mercado dos entrantes, especialmente no perí-
odo de maturidade, fica mais clara quando se avalia a idade média ponderada (pelo market
share) dos provedores incumbentes, na Figura 46. Até 𝑡 = 60, a idade desse grupo é defi-
nida essencialmente pela contribuição das firmas que eram incumbentes desde 𝑡 = 0 (a
parte reta da curva que parte da origem, com inclinação de 45º). Nesse período, a grande
maioria dos entrantes ainda é ou muito jovem ou muito pequeno para entrar no grupo dos
incumbentes. A partir daí, a ligeira inflexão da curva, para baixo da reta de 45º, indica a
tímida286
contribuição dos “ex-entrantes” na definição da idade dos incumbentes efetivos.
286 Os resultados sobre a reta de 45º que parte da origem representam cenários em que apenas as firmas que
existiam no período 𝑡 = 0 sobreviveram como incumbentes até o período correspondente do gráfico. Como se
depreende do intervalo de confiança superior situar-se sempre abaixo dessa reta, apesar de modesta, na maio-
0%
20%
40%
60%
80%
1 51 101 151 201
237
Figura 46 – Evolução da idade média dos provedores incumbentes.
(em UT, média ponderada das idades e intervalo de confiança).
Apenas rodadas “extremas” da simulação produzem casos de monopólio ou oli-
gopólio estáveis (incumbentes originais mantendo o domínio do mercado) e de competição
intensa (dificuldade das incumbentes permanecerem dominantes por períodos extensos). A
latitude entre essas possíveis rodadas permite compreender como mercados com atributos
tecnoeconômicos semelhantes (diferentes países, por exemplo) podem ter desfechos com-
petitivos bastante diversos por conta de eventos idiossincráticos. De certo modo, isso repre-
senta a redução da importância dos fatores estruturais, usualmente considerados os únicos
relevantes, no longo prazo, para a definição dos possíveis “equilíbrios” do sistema concor-
rencial, mas em claro suporte à ideia de path dependence (ARTHUR, 1989).
Desse modo, o modelo parece reproduzir outro fato estilizado, a grande variabi-
lidade do nível de concentração observada nos distintos países (MERRILL LYNCH, 2013).
A curva média na Figura 46, muito próxima da reta de 45º, indica que os casos de mercados
competitivos são significativamente menos comuns, o que, em princípio, é também compa-
tível com a evidência empírica. Mas a curva de mínimo – a linha tracejada – mostra que os
desfechos de elevada concorrência são possíveis, todavia.
ria das rodadas pelo menos um entrante têm êxito e se transforma em incumbente após algum tempo, curio-
samente em linha com o caso anedótico da empresa GVT (Seção 1.4.3.2).
0
50
100
150
200
250
1 51 101 151 201
45 graus
Média
Mínimo
238
A avaliação detalhada das rodadas de simulação permite concluir que a inces-
sante turbulência, entre os entrantes, e a relativa estabilidade, entre os incumbentes, propi-
ciam uma inequívoca tendência à contínua concentração da estrutura do setor. Isso fica evi-
dente ao se analisar a Figura 47, para o market share, e a Figura 48, para o capital.
Figura 47 – Índice Herfindahl-Hirschman para o market share.
(índice 𝐻𝐻𝐼𝑠 e intervalo de confiança).
A Figura 47 apresenta a evolução do índice Herfindahl-Hirschman para o mar-
ket share (𝐻𝐻𝐼𝑠). São relativamente incomuns as rodadas nas quais o 𝐻𝐻𝐼𝑠 varia substan-
cialmente em relação à média, sugerindo que a concentração é uma característica estrutural.
Recorde-se, ainda, que esses resultados são obtidos sem que o modelo incorpore vantagens
usualmente atribuídas aos incumbentes – as “barreiras” –, como as economias de escopo
em atividades de propaganda e comercialização, as sinergias com produtos e serviços com-
plementares etc.
Conforme a Figura 48, o índice de Herfindahl-Hirschman, calculado para o ca-
pital empregado (𝐻𝐻𝐼𝐾), se comporta de forma semelhante ao caso do 𝐻𝐻𝐼𝑠 exceto no
período inicial, apesar do patamar algo inferior e do intervalo de confiança alargado no
longo prazo. A despeito dos valores inferiores do 𝐻𝐻𝐼𝐾 durante o crescimento acelerado, a
tendência é de contínua concentração no decorrer da maior parte da simulação, como no
0
0,2
0,4
0,6
0,8
1 51 101 151 201
239
caso do 𝐻𝐻𝐼𝑠. A propensão de ambos os indicadores é não é em geral de convergência, o
que é consistente com a rentabilidade superior exibida pelos incumbentes.
Figura 48 – Índice Herfindahl-Hirschman para o capital empregado.
(média móvel do índice 𝐻𝐻𝐼𝐾 e intervalo de confiança).
Em resumo, os objetivos da modelagem foram aparentemente atingidos e ne-
nhuma discrepância significativa pôde ser identificada nessa etapa. Pelo contrário, os resul-
tados globais obtidos mostraram-se bastante consistentes com a evidência selecionada pela
pesquisa empírica e com as hipóteses teóricas consideradas no quadro de referência adota-
do. Além disso, os fatos estilizados elencados foram reproduzidos como propriedades
emergentes do modelo, o que, a priori, confirma a adequação das premissas adotadas. A
seguir, os elementos principais dessas duas categorias analíticas serão confrontados com as
informações detalhadas produzidas pelo modelo.
4.3.2. Aderência dos resultados aos fatos estilizados e às trajetórias históricas
A adequada reprodução dos fatos estilizados e das trajetórias históricas selecio-
nados é um dos objetivos do modelo proposto, não obstante isso não ser um fim em si. A
função central do modelo, na metodologia history-friendly, é dotar o analista de um artefato
que permita a análise interna e detalhada dos processos simulados e, assim, ajude a esclare-
0
0,2
0,4
0,6
1 51 101 151 201
240
cer, por analogia, os desdobramentos do sistema econômico real (GARAVAGLIA, 2004;
MALERBA, 2010).
[Neste caso] os resultados da simulação são usados para estudar as carac-
terísticas do sistema que foi modelado. O objetivo é compreender a rela-ção entre variáveis e/ou parâmetros ou realizar análises contrafatuais. Isto
implica que os resultados da simulação são tratados de forma similar aos
dados empíricos. [...] O propósito é identificar as relações de causalidade subjacentes para explicar fenômenos conhecidos. [...] A intenção é identi-
ficar aquelas configurações do modelo para o qual os resultados da simu-
lação estão em consonância com os dados empíricos [BRENNER; WER-KER, 2007, p. 240-241].
A proposta desta seção é, portanto, não apenas validar os resultados qualitati-
vos, mas, antes, esclarecer os processos que deram origem a eles. A identificação das rela-
ções causais subjacentes às características e à dinâmica do modelo pode fornecer, simulta-
neamente, novas perspectivas para a compreensão dos fenômenos concretos e um meio
eficaz para testar se as premissas assumidas são compatíveis com o sistema real.
Como apontado na seção anterior, o modelo permite a reprodução dos fatos es-
tilizados setoriais apresentados no Capítulo 1. Na sequência, serão abordados cinco deles,
selecionados pela sua relevância durante a pesquisa empírica.287
4.3.2.1. Fato Estilizado 1: concentração de mercado persistente
A concentração de mercado no segmento de acesso, evidenciada na análise
apreciativa, é inequivocamente constatada no modelo (Figura 47 e Figura 48), tanto para a
concentração do market share quanto do estoque de capital (redes de telecomunicação). O
índice de Herfindahl-Hirschman para ambos os quesitos (𝐻𝐻𝐼𝑠 e 𝐻𝐻𝐼𝐾) apresentou mé-
dias, em de 50 rodadas, de 0,42 e 0,25, respectivamente. Isso representa níveis de concen-
tração elevados, segundo os parâmetros habituais adotados pelas autoridades antitruste.288
Mesmo na “melhor” rodada, a média mínima observada para o 𝐻𝐻𝐼𝑠 foi de 0,26, o que é
suficiente para classificar o mercado em questão como significativamente concentrado.
287 Um sexto fato estilizado setorial, os ciclos prolongados de difusão tecnológica, foi tratado em Pereira
(2012a) e não será retomado aqui, uma vez que não está diretamente relacionado com o tema central da tese. 288 Segundo as diretrizes adotadas pelo Departamento de Justiça e pela Comissão Federal de Comércio dos
EUA (USDJ, 2010), valores de 𝐻𝐻𝐼𝑠 superiores a 0,25 classificam um mercado como altamente concentrado.
Os organismos antitruste brasileiros não adotam o 𝐻𝐻𝐼𝑠em suas recomendações, eles utilizam o índice C4
(concentração nas quatro maiores firmas) superior a 75% como indício de concentração (SEAE; SDE, 2001),
o que, grosso modo, é equivalente a um 𝐻𝐻𝐼𝑠crítico de 0,16 nas condições do mercado em questão.
241
Caracterizada a aderência do modelo a esse quesito, resta esclarecer os meca-
nismos internos responsáveis. Do ponto de vista estrutural, as equações do modelo não ca-
racterizam qualquer condição particular que enseje a concentração, o que, de resto, fica
demonstrado pela viabilidade de rodadas com níveis relativamente baixos. Como já menci-
onado, a concentração elevada surge como propriedade emergente do modelo, tanto na pa-
rametrização testada (calibração) como em diversos cenários alternativos.
Analisando-se outros possíveis fatores estruturais que pudessem ensejar a con-
centração, não foi possível identificar uma origem específica para explicá-la. As tecnologi-
as de rede, principal insumo das firmas do modelo, são exógenas a elas e estão disponíveis
para todas. Os consumidores, por sua vez, têm acesso às ofertas de todos os provedores ao
tomarem suas decisões, apesar da otimização local induzida pela rede social. Já as combi-
nações entre preços ofertados e qualidade de rede dentro do espaço de escolha das empresas
– a função de produção implícita – são, em princípio, factíveis. Existe, ainda, a possibilida-
de de imitação das combinações adotadas pelas firmas de maior sucesso.
Figura 49 – Índice Herfindahl-Hirschman em cenários contrafatuais.
(índice 𝐻𝐻𝐼𝑠 médios para os valores de calibração e para os conjuntos de parâmetros de teste).
Da configuração do modelo, a análise de sensibilidade indicou os parâmetros
críticos para os índices de concentração (𝐻𝐻𝐼𝑠 e 𝐻𝐻𝐼𝐾). A Tabela 12 (Apêndice D) mostra
que, tanto individual quanto conjuntamente, os parâmetros 𝑐𝑠, �̅�1-�̅�3, 𝑞 e 𝑔𝐵 têm significa-
0
0,2
0,4
0,6
0,8
1
1 51 101 151 201
Conjunto 5
Calibração
Conjunto 16
Conjunto 4
242
tiva potencialidade para alteração dos níveis de concentração no setor.289 Em particular, o
teste de sensibilidade conjunta (Tabela 14) apontou sugestivamente para um HHI interme-
diário para os valores de calibração. Daí advém o razoável potencial para variação do HHI
pela mudança dos parâmetros críticos. Isso fica evidente na Figura 49, que apresenta o
𝐻𝐻𝐼𝑠 para algumas combinações desses parâmetros (conforme a Tabela 13 do Apêndice
D), que proporcionam a máxima (conjunto 5) e a mínima (conjunto 4) concentração do
mercado ao longo do tempo. Em particular, para os conjuntos de parâmetros de número 4 e
16, o nível médio de concentração cai abaixo dos limites usuais de concentração elevada
durante a maior parte da simulação. Esse ponto será retomado à frente.
Os processos ativados pela alteração dos parâmetros críticos para a concentra-
ção decorrem de quatro mecanismos: (i) a presença de economias de escala (parâmetro 𝑐𝑠);
(ii) a ausência de crescimento nos orçamentos disponíveis para os usuários (parâmetro 𝑔𝐵);
(iii) a redução da acuidade dos usuários para diferenças de qualidade entre provedores (pa-
râmetro 𝑞); e (iv) a influência dos outros na decisão do consumidor, em desfavor dos pesos
dados ao preço e à qualidade (parâmetros �̅�1, �̅�2 e �̅�3, sendo que �̅�1 + �̅�2 + �̅�3 = 1).
Os dois primeiros mecanismos são esperados e usuais na literatura. A relevân-
cia de economias de escala em um setor como a internet é provavelmente o mecanismo
mais bem estabelecido desde a OIC, entre os apontados (BAIN, 1956, 1959/1987; CHAN-
DLER, 1977, 1990; PORTER, 1980/1986). Isso será mais bem explorado na Seção 4.3.3.1.
Adicionalmente, a questão da estagnação (ou redução) dos orçamentos dos usuários é razo-
avelmente óbvia, por redutora das oportunidades para o estabelecimento de novas firmas no
mercado. Nesse caso, e, sobretudo, em situações nas quais a migração entre provedores
apresenta restrições (contratos e vínculos de ordem social), as possibilidades de crescimen-
to das empresas limitam-se à conquista de market share. Isso prejudica a adoção de estraté-
gias “clássicas” dos entrantes, como desenvolver nichos, não atendidos satisfatoriamente
pelos incumbentes, e crescer a partir deles (PORTER, 1980/1986).
Por outro lado, a importância de questões de ordem institucional na concentra-
ção dos mercados, como as apontadas em (iii) e (iv) acima, é um fenômeno abordado com
289 Respectivamente, o fator de escala para custos operacionais, a sensibilidade para preço e para influência da
rede social, a sensibilidade à variação da qualidade e a taxa de crescimento do orçamento dos usuários.
243
muito menor frequência na literatura. Porém, com o auxílio do modelo foi possível avaliar
que processos como os descritos na Seção 2.4.3 podem ser, potencialmente, tão ou mais
relevantes do que as forças habitualmente consideradas na organização das indústrias. Evi-
dentemente, os resultados obtidos são consequência das hipóteses assumidas durante a mo-
delagem, o que pode levar ao questionamento dessa relevância, por tautológica.290
Entretan-
to, essa não é uma abordagem adequada para a avaliação do modelo proposto.291
O ponto
crucial é que, em condições institucionais específicas, mas em princípio compatíveis com a
evidência empírica subjacente (no nível micro), o modelo mostra que a hipótese de elevada
influência das questões institucionais no desenvolvimento setorial é logicamente compatí-
vel com a trajetória histórica de concentração verificada (no nível macro). Trata-se, nova-
mente, da reprodução de um fenômeno agregado emergente, que não foi previamente con-
figurado na programação dos agentes. Demonstra, assim, que ponderadas as hipóteses usu-
ais, a interferência institucional é mais provável como explicação do fenômeno, em relação
as demais, sem descartá-las. Ou, ainda, que sem a concorrência das instituições, o desfecho
observado no modelo – a elevada concentração – seria menos plausível.
A questão da “relativização” das métricas de qualidade pelos usuários, devido à
acuidade com que eles percebem diferenças entre as ofertas, representada pelo parâmetro q,
dá importância para as instituições definidoras da qualidade.292
Se trata, aqui, tanto das ins-
tituições formais, como fontes de informação confiável sobre o serviço,293
como das infor-
mais, como as convenções cognitivas que os usuários empregam para comparar as ofertas
(cf. Seção 2.4.3.2). Na ausência dessas instituições, como se depreende do modelo, melho-
res serviços, oferecidos pelos entrantes, correm o risco de não ser percebidos como tal pelos
consumidores, facilitando a defesa pelos incumbentes de suas participações no mercado.
Essa abordagem do tema, no entanto, não é inédita. O conceito de falhas de mercado, asso-
ciadas à informação incompleta, é explorado desde os trabalhos de Akerlof (1970).294
290 Modelos history-friendly são, de certa maneira, intencionalmente tautológicos (cf. Seção 3.1.4). 291 O argumento a seguir baseia-se no princípio de inferência adotado, a abdução, já mencionado (nota 183). 292 O resultado se sustenta para uma faixa específica do parâmetro 𝑞, demostrando a sua criticidade. 293 Recentemente, a importância disso está sendo implicitamente reconhecida pelos órgãos reguladores, com a
implantação de sistemas de medição da qualidade dos serviços e informação dos usuários. É, também, o caso
do Brasil, onde a Anatel, desde 2011, opera a Entidade Aferidora da Qualidade de Banda Larga. 294 Apesar do conceito não explicitar as origens últimas dessas falhas, conforme discutido na Seção 2.4.3.2.
244
A Figura 50 mostra o papel decisivo da acuidade dos usuários para mudanças
na qualidade da rede (parâmetro 𝑞) na conformação da estrutura do setor virtual. O aumen-
to da acuidade – ou da capacidade cognitiva disponível para avaliar a qualidade dos servi-
ços – implica uma importante força no sentido de desconcentração setorial, e vice versa.
Ora, partindo da premissa de que a maioria dos usuários não seja formada por técnicos es-
pecializados e dotados dos instrumentos adequados, parece razoável supor que muitas das
fontes para o incremento da acuidade deva ser de origem social, como as redes de relacio-
namento de que participam ou a ação do Estado.
Figura 50 – HHI em cenários de sensibilidade à qualidade.
(índice 𝐻𝐻𝐼𝑠 médio para os valores de calibração e dos cenários; calibração: 𝑞 = 0,50).
Uma justificativa teórica ainda mais inusual para a concentração dos mercados
é o efeito induzido pela realimentação entre as escolhas coletivas e as individuais, pelo me-
nos da forma proposta neste trabalho. Esse tema já foi abordado pontualmente por autores
de estudos empíricos, como David (1985), Jonard e Yildizoğlu (1998) e Birke e Swann
(2006). Antes deles, pesquisadores em diversas disciplinas alertavam para a importância
das redes de relacionamento social para a difusão de novos produtos, tecnologias, ideias
etc. (ROGERS, 1962/2003; DOSI, 1991). Não obstante, seu papel no diagnóstico de mer-
cados competitivos – até na organização industrial moderna – se limitou à questão das ex-
ternalidades tangíveis de rede (ARTHUR, 1989; SHY, 2001), em situações em que o mo-
0,2
0,3
0,4
0,5
0,6
1 51 101 151 201
q = 0,25
Calibração
q = 0,75
245
vimento do mercado, como um todo, sinaliza e coordena a ação ótima do conjunto dos con-
sumidores. Esse não é o caso aqui, uma vez que não é razoável supor que, ao adotar o for-
necedor preferido em seu círculo social, o consumidor possa esperar algum benefício tangí-
vel nos termos usualmente considerados pela OIM (cf. Seções 2.2.3 e 2.2.5).
É relevante que o impacto significativo sobre a concentração do mercado se dê
com valores relativamente modestos do fator �̅�3, que modela a influência social na decisão
do consumidor (Seção 3.2.2.3) – igual a 0,4 no cenário de calibração.295
A introdução de
fatores endógenos na formação das preferências individuais, ainda que em proporção mino-
ritária, ocasionou um fenômeno emergente do tipo downward causation (HODGSON;
KNUDSEN, 2004). O processo de realimentação, entre a estrutura emergente, representada
pelo conjunto das escolhas dos usuários inseridos em um mesmo contexto (vizinhança na
rede social), e a decisão individual, afetou a dinâmica setorial crescentemente ao longo do
tempo. Isso caracteriza uma situação intrinsecamente distinta da externalidade de rede clás-
sica,296
conforme discutido em profundidade na Seção 2.4.3.3.
Para exemplificar o fenômeno, a Figura 51 apresenta os resultados do modelo
para redes sociais de usuários com diferentes pesos para os componentes que definem suas
preferências, conforme a equação (25) (Seção 3.2.2.3). Estão representados na figura, o
cenário de calibração (“50-10-40”) e outros onze cenários alternativos, identificados por
rótulos no formato “XX-YY-ZZ”, nos quais os valores médios dos parâmetros são:
�̅�1 = 0, XX (preço), �̅�2 = 0, YY (qualidade) e �̅�3 = 0, ZZ (rede social).
A latitude dos possíveis desdobramentos da competição, mostrada na Figura 51,
é surpreendente. Considerando-se apenas os cenários sem influência social (rótulos no for-
mato “XX-YY-00”), o espaço de variação dos resultados finais para o 𝐻𝐻𝐼𝑠 fica contido no
intervalo [0,05; 0,34] com 95% de confiança (em 50 rodadas de simulação), conforme as
preferências entre preço e qualidade se distribuem no universo de consumidores. Claramen-
295 O fenômeno ainda se verifica mesmo com a redução do parâmetro �̅�3 para até cerca de 0,2. 296 Diferentemente da definição usual (KATZ; SHAPIRO, 1985;SHAPIRO; VARIAN, 1999/2002), o usuário não se beneficia de forma tangível da quantidade de “amigos” conectados à rede do seu provedor, dada a
interconexão entre redes, mas apenas de “benefícios” intangíveis de natureza institucional. Em situações se-
melhantes, Liebowitz e Margolis (1996) supuseram que não se trataria propriamente de externalidades, mas
sim da redistribuição para os usuários de economias de escala e escopo obtidas com o crescimento da base de
usuários. Evidentemente, não é esse o caso verificado nos resultados do modelo.
246
te, maior peso dado à qualidade (curvas “00-100-00” e “50-50-00”) favorece a competição,
com 𝐻𝐻𝐼𝑠 < 0,1 no longo prazo.297
Já em cenário de preferência exclusiva por preços bai-
xos (curva “100-00-00”), o contrário ocorre: a zona de diferenciação se concentra exata-
mente onde as incumbentes maiores se beneficiam dos menores custos proporcionados pe-
las suas escalas de operação ampliadas e o 𝐻𝐻𝐼𝑠 é sempre superior a 0,3.
Figura 51 – HHI em cenários de preferências.
(índice 𝐻𝐻𝐼𝑠 médio para os valores de calibração e dos cenários).
A partir da Figura 51, fica evidente que, além da adequada avaliação, a conside-
ração da qualidade na escolha dos provedores é uma das variáveis-chave para explicar a
concentração. Os cenários com �̅�2 (“YY”) elevado são sistematicamente aqueles que apre-
sentam menor concentração, ao passo que os papéis de �̅�1 (“XX”) e �̅�3 (“ZZ”) dependem da
combinação particular entre eles. Ressalte-se, ainda, que o caso clássico de preferência do
consumidor, considerando apenas e igualmente preço e qualidade (“50-50-00”), produz o
resultado “clássico” de mercado pouco concentrado (𝐻𝐻𝐼𝑠 = 0,07 na maturidade).
Por outro lado, a introdução da influência social (�̅�3) elevou o nível de concen-
tração do mercado, para uma mesma proporção entre as preferências por preço e qualidade
297 Considerando que, independentemente de economias de escala, esses cenários possibilitam maior competi-
tividade às firma pequenas, que podem focar em nichos de consumidores exigentes inacessíveis às maiores
(calibração)
247
(�̅�1/�̅�2), frequentemente por larga margem. Esse resultado pode parecer uma consequência
da especificação – arbitrária – adotada para a escolha do consumidor. Contudo, a investiga-
ção aprofundada mostra que, muito mais relevante do que a especificação utilizada, a rea-
limentação contínua do processo de influência social é o fator determinante para sua rele-
vância, particularmente no longo prazo. Novamente, se trata do fenômeno de retornos cres-
centes dinâmicos ou lock-in, já discutido anteriormente (Seção 2.4.2.1).
Por fim, deve-se salientar a robustez dos resultados obtidos: para todas as com-
binações de parâmetros em que 𝑏3 é significativo (≥ 0,2), o 𝐻𝐻𝐼𝑠 superou os limites con-
vencionais para mercados considerados concentrados (com confiança de 99%).
Figura 52 – HHI em cenários de estrutura de rede.
(índice 𝐻𝐻𝐼𝑠 médio para os valores de calibração e dos cenários; calibração: rede Facebook).
Aprofundando a análise, foram ainda testados cenários alternativos utilizando-
se diferentes geradores de redes pseudoaleatórios (Figura 52).298
Apesar de utilizarem pa-
rametrização básica (número de vértices e arestas, pelo menos) semelhante àquela do gera-
dor de calibração (2.5K-Graphs com estrutura da rede Facebook), eles produzem redes es-
truturalmente bastante distintas, como demonstrado na Tabela 11 do Apêndice D. Mesmo
considerando-se a latitude nos resultados da concentração associada a cada conjunto de
298 Para geração desses cenários contrafatuais, foram mantidos todos os parâmetros em seus valores de cali-
bração, sendo alterados tão somente os algoritmos de geração da rede social sintética (grafo pseudoaleatório).
0,2
0,4
0,6
0,8
1 51 101 151 201
Erdos-Rényi
Aleatória uniforme
Scale-free
Small-World
Calibração
248
redes testado, restou inequívoca a tendência do modelo à concentração, sendo que o gera-
dor utilizado no cenário de calibração justamente aquele que produz sistematicamente a
menor concentração.
Os resultados do experimento da Figura 52 parecem indicar, ainda, que existe
correlação negativa, ceteris paribus, entre o clustering da rede social dos consumidores e o
nível de concentração no mercado. Isso somente reforça a hipótese de que é a característica
de interação local em redes esparsas que dá origem aos seus efeitos agregados no mercado,
de forma relativamente insensível aos seus detalhes microestruturais.
O processo de downward causation, entre estrutura e agência, muito relevante
no sistema simulado, não costuma ser considerado nas avaliações sobre a organização de
setores econômicos concentrados no mundo real. Acredita-se, portanto, que a transposição
dessa perspectiva para o setor concreto de internet permita aumentar a capacidade explana-
tória. Como será visto adiante, isso é especialmente importante porque a consideração ape-
nas dos fatores de concentração convencionais não seria, muito provavelmente, suficiente
para justificar o panorama apresentado pela pesquisa empírica.
4.3.2.2. Fato Estilizado 2: reduzida competição por meio de preços
Com base na observação da Figura 38 acima, não é evidente a moderação da
concorrência, por meio de preços, entre os provedores. Na média de 50 rodadas, o preço
médio praticado caiu sistematicamente durante toda a simulação, de modo compatível com
a informação empírica, até se estabilizar em torno de 50 UM/UT. A redução dos preços é
mais intensa durante o período de crescimento da demanda (𝑡 < 125), indicando que o
maior número de competidores nessa etapa, segundo a Figura 41, foi relevante para o resul-
tado observado.
No entanto, a interpretação da redução dos preços como resultado da concor-
rência, isoladamente, pode ser enganosa, como aponta a Figura 53. Sem embargo do au-
mento significativo do número de competidores durante o avanço acelerado da demanda, a
convergência dos preços em direção aos custos ocorreu de forma lenta e incompleta, em
particular para os provedores incumbentes. Apenas após a estabilização da demanda
(𝑡 > 125) preços e custos assumiram trajetórias semelhantes, preservando margens posit i-
vas e significativas (cf. Figura 42), mesmo sem haver premissa explícita de markups fixos.
249
Figura 53 – Comparação entre preço e custo médios.
(em UM por UT, média ponderada, valores unitários por usuário).
A investigação das rodadas de simulação mostra que os incumbentes, tirando
proveito dos fatores de concentração descritos anteriormente, reduzem seus preços de modo
sistematicamente menos intenso do que os entrantes. Assim, protegem os preços médios da
erosão significativa que seria esperada em um ambiente de concorrência preço-qualidade
usual. Entretanto, no período de maturidade, as estratégias de competição por preço prati-
camente são (evolucionariamente) descartadas, o que é evidenciado pela estabilização dos
preços, a despeito de margens ainda relativamente elevadas. Em todos os períodos, a ação
de forças de consolidação institucional,299
como aquelas apontadas na Seção 2.4.3, limitou
a operação do mecanismo clássico de concorrência por preço e permitiu às firmas, em par-
ticular as incumbentes, a preservação de lucros “extraordinários”.300
À primeira vista, o comportamento pouco agressivo dos incumbentes poderia
também ser atribuído às estratégias preconfiguradas para esses provedores. Todavia, recor-
299 A partir da evidência empírica e dos mecanismos previstos no quadro teórico, o modelo oferece suporte
para os seguintes mecanismos potenciais: diferentes referências de desempenho estratégico entre incumbentes
e entrantes, reatividade superior dos entrantes nos ajustes de preços, correlação entre inovações radicais e idade das redes dos incumbentes e descontos para incumbentes nos bens de capital (cf. Seção 3.2.2). 300 Outra hipótese, complementar ou alternativa, é a da utilização dos preços como mecanismo de incentivo
para os usuários restringirem o volume de tráfego utilizado, de modo a controlar a qualidade geral da rede (cf.
Seção 2.2.4). Entretanto, como no modelo – e frequentemente no mercado real – o preço pelo uso do serviço é
fixo, relativamente insensível ao tráfego, essa hipótese teórica não foi explorada.
0
50
100
150
200
250
300
1 51 101 151 201
Preço médio
Custo médio
250
de-se, a estratégia adotada pelas firmas é escolhida entre as diversas opções possíveis (cf.
Tabela 4 do Capítulo 3), sendo que estratégias mais ou menos agressivas, em termos de
preços, estão disponíveis para entrantes e incumbentes. Mas, como se depreende da análise
agregada das rodadas, os incumbentes que obtêm maior sucesso são, com maior probabili-
dade, os que empregam estratégias menos agressivas – daí a seleção evolucionária destas.
Figura 54 – Seleção de estratégias por entrantes e incumbentes.
(frequência média de adoção das estratégias).
Como a escolha da estratégia da firma é modelada como um processo adaptati-
vo, que mistura aprendizagem com imitação local, ao longo do tempo os provedores ten-
dem a descobrir e adotar as estratégias com maior probabilidade de êxito no contexto espe-
cífico. Para os incumbentes, isso significa o predomínio das estratégias de número 1, 2 e 7
(Tabela 4 e Figura 54). Nas três, o peso é sobre a meta (fixa) de retorno sobre o capital em-
pregado, limitando os preços mínimos que podem ser oferecidos pelos aderentes, a despeito
do objetivo simultâneo de crescimento do market share nas estratégias 1 e 2. Para os en-
trantes, a presença de estratégias preço-qualidade puras, para maximização da participação
de mercado sem considerações sobre rentabilidade, mostra-se dominante durante o período
de crescimento acelerado da demanda. Após isso (𝑡 > 75) as estratégias de números 1 e 2
também se tornam dominantes na maioria das rodadas (mas não em todas).301
301 É importante ressaltar que os resultados médios das frequências de escolha das estratégias não revelam a
multiplicidade de combinações, muitas exitosas, que se estabelecem em rodadas individuais particulares.
0
1
2
3
4
5
1 51 101 151 201
Entrantes
0
0,5
1
1,5
2
1 51 101 151 201
Incumbentes
Estrat. 1
Estrat. 2
Estrat. 3
Estrat. 4
Estrat. 5
Estrat. 6
Estrat. 7
Estrat. 8
251
A aprendizagem dentro das respectivas redes de relacionamento entre provedo-
res mostrou-se crítica, como se depreende da comparação entre entrantes e incumbentes na
Figura 54 (calibração). Como a seleção da estratégia acontece a partir do aprendizado sobre
os resultados da aplicação das diversas estratégias, as consequências desse processo fre-
quentemente são diferentes entre entrantes e incumbentes. Isso está em sintonia com a evi-
dência empírica, que geralmente associa comportamentos moderados às firmas maiores.
Contudo, no modelo, a justificativa para essa moderação não opera com base em considera-
ções de interação estratégica, como na OIM. Antes, é a interação social, entre agentes mais
ou menos heterogêneos, que dá origem ao aprendizado conjunto e à construção de conven-
ções compartilhadas, dentro dos grupos sociais – incumbentes e entrantes.
Figura 55 – Preço médio em cenários com estratégias fixas.
(em UM por UT, média ponderada dos preços; calibração: estratégias variáveis).
A Figura 55 compara, ainda, o cenário base com outros, alternativos, nos quais
não existe aprendizagem no processo estratégico e todas as firmas utilizam, sempre, as es-
tratégias de números 1, 2 ou 7, que se mostraram evolucionariamente “populares” na confi-
guração de calibração, pelo menos durante algum período. Nesse caso, é evidente a acelera-
ção da concorrência e a redução mais acelerada de preços, para entrantes e incumbentes,
bem como diferentes markups médios na maturidade. Como abordado na Seção 2.4.3.1,
0
50
100
150
200
250
1 51 101 151 201
Calibração
strat = 1
strat = 2
strat = 7
252
sem a institucionalização de convenções compartilhadas entre os participantes do mercado,
a competição por preços, frequentemente, resta como o único instrumento para sobrevivên-
cia das empresas, precipitando a queda (FLIGSTEIN, 2001b). No entanto, a desativação do
mecanismo de aprendizado não alterou qualitativamente o perfil da concentração.
Figura 56 – Preço médio em cenários alternativos de reação de preços.
(em UM por UT, média ponderada dos preços; calibração: 𝑝𝑠𝑡𝑒𝑝 = 5%).
A discussão, entretanto, não esgotou os mecanismos que atuaram para a queda
lenta dos preços. Outra contribuição importante, especialmente durante o crescimento ace-
lerado (𝑡 < 75), foi a escolha do parâmetro que define o “gatilho” (threshold) para altera-
ções nos preços (𝑝𝑠𝑡𝑒𝑝), calibrado em 5%. Como discutido na Seção 3.2.2.6, na prática ele
determina a “velocidade” com que os provedores ajustam seus valores nas estratégias que
procuram balancear lucro e market share. A Figura 56 ilustra essa questão. No modelo, à
medida que as firmas possam realizar ajustes menores – e, portanto, mais frequentes – em
seus preços, a erosão acontece de modo crescentemente mais lento. Efetivamente, a defini-
ção de um patamar reduzido para alterações dos preços cria uma forma de retardo para a
mudança. Mas quando elas finalmente ocorrem, têm em geral maior intensidade.
Assim, de maneira contraintuitiva, a existência de um “piso” para alterações
nos preços mostra-se um fator importante para a aceleração da queda destes. Isso ocorre por
0
50
100
150
200
250
300
1 51 101 151 201
Pstep = 1%
Pstep = 2,5%
Calibração
Pstep = 10%
253
causa do acúmulo das eventuais sobrerreações necessárias para a realização dos ajustes
desejados nos preços das empresas ao longo do tempo, o que, na média, tende a amplificar
as reduções aplicadas, como um mecanismo sistêmico de realimentação positiva.
Existiriam, então, motivos para os provedores reais não adotarem, preferenci-
almente, alterações incrementais e reduzidas em seus ajustes de preços? Existiria algum
limitante inferior para essas mudanças no mundo real?
A evidência empírica anedótica indica que as firmas, efetivamente, não intro-
duzem mudanças em escalas “microscópicas” em seus preços, mas adotam, mais frequen-
temente, limites convencionais relativamente estáveis para balizar sua ação. Qualquer que
seja o motivo, a existência de “rigidez” para alterações pequenas nos preços pode represen-
tar influência cumulativa importante ao longo do tempo. A hipótese, aqui,302
é que isso se
deva, primordialmente, à avaliação das empresas a respeito da percepção do consumidor
sobre o que significa “redução dos preços” para efeito de sua escolha. Em outras palavras,
eles somente “perceberiam” diferenças nos preços acima de certos limiares que seriam con-
vencionalmente estabelecidos no mercado, a partir de processos de institucionalização co-
mo aqueles descritos na Seção 2.4.3.
Por fim, dois cenários alternativos adicionais são propostos para investigar a
questão da competição por meio dos preços. O primeiro avalia o impacto dos valores inici-
ais. O patamar inicial dos preços mostrou-se relativamente desimportante na determinação
dos preços no longo prazo. Conforme a Figura 57 evidencia, preços introdutórios mais ou
menos elevados se “dissipam” no primeiro quarto da simulação, o que reforça, no fim, a
importância de fatores sistêmicos na fixação dos preços.
O último cenário alternativo busca avaliar os efeitos de diferentes configurações
da rede social dos consumidores303
nos preços. No entanto, a estrutura da rede não influen-
cia muito a dinâmica dos preços no modelo, como será discutido na Seção 4.3.2.5.
302 Alternativamente, diversos autores argumentam que isso se deve ao fenômeno dos “custos de menu”, ou
seja, o benefício da alteração do preço seria inferior ao custo incorrido na mudança (SHESHINSKI; WEISS, 1977). Isso parece implausível neste caso porque, no caso de serviços comercializados de modo centralizado e
por meio de plataformas eletrônicas, o custo de mudança do preço não é significativo. Além disso, como os
preços são recorrentes, mudanças no preço tem seu impacto multiplicado pelo prazo (em meses) do contrato. 303 A discussão sobre as estruturas de rede produzidas pelos geradores de redes pseudoaleatórias alternativos
está no Apêndice B. As métricas das estruturas de rede desses geradores são apresentadas no Apêndice D.
254
Figura 57 – Preço médio em cenários alternativos de preço inicial.
(em UM por UT, média ponderada dos preços; calibração: 𝑃0 = 300).
Analisou-se, então, se o comportamento dos preços, apesar de insensível à topo-
logia social específica, poderia de alguma forma ser influenciado pela presença da rede em
si. Porém, mesmo em um cenário de teste no qual o usuário não utiliza a vizinhança para
formar sua decisão – ou seja, com o parâmetro 𝑏3 = 0 (e �̅�1 = �̅�2 = 0,5) o movimento dos
preços não foi afetado (os resultados estão na Figura 67, adiante). Isso evidencia que, pelo
menos no mercado artificial, o processo de formação dos preços parece poder ser adequa-
damente modelado da maneira usual, considerando-se tão somente a demanda, de modo
agregado e homogêneo, a despeito do significativo impacto da rede em praticamente todos
os demais aspectos do mercado.
4.3.2.3. Fato Estilizado 3: baixa taxa de entrada com sucesso
Tanto o modelo quanto a pesquisa empírica apontam para significativas oportu-
nidades para as firmas entrantes, em particular durante o período de crescimento vigoroso
da demanda (𝑡 < 100). Isso se deve: (i) à existência de parcela importante da população
não atendida pelos provedores existentes (Figura 37); (ii) à rentabilidade relativamente ele-
vada experimentada pelas empresas (Figura 42), em especial as incumbentes; e (iii) à pos-
sibilidade de acesso, pelos entrantes, a tecnologia mais produtiva do que aquela dos incum-
bentes (Figura 43).
0
100
200
300
400
1 51 101 151 201
P0 = 450
P0 = 350
Calibração
P0 = 250
P0 = 150
255
A despeito disso, o acompanhamento dos entrantes nas rodadas do modelo indi-
ca a incapacidade da grande maioria dessas firmas de permanecer no mercado por prazos
maiores, particularmente na etapa de estabilização (𝑡 > 100). Isso se torna claro quando a
evolução da idade média das entrantes é analisada na Figura 58. Conforme a inclinação da
curva cai abaixo da reta de 45º (representando 100% de entrada com sucesso),304
maior é a
mortalidade das firmas entrantes. Na média das rodadas, a taxa de sobrevivência das en-
trantes fica abaixo de 40%.
Figura 58 – Evolução da idade média dos provedores entrantes.
(em UT, idade média dos provedores e intervalo de confiança; reta de 45º de apoio).
Três mecanismos principais foram determinantes para o comportamento do
modelo nesse quesito, todos alinhados com a análise empírica: (i) a variação do período
médio entre inovações tecnológicas radicais (determinado pelo parâmetro 𝑝𝑟𝑎𝑑); (ii) o nível
do orçamento mínimo disponível para os usuários, bem como sua taxa de crescimento (pa-
râmetro 𝑔𝐵); e (iii) a presença de economias de escala (𝑐𝑠). Os dois últimos casos foram
304 A “entrada com sucesso” é representada pela firma entrante que consegue permanecer no mercado, até o
fim da simulação, com market share superior a 1%.
0
30
60
90
120
150
1 51 101 151 201
45°
256
tratados durante na Seção 4.3.2.1 em tema conexo. A operação do primeiro – e principal –
mecanismo, por sua vez, está detalhada em Pereira (2012a).305
Além desses mecanismos, outra explicação usual para a baixa taxa de sucesso
dos entrantes, em mercados reais, é o estabelecimento de relacionamentos hierárquicos,
envolvendo os provedores poderosos, os fornecedores de tecnologia e o Estado (cf. Seção
2.4.3.1). Essas relações especiais – entre agentes que participam do mercado enquanto
campo organizacional – permitem a redução de conflitos que requereriam solução no mer-
cado, provavelmente por meio de competição mais agressiva, transferindo-os para a esfera
das relações sociais (FLIGSTEIN, 2001b). No modelo, foram testados dois processos dessa
natureza, que se mostram relevantes nos desdobramentos do mercado.306
Figura 59 – HHI em cenários de desconto para incumbentes.
(índice 𝐻𝐻𝐼𝑠 médio; calibração: 𝑝𝑖𝑛𝑐𝑡𝑒𝑐ℎ = 30%).
O primeiro mecanismo testado (Figura 59) permite o estabelecimento de dispo-
sições diferenciadas no fornecimento de bens de capital entre provedores incumbentes e
entrantes, no caso aplicando-se descontos de preços “abruptos”, não associados às quanti-
305 Em curta síntese, a ideia é que caso a introdução das inovações radicais seja, de algum modo, “sincroniza-
da” com o prazo ideal de depreciação do capital dos incumbentes, a inovação pode deixar de ser uma vanta-
gem para os entrantes, como é usualmente suposto na literatura sobre o tema. 306 Em trabalho anterior do autor foi, ainda, testada a hipótese de coordenação da ação governamental com o
timing tecnológico dos incumbentes, com resultados muito negativos sobre os entrantes (PEREIRA, 2012a,b).
0,2
0,4
0,6
0,8
1 51 101 151 201
Ptechinc = 0,5
Calibração
Ptechinc = 0,0
257
dades contratadas. A evidência empírica aponta para o uso de relações de poder, estabeleci-
das ao longo do tempo entre incumbentes e fornecedores, para a obtenção de vantagens
discriminatórias que não estão disponíveis para os provedores menores, em particular os
entrantes, mesmo em condições de volume semelhantes.307
Entretanto, o impacto desse tipo
de vantagem, apesar de estatisticamente significativo, foi relativamente modesto: 30% de
diminuição no custo dos bens de capital implicaram em um acréscimo de dez pontos per-
centuais no índice de concentração (𝐻𝐻𝐼𝑠).
O segundo mecanismo analisado foi a redução da taxa de juros disponível para
os provedores incumbentes, usualmente promovida por subsídios governamentais. A evi-
dência anedótica indica que, frequentemente, esse tipo de benefício não está acessível para
os entrantes, por conta de processos discriminatórios não explícitos, como demandas buro-
cráticas complexas e/ou longas, incompatíveis com as habilidades e necessidades dos en-
trantes. Surpreendentemente, o efeito desse gênero de vantagem foi praticamente irrelevan-
te,308
embora estatisticamente significativo. Uma diminuição de 17% na taxa de juros pro-
porcionou uma piora de apenas 0,04 do 𝐻𝐻𝐼𝑠.
De qualquer forma, a distribuição do resultado final do processo competitivo no
modelo mostra o largo espectro de possíveis configurações. Apesar de, em diversas roda-
das, haver convergência para um monopólio estável (12% dos casos), na maioria delas um
nível razoável de competição emergiu, como fica claro na Figura 60.309
Ela representa a
distribuição do número de provedores sobreviventes (market share superior a 1%) no últi-
mo período de cada uma das 50 rodadas de simulação. A quantidade terminal de provedo-
res parece, em princípio, compatível com a evidência empírica, ressaltando-se que grande
parte deles é composta por firmas pequenas.
307 Não se trata aqui apenas do uso do poder monopsonista dos incumbentes no processo de ajuste entre quan-
tidades e preços ofertados e demandados, mas do exercício do poder para restringir o comportamento dos
fornecedores. Não se configura, portanto, uma transação puramente de mercado, em função da importância da
inserção de cada agente dentro da estrutura emergente de relacionamentos setoriais, que fornece níveis distin-
tos de poder para cada um. 308 O modelo não impõe limitações sobre o volume de crédito disponível para as firmas. O ajuste para o risco
e os benefícios governamentais disponibilizados foi modelado como multiplicadores sobre a taxa de juros básica. Talvez a modelagem de limites quantitativos para os volumes de crédito disponível pudesse alterar a
relevância desse benefício para os incumbentes. 309 O histograma mostra a configuração final do mercado, em termos do número de provedores sobreviventes
com mais de 1% de market share no último período (𝑡 = 250), para 50 rodadas de simulação.
258
Figura 60 – Distribuição da quantidade de provedores remanescentes.
(probabilidade de provedores no mercado no último período de simulação, média das rodadas).
Por fim, foram avaliados dois cenários alternativos adicionais, ainda para inves-
tigar a questão do baixo êxito dos entrantes, dessa vez considerando o impacto da organiza-
ção a rede social dos consumidores e de como eles a utilizam para a escolha do provedor.
Figura 61 – Idade dos entrantes em cenários de estrutura de rede.
(em UT, média móvel da idade média dos provedores; calibração: rede Facebook).
0,00
0,05
0,10
0,15
Ro
dad
as
Número de provedores
0
30
60
90
120
150
1 51 101 151 201
Calibração
Small-world
Scale-free
Aleatória uniforme
Erdos-Rényi
45°
259
De maneira algo inusitada, algumas configurações da rede, em particular aque-
las que apresentam valores reduzidos de clustering, contribuem muito negativamente para a
longevidade dos entrantes, conforme a Figura 61.310
Redes com “pouca estrutura”, como as
produzidas pelos algoritmos aleatório uniforme ou Erdős-Rényi, reduziram a expectativa de
vida dos entrantes em até 30 UT ou, de forma equivalente, diminuíram em mais de 10 p.p. a
sua probabilidade de sucesso. Analisando-se os detalhes do modelo, esse fenômeno se deve
à maior dificuldade para os entrantes estabelecerem lock-in em pequenas comunidades lo-
cais de consumidores, em relação às redes com “mais estrutura”.
Figura 62 – Market share dos entrantes em cenários de preferências.
(média móvel da participação total média no mercado dos provedores entrantes; calibração:
�̅�1 = 0,5 / �̅�3 = 0,4).
Por fim, o último cenário investigado considera ponderações distintas na função
de utilidade dos consumidores (cf. Seção 3.2.2.3). Em particular, deseja-se avaliar o impac-
to do aumento ou da redução da influência social na decisão do consumidor (parâmetro �̅�3).
A Figura 62 apresenta os resultados sobre o market share conjunto dos provedores entran-
tes. Nota-se que existe uma correlação negativa entre o peso dado pelos usuários às esco-
310 Apesar das estruturas distintas produzidas por cada gerador de grafos pseudoaleatórios (cf. Apêndice D),
cada um deles foi configurado para produzir redes o mais semelhantes possível com o cenário de calibração
(rede Facebook). Todas as redes geradas possuem aproximadamente o mesmo número de nós, grau médio, e
número de conexões não direcionadas (ou o seu equivalente em conexões direcionadas).
0%
15%
30%
45%
60%
1 51 101 151 201
b1 = 0,6 / b3 = 0,3
Calibração
b1 = 0,4 / b3 = 0,5
260
lhas da sua vizinhança e o market share normalmente capturado pelos entrantes, embora
essa influência não seja intensa como a do caso anterior.
Mesmo relativamente fraca, o efeito de �̅�3 nos entrantes é estatisticamente sig-
nificativa (ao nível usual de 1% de significância). A investigação da operação do modelo
indica que o principal impacto, aqui, é a redução da influência do preço – o parâmetro �̅�1,
conjugado com �̅�2 e �̅�3 no simplex unitário. Essa diminuição atenua a vantagem dos entran-
tes quando eles promovem ofertas com preços mais agressivos.
4.3.2.4. Fato Estilizado 4: intensa substituição de provedores (churning)
Como já mencionado (Seção 4.3.1.1) o modelo reproduz, como propriedade
emergente, a intensa substituição de provedores pelos usuários, o churning. O objetivo,
agora, é compreender os mecanismos que alimentam o churn.
Figura 63 – Churning em cenários de percepção da qualidade.
(média móvel da fração dos usuários que mudam de provedor; calibração: 𝑞 = 0,5).
O nível de acuidade de diferenças de qualidade entre provedores,311
discutido
na Seção 4.3.2.1, é um dos parâmetros críticos (q) para diversos resultados. Logo, 𝑞 é um
candidato natural para explicar a dinâmica do churning. A Figura 63 apresenta alguns cená-
311 Grosso modo, trata-se aqui de quanto pior (melhor) para a utilidade do consumidor é realmente um serviço
um pouco pior (melhor) do que outro. Está-se tratando aqui da seletividade do consumidor entre diferentes
ofertas e não da sua precisão em avaliar a qualidade delas.
0%
1%
2%
3%
4%
5%
6%
7%
8%
1 51 101 151 201
q = 1,50
q = 0,75
Calibração
q = 0,25
q = 0,12
261
rios de simulação com valores diferentes para esse parâmetro, além da calibração. Neste
caso particular, o impacto de q é bastante modesto, sendo estatisticamente relevante apenas
durante o período de crescimento da demanda (𝑡 < 100) e, mesmo assim, somente para
valores substancialmente elevados (𝑞 > 1). Na situação com a qual a evidência empírica
normalmente trabalha (𝑞 < 1), o efeito é irrelevante ao nível de significância de 1%. Ou
seja, o churning aparentemente não se origina de uma limitação do usuário de apreender as
diferentes qualidades oferecidas pelos provedores.
Figura 64 – Churning em cenários de erro de avaliação da qualidade.
(média móvel da fração dos usuários que mudam de provedor; calibração: �̅�𝑑 = 0,25).
Outra explicação usual para o churning é o fato de o consumidor dispor de in-
formação incompleta sobre a qualidade da oferta dos provedores. No modelo, essa incerteza
no serviço a ser contratado está modelada como um erro não sistemático312
na leitura da
qualidade corrente de cada provedor de acesso, controlada pelo parâmetro 𝑒�̅� – o desvio
padrão de uma distribuição normal reduzida (equação (26) da Seção 3.2.2.3). Para avaliar
essa hipótese, a Figura 64 apresenta os resultados do churning para diversos cenários de 𝑒�̅�.
A conclusão é de que, efetivamente, o erro na avaliação da qualidade aumenta a
propensão para o churn. Mas esse resultado, para ser estatisticamente significativo, depende
312 A média da qualidade estimada pelos consumidores para cada provedor é igual à média real da qualidade.
0%
1%
2%
3%
4%
5%
6%
7%
8%
1 51 101 151 201
ed = 1,00
ed = 0,50
Calibração
ed = 0,12
ed = 0,00
262
de valores inusualmente elevados para o erro dos usuários (𝑒�̅� ≥ 0,50). Para erros modera-
dos (𝑒�̅� < 0,50), não é possível distinguir-se o desvio produzido pelo erro daquele que seria
esperado, mesmo em um cenário contrafatual de erro zero (𝑒𝑑 = 0), como pode ser visu-
almente depreendido da Figura 64. Isso é relevante, pois mostra a limitação inerente de se
aplicar o conceito de informação imperfeita no caso de serviços ou bens cuja qualidade não
possa ser avaliada, intrinsecamente, no momento da aquisição (cf. Seção 2.4.3.2).
Figura 65 – Churning em cenários de fidelidade do usuário.
(média móvel da fração dos usuários que mudam de provedor; calibração: �̅�𝑠 = 1,25).
Por outro lado, a evidência anedótica aponta que o principal método de preven-
ção do churning aplicado pelos provedores se baseia em estímulos, além do binário preço-
qualidade, que estimulem a “fidelidade” dos consumidores.313
No modelo, isso é represen-
tado pela “inércia” no momento de eventual mudança do provedor atual, embutida no pa-
râmetro 𝑒𝑠. Isso define um múltiplo mínimo – sobre a utilidade do provedor corrente – que
o novo provedor deve atingir antes que o consumidor considere a substituição. A Figura 65
apresenta alguns cenários alternativos para testar o efeito da fidelização dos usuários no
churning.
313 Por exemplo, programas de pontos/benefícios, marketing personalizado, atendimento diferenciado etc.
0%
3%
6%
9%
12%
15%
1 51 101 151 201
es = 1,00
es = 1,12
Calibração
ed = 1,50
es = 2,00
263
De modo não surpreendente, existe uma grande diferença na propensão ao
churn no caso de inexistência de fidelidade dos consumidores, como pode ser observado na
linha 𝑒𝑠 = 1,00 da Figura 65. Nessa situação o churn médio mais que dobra. Níveis cres-
centes de fidelização reduzem o churning, mas de forma cada vez menos eficiente ao longo
do tempo. Esse resultado parece compatível com a informação empírica da Seção 1.4.3.1,
que mostra que mercados maduros tendem a operar com valores substancialmente menores
de churning, a despeito da competição entre provedores persistir.
Por fim, são propostos dois cenários para avaliar a eventual influência da rede
social no churning. O primeiro considera alterações na ponderação dos elementos que defi-
nem as preferências dos consumidores, materializada no modelo pelos parâmetros �̅�1 (pre-
ço), �̅�2 (qualidade) e �̅�3 (rede social) que ponderam a equação (25) da Seção 3.2.2.3.
Figura 66 – Churning em cenários de preferências.
(média móvel da fração dos usuários que mudam de provedor; calibração: �̅�1 = 0,5 / �̅�3 = 0,4).
A mudança na ponderação das preferências apenas se mostrou relevante em
configurações extremas, nas quais 𝑏3 ≫ 𝑏1 + 𝑏2 – obviamente respeitando-se a condição
𝑏1 + 𝑏2 + 𝑏3 = 1. A Figura 66 exemplifica essa situação em um caso limite (𝑏3 = 1 e
𝑏1 = 𝑏2 = 0), que incrementa substancialmente o churning no período de crescimento ace-
lerado (𝑡 < 50) e praticamente dobra seu valor durante a maturidade do mercado simulado.
0
0,03
0,06
0,09
0,12
1 51 101 151 201
b1 = 0,0 / b3 = 1,0
b1 = 1,0 / b3 = 0,0
b1 = 0,6 / b3 = 0,3
b1 = 0,4 / b3 = 0,5
Configuração
264
Esse resultado não parece óbvio, pois seria razoável supor que a consideração
somente da estrutura de decisão local dos consumidores deveria estabilizar – e não acelerar
– o processo de churn. Entretanto, a análise das rodadas de simulação mostra que, nesse
cenário, a rede social “desacopla” a decisão de mudança da “âncora” representada por pre-
ços e qualidades – em última instância, balizados por limites técnicos e econômicos dos
provedores, o que restringe sua potencial variação. Sem essa âncora, a decisão do consumi-
dor fica sujeita a “ondas” de mudança que percorrem a rede, periodicamente, originadas a
partir de pequenas alterações em algum ponto isolado da rede.314
Por outro lado, o cenário extremo (𝑏3 = 1) coloca luz sobre um fator importan-
te que produzido pela rede social, mesmo nas condições normais de calibração (�̅�3 = 0,4).
Ao se basear na composição, dinâmica, das escolhas de seus vizinhos, o consumidor efeti-
vamente abre mão do controle individual de suas preferências e passa a “flutuar” – mais ou
menos, conforme o caso – em torno das decisões coletivas do seu grupo local. Como exis-
tem conexões dos vizinhos com outros nós da rede, mas que não fazem parte do grupo,
cria-se a possibilidade de “interferência” entre grupos relativamente isolados, como nas
redes da categoria small-world (WATTS; STROGATZ, 1998).315
O último cenário testado, avaliando o impacto de diferentes estruturas de rede
social no comportamento do consumidor, indicou que não existem efeitos estatisticamente
significativos entre o churning e o gerador de grafos pseudoaleatórios empregado.
4.3.2.5. Fato Estilizado 5: influência da rede social no consumidor
Os múltiplos cenários apresentados nas seções anteriores parecem tornar in-
questionável a importância da rede social na escolha do provedor. Apesar disso, a magnitu-
de dessa influência variou bastante, desde casos nos quais ela foi negligível até aqueles em
que a ordem de grandeza dos resultados foi afetada. Contudo, mesmo nas situações nas
quais os efeitos não podem ser estatisticamente detectados, frequentemente foi possível
perceber alguma interação entre a dimensão analisada e a organização em rede dos consu-
314 Sem entrar em detalhes, aparentemente se trata aqui do conhecido “butterfly effect”, que é comum dentro
de estruturas de rede conectadas de forma esparsa (POTTS, 2000). 315 Os diversos resultados deste trabalho parecem efetivamente indicar que, de todos os geradores de grafos
pseudoaleatórios utilizados, o algoritmo small-world é o que produz redes mais próximas das redes reais,
como a do Facebook, para os presentes propósitos.
265
midores. O restante da seção busca aprofundar esses casos limites e outros que não foram
até aqui abordados.
Como notado na Seção 4.3.2.2, uma das exceções da ausência de influência da
rede social é o caso do preço, como mostra a Figura 67. Não apenas a estrutura particular
utilizada para representar a rede social dos consumidores é irrelevante, mas também a pró-
pria consideração da rede na formação das preferências – regulada pelo parâmetro �̅�3 – não
afeta a evolução do preço praticado no mercado de acesso à internet simulado.
Figura 67 – Preço médio em cenários de estrutura de rede.
(em UM/UT, preço médio ponderado; calibração: rede Facebook / �̅�3 = 0,4).
Esse resultado pode parecer surpreendente, em especial à luz dos cenários ante-
riores, quando a estrutura da rede foi decisiva, por exemplo, para a longevidade dos entran-
tes. Ora, como conciliar um mercado com mais ou menos entrantes exitosos com preços
médios que não se alteram entre as duas situações? Não seria o risco ampliado de saída do
mercado um driver suficiente para induzir as firmas para estratégias de menor preço, de
modo aumentar suas receitas totais e sobreviver?
A Figura 68 auxilia na compreensão de como se dá o ajuste interno – no mode-
lo – que permite conciliar o aparente paradoxo entre preços estáveis e distintas condições
de competitividade. Na figura é analisada a dispersão dos preços (razão variância/preço)
0
100
200
300
1 51 101 151 201
Scale-free
Small-world
Calibração
Erdos-Rényi
Aleatória uniforme
b3 = 0
266
que compõe a média ponderada mostrada acima, para algumas composições da ponderação
das preferências (parâmetros �̅�1, �̅�2 e �̅�3). Dela se depreende que o cenário com 𝑏3 = 0
(ausência de influência social), que apresenta dispersões elevadas no período de crescimen-
to da demanda (𝑡 < 100), é estatisticamente indistinguível da calibração (�̅�3 = 0,4). Logo,
a presença da rede não apenas não afeta o preço médio ponderado, como não altera a dinâ-
mica que produz essa média. Ou seja, não existe evidência de que diferentes arranjos de
preferências, com ou sem a consideração da rede social, induzam comportamentos distintos
da dispersão dos preços praticados pelas firmas.316
Figura 68 – Razão variância/preço em cenários de preferências.
(média móvel da razão entre variância e preço médio ponderado; calibração: �̅�1 = 0,5 / �̅�3 = 0,4).
Finalmente, a explicação para o aparente paradoxo foi encontrada durante a se-
leção de estratégias pelas firmas entrantes. Efetivamente, a influência positiva de alguns
arranjos de rede social na sobrevivência dos entrantes se dá, antes, pela abertura conferida
aos pequenos provedores para deslocarem os concorrentes maiores, que se torna mais fre-
quente em redes com clustering reduzido. Ainda assim, as estratégias dominantes nesses
casos já são agressivas (em preço, qualidade ou ambos), não restando usualmente espaço
316 Foi realizado, ainda, cenário avaliando o impacto de diferentes estruturas de rede sobre a dispersão dos
preços, com resultados ainda mais insensíveis a mudanças (menos significativos).
0
10
20
30
1 51 101 151 201
b1 = 0,0 / b3 = 1,0
b1 = 0,6 / b3 = 0,3
Calibração
b1 = 0,4 / b3 = 0,5
b1 = 1,0 / b3 = 0,0
267
para reduções (aumentos) adicionais de preço (qualidade) na condição de redes sociais or-
ganizadas de modo predominantemente local (clustering elevado). Em resumo, os preços
não caem no cenário de maior risco à sobrevivência porque existem limites técnico-
financeiros, já atingidos, que comprometem a latitude das escolhas dos entrantes.
Uma questão não abordada anteriormente, a respeito da influência da organiza-
ção social nos consumidores, toca ao impacto sobre a qualidade dos serviços. A Figura 69
esclarece esse ponto. Aparentemente, durante o crescimento rápido da demanda (𝑡 < 100),
a qualidade média é indiferente à estrutura da rede social. Entretanto, durante o período de
maturidade do mercado, essa situação se altera significativamente, com diferenças entre os
geradores de rede superiores a duas vezes o desvio padrão da métrica de qualidade (ou mais
de 0,1 unidades de referência).
Figura 69 – Qualidade em cenários de estrutura de rede.
(média móvel da média ponderada do índice de qualidade; calibração: rede Facebook).
Na avaliação da qualidade, porém, não foi possível ordenar as alterações indu-
zidas por cara gerador pseudoaleatório com as métricas disponíveis. As redes que produzi-
ram resultados semelhantes (aleatória uniforme e small-world, Erdős-Rényi e scale-free)
não são passíveis de agrupamento pelas métricas detalhadas no Apêndice D. Nem, tampou-
co, foi viável justificar a superioridade da estrutura de rede do Facebook para o estímulo da
qualidade. Isso, de um lado, mostra a necessidade de aprofundar-se a compreensão das si-
0,95
1,05
1,15
1,25
1 51 101 151 201
Calibração
Aleatória uniforme
Erdos-Rényi
Small-world
Scale-free
268
militudes e diferenças dessas redes e, de outro, reforça a importância de se adotar algorit-
mos capazes de reproduzir no maior nível de fidelidade a estrutura das redes reais, o que
certamente não é um atributo dos geradores clássicos.
Finalmente, utilizou-se o modelo para avaliar o eventual impacto da rede social
na universalização do acesso à internet. Como observado na Seção 4.3.1.1 (Figura 37), na
configuração de calibração existe uma nítida tendência, ao longo do tempo, para a inclusão
de praticamente todos os usuários potenciais do serviço. Para analisar a robustez desse re-
sultado, foram testados dois cenários alternativos. No primeiro, mostrado na Figura 70,
novamente foram experimentadas diferentes ponderações para os parâmetros que especifi-
cam as preferências dos consumidores.
Figura 70 – Parcela dos usuários atendida em cenários de preferências.
(fração dos usuários potenciais com acesso à internet, 𝑡 ≥ 30317; calibração: �̅�1 = 0,5 / �̅�3 = 0,4).
Apenas no caso, extremo, de consideração exclusiva da influência dos vizinhos
para a escolha do provedor (𝑏3 = 1) os resultados se afastaram daqueles obtidos no cenário
de calibração. E, diga-se, se distanciaram de modo abrupto, passando para o quase colapso
(!) do mercado de acesso. Para entender essa situação limite, a dinâmica interna do modelo
mostra que a difusão do serviço fica “congelada” após os primeiros períodos. Dentro de
317 Removeu-se da figura o “warm-up” do modelo. Ver nota 279.
0%
20%
40%
60%
80%
100%
30 80 130 180 230
b1 = 0,4 / b3 = 0,5
Calibração
b1 = 0,6 / b3 = 0,3
b1 = 1,0 / b3 = 0,0
b1 = 0,0 / b3 = 1,0
269
vizinhanças locais de rede que dispunham do acesso em 𝑡 = 0 (e em algumas das vizinhan-
ças dessas vizinhanças), ele é mantido ao longo da simulação. Mas, para os grupos sem o
serviço inicialmente, o desfecho mais provável é permanecer sem acesso – mesmo quando
dispõem de orçamento suficiente – uma vez que a presumível ausência de referências den-
tro das suas vizinhanças na rede social impede a avaliação das ofertas disponíveis. Isso não
se altera nos períodos subsequentes (𝑡 ≫ 1), dado que a rede modelada é estática.318
Obviamente, a situação limite mostrada somente ocorre se 𝑏3 for exatamente
igual a um – e 𝑏1 = 𝑏2 = 0. Em todos os demais casos (�̅�3 < 1) o movimento de universa-
lização, ceteris paribus, sempre acontece, apenas com velocidades distintas. De qualquer
modo, esse cenário permite ilustrar a questão institucional discutida na Seção 2.4.3.2: sem a
presença de referências sociais, a difusão de novos produtos é dificultada, e a rede social e
sua estrutura são fatores que moldam como ela se dá.
Figura 71 – Demanda agregada em cenários de estrutura de rede.
(em milhares de UM por UT, receita total dos provedores; calibração: rede Facebook).
Em um segundo cenário de teste sobre a universalização, foram aplicados os
geradores clássicos para produzir a estrutura da rede social dos consumidores. Em todas as
318 Note-se que a queda gradual no porcentual de usuários conectados, apresentada na Figura 70, é um “artefa-
to visual” do modo com que a população de usuários potenciais cresce (exogenamente) no modelo. Após os
primeiros períodos, durante as quais um modesto processo de difusão “one-time” acontece pela rede, o pro-
cesso de difusão cessa e o número de usuários permanece constante até o término da simulação.
200
250
300
1 51 101 151 201
Small-world
Calibração
Scale Free
Aleatória uniforme
Erdos-Rényi
270
situações, o perfil de convergência para a universalização foi bastante semelhante à confi-
guração de calibração. Por outro lado, a dimensão econômica do mercado final produzido
não foi a mesma. Como a Figura 71 mostra, o valor da demanda agregada variou, de forma
estatisticamente significante. Conforme o processo gerador da rede social adotado foi de-
tectado incremento de até 7% na demanda nominal entre os casos extremos. Novamente,
parece haver correlação positiva entre redes com coeficientes de clustering mais elevados e
a demanda agregada nominal.
4.3.3. Compatibilidade dos mecanismos de causação com hipóteses teóricas
Além da reprodução e da explicação de fatos estilizados e trajetórias históricas,
outro objetivo de um modelo history-friendly é avaliar a compatibilidade das premissas e da
estrutura do modelo com o quadro de referência teórica. Essa etapa permite que a consis-
tência da relação entre a teoria e a empiria seja examinada.
A seguir, as principais hipóteses teóricas, apresentadas no Capítulo 2, serão
confrontadas com os processos desenvolvidos e os resultados obtidos na simulação.319
4.3.3.1. Hipótese 1: economias de escala e concentração
Como extensivamente discutido nas Seções 4.3.2.1 e 4.3.3.1, economias de es-
cala são muito relevantes no modelo, em particular para a concentração do mercado de
acesso. Assim, uma questão que surge naturalmente da discussão anterior é se, consideran-
do-se a presença de economias de escala no modelo, por que não seriam elas a causa essen-
cial da concentração verificada, na linha tradicionalmente proposta pela organização indus-
trial (cf. Seção 2.2), sendo os demais fatores elencados, essencialmente, “acessórios”.
É digno de nota, ainda, que o impacto das economias de escala no modelo é
qualitativamente importante, independentemente da magnitude do parâmetro 𝑐𝑠 que contro-
la essa característica. Isso acontece porque, desde que configurada a presença do fenômeno
(𝑐𝑠 < 1), verificam-se no modelo efeitos dinâmicos que favorecem a concentração ao longo
do tempo devido à realimentação positiva – um exemplo do que é algumas vezes denomi-
nado “dynamic increasing returns” (DOSI, NELSON, 2010).
319 Outras hipóteses relevantes, abordadas em trabalho anterior do autor (PEREIRA, 2014c), em uma versão
anterior do modelo, não serão tratadas aqui, uma vez que não se relacionam diretamente com o tema da tese.
271
Assim, os testes de sensibilidade avaliaram que os resultados não são qualitati-
vamente alterados pela variação isolada de 𝑐𝑠 dentro de faixas relativamente amplas. A Fi-
gura 72 explicita esse ponto, mostrando que a eliminação completa das economias de escala
(𝑐𝑠 = 1) não reduziria o nível de concentração para um patamar que permitisse considerar o
mercado de acesso à internet como não concentrado, sob as métricas usuais.
Figura 72 – HHI em cenários de economias de escala.
(índice 𝐻𝐻𝐼𝑠 médio; calibração: 𝑐𝑠 = 0,9).
Como explorado na Figura 72, somente com a introdução de deseconomias de
escala (𝑐𝑠 > 1) é possível a redução da concentração em termos qualitativamente significa-
tivos. Mesmo sendo uma hipótese corriqueira da microeconomia neoclássica, não existem
referências na literatura empírica do setor sobre esse cenário, estritamente contrafatual,320
devido à natureza das tecnologias empregadas. Assim, parece improvável que a presença de
economias de escala seja, em última instância, a principal determinante da característica de
concentração da competição, apesar da evidente e intensa correlação positiva entre ambas.
Explorando mais o tema, outro cenário contrafatual interessante, mostrado na
Figura 49, mostra que algumas combinações especiais dos parâmetros críticos, testadas na
análise de sensibilidade e representadas pelos conjuntos de parâmetros de números 15 e 16
320 Os resultados para os cenários contrafatuais, neste e nos demais casos, são essencialmente especulativos e
exploratórios, não baseados em evidência empírica.
0
0,2
0,4
0,6
0,8
1 51 101 151 201
cs = 0,7
cs = 0,8
Calibração
cs = 1,0
cs = 1,1
272
(Tabela 13 do Apêndice D), produzem resultados qualitativamente distintos para a estrutura
de mercado (Tabela 14 do Apêndice D). Esses conjuntos particulares permitem a operação
do mercado sem a concentração característica dos parâmetros de calibração, permitindo
níveis de 𝐻𝐻𝐼𝑠 sistematicamente bastante abaixo de 0,25, nível crítico para a definição de
mercados muito concentrados (cf. nota 288). Nessas condições, o market share e a rentabi-
lidade das firmas entrantes melhoram substancialmente, durante a maior parte da simula-
ção, conforme ilustra a Figura 73.
Figura 73 – Retorno e market share dos entrantes em cenários críticos.
(taxa de retorno média ponderada e participação total média dos provedores entrantes no mercado).
Os conjuntos 15 e 16 caracterizam-se por (i) baixa influência das escolhas dos
vizinhos na rede social sobre a seleção do provedor (�̅�3 reduzido); (ii) ausência de econo-
mias de escala (𝑐𝑠 = 1); e (iii) crescimento contínuo do orçamento dos consumidores
(𝑔𝐵 > 0). Ao proporcionarem reduzida concentração e elevada rentabilidade dos entrantes,
eles produzem uma diminuição expressiva da quantidade de firmas que deixam o mercado
durante a simulação, mostrando a viabilidade, em tese, de uma estrutura setorial menos
concentrada e um mercado mais “saudável”. Entretanto, apesar de desejável em uma pers-
pectiva normativa, esse cenário depende, crucialmente, de premissas muito particulares
sobre características cognitivas dos usuários (�̅�3) ou sobre atributos da tecnologia (𝑐𝑠), am-
bos pouco suscetíveis a intervenções exógenas diretas, em especial no curto prazo.
0,00
0,05
0,10
0,15
0,20
1 51 101 151 201
Calibração
Conj. 15
Conj. 16
0,00
0,20
0,40
0,60
0,80
1 51 101 151 201
273
A Figura 74 apresenta um experimento adicional sobre a mortalidade dos en-
trantes, no qual cenários alternativos de estruturas de rede são testados, aplicando-se a con-
figuração do conjunto de parâmetros 15 na. Nesse caso, e independentemente da estrutura
da rede social, a expectativa de sobrevivência dos entrantes aumenta substancialmente.321
Figura 74 – Idade dos entrantes em cenários de estrutura de rede.
(em UT, idade média dos provedores; parametrização com conjunto de parâmetros número 15).
Por fim, vale notar que o surgimento de barreiras para novos competidores, no
modelo, também é propriedade emergente. Nada no nível inferior do modelo (as regras
comportamentais) foi explicitamente configurada para produzi-las, o que é demonstrado
pelas diversas rodadas com resultados significativamente competitivos. No entanto, restam
importantes elementos como as economias de escala na definição do patamar das barreiras
à entrada – e à sobrevivência – nos cenários de simulação mais frequentes.
4.3.3.2. Hipótese 2: busca inovadora, seleção sobre variedade e evolução setorial
Na concorrência schumpeteriana, conforme discutido na Seção 2.3.2, o princi-
pal instrumento competitivo disponível para as firmas é a inovação, tanto tecnológica como
321 Deve-se ressaltar que, diferentemente do cenário de calibração (Figura 61), em um mercado mais propício
para os entrantes, não mais existe grande variação da expectativa de vida dos entrantes, conforme a estrutura
da rede social dos consumidores se altera. Ou seja, a estrutura da rede social é importante em situações de
maior concentração e concorrência restrita.
0
30
60
90
120
150
1 51 101 151 201
Calibração
Small-world
Scale-free
Aleatória uniforme
Erdos-Rényi
45°
274
organizacional. A inovação costuma ser o fator mais relevante para a diferenciação entre as
empresas de setores dinâmicos, dando origem à diversidade populacional sobre a qual o
mecanismo de seleção no mercado atua (NELSON, 1995; METCALFE, 1998). Porém, esse
talvez não seja um retrato completo de todos os processos evolucionários presentes.
Não obstante o modelo proposto não tratar a questão da inovação tecnológica
como endógena aos provedores, a busca constante das firmas pelas melhores tecnologias e
estratégias de negócio é característica do sistema. Por isso, além da dinâmica tecnológica,
cuja compatibilidade com esta categoria de modelo foi largamente testada na literatura ne-
oschumpeteriana (Seção 3.1.1), o mecanismo de inovação organizacional se mostra essen-
cial para os resultados obtidos.
Como descrito na Seção 3.2.2.6, as firmas modeladas dispõem de capacidade
para aprender, imitar e, de certa maneira, inovar durante a contínua investigação do espaço
(de estratégias) de preços e de qualidade, ao mesmo tempo em que perseguem seus objeti-
vos de rentabilidade. Ao longo da simulação, os provedores confrontam diversas opções
estratégicas, sendo que aqueles com estratégias adequadas crescem mais ou obtêm maior
lucratividade ou ambos. Entretanto, esse sucesso atrai imitadores, que adotam as estratégias
exitosas, eventualmente inviabilizando-as, na permanente exploração do espaço estratégico.
Essa movimentação em direção das “melhores” estratégias está exemplificada
na Figura 75. Ela mostra quantas firmas, em uma rodada típica, adotam cada estratégia em
um determinando momento. Estratégias que são populares em um período, representando a
melhor estratégia então conhecida, são rapidamente imitadas pelas firmas com resultados
insatisfatórios.322
Quando estratégias superiores surgem, existe uma rápida convergência
para o que é percebido como a reposta mais adequada naquele instante do mercado. Na
Figura 75 isso fica claro, por exemplo, na frequente e veloz migração, da maioria das fir-
mas entrantes, das estratégias de números 1 e 2 (conservadoras) para a de número 5 (agres-
siva), e vice versa, à medida que as condições do mercado se tornam mais ou menos com-
petitivas. A despeito da aparente pressão em direção do isomorfismo (DIMAGGIO; PO-
WELL, 1983), persiste a exploração de alternativas estratégicas pelos provedores, especi-
322 No modelo, o processo de busca de novas estratégias somente é ativado pelo provedor de acesso no caso
de sistemático não atingimento das metas (de rentabilidade e de market share) com a estratégia corrente.
275
almente durante o período dinâmico do mercado (𝑡 < 125). Na maturidade (𝑡 > 125), a
figura captura a tendência de estabilização do processo de busca e consequente convergên-
cia isomórfica323
dos incumbentes – apesar de, no exemplo, a busca dos entrantes prosse-
guir (mas esse não é o cenário mais comum nas rodadas).
Figura 75 – Distribuição de entrantes e incumbentes entre estratégias.
(frequência de provedores em cada estratégia; rodadas selecionadas).
A imponderabilidade de processos open-ended, como os descritos, característi-
ca da busca e da seleção evolucionárias, fica evidente no detalhamento. O modelo não apre-
senta tendência consistente para estratégias particulares, seja pela descoberta de uma estra-
tégia “ótima”, seja pela convergência sistemática para algum conjunto específico, como
evidencia a Figura 54 (Seção 4.3.2.2). Ao invés, a busca e seleção caracteriza-se pela path
dependence marcante, o que torna razoavelmente frequente a reprodução de trajetórias em
rodadas distintas. Parece adequado, portanto, supor que algumas trajetórias estratégicas são,
ex post, evolucionariamente mais eficazes, em certas condições do modelo.324
Mas isso não
impede o ocasional lock-in em trajetórias claramente inferiores em diversas outras rodadas.
No entanto, no modelo, os processos de busca e seleção não se limitaram ao la-
do da oferta. Como explorado ao longo do capítulo, a operação desses mecanismos pelos
consumidores, seja na procura pelos provedores mais adequados ou na difusão do serviço
323 O termo isomorfismo refere-se não apenas à estrutura formal das organizações, mas também à sua “cultura
organizacional, objetivos, programa ou missão” (DIMAGGIO; POWELL, 1983, p. 149). 324 A análise das trajetórias ex post “ótimas” do modelo não foi empreendida aqui, em função do escopo da
tese.
0
1
2
3
4
5
6
7
8
9
1 51 101 151 201
Entrantes
0
1
2
3
4
1 51 101 151 201
Incumbentes
Estrat. 1
Estrat. 2
Estrat. 3
Estrat. 4
Estrat. 5
Estrat. 6
Estrat. 7
Estrat. 8
Estrat. 9
276
de acesso, é muito relevante no desenvolvimento e organização do mercado simulado.325
Essa talvez seja a principal conclusão deste trabalho, uma vez que a literatura sobre os me-
canismos do lado da oferta se encontra bastante consolidada.
Enfim, a investigação mostrou que os processos evolucionários, pelo lado da
demanda e da oferta, são cruciais na determinação dos resultados. A estrutura de mercado
produzida a partir deles, na simulação, apresenta as características essenciais previstas pelo
quadro teórico, a saber: a assimetria persistente entre as firmas e os consumidores, a turbu-
lência de entrada e saída, a path dependence das estruturas, a possibilidade de lock-in em
trajetórias técnicas e comerciais ex post subótimas, e a incerteza ex ante dos desdobramen-
tos da competição e das decisões de consumo. Vale ressaltar que todos esses atributos do
mercado simulado manifestaram-se como fenômenos emergentes, não modelados explici-
tamente. Isso permite a validação das hipóteses propostas pela teoria evolucionária como
constitutivas do modelo e, provavelmente, de suas contrapartes no sistema econômico real.
4.3.3.3. Hipótese 3: estruturas cognitivas compartilhadas e comportamento
As seções anteriores do capítulo descreveram uma série de mecanismos, críti-
cos para os resultados do modelo, que foram frequentemente justificados por considerações
sobre as estruturas cognitivas dos agentes e sua influência nos comportamentos observados,
em situações nas quais diversas opções eram, em princípio, possíveis.
O primeiro mecanismo cognitivo discutido tratou da forma pela qual os consu-
midores avaliam as ofertas de serviço. A existência de padrões bem definidos para avalia-
ção dos serviços pelos usuários, controlados pelo ambiente de simulação (ou gerados por
influências culturais no sistema real), restringe as combinações disponíveis para os prove-
dores escolherem como compor suas ofertas. A não adoção de um “consumidor médio” (e
sua inexistência no mundo real) eliminou a possibilidade de perfeita substituição entre ofer-
tas, considerando-se que o espaço de combinações preço-qualidade não é contínuo. Para
325 Infelizmente, a característica estática da rede de consumidores, no modelo, não permitiu a adequada inves-
tigação desses mecanismos em toda a sua real dimensão.
277
complicar ainda mais a análise,326
os usuários, durante a formatação de suas preferências,
são constantemente influenciados pelo meio social (vizinhança de rede).
Outro mecanismo cognitivo correlato, que surge do estudo das rodadas de simu-
lação, é a sensibilidade que os usuários precisam desenvolver para os parâmetros da oferta,
seja no que diz respeito ao preço ou à qualidade. Como mostrado na Seção 4.3.2.2, a inter-
pretação arbitrária sobre o que os usuários compreendem como uma “redução relevante”
dos preços ou uma “melhora significativa” da qualidade tem impactos importantes no mer-
cado. Essas interpretações dificilmente podem ser consideradas como decisões isoladas de
usuários atomizados.327
Como no caso das preferências, o papel da emergência de conven-
ções compartilhadas entre os usuários sobre a própria definição dos atributos essenciais dos
produtos, não pode ser desconsiderado, sob pena de alijar da análise fenômenos que já de-
monstraram relevância empírica (MALERBA, 2006).
Considerando que o movimento dos preços e qualidades no modelo representa,
principalmente, ajustes competitivos das ofertas das firmas, a questão de eventuais conven-
ções adotadas pelos usuários, sobre como “reconhecer” uma alteração na oferta ou se um
novo provedor é “suficientemente” melhor do que o atual, torna-se central na determinação
da dinâmica competitiva. Transposta para a avaliação das ofertas no mercado real, isso aju-
da a explicar a tendência de as firmas não realizarem alterações muito frequentes em seus
preços e qualidades. Nessa situação, ajustes individuais contínuos e imediatos às variações
nas condições do mercado, como prevê a interpretação convencional, transformam-se em
problema de coordenação para provedores e consumidores.
Ao tentarem se posicionar, individualmente, de forma “reconhecivelmente” su-
perior, os provedores desencadeiam um processo sistêmico poderoso, que em geral acelera
a erosão dos preços e/ou o aumento dos custos para todos os participantes do mercado. A
solução ótima desse problema de coordenação requer informações e capacidades que, sim-
plesmente, não estão disponíveis para os agentes no mercado virtual e, possivelmente, no
326 A existência de nichos descontínuos e preferências realimentadas por processos sociais emergentes impe-
dem a concepção de estratégias ótimas a priori pelas firmas, independentemente da incerteza associada com o
processo de inovação endógeno, desencadeando o contínuo aprendizado com as características já discutidas. 327 Até porque, se assim fosse, o cálculo “maximizador” indicaria que os thresholds deveriam ser os menores
possíveis (na ausência de “custos de menu” para os usuários), o que é incompatível com a evidência empírica.
278
real. Obviamente, a maior parcela do ônus da mudança setorial recai sobre os incumbentes,
o que justificaria sua menor propensão a iniciar esse processo, novamente realçando a in-
fluência das questões cognitivas na restrição das opções disponíveis para os agentes do mo-
delo, frequentemente por meio da seleção evolucionária de estratégias mais “cautelosas”.
Destarte, o conjunto dos mecanismos cognitivos de consumidores e provedores
tem impacto significativo na dinâmica da simulação, como evidenciou a análise. Parece,
portanto, bastante razoável aceitar a hipótese de que essas estruturas propiciam o surgimen-
to dos fenômenos emergentes que formatam e constrangem o espaço de escolha dos agentes
simulados, com reflexos inequívocos nos resultados do modelo e, provavelmente, também
no caso real.
4.3.3.4. Hipótese 4: redes sociais e formação de preferências
Um dos benefícios da técnica de simulação computacional é a possibilidade de
experimentação com diferentes estruturas de interação entre os agentes. Isso permite que
sejam analisadas questões referentes às redes das quais eles participam e que influenciam as
características sistêmicas emergentes (PYKA; FAGIOLO, 2005). Como apresentado ao
longo do capítulo, o modelo possibilita a interação local entre provedores, entre usuários e
entre ambos, dando origem a redes sociais complexas, bem como o desdobramento de suas
propriedades emergentes.
A rede social entre provedores se estabelece na clivagem, já analisada, entre in-
cumbentes e entrantes. A influência da rede de interação entre firmas, na escolha estratégi-
ca de cada uma, frequentemente reduziu a necessidade de ofertas agressivas dos incumben-
tes para que eles atingissem seus objetivos. Como consequência, criou-se espaço para a
adoção de conjuntos de estratégias distintos entre firmas de grupos sociais diferentes, o que
permitiu a “estabilização” da competição. É interessante notar que em rodadas em que a
parcela de mercado conjunta dos incumbentes caiu abaixo de certo limite, a estratégia de
comportamento recíproco, socialmente construída, tornou-se ineficaz e tendeu a direcionar
as firmas grandes para estratégias mais combativas, típicas das entrantes, a partir da apren-
dizagem adaptativa. Em outras palavras, a estabilização do mercado simulado requer a do-
minância do mercado artificial por poucas firmas, como previsto na Seção 2.4.3.1.
279
A formação de redes de relacionamento entre usuários e provedores, dentro de
nichos de mercado de qualidade diferenciada, também contribui para a redução da agressi-
vidade das firmas. O aparecimento de nichos, discutido anteriormente, isola competidores e
cria, na prática, submercados distintos com ofertas singulares em termos qualitativos. Gra-
ças a isso, tanto os entrantes, que normalmente exploram esses nichos, quanto os incumben-
tes, que não dispõem de oferta adequada para eles, frequentemente podem conviver com
elevado nível de estabilidade das estratégias mais moderadas.
Por fim, mostrou-se inequívoca a centralidade da questão da formação parcial-
mente local e endógena das preferências dos consumidores, dentro do escopo de suas vizi-
nhanças na rede de relacionamento social. Ao “outorgar”, para sua rede, parcela de sua de-
cisão sobre a aquisição do serviço de acesso, o consumidor se abre para interferências que
vão além da dimensão puramente informacional, usualmente privilegiada em estudos do
tema. Considerando-se a dinâmica da difusão – de informação e de estruturas cognitivas –,
dentro de redes muito grandes, esparsas e não uniformes, a influência social traz novas va-
riáveis essenciais para a compreensão do comportamento da demanda, confirmando as
principais hipóteses levantadas na Seção 2.4.3.3.
Embora nem todos os mecanismos relacionais verificados pelo modelo tenham
sido essenciais para os resultados produzidos, a maioria deles se mostrou significativa e
importante nesse sentido, especialmente se considerados conjuntamente. Isso recomenda a
aceitação da hipótese de centralidade das redes sociais no desenvolvimento da estrutura do
mercado e na dinâmica do consumo e da competição.
4.4. Conclusão
Com base na proposta metodológica dos modelos history-friendly, logrou-se re-
alizar a calibração do modelo proposto, utilizando referências provenientes da pesquisa
empírica para parcela importante dos parâmetros. O modelo calibrado teve sua sensibilida-
de avaliada e os parâmetros críticos para os resultados, identificados. Partindo de pouco
mais de 40 valores de calibração, a análise de sensibilidade detectou que menos de uma
dezena deles são realmente nevrálgicos na conformação da estrutura de mercado gerada
pela simulação.
280
O modelo foi capaz de reproduzir todos os fatos estilizados verificados (ou pre-
vistos) no Capítulo 1 como propriedades emergentes, ou seja, sem que o programa compu-
tacional fosse explicitamente configurado para tanto. Os resultados obtidos permitiram o
aprofundamento da compreensão dos mecanismos que, no sistema econômico virtual, pro-
duziram consequências semelhantes àquelas verificadas no mundo real. As diversas etapas
analíticas propostas no capítulo, espera-se, foram suficientemente robustas para permitir
que as principais relações lógicas descobertas possam ser extrapoladas para domínios analí-
ticos similares. Dessa forma, considera-se razoável, e promissor, utilizar o conhecimento
adquirido para esclarecer, por analogia, várias das questões levantadas no Capítulo 1.
No que diz respeito ao setor gerado pelo artefato de simulação, pelo menos, a
questão central deste trabalho restou esclarecida. Os motivos da concentração e da restrita
competição foram elucidados, no modelo, com base em um conjunto de fenômenos emer-
gentes, em particular da influência das redes de consumidores, secundados pela presença de
economias de escala e pela estabilidade de certas características cultural-cognitivas dos
usuários. Os mecanismos que retardaram e suavizaram a redução potencial dos preços, em
face das previsões tradicionais da teoria econômica, também foram explorados e justifica-
dos, considerando-se o surgimento de convenções compartilhadas dentro de redes de rela-
cionamento local entre provedores e entre consumidores. Por fim, o papel crítico da dinâ-
mica da inovação tecnológica, dentro do setor virtual, foi analisado e esclarecido.
Sem desconsiderar a importância de outros fatores presentes, como os de ordem
evolucionária ou da organização industrial convencional, merece destaque a relativa pre-
ponderância dos processos institucionais no desdobramento dos fenômenos mais importan-
tes verificados no sistema simulado. O modelo permitiu rejeitar, por exemplo, a hipótese de
que a eliminação das economias de escala, isoladamente, seria suficiente para alterar quali-
tativamente as características estruturais do mercado. Ou de que externalidades de rede
clássicas sejam um instrumento relevante para reforçar a posição dos incumbentes, no caso
da internet. Isso é, de certo modo, surpreendente, considerando-se os resultados usuais dos
estudos empíricos industriais, que costumam apontar mecanismos dessa natureza como
fundamentais, relegando o destaque das questões institucionais para o segundo plano,
quando muito.
281
Nesse sentido, e à semelhança das conclusões de Hodgson e Knudsen (2004)
para um modelo de simulação completamente diferente, o processo de formação das prefe-
rências dos agentes foi decisivo para os desdobramentos obtidos. Ao introduzir modesta
variabilidade nas preferências, geradas de maneira apenas parcialmente endógena, deu-se
origem a fenômenos de natureza emergente que foram capazes de alterar inteiramente a
organização setorial. Esse mecanismo foi, ainda, potencializado pela estrutura particular da
rede social na qual se encontram os consumidores. Estruturas distintas provaram ser aptas a
deflagrar dinâmicas razoavelmente diferenciadas, reforçando ou atenuando o efeito de
downward causation.
Não somente o procedimento de formação de preferências dos usuários foi im-
portante para os resultados do modelo. Outros fenômenos emergentes direcionaram, signi-
ficativamente, como as firmas avaliam o setor e competem entre si, a partir do aprendizado
evolucionário e da seleção de estratégias dentro de redes de relacionamento local. Entretan-
to, não foram identificadas tendências que conduzissem a escolhas “ótimas”, ou sequer úni-
cas, pelo menos enquanto a demanda seguiu crescente. Todavia, o processo de aprendizado
estratégico, neste caso, não foi responsável, individualmente, pela elevada concentração
verificada no mercado virtual, à diferença dos pontos anteriores.
Finalmente, deve-se ressaltar que, como em qualquer modelo, os resultados ob-
tidos são sempre influenciados pelas suas premissas. Por mais detalhado que seja o modelo,
partes potencialmente importantes do sistema econômico real são excluídas ou simplifica-
das, deixando margem para dúvidas quanto às suas conclusões. Isso também acontece aqui.
Questões sobre a relevância de fontes relevantes de custos fixos, como o caso fundamental
do marketing, ou a influência da organização espacial dos agentes, que se distribuem ao
longo de um território heterogêneo, não foram modeladas mas, obviamente, são críticas
para a operação do mercado concreto. Espera-se que, no entanto, mesmo com essas defici-
ências, o modelo seja capaz de reproduzir o efeito dos fatores considerados acima de ma-
neira não viesada, não obstante a evidente impossibilidade de reprodução de toda a riqueza
de detalhes da realidade.
283
Conclusão geral
A tese propôs uma abordagem inovadora para o estudo da dinâmica competitiva
do mercado de serviço de acesso à internet, sob a influência de consumidores organizados
em redes sociais, com base na metodologia de simulação agent-based history-friendly. Di-
versas etapas foram necessárias para que, de forma conjunta, pudessem fornecer respostas
satisfatórias às principais questões levantadas pela pesquisa empírica, com a profundidade e
o rigor adequados.
A investigação empírica mostrou que o desenvolvimento da internet legou um
novo setor econômico, criado principalmente a partir da confluência dos setores de teleco-
municações e de informática e que rapidamente ganhou influência significativa no cenário
econômico. A análise apreciativa desse setor, empregando-se a metodologia dos sistemas
setoriais de inovação e produção, apontou para uma indústria composta por um núcleo di-
versificado de agentes. Entre eles, destacam-se os consumidores-usuários, que, pela nature-
za dos processos setoriais, tiveram participação decisiva na sua evolução, e os provedores
de acesso, frequentemente originários das antigas empresas de telefonia privatizadas, que
disponibilizaram a infraestrutura física de redes que compõem a “grande rede mundial”.
O estudo apreciativo mostrou que a rápida convergência para o novo setor, de
um conjunto de atores bastante heterogêneos, representou um projeto complexo de constru-
ção institucional. Premidos pela concorrência, de um lado, e pela incerteza sobre as novas
tecnologias, bens e serviços, de outro, os agentes frequentemente se valeram de redes de
cooperação, seja para a P&D como para a regulação da internet ou, até, para o consumo de
seus produtos. Isso deu origem a um aglomerado único de instituições setoriais, simultane-
amente cooperativo e competitivo.
No entanto, a maneira com que a combinação cooperação-competição ocorreu
não foi homogênea entre os segmentos do setor de internet. Em termos schumpeterianos, a
trajetória histórica apontou que, enquanto na maioria dos mercados setoriais (equipamentos,
sistemas e conteúdo) a dinâmica da creative destruction foi dominante, aparentemente, no
284
mercado de acesso, houve o predomínio do regime de creative accumulation. Isso se deveu,
principalmente, à sobrevivência, no novo mercado de acesso, de certas características inst i-
tucionais dos antigos regimes de monopólio nas telecomunicações, o que facilitou o domí-
nio desses mercados pelas empresas oriundas das privatizações dos anos 1980-1990. Em
particular, esse parece ter sido o caso do Brasil.
Adicionalmente, a radical novidade – e a relativa complexidade – dos bens e
serviços oferecidos pela internet exigiram dos seus consumidores o desenvolvimento de
novas capacidades. Não parece razoável supor que as preferências desses consumidores,
dentro dos mercados do setor, fossem a priori conhecidas e, menos ainda, estáveis. Por não
se tratar do caso usual de informação imperfeita, a incremento do consumo nos novos mer-
cados demandou, inicialmente, o estabelecimento de instituições mínimas – definidoras do
valor e da qualidade dos produtos – antes que pudesse se desenvolver plenamente. Em par-
ticular, no mercado de acesso, a questão da avaliação da qualidade dos serviços é especial-
mente complexa, tornando pouco eficazes os mecanismos usuais empregados pelos consu-
midores. Nesse cenário, a evidência empírica aponta que as informações armazenadas e
transportadas nas redes sociais, das quais os consumidores são parte constitutiva, são im-
portantes para a formação de suas preferências.
Pelo lado da oferta, após um breve período de fragmentação e concorrência in-
tensa, entre 1995 e 2000, o mercado brasileiro de serviço de acesso à internet concentrou-se
rapidamente, com o predomínio das empresas originárias da privatização, em 1998, do sis-
tema Telebrás. Mais recentemente, a análise dos dados empíricos disponíveis permitiu a
caracterização do regime particular da competição nesse mercado, com base em três fatos
estilizados principais:
a) concentração de mercado persistente: quatro provedores incumbentes, todos
originários da privatização, dominavam mais de 90% do mercado de acesso,
com nível relativamente baixo de concorrência entre eles e significativa concen-
tração no âmbito geográfico regional;
b) reduzida competição por meio de preços: a despeito de quedas constantes, os
preços do serviço de acesso brasileiro estavam entre os mais elevados do mun-
do (para países de renda média ou alta) e as margens dos grandes provedores
285
são significativas, em um cenário compatível com a presença de economias de
escala relevantes; e
c) baixa taxa de entrada com sucesso: em toda a história do segmento, apenas
um provedor entrante logrou sucesso efetivo; apesar da presença de mais de
dois mil provedores no mercado em 2014, as firmas (não associadas aos incum-
bentes) que nele adentraram desde o ano 2000 representavam menos de 10% do
mercado nacional, sendo que somente uma delas conseguiu superar a barreira
de 1% de participação sobre o total.
Pelo lado da demanda, foram identificadas evidências dos efeitos da dinâmica
complexa da qualidade e das redes sociais na escolha dos consumidores. Em resumo, dois
fatos estilizados parecem caracterizar o mercado de acesso:
a) intensa substituição de provedores (churning): entre 30 a 45% dos usuários
trocam de provedor de acesso a cada ano, volume esse que tem crescido ao lon-
go do tempo, sendo que o principal motivo elencado para a mudança é a quali-
dade deficiente dos serviços; e
b) influência da organização social na escolha do consumidor: as informações
disponibilizadas e difundidas pelas redes sociais das quais o consumidor parti-
cipa foram relevantes para a decisão de aquisição de serviços de internet e cor-
relatos, representando até 40% dos componentes considerados no processo de
escolha em países como o Brasil.
A investigação de modelos teóricos que permitissem justificar os fatos estiliza-
dos oriundos da análise apreciativa seguiu, em princípio, por três linhas teóricas distintas.
Inicialmente, foi analisada a adequação das contribuições da organização industrial para dar
conta dessas questões. Em particular, a hipótese da correlação positiva entre economias de
escala e concentração pareceu relevante para suportar a pesquisa. Isso porque a empiria
indica que, descartadas outras barreiras tradicionais à concentração do mercado de acesso, a
presença de ganhos de escala, ou, pelo menos, a inexistência de deseconomias de escala, é
um dos fatores que permitiram o comportamento potencialmente discriminador observado
286
no mercado. Consequentemente, ela permite compreender um dos possíveis canais de estí-
mulo para a expansão continuada dos incumbentes e a limitação da competição.
A perspectiva evolucionária neoschumpeteriana, por sua vez, aportou interpre-
tação para outras questões empíricas, em particular uma abordagem para o tratamento da
dinâmica da inovação, elemento-chave de organização do setor de internet, inclusive no seu
segmento de acesso. Em especial, a hipótese de que a evolução setorial se dá pelos meca-
nismos de busca inovadora e de seleção sobre a variedade é importante para justificar al-
guns fatos estilizados. Afinal, os processos de geração de diversidade e de seleção aparen-
temente atuaram de forma decisiva desde o surgimento da internet e foram determinantes
da trajetória histórica verificada, não obstante a evidência de diversas circunstâncias de
retardo e atenuação, como foi, em princípio, o caso do mercado de acesso no Brasil.
A parcial insuficiência das duas vertentes teóricas anteriores, em especial para o
tratamento de um setor com segmentos sob o mesmo regime tecnológico, mas com distintas
intensidades competitivas, foi encaminhada com base em um conjunto de abordagens insti-
tucionais, por meio de um recorte teórico adequado. A adoção de uma definição suficien-
temente ampla para as instituições, enquanto regras de pensamento ou de comportamento
compartilhadas socialmente, permitiu um enfoque abrangente o bastante. Desse modo, a
análise institucional comportou a construção de algumas hipóteses importantes sobre os
mecanismos em ação no campo empírico:
a) estruturas cognitivas compartilhadas entre os atores condicionam as alter-
nativas de comportamento: a criação de modos de organização coletiva de
padronização e regulação setorial e de interação em rede sociais e a internaliza-
ção de práticas utilizadas ao longo do tempo, muitas vezes implicitamente (ta-
ken-for-granted), além de reduzirem a incerteza dos agentes, proporcionaram a
legitimação de formas institucionalizadas para os processos de P&D, de produ-
ção industrial, de gestão da internet ou, ainda, de competição e de consumo; a
estabilização institucional proporcionada por mecanismos dessa natureza pode
marcar profundamente a dinâmica do setor e de seus mercados; e
b) redes sociais são importantes na conformação endógena das preferências
dos agentes: a partir da organização dos consumidores dentro de redes de rela-
287
cionamento, tanto entre eles e destes com os provedores, foram produzidos des-
dobramentos relevantes – troca de informação, formação de preferências coleti-
vas, convenções sobre preços e qualidade etc. – que puseram luz sobre a in-
fluência das relações dentro das redes sociais nos resultados verificados, o que,
por sua vez, tem potencial para afetar a própria competição.
Em resumo, o quadro teórico proposto para a análise parte da hipótese de que a
organização setorial se deu com base, primordialmente, em uma dinâmica dual – ou coevo-
lucionária – que envolveu instituições e tecnologia. Na maioria dos segmentos do setor, o
pressuposto é de que prevaleceram as forças que conduzem ao cenário da (intensa) compe-
tição schumpeteriana, em um ambiente de inovação e diferenciação contínuas. Entretanto,
outro segmento, o de serviço de acesso, operou segundo uma lógica institucional distinta,
articulada por redes hierárquicas estabelecidas historicamente pelas firmas mais poderosas,
privilegiando a restrição da concorrência, no que foram suportadas, de modo relevante, por
características institucionais da forma como se organizou a demanda.
Definidos os fatos estilizados e as hipóteses teóricas, a etapa seguinte foi a es-
pecificação e a construção de um modelo formal do segmento de acesso, com foco no mer-
cado de serviço de acesso à internet. O modelo deveria ser capaz de testar se as hipóteses
teóricas são adequadas, compatíveis e suficientes para a reprodução dos fatos estilizados,
bem como identificar outras condições relevantes para os resultados verificados, mas não
desvendadas pela investigação empírica ou previstas pelo quadro teórico. Para essa finali-
dade, foi selecionada a metodologia history-friendly, um tipo particular de modelagem de
simulação computacional agent-based.
A pesquisa metodológica indicou que a simulação de sistemas complexos é par-
ticularmente adequada para a modelagem formal de processos sociais e institucionais, in-
clusive os organizados em redes, justamente por permitir a avaliação de propriedades
emergentes e sua realimentação para diferentes níveis analíticos – upward e downward
causation. A compreensão da emergência é a característica-chave para a interpretação de
sistemas complexos e a simulação agent-based é apropriada para tanto, pois apresenta atri-
288
butos convenientes para sua modelagem. Isso inclui a capacidade de representar agentes
heterogêneos e as interações locais entre eles, recursos essenciais para a tarefa.
O uso de modelos de simulação como suporte para a pesquisa empírica é usual
na abordagem evolucionária. A metodologia history-friendly deu impulso à segunda gera-
ção de modelos nessa tradição. Ela foi criada objetivamente para o estudo de indústrias
específicas, com o objetivo de avaliar teorias qualitativas sobre os mecanismos que afetam
a evolução setorial, utilizando informação da análise apreciativa para construção e valida-
ção de modelos formais. A aderência ou não dos resultados aos os fatos estilizados permite
uma primeira avaliação da adequação lógica do quadro teórico com a leitura apreciativa. A
interpretação do modelo possibilita, ainda, o aprofundamento dessa investigação e suporta a
identificação de fenômenos não explicitamente modelados ou sequer previstos a priori.
O modelo proposto baseia-se em 44 equações, 42 parâmetros ajustáveis e nove
variáveis que requerem condições iniciais diferentes de zero, além dos parâmetros estima-
dos a partir das redes sociais reais utilizadas. Em comparação com modelos semelhantes, a
quantidade de parâmetros mostrou-se razoavelmente parcimoniosa. O modelo foi imple-
mentado com o uso da ferramenta LSD, desenvolvida pelo professor Marco Valente, e mais
de três mil linhas de programação em linguagem orientada a objetos C++, Python e R. O
modelo opera em tempo discreto e permite a observação detalhada dos estados de cada ob-
jeto individual (usuários, provedores, tecnologias, redes e suas estruturas agregadas) ao
longo da simulação. A rede social dos consumidores é gerada como um grafo pseudoaleató-
rio, com as principais características estruturais equivalentes às das redes selecionadas. O
sistema admite a configuração e a experimentação de cenários contrafatuais, pela modifica-
ção dos parâmetros que definem as propriedades do caso history-friendly básico.
A calibração do modelo logrou ser realizada com parcela significativa dos pa-
râmetros baseados nos dados empíricos, inclusiva para a configuração da topologia da rede
social de consumidores. Isso simplificou a análise, considerando-se o conhecimento prévio,
pelo menos, das ordens de grandeza adequadas para a exploração das possibilidades de va-
riação no espaço paramétrico. Com base na calibração selecionada, foram realizados exten-
289
sivos testes de sensibilidade do modelo para mudanças nesses valores. Dos 51 itens de cali-
bração, entre parâmetros e valores iniciais, pouco mais de uma dezena se mostrou crítica na
determinação dos resultados importantes do modelo.
Como esperado, as informações obtidas no decorrer de dezenas de milhares de
“rodadas” executadas com o modelo, necessárias tanto para a avaliação do impacto de mu-
danças nos parâmetros quanto para a obtenção de valores representativos dos processos
estocásticos envolvido, mostraram-se extremamente úteis para a compreensão dos meca-
nismos do sistema econômico virtual. Além disso, em primeira aproximação, os resultados
revelaram-se bastante próximos daqueles observados no sistema real, em termos qualitati-
vos e mesmo quantitativos, indicando a adequação do quadro teórico de referência adotado
para a especificação do modelo. Ele comprovou, ainda, que as hipóteses teóricas foram
críticas para a consecução de resultados simulados qualitativamente semelhantes aos reais.
A apreciação dos fatos estilizados provenientes da análise empírica, empregan-
do-se o modelo de simulação, permitiu o esclarecimento de uma série importante de ques-
tões. Os principais motivos da concentração e da restrita concorrência foram identificados
por meio de fenômenos emergentes replicados pelo modelo, em particular a influência de
características específicas da rede social dos consumidores, subsidiados pela presença de
economias de escala e de atributos convencionais dos procedimentos cognitivos dos usuá-
rios. Foram também explicitados os mecanismos que frequentemente restringiram ou sua-
vizaram a competição, especialmente aqueles oriundos de convenções estabelecidas nas
interações entre provedores. O papel da dinâmica da inovação tecnológica foi esclarecido,
inclusive quanto aos seus efeitos potencialmente contraditórios, em situações de empreen-
dedorismo institucional intenso.
Mostrou-se, na sequência, que, para a geração uma estrutura setorial menos
concentrada, o modelo dependeria de um cenário contrafatual baseado em alteração impro-
vável, no curto prazo, de características estruturais apontadas pelos estudos empíricos. Isso
porque ele depende, crucialmente, da mudança de mecanismos institucionais estabelecidos
ou em mudanças significativas nas trajetórias tecnológicas correntes, os quais, na melhor
das hipóteses, se alteram apenas em prazos longos.
290
Como conclusão geral, ficou evidente o número significativo de fatores de or-
dem institucional importantes para a determinação dos resultados, em particular daqueles
envolvendo o lado da demanda e seu modo de organização em redes sociais. Sem desconsi-
derar a importância de outros elementos, processos institucionais foram determinantes no
desdobramento de diversos fenômenos verificados no sistema simulado. Ressalte-se que
isso não significa que fundamentos clássicos da análise industrial, como a organização in-
dustrial ou a teoria evolucionária, não tenham desempenhado o papel esperado. Entretanto,
como mostrou o modelo, algumas das situações explicadas por essas vertentes analíticas
dependeram da concorrência de temas institucionais usualmente desconsiderados, frequen-
temente de maneira crucial. Nessa direção, por exemplo, o modelo foi empregado para re-
jeitar a hipótese de que a simples eliminação das economias de escala, isoladamente, seria
suficiente par alterar qualitativamente as características estruturais do setor, em particular, a
concentração.
Entre os fenômenos institucionais mais relevantes, destacou-se a influência dos
métodos de formação das preferências. A introdução de variabilidade endógena destas, pela
interferência do grupo social do consumidor, deu origem a um evento de natureza emergen-
te suficientemente poderoso para mudar a estrutura setorial. Além disso, propriedades
emergentes do processo evolucionário de aprendizado das firmas, a partir da interação lo-
cal, direcionaram como elas escolheram suas estratégias e, portanto, a forma pela qual
competem entre si e como isso pôde “estabilizar” a concorrência por meio de preços. Não
foram identificadas, no entanto, tendências que conduzissem a estratégias “ótimas”, ou evo-
lucionariamente convergentes, pelo menos enquanto a demanda permaneceu crescendo no
modelo, o que é compatível com a hipótese de racionalidade limitada dos agentes.
A utilização de uma metodologia de modelagem baseada na história, além da
análise apreciativa tradicional, parece oferecer perspectivas interessantes para os estudos
setoriais. Ao ir além da associação ad hoc entre fatos estilizados e artefatos explicativos
teóricos, os modelos de simulação oferecem uma alternativa metodológica menos arbitrária
e mais rigorosa para a investigação empírica, ao permitir a avaliação lógica e comparativa
291
das escolhas analíticas do pesquisador. Porém, como qualquer abordagem fundamentada na
história e na inferência não dedutiva, esse método também tem limitações importantes. Em
primeiro lugar, os benefícios analíticos dependem da precisão do diagnóstico histórico e
dos dados coletados. Em segundo, a ambição dos modelos deve se limitar ao teste de hipó-
teses teóricas adequadamente formuladas e à apreensão sistemática de suas consequências,
previstas ou não. Assim, a generalidade das conclusões se restringirá sempre à parcela do
espaço teórico experimentado, restrito por princípio. Logo, a conveniência do uso de mode-
los de simulação depende, crucialmente, da capacidade do analista para reconhecer e traba-
lhar com as restrições impostas pela metodologia. Em particular, a robustez da análise será
produto direto da qualidade da informação utilizada e das opções de modelagem escolhidas
com base nos dados disponíveis – além, obviamente, da aptidão técnica dos modelos em si.
Feitas as ressalvas pertinentes, os resultados produzidos pelas análises empírica
e teórica, validadas e aprofundadas com o emprego do modelo, permitiram a compreensão
detalhada da estrutura e da dinâmica competitiva do mercado de acesso, incluindo a impor-
tância da organização da demanda. A combinação de fatores, de ordem institucional e evo-
lucionária, moldou a trajetória histórica, como se depreendeu do estudo dos atores, das ins-
tituições e da base de conhecimento do sistema setorial. Questões institucionais, materiali-
zadas por meio de redes de relacionamento social, convenções e outros “artefatos” cogniti-
vos compartilhados socialmente, foram fundamentais para a configuração particular do
mercado de acesso. Isso se deu durante a emergência de instituições de padronização e re-
gulação, na ação cooperativa dos agentes, a despeito da competição nos mercados, ou, ain-
da, na forma de fenômenos de downward causation que modificaram endogenamente a
demanda, reforçando o papel decisivo dos usuários no desenvolvimento do setor.
Espera-se que, neste ponto, estejam claras as respostas às principais questões
colocadas pela tese. Em breve resumo, a aparente contradição, entre o progresso tecnológi-
co e a concentração, verificada no mercado de acesso à internet brasileiro, representa a con-
junção de duas forças poderosas, que atravessam todo o setor, mas que nesse mercado se
fazem sentir com intensidade desigual. A vigorosa dinâmica tecnológica experimentada
pelo segmento de acesso foi responsável por três ciclos de inovação radical durante menos
de 15 anos. Entretanto, as novas tecnologias – desenvolvidas pelos fornecedores de equi-
292
pamentos e sistemas – não criaram oportunidades de diferenciação significativas entre os
provedores de acesso. Considerando-se a disponibilidade, em princípio equânime, das tec-
nologias, o papel clássico do entrante tecnicamente inovador foi limitado. Em paralelo, o
modo com que os usuários se organizaram e as convenções que estabeleceram, sobre como
“consumir” os serviços oferecidos, afetaram de maneira profunda a organização da compe-
tição e a concentração, inadvertidamente contribuindo para esta.
À luz do exposto, consideramos que seja pertinente a hipótese central da tese, a
importância fundamental dos fenômenos de ordem institucional no setor de internet sobre a
concorrência no mercado de acesso, em particular das consequências da formação endóge-
na das preferências dos consumidores dentro da rede social. A despeito da relevância da
dinâmica tecnológica para o dinamismo setorial, essa conjugação específica de estruturas
institucionais permitiu que, no mercado de acesso à internet, as expectativas de competição
ampla e vigorosa fossem parcialmente frustradas, pelo menos no caso brasileiro.
293
Referências328
ACS, Z; AUDRETSCH, D. B. Technological Regimes, Learning and Industry Turbulence. Mimeo,
Berlin, 1991.
AKAMAI. State of the internet: Q2 2014 Report. Cambridge: Akamai, 2014. Disponível em:
<http://www.akamai.com/stateoftheinternet>. Acesso em: 23 set. 2014.
AKERLOF, G.A. The Market for “Lemons”: Quality Uncertainty and the Market Mechanism.
Quarterly Journal of Economics, v. 84, n. 3, p. 488-500, Aug. 1970.
ALBERT, R.; BARABÁSI, A. L. Statistical mechanics of complex networks. Review of Modern Physics, v. 74, p. 47-97, 2002.
ANALYSIS MASON. The Connected Consumer Survey 2013. Boston: Analysis Mason, 2013. Dis-ponível em: <http://www.analysysmason.com/Research/Content/Reports/Connected-
consumer-survey-Mar2013-RDMV0-RDMM0-RDMY0-RDMB0/ >. Acesso em: 24 mar.
2014.
ANATEL (Agência Nacional de Telecomunicações). Relatório Anual 2013. Brasília: Anatel, 2014a.
______. Qualidade dos Serviços de Banda Larga Fixa e Móvel. 2014b. Disponível em:
<http://www.anatel.gov.br/consumidor/dados-e-rankings/qualidade >. Acesso em 18 out.
2014.
______. Acessos SCM/SMP. 2014c. Disponível em: < http://www.anatel.gov.br >. Acesso em: 08 nov. 2014.
ANDERSEN, E. S.; VALENTE, M. Introduction to artificial evolutionary processes. Mimeo, DRUID, Aalborg University, 2002. Disponível em: <http://www.business.auc.dk/evolu-
tion/esapapers/esa02/andval1.pdf>. Acesso em: 21 set. 2011.
ANDERSON, P. W.; ARROW, K. J.; PINES, D. Foreword. In ANDERSON, P. W.; ARROW, K.
J.; PINES, D. (Ed.) The Economy as an Evolving Complex System, Reading: Addison-
Wesley, 1988.
ANSARI, S.; GARUD, R. Inter-generational transitions in socio-technical systems: The case of
mobile communications. Research Policy, Amsterdam, v. 38, n. 2, p. 382-392, Mar. 2008.
ARROW, K. Technical information and industrial structure. Industrial and Corporate Change, Oxford, v. 5, n. 2, p. 645-652, 1996.
______. Key Note Speech at the International Conference on Complex Systems. New England Complex Systems Institute, 2000. Disponível em:
<http://www.comdig.org/index.php?id_issue=2000.21#658>. Acesso em: 15 mai. 2011.
______. Economic Welfare and the Allocation of Resources for Invention. In The Rate and Direc-
tion of Inventive Activity: Economic and Social Factors, Washington: NBER, 1962. 646 p.
ARTHUR, W. B. Out-of-Equilibrium Economics and Agent-Based Modeling. In JUDD, K.;
TESFATSION, L. (Ed.) Handbook of Computational Economics: Agent-Based Computa-
tional Economics, v. 2, Amsterdam: Elsevier, 2006. 1659 p.
328 Baseadas na norma NBR 6023, de 2002, da Associação Brasileira de Normas Técnicas (ABNT).
Todas as traduções das citações dos textos em língua estrangeira são livres e de responsabilidade do autor.
294
______. Interview with R. Delorme and G. Hodgson on Complexity Economics. In FINCH, J.;
ORILLARD, M. (Ed.) Complexity and the Economy: implications for economic policy,
Cheltenham: Edward Elgar, 2005. 336 p.
______. Cognition: The Black Box of Economics. In COLANDER, D. (Ed.) The Complexity Vision
and the Teaching of Economics, Northampton: Edward Elgar, 2000. 328 p.
______. Complexity in Economic Theory: Inductive Reasoning and Bounded Rationality. American
Economic Review, Pittsburgh, v. 84, n. 2, p. 406-411, 1994.
______. Competing Technologies, Increasing Returns and Lock-In by Historical Events. Economic
Journal, Oxford, v. 99, n. 394, p. 116-131, 1989.
______. Self-Reinforcing Mechanisms in Economics. In ANDERSON, P. W.; ARROW, K. J.; PINES, D. (Ed.) The Economy as an Evolving Complex System, Reading: Addison-Wesley,
1988.
ARTHUR, W. B.; DURLAUF, S.; LANE, D. A. Process and Emergence in the Economy. In AR-
THUR, W. B.; DURLAUF, S.; LANE, D. A. (Ed.). The Economy as an Evolving Complex
System II, Reading: Addison-Wesley, 1997.
AXELROD, R. The Complexity of Cooperation: Agent-Based Models of Competition and Collabo-
ration. Princeton: Princeton University Press, 1997. 232 p.
______. The Evolution of Cooperation. New York: Basic Books. 1984. 241 p.
AXELROD, R.; TESFATSION, L. A Guide for Newcomers to Agent-Based Modeling in the Social
Sciences. In TESFATSION, L.; JUDD K. (Ed.). Handbook of Computational Economics, Vol. 2: Agent-Based Computational Economics. Amsterdam: North-Holland. 2006. 1659 p.
BAIN, J. S. (1959). Industrial organization: a treatise. Greenwich, CN: JAI, 1987. 606p.
______. Barriers to new competition: their character and consequences in manufacturing industries.
Cambridge, MA: Harvard University, 1956. 329 p.
BALACHANDRAN, A.; SEKAR, V.; AKELLA, A.; SESHAN, S.; STOICA, I.; ZHANG, H. A
Quest for an Internet Video Quality-of-Experience Metric. In ACM WORKSHOP ON
HOT TOPICS IN NETWORKS. Proceedings…New York: ACM, p. 97-102, 2012.
BALL, F.; BRITTON, T.; SIRL, D. A network with tunable clustering, degree correlation and de-
gree distribution, and an epidemic thereon. Journal of mathematical biology, v. 66, n. 4-5, p. 979-1019, Mar. 2013.
BANSAL, S.; KHANDELWAL, S.; MEYERS, L. A. Exploring biological network structure with clustered random networks. BMC bioinformatics, v. 10, p. 405, Jan. 2009.
BARABÁSI, A.-L.; ALBERT, R. Emergence of Scaling in Random Networks. Science, v. 286, n.
5439, p. 509-512, Oct. 1999.
BARGIGLI, L.; GALLEGATI, M. Random digraphs with given expected degree sequences: A
model for economic networks. Journal of Economic Behavior & Organization, v. 78, n. 3,
p. 396-411, May 2011.
BARNEY, J. B. Types of competition and the theory of strategy: Toward an integrative framework.
The Academy of Management Review, Briarcliff Manor, v. 11, n. 4, p. 791-800, Oct. 1986.
BATIFOULIER, P.; LARQUIER, G. Introduction – De la convention et de ses usages. In BATI-
FOULIER, P. (Org.). Théorie des Conventions, Paris: Economica, 2001.
BATTILANA, J.; LECA, B.; BOXENBAUM, E. How Actors Change Institutions: Towards a
Theory of Institutional Entrepreneurship. The Academy of Management Annals, v. 3, n. 1, p. 65-107, 2009.
295
BAUM, J. A. C.; SHIPILOV, A. V.; ROWLEY, T. J. Where do small worlds come from? Industrial
and Corporate Change, Oxford, v. 12, n. 4, p. 697-725, Aug. 2003.
BAUMOL, W. J.; PANZAR, J. C.; WILLIG, R. D. (1982) Contestable markets and the theory of
industry structure. Ed. rev. San Diego: Harcourt Brace Jovanovich, 1988. 538 p.
BECKERT, J. How Do Fields Change? The interrelations of Institutions, Networks, and Cognition
in the Dynamics of Markets, Organization Studies, v.31, n. 5, p. 605-627, 2010.
______. The social order of markets. Theory and Society, v. 38, n. 3, p. 245-269, 2009.
______. Economic sociology and embeddedness: How shall we conceptualize economic action?
Journal of Economic Issues, v. 37, p. 769-787, 2003.
______. Agency, Entrepreneurs, and Institutional Change: The Role of Strategic Choice and Institu-
tionalized Practices in Organizations. Organization Studies, v. 20, n. 5, p. 777-799, 1999.
BELUSSI, F.; ARCANGELI, F. A typology of networks: flexible and evolutionary firms. Research
Policy, Amsterdam, v. 27, n. 4, p. 415-428, Aug. 1998.
BENDER, E. A.; CANFIELD, E. R. The asymptotic number of labeled graphs with given degree
sequences. Journal of Combinatorial Theory, Series A, v. 24, n. 3, p. 296-307, May 1978.
BENETTI, C. ; CARTELIER, J. Marchands, salariat et capitalistes, Paris: François Maspero, 1980.
BENNER, M. J. Financial market reactions following technological discontinuities: a non-event
study in two industries. Industrial and Corporate Change, Oxford, v. 17, n. 1, p. 109-154,
2007.
BEREC (Body of European Regulators for Electronic Communications). Monitoring quality of Internet access services in the context of net neutrality, Draft report. Mimeo, 2014. Dis-
ponível em
<http://berec.europa.eu/files/document_register_store/2014/3/BoR%20%2814%29
%2024%20Draft%20BEREC%20Report%20on%20NN%20QoS%20Monitoring%20Report.pdf>. Acesso em 08 mai. 2014.
BESEN, S. M.; FARRELL, J. Choosing How to Compete: Strategies and Tactics in Standardiza-
tion. Journal of Economic Perspectives, Pittsburgh, v. 8, n. 2, p. 117-131, Spring 1994.
BHATT, R.; CHAOJI, V.; PAREKH, R. Predicting product adoption in large-scale social networks.
ACM INTERNATIONAL CONFERENCE ON INFORMATION AND KNOWLEDGE
MANAGEMENT, 19a, 2010. Proceedings... New York: ACM Press, 2010.
BIRKE, D.; SWANN, P. Network effects and the choice of mobile phone operator. Journal of Evo-
lutionary Economics, Heidelberg, v. 16, n. 1-2, p. 65-84, Apr. 2006.
BLOCH, F. Endogenous structures of association in oligopolies. Rand Journal of Economics, Santa
Monica, v. 26, n. 3, p. 537-556, Autumn 1995.
BLS (Bureau of Labor Statistics – United States Department of Labor). Producer Price Index Indus-
try Data. 2014. Disponível em: <http://www.bls.gov/ppi>. Acesso em: 11 nov. 2014.
BOHLIN, A.; GRUBER, H.; KOUTROUMPIS, P. Diffusion of new technology generations in mobile communications. Information Economics and Policy, Amsterdam, v. 22, n. 1, p. 51-
60, Mar. 2010.
BOLTANSKI, L.; THEVENOT, L. De la justification: Les économies de la grandeur. Paris: Gal-
limard, 1991. 485 p.
BOUCKAERT, J.; DIJK, T.; VERBOVEN, F. Access regulation, competition, and broadband pene-
tration: An international study. Telecommunications Policy, Amsterdam, v. 34, n. 11, p.
661-671, Dec. 2010.
296
BOURDIEU, P Esquisse d'une théorie de la pratique. Genève: Droz, 1972. 269 p.
BRENNER, T. Agent Learning Representation: Advice on Modelling Economic Learning. In TESFATSION, L.; JUDD K. (Ed.). Handbook of Computational Economics, Vol. 2: Agent-
Based Computational Economics. Amsterdam: North-Holland. 2006. 1659 p.
BRENNER, T.; WERKER, C. A Taxonomy of Inference in Simulation Models. Computational
Economics, Berlin, v. 30, n. 3, p. 227–244, 2007.
BRESCHI, S.; MALERBA, F. Sectoral systems of innovation: technological regimes, Schumpeteri-
an dynamics and spatial boundaries. In EDQUIST, C. (Ed.). Systems on Innovation. Lon-
don: Pinter, 1997. 437 p.
BRESCHI, S.; MALERBA, F.; ORSENIGO, L. Technological regimes and Schumpeterian patterns of innovation. Economic Journal, Oxford, v. 110, n. 463, p. 388-410, Apr. 2000.
BRITTO, J. Cooperação interindustrial e redes de empresas. In KUPFER, D.; HASENCLEVER, L. (Orgs.). Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
BROCK, W. A. Scaling in economics: a reader’s guide. Industrial and Corporate Change, Oxford, v. 8, n. 3, p. 409-446, 1999.
______. Nonlinearity and Complex Dynamics in Economics and Finance. In ANDERSON, P. W.;
ARROW, K. J.; PINES, D. (Ed.) The Economy as an Evolving Complex System, Reading:
Addison-Wesley, 1988.
BRODKIN, J. Vint Cerf: Internet competition has “evaporated” since dial-up. Ars Technica, New
York, Jan. 2013. Disponível em: <http://arstechnica.com/tech-policy/2013/01/vint-cerf-internet-competition-has-evaporated-since-dial-up/>. Acesso em: 24 jan. 2014.
CALLON, M.; MÉADEL, C.; RABEHARISOA, V. The economy of qualities. Economy and Socie-ty, v. 31, n. 2, p. 194-217, 2002.
CAMBINI, C.; JIANG, Y. Broadband investment and regulation: A literature review. Telecommu-nications Policy, Amsterdam, v. 33, n. 10-11, p. 559-574, Nov.-Dec. 2009.
CAMBINI, C.; RONDI, L. Capital structure and investment in regulated network utilities: evidence
from EU telecoms. Industrial and Corporate Change, Oxford, v. 21, n. 1, p. 31–71, Feb.
2012.
CAMPBELL, A. Word-of-Mouth Communication and Percolation in Social Networks. American
Economic Review, v. 103, n. 6, p. 2466-2498, Oct. 2013.
CARLTON, D. W. Why Barriers to Entry Are Barriers to Understanding. American Economic Re-
view, Pittsburgh, v. 94, n. 2, p. 466-470, May 2004.
CARVALHO, M. S. A trajetória da Internet no Brasil: do surgimento das redes de computadores à
instituição dos mecanismos de governança. 2006. 239 f. Dissertação de mestrado, Engenha-ria de sistemas e computação, Universidade Federal do Rio de Janeiro. Rio de Janeiro,
2006.
CERF, V. et al. Brief history of the Internet. 2000. Disponível em:
<http://www.internetsociety.org/internet/internet-51/history-internet/brief-history-internet>.
Acesso em: 30 dez. 2011.
CETIC.BR (Centro de Estudos sobre as Tecnologias da Informação e da Comunicação). Pesquisa
sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domicílios e TIC Empresas 2013. São Paulo: CGI.br, 2014a. 658 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Educa-
ção 2013. São Paulo: CGI.br, 2014b. 507 p.
297
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2012. São Paulo: CGI.br, 2013. 631 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2011. São Paulo: CGI.br, 2012a. 604 p.
______. Pesquisa sobre Provedores de Serviços Internet no Brasil: TIC Provedores 2011. São Pau-
lo: CGI.br, 2012b. 58p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2010. São Paulo: CGI.br, 2011. 584 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2009. São Paulo: CGI.br, 2010. 474 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2008. São Paulo: CGI.br, 2009. 463 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-
cílios e TIC Empresas 2007. São Paulo: CGI.br, 2008. 358 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-cílios e TIC Empresas 2006. São Paulo: CGI.br, 2007. 322 p.
______. Pesquisa sobre o uso das tecnologias de informação e comunicação no Brasil: TIC Domi-cílios e TIC Empresas 2005. São Paulo: CGI.br, 2006. 306 p.
CHANDLER, A. Scale and Scope: The dynamics of industrial capitalism. Cambridge: Harvard University Press, 1990. 860 p.
______. The Visible Hand: The managerial revolution in American business. Cambridge: Belknap
Press, 1977. 608 p.
CHIAROMONTE, F.; DOSI, G.; ORSENIGO, L. Innovative Learning and Institutions in the Pro-
cess of Development: On the Microfoundation of Growth Regimes. In THOMSON, R.
(Ed.). Learning and Technological Change. New York: St. Martin, p. 117-149, 1993. 290p.
CISCO Inc. Barômetro Cisco da Banda Larga, 2013. Disponível em:
<http://www.cisco.com/web/BR/barometro/barometro.html>. Acesso em: 12 abr. 2014.
COHEN, W. M.; LEVINTHAL, D. A. Innovation and Learning: The Two Faces of R & D. Eco-
nomic Journal, Oxford, v. 99, n. 397, p. 569-596, Sep. 1989.
COLANDER, D. Complexity and the history of Economic Though. Middlebury College Economics Discussion Paper, n. 08-04, Mar. 2008.
______. The future of economics: the appropriately educated in pursuit of the knowable. Cam-bridge Journal of Economics, Oxford, v. 29, n. 6, p. 927-941, Nov. 2005.
COMPUTERWORLD. Anatel recebe sugestões para licitação de 3,5 GHz para WiMax. 2011. Dis-ponível em: < http://computerworld.uol.com.br/telecom/2011/06/06/anatel-recebe-
sugestoes-para-licitacao-de-3-5-ghz-para-wimax>. Acesso em 30 dez. 2011.
______. Teles podem participar de leilão de WiMax, decide Justiça. 2006. Disponível em: <
http://computerworld.uol.com.br/telecom/2006/09/29/idgnoticia.2006-09-29.4173996316>.
Acesso em 30 dez. 2011.
CORIAT, B.; DOSI, G. The Nature and Accumulation of Organizational Competences/Capabilities.
Revista Brasileira de Inovação, Campinas, v. 1, n. 2, p. 275-326, jul.-dez. 2002.
298
______. Learning How To Govern and Learning How To Solve Problems: on the Co-Evolution of
Competences, Conflicts and Organizational Routines. In CHANDLER JR., A. D.; HAGS-
TRÖM, P.; SÖLVELL, Ö. (Eds.). The Dynamic Firm. Oxford: Oxford University Press, 1998.
CORIAT, B.; WEINSTEIN, O. The social construction of markets. Issues in Regulation Theory, Paris, n. 53, p. 1-4, 2005.
CORROCHER, N. The Internet services industry: Sectoral dynamics of innovation and production and country-specific trends in Italy and in the UK. Working Paper ESSY, 2001. Disponível
em: <http://www2.cespri.unibocconi.it/essy/wp/corroch.pdf>. Acesso em: 28 dez. 2011.
COSTA, P.; BIANCHINI, D. Caracterização da demanda futura de usuários da internet no Brasil:
uma contribuição para o desenvolvimento de políticas governamentais de inclusão digital e
acesso a internet. Revista de Gestão da Tecnologia e Sistemas de Informação, São Paulo, v. 5, n. 1, p. 135-162, 2008.
COSTA NETO, P. L. O. Estatística. São Paulo: Edgard Blücher, 1977. 264 p.
CROES, T. LAN access worlds converge. Network World, Framinghan, v. 12, n. 44, out. 1995.
CYERT, R. M.; MARCH, J. G. (1963) A behavioral theory of the firm. 2 ed. Cambridge: Black-
well, 1992. 252 p.
DALUM, B.; VILLUMSEN, G. Fixed data communications: challenges for Europe. In EDQUIST,
C. (Ed.). The Internet and Mobile Telecommunications System of Innovation: Developments
in Equipment, Access and Content. Cheltenham: Edward Elgar, 2003. 273 p.
DASGUPTA, K.; SINGH, R.; VISWANATHAN, B.; CHAKRABORTY, D.; MUKHERJEA, S.;
NANAVATI, A. A. Social ties and their relevance to churn in mobile telecom networks. In INTERNATIONAL CONFERENCE ON EXTENDING DATABASE TECHNOLOGY
ADVANCES IN DATABASE TECHNOLOGY, 11a, 2008. Proceedings… New York:
ACM Press, 2008.
DASGUPTA, P.; STIGLITZ, J. Industrial Structure and the Nature of Innovative Activity. Econom-
ic Journal, Oxford, v. 90, n. 358, p. 266-293, Jun. 1980.
DAVID, P. A. Clio and the Economics of QWERTY. American Economic Review, Pittsburgh, v. 75, n. 2, p. 332-337, May 1985.
DAVIES, A. Innovation in Large Technical Systems: The Case of Telecommunications”, Industrial and Corporate Change, Oxford, v. 5, n. 4, p. 1143-1180, 1996.
DE MATOS, C. A.; ROSSI, C. A. V. Word-of-mouth communications in marketing: a meta-analytic review of the antecedents and moderators. Journal of the Academy of Marketing
Science, v. 36, n. 4, p. 578-596, Sep. 2008.
DE NEGRI, F.; RIBEIRO, L. C. Tendências tecnológicas mundiais em telecomunicações. Radar
IPEA, Brasília, n. 10, p. 7-12, 2010.
DENZAU, A.; NORTH, D. Shared Mental Models: Ideologies and Institutions. Kyklos, Zürich, v.
47, n. 1, p. 3-31, 1994.
DEQUECH, D. Instituições e a relação entre economia e sociologia. Estudos Econômicos, v. 41, n.
3, p. 599-619, 2011.
______. Institutions, social norms, and decision-theoretic norms. Journal of Economic Behavior
and Organization, v. 72, n. 1, p. 70-78, 2009.
______. Logics of justification and logics of action. Journal of Economic Issues, v. 42, n. 2, p. 527-535, 2008.
299
______. The New Institutional Economics and the theory of behaviour under uncertainty. Journal
of Economic Behavior and Organization, v. 59, n. 1, p. 109-131, 2006.
______. Uncertainty: individuals, institutions and technology. Cambridge Journal of Economics,
Oxford, v. 28, n. 3, p. 365-378, May 2004.
______. Conventional and unconventional behavior under uncertainty. Journal of Post Keynesian
Economics, v. 26, n. 1, p. 145-168, 2003.
______. Fundamental uncertainty and ambiguity. Eastern Economic Journal, Easton, v. 26, n. 1, p.
41-60, 2000.
DIERKES, T.; BICHLER, M.; KRISHNAN, R. Estimating the effect of word of mouth on churn
and cross-buying in the mobile phone market with Markov logic networks. Decision Sup-port Systems, v. 51, p. 361–371, 2011.
DIMAGGIO, P. J. Interest and agency in institutional theory. In ZUCKER, L. (Org.). Institutional Patterns and Organizations, Cambridge: Ballinger, 1988.
DIMAGGIO, P. J.; HARGITTAI, E.; NEUMAN, W. R.; ROBINSON, J. P. Social Implications of the Internet. Annual Review of Sociology, Palo Alto, v. 27, p. 307-336, Aug. 2001.
DIMAGGIO, P. J.; LOUCH, H. Socially embedded consumer transaction: For what kinds of pur-
chases do people most often use networks?. American Sociological Review, v. 63, n. 5, p.
619-637, Oct. 1998.
DIMAGGIO, P. J.; POWELL, W. W. Introduction. In POWELL, W.; DIMAGGIO, P. (Org.). The
New Institutionalism in Organizational Analysis, Chicago: University of Chicago Press, 1991.
______. The Iron Cage Revisited: Institutional Isomorphism and Collective Rationality in Organi-zational Fields. American Sociological Review, v. 48, n. 2, p. 147-160, 1983.
DISTASO, W.; LUPI, P.; MANENTI, F. M. Platform competition and broadband uptake: Theory and empirical evidence from the European Union. Information Economics and Policy, Am-
sterdam, v. 18, n. 1, p. 87-106, Mar. 2006.
DOBBIN, F. The Sociological View of the Economy. In DOBBIN, F. (Org.). The New Economic
Sociology: A Reader. Princeton: Princeton University Press, 2004.
DODGSON, M. Exploring new combinations in innovation and entrepreneurship: social networks,
Schumpeter, and the case of Josiah Wedgwood (1730–1795). Industrial and Corporate Change, Oxford, v. 20, n. 4, p. 1119-1151, Aug. 2011.
DOPFER, K.; FOSTER, J.; POTTS, J. Micro-meso-macro. Journal of Evolutionary Economics, Heidelberg, v. 14, n. 3, p. 263-279, Jul. 2004.
DOPFER, K.; POTTS, J. Evolutionary foundations of economics. In METCALFE, S.; FOSTER, J. (Ed.). Evolution and Economic Complexity. Cheltenham: Edward Elgar, p. 3-23, 2004. 227
p.
DOROGOVTSEV, S. N.; MENDES, J. F. F. Evolution of networks. Advances in Physics, v. 51, p.
1079-1187, 2002.
______. Exactly solvable small-world network. Europhysics Letters, v. 50, n. 1, p. 1-7, 2000.
DOSI, G. The Research on Innovation Diffusion: An Assessment. In NAKIĆENOVIĆ N,
GRÜBLER A (Ed.). Diffusion of Technologies and Social Behavior. Berlin: Springer-
Verlag, p. 179-208, 1991. 605 p.
______. Technical Change and Industrial Transformation: the theory and an application to the sem-
iconductor industry. New York: St. Martin Press, 1984. 338 p.
300
______. Technological paradigms and technological trajectories: A suggested interpretation of the
determinants and directions of technical change. Research Policy, Amsterdam, v. 11, n. 3,
p. 147-162, Jun. 1982.
DOSI, G.; FAGIOLO, G.; NAPOLETANO, M.; ROVENTINI, A. Income distribution, credit and
fiscal policies in an agent-based Keynesian model. Journal of Economic Dynamics & Con-trol, v. 37, p. 1598-1625, 2013.
DOSI, G.; FAGIOLO, G.; ROVENTINI, A. Schumpeter meeting Keynes: A policy-friendly model of endogenous growth and business cycles. Journal of Economic Dynamics & Control, v.
34, p. 1748-1767, 2010.
______. The microfoundations of business cycles: an evolutionary, multi-agent model. Journal of
Evolutionary Economics, Heidelberg, v. 18, n. 3-4, p. 413-432, 2008.
DOSI, G.; MALERBA, F.; MARSILI, O.; ORSENIGO, L. Industrial structures and dynamics: evi-
dence, interpretations and puzzles. Industrial and Corporate Change, Oxford, v. 6, n. 1, p.
3-24, 1997.
DOSI, G.; MARENGO, L. On the Convergence of Evolutionary and Behavioral Theories of Organ-izations: a Tentative Roadmap. LEM Working Paper Series, Sant’Anna School of Ad-
vanced Studies, Pisa, n. 2007/01, Jan. 2007.
DOSI, G.; MARENGO, L.; FAGIOLO, G. Learning in Evolutionary Environments. LEM Working
Paper Series, Sant’Anna School of Advanced Studies, Pisa, n. 2003/20, Oct. 2003.
DOSI, G.; NELSON, R. R. Technical Change and Industrial Dynamics as Evolutionary Processes.
In HALL, B.; ROSENBERG, N. (Eds.). Handbook of the Economics of Innovation, Vol. 1.
Amsterdam: Elsevier, 2010. 804 p.
______. An introduction to evolutionary theories in economics. Journal of Evolutionary Economics,
Heidelberg, v. 4, n. 3, p. 153-172, Sep. 1994.
DOSI, G.; ORSENIGO, L.; LABINI, M. S. Technology and the Economy. In SMELSER, N.; SWEDBERG, R. (Org.). The Handbook of Economic Sociology. 2
ed. Princeton: Princeton
University Press, 2005.
DOYLE, S. The role of social networks in marketing. Database Marketing & Customer Strategy
Management, v. 15, n. 1, p. 60-64, 2007.
DUHAN, D. F. ; JOHNSON, S. D.; WILCOX, J. B.; HARRELL, G. D. Influences on Consumer:
Use of Word-of-Mouth Recommendation Sources. Journal of the Academy of Marketing
Science, v. 25, n. 4, p. 283-295, Sep. 1997.
DWECK, E. A Formalização da Interação Micro-Macrodinâmica: ABM e simulações em ciências
sociais. XV Encontro Nacional de Economia Política, Sessões Ordinárias, 2010.
EARL, P. E.; POTTS, J. The market for preferences. Cambridge Journal of Economics, Oxford, v.
28, n. 4, p. 619-633, Jul. 2004.
EARL, P. E.; WAKELEY, T. Alternative perspectives on connections in economic systems. Jour-nal of Evolutionary Economics, Heidelberg, v. 20, n. 2, p. 163-183, Apr. 2010.
EDQUIST, C. The fixed Internet and mobile telecommunications sectoral system of innovation: equipment production, access provision and content provision. In: MALERBA, F. (Ed.).
Sectoral Systems of Innovation: Concepts, Issues and Analyses of Six Major Sectors in Eu-
rope. New York: Cambridge University Press, 2004. 519 p.
EPSTEIN, J. M. Generative Social Science: Studies in Agent-based Computational Modeling.
Princeton: Princeton University Press, 2006. 352 p.
301
ERDŐS, P.; RÉNYI, A. On Random Graphs, I. Publicationes Mathematicae, v. 6, p. 290–297,
1959.
EYMARD-DUVERNAY, F. Les compétences des acteurs dans les réseaux. In CALLON, M. et al.
(Eds.), Réseau et coordination, Paris: Economica, p. 153-178, 1999.
______. Conventions de qualité et formes de coordination. Revue économique, v. 40, n. 2, p. 329-
359, Mar. 1989.
FARRELL, J.; SALONER, G. Standardization, Compatibility, and Innovation. Rand Journal of
Economics, Santa Monica, v. 16, n. 1, p. 70-83, Spring 1985.
FAULHABER, G. R.; HOGENDORN, C. The Market Structure of Broadband Telecommunica-
tions. Journal of Industrial Economics, Colchester, v. 48, n. 3, p. 305-329, Sep. 2000.
FCC (Federal Communications Commission). The Internet: A Short History of Getting Connected.
2004. Disponível em: <http://transition.fcc.gov/omd/history/internet>. Acesso em: 30 dez. 2011.
FLIGSTEIN, N. The architecture of markets. Princeton: Princeton University Press, 2001a. 288 p.
______. Social Skill and the Theory of Fields. Sociological Theory, Washington, v. 19, n. 2, p. 105-125, Jul. 2001b.
______. Social Skill and Institutional Theory. American Behavioral Scientist, Sedona, v. 40, n. 4, p. 397-405, Feb. 1997.
FLIGSTEIN, N; DAUTER, L. The Sociology of Markets. Annual Review of Sociology, Palo Alto, v. 33, p. 105-128, Aug. 2007.
FOLHA DE S. PAULO. Sete em cada dez usuários de banda larga gostariam de trocar de operado-
ra. Folha de S. Paulo, 18 jul. 2013. Disponível em < http://www1.folha.uol.com.br/ merca-
do/2013/07/1312785-sete-em-cada-dez-usuarios-de-banda-largagostariam-de-trocar-de-
operadora.shtml>. Acesso em: 18 jul. 2013.
FONSECA, M. G. D.; ZEIDAN, R. M. Epistemological considerations on agent-based models in evolutionary consumer choice theory. Emergence: Complexity & Organization, v. 6, n. 3, p.
4-8, 2004.
FRENKEN, K. Technological Innovation and Complexity Theory. Economics of Innovation and
New Technology, Oxford, v. 15, n. 2, p. 137–155, 2006.
FUDENBERG, D.; TIROLE, J. The Fat Cat Effect, the Puppy Dog Ploy and the Lean and Hungry
Look. American Economic Review, Pittsburgh, v. 74, n. 2, p. 361-368, May 1984.
FUNK, J. L. The co-evolution of technology and methods of standard setting: the case of the mobile
phone industry. Journal of Evolutionary Economics, Heidelberg, v. 19, n. 1, p. 73-93, Feb.
2009.
GARAVAGLIA, C. Modelling industrial dynamics with “history-friendly” simulations. Structural
Change and Economic Dynamics, Amsterdam, v. 21, n. 4, p. 258-275, Nov. 2010.
______. History-Friendly Simulations for Modeling Industrial Dynamics, Working Paper n. 4, v. 19, Eindhoven Centre for Innovation Studies, Eindhoven University of Technology, 2004.
GARAVAGLIA, C.; MALERBA, F.; ORSENIGO, L. Entry, market structure and innovation in a history-friendly model of the evolution of the pharmaceutical industry. In MAZZUCATO,
M.; DOSI, G. (Ed.). Knowledge Accumulation and Industry Evolution. The Case of Phar-
ma-Biotech. Cambridge: Cambridge University Press, p. 234-265, 2006. 446 p.
GARUD, R.; KARNØE, P. Bricolage versus breakthrough: distributed and embedded agency in
technology entrepreneurship. Research Policy, Amsterdam, v. 32, n. 2, p. 277-300, 2003.
302
______. Path Creation as a Process of Mindful Deviation. In GARUD, R.; KARNØE, P. (Org.).
Path Dependence and Creation, Mahwah: Lawrence Erlbaum Associates, 2001. 417 p.
GEORGESCU-ROEGEN, N. Chamberlin’s New Economics and the Production Unit. In KUENNE,
R. (Ed.). Monopolistic Competition Theory: Studies on Impact, New York: Wiley, 1967.
GIBBONS, R. Game Theory for Applied Economists. Princeton: Princeton University Press, 1992.
267 p.
GIDDENS, A. The Constitution of Society. Berkeley: University of California Press, 1984. 402 p.
GJOKA, M.; KURANT, M.; BUTTS, C. T.; MARKOPOULOU, A. Practical recommendations
on crawling online social networks. Selected Areas in Communications, IEEE Jour-nal, v. 29, n. 9, p. 1872-1892, 2011.
______. Walking in Facebook: A Case Study of Unbiased Sampling of OSNs. 2010 Proceedings
of IEEE INFOCOM '10, San Diego, 2010.
GJOKA, M.; KURANT, M.; MARKOPOULOU, A. 2.5K-graphs: From sampling to generation. 2013 Proceedings on IEEE INFOCOM, Genève: IEEE, p. 1968-1976, 2013.
GLEESON, J. P. Bond percolation on a class of clustered random networks. Physical Review E, v. 80, p. 036107, 2009.
GOYAL, S. Connections: An Introduction to the Economics of Networks. Princeton: Princeton University Press, 2007. 289 p.
GOYAL, S; MORAGA, J. L. R&D Networks. Rand Journal of Economics, Santa Monica, v. 32, n. 4, p. 686-707, Winter 2001.
GRANOVETTER, M. The Impact of Social Structure on Economic Outcomes. Journal of Econom-
ic Literature, v. 19, n. 1, p. 33-50, 2005.
______. Economic Action and Social Structure: The Problem of Embeddedness. American Journal
of Sociology, Chicago, v. 91, n. 3, p. 481-510, Nov. 1985.
GREEN, J. R.; TEECE, D. J. Four Approaches to Telecommunications Deregulation and Competi-
tion: The USA, the UK, Australia and New Zealand. Industrial and Corporate Change, Ox-
ford, v. 7, n. 4, p. 623-635, Dec. 1998.
GREENE, T. 3Com takes on Ascend. Network World, Framinghan, v. 14, n. 28, jul. 1997.
GREENSTEIN, S. The emergence of the Internet: collective invention and wild ducks. Industrial
and Corporate Change, Oxford, v. 19, n. 5, p. 1521-1562, Oct. 2010.
GREENSTEIN, S.; MCDEVITT, R. Evidence of a modest price decline in US broadband services.
Information Economics and Policy, Amsterdam, v. 23, n. 2, p. 200-211, Jun. 2011.
GREIF, A. Institutions and the Path to the Modern Economy, Cambridge: Cambridge University
Press, 2006.
GSMA (Global Mobile System Association). Wireless Intelligence. 2011. Disponível em: <http://www.wirelessintelligence.com>. Acesso em 30 nov. 2011.
GUILLAUME; J.-L.; LATAPY, M. Bipartite graphs as models of complex networks. Physics A, v. 371, p. 795-813, 2006.
GUIZZO, E. Linha do Tempo da Internet no Brasil. 2007. Disponível em: <http://www.internetnobrasil.net>. Acesso em: 30 dez. 2011.
303
GUO, W.; KRAINES, S. B. A Random Network Generator with Finely Tunable Clustering Coeffi-
cient for Small-World Social Networks2009 International Conference on Computational
Aspects of Social Networks. Annals...Fontainbleu: IEEE, Jun. 2009. Disponível em: <http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=5176096>. Acesso em:
20 jun. 2014.
HARDY, C.; MAGUIRE, S. Institutional Entrepreneurship. In GREENWOOD, R. et al. (Org.).
Handbook of Organizational Institutionalism, Thousand Oaks: Sage, 2008.
HASENCLEVER, L.; FERREIRA, P. M. Estrutura de mercado e inovação. In KUPFER, D.;
HASENCLEVER, L. (Orgs.). Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
HASENCLEVER, L.; TIGRE, P. Estratégias de inovação. In KUPFER, D.; HASENCLEVER, L.
(Orgs.). Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
HINDESS, B. Political Choice and Social Structure: An Analysis of Actors, Interests, and Ration-
ality. Aldershot: Edward Elgar, 1989. 216 p.
HITT, L.; TAMBE, P. Broadband adoption and content consumption. Information Economics and
Policy, Amsterdam, v. 19, n. 3-4, p. 362-378, Oct. 2007.
HODGSON, G. M. Markets. In DAVIS, J. B. et al. (Org.). The Handbook of Socio-Economics,
Aldershot: Elgar, 2008.
______. What are Institutions? Journal of Economic Issues, v. 40, n. 1, p. 1-25, 2006.
______. The Approach of Institutional Economics. Journal of Economic Literature, v. 36, n. 1, p.
166-192, 1998.
______. Economics and Institutions, Philadelphia: University of Pennsylvania Press, 1988.
HODGSON, G. M.; KNUDSEN, T. The complex evolution of a simple traffic convention: the func-
tions and implications of habit. Journal of Economic Behavior & Organization, Amsterdam,
v. 54, n. 1, p. 19-47, 2004.
HÖFFLER, F. Cost and benefits from infrastructure competition: Estimating welfare effects from broadband access competition. Telecommunications Policy, Amsterdam, v. 31, n. 6-7, p.
401-418, Jul.-Aug. 2007.
HOLLAND, J. H. Emergence: From Chaos to Order, Boston: Addison-Wesley, 1998. 258 p.
______. Genetic Algorithms. Scientific American, New York, v. 267, p. 66–72, Jul. 1992.
______. The Global Economy as an Adaptive Process. In ANDERSON, P. W.; ARROW, K. J.; PINES, D. (Ed.) The Economy as an Evolving Complex System, Reading: Addison-Wesley,
1988.
HOUSE, T. Heterogeneous clustered random graphs. Europhysics Letters, v. 105, n. 6, p. 68006,
Mar. 2014.
HUGHES, T. E. The Evolution of Large Technological Systems. In BIJLCER, W. E.; HUGHES, T.
E; PINCH, T. J. (Ed.). The Social Construction of Technological Systems, Cambridge: MIT
Press, 1987.
IBGE (Instituto Brasileiro de Geografia e Estatística). Sistema IBGE de Recuperação Automática
(SIDRA), 2014. Disponível em: <http://www.sidra.ibge.gov.br>. Acesso em: 04 nov. 2014.
______. Classificação Nacional de Atividades Econômicas – CNAE: versão 2.0. Rio de Janeiro:
IBGE, 2007b. 423p.
IPEA (Instituto de Pesquisa Econômica Aplicada). Análise e recomendações para as políticas públi-cas de massificação de acesso à internet em banda larga. Comunicados do IPEA, Brasília, n.
46, abr. 2010.
304
ITU (International Telecommunications Union). Measuring the Information Society: 2014. Geneva:
ITU, 2014. 250 p.
______. Measuring the Information Society: 2013. Geneva: ITU, 2013. 233 p.
______. Measuring the Information Society: 2011. Geneva: ITU, 2011. 157 p.
______. Telecom Network Planning for evolving Network Architectures: Reference Manual. Gene-va: ITU, 2007. 417 p.
JACKSON, M. O. Social and Economic Networks. New York: Princeton Univ. Press, 2010. 520 p.
JACKSON, M. O.; YARIV, L. Diffusion of Behavior and Equilibrium Properties in Network
Games. American Economic Review, Pittsburgh, v. 97, n. 2, p. 92-98, May 2007.
JAGD, S. Economics of Convention and New Economic Sociology: Mutual Inspiration and Dialogue. Current Sociology, v. 55, n. 1, p. 75-91, 2007.
JENSEN, J. B.; MCGUCKIN, R. H. Firm Performance and Evolution: Empirical Regularities in the US Microdata. Industrial and Corporate Change, Oxford, v. 6, n. 1, p. 25-47, 1997.
JEPPERSON, R. Institutions, Institutional Effects, and Institutionalization. In POWELL, W. W.; DIMAGGIO, P. J. (Ed.). The New Institutionalism in Organizational Analysis, Chicago:
University of Chicago Press, 1991. 478 p.
JONARD, N.; YILDIZOĞLU, M. Technological diversity in an evolutionary industry model with
localized learning and network externalities. Structural Change and Economic Dynamics,
Amsterdam, v. 9, n. 1, p. 35-53, Mar. 1998.
KALDOR, N. Capital Accumulation and Economic Growth. In LUTZ, F. A.; HAGUE D. C. (Ed.). The Theory of Capital, London: Macmillan, p. 177-222, 1961. 415 p.
KARNSTEDT, M.; HENNESSY, T.; CHAN, J.; BASUCHOWDHURI, P.; HAYES, C.; STRUFE, T. Churn in Social Networks. In FURHT, B. (Ed.). Handbook of Social Network Technolo-
gies and Applications. Boston: Springer, p. 185-220, 2010.
KARRER, B.; NEWMAN, M. E. J. Random graphs containing arbitrary distributions of subgraphs.
Physical Review E, v. 82, n. 6, p. 066118, Dec. 2010.
KATZ, M. L.; SHAPIRO, C. Network Externalities, Competition, and Compatibility. American
Economic Review, Pittsburgh, v. 75, n. 3, p. 424-440, Jun. 1985.
KAVASSALIS, P.; SOLOMON, R. J.; BENGHOZI, P. J. The Internet: a paradigmatic rupture in
cumulative telecom evolution, Industrial and Corporate Change, Oxford, v. 5, n. 4, p. 1097-1126, 1996.
KAWALE, J.; PAL, A.; SRIVASTAVA, J. Churn Prediction in MMORPGs: A Social Influence Based Approach. INTERNATIONAL CONFERENCE ON COMPUTATIONAL SCI-
ENCE AND ENGINEERING, 2009. Annals...Vancouver: IEEE, 2009. Disponível em:
<http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=5284154>. Acesso em:
14 jun. 2014.
KIM, C.; LEE, K. Innovation, technological regimes and organizational selection in industry evolu-tion: a ‘History Friendly Model’ of the DRAM industry. Industrial and Corporate Change,
Oxford, v. 12, n. 6, p. 1195-1221, Dec. 2003.
KINGSTON, C.; CABALLERO, G. Comparing Theories of Institutional Change. Journal of Insti-
tutional Economics, v. 5, n. 2, p. 151-180, 2009.
KIRMAN, A. The economy as an evolving network. Journal of Evolutionary Economics, Heidel-
berg, v. 7, n. 3, p. 339-353, Jul. 1997.
305
______. Whom or what does the representative individual represent? Journal of Economic Perspec-
tives, Pittsburgh, v. 6, n. 1, p. 117-136, Winter 1992.
KLEPPER, S. Entry, exit, growth, and innovation over the product life cycle. American Economic
Review, Pittsburgh, v. 86, n. 3, p. 562-583, Jun. 1996.
KLINE, S. J.; ROSENBERG, N. An overview of innovation. In LANDAU, R.; ROSENBERG, N.
(Eds.). The positive sum strategy: harnessing technology for economic growth. Washington:
National Academy, p. 275-305, 1986. 640 p.
KLÜGL, F. A Validation Methodology for Agent-Based Simulations. In: SYMPOSIUM ON AP-
PLIED COMPUTING, 2008, Fortaleza. Proceedings... New York: Association for Compu-ting Machinery, 2008. p. 39-43.
KÖNIG, M. D.; BATTISTON, S.; SCHWEITZER, F. Modeling Evolving Innovation Networks. In
PYKA, A.; SCHARNHORST, A. (Eds.). Innovation Networks: Understanding Complex
Systems, Berlin: Springer-Verlag, 2009.
KOZINETS, R. V.; VALCK, K. ; WOJNICKI, A. C. ; WILNER, S. J. S. Networked Narratives:
Understanding Word-of-Mouth Marketing in Online Communities. Journal of Marketing, v. 74, n. 2, p. 71–89, May 2010.
KRUSE, J. Priority and Internet Traffic. Working Paper Series, Helmut Schmidt University, Ham-burg, n. 96, Aug. 2009.
KUPFER, D. Barreiras estruturais à entrada. In KUPFER, D.; HASENCLEVER, L. (Orgs.). Eco-nomia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
LATSIS, J.; LARQUIER, G.; BESSIS, F. Are conventions solutions to uncertainty? Contrasting
visions of social coordination. Journal of Post Keynesian Economics, v. 32, n. 4, p. 535-
558, Sum. 2010.
LAVOIE, M. Foundations of Post-Keynesian Economic Analysis. Aldershot: Edward Elgar, 1992.
461 p.
LAWSON, T. Economics and reality. London: Routledge, 1997. 364 p.
LESKOVEC, J.; CHAKRABARTI, D.; KLEINBERG, J. et al. Kronecker graphs: An approach to
modeling networks. Journal of Machine Learning Resources, v. 11, p. 985-1042, 2010.
LEHR, W. H.; CHAPIN, J. M. On the convergence of wired and wireless access network architec-
tures. Information Economics and Policy, Amsterdam, v. 22, n. 1, p. 33-41, Mar. 2010.
LEWIS, D. K. Convention: a philosophical study. Cambridge: Harvard University Press, 1969. 213
p.
LI, W.; XU, L. C. The Impact of Privatization and Competition in the Telecommunications Sector
around the World. Journal of Law and Economics, Chicago, v. 47, n.2, p. 395-430, Oct. 2004.
LIEBOWITZ, S. J.; MARGOLIS; S. E. Network Externalities (Effects). In NEWMAN, P. (Ed.). The New Palgrave's Dictionary of Economics and the Law, London: Macmillan, 1998.
______. Are Network Externalities a New Source of Market Failure? 1996. Disponível em:
<http://wwwpub.utdallas.edu/~liebowit/netwextn.html>. Acesso em: 30 dez. 2011.
LOASBY, B. J. Knowledge, Institutions and Evolution in Economics. London: Routledge, 1999.
168 p.
MACKIE-MASON, J. K.; VARIAN, H. R. Economic FAQs about the Internet. 1996. Disponível
em: <http://people.ischool.berkeley.edu/~hal/people/hal/papers.html>. Acesso em: 30 dez.
2011.
306
______. Some Economics of the Internet. 1994a. Disponível em:
<http://people.ischool.berkeley.edu/~hal/people/hal/papers.html>. Acesso em: 30 dez. 2011.
______. Pricing the Internet. 1994b. Disponível em:
<http://people.ischool.berkeley.edu/~hal/people/hal/papers.html>. Acesso em: 30 dez. 2011.
MACY, M. W.; WILLER, R. From Factors to Actors: Computational Sociology and Agent-Based
Modeling. Annual Review of Sociology, Palo Alto, v. 28, p. 143-166, 2002.
MAHADEVAN, P.; KRIOUKOV, D.; FALL, K.; VAHDAT, A. Systematic topology analysis and
generation using degree correlations. Computer Communications Review, v. 36, p. 135,
2006.
MALERBA, F. Industry Evolution and History-Friendly Models. Plenary paper for the International Schumpeter Society Conference, Aalborg, Jun. 2010.
______. Innovation and the evolution of industries. Journal of Evolutionary Economics, Heidel-berg, v. 16, n. 1-2, p. 3-23, Apr. 2006.
______. Sectoral Systems of Innovation: a framework for linking innovation to the knowledge base, structure and dynamics of sectors. Economics of Innovation and New Technology, London,
v. 14, n. 1-2, p. 63-82, Jan-Mar 2005.
______. Sectoral Systems of Innovation: Concepts, Issues and Analyses of Six Major Sectors in
Europe. New York: Cambridge University Press, 2004. 519 p.
______. Sectoral Systems of Innovation and Production. Research Policy, Amsterdam, v. 31, n. 2,
p. 247-264, 2002.
MALERBA, F.; NELSON, R. R. Learning and catching up in different sectoral systems: evidence
from six industries. Industrial and Corporate Change, Oxford, v. 20, n. 6, p. 1645-1675, Dec. 2011.
MALERBA, F.; NELSON, R. R.; ORSENIGO, L.; WINTER, S. ‘History-friendly’ Models of In-dustry Evolution: The Computer Industry. Industrial and Corporate Change, Oxford, v. 8,
n. 1, p. 3-40, 1999.
MALERBA, F.; ORSENIGO, L. Knowledge, Innovative Activities and Industrial Evolution. Indus-
trial and Corporate Change, Oxford, v. 9, n. 2, p. 289-314, 2000.
______.The Dynamics and Evolution of Industries. Industrial and Corporate Change, Oxford, v. 5,
n. 1, p. 51-87, 1996.
MARCH, J. G. A Primer on Decision Making. New York: Free Press, 1994. 289 p.
MARTIN, W. C.; LUEG, J. E. Modeling word-of-mouth usage. Journal of Business Research, v.
66, p. 801-808, 2013.
METCALFE, J. S. Evolutionary Economics and Creative Destruction. New York: Routledge, 1998.
153 p.
METCALFE, J. S.; FONSECA, M. G. D.; RAMLOGAN, R. Innovation, Competition and Growth:
Evolving Complexity or Complex Evolution. Revista Brasileira de Inovação, Campinas, v. 1, n. 1, p. 85-122, jun. 2002.
METCALFE, J. S.; FOSTER, J. Introduction and overview. In METCALFE, S.; FOSTER, J. (Ed.). Evolution and Economic Complexity. Cheltenham: Edward Elgar, p. ix-xix, 2004. 227 p.
MERRILL LYNCH, Global Wireless Matrix, 2Q2013. New York: Merrill Lynch, 2013.
______. Global Wireless Matrix, 4Q2011. New York: Merrill Lynch, 2012.
MICHAELIS. Moderno Dicionário da Língua Portuguesa. São Paulo: Melhoramentos, 2004. 2268
p.
307
MIKLÓS, I.; PODANI, J. Randomization of presence-absence matrices: comments and new algo-
rithms. Ecology, v. 85, n. 1, p. 86-92, 2004.
MILES, I. Innovation in services. The Oxford handbook of innovation, v. 16, p. 433-458, 2005.
MILO, R. et al. On the uniform generation of random graphs with prescribed degree sequences.
Disponível em: <http://arxiv.org/abs/condmat/0312028>. Acesso em: 15 jun. 2014.
MINICOM (Ministério das Comunicações). Exposição de Motivos nº 231 – Projeto da Lei Geral de
Telecomunicações. Brasília, 1996.
MOLLOY, M.; REED, B. A critical point for random graphs with a given degree sequence. Ran-
dom Structures & Algorithms, v. 6, p. 161-180, 1995.
MORONE, P.; TAYLOR, R. Knowledge Diffusion and Innovation: Modelling Complex Entrepre-
neurial Behaviours. Cheltenham: Edward Elgar, 2010. 177 p.
MOWERY, D. C.; SIMCOE, T. Is the Internet a US invention?: an economic and technological
history of computer networking. Research Policy, Amsterdam, v. 31, n. 8-9, p. 1369-1387,
Dec. 2002.
MUSGRAVE, R. A. The theory of public finance: a study in public economy. New York: McGraw-Hill, 1959. 628 p.
NELSON, R. R. Physical and social technologies, and their evolution. In NELSON, R. R. (Org.). Technology, Institutions, and Economic Growth, Cambridge: Harvard University Press,
2005a.
______. Introduction. In NELSON R. R. (Org.). The limits of market organization, New York: Rus-
sell Sage Foundation, 2005b.
______. The coevolution of technology and institutions as the driver of economic growth. In FOS-
TER, J.; METCALFE, J. S. (Ed.). Frontiers of Evolutionary Economics. Cheltenham: Ed-
ward Elgar, p. 19-30, 2001.
______. Recent Evolutionary Theorizing About Economic Change, Journal of Economic Litera-ture, Pittsburgh, v. 33, n. 1, p. 48-90, Mar. 1995.
NELSON, R. R.; SAMPAT, B. Making sense of institutions as a factor shaping economic perfor-mance. Journal of Economic Behavior and Organization, v. 44, p. 31-54, 2001.
NELSON, R. R.; WINTER, S. G. Preface to the Japanese Translation of ‘An Evolutionary Theory of Economic Change’. LEM Working Paper Series, Sant’Anna School of Advanced Stud-
ies, Pisa, n. 2007/04, Jan. 2007.
______. (1982). Uma teoria evolucionária da mudança econômica. Trad. C. Heller. Campinas: Ed.
UNICAMP, 2005. 631 p.
NET (Net Serviços de Comunicação S.A.). Relações com Investidores: Financeiro e Operacional –
Relatórios Anuais. Disponível em: <http://ri.netservicos.com.br>. Acesso em: 14 nov. 2011.
NEWMAN, D. Monster RASs: Growing Pains? Data Communications, Manhasset, Apr. 1999.
NEWMAN, M. E. J. Random Graphs with Clustering. Physical Review Letters, v. 103, n. 5, p.
058701, Jul. 2009.
______. Properties of highly clustered networks. Physical Review E, v. 68, n. 2, p. 026121, Aug.
2003.
NOAM, E. M. Beyond liberalisation: From the network of networks to the system of systems”,
Telecommunications Policy, Amsterdam, v. 18, n. 4, p. 286-294, 1994.
308
NOKIA SIEMENS NETWORKS. 2013 Acquisition & Retention Study Report. Disponível em:
<http://nsn.com/system/files/document/acquisition___retention_white_paper.pdf>. Acesso
em 03 mar. 2014.
NORTH, D. C. Institutions, Institutional Change and Economic Performance. Cambridge: Cam-
bridge University Press, 1990. 152 p.
OCDE (Organisation de Coopération et de Développement Économiques). OECD Communications
Outlook 2013. Paris: OECD Publishing, 2013. 316 p.
OI (Tele Norte Leste Participações S.A.). Relações com Investidores: Relatórios Financeiros. Dis-
ponível em: <http://ri.oi.com.br>. Acesso em: 14 nov. 2011.
OOKLA. Net Index Explorer. 2014. Disponível em: <http://explorer.netindex.com>. Acesso em: 04 out. 2014
OVUM. Quality of mobile broadband the main reason for consumers to change provider. 2014. Disponível em: < http://www.ovum.com/press_releases/>. Acesso em: 07 nov. 2014.
ORMEROD, P.; ROSEWELL, B. Validation and Verification of Agent-Based Models in the Social Sciences. Lecture Notes in Computer Science, Berlin, v. 5466, p. 130-140, 2009.
______. On the methodology of assessing agent-based evolutionary models in the social sciences.
In METCALFE, S.; FOSTER, J. (Ed.). Evolution and Economic Complexity. Cheltenham:
Edward Elgar, p. 24-37, 2004. 227 p.
ORLÉAN, A. L’économie des conventions: définitions et résultats. In ORLÉAN, A. (Org.). Analyse
économique des conventions. 2 ed. Paris: PUF, 2004.
______. Réflexion sur les fondements institutionnels de l’objectivité marchande. Cahiers
d’économie politique, v. 44, n. 1, p. 181-196, 2003.
______. Logique walrasienne et incertitude qualitative: des travaux d’Akerlof et Stiglitz aux con-
ventions de qualité. Économies et Sociétés, v. 25, n. 1, p. 137-160, 1991.
PAVITT, K. Chips and Trajectories: How Does the Semiconductor Influence the Sources and Di-rections of Technical Change? In MACLEOD, R. (Ed.). Technology and the Human Pro-
spect: Essays in Honour of C. Freeman. London: Pinter, 1986. 256 p.
______. Sectoral patterns of technological change: Towards a taxonomy and a theory. Research
Policy, Amsterdam, v. 13, n. 6, p. 343-374, Dec. 1984.
PEREIRA, M. C. Modelo Setor Internet (consumidores em rede). 2014a. Disponível em:
<http://sites.google.com/site/modelosetorinternet>. Acesso em: 30 out. 2014.
______. Simulated consumer networks. In INTERNATIONAL WORKSHOP ON COMPUTA-
TIONAL ECONOMICS AND ECONOMETRICS, 2014b, Roma. Annals… Disponível em:
<http://www2.ceris.cnr.it/grape/iwcee14.htm>. Acesso em: 02 ago. 2014.
______. O setor de internet no Brasil: uma análise da competição no mercado de acesso. 2014c.
Rio de Janeiro: BNDES, 2014. 467 p. (Prêmio BNDES de Economia)
______. When competition may hinder technology diffusion: the case of internet access services in Brazil. In ENCONTRO NACIONAL DE ECONOMIA, 40, 2012, Porto de Galinhas/PE.
Anais... Niterói: ANPEC, 2012a. 1 CD.
______. O setor de internet no Brasil: uma análise da competição no mercado de acesso. 2012. 358
f. Dissertação (Mestrado em Economia), Instituto de Economia, Universidade Estadual de
Campinas, Campinas, 2012b.
309
PEREIRA, M. C.; DEQUECH, D. A History-friendly model of the internet access market: the case
of Brazil. In PYKA, A.; FOSTER, J. (Ed.). Economic Complexity and Evolution. Cham,
Switzerland: Springer, p. 579-610, 2015.
PEREIRA, P.; RIBEIRO, T. The impact on broadband access to the Internet of the dual ownership
of telephone and cable networks. International Journal of Industrial Organization, Amster-dam, v. 29, n. 2, p. 283-293, Mar. 2011.
PEREZ, C.; SOETE, L. Catching up in technology: Entry barriers and windows of opportunity. In DOSI, G. et al. (Ed.). Technical change and economic theory, London: Pinter, 1988. p. 458-
479.
PETERAF, M. A. The cornerstones of competitive advantage: a resource-based view. Strategic
Management Journal, Chicago, v. 14, n. 3, p. 179-191, Mar. 1993.
PINTO JR., H. Q. Estratégias de financiamento. In KUPFER, D.; HASENCLEVER, L. (Orgs.).
Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
PINTO JR., H. Q.; FIANI, R. Regulação econômica. In KUPFER, D.; HASENCLEVER, L.
(Orgs.). Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
POLANYI, K. The Great Transformation. Boston: Beacon, 1944.
PORTER, M. E. Estratégia competitiva: técnicas para análise de indústrias e da concorrência. 3ª ed.
Trad. E. M. Pinho Braga. Rio de Janeiro: Campus, 1980/1986. 362 p.
POSSAS, M. L. Eficiência Seletiva: uma Perspectiva Neo-Schumpeteriana Evolucionária sobre
Questões Econômicas Normativas. Revista de Economia Política, São Paulo, v. 24, n. 1, p. 73-94, jan.-mar. 2004.
______. Concorrência schumpeteriana. In KUPFER, D.; HASENCLEVER, L. (Orgs.). Economia Industrial. Rio de Janeiro: Elsevier, 2002. 640 p.
POSSAS, M. L.; KOBLITZ, A.; LICHA, A.; OREIRO, J. L.; DWECK, E. Um Modelo Evolucioná-rio Setorial. Revista Brasileira de Economia, Rio de Janeiro, v. 55, n.3, p. 333-377, jul./set.
2001.
POSSI, P. UMTS World. 2006. Disponível em: <http://www.umtsworld.com>. Acesso em: 30 dez.
2011.
POTTS, J. New Evolutionary Microeconomics: Complexity, Competence and Adaptive Behaviour.
Cheltenham: Edward Elgar, 2000. 239 p.
POWELL, W. W. Expanding the scope of institutional analysis. In POWELL, W. W.; DIMAGGIO,
P. J. (Ed.). The New Institutionalism in Organizational Analysis, Chicago: University of Chicago Press, 1991. 478 p.
______. Neither market nor hierarchy: network forms of organization. Research in Organizational Behavior, v. 12, p. 295–336, 1990.
POWELL, W. W.; SMITH-DOERR, L. Networks and Economic Life. In SMELSER, N.; SWED-BERG, R. (Eds.). The Handbook of Economic Sociology. Princeton: Princeton University
Press, p. 368–425, 2004.
PRADO, E. F. S. Economia, complexidade e dialética. São Paulo: Pleiade, 2009. 165 p.
______. Microeconomia reducionista e microeconomia sistêmica. Nova Economia, Belo Horizonte,
v. 16, n. 2, p. 303-322, mai.-ago. 2006a.
______. Instituições deliberadas ou espontâneas. Análise, Porto Alegre, v. 17, n. 1, p. 105-118,
2006b.
310
PRESS, W. H.; FLANNERY, B. P.; TEUKOLSKY, S. A.; VETTERLING, W. T. Numerical Reci-
pes in Fortran: The Art of Scientific Computing, 2 ed. Cambridge: Cambridge Univ. Press,
1992. 933 p.
PYKA, A. Innovation networks in economics: from the incentive-based to the knowledge-based
approaches, European Journal of Innovation Management, Bingley, v. 5, n. 3, p. 152-163, 2002.
PYKA, A.; EBERSBERGER, B.; HANUSCH, H. A conceptual framework to model long-run qual-itative change in the energy system. In METCALFE, S.; FOSTER, J. (Ed.). Evolution and
Economic Complexity. Cheltenham: Edward Elgar, p. 191-213, 2004. 227 p.
PYKA, A.; FAGIOLO, G. Agent-Based Modelling: A Methodology for Neo-Schumpeterian Eco-
nomics. Working Paper n. 272, Institut for Volkswirtschaftslehre, Universitaet Augsburg,
2005.
PYKA, A.; GILBERT, N.; AHRWEILER, P. Agent-Based Modelling of Innovation Networks –
The Fairytale of Spillover. In PYKA, A.; SCHARNHORST, A. (Eds.). Innovation Net-works: Understanding Complex Systems, Berlin: Springer-Verlag, 2009.
RASMUSSEN, S.; BARRETT, C. L. Elements of a Theory of Simulation. In MORÁN, F.; MO-
RENO, A.; MERELO, J.J.; CHACÓN, P. (Ed.). Advances in Artificial Life. Berlin: Spring-
er, p. 515-529, 1995.
RITCHIE, M. et al. Higher-order structure and epidemic dynamics in clustered networks. Journal of
theoretical biology, v. 348, p. 21-32, May 2014.
ROGERS, E. Diffusion of Innovations, 5 e. New York: Free Press, 1962/2003. 576 p,
ROSENKOPF, L.; TUSHMAN, M. L. The coevolution of community networks and technology:
lessons from the flight simulation industry. Industrial and Corporate Change, Oxford, v. 7,
n. 2, p.311-346, Jun. 1998.
ROSSER JR., J. B. On the Complexities of Complex Economic Dynamics. Journal of Economic Perspectives, Pittsburgh, v. 13, n. 4, p. 169-192, Fall 1999.
SALA, A.; CAO, L.; WILSON, C.; ZABLIT, R.; ZHENG, H.; ZHAO, B.. Measurement-calibrated graph models for social network experiments. Proceedings of the 19th international confer-
ence on World Wide Web., New York: ACM, p. 861-870, 2010.
SAVIOTTI, P. P. Knowledge Networks: Structure and Dynamics. In PYKA, A.; SCHARNHORST,
A. (Eds.). Innovation Networks: Understanding Complex Systems, Berlin: Springer, 2009.
______. On the dynamics of generation and utilisation of knowledge: The local character of
knowledge. Structural Change and Economic Dynamics, v. 18, p. 387–408, 2007.
______. Introduction. In SAVIOTTI, P. P. (Ed.). Applied Evolutionary Economics. Cheltenham:
Edward Elgar, p. 1-31, 2003. 349 p.
SCHELLER, F. Por que o brasileiro gosta tanto de marcas. Estado de S. Paulo, São Paulo, ago.
2012. Disponível em: < http://economia.estadao.com.br/noticias/geral,por-que-o-brasileiro-gosta-tanto-de-marcas-imp-,911841>. Acesso em: 06 ago. 2012.
SCHMALENSEE, R. Sunk costs and antitrust barriers to entry. American Economic Review, Pitts-burgh, v. 94, n. 2, p. 471-475, May 2004.
SCHUMPETER, J. A. (1943). Capitalism, socialism and democracy. 5 ed. New York: Routledge, 1976. 437 p.
______. (1912). Teoria do desenvolvimento econômico: uma investigação sobre lucros, capital,
crédito, juro e o ciclo econômico. Tr. M. S. Possas. São Paulo: Nova Cultural, 1997. 237 p.
311
SCOTT, W. R. Institutions and Organizations. 3 ed. Thousand Oaks: Sage, 2008.
______. Institutions and Organizations. 2 ed. Thousand Oaks: Sage, 2001.
SEAE (Secretaria de Acompanhamento Econômico – Ministério da Fazenda); SDE (Secretaria de Direito Econômico – Ministério da Justiça). Guia para análise econômica de atos de Con-
centração horizontal. Portaria Conjunta SEAE/SDE n. 50, Brasília, 1 ago. 2001.
SEPIN (Secretaria de Política de Informática e Automação - Ministério da Ciência e Tecnologia).
Evolução da Internet no Brasil e no Mundo. Mimeo, Brasília, 2000.
SERRANO, Á. M.; BOGUÑÁ, M. Tuning clustering in random networks with arbitrary degree
distributions. Physical Review E, v. 72, n. 3, p. 036133, Sep. 2005.
SHANNON, C. E. A Mathematical Theory of Communication. Bell System Technical Journal, New
York, v. 27, n. 3, p. 379-423, Jul. 1948.
SHAPIRO, C.; VARIAN, H. R. (1999). A economia da informação: como os princípios econômi-
cos se aplicam a era da internet. 5. ed. Rio de Janeiro: Campus, 2002. 397 p.
SHESHINSKI, E.; WEISS, Y. Inflation and Costs of Price Adjustment. Review of Economic Stud-
ies, v. 44, n. 2, p. 287-303, 1977.
SHY, O. The economics of network industries. Cambridge: Cambridge Univ. Press, 2001. 315p.
______. Industrial Organization: Theory and Applications. Cambridge: MIT Press, 1995. 466 p.
SILVERBERG, G.; DOSI, G.; ORSENIGO, L. Innovation, Diversity and Diffusion: a Self-
organization Model. Economic Journal, Oxford, v. 98, n. 393, p. 1032-1054, 1988.
SILVERBERG, G.; VERSPAGEN, B. Learning, innovation and economic growth: a long-run mod-
el of industrial dynamics. Industrial and Corporate Change, Oxford, v. 3, n. 1, p. 199-223,
1994.
SIMON, H. A. Rational decision making in business organizations. American Economic Review,
Pittsburgh, v. 69, n. 4, p. 493-513, Sep. 1979.
______. The Role of Expectations in an Adaptive or Behavioristic Model. In BOWMAN, M. (Org.). Expectations, Uncertainty, and Business Behavior, New York: Social Science Re-
search Council, 1958.
SIMONSEN, M. H. Rational Expectations, Game Theory and Inflationary Inertia. In ANDERSON,
P. W.; ARROW, K. J.; PINES, D. (Ed.) The Economy as an Evolving Complex System,
Reading: Addison-Wesley, 1988.
SINCLAIR, A. Algorithms for Random Generation and Counting: A Markov Chain Approach.
Boston: Birkhäuser, 1993.
SIQUEIRA, E. Brasil: 500 Anos de Comunicações - A Eterna Busca da Liberdade. São Paulo: De-
zembro, 2000.
______. Três Momentos da História das Telecomunicações no Brasil. São Paulo: Dezembro, 1997.
SPERRY, R.W. In defense of mentalism and emergent interaction. Journal of Mind and Behavior,
Orono, v. 12, n. 2, p. 221-246, Spring 1991.
SQUARTINI, T.; GARLASCHELLI, D. Analytical maximum-likelihood method to detect patterns
in real networks. New Journal of Physics, v. 13, p. 083001, 2011.
STEIN, J. Conversations among Competitors. American Economic Review, Pittsburgh, v. 98, n. 5,
p. 2150-2162, Dec. 2008.
STIGLITZ, J. E. The Causes and Consequences of the Dependence of Quality on Price. Journal of Economic Literature, v. 25, p. 1-48, Mar. 1987a.
312
______. Technological Change, Sunk Costs, and Competition. Brookings Papers on Economic Ac-
tivity, Washington, v. 18, n. 3, p. 883-937, 1987b.
______. On the Irrelevance of Corporate Financial Policy. American Economic Review, Pittsburgh,
v. 64, n. 6, p. 851-866, Dec. 1974.
STORPER, M.; SALAIS, R. Worlds of Production, Cambridge: Harvard University Press, 1997.
SU, J.; WU, S. Null Models For Social Networks. Disponível em:
<http://www.stanford.edu/class/cs224w/projects2013/cs224w-003-final.pdf>. Acesso em:
17 jun. 2014.
SUGDEN, R. (1986), The Economics of Rights, Co-operation and Welfare. 2 ed. Oxford: Black-
well, 2004.
TABOURIER, L.; ROTH, C.; COINTET, J.-P. Generating constrained random graphs using multi-
ple edge switches. Journal of Experimental Algorithmics, v. 16, p. 1.7, 2011.
TEECE, D. J. Reflections on ‘Profiting from Innovation’. Research Policy, Amsterdam, v. 35, n. 8,
p. 1131-1146, Oct. 2006.
______. Profiting from technological innovation: Implications for integration, collaboration, licens-ing and public policy. Research Policy, Amsterdam, v. 15, n. 6, p. 285-305, Dec. 1986.
TEECE, D. J.; PISANO, G. The Dynamic Capabilities of Firms: an Introduction. Industrial and Corporate Change, Oxford, v. 3, n. 3, p. 537-556–533, 1994.
TEECE, D. J.; PISANO, G.; SHUEN, A. Dynamic capabilities and strategic management. Strategic Management Journal, Chicago, v. 18, n. 7, p. 509–533, 1997.
TELEBRASIL (Associação Brasileira de Telecomunicações). O Desempenho do Setor de Teleco-
municações no Brasil - Séries Temporais: primeiro semestre de 2014. Rio de Janeiro: TE-
LEBRASIL, 2014.
TELECO. Inteligência em Telecomunicações. Disponível em: <http://www.teleco.com.br>. Acesso
em 30 dez. 2011.
TELEFÔNICA S.A. Relações com Investidores: Relatórios de Informação ao Mercado. Disponível
em: <http://telefonica.mediagroup.com.br/pt>. Acesso em: 14 nov. 2011.
TELETIME. Anatel não muda leilão das faixas de 3,5 GHz e 10,5 GHz. 2006. Disponível em: <
http://www.teletime.com.br/16/08/2006/anatel-nao-muda-leilao-das-faixas-de-3-5-ghz-e-10-5-ghz/tt/65626/news.aspx>. Acesso em: 30 dez. 2011.
TENNENHOUSE, D.; LAMPSON, B.; GILLETT, S. E.; KLEIN, J. S. Virtual Infrastructure: Put-
ting Information Infrastructure on the Technology Curve. Computer Networks and ISDN
Systems, Amsterdam, v. 28, n. 13, p. 1769-1790, Oct. 1996.
TESFATSION, L. Agent-Based Computational Economics: A Constructive Approach to Economic
Theory. In TESFATSION, L.; JUDD K. (Ed.). Handbook of Computational Economics,
Vol. 2: Agent-Based Computational Economics. Amsterdam: North-Holland. 2006. 1659 p.
______. Agent-based computational economics: Modelling economies as complex adaptive sys-tems. Information Sciences, Amsterdam, v. 149, n. 4, p. 262-268, Feb. 2003.
THORNTON, P.; OCASIO, W. Institutional Logics. In GREENWOOD, R. et al. (Org.). The Sage Handbook of Organizational Institutionalism, Thousand Oaks: Sage, 2008.
TIGRE, P. B. Inovação e teorias da firma em três paradigmas. Revista de Economia Contemporâ-nea, Rio de Janeiro, v. 2, n. 1, p. 67-111, jan.-jun. 1998.
TIM (TIM Participações S.A.). Relações com Investidores: Central de Resultados. Disponível em:
<http://www.timpartri.com.br>. Acesso em: 14 nov. 2011.
313
TIROLE, J. The theory of industrial organization. Cambridge, MA: MIT Press, 1988. 479 p.
TOLBERT, P. S.; ZUCKER, L. G. The Institutionalization of Institutional Theory. In CLEGG, S. R.; HARDY, C.; NORD, W. R. (Ed.). Handbook of Organization Studies, Thousand Oaks:
Sage, 1996.
TORDJMAN, H. How to study markets? An Institutionalist Point of View. Revue d’Economie In-
dustrielle, v. 107, n. 3, p. 19-36, 2004.
TRAPMAN, J. P. On stochastic models for the spread of infections. Mimeo, Vrije Universiteit,
2006.
UGANDER, J.; KARRER, B.; BACKSTROM, L.; MARLOW, C. The Anatomy of the Facebook
Social Graph. arXiv, preprint arXiv,1111.4503, 2011.
UNCTAD (United Nations Conference on Trade and Development). Information Economy Report
2013: The Cloud Economy and Developing Countries. New York: United Nations, 2013.
______. Information Economy Report 2010: ICTs, Enterprises and Poverty Alleviation. New York:
United Nations, 2010.
USDJ (United States Department of Justice); FTC (Federal Trade Commission) Horizontal Merger Guidelines. 2010. Disponível em: <http://www.justice.gov/atr/public/guidelines/hmg-
2010.html>. Acesso em: 22/12/2011.
UTTERBACK, J. M. (1994). Dominando a dinâmica da inovação. Trad. L. Liske. Rio de Janeiro:
Qualitymark, 1996. 264 p.
VALENTE, M. Markets for Heterogeneous Products: a Boundedly Rational Consumer Model. LEM
Working Paper Series, Sant’Anna School of Advanced Studies, Pisa, n. 2009/11, Sep. 2009.
______. Simulation Methodology: an Example in Modeling Demand. Mimeo, 2002.
VALENTE, M.; CIARLI, T.; LORENTZ, A. Introduction to Lsd. 2010. Disponível em:
<http://www.labsimdev.org/download/Sime10/slidesIntro.pdf>. Acesso em: 12 jul. 2011.
VAN MOORSEL, A. Metrics for the Internet Age: Quality of Experience and Quality of Business.
In PERFORMABILITY WORKSHOP, 5o, 2001, Erlangen. Annals… 2001.
VARIAN, H. R. Microeconomia: Princípios Básicos. 7ª ed. Trad. M. J. C. Monteiro; R. Doninelli.
Rio de Janeiro: Elsevier, 2006. 807 p.
VÁZQUEZ, A. Growing network with local rules: Preferential attachment, clustering hierarchy, and
degree correlations. Physical Review E, v. 67, n. 5, p. 056104, May 2003.
VISCUSI, W. K.; HARRINGTON JR., J. E.; VERNON, J. M. Economics of Regulation and Anti-
trust. 4 ed. Cambridge: MIT Press, 2005. 927 p.
VISWANATH, B.; MISLOVE, A.; CHA, M.; GUMMADI, K.P. On the evolution of user interac-
tion in Facebook. Proceedings of the 2nd ACM workshop on Online Social Networks, 2009
VIVO S.A. Relações com Investidores: Relatórios de Informação ao Mercado. Disponível em:
<http://vivo.mediagroup.com.br/port/home>. Acesso em: 14 nov. 2011.
WALLSTEN, S. Understanding International Broadband Comparisons: 2009 Update. 2009. Dis-ponível em: < http://www.techpolicyinstitute.org/publications>. Acesso em: 14 nov. 2011.
WATTS, D. J.; STROGATZ, S. H. Collective dynamics of “small-world” networks. Nature, v. 393, n. 6684, p. 440-442, Jun. 1998.
WEBER, M. (1921). Economy and Society: An Outline of Interpretive Sociology. Volume 1. Trad. M. Tübingen. New York: Bedminster, 1968.
WEISS, L. W. The Structure-Conduct-Performance Paradigm and Antitrust. University of Pennsyl-
vania Law Review, Pennsylvania, v. 127, n. 4, p. 1104-1140, Apr. 1979.
314
WERKER, C.; BRENNER, T. Empirical Calibration of Simulation Models. Working Paper n. 4, v.
13, Eindhoven Centre for Innovation Studies, Eindhoven University of Technology, 2004.
WIKIPEDIA. List of LTE networks. 2014. Disponível em:
<http://en.wikipedia.org/wiki/List_of_LTE_networks>. Acesso em: 03 dez. 2014.
WILLIAMSON, O. The New Institutional Economics: Taking Stock, Looking Ahead. Journal of
Economic Literature, v. 38, n. 3, p. 595-613, 2000.
______. Prologue: the mechanisms of governance. In WILLIAMSON, O (Org.). The Mechanisms
of Governance, Oxford: Oxford University Press, 1996.
WINDRUM, P. Neo-Schumpeterian simulation models. In HANUSCH, H.; PYKA, A. (Ed.). Elgar
Companion to Neo-Schumpeterian Economics. Cheltenham: Edward Elgar, p. 405-439, 2007. 1209 p.
WINDRUM, P.; BIRCHENHALL, C. Is life cycle theory a special case?: dominant designs and the emergence of market niches through co-evolutionary learning. Structural Change and Eco-
nomic Dynamics, Amsterdam, v. 9, n.1, p. 109-134, 1998.
WINDRUM, P.; FAGIOLO, G.; MONETA, A. Empirical Validation of Agent-Based Models: Al-
ternatives and Prospects. Journal of Artificial Societies and Social Simulation, Surrey, v.
10, n. 2, p. 8–37, 2007.
YANG, J.; HE, X.; LEE, H. Social reference group influence on mobile phone purchasing behav-
iour: a cross-nation comparative study. Int. J. Mobile Communications, v. 5, n. 3, p. 319-338, 2007.
YOON, M.; LEE, K. Agent-based and “History-Friendly” Models for Explaining Industrial Evolu-
tion. Evolutionary and Institutional Economics Review, Tokyo, v. 6, n.1, p. 45-70, 2009.
YOUNG, H. P. Innovation Diffusion in Heterogeneous Populations: Contagion, Social Influence,
and Social Learning. American Economic Review, Pittsburgh, v. 99, n. 5, p. 1899-1924,
Dec. 2009.
______. The Diffusion of Innovations in Social Networks. In BLUME, L. E.; DURLAUF, S. N.
(Eds.). The Economy as an Evolving Complex System, III: Current Perspectives and Future Directions. Oxford: Oxford University Press, p. 267–282 , 2002.
______. The Economics of Convention. Journal of Economic Perspectives, Pittsburgh, v. 10, n. 2, p. 105-122, 1996.
ZAKON, R. H. Hobbes’ Internet Timeline 10.1. 2010. Disponível em:
<http://www.zakon.org/robert/internet/timeline/>. Acesso em: 30 dez. 2011.
315
Apêndice A: Qualidade do serviço de acesso à internet
A questão da avaliação da qualidade do serviço de acesso à internet, por parte
dos consumidores-usuários, bem como a do seu manejo e garantia, pelos provedores, é um
tema complexo (KRUSE, 2009). Para os consumidores, não existem métricas únicas ou
universais para avaliar se o “produto” que recebem, ao contratarem um provedor de acesso,
corresponde às suas necessidades específicas (VAN MOORSEL, 2001; BALACHAN-
DRAN et al., 2012).329
A isso se soma a variabilidade intrínseca da qualidade ao longo do
tempo, para um serviço que é fornecido de forma contínua e sobre uma rede que é compar-
tilhada entre muitos usuários, simultaneamente. Dessa maneira, a mensuração da qualidade
por um consumidor comum se configura como um problema multidimensional complicado
e de difícil solução (BEREC, 2014).
A complexidade na avaliação da qualidade da conexão à internet tem contribuí-
do para o crescente descontentamento dos consumidores com os serviços. Indicadores co-
mo churn ou satisfação têm indicado clara tendência de piora nos últimos anos, na maioria
dos países e em particular no Brasil (MERRILL LYNCH, 2013; NOKIA SIEMENS, 2013).
Considerando que na parcela majoritária dos países existem, pelo menos, três provedores de
acesso relevantes competindo, nas modalidades fixa e móvel, parece enigmática a dificul-
dade de convergência entre a demanda por qualidade dos usuários e a oferta de serviços
pelos provedores.
A divergência entre demanda e oferta, na dimensão da qualidade, deixa eviden-
te que existe uma oportunidade no mercado que não está sendo adequadamente explorada
pelos provedores de serviço de acesso. A explicação de por que isso se dá é aparentemente
complexa, mas a informação empírica disponível permite elaborar ao menos uma hipótese:
o modo particular de como se desenvolve a dinâmica da demanda tem dificultado o proces-
so de planejamento e implantação das redes de telecomunicações que suportam a conexão à
internet. Essa hipótese será investigada na sequência. Antes, entretanto, é necessário intro-
duzir alguns conceitos de natureza técnica.
329 Isso porque cada tipo de aplicação da internet, para desempenhar suas funções, privilegia diferentes di-
mensões da qualidade (taxa de transferência de dados, tempos de tráfego/latência, perda de pacotes etc.).
316
A.1. Modelo simplificado de qualidade
Entre os diversos atributos técnicos normalmente considerados para definir a
qualidade do acesso, a taxa de transmissão de dados – ou “velocidade” – costuma ser o
mais importante (BEREC, 2014).330
A Figura 76 apresenta um exemplo para a compreen-
são da problemática enfrentada pelo provedor de acesso no planejamento de sua rede de
prestação de serviço e a natureza do problema de com o qual o consumidor se defronta. O
modelo, simplificado, assume que apenas a velocidade seja relevante. Em uma rede real, o
tema envolve outras dimensões (conforme o número de atributos importantes).
Figura 76 – Exemplo de diferentes níveis de qualidade entre provedores.
Fonte: análise do autor.
No exemplo, a rede do provedor de número 1está dimensionada para transportar
até cem megabits por segundo (Mbps), simultaneamente, considerando-se o tráfego gerado
por todos os usuários ativos. Os três clientes desse provedor, no instante hipotético descrito,
têm uma demanda agregada de 5 + 20 + 30 = 55 Mbps de conexão com a internet – e.g.,
para conectarem-se a outros usuários, acessarem serviços online ou realizarem download de
330 Isso claramente depende da aplicação do usuário. O raciocínio que se segue não seria substancialmente
diferente caso outro atributo, entre a maioria dos demais atributos técnicos de qualidade, fosse adotado.
317
conteúdo. Nessa situação, todo o tráfego de dados demandado poderia ser adequadamente
transportado pelo provedor (pois 55 < 100 Mbps), com qualidade apropriada no modelo
simplificado proposto.
Se, entretanto, o mesmo conjunto de consumidores, em condições equivalentes,
fosse atendido pelo provedor de número 2 da Figura 76, a configuração de qualidade seria
distinta. Como essa firma dispõe de uma rede com capacidade para apenas 50 Mbps de trá-
fego, embora a demanda potencial seja de 55 Mbps, parte do requerido pelos usuários não
poderia ser adequadamente atendido (pois 55 > 50 Mbps). Na prática, a rede ofereceria
uma taxa de transmissão inferior à demandada por cada consumidor, de modo que as apli-
cações utilizadas tivessem que se ajustar à restrição de velocidade.331
Isso seria percebido
pelos usuários como redução da qualidade do serviço, de forma mais ou menos aguda, de
acordo com o tipo da aplicação empregada.
Note-se, todavia, que o impacto da capacidade instalada na qualidade não é li-
near: ao atingir-se a demanda de tráfego agregado dos usuários, a capacidade adicional da
rede não aumenta significativamente a qualidade percebida por eles. Ou seja, nas condições
do exemplo, níveis de capacidade instalada acima de 55 Mbps não trariam benefícios im-
portantes para os consumidores, apesar de que isso, provavelmente, elevaria os custos do
provedor.332
A.2. Planejamento da rede de serviço
Na prática, o problema que o provedor se depara, para planejar sua rede de ser-
viço, é substancialmente mais complexo do que deixa antever o exemplo esquemático da
seção anterior (ITU, 2007). Os milhares de usuários que utilizam uma dada rede estão con-
tinuamente alterando suas demandas de transmissão (e recepção) de dados. Não obstante
existirem alguns padrões normalmente adotados para antecipar os movimentos do tráfego
agregado esperado dos usuários, eles são bastante aproximados e sujeitos a grandes desvios,
especialmente ao longo do tempo, com a introdução de novas aplicações. Essa incerteza
331 Por exemplo, reduzindo a qualidade de chamadas de voz, tornando mais lento o acesso a sistemas interati-
vos, aumentando o tempo necessário para download etc. 332 Em redes reais esse limiar não é tão evidente, pois em geral todos os provedores trabalham com algum
nível médio de congestionamento de rede intencional, pelo menos nos horários de pico, por questão de custos.
318
quanto ao perfil da demanda333
recomendaria aos provedores trabalharem com substancial
excesso de capacidade, de modo a acomodar picos de tráfego imprevistos. Por outro lado, o
custo de equipamentos, sistemas e infraestrutura que compõem a rede é sabidamente eleva-
do, tornando o ajuste desse excedente “planejado” muito delicado. Caso um provedor opte
por oferecer serviço com qualidade superior ao “demandado” pelos usuários, ele certamente
sofrerá uma pressão de custos maior do que a de outro, mais “conservador” no planejamen-
to de sua rede. Todavia, se o provedor não dispuser de capacidade suficiente para disponibi-
lizar a qualidade “demandada”, ele poderá perder clientes rapidamente para concorrentes
com qualidade mais elevada. Para complicar esse ajustamento, o aumento da capacidade é
uma ação de médio prazo, que requer vários meses entre os sinais da demanda e a efetiva
adequação da rede.334
Figura 77 – Exemplo de desequilíbrio em um mercado competitivo.
Fonte: análise do autor.
333 Existe uma infinidade de fatores que produzem alterações significativas, e por vezes bruscas, nos perfis de
tráfego: acompanhamento de grandes eventos (calamidades, guerras, shows, jogos etc.), lançamento de conte-
údos populares (vídeos “virais”, novos videogames), ataques de hackers etc. 334 São diversas etapas técnicas e administrativas: planejamento, projeto, aprovisionamento, instalação, testes
e comissionamento (ITU, 2007).
319
Para compreender o processo de ajuste, são propostos dois exemplos esquemá-
ticos, demonstrando que o problema é similar tanto no caso de mercados mais ou menos
competitivos. No primeiro (Figura 77), parte-se de um mercado competitivo, em equilíbrio,
em que três provedores atendem 𝑥1 = 34, 𝑥2 = 33 e 𝑥3 = 33 usuários hipotéticos (de uma
demanda total de 𝑥 = 100). Supondo que uma unidade de capacidade instalada de rede seja
suficiente para atender com qualidade “adequada” um consumidor, as firmas dispunham em
𝑡 = 0 de capacidades 𝐶1 = 34, 𝐶2 = 33 e 𝐶3 = 33 unidades (total de 𝐶 = 100).335
Nessa
situação, o preço e a qualidade de todos os provedores são os mesmos.
No instante 𝑡 = 1, após a ocorrência de um choque no sistema, alguns usuários
trocam de provedor, conforme a Figura 77. Como o ajuste da capacidade de rede não é ins-
tantâneo, a firma 1 permanece com 𝐶1 = 34, insuficiente para atender a nova demanda
𝑥1 = 40 com nível de qualidade similar. Portanto a qualidade do seu serviço cai, para todos
os seus clientes (novos e antigos).336
Já o provedor 2, que perde usuários e passa a ter capa-
cidade ociosa de rede, não aumenta a sua qualidade percebida, ainda que sua demanda de
tráfego tenha diminuído, dado que a capacidade excedente não é necessária ou relevante
para os consumidores. A condição do provedor 3 não se altera em 𝑡 = 1.
É importante notar que, com o choque, o mercado em 𝑡 = 1 não está mais em
equilíbrio: o provedor 1 agora oferece qualidade inferior mas preços iguais aos de 2 e 3.
Parcela dos usuários do provedor 1 perceberá a degradação do serviço que recebem e rece-
berá indicações de que a qualidade das outras firmas é superior, por preço igual. Supondo,
como é frequentemente na prática, que o provedor 1 não deseje reduzir seu preço, ele preci-
sará iniciar a expansão de capacidade na sua rede (para 𝐶1 ≥ 40).337
Ele deseja retomar o
nível de qualidade dos concorrentes, apesar de que a expansão programada somente estará
disponível em 𝑡 = 2. Se, em paralelo, em 𝑡 = 2, alguns usuários insatisfeitos deixarem o
335 O equipamento de rede é projetado de forma a que uma unidade de capacidade seja a oferta considerada
“adequada” para atender a demanda média de um usuário. Essa escolha padroniza a capacidade física dos equipamentos em função da demanda de utilização da rede pelos usuários, eliminando a necessidade de repre-
sentação, em separado, da forma que essa demanda varia ao longo do tempo, obviamente uma simplificação. 336 Dado que as firmas usualmente não limitam o número de usuários que contratam seus serviços, seja por
questões comerciais, restrições regulatórias ou mesmo ignorância sobre o perfil dos novos usuários. 337 Como em um oligopólio de Cournot.
320
provedor 1 e se redistribuírem entre os demais, teremos o novo cenário indicado na Figura
77.338
Mas, em 𝑡 = 3, o provedor 1 é “surpreendido” com excesso de capacidade, pois
não conseguiu reagir suficientemente rápido para evitar a perda de alguns clientes. A firma
2 ao recuperar os clientes perdidos em 𝑡 = 2, volta a utilizar plenamente a sua rede, man-
tendo um nível adequado de qualidade. O provedor 3 passa a ter problemas, porque recebeu
mais usuários do que sua rede podia suportar, e seus clientes começam a buscar alternati-
vas, iniciando nova flutuação no próximo período. Não é difícil mostrar que, ao se conside-
rar o retardo da resposta dos provedores ao movimento da demanda – naturalmente mais
“flexível” – introduz-se um mecanismo de realimentação dos choques que acaba por levar o
sistema para um novo equilíbrio, após certo tempo, eventualmente longo, de estabilização.
Figura 78 – Exemplo de desequilíbrio em um mercado monopolista.
Fonte: análise do autor.
338 É razoável supor que os usuários que buscam novos provedores se distribuam entre os de número 2 e 3,
pois ambos apresentam qualidade aparente e preços iguais. Como o excesso de capacidade do provedor 2 não
é percebido pelos seus próprios usuários, não é razoável supor que os usuários migrantes possam usar essa
informação para dar preferência a esse provedor. Esse tipo de informação usualmente não está disponível.
321
Examine-se, agora, o exemplo da Figura 78. Aqui, no equilíbrio em 𝑡 = 0, o
provedor 1 era um monopolista, atendendo 𝑥 = 𝑥1 = 100 usuários, com a capacidade
𝐶1 = 100 adequada. O choque desta vez é representado por dois entrantes, que em 𝑡 = 1
disponibilizam redes com capacidade 𝐶2 = 𝐶3 = 5. Mas, como precisaram planejar a rede
antes da comercialização dos serviços, no exemplo eles capturam, cada um, apenas um cli-
ente do incumbente. Nesse caso, todos os provedores terminarão o período 𝑡 = 1 com ex-
cesso de capacidade e, portanto, qualidade percebida apropriada. Logo, não existe pressão
de qualidade impulsionando os usuários para o churn. No entanto, como os entrantes dis-
põem de um significativo excedente de capacidade em relação ao incumbente (4/5 versus
2/100) e, consequentemente, um custo unitário maior, eles seguirão pressionados para cap-
turar novos consumidores, por meio de preços ou outros recursos.339
Esse processo conti-
nua, em 𝑡 = 2, 3,…, pelo menos até que os entrantes consigam operar com ociosidade se-
melhante à do incumbente, quando o mercado encontra o equilíbrio novamente (ou um de-
senvolvimento parecido com o do exemplo anterior se inicie). Parece evidente, nesse arran-
jo, que o equilíbrio monopolista não é absolutamente estável.
Em resumo, nesses exemplos esquemáticos, múltiplos equilíbrios são em prin-
cípio possíveis, em situações intermediárias entre o monopólio e a plena competição, de-
pendendo das condições iniciais do mercado e dos atributos da dinâmica sistêmica (tempo
de instalação das redes, acuidade dos usuários em perceber as qualidades relativas etc.).
Obviamente, sistemas reais, muito mais complexos, são candidatos ainda maiores a não
apresentarem atratores estáveis, pelo menos na maioria dos casos práticos. Em última análi-
se, isso se deve tanto à característica de não linearidade da demanda quanto à de realimen-
tação (feedback), induzida pelo retardo na implantação das redes.
Por fim, é importante ressaltar que os exemplos acima permitem algumas con-
clusões adicionais. A primeira diz respeito à dificuldade, na prática, das firmas operarem
com o aproveitamento pleno de sua capacidade instalada, a menos que o sistema apresente
algum ponto de equilíbrio estável – o que se mostrou improvável. Isso significa que o sis-
tema, assim como boa parte dos agentes (consumidores e provedores), não estará operando
em uma condição do tipo ótimo de Pareto. Como visto, o nível de utilização agregado espe-
339 Em um cenário do tipo oligopólio de Bertrand.
322
rado será, em geral, inferior a 100%. Isso significa que, frequentemente, os usuários estarão
recebendo serviços, em média, com qualidade inferior àquela que seria factível com a capa-
cidade instalada disponível.
323
Apêndice B: Redes sociais sintéticas340
One frequent approach to account for the impact of complex networks in social
phenomena is to use the tools developed by graph theory to analyze empirical data. The
application of standard measurements and analytical procedures frequently unveils critical
characteristics of networks with regard to specific research questions. However, the ap-
proach is usually problematic because of the lack of individual-level data about interesting
real social networks, often due to privacy or secrecy concerns. Consequently, it is common
that the data made available is not enough to address some relevant demands, particularly
when the network plays a role in the dynamics of the socioeconomic system under study.
Thus, for particular research purposes, it may be useful to artificially produce (partially)
random networks that keep some degrees of similarity with the real ones. This way, Monte
Carlo oriented methods, like agent-based stochastic models, can be still applied on the
modeling of dynamic phenomena when complex networks are involved.
The appendix proposes a review of available algorithms for producing pseudo-
random networks (graphs), while controlling for some characteristics considered rele-
vant.341
The idea is that, under appropriate parametrization, “synthetic” networks can be a
useful emulation of real networks, of course for specific purposes and under certain condi-
tions. This can be particularly valuable in cases where only the parameters of the real net-
work are known but the application at hand requires the full graph topology representation
or, alternatively, in the example of Monte Carlo methods, when multiple “realizations” of a
given social network may be necessary.
The objective of the appendix is to contribute for the identification of adequate
frameworks for synthetic networks generation that can support more advanced models of
markets, taking demand-side networks of consumers into consideration. This is relevant
because tackling endogenous preferences formation has been usually problematic, particu-
larly when handled in a purely analytical form.
340 Este apêndice contém excertos do trabalho apresentado pelo autor (PEREIRA, 2014b) no International
Workshop on Computational Economics and Econometrics, realizado em junho de 2014 em Roma, Itália. 341 For a brief review of random graph theory, associated measures and general models, see Albert and Bara-
bási (2002) or Dorogovtsev and Mendes (2002).
324
B.1. Review of random network algorithms
Algorithms for the generation of pseudo-random networks (or graphs)342
exist
for quite a long time. The simplest method for generating random graphs – the Bernoulli or
Erdős-Rényi (ER) model (1959) –, for instance, produces graphs with a fixed average de-
gree343
but random in all other respects. However, it is known to inadequately represent real
complex networks because these present more structure than the ER model is able to repro-
duce (ALBERT; BARABÁSI, 2002). Research on algorithms that are capable to simulta-
neously control more parameters of the generated networks is more recent but very prolific.
Yet, the variety of methods available today is rooted in the lack of an effective general ap-
proach to the creation of random graphs under arbitrary constraints (TABOURIER; ROTH;
COINTET, 2011). Given the spread of such techniques, it is important to compare the main
characteristics of the potential candidates, in a way to select the most adequate for each job
at hand.
The development of models and algorithms for the generation of synthetic ran-
dom graphs has been an active area of research in the last twenty years. A significant num-
ber of works was published, particularly in physics journals, but also in biology, sociology
and economics publications. We focused our survey on the period after 1995, when the
proliferation of affordable computing stimulated the research. The survey is based on pa-
pers issued in peer-reviewed, top ranked journals and on references directly cited by those.
Considering our specific research objectives, some models were not considered here. These
include older model classes less fit to create synthetic social networks or cases where the
programmable algorithms are unavailable (e.g., p1 and p2 models, blockmodels, and latent
space models). The initial research produced 62 candidate models and algorithms. Out of
them, because of their level of innovation or popularity, we selected a sample of 28 for in-
depth analysis. Tabela 7 presents the chosen models and some of their main characteristics.
342 Here, a network is represented as a graph consisting of a set of nodes (the “vertices”) connected by (undi-
rected and non-weighted) links (the “edges”). 343 The degree of a vertex in an undirected graph is the number of edges attached to that vertex.
325
Tabela 7 – Algorithms characteristics for selected random network models.
Source: author’s analysis.
An important class of random-graph algorithms is based on the configuration
model (CM). Bender and Canfield (1978) introduced this method, which has received sev-
eral contributions over time, particularly after the work of Molloy and Reed (1995). The
idea of CM is simple: for each vertex, draw a random degree according to a fixed distribu-
tion (the constraint), create as many connection points as its degree and, after creating con-
nection points for all vertices, make edges between pairs of points randomly drawn. The
probability of edges creation is usually obtained from mathematical optimization proce-
dures (based on the maximum entropy principle and using maximum likelihood estimation
of parameters acquired from real networks). In a more formal way, CM produces the en-
semble of all graphs that have certain (in and/or out) degree sequence. In its simplest form,
CM generates multiple links and loops; some authors proposed changes to the basic algo-
rithm to avoid them but typically at the cost of generating non-uniform samples of all pos-
Growing
network
Rewiring /
switching
Configuration
model /
likelihood
Preferential
attachment
Bipartite
graph
Heuristic
model
Clustered Configuration Model N Partially Y N N Partially Ritchie et al. 2014
Motif Decomposition N Y N N N Y Ritchie et al. 2014
Big-V N Y N N N Y Ritchie et al. 2014
House N N Y N N N House 2014
Su & Wu N Y Y N N Y Su & Wu 2013
Ball et al. N Y Y N N Partially Ball et al. 2013
2.5K-graphs N Y N N N Y Gjoka et al. 2013
k-edge Switching N Y N N N N Tabourier et al. 2011
Expected Degree N N Y N N N Bargigli & Gallegati 2011
Karrer & Newman N N N N Y N Karrer & Newman 2011
Squartini & Garlaschelli N N N N N N Squartini & Garlaschelli 2011
KronFit Partially N Y N N N Leskovec et al. 2010
ClustRNet N Y N N N Y Bansal et al. 2009
Gleeson N N Y Y N N Gleeson 2009
Newman 2009 N Y Y N N Partially Newman 2009
Guo & Kraines N Y Y N N Partially Guo & Kraines 2009
Trapman N Y N N N N Trapman 2006
Growing Bipartite Y N N N Y N Guillaume & Latapy 2006
Random Bipartite N N N N Y N Guillaume & Latapy 2006
Serrano & Boguñá N Y N N N Y Serrano & Boguñá 2005
Newman 2003 N N N N Y N Newman 2003
Connecting Neighbours Y N N Y N N Vázquez 2003
Duplication-Divergence Y Y N Y N N Vázquez 2003
Random Walk on Net Y N N Y N N Vázquez 2003
Dorogovstev & Mendes Y N N Y (hidden) N N Dorogovstev & Mendes 2002
Preferential Attachment Y N N Y N N Barabási & Albert 1999
Small World N Y N N N N Watts & Strogatz 1998
Molloy & Reed N N Y N N N Molloy & Reed 1995
Erdös-Rényi Y N N N N N Erdös & Rényi 1959
Model name
Algorithm characteristics
Reference
326
sible graphs (MILO et al., 2003). The original CM procedure is much faster than heuristic
rewiring algorithms (see below) but frequently suffers from non-uniform sampling (ibid.)
and clustering coefficients344
that tend to zero (GUILLAUME; LATAPY, 2006). In our set
of models, several use CM, in general as a starting point, to generate graphs with prescribed
sequences of in and/or out degrees (BALL; BRITTON; SIRL, 2013; BARGIGLI;
GALLEGATI, 2011; GLEESON, 2009; GUO; KRAINES, 2009; HOUSE, 2014; LESKO-
VEC et al., 2010; NEWMAN, 2009; RITCHIE et al., 2014; SU; WU, 2013).
However, complex social networks usually present high clustering and low av-
erage path lengths345
, which make the graphs produced by pure CM algorithms not very
realistic. While CM random graphs reproducing only degree distributions capture some
important features of complex networks, under reasonable assumptions the clustering of the
random graphs tends to zero for large networks, what is definitely not the case with social
networks (GUILLAUME; LATAPY, 2006; NEWMAN, 2003). To address this particular
issue, Watts and Strogatz (1998) proposed a model characterized as small-world (SW).
Starting from heavily clustered networks and longer average distances, the SW algorithm
typically achieve much shorter paths by rewiring just a few edges at random. Nonetheless,
the original SW model, even if replicating clustering and average path lengths adequately,
failed to produce degree distributions similar to the ones – close to power laws346
– often
found in real networks (DOROGOVTSEV; MENDES, 2000).
Barabási and Albert (1999) presented a new family of algorithms to tackle the
problem of reproducing more realistic power law degree distributed networks, based on the
principle of preferential attachment (PA). In this model, vertices are inserted in the graph
one at a time and the links connecting to them are established to other nodes with probabili-
ties proportional to the current degree of these, in a kind of “rich-gets-richer” scheme. Ad-
ditionally, it is particularly useful for building dynamically growing networks. The graphs
344 Clustering is a topological measure of the density of short loops (usually triplets) in a graph, it is an eval-
uation of the degree to which vertices tend to locally cluster together. 345 Average path length is the average number of edges along the shortest path for all connected pairs of verti-ces. 346 The degree distribution of each vertex has the form 𝑃(𝑘)~𝑘−𝛾, where γ usually is between two and three.
Networks presenting this property are also known as “scale free” because they are free of a characteristic
scale.
327
produced this way present degree distributions following a power law but, unfortunately,
show low clustering, asymptotically converging to zero as the network grows (ALBERT;
BARABÁSI, 2002). Some authors proposed “additions” to the original PA model to atten-
uate this characteristic (DOROGOVTSEV; MENDES, 2002; SERRANO; BOGUÑÁ,
2005; VÁZQUEZ, 2003). However, the algorithms suggested have frequently limited pa-
rameter tuning and inserted “artifacts” in the generated graphs.
Another popular class of models uses heuristic reshuffling algorithms (RA) to
try to solve the problem of simultaneously reproducing many characteristics of real net-
works. The general principle is to sequentially choose two (or more) edges in the existing
graph and switch these links only if the new graph – after the swap – better respect the de-
fined constraint set (degree distributions, clustering, average path length and so on). This
procedure is reiterated until a fully constrained graph is obtained. It can be represented as a
Markov chain converging to an equilibrium distribution under known probabilities (SIN-
CLAIR, 1993). It also ensures the uniformity of the generated set of graphs for certain
types of constraints, in particular degree distribution (MIKLÓS; PODANI, 2004). This
group of algorithms has been vastly improved by several authors over time. However, the
speed of convergence still cannot be guaranteed because of the frequent necessity of “re-
starts” in the search algorithm, due to the possibility of “dead ends” (TABOURIER;
ROTH; COINTET, 2011). Even if they are frequently very demanding in terms of compu-
ting resources, many alternative algorithms have been added to this family to cope with the
discussed limitations in the last years (BANSAL; KHANDELWAL; MEYERS, 2009;
RITCHIE et al., 2014; SERRANO; BOGUÑÁ, 2005; SU; WU, 2013; TRAPMAN, 2006).
Several algorithms based on the previously presented models failed the task of
providing a reasonably generic method for generating random networks that keep, at least,
the basic measurements347
close to the real complex networks in practical computational
times (GUILLAUME; LATAPY, 2006). To address this problem, authors have introduced
more particular methods, regularly sharing some features with the general classes above.
For instance, Newman (2003) and Guillaume and Latapy (2006) proposed models based on
bipartite graphs, where degree distributions and clustering patterns are defined in a hierar-
347 Size (number of vertices and edges), average distance, clustering and (to some extent) scale freeness.
328
chical structure and then projected in a unipartite graph of individuals only, controlling both
characteristics simultaneously. Despite computationally very efficient, this method leads to
a significant number of disconnected nodes, well above the figures verified in reality.
Recent research efforts provided algorithms more capable to reproduce at least
the most relevant network parameters while being reasonably configurable to allow the
“emulation” of distinctive real networks, specifically the presence of motifs348
as the source
of clustering. Many of them are based in particular heuristic techniques of “triadic closure”
(or higher order motifs). They take unclustered graphs (usually generated using CM) as
input and try to form new edges among vertices that already have a common neighbor
(BALL; BRITTON; SIRL, 2013; BANSAL; KHANDELWAL; MEYERS, 2009; GJOKA;
KURANT; MARKOPOULOU, 2013; GUO; KRAINES, 2009; NEWMAN, 2009; RITCH-
IE et al., 2014; SU; WU, 2013; TABOURIER; ROTH; COINTET, 2011; TRAPMAN,
2006). Two issues are frequent in this approach: the introduction of highly specific high-
order structures in the graphs and the excessive level of degree correlation. These problems
may yield different dynamics on the synthetic networks produced (RITCHIE et al., 2014).
Others authors have focused on advanced mathematical techniques, like Kron-
ecker graphs, to tackle the same problem (KARRER; NEWMAN, 2010; LESKOVEC et al.,
2010; SQUARTINI; GARLASCHELLI, 2011). However, such solutions require several
specific (and non-general) parameters to setup the models, usually obtained by the applica-
tion of maximum likelihood estimation methods over microdata coming from real net-
works. This prevents their usage to the cases – quite common – where only general network
metrics are available.
B.2. Algorithms comparison
As discussed before, very different models and algorithms exist to generate
random networks. This creates a problem to the scientist that has to select one (or just a
few) of them for a particular purpose. Defining the comparison dimensions, where the mul-
tiple candidates are evaluated and compared, is a common start point. Considering our tar-
get of using the selected model to generate a particular kind of human social network, it is
348 Sub-graphs that frequently repeat themselves in the network.
329
proposed a criterion based in two macro dimensions: the constraint set and the performance
attributes that each model supports or presents. Tabela 8 and Tabela 9 summarize the pre-
liminary findings, according to the several sub-dimensions analyzed.
Tabela 8 – Constraints imposed on random network generation by models.
Source: author’s analysis.
Before entering into the details about each model capabilities and performance,
a general appraisal can be made based on their technical roots. The selected algorithms
usually present limitations (or problems) according to the class they belong (as detailed in
section B.1). For example, growing network (GN) algorithms, that randomly assign links to
an initially unconnected group of nodes, respecting a set of constraints, generally require
special coding design for each set and produce particular artifacts. On the other hand, Re-
Average
path
distance
Average
degree
Average
clustering
Power law
degree distr.
Degree
distribution
Joint degree
distribution
(correlation)
Degree-
dependent
clustering
Motif
distribution
Clustered Configuration Model Y Y Y Y Y N N Y
Motif Decomposition Y Y Y Y Y N Partially Y
Big-V Y Y Y Y Y N Partially Y
House Y Y Y Y Y N N N
Su & Wu Y Y Y Y Y N N Partially
Ball et al. Y Y Y Y Y Partially N N
2.5K-graphs Y Y Y Y Y Y Y N
k-edge Switching Y Y Y Y Y Y N N
Expected Degree Y Y Y Y Y Y N N
Karrer & Newman Y Y Y Y Y Partially Partially Y
Squartini & Garlaschelli Y Y Y Y Y Y Y Y
KronFit Y Y Y Y Y Y Partially N
ClustRNet Y Y Y Y Y N Y N
Gleeson Y Y Y Y Y Partially Y Partially
Newman 2009 Y Y Y Y Y N N N
Guo & Kraines Y Y Y Y Y N N N
Trapman Y Y Y Y Y N N N
Growing Bipartite Y Y Y Y N N Y N
Random Bipartite Y Y Y Y N N Y N
Serrano & Boguñá Y Y Y Y Y Partially N N
Newman 2003 Y Y Y Y N N N N
Connecting Neighbours Y Y Y Y N N N N
Duplication-Divergence Y Y Y Y N N N N
Random Walk on Net Y Y Y Y N N N N
Dorogovstev & Mendes Y Y Y Y N N N N
Preferential Attachment Y Y N Y N N N N
Small World Y Y Y N N N N N
Molloy & Reed N Y N Y Y N N N
Erdös-Rényi N Y N N N N N N
Model name
Network generation constraints
330
wiring/switching (RS) methods, which iteratively reassign links in an existing graph in or-
der to asymptotically converge it to the desired constraints set, are frequently more general
but need more (sometimes much more) computing resources and generate less uniformly
distributed graph sets (TABOURIER; ROTH; COINTET, 2011). Yet, CM models, based
on pre-solved mathematical optimization equations, are fast and can create highly random
sets of graphs, but demand troublesome setup and comprehensive data.
Another relevant model sub-dimension is founded on its conceptual origins.
Purely heuristic349
algorithms are rarely analytically solvable for most of their properties
(even asymptotically), requiring numerical methods to explore their characteristics and pa-
rameter spaces.350
As discussed before, real social networks cannot be adequately represented by
completely random graphs. Many tests applied on empirical network data show significant
divergence from a random graph produced by an ER model, for example (NEWMAN,
2003). Thus, an adequate model for a social-like random network generator has to impose
enough “structure” to the randomness of an ER network (ALBERT; BARABÁSI, 2002). In
particular, several structural scopes have to be addressed. Following the analytical hierar-
chy proposed by Mahadevan et al. (2006), we can define an increasing level of constraints
that a model should be able to impose in the way to generate random networks that are
gradually more similar to the real ones. Tabela 8 presents some of the most important cases.
The first three of these constraints were already presented: average path length, average
node degree and average clustering coefficient. These three full-graph metrics are usually
the accepted minimum requirements for producing synthetic social networks.
Going up in the hierarchy, several social networks present power law degree
distributions, so it is important that the model is able to ensure its reproduction, even if
some real networks may not follow this criterion closely. Better synthetic network genera-
tion control can be provided by algorithms that allow for constraining the entire (in and out)
degree distribution of the nodes. Newer methods even consider the joint degree distribution
349 Experience-based solutions, frequently obtained by trial-and-error, not guaranteed to be optimal. 350 In this situation, models are more prone to suffer from poorly understood pathologies in portions of their
parameter space (NEWMAN, 2009).
331
control, providing the setting of the correlation degree among connecting vertices – some-
times called assortativity.351
Tabela 9 – Performance and general remarks about random network models.
Source: author’s analysis.
351 Reinforcing the fact that social networks usually present positive degree correlation (NEWMAN, 2003).
MatchingComputation
cost
Uniform
distribution
(null model)
Clustered Configuration Model 1.5K Low Y More homogeneous networks Homogeneous local clustering
Motif Decomposition 1.75K Low N Heterogeneity in clustering at the node
level, preserve motifs
Non-motif parts of the network are
weakly clustered
Big-V 1.75K High N Heterogeneity in clustering at the node
level
Can get stuck in suboptimal solutions,
requiring restarts
House 1.25K Medium Y Non-zero likelihood to any network Complexity on tuning Hamiltonian and
Su & Wu 1.5K High N Controlled number of specific motif
counts
Can get stuck in suboptimal solutions,
requiring restarts
Ball et al. 2.25K Low N Quite arbitrary parameter settings are
possible
Only Poisson degree distribution, very
specific graph structure, large degree
correlations
2.5K-graphs 2.5K Low N Double swaps with triangles
destruction
Clustering only on triangles
k-edge Switching 2K High Y Use of higher order edge switching
processes
Algorithm complexity
Expected Degree 2K Low Y Attractive theoretical properties Require assumptions such as
sparseness and/or low clustering
Karrer & Newman 1.75K High Y Allow for non-tree-like neighborhoods Flexible to handle different motif sets
Squartini & Garlaschelli 3K Medium Y No requirements on network structure Algorithm complexity
KronFit 2.5K Low Y Kronecker graph generator, flexibility
and tractability
New approach, lack of alternative
implementations
ClustRNet 1.5K High Y Clustering dynamics is possible Produces too high clustering coefficient
Gleeson 2.25K Low Y Flexibility and tractability Algorithm complexity
Newman 2009 1.25K Low Y Analytical solutions for parameters are
available
Limited maximum local clustering
Guo & Kraines 1.25K High N Finely tunable clustering Not practical for large networks
Trapman 1.25K Low N Simplicity of algorithm Graphs have a highly specific structure,
large degree correlations, small range
for the clustering parameter
Growing Bipartite 1.5K Medium N Flexibility and tractability Significant number of disconnected
vertices, non-tractable analytically
Random Bipartite 1.5K Medium N Flexibility and tractability Significant number of disconnected
vertices, non-tractable analytically
Serrano & Boguñá 1.5K Low N Flexibility Complex implementation, require
assumptions such as sparseness and/or
low clusteringNewman 2003 1.25K Low N Analytical tractability Significant number of disconnected
vertices, lack of tuning
Connecting Neighbours 0.75K Low N Local rules provide macro properties Lack of tuning controls
Duplication-Divergence 0.75K Low N Local rules provide macro properties Lack of tuning controls
Random Walk on Net 0.75K Low N Local rules provide macro properties Lack of tuning controls
Dorogovstev & Mendes 0.75K Low N Highly clusterized graphs Parameters not tunable, no degree 1
node, planar graphs only
Preferential Attachment 0.5K Low Y Power-law degree distribution Very unrealistic networks
Small World 0.25K Low Y Control (high) average clustering / low
path length
Cannot acommodare varying degree
distributions
Molloy & Reed 1K Low N Analytical tractability Unrealistic networks
Erdös-Rényi 0K Low Y Analytical tractability Very unrealistic networks
Other distinctive features Particular problemsModel name
Performance
332
Further moving up in the network structure, controlling how clustering occurs
can be also important. This may be implemented in algorithms either as a form of control
for the local clustering (a sub-graph of the network), based on the degree of the local partic-
ipating nodes352
or, at a higher level of algorithm complexity, allowing for the constraining
of the types of motifs that compose the local clustering, as well its relative frequency.
For practical reasons, not only the “quality” features of the model – or the di-
mensionality of the supported constraint set – are important. Tabela 9 compares a measure
of such dimensionality with other relevant performance indicators. Again, we follow Ma-
hadevan et al. (2006) 𝑑𝐾-series framework and propose a synthetic indicator to capture the
detailed information contained in Tabela 8. The authors characterize the properties of a
network by a hierarchical series of probability distributions that specify it at each 𝑑-sized
sub-graph level. In useful terms, this means that the degree distribution is at level 𝑑 = 1,
the joint degree distribution of sub-graphs of 2 nodes at level 𝑑 = 2 and so on. At the level
𝑑 = 𝑁, where 𝑁 is the number of nodes, you have the entire graph. The idea is that as 𝑑
increases, the distributions-constrained random network includes more properties of the
original graph, at the cost of increased model complexity. Here, we use fractional values of
𝑑 to account for intermediate steps between a new full degree distribution level – as when
one controls the general shape of the degree distribution to reproduce a power law but is
unable to completely replicate the original degree sequences.
The remaining performance measures are straightforward. Computation cost
captures the relative demand of computer resources (in an approximate way). As discussed
before, some algorithm classes may require processing times and computer memory alloca-
tions orders of magnitude higher than others. This may be not relevant for small networks
but clearly impose a practical limit for larger random networks generation.
The last proposed indicator is the suitability of the model to generate sets of
random graphs that uniformly sample from all the possible topologies under the applicable
constraint set. This is particularly important when the random graphs are being used as the
“null model” for the empirical network under analysis. Efficient statistical testing of the
352 This is usually implemented by controlling the local clustering at the triadic (or higher) level.
333
hypothesis that a random process did not generate a given network requires a uniformly and
well-behaved set of graphs as the null model.
B.3. Algorithm selection criteria
Considering the evaluated algorithms and the task in hand, some preliminary
conclusions seem clear. The capability of generating uniform distributions of random
graphs is not critical here, once we are not testing hypotheses about specific structural ele-
ments of consumer networks, but evaluating their possible effects over agent behavior. In
this case, the presence of structural characteristics in the network is an a priori assumption.
On the contrary, considering that real social networks frequently contain millions of nodes,
computation cost is naturally a key criterion while selecting models.
The next selection criterion is associated to the requirements of setup data for
each model. Detailed network microdata about is usually unavailable. On the other hand,
general-purpose network metrics are available for some large social networks. For this rea-
son, it is desirable that the random network algorithms can be configured with as few and
as general parameters as possible. Such demand may impose a restriction to models that
depend on maximum likelihood for parameters estimation, like several CM based methods.
Over the remaining adequate models, then it is probably appropriate to propose
the effective test of the two or three most promising algorithms, ranked according to their
𝑑𝐾 matching capabilities. Nevertheless, it is important to notice that methods presenting
the same 𝑑𝐾 rank are not all equal. Particular features or problems of each one (as briefly
described in Tabela 9) may still play a role. The selection of more than a single algorithm
may be relevant to avoid the potential risks associated to the issues and to allow for the
comparison of the produced networks. Significant discrepancies, between random graphs
generated by models set up under the equivalent parameterization and with similar 𝑑𝐾
ranking, most likely indicate the necessity of further evaluation of additional candidates.
335
Apêndice C: Valores de calibração
Neste apêndice são apresentados os valores de referência propostos para cada
parâmetro e valor inicial. Eles são provenientes da pesquisa empírica apresentada no Capí-
tulo 1, sempre que disponíveis, ou de premissas justificadas do modelista, a seguir.
C.1. Calibração dos parâmetros
O modelo requer a definição de 42 parâmetros agrupados em duas classes de
objetos. A primeira é composta por objetos do tipo “contêiner” – ou objetos que contêm
outros objetos. Parâmetros de objetos dessa classe afetam de forma homogênea todos os
objetos contidos neles, representando tipicamente parâmetros sistêmicos – o ambiente insti-
tucional virtual. A segunda classe é formada por objetos individuais, que modelam os agen-
tes. Os parâmetros nesse caso representam, usualmente, as premissas comportamentais in-
dividuais – potencialmente heterogêneas – de cada agente.
C.1.1. Parâmetros sistêmicos
Os parâmetros sistêmicos são frequentemente passíveis de calibração a partir da
evidência empírica ou, pelo menos, permitem o ajuste da sua ordem de grandeza com base
em informações provenientes do sistema econômico real, como discutido em cada caso.
𝒈𝑩 (taxa de crescimento do orçamento dos usuários): a taxa periódica de crescimento do
orçamento de cada objeto/agente User do modelo tem valor de referência 0, ou seja,
não é assumida variação ao longo do tempo no orçamento alocado pelos usuários para contratação do serviço de acesso à internet. Essa premissa baseia-se na evidência empí-
rica (CETIC.BR, 2006-2014; IBGE, 2014) que aponta para relativa estabilidade no pe-
ríodo em que os dados estão disponíveis (2005-2013).
𝒈𝒖𝒔𝒆𝒓𝒔 (taxa de crescimento logística da população de usuários potenciais): essa taxa é parâ-
metro da curva logística, representando a evolução do número de agentes do tipo “User” ao longo do tempo simulado. A curva logística costuma ser uma aproximação
razoável do processo de difusão de novos produtos pela população (YOUNG, 2009;
MORONE; TAYLOR, 2010). O valor de referência 0,06 para 𝑔𝑢𝑠𝑒𝑟𝑠 é proveniente do ajuste da curva logística ao perfil real de crescimento do número de usuários efetivos
da internet no Brasil (COSTA; BIANCHINI, 2008) e as expectativas de saturação des-
se mercado no longo prazo (CETIC.BR, 2006-2014; IBGE, 2014), considerando-se o
compartilhamento das conexões por mais de um usuário (por exemplo, nas residências ou nas empresas).
𝒑𝒐𝒑𝟎 (quantidade inicial de conexões potenciais ao serviço): número inicial de objetos
“User” que dispõe de conexão à internet, os agentes do tipo usuário do serviço de aces-
336
so (por exemplo, um indivíduo, um domicílio ou uma empresa). Adotado o valor de
120, representando um mercado inicial diretamente endereçável de cerca de 1.200.000
de conexões potenciais, compatível com a ordem de grandeza dos dados históricos – bastante imprecisos – sobre conexões efetivas no Brasil nos anos 1990 (SEPIN, 2000).
O valor selecionado é o que permite o ajuste mais adequado da curva logística aos da-
dos reais durante todo o período de simulação.
𝒑𝒐𝒑𝒎𝒂𝒙 (quantidade final de conexões potenciais): esse é o nível final da curva logística de
crescimento do número de conexões à internet no modelo. O valor de referência adota-
do, 6.400, representa um mercado real equivalente a 64 milhões de conexões poten-ciais, com base nas pesquisas de intenção de consumo disponíveis (CETIC.BR, 2013,
2014) e o limite mínimo de preço mensal (R$ 10) que tem viabilizado a prestação de
serviços de telecomunicações no Brasil, conforme discutido no Capítulo 1.
𝜽 (proporção de tomadores de decisão na população de usuários potenciais): como o
modelo trabalha com conexões com a internet que podem ser usadas por mais de um usuário (um domicílio, por exemplo), esse parâmetro representa a parcela da população
que efetivamente escolhe o provedor de acesso. O valor adotado é de 0,35, represen-
tando que, em média, uma conexão de acesso ao serviço atende 2,86 usuários (CE-TIC.BR, 2013-2014).
𝑵𝒆𝒕𝒕𝒚𝒑𝒆 (modelo de rede social): a rede social utilizada é gerada a partir de random walks em
uma sub-rede do serviço de rede social online Facebook (Facebook New Orleans). Esse modelo foi escolhido por ser, em princípio, uma representação adequada da rede
Facebook como um todo (GJOKA et al., 2013), já analisada em detalhes, além de con-
tar com dados anonimizados e públicos (VISVANATH, 2009).
𝑻𝒂𝒗𝒈 (tempo médio de duração do contrato de serviço): representa o período que os usuários
se comprometem, em média, com os provedores de acesso contratados. O valor de re-
ferência adotado é de 4 UT (unidades de tempo), oriundo da evidência anedótica de
prevalência da oferta de contratos com duração de um ano (ou quatro trimestres).
𝑻𝒗𝒂𝒓 (desvio padrão do tempo de duração do contrato): indica o desvio padrão do período dos contratos firmados pelos usuários com os provedores de acesso. O valor escolhido
como referência para a simulação foi de 2 UT, na premissa de que não existe variação
significativa da duração dos contratos fora da faixa 6-18 meses. Isso é compatível com
a evidência anedótica, que apresenta casos de ofertas com duração 𝑇𝑎𝑣𝑔 desde um até
oito trimestres, apesar de se considerar que a quantidade de usuários nessas ofertas li-
mítrofes é pouco relevante.
𝒄𝒎𝟎 (relação entre custo de manutenção e preço inicial da tecnologia): o custo de manuten-
ção das redes é representado como um percentual do custo de capital das redes. Esse critério é aderente à realidade empírica e razoavelmente estável. O valor de referência
adotado, 0,0053 por UT (trimestre), baseia-se na média histórica do mercado brasileiro
(TELEBRASIL, 2014; relatórios financeiros dos provedores).
𝒑𝒊𝒏𝒄𝒓 (probabilidade Poisson da inovação incremental no tempo): o valor médio adotado para
o período entre inovações incrementais, parâmetro de uma distribuição Poisson, é de 8
UT. Essa referência, equivalente a dois anos, baseia-se em evidência anedótica obtida
durante a pesquisa empírica, que indicou baixa probabilidade de incrementos anuais
consecutivos.
𝒑𝒓𝒂𝒅 (probabilidade Poisson da inovação radical no tempo): o valor de referência utilizado
para o intervalo médio entre inovações radicais, 28 UT, baseou-se nas informações co-
337
letadas no Capítulo 1 (SEPIN, 2000; TELEBRASIL, 2014). Deve-se ressalvar a popu-
lação reduzida de eventos desse tipo (3) na curta história do setor, além da premissa da
manutenção desse período médio durante a simulação, o que pode levar a erros de ava-liação relevantes.
𝒑𝒊𝒏𝒄𝒕𝒆𝒄𝒉 (desconto disponível para incumbentes): a disponibilidade de preços preferenciais para
provedores do grupo dos incumbentes é simulada por meio desse parâmetro. Foi arbi-trado o valor de referência 0,3 (desconto de 30%) com base em informação anedótica,
uma vez que os descontos “por volume e relacionamento” praticados pelos fornecedo-
res de equipamentos não são normalmente públicos.
𝑻𝒅𝒆𝒑𝒓𝒕𝒆𝒄𝒉 (período de utilização dos equipamentos de rede antes da depreciação): é o período
máximo de utilização dos equipamentos de rede anteriormente à sua desativação e
substituição por outros mais modernos. O valor adotado de 40 (dez anos) representa a
prática corrente no Brasil, conforme informação anedótica, e é compatível com o prazo estipulado pela Receita Federal brasileira.
𝒗𝒊𝒏𝒄𝒓 (desvio padrão reduzido da produtividade da inovação incremental): o valor de refe-rência arbitrado para o desvio padrão (em múltiplos da média) do aumento da produti-
vidade das inovações incrementais é de 0,049. Essa premissa foi ajustada de forma a
manter a possibilidade de incrementos significativos da produtividade pelas inovações radicais, sem desconsiderar a ocorrência de inovações incrementais relevantes ao longo
da vida das tecnologias, de acordo com a evidência da variação dos custos do setor nos
EUA (CROES, 1995; GREENE, 1997; NEWMAN, 1999; BLS, 2014), em função da indisponibilidade desse tipo de informação no Brasil. Esse valor é proporcional ao pe-
ríodo médio 𝑝𝑖𝑛𝑐𝑟 entre inovações incrementais e representa um incremento anual mé-
dio de produtividade de 2,5%.
𝒗𝒓𝒂𝒅 (desvio padrão reduzido da produtividade da inovação radical): cada inovação radical
no setor de redes para acesso à internet representou, historicamente, um desvio padrão
equivalente a 1,7 vezes a produtividade média da tecnologia anterior. Esse valor foi adotado considerando-se a diferença histórica da produtividade entre a primeira (dial-
up) e a segunda (ADSL) geração da tecnologia de acesso à internet, a partir da variação
dos custos industriais nos EUA (BLS, 2014).
𝒄𝒇 (custo fixo por usuário): o modelo assume custo fixo por usuário ativo na rede do pro-
vedor, com valor de referência de 102 UM/UT, ou o equivalente à R$
34,00/mês/usuário, obtido da informação histórica (TELEBRASIL, 2014; relatórios fi-nanceiros dos provedores). Essa é uma premissa conservadora, pois é razoável supor
que o custo fixo cai ao longo do tempo, apesar de a evidência disponível não apontar
nessa direção.
𝒄𝒔 (fator de escala para custos operacionais): foi assumido um valor de referência arbitrá-
rio de 0,9, de maneira a proporcionar ganhos de escala crescentes, mas modestos, cuja
existência é indicada pela evidência empírica, mesmo com a dificuldade de mensura-ção do valor adequado para seu impacto.
𝒆𝒎𝒂𝒙 (número máximo de entrantes por período): como a decisão de entrada é tomada de
forma apenas parcialmente endógena ao modelo, considerou-se conveniente limitar o
número de entrantes em um dado período, adotando-se o valor arbitrário de até 1 novo
provedor entrando no mercado a cada UT. Essa restrição procurou aproximar a evidên-cia histórica sobre entrada de provedores (ANATEL, 2011; TELEBRASIL, 2014) à di-
nâmica de atração de entrantes no modelo.
338
𝒈𝒔𝒔𝒆𝒏𝒔 (sensibilidade do market share – variação mínima perceptível): valor do threshold de
responsividade comportamental dos provedores a variações na taxa de mudança dos
market shares, para capturar no modelo a percepção de que os agentes do setor concre-
to reagem apenas a alterações que não sejam muito pequenas na taxa. A referência da
sensibilidade 𝑔𝑠𝑠𝑒𝑛𝑠 foi arbitrada em 0,05, dada a indisponibilidade de dados empíricos.
𝒌𝟎 (tamanho médio da rede do provedor entrante): à medida que o número de usuários no
setor cresce, aumenta o tamanho médio dos provedores entrantes, conforme a razão 𝑘0,
com valor arbitrado de 0,055. Esse número foi escolhido com base no tamanho do en-
trante de maior sucesso no histórico setorial (TELEBRASIL, 2014).
𝒏𝒆𝒙𝒊𝒕 (número de períodos com resultados ruins antes da saída do mercado): a saída de fir-
mas do mercado acontece após 𝑛𝑒𝑥𝑖𝑡 períodos consecutivos com resultados ruins (caixa ou market share), segundo a equação (62). O valor de referência foi arbitrado em 20
UT, ou o equivalente a cinco anos ruins, por falta de dados empíricos específicos.
𝒏𝒎𝒊𝒏𝒔𝒕𝒓𝒂𝒕 (número mínimo de períodos entre mudanças de estratégia competitiva da firma): o
processo de aprendizado adaptativo dos provedores é limitado pelo número de períodos
necessário para a avaliação da estratégia corrente. O valor foi arbitrado em 12 UT (ou três anos), devido à dificuldade de obtenção de dados empíricos dessa natureza.
𝑷𝒎𝒂𝒙 (preço máximo do serviço de acesso): é o preço mensal máximo que os provedores podem oferecer pelo serviço, simulando um teto fixado, por exemplo, a partir de uma
determinação governamental. No entanto, seu valor de referência na simulação é 600
UM (unidades monetárias) para cada objeto “User” – representando um grupo de 10.000 usuários reais. O número adotado é próximo ao orçamento máximo disponível
para cada User (~R$ 200/mês), conforme evidência (CETIC.BR, 2014a), indicando a
inexistência de limite efetivo na prática, como apontado no Capítulo 1.
𝒑𝒔𝒕𝒆𝒑 (taxa de variação de preços): quando no modelo o provedor decide alterar seu preço,
ele realiza isso em incrementos ou decrementos 𝑝𝑠𝑡𝑒𝑝 do preço do período anterior,
gradativamente. Esse tipo de comportamento pode ser observado na evidência empíri-
ca, que mostra serem muito mais frequentes os ajustes incrementais de preços, em de-
trimento de alterações radicais – que, porém, também são verificados. O valor de refe-rência adotado é de 0,05 por UT (5%), escolhido para capturar a ordem de grandeza da
evidência anedótica.
𝒒 (sensibilidade do usuário à disponibilidade de capacidade de rede): como não existe
relação linear entre capacidade de rede e qualidade, o fator 𝑞 ajusta essa não linearida-
de como mostrado na equação (23). Por falta de dados para aferição desse valor, foi ar-bitrado o valor de referência 0,5 para o parâmetro. A evidência anedótica aponta para
valores de 𝑞 significativamente menores do que 1.
𝒓𝟎 (taxa base de juros por período): foi adotado como referência o valor médio da taxa de
juros real de mercado (por exemplo, BNDES) disponível para os provedores no ano de
2010 (relatórios financeiros dos provedores), equivalente a 0,042 por UT, ou 17,8% ao ano antes dos impostos (pre-tax). O valor pontual foi escolhido em função da tendência
decrescente desse valor ao longo da série histórica, uma vez que ele é mantido constan-
te durante a simulação.
𝒓𝒊𝒏𝒄 (diferencial de juros disponível para incumbentes): oferta de taxas de juros diferencia-
das para os incumbentes, normalmente associada à obtenção de financiamentos com
taxas subsidiadas de financiadores como o BNDES, frequentemente não disponíveis para entrantes. Foi adotado o valor de referência de 0,83, relativo à diferença entre as
339
melhores taxas médias reais oferecidas pelo BNDES e o valor médio da taxa de juros
real disponível para os grandes provedores (relatórios financeiros), assumindo que o
BNDES seja responsável por cerca de 50% do funding dessas firmas.
𝒓𝒍𝒆𝒗 (sensibilidade da taxa de juros à alavancagem): parâmetro indicando a sensibilidade
positiva da taxa de juros disponível para o provedor em relação à sua alavancagem fi-nanceira, segundo a equação (57). O valor de referência arbitrado de 0,1 procura captar
esse fenômeno indicado pela evidência empírica.
𝒓𝒔𝒊𝒛𝒆 (sensibilidade da taxa de juros ao tamanho da firma): A taxa de juros de cada provedor
tem, ainda, sensibilidade negativa para o tamanho do provedor, medido pelas suas re-
ceitas, como apontam os dados. O valor dessa sensibilidade, entretanto, não está dispo-nível e foi arbitrado em 0,01.
𝒔𝒆 (market share mínimo não ocupado para estimular entrada): a decisão de entrada de novas firmas no mercado é estimulada (“acelerada”) pela existência de uma parcela de
usuários potenciais não atendidos pelos provedores existentes – por causa dos preços
elevados. O valor de referência arbitrado é de 0,05, devido à inexistência de dados em-
píricos, apesar de a tendência de estímulo adicional para a entrada nessas situações ser recepcionada pela evidência anedótica.
𝒔𝒊𝒏𝒄 (market share mínimo para provedor ser considerado incumbente): de acordo com
dados históricos de diversos setores, as firmas maiores detêm vantagens comparativas
na competição. O parâmetro 𝑠𝑖𝑛𝑐 auxilia na identificação dos provedores que dispõem
dessa condição – os incumbentes –, indicando o market share mínimo de qualificação, adotado no limite inferior clássico de 20% (SEAE; SDE, 2001).
𝒔𝒎𝒊𝒏 (market share mínimo para provedor continuar no mercado virtual): os provedores que
mantêm market share inferior a 𝑠𝑚𝑖𝑛 por 𝑛𝑒𝑥𝑖𝑡 UT são eliminados do mercado por
conveniência analítica, dada sua contribuição pouco relevante para os processos setori-
ais. O valor de referência arbitrado é de 1%, frequentemente adotado pelas entidades que realizam levantamentos de mercado para considerar o aporte individual das firmas.
𝑻𝒎𝒊𝒏𝒆 (período mínimo entre entradas no mercado): frequentemente, existem restrições práti-
cas ou regulatórias para a entrada de novos provedores no mercado (licenças, acesso a
recursos críticos etc.), retardando o processo. O parâmetro 𝑇𝑚𝑖𝑛𝑒 tenta capturar parcial-
mente esse efeito – em conjunto com 𝑒𝑚𝑎𝑥 –, restringindo a entrada apenas aos perío-
dos múltiplos de 𝑇𝑚𝑖𝑛𝑒 . A despeito da existência de importante evidência empírica so-
bre as barreiras à entrada, como apresentado no Capítulo 1, a forma com que elas são
modeladas é arbitrária, buscando, no entanto, reproduzir qualitativamente o perfil veri-
ficado historicamente. O valor de referência escolhido foi de 4 UT, ou seja, a entrada é avaliada pelas firmas candidatas anualmente.
𝑻𝒊𝒏𝒄 (período mínimo de mercado para provedor ser considerado incumbente): em conjunto
com 𝑠𝑖𝑛𝑐, esse parâmetro define o tempo mínimo no mercado para uma firma poder ser
considerada incumbente. O requerimento de tempo mínimo para entrada no grupo dos
incumbentes é suportado pela evidência empírica, apesar de o valor de referência ado-tado, 20 UT (cinco anos), ser arbitrário, em função da dificuldade de obtenção desse
tipo de informação objetivamente.
𝑻𝒑𝒍𝒂𝒏 (período de planejamento de rede): em virtude da complexidade técnica da tarefa, do
tempo de implantação necessário e das escalas mínimas aplicáveis. A expansão e a re-
dução das redes dos provedores acontecem em ciclos de 𝑇𝑝𝑙𝑎𝑛 períodos. Conforme a
evidência empírica, o valor de referência estipulado é de 4 UT, ou um ano.
340
C.1.2. Parâmetros comportamentais individuais
Por causa da indisponibilidade de dados empíricos para a calibragem da maioria
dos parâmetros das equações comportamentais, as faixas de variação de referência foram
frequentemente arbitradas pelo modelista, em geral por meio de distribuições uniformes
relativamente amplas e médias razoavelmente “neutras”. O objetivo foi adotar valores que
permitissem a reprodução próxima do mercado real, segundo as diretrizes da metodologia
history-friendly. Eles serão objeto de especial atenção durante a análise de sensibilidade.
𝒃𝟏𝒌 (sensibilidade para preço): o parâmetro da equação (25), que pondera a importância do
preço na ponderação do usuário, varia, de modo aleatório e uniforme, entre 0,0 e 1,0 e
média 0,5, para cada “User”, mantendo-se constante durante toda a simulação.
𝒃𝟑𝒌 (sensibilidade para influência da rede social): a ponderação da importância das esco-
lhas dos vizinhos na rede social do usuário na sua decisão de compra varia aleatoria-mente com média 0,4. Cada “User” mantém esse valor durante a simulação.
353
𝒆𝒅𝒌 (desvio padrão do erro de avaliação da qualidade da rede): o valor do desvio padrão do
erro, inerente à acuidade do usuário na percepção de qualidade do serviço, é sorteado
uniformemente entre 0,0 e 0,5, com média 0,25 para cada “User” e mantido fixo.
𝒆𝒔𝒌 (margem mínima de melhoria para substituição do provedor atual): o múltiplo do valor
da utilidade percebida requerida para a troca do provedor de acesso é sorteada entre 1,0
e 1,5, uniformemente, com média 1,25 (25% de melhoria) para cada “User”.
𝒎𝑳𝒊 (meta de rentabilidade sobre o capital empregado): valor que representa o objetivo de
rentabilidade do provedor para cada período de planejamento 𝑇𝑝𝑙𝑎𝑛 (quatro UT ou um
ano), mantido fixo em 0,17 (17%) antes dos impostos (IR/CSLL) para todos os prove-dores. Esse valor é proveniente do benchmark empírico específico do setor em análise
(relatórios financeiros dos provedores).
𝒎𝑴𝒊 (meta de qualidade de rede): valor-alvo para a qualidade da rede do provedor no plane-
jamento, variando inicialmente entre 0,5 e 1,5 (sorteio com distribuição uniforme) e
média 1,0 para cada provedor, com base na evidência de que os provedores buscam posicionar-se com diferentes estratégias de qualidade. Os valores escolhidos, entretan-
to, são arbitrários e podem ser alterados endogenamente conforme a estratégia adotada
pelo provedor.
𝒎𝑸𝒊 (perfil de resposta do planejamento de capacidade relativo ao passado): no momento de
realizar a projeção da demanda futura, cada provedor usa expectativas adaptativas ba-
seadas no crescimento do passado. O parâmetro 𝑚𝑄𝑖 representa a parcela do desempe-
nho anterior que o provedor projeta para o próximo período de planejamento. Esse procedimento baseia-se na experiência anedótica disponível. O valor de referência es-
colhido, 0,5, é igual para todos os provedores e é mantido constante, obviamente uma
simplificação do comportamento real dos agentes.
353 Escolhidos 𝑏1
𝑘e 𝑏3𝑘, para cada usuário, o valor de 𝑏2
𝑘 fica definido (média igual a 0,1) dentro do simplex
unitário (equação (25)).
341
C.2. Calibração dos valores iniciais
São nove variáveis que requerem valores iniciais não triviais (diferentes de ze-
ro), sempre que possível com origem na evidência empírica.
𝑩𝒕𝟎𝒌 (orçamento inicial de cada usuário): o valor do orçamento disponível, para contratação
de serviço de acesso à internet, em cada objeto User é gerado aleatoriamente com base
em uma distribuição normal truncada – somente são utilizados valores maiores do
que 30 –, com média 92 e desvio padrão 98 UM/UT, ou o equivalente a um piso
mensal de R$ 10, média de R$ 31 e desvio padrão de R$ 33. Essas referências foram
estabelecidas com base na evidência empírica (CETIC.BR, 2013-2014).
𝒑𝒓𝒐𝒗𝟎𝒌 (provedor de acesso inicial dos primeiros usuários): cada indivíduo da população 𝑝𝑜𝑝0
em 𝑡 = 0 tem um provedor associado para os primeiros 𝑇𝑎𝑣𝑔 (quatro UT) períodos de simulação. Os usuários iniciais são distribuídos aleatoriamente, de modo uniforme,
entre os 𝑁0𝑝𝑟𝑜𝑣
provedores iniciais. O orçamento 𝐵0𝑘 desses usuários é automaticamen-
te ajustado para o preço 𝑃0𝑖 do provedor alocado.
𝒈𝒓𝒐𝒖𝒑𝒕𝟎𝒊 (grupo social inicial de cada provedor – 0: entrante, 1: incumbente): todos os provedo-
res existentes no início da simulação são considerados incumbentes (𝒈𝒓𝒐𝒖𝒑 = 𝟏). To-
das as firmas que entram após o período 𝑡 = 0 são configuradas inicialmente como en-
trantes (𝒈𝒓𝒐𝒖𝒑 = 𝟎).
𝑵𝟎𝒑𝒓𝒐𝒗
(número inicial de provedores): quantidade inicial de objetos Provider, representando
os agentes do tipo provedor de acesso à internet. Iniciado com o valor 4, considerando-
se a evidência histórica (TELEBRASIL, 2014).
𝑷𝟎𝒊 (preço inicial dos primeiros provedores): o preço de referência para os provedores exis-
tentes no início da simulação é arbitrado como sendo 𝑷𝒎𝒂𝒙
𝟐 e igual para todos. Firmas
entrantes em 𝑡 > 0 utilizam o preço médio praticado no mercado como referência e
não dependem desse valor.
𝑸𝒕𝟎𝑴,𝒊
(capacidade de rede instalada inicial de cada provedor): a capacidade da rede com que
cada firma inicia no mercado de acesso à internet é gerada por sorteio com distribuição
normal, média de 25 UC (unidades de capacidade) e desvio padrão de 25 UC. O va-
lor escolhido é, grosso modo, compatível com o número inicial 𝑝𝑜𝑝0 de usuários, pro-veniente da análise empírica.
𝒔𝒕𝒓𝒂𝒕𝒕𝟎𝒊 (estratégia de negócio inicial de cada provedor): a estratégia inicial de cada firma é
sorteada aleatoriamente354
entre aquelas disponíveis, conforme o grupo (𝑔𝑟𝑜𝑢𝑝𝑡0𝑖 ) ao
qual o provedor pertence. Adequando a matriz de estratégias à evidência empírica
(TELEBRASIL, 2014; relatórios financeiros), as estratégias de números 9 e 19 (preço-
alvo igual ao custo médio do mercado) foram desabilitadas.
𝒂𝟎𝟏 (produtividade inicial da primeira tecnologia): o valor da produtividade da primeira
tecnologia de rede, o inverso do seu preço por UC (unidade de capacidade), foi arbitra-
354 Em virtude da escassa informação empírica disponível. A escolha arbitrária de uma estratégia particular
única poderia comprometer os resultados do modelo, ao limitar a experimentação dos agentes na busca por
estratégias melhores. Em situações como essa, Brenner e Werker (2007) sugerem que seja experimentado o
maior número possível de alternativas. Dessa forma, foram ativadas todas as estratégias definidas na Tabela 4
à exceção de duas.
342
do em 0,00093 UC/UM. Esse número guarda relação com a ordem de grandeza do
custo histórico médio da primeira tecnologia de acesso à internet (dial-up), de R$
1.080,00 por acesso (CROES, 1995; GREENE, 1997; NEWMAN, 1999).
𝑸𝒎𝒊𝒏𝟏 (capacidade mínima de instalação ou expansão da primeira tecnologia): foi escolhida
uma modularidade mínima de 10 UC para a implantação ou expansão da primeira tec-nologia de rede disponível, de forma arbitrária, mas compatível com os demais valores
iniciais.
C.3. Calibração dos parâmetros da rede social
Os vetores de parâmetros requeridos pelo algoritmo de geração de redes pseu-
doaleatórias 2.5K-Graphs foram obtidos por meio de estimação estatística, utilizando-se o
método de máxima verossimilhança, com base em amostras geradas por random walks so-
bre redes sociais online reais. A amostragem é essencial para a estimação dos parâmetros,
uma vez que as redes são muito grandes e o seu processamento completo requer recursos
computacionais elevados, além de sujeito a restrições comerciais dos provedores de conte-
údo.
Não é possível, em geral, realizar-se a amostragem de redes sociais online pela
extração aleatória direta das listas de usuários (nós), devido às limitações técnicas normal-
mente impostas pelos seus provedores. Para superar isso, é frequentemente utilizado o mé-
todo de “crawling” (“rastejamento”), que percorre a rede desde um conjunto inicial de nós
e seguindo através de suas conexões, para descobrir elementos para amostragem.
Um dos problemas das técnicas de crawling é garantir que a amostra obtida seja
uniforme (não viesada), ou que possa ser reponderada para se aproximar da uniformidade,
pelo menos de forma assintótica.355
Para evitar o problema, foi empregado o método co-
nhecido como random walk com reponderação. Normalmente, a amostragem por random
walk puro introduz viés para os nós de grau mais alto. Mas, como esse viés pode ser esti-
mado, utilizando-se análise de cadeias de Markov, a reponderação da probabilidade de
acesso a cada elemento permite a geração de amostras razoavelmente uniformes (GJOKA
et al., 2011).356
355 Como o processo de amostragem de rede por crawling depende de propriedades dos nós já amostrados,
essa questão é pertinente. Por exemplo, é sabido que o algoritmo mais popular de crawling, o Breadth-First
Search (BFS), é particularmente propenso a produzir amostras viesadas (SALA et al., 2010). 356 Um dos motivos da utilização da rede Facebook foi a disponibilidade de amostras realmente aleatórias de
partes dessa rede (GJOKA et al., 2010). Com isso, foi possível avaliar que o algoritmo de crawling seleciona-
343
A partir da amostra obtida pela técnica proposta – uma sub-rede representativa
da rede original –, são gerados os parâmetros relativos à distribuição de grau conjunta
(𝐽𝐷𝐷(𝑢, 𝑣)) e à distribuição do valor médio de clustering grau-dependente (𝑐�̅�(𝑢)). Eles são
necessários para a configuração do algoritmo de geração de redes pseudoaleatórias.
Para a geração dos parâmetros de rede, foi escolhida uma sub-rede da rede soci-
al online Facebook, extraída na região da cidade americana de New Orleans por Viswanath
et al. (2009) entre 29/12/2008 e 03/01/2009, utilizando breadth-first-search (BFS) crawling
com reponderação. Iniciando a extração a partir de um usuário aleatório, foram extraídos
63.392 pessoas com perfis visíveis, representando 37% do universo de usuários nessa loca-
lidade na época, os quais possuíam 816.884 ligações de amizade. Essa sub-rede foi selecio-
nada por ser bastante conhecida e representativa do serviço Facebook.
do produz amostras efetivamente uniformes para essa rede em particular, por meio da comparação de múlti-
plos parâmetros entre redes obtidas pelos dois métodos de amostragem (GJOKA et al., 2011).
345
Apêndice D: Resultados da análise de sensibilidade
Este apêndice apresenta os resultados obtidos durante a análise de sensibilidade
do modelo de simulação, conforme especificado no Capítulo 4.
Os pontos selecionados para teste dos parâmetros estão na Tabela 10. São testa-
dos quatro pontos – V1 a V4 – para cada parâmetro, além do valor inicial de calibração –
V0. Eles foram definidos com base em uma dupla estratégia. Para valores com referências
empíricas disponíveis – indicadas por “Ref. mín.” e “Ref. máx.” – utilizaram-se esses valo-
res. Nos demais casos, os valores foram arbitrados objetivando a compatibilidade com as
ordens de grandeza empíricas.
V1 e V4 foram escolhidos para representar os limites inferior e superior de tes-
te, considerando-se factibilidade, razoabilidade e grandeza. V2 e V3 foram selecionados
para indicar os extremos de variação “esperados”, com base na evidência empírica, sempre
que disponível.
Tabela 10 – Valores para teste de sensibilidade dos parâmetros.
Parâmetro V0 Ref. mín. Ref. máx. V1 V2 V3 V4
𝒈𝑩 0 -0,0345 0,0740 -0,0086 -0,0043 0,0093 0,0185
𝒈𝒖𝒔𝒆𝒓𝒔 0,06 0,04 0,05 0,07 0,08
𝒑𝒐𝒑𝟎 120 43 43 80 160 200
𝒑𝒐𝒑𝒎𝒂𝒙 6400 4800 5000 6000 7000 8000
𝜽 0,35 1,0 0,2 0,3 0,4 0,5
𝒕𝒚𝒑𝒆𝑵𝒆𝒕 FB St. Louis
Aleatória uniforme
Erdős-Rényi
Small-World
Scale- free
𝑻𝒂𝒗𝒈 4 2 8 2 3 5 6
𝑻𝒗𝒂𝒓 2 0,5 1 3 4
𝒄𝒎𝟎 0,0053 0,0045 0,006 0,003 0,0045 0,006 0,008
𝒑𝒊𝒏𝒄𝒓 8 8 4 6 10 12
𝒑𝒓𝒂𝒅 28 20 36 12 20 36 48
𝒑𝒊𝒏𝒄𝒕𝒆𝒄𝒉 0,3 0,3 0 0,15 0,4 0,5
𝑻𝒅𝒆𝒑𝒓𝒕𝒆𝒄𝒉 40 40 12 20 48 60
𝒗𝒊𝒏𝒄𝒓 0,049 0,049 0,02 0,04 0,06 0,08
𝒗𝒓𝒂𝒅 1,7 1,7 1,2 1,5 1,9 2,2
𝒄𝒇 102 89 110 76 89 110 118
346
𝒄𝒔 0,9 0,7 0,8 1 1,1
𝒆𝒎𝒂𝒙 1 0 2 3 4
𝒈𝒔𝒔𝒆𝒏𝒔 0,05 0 0,025 0,075 0,1
𝒌𝟎 0,055 0,055 0,01 0,025 0,075 0,1
𝒏𝒆𝒙𝒊𝒕 20 4 12 28 40
𝒏𝒎𝒊𝒏𝒔𝒕𝒓𝒂𝒕 12 4 8 16 20
𝑷𝒎𝒂𝒙 600 300 500 700 900
𝒑𝒔𝒕𝒆𝒑 0,05 0,01 0,025 0,1 0,2
𝒒 0,5 0,12 0,25 0,75 1,5
𝒓𝟎 0,042 0,023 0,0475 0,01 0,023 0,0475 0,06
𝒓𝒊𝒏𝒄 0,83 0,83 0,6 0,7 0,9 1
𝒓𝒍𝒆𝒗 0,1 0 0,05 0,2 0,3
𝒓𝒔𝒊𝒛𝒆 0,01 0 0,005 0,02 0,04
𝒔𝒆 0,05 0,01 0,03 0,075 0,1
𝒔𝒊𝒏𝒄 0,2 0,2 0,1 0,15 0,3 0,5
𝒔𝒎𝒊𝒏 0,01 0,001 0,005 0,025 0,05
𝑻𝒎𝒊𝒏𝒆 4 1 2 8 16
𝑻𝒊𝒏𝒄 20 8 16 24 32
𝑻𝒑𝒍𝒂𝒏 4 4 1 2 8 12
�̅�𝟏𝒌 * 0,50 0 0,4 0,6 1
�̅�𝟑𝒌 * 0,40 1 0,5 0,3 0
𝒆𝒅𝒌
0 0 0 0,5 1
0,5 0 0,25 1 2
𝒆𝒔𝒌
1 1 1 1 1
1,5 1 1,25 2 3
𝒎𝑳𝒊 0,17 0,14 0,19 0,07 0,14 0,19 0,25
𝒎𝑴𝒊
0,5 1 0,75 0,25 0,1
1,5 1 1,25 2 4
𝒎𝑸𝒊 0,5 0,2 0,4 0,75 1
𝑩𝒕𝟎𝒌,𝒂𝒗𝒈
92 84 30 60 120 150
𝑩𝒕𝟎𝒌,𝒗𝒂𝒓 98 180 50 70 120 150
𝑩𝒕𝟎𝒌,𝒎𝒊𝒏 30 30 10 20 60 90
𝑵𝟎𝒑𝒓𝒐𝒗
4 2 4 1 2 6 10
𝑸𝒕𝟎𝑴,𝒂𝒗𝒈
25 10 20 30 50
𝑸𝒕𝟎𝑴,𝒗𝒂𝒓 25 10 20 30 50
𝒂𝟎𝟏 0,00093 0,00093 0,0006 0,0008 0,0011 0,0015
𝑸𝒎𝒊𝒏𝟏 10 1 5 20 50
(*Parâmetros testados conjuntamente, devido à relação de dependência; valores médios).
347
Para a análise de sensibilidade foram geradas, ainda, múltiplas “versões” aleató-
rias da rede em estudo, para as rodadas Monte Carlo. Com base em uma amostra de 64 mil
nós da rede Facebook, foram produzidos 50 grafos aleatórios distintos, com cerca de 13 mil
vértices cada, preservando-se a distribuição de grau conjunta (JDD) e a distribuição grau-
dependente de clustering, pelo algoritmo 2.5K-Graphs (GJOKA et al., 2013).
Para o teste de sensibilidade, o modelo foi executado utilizando-se alguns gera-
dores clássicos de grafos pseudoaleatórios: aleatório uniforme, Erdős-Rényi, small-world e
power-law (ou scale-free).357
Para produzirem grafos semelhantes à rede Facebook, os ge-
radores foram configurados com os parâmetros médios obtidos a partir das 50 versões alea-
tórias dessa rede, produzidos anteriormente. Esses valores são descritos na Tabela 11, em
conjunto com as principais medidas das redes produzidas pelos algoritmos.
Tabela 11 – Métricas das redes pseudoaleatórias testadas.
Parâmetro
V0
Facebook New Orleans
V1
Aleatória uniforme
V2
Erdős-Rényi
V3
Small-world
V4
Power-law (scale-free)
Número de nós
12.839 12.839* 12.839* 12.839* 12.839*
Número de conexões
181.066 359.104 179.720 179.648 179.738
Densidade 0,0022 0,0044 0,0022 0,0022 0,0022
Diâmetro 10,36 4,00 4,12 5 2
Caminho médio
mais curto
3,56 2,78 3,13 3,47 2,00
Grau médio 28,32 28,00* 28,00* 27,99* 28,00*
Clustering médio
0,201 0,009 0,004 0,483 0,012
Assortativity de grau
-0,038 -0,009 >0,001 -0,009 -0,039
Expoente power-law
2,01 19,49 17,68 2,41 1,89*
Rewiring 0,305*
(Valores médios de 50 redes geradas por cada algoritmo. *valor de configuração).
357 Apenas o primeiro algoritmo produz redes direcionadas, ou seja, as conexões entre dois nós não são bidi-
recionais. Nesse caso, optou-se por configurar o grau de saída (igual ao de entrada).
348
Como esperado, conforme o Apêndice B, as principais medidas estruturais das
redes produzidas pelos algoritmos são bastante distintas. Nenhum deles foi capaz de repro-
duzir sequer de forma aproximada as distribuições de grau (Figura 79), de coeficiente de
clustering grau-dependente (Figura 80) ou de grau médio dos vizinhos na rede (Figura 81).
Figura 79 – Distribuição de grau de geradores de rede.
(fração dos nós da rede (usuários) para cada grau, escala logarítmica)
Fonte: elaboração do autor.
As diferenças entre as redes geradas se deve ao pequeno número de parâmetros
que definem as redes criadas pelos algoritmos clássicos, que envolvem apenas elementos
muito genéricos como a quantidade de nós e o grau médio, no caso das redes uniformes e
Erdős-Rényi, e a probabilidade de rewiring (redes small-world) ou o expoente da distribui-
ção exponencial (redes power-law). Como comparação, o algoritmo 2.5K-Graphs utilizado
para gerar as redes do cenário base (V0) utiliza alguns milhares de parâmetros – obtidos por
estimação estatística a partir da rede original – para produzir redes pseudoaleatórias com a
estrutura desejada.
Rede Facebook New Orleans
349
Figura 80 – Distribuição de clustering de geradores de rede.
(coeficiente de clustering médio para cada grau, escala logarítmica)
Fonte: elaboração do autor.
Os dados brutos gerados pelas rodadas de simulação são tratados de modo a
permitir a aferição do impacto relativo dos parâmetros nos indicadores adotados. Para tanto,
os resultados são analisados em cinco passos. No primeiro, as cinco séries temporais, gera-
das por cada valor de parâmetro (V0, V1, V2, V3 e V4) para cada indicador, são testadas,
conjuntamente, contra a hipótese de que suas médias são iguais, com a aplicação de análise
de variância (modelo de efeitos aleatórios).358
No segundo, o mesmo teste é aplicado ape-
nas às três séries produzidas por parâmetros dentro da faixa “esperada” (V0, V2 e V3).
Adotou-se nível de significância de 1% para os testes estatísticos. Em seguida, são avalia-
dos os desvios máximos das médias de cada experimento em relação ao cenário de calibra-
ção (V0), normalizados pelo desvio padrão de cada indicador. A análise é realizada tanto
358 A aplicação da análise de variância para a comparação de experimentos assume algumas premissas, como
a normalidade dos resíduos e a homocedasticia, que não podem sem garantidas para experimentos de simula-
ção. Entretanto, o método é robusto e leva a resultados válidos, por aproximação, mesmo com algum afasta-
mento dessas premissas (COSTA NETO, 1977).
Rede Facebook New Orleans
350
para o conjunto completo de valores de teste (V1-V4) quanto para aqueles que delimitam a
faixa “esperada” (V2 e V3).
Figura 81 – Distribuição do grau médio de vizinhos de geradores de rede.
(grau médio dos vizinhos de um nó da rede para cada grau, escala logarítmica)
Fonte: elaboração do autor.
Por fim, é construído um intervalo de confiança359
para o valor médio de cada
indicador no cenário V0 ao longo do tempo. Sobre esse intervalo são plotados os resultados
para os quatro valores experimentais médios dos parâmetros (V1-V4) ao longo do tempo.
Com base na plotagem, realiza-se a análise gráfica, para avaliar o afastamento dos experi-
mentos da faixa que permite considerá-los “visualmente” distintos.360
359 A premissa de distribuição amostral normal do estimador adotado (média) não pode ser garantida nesse
caso. Entretanto, considerando o tamanho das “amostras” simuladas, os intervalos de confiança representam
uma boa aproximação dos valores esperados para a “população” (COSTA NETO, 1977). 360 A análise gráfica foi realizada com base na inspeção visual do comportamento das curvas referentes a cada
valor V1-V4 assumido pelos parâmetros para cada indicador.
Rede Facebook New Orleans
351
Tabela 12 – Resultados do teste de sensibilidade dos parâmetros.
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
cs 10 8,92 S 3,13 S 2,16 S 1,19 S 1,81 S 0,90 S 0,42 S 1,98 P 0,49 S 74,15 S 2,97
gB 9 N/A S 1,82 S 0,84 S 1,07 S 1,27 S 2,30 S 0,48 S 0,85 P 0,42 N/A S 2,50
typeNet 5 0,65 S 1,43 S 0,90 S 1,12 P 0,95 N 0,74 N 0,04 N 0,03 N 0,15 P 1,06 N 0,09
Baver 8 0,52 P 1,15 P 0,42 P 0,40 P 0,90 P 0,42 P 0,21 N 0,06 N 0,10 P 1,08 S 0,43
q 7 1,06 P 1,01 P 0,68 P 0,99 P 0,62 P 0,42 N 0,06 N 0,03 P 0,25 S 6,55 N 0,04
b1-b3 10 5,23 S 1,00 P 1,57 P 0,96 S 0,86 P 2,08 P 0,23 P 1,31 P 0,25 P 41,69 P 2,32
Pmax 7 0,39 P 0,90 P 0,47 P 0,44 P 0,76 P 0,34 N 0,05 P 0,13 P 0,43 N 0,27 N 0,11
gusers 7 0,46 P 0,75 P 0,40 P 0,39 P 0,74 S 0,41 N 0,18 N 0,08 N 0,09 S 1,40 P 0,20
popmax 6 0,25 P 0,59 P 0,25 P 0,16 P 0,39 P 0,21 N 0,09 N 0,03 N 0,10 P 0,67 N 0,05
theta 6 0,26 P 0,49 P 0,17 P 0,26 P 0,52 P 0,23 N 0,08 N 0,06 N 0,15 P 0,46 N 0,12
Bvar 7 0,36 P 0,45 P 0,30 P 0,54 P 0,48 P 0,36 N 0,10 N 0,11 N 0,10 P 0,75 S 0,38
emax 10 1,50 P 0,44 P 1,45 S 4,98 S 1,18 S 1,21 P 0,63 P 0,47 P 0,36 S 3,46 P 0,84
gssens 10 0,64 S 0,43 S 1,62 P 0,65 P 0,24 S 1,07 P 0,39 S 0,37 P 0,12 S 1,06 S 0,47
mM 9 2,91 P 0,43 P 0,53 P 0,32 P 0,20 N 23,52 P 0,22 P 0,16 P 0,21 P 3,32 P 0,22
Pstep 10 1,05 P 0,42 S 0,91 P 0,72 P 0,52 S 1,11 P 0,22 S 0,71 S 2,75 S 1,99 S 1,17
smin 7 0,48 P 0,42 S 0,69 S 1,56 S 0,46 S 0,56 N 0,07 N 0,04 S 0,38 S 0,63 N 0,04
Ptechinc 9 0,31 P 0,42 P 0,49 S 0,61 P 0,33 P 0,41 P 0,19 P 0,15 N 0,05 P 0,22 P 0,20
Nprov 9 1,57 S 0,42 S 1,74 P 0,30 S 0,25 N 10,25 S 0,28 S 0,42 S 0,21 S 1,21 S 0,59
a 9 0,30 S 0,40 P 0,40 S 0,52 S 0,44 P 0,24 P 0,18 P 0,22 N 0,03 P 0,31 S 0,31
prad 10 2,41 P 0,40 P 0,85 S 0,47 S 0,67 S 3,32 S 0,38 S 0,22 P 0,34 S 17,10 S 0,38
ed 9 0,37 S 0,36 S 1,00 S 0,57 S 0,23 S 0,72 N 0,06 P 0,13 P 0,17 P 0,28 P 0,17
mL 9 0,31 P 0,36 P 0,35 P 0,46 P 0,40 P 0,46 P 0,20 P 0,20 P 0,22 N 0,19 P 0,29
pincr 4 0,28 P 0,33 P 0,67 N 0,25 N 0,25 P 0,64 N 0,03 N 0,07 N 0,09 P 0,35 N 0,08
Temin 7 0,63 P 0,32 S 0,88 S 1,65 S 0,76 S 1,23 P 0,25 N 0,09 N 0,14 S 0,81 N 0,18
Bmin 8 0,58 P 0,31 P 0,64 S 0,90 S 0,71 S 1,38 P 0,50 N 0,07 N 0,05 S 0,82 S 0,37
Tavg 5 0,29 P 0,30 P 0,69 P 0,39 P 0,36 P 0,53 N 0,10 N 0,09 N 0,06 N 0,27 N 0,10
pop0 5 0,34 P 0,29 P 0,26 N 0,29 P 0,33 N 0,12 N 0,06 N 0,12 P 0,11 P 1,66 N 0,14
cm0 3 0,19 P 0,28 N 0,42 P 0,17 P 0,16 N 0,29 N 0,10 N 0,09 N 0,06 N 0,22 N 0,11
Ttechdepr 6 0,30 P 0,27 P 0,42 P 0,36 P 0,29 N 0,85 N 0,10 N 0,09 P 0,15 N 0,35 P 0,12
rlev 3 0,34 P 0,27 N 0,42 P 0,27 P 0,22 N 1,81 N 0,07 N 0,04 N 0,06 N 0,14 N 0,05
r0 7 0,28 P 0,26 P 0,35 P 0,47 P 0,30 S 0,55 N 0,09 N 0,07 P 0,11 P 0,51 N 0,09
vrad 7 0,25 P 0,26 N 0,33 P 0,34 P 0,25 P 0,36 N 0,14 P 0,15 N 0,08 P 0,40 P 0,23
QMaver 5 0,22 P 0,26 N 0,42 P 0,21 P 0,22 P 0,40 N 0,07 N 0,06 N 0,03 S 0,44 N 0,07
mQ 1 0,17 P 0,25 N 0,33 N 0,14 N 0,21 N 0,11 N 0,06 N 0,07 N 0,08 N 0,34 N 0,13
cf 3 0,20 P 0,25 N 0,47 N 0,11 P 0,13 P 0,57 N 0,10 N 0,07 N 0,08 N 0,11 N 0,09
Qmin 7 N/A P 0,24 P 0,38 S 0,64 S 0,56 N/A N 0,07 P 0,14 N 0,09 S 3,57 P 0,25
ageavg Pavg VMRP#
signific.
(S ou P)
∆ máx
méd/dp
HHIs sTentr Nprov Mavg popcovHHIK LKTavgentr
352
Tabela 12 (continuação) – Resultados do teste de sensibilidade dos parâmetros.
Testes de impacto relevante de cada parâmetro realizados ao nível de 1% de significância.
“∆ máx méd / dp”: desvio máximo médio absoluto dividido pelo desvio padrão.
“# signif.”: número de resultados significantes.
“S”: sim, “N”: não, “P”: possível.
“N/A”: não se aplica (devido às condições particulares de simulação do cenário).
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
Signifi-
cante?
∆ máx
méd/dp
vincr 6 0.23 P 0.24 N 0.43 P 0.29 P 0.21 P 0.34 N 0.08 N 0.10 N 0.04 P 0.40 P 0.14
rsize 5 0.21 P 0.20 P 0.44 P 0.23 P 0.17 P 0.37 N 0.13 N 0.08 N 0.04 N 0.34 N 0.12
sinc 5 0.28 P 0.18 S 1.12 P 0.23 P 0.18 P 0.70 N 0.06 N 0.07 N 0.02 N 0.16 N 0.11
rinc 5 0.17 P 0.17 N 0.38 P 0.14 P 0.12 P 0.47 N 0.08 N 0.05 N 0.03 P 0.21 N 0.07
Tvar 2 0.18 N 0.17 N 0.17 N 0.19 N 0.14 P 0.33 N 0.10 N 0.09 N 0.04 P 0.46 N 0.14
QMvar 2 0.17 N 0.17 N 0.39 N 0.17 P 0.16 N 0.21 N 0.08 N 0.06 N 0.06 P 0.30 N 0.09
Tinc 6 0.23 P 0.16 P 0.68 P 0.28 P 0.20 N 0.28 N 0.11 N 0.08 N 0.07 P 0.32 P 0.14
Tplan 1 4.50 N 0.16 N 0.28 N 0.16 N 0.11 N 43.55 N 0.07 N 0.06 N 0.09 P 0.43 N 0.09
se 6 0.28 P 0.15 P 0.46 S 0.55 S 0.40 N 0.19 P 0.30 N 0.06 N 0.03 P 0.54 N 0.10
nstratmin 6 0.22 N 0.12 N 0.29 P 0.26 P 0.16 P 0.38 N 0.06 N 0.10 P 0.20 P 0.48 P 0.17
es 4 0.15 N 0.11 P 0.42 P 0.21 P 0.21 N 0.15 N 0.11 N 0.04 N 0.07 P 0.15 N 0.08
k0 4 0.32 N 0.08 S 0.66 P 0.35 P 0.48 N 0.30 N 0.10 N 0.07 N 0.09 S 0.93 N 0.10
nexit 7 N/A N 0.04 P 0.63 S 1.49 S 0.53 N/A P 0.25 N 0.11 S 0.91 S 1.05 P 0.20
VMRP Mavg popcovNprov HHIK LKTavgentr ageavg Pavg#
signific.
(S ou P)
∆ máx
méd/dp
HHIs sTentr
353
A Tabela 12 sumariza os resultados obtidos, com algumas simplificações. A
significância de cada parâmetro nos indicadores foi avaliada como positiva (“S”) quando a
análise de variância rejeitou a hipótese de as cinco médias analisadas (V0-V5) serem iguais.
No caso da rejeição da hipótese apenas no teste de três médias (V0, V2, e V3) ou na análise
gráfica do intervalo de confiança, a significância foi considerada possível (“P”). Na situa-
ção de não rejeição da hipótese de médias iguais em nenhum dos três testes, a significância
do parâmetro no indicador foi qualificada como não relevante (“N”). Os desvios máximos
das médias foram avaliados conjuntamente, com base na média aritmética entre os desvios
normalizados – para V1-V4 e V2-V3 – dos experimentos para cada indicador.
Os resultados na Tabela 12 foram ordenados conforme a importância dos parâ-
metros nos valores assumidos pelo índice de Herfindahl-Hirschman para o market share,
𝐻𝐻𝐼𝑠, adotado como indicador-chave para a análise da estrutura setorial. Segundo essa
perspectiva, visando controlar o número de variáveis envolvidas, é proposta a avaliação da
sensibilidade conjunta de todos os parâmetros, no intervalo de teste de cada um, cuja varia-
ção teve impacto significativo e relevante no 𝐻𝐻𝐼𝑠. Por significativo, adota-se o critério já
apresentado (análise de variância). Por relevante, consideram-se os parâmetros cujo efeito
máximo médio tenha sido próximo ou superior ao desvio padrão observado para o indica-
dor no cenário de calibração (V0), de forma estatisticamente significativa (“S”). Foram
elencados, por esse procedimento, cinco parâmetros para o teste de sensibilidade conjunta
(𝑐𝑠, 𝑔𝐵, 𝑛𝑒𝑡𝑡𝑦𝑝𝑒 , 𝑞, 𝑏1𝑘-𝑏3
𝑘).361
A Tabela 13 mostra as combinações de parâmetros utilizadas
para o teste, excluída a variável categórica 𝑛𝑒𝑡𝑡𝑦𝑝𝑒 (tipo de estrutura de rede), tratada sepa-
radamente por questões técnicas. Os testes foram realizados utilizando os limites “espera-
dos” para cada parâmetro (V2 e V3), explorando todo o conjunto de combinações possí-
veis.362
Foi executada, ainda, a análise preliminar – não tabulada aqui – utilizando um
conjunto maior de valores (quatro) para cada parâmetro (V1, V2, V3 e V4). Em virtude do
número de combinações possíveis (256), não foi possível realizar as 50 rodadas para a ob-
tenção de médias representativas dos indicadores para todas as combinações no tempo dis-
361 O valor inicial 𝐵0
𝑘,𝑎𝑣𝑔, também significativo, é tratado como “condição inicial” de 𝑔𝐵 e não analisado aqui.
362 Como 𝑏1𝑘, 𝑏2
𝑘 e 𝑏3𝑘 são interdependentes (equação (25)), seus valores são testados conjuntamente.
354
ponível.363
Entretanto, os resultados preliminares, com apenas dez rodadas, não indicaram
comportamentos qualitativamente distintos daqueles apreendidos pela avaliação com o con-
junto mais restrito de valores (Tabela 13).
Tabela 13 – Conjuntos de valores para teste de sensibilidade conjunta.
Conjunto �̅�𝟏𝒌 �̅�𝟑
𝒌 𝒈𝑩 𝒄𝒔 𝒒
1 0,40 0,50 -0,0043 0,80 0,25
2 0,40 0,50 -0,0043 0,80 0,75
3 0,40 0,50 -0,0043 1,00 0,25
4 0,40 0,50 -0,0043 1,00 0,75
5 0,40 0,50 0,0093 0,80 0,25
6 0,40 0,50 0,0093 0,80 0,75
7 0,40 0,50 0,0093 1,00 0,25
8 0,40 0,50 0,0093 1,00 0,75
9 0,60 0,30 -0,0043 0,80 0,25
10 0,60 0,30 -0,0043 0,80 0,75
11 0,60 0,30 -0,0043 1,00 0,25
12 0,60 0,30 -0,0043 1,00 0,75
13 0,60 0,30 0,0093 0,80 0,25
14 0,60 0,30 0,0093 0,80 0,75
15 0,60 0,30 0,0093 1,00 0,25
16 0,60 0,30 0,0093 1,00 0,75
Os resultados obtidos no teste de sensibilidade conjunta estão representados na
Tabela 14. Como esperado, praticamente todas as combinações de valores dos parâmetros
testados produziram dados significativamente distintos364
daqueles do cenário de calibra-
ção. Desse processo, restou evidente, ainda, a característica de não linearidade do modelo.
Os efeitos combinados das mudanças dos parâmetros frequentemente superaram substanci-
almente a soma das contribuições individuais.
363 O tempo estimado para a geração e processamento das 12.800 rodadas necessárias para o teste seria de
cerca 120h (cinco dias), considerando o equipamento disponível (Intel Core i7 de 2,2GHz). 364 A série gerada para cada indicador foi comparada com aquelas obtidas com os valores de calibração, por
meio da comparação das médias populacionais com um teste t e nível de significância de 1%.
355
Tabela 14 – Resultados do teste de sensibilidade conjunta.
Testes de impacto significante de cada conjunto de parâmetros realizados ao nível de 1% de significância.
“∆ / dp”: desvio dividido pelo desvio padrão.
“# signif.”: número de resultados significantes.
“S”: sim, “N”: não, “P”: possível.
“N/A”: não se aplica (devido às condições particulares de simulação do cenário).
Conj. Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
Signifi-
cante?∆ / dp
1 9 N/A S 1,52 S -0,82 S -1,46 S 0,92 S -0,55 S -0,20 S 0,31 S -0,19 N/A S -0,69
2 8 N/A N -0,04 S -0,42 S -0,38 S -0,06 S -0,44 S -0,21 S 0,30 S -0,30 N/A S -0,59
3 8 N/A S -2,94 N 0,02 S -0,69 S -1,40 S -2,10 S -0,43 S 1,84 S -0,21 N/A S -3,83
4 9 N/A S -3,48 S 0,36 S -0,70 S -1,37 S -2,29 S -0,63 S 2,43 S -0,14 N/A S -3,99
5 9 1,46 S 3,14 S -1,30 S -2,13 S 3,09 S 0,63 S 0,50 S -0,29 N 0,09 S -2,74 S 0,64
6 10 1,11 S 1,90 S -0,85 S -1,26 S 1,53 S 2,00 S 0,37 S -0,26 S 0,81 S -1,47 S 0,67
7 9 0,58 S -0,37 S -0,11 S -0,46 S -0,31 S 1,23 S 0,34 S 1,03 S 0,12 N 1,51 S 0,29
8 9 0,67 S -1,23 S 0,15 N 0,04 S -0,48 S 0,99 S 0,30 S 1,03 S 0,37 S 1,86 S 0,27
9 9 N/A S 0,21 S -0,30 S -0,98 S 0,30 S -0,45 S -0,26 S 0,22 S -0,23 N/A S -0,68
10 9 N/A S -1,48 S 0,37 S -0,43 S -0,68 S -0,59 S -0,37 S 0,86 S -0,34 N/A S -1,15
11 8 N/A S -2,75 S 0,33 S -0,98 S -1,29 S -2,14 S -0,47 S 1,71 N -0,09 N/A S -3,81
12 7 N/A S -3,39 N 0,05 S -0,93 S -1,31 S -2,36 S -0,60 S 2,29 N -0,10 N/A S -3,96
13 9 1,20 S 2,08 S -1,05 S -1,86 S 1,95 S 1,02 S 0,46 S -0,28 N -0,09 S -2,54 S 0,65
14 10 0,98 S 1,25 S -0,46 S -1,30 S 1,22 S 2,43 S 0,35 S -0,26 S 0,56 S -1,31 S 0,64
15 10 0,94 S -2,21 S 0,94 S 0,07 S -1,33 S 1,44 S 0,19 S 1,00 S -0,10 S -1,87 S 0,28
16 10 0,98 S -2,84 S 0,91 S 0,08 S -1,36 S 0,97 S 0,24 S 0,90 S 0,25 S 1,91 S 0,34
#
signific.
(S ou P)
∆ méd
/ dp
HHIs sTentr Nprov HHIK LKTavgentr ageavg Pavg VMRP Mavg popcov