224
Organização Technology Leadership Council Brazil

100 Mini Papers sobre tecnologia

Embed Size (px)

DESCRIPTION

100 Mini Papers sobre tecnologia, escritos entre 2005 e 2010 e compilados neste livro lançado em 2011 em comemoração ao centenário da IBM

Citation preview

Page 1: 100 Mini Papers sobre tecnologia

Organização Technology Leadership Council Brazil

Page 2: 100 Mini Papers sobre tecnologia

Liderança e TecnologiA1oo mini papers

nos 1oo anos da IBM

Page 3: 100 Mini Papers sobre tecnologia
Page 4: 100 Mini Papers sobre tecnologia

Liderança e Tecnologia1oo mini papers

nos 1oo anos da IBM

Organização Technology Leadership Council-Brazil

Page 5: 100 Mini Papers sobre tecnologia

Capa e Projeto Gráfico Felipe SotelloEditoração Eletrônica Obliq Press

Copyright © 2011 IBM Brasil – Indústria, Máquinas e Serviços Ltda.

Todas as marcas neste livro são propriedades de seus respectivos donos, com direitos reservados.

Capa e Projeto Gráfico Felipe Sotello

Editoração Eletrônica e Revisão Obliq Press

Dados Internacionais de Catalogação na Publicação (CIP)

L714l Liderança e Tecnologia : 100 mini papers nos 100 anos da IBMTechnology Leadership Council-Brazil … et al. – Rio de Janeiro : Obliq Press, 2011.222 p. : il; 21cm.

ISBN: 978-85-65404-00-61. Ciência da Computação. 2. Informação e Obras Gerais. I. Tech-nology Leadership Council-Brazil. II. Título.

Foi feito o depósito legal

Direitos reservados a

Obliq – Edição e Produção Ltda.

www.obliqpress.com

[email protected]

Page 6: 100 Mini Papers sobre tecnologia

O ano de 2011 é um marco na história da IBM. Foi neste ano que a companhia celebrou 100 anos de existência,

dos quais 94 com presença no Brasil.

Durante todo o ano debatemos sobre o papel da tecnologia na construção de um planeta mais inteligente.

Falamos em diversos fóruns de que maneira podemos, juntos, trabalhar pelo progresso contínuo da sociedade.

Mas, não é possível falar sobre tecnologia aplicada ao bem-estar social, sem comentar a contribuição dos

profissionais técnicos. A IBM conta com uma vasta comunidade técnica que trabalha incansavelmente para

transformar as necessidades das empresas em realidade.

Por isso decidimos, no ano do centenário, publicar uma coletânea de 100 dos primeiros artigos publicados pelo

Technology Leadership Council-Brazil (TLC-BR).

É uma forma de agradecimento à nossa comunidade técnica por toda a sua contribuição para a sociedade, mas

também pela contribuição direta em toda a história da IBM.

Mais do que isso, é também uma forma de compartilhar com a sociedade um pouco do conhecimento gerado

pelos profissionais técnicos. Dessa forma, esperamos disseminar informações que farão a diferença no mercado

de tecnologia, hoje e nos próximos 100 anos.

Carta do PresidenteRicardo Pelegrini, presidente da IBM Brasil

Page 7: 100 Mini Papers sobre tecnologia
Page 8: 100 Mini Papers sobre tecnologia

Quem conhece a história da IBM sabe da importância que a comunidade técnica tem para essa companhia.

Começamos como fabricantes de máquinas de cartões perfurados, e hoje somos uma das maiores empresas de

tecnologia do mundo e além disso detentores da segunda marca mais valiosa do planeta, de acordo com o ranking

publicado anualmente pela Interbrands. A IBM é reconhecida por sua liderança na área de supercomputadores,

serviços, software e consultoria de negócios.

Presente no Brasil desde 1917, a companhia, que chegou ao país para ajudar o governo na realização do censo

demográfico, contribuiu ativamente para a agenda nacional de inovação e para o desenvolvimento do mercado.

Para chegarmos até aqui, muitas transformações aconteceram, acompanhando e muitas vezes impulsionando

o progresso da sociedade. E, para que cada uma destas transformações fosse possível, uma enorme equipe de

profissionais técnicos trabalhou com dedicação e criatividade.

A prova disso está na conquista de diversos Prêmios Nobel alcançados por pesquisadores da IBM, sem contar a

liderança em registro de patentes nos Estados Unidos por 18 anos consecutivos.

Para a IBM, compartilhar conhecimentos e experiências é também uma forma de contribuir com o avanço do

mercado de tecnologia e das empresas.

Há 7 anos publicamos os artigos do Technology Leadership Council-Brazil (TLC-BR) em nossos veículos internos,

mas também em comunidades externas e veículos de comunicação em geral. O TLC-BR tem como missão

integrar a comunidade técnica da IBM Brasil, suportar e contribuir para os negócios da empresa. Além disso,

busca promover a visibilidade externa, a vitalidade técnica, a inovação e a tecnologia de ponta, com os clientes,

executivos de negócios e a sociedade.

Chegar ao centésimo artigo publicado é um marco importante para a nossa comunidade. Mas é também sinal de

que há muito conteúdo a ser explorado e desenvolvido, em prol não apenas dos profissionais técnicos, mas de

toda a sociedade.

Boa leitura!

ApresentaçãoCíntia Barcelos, presidente do Technology Leadership Council-Brazil

Page 9: 100 Mini Papers sobre tecnologia
Page 10: 100 Mini Papers sobre tecnologia

A linguagem da cooperação e a cooperação por uma nova língua 13

A maneira Lean de se pensar 15

Como ler em cinquenta anos o que foi escrito hoje? 17

Computadores híbridos, a próxima fronteira da computação 19

Entendendo uma infraestrutura dinâmica 21

ITIL: valor para seu cliente 23

Como se tornar um super-herói 25

Armazenamento de dados – o futuro está apenas começando 27

Entendendo Corporate Performance Management 29

Desktop do futuro 31

Os paradigmas e desafios de segurança em Cloud Computing 33

Desafios de TI em biocomputação 35

O mar está para os navegadores 37

Precisão na agricultura 39

As empresas nas redes sociais 41

A sinergia do planeta inteligente 43

Uma breve história do tempo 45

Ensina-me com teus erros – e acertos 47

Virtual ou presencial? 49

A singularidade tecnológica 51

Infraestrutura da informação 53

Segurança em aplicações web 55

Redes neurais para um planeta mais inteligente 57

Mobilidade para um mundo conectado 59

A revolução silenciosa da computação ubíqua 61

Gerenciando a qualidade dos serviços do seu negócio 63

PCI-DSS: o que é e por que implementá-lo? 65

A crescente importância da energia em TI 67

Sumário

Page 11: 100 Mini Papers sobre tecnologia

Enterprise Asset Management 69

Os sistemas operacionais estão em toda parte 71

As emoções, a inteligência artificial e os negócios 73

O que há na sua caixa postal? 75

A volatilidade de requisitos 77

Teste e qualidade de software 79

Virtualização para todos 81

Você já está nas nuvens? 83

Sinal verde para os Green Data Centers 85

Do papel aos bytes: a nota fiscal eletrônica 87

Inovação, desafios e oportunidades 89

Estratégia corporativa de reúso 91

O fim do empirismo no desenvolvimento de software 93

Service Delivery Platform: 95

uma nova forma de prover serviço de telecomunicações 95

Máquinas podem enxergar? 97

Certificar ou não, eis a questão 99

Serious game é jogo sério 101

Next Generation Networks 103

A TV Digital chegou; e agora? 105

Um bom modelo vale mais do que mil linhas de código 107

O novo profissional de serviços 109

Análise de redes sociais 111

O fim está próximo 113

Modelagem e simulação na prestação de serviços 115

Novos desafios da segurança computacional 117

Novos desafios em prover terceirização de infraestrutura de TI 119

Agilidade nos negócios através da gerência de processos 121

Eu etiqueto, tu etiquetas 123

Reduzindo a complexidade no desenvolvimento de software 125

A blogosfera 127

A criação não bate ponto 129

Page 12: 100 Mini Papers sobre tecnologia

Performance é mais que GHz 131

Software as a service 133

Wikinomics: que tal contar a todos os seus segredos? 135

A padronização do formato de documentos eletrônicos 137

Gestão de serviços globalmente integrada 139

Gestão do conhecimento organizacional: a chave para inovar 141

A supercomputação mudando limites 143

Nos domínios da paravirtualização 145

O banco do futuro 147

Gerência de conteúdo: uma questão de sobrevivência 149

UML: a linguagem dos modelos 151

Existe criatividade nas fábricas de software 153

TV digital 155

Muito mais que armazenar dados 157

SOA como plataforma de negócios 159

Otimizar é preciso 161

O que a geografia e o data warehousing têm em comum? 163

Vigilância digital 165

MDM – Gerenciando os dados mais importantes da empresa 167

Open Source 169

Enterprise Service Bus: via expressa para SOA 171

Ciência, tecnologia, inovação, produção, nós e... vocês 173

Power Line Communications 175

Desafios em Disaster Recovery 177

Enterprise Architecture: planejando TI de maneira corporativa 179

Linux em desktop 181

Por que mainframes? 183

TI e negócios alinhados por meio da prestação de serviços 185

Como conviver com tanta informação? 187

Os novos rumos da gerência de conhecimento 189

Computação onipresente: ficção ou realidade? 191

Os três as da segurança 193

Page 13: 100 Mini Papers sobre tecnologia

Arquitetura orientada a serviço 195

Inovação em grids 197

Web 2.0 e Ajax 199

As bases da computação autonômica 201

VoIP: o próximo capítulo da telefonia 203

As pessoas já são on demand 205

Vírus! Uma praga cheia de histórias 207

O boom da virtualização 209

O valor das comunidades virtuais para as empresas 211

Sobre os autores 213

Page 14: 100 Mini Papers sobre tecnologia

Dezembro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 13

Tudo começou em um táxi, a caminho de um hotel no centro

de Pequim (ou Beijing, como eles preferem). Eu ali quieto, me

achando meio estúpido por não conseguir sequer articular um

“oi” ou um “acho que vai chover” com o motorista, que só

entendeu o nome do hotel quando leu em um pedaço de papel

que eu mostrei.

De repente me deu vontade de entender aqueles ideogramas

e não me sentir tão excluído daquele ambiente. Aproveitando

o fato de que recentemente houve uma Olimpíada por lá e, em

consequência, muitas placas da estrada tinham tradução em

inglês, passei a tentar descobrir o ideograma para “rodovia”.

Após umas dez placas percebi a existência de um ideograma

que se repetia e que, pelo menos em minha cabeça, parecia

mesmo uma estrada. Bingo! Eu estava lendo em chinês!

O ideograma, escolhido ao acaso, acabou me ajudando a

desenvolver um pensamento instigante e que é digno da

celebração que este mini paper representa. Mas vamos entrar

no tema aos poucos, pegando uma outra cena, em outro lugar,

tendo como principal personagem meu sobrinho de 16 anos

jogando World of Warcraft, em sua casa, no domingo à tarde.

De maneira muito desenvolta ele se comunica com seu aliados,

muitos deles japoneses, e, para fazê-lo, ele escreve em japonês!

Conversando com ele percebo que ele sabe muitas línguas,

na verdade pedaços de língua, e as aprendeu com a ajuda de

amigos virtuais. Ele conhece uma infinidade de ideogramas

japoneses, mas na verdade ele mescla seu “chat” com uma série

de ideogramas universais. E é aí que a conversa fica interessante

e chega a todos nós.

A necessidade de nos comunicarmos

sempre existiu, e isso fez surgirem os

diversos idiomas, sempre em uma escala

local ou regional. A necessidade continua

existindo, mas só nos últimos quinze

anos a comunicação virtual encontrou o

cenário tecnológico para proliferar. Agora

a comunicação acontece em escala global,

e, de maneira colaborativa, estamos

inventando a língua global.

Por que ficar desapontado quando

seu filho de 12 anos escreve “:> +:-)”,

representando um certo sorriso maroto e

um “tive uma ideia”? Para explicar o que

A linguagem da cooperação e a cooperação por uma nova línguaWilson E. Cruz

Page 15: 100 Mini Papers sobre tecnologia

Dezembro, 2009

14 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

isso representa em sete toques eu precisei

de nove palavras da língua portuguesa, ou

quase cinquenta toques. E acho que não

expressei tudo o que aqueles sete toques

realmente significam.

Mesmo concordando com grande parte

dos pedagogos que temem pelo excesso

de estímulos conflitantes e errôneos

(“axo”, “naum”, “takí”, “vamu”) no

processo de alfabetização de crianças e

adolescentes, é importante reconhecer o

potencial criado pela necessidade de nos

comunicarmos e cooperarmos em escala

global. Talvez nossos filhos (uma vez

alfabetizados, pelo menos por enquanto)

estejam desbravando o caminho milenar

dos chineses, inventando a nova língua

que tornará viável essa cooperação

planetária.

É uma perspectiva das mais instigantes,

justamente por ser algo que nunca foi feito

com a abrangência com que agora talvez

estejamos fazendo.

Nos conceitos de “collaborative research”

e “crowdsourcing” o elemento forte é

a cooperação. O mesmo elemento está

presente nesta celebração do centésimo

Mini Paper. Os profissionais que se uniram

anos atrás o fizeram na busca de cooperar

para somar skills e criar um capital

intelectual que representa mais do que a

soma dos capitais individuais.

Juntar e cooperar são os verbos da nova língua, e são também

os verbos de nossa primeira centena de Mini Papers, criação

colaborativa e congregadora do TLC-BR.

[ ] (ou seja, “um abraço”, para quem ainda não está fluente

nessa nova língua)

Para saber mais

http://www.dicweb.com/emoticon.htm

http://www-2.cs.cmu.edu/~sef/sefSmiley.htm

Page 16: 100 Mini Papers sobre tecnologia

Agosto, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 15

Vivenciamos um conjunto de mudanças de pensamento em

várias esferas do conhecimento. Na economia, muitos órgãos

e empresas tentam diminuir suas despesas. No contexto do

meio ambiente, temos acordos entre países para a redução de

gases de forma a estancar o aumento da temperatura global.

Além disso, estamos sob crescente incentivo à economia de

água, energia elétrica e à diminuição da poluição. Também

estamos frequentemente criando mecanismos inteligentes para

o uso doméstico diário. E o que é comum a tudo isso? O

esforço na redução do consumo de recursos e o seu melhor

aproveitamento.

Com base na cultura e nos princípios de gerenciamento

adaptados do Sistema Toyota de Produção, que surgiu no Japão

como alternativa ao sistema de produção em massa, foi criado

o termo Lean (enxuto) para descrever os sistemas de produção

que buscam fornecer, a um custo reduzido, valor aos clientes

por meio da melhoria dos fluxos entre processos.

Ao eliminar-se o desperdício em todos os fluxos que geram

valor, criam-se processos que demandam menos esforço, menos

espaço, menos capital e que requerem menos tempo para a

criação de produtos e serviços. Tudo isso com menos defeitos

e com maior qualidade quando comparados aos processos

tradicionais.

Os cinco princípios norteadores do pensamento Lean afirmam

que é imprescindível:

1. definir o que é valor para o cliente e procurar satisfazê-lo.

2. definir o fluxo de valor de maneira a eliminar processos que

não agreguem ao produto final (eliminar desperdícios).

3. dar fluidez aos processos, criando um

fluxo contínuo de produção, atendendo

rapidamente às necessidades do cliente

(flexibilidade).

4. não mais empurrar o produto para o

consumidor, e sim, fazer com que ele o

retire de acordo com sua necessidade.

5. buscar a excelência e perfeição

(qualidade e melhoria contínua).

A melhoria dos processos se dá não

apenas pela redução, mas pela eliminação

de desperdícios, categorizados em sete

tipos: superprodução (produção além da

demanda); espera (períodos de inatividade

A maneira Lean de se pensarDiego Augusto Rodrigues Gomes

Page 17: 100 Mini Papers sobre tecnologia

Agosto, 2010

16 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

devido à espera pelo próximo passo da

produção); transporte (movimento de

partes desnecessárias ao processamento);

excesso de processamento (retrabalho);

deslocamento (pessoas ou equipamentos

se movimentando mais que o necessário

para a execução de um procedimento);

inventário (estoque de insumos que não

estão diretamente ligados à necessidade

atual); defeitos (perda de unidades de

produção e de tempo gasto para construí-

las).

A busca pela qualidade segue duas

estratégias: treinar e desenvolver a força

de trabalho e tornar os processos estáveis

e capazes de atender às necessidades

do cliente. Pessoas motivadas e que

abraçam a cultura e filosofia da empresa

são o coração desse modelo. Cada um

é responsável por melhorar o fluxo de

processos da instituição, sugerindo

soluções e novas abordagens, mesmo que

não sejam responsáveis diretos por isso.

A flexibilidade nesse modelo é fruto do

trabalho de profissionais com múltiplas

habilidades, os quais não só conhecem

a sua atividade e sabem operar suas

ferramentas, mas também sabem executar

as atividades de outros profissionais,

dando, assim, maior fluidez ao fluxo de

atividades que compõem a execução dos

processos.

Esse modelo de pensamento tem sido aplicado com sucesso

em diversos ramos de atividades, tais como manufatura,

distribuição, gestão da cadeia de suprimentos, desenvolvimento

de produtos, engenharia, entre outros. Mais recentemente,

inclusive, tem sido aplicado no processo de desenvolvimento

de software.

Em síntese, falar de Lean é falar de maneiras coerentes de se

eliminar aquilo que não é necessário. Significa romper com o

pensamento “quanto mais, melhor”, agregar mais valor com

menos trabalho, reduzir custos, otimizar os tempos de produção

e entrega e melhorar a qualidade dos produtos e serviços. Em

outras palavras, é eliminar tudo aquilo que não agrega valor e

que não é importante ao resultado final. Adotar a filosofia Lean

como uma nova maneira de pensar e agir pode ser um bom

começo para tornar nosso planeta mais inteligente.

Para saber mais

http://www.lean.org

http://www.lean.org.br

http://agilemanifesto.org/

Liker, Jeffrey K. O modelo Toyota: 14 princípios de gestão do

maior fabricante do mundo. Porto Alegre: Bookman, 2005.

Page 18: 100 Mini Papers sobre tecnologia

Julho, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 17

Faz relativamente pouco tempo que começamos a usar arquivos

em mídia eletrônica para armazenar documentos. Além do

papel, já usamos diversos outros suportes para os nossos

documentos como madeira, pedra, barro e cera. Ao usar esses

suportes nossos antepassados os tornavam indissociáveis do

documento propriamente dito.

Com a chegada da mídia eletrônica, conseguimos separar,

pela primeira vez, o suporte de um documento de seu

conteúdo. Assim, os documentos se tornaram “virtuais”, sendo

armazenados em arquivos digitais gerados por algum aplicativo.

Graças ao suporte digital, uma cópia de um documento é

idêntica ao seu original. Seria o melhor dos mundos se não

houvesse a questão da recuperação e leitura posterior desses

documentos.

Trabalhamos bem a analogia de uso de softwares para a

produção de documentos: uma folha de papel em branco

exibida na tela na mesma posição em que estaria uma folha em

uma máquina de escrever.

No entanto, não houve, até recentemente, uma discussão

adequada sobre o formato de armazenamento desses

documentos, resultando em problemas de compatibilidade

com os quais convivemos até hoje. A vinculação dos formatos

aos softwares que os criaram tornou-se uma barreira à adoção

de novas tecnologias e soluções.

O problema gerado pela ausência de padronização no

armazenamento de documentos é apenas a parte mais visível

da questão. A falta de padronização na comunicação entre os

componentes de software que adquirimos é tão grande quanto

o número de fornecedores existentes

no mercado. Enquanto a adoção de

soluções que suportem padrões abertos

e publicados faz sentido econômico para

a iniciativa privada, no setor público essa

adoção é vital para a preservação das

informações do Estado.

A preocupação com o uso de padrões

abertos em documentos oficiais levou a

União Europeia a publicar uma definição

do que é um padrão aberto. Há várias,

mas todas concordam que um padrão

aberto deve:

ser mantido por organização sem fins

lucrativos, através de um processo aberto

de decisão:

ser publicado e acessível sem custo, ou a

um custo meramente nominal;

Como ler em cinquenta anos o que foi escrito hoje?Roberto F. Salomon

Page 19: 100 Mini Papers sobre tecnologia

Julho, 2010

18 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

garantir o acesso gratuito, sem o

pagamento de royalties, a toda

propriedade intelectual do padrão.

Vários padrões se adequam a essa

definição comum, dentre eles o ODF –

OpenDocument Format, que define

o formato de armazenamento para

documentos eletrônicos textuais.

No Brasil, o Governo Federal já

reconheceu a importância da adoção

de padrões que permitam a integração

aberta entre os seus órgãos e os demais

poderes e esferas da administração

pública. A edição do e-PING – Padrões de

Interoperabilidade de Governo Eletrônico,

demonstra que o Governo Federal já

entende ser necessário estabelecer

quais os padrões que serão usados para

a comunicação com a sociedade. Essa

definição deve ser o mais independente

possível de pressões econômicas de

grupos de interesse. Iniciativas como a do

e-PING são estratégicas e necessárias. Há

hoje um consenso sobre sua importância,

demonstrado por eventos como a

“Government Interoperability Framework

Global Meeting 2010”, promovida pelo

PNUD (Programa das Nações Unidas para

o Desenvolvimento) realizada no Rio em

maio de 2010.

Os governantes precisam ter claro que em

um mundo cada vez mais digital o Estado

não pode se furtar de estabelecer o uso de padrões abertos, o

que comprometeria seriamente a capacidade de colaboração

entre órgãos governamentais e entre estes e a sociedade civil,

criando obstáculos para a preservação de investimentos e da

memória da nação.

Para saber mais

http://ec.europa.eu/idabc/en/document/3761

http://www.odfalliance.org

Page 20: 100 Mini Papers sobre tecnologia

Julho, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 19

Por mais de 20 anos a indústria de TI conseguiu manter válida

a Lei de Moore, dobrando a capacidade de processamento dos

chips a cada 18 meses, mas ultimamente tornou-se um grande

desafio manter tal ritmo, o que pode significar uma ameaça para

o mercado, que segue demandando por mais capacidade.

A atual arquitetura de chips atingiu sua limitação física,

considerando-se a curva de desempenho versus a dissipação de

calor gerada e a energia necessária para o seu funcionamento.

Não é mais possível continuar entregando mais capacidade

sem uma mudança de conceito e de arquitetura. Já foram

tentadas algumas soluções, como por exemplo a fabricação

de chips multicore, mas ainda não se resolveu esse impasse.

Por outro lado, o mercado de TI continua precisando de mais

capacidade para atender às novas demandas de negócio,

através de aplicações cada vez mais complexas, as quais

requerem computadores cada vez mais potentes.

A indústria está buscando alternativas para endereçar essa

questão. Uma consiste no aumento do nível de paralelismo

entre os diversos núcleos de processamento de um mesmo chip,

o que requer novos conceitos de programação e redesenho dos

atuais sistemas para que possam explorar essa arquitetura de

processadores. Outra alternativa consiste na implementação de

um novo conceito de computadores, baseado numa arquitetura

híbrida de processadores.

Computadores híbridos são compostos por distintos tipos de

processadores, fortemente acoplados sob um sistema integrado

de controle e gestão, que possibilita o processamento de

cargas complexas e variadas. A Intel e AMD, por exemplo,

estão trabalhando em chips multicore nos

quais os núcleos de processamento são

distintos entre si, para possibilitar ganhos

de desempenho sem bater no teto da

dissipação de calor. Mas ainda não há

previsão de liberação desses novos chips

para o mercado.

A IBM está trabalhando em um novo

servidor da plataforma z/Series, o

qual conterá processadores das suas

tradicionais famílias (Mainframe, POWER7

e x86) dispostos numa única plataforma

computacional, gerenciada de forma

centralizada e integrada. No passado

Computadores híbridos, a próxima fronteira da computaçãoDaniel Raisch

Page 21: 100 Mini Papers sobre tecnologia

Julho, 2010

20 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

recente a IBM disponibilizou um servidor

z/Series integrado com processadores Cell

para atender uma necessidade específica

da Hoplon, empresa brasileira que atua

no mercado de infojogos. Essa experiência

foi muito bem sucedida e possibilitou o

avanço na direção do conceito de servidor

híbrido. Com essa nova plataforma, que

está em fase final de desenvolvimento,

a IBM pretende prover uma solução de

grande desempenho e escalabilidade,

capaz de atender às demandas por

soluções que requerem poder de

processamento com características mistas

entre as tradicionais aplicações comerciais

e aplicações de computação intensiva

(High Performance Computing).

Com os computadores híbridos pretende-

se ultrapassar as limitações impostas

pelas atuais arquiteturas e também

resolver os problemas gerados pela forte

dependência existente entre as aplicações

e a plataforma computacional para as

quais foram originalmente projetadas.

Esse novo tipo de computador funcionará

como se fossem vários servidores lógicos

virtualizados num único servidor físico, com

uma camada de gerência integrada, capaz

de distribuir partes de uma aplicação para

o processador que lhe for mais propício,

dando ao seu usuário as facilidades e os

benefícios de uma plataforma fisicamente

centralizada, mas logicamente distribuída, endereçando os

atuais desafios do mundo descentralizado relativos à integração

de aplicações, segurança, monitoração, distribuição de carga e

contabilidade do uso de recursos, entre outros.

Simplificação da TI, redução do número de servidores instalados

(e de seus requisitos de espaço, energia e refrigeração), maior

capacidade de gerência de ponta a ponta e, consequentemente,

redução do custo total de propriedade. Essas são as propostas

de valor das arquiteturas híbridas.

Estamos na iminência de uma nova plataforma computacional,

a qual poderá representar uma mudança de paradigma na

indústria de TI e possibilitar novas soluções de negócios,

abrindo horizontes para as empresas e para toda a sociedade.

Para saber mais

http://hpc.pnl.gov/projects/hybrid-computing/

http://www.tmrfindia.org/jhcr.html

http://www.redbooks.ibm.com/abstracts/redp4409.html

Page 22: 100 Mini Papers sobre tecnologia

Junho, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 21

Ficar alinhado com as necessidades do mercado tem sido um

grande desafio para as organizações em um mundo cada vez

mais dinâmico. Hoje, quase um terço da população mundial

acessa a Internet, que já se aproxima de um trilhão de “coisas”

nela conectadas. Logo, mais e mais sensores estarão ligados

à Internet, gerando imensas quantidades de informações em

tempo real e trazendo novas ameaças para a segurança das

informações críticas para o negócio. Soma-se a isso o novo perfil

do consumidor, cada vez mais “conectado”, que cresceu usando

a Internet e demanda por serviços inovadores e disponibilidade

ininterrupta.

As infraestruturas de Tecnologia da Informação atuais, em geral,

já não são mais capazes de atender de forma satisfatória aos

requisitos dos novos ambientes de negócios e por isso estão

alcançando um ponto de ruptura, no qual um novo modelo mais

ágil, dinâmico, seguro e de menor custo tornou-se necessário.

Estamos falando de uma transformação na TI, que precisa passar

a ser capaz de responder às crescentes pressões por redução

custos e elevação dos níveis de serviço sem deixar de lado o

devido tratamento dos novos riscos e ameaças. Além disso, a

TI deverá permitir a criação acelerada de valor para o negócio,

possibilitar grandes saltos de produtividade, e acompanhar o

ritmo vertiginoso do mercado, em constante mutação.

Para alcançar esses objetivos é necessário uma nova

infraestrutura, que tenha as seguintes características:

• Opere em um ambiente consolidado e virtualizado, que

ofereça flexibilidade e redução de custo, com melhor utilização

dos recursos computacionais e rápido

aprovisionamento de novos serviços;

• Responda, com Eficiência Energética,

aos desafios de sustentabilidade ambiental

e de consumo de energia em todos os

pontos da infraestrutura;

• Tenha Escalabilidade e Resiliência, para

manutenção da operação continuada do

negócio e, ao mesmo tempo, seja capaz

de se adaptar, gerenciar e responder

rapidamente a riscos e oportunidades,

sem deixar de estar em conformidade

com as normas regulatórias;

• Possua um Gerenciamento

inteligente do ambiente que permita

uma maior produtividade da equipe

técnica responsável por sua operação e

manutenção, a qual passará a ter mais

Entendendo uma infraestrutura dinâmicaAmauri Vidal Gonçalves

Page 23: 100 Mini Papers sobre tecnologia

Junho, 2010

22 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

tempo para a realização de atividades

mais nobres, tais como a disponibilização

de novas e inovadoras aplicações de

negócios.

Além dessas características, passa a ser

também muito importante que essa nova

infraestrutura seja capaz de operar sob

um modelo de Computação em Nuvem

(Cloud Computing), com o qual é possível

obter ainda mais agilidade, flexibilidade e

redução de custos para a infraestrutura de

TI da organizações.

Empresas como Cisco, HP e IBM, por

exemplo, já se posicionam no mercado com

abordagens para essa nova infraestrutura.

A Cisco com a Unified Computing System,

a HP com a Converged Infrastructure e a

IBM com a Dynamic Infrastructure.

Os mundos dos átomos e dos bits

estão convergindo para um novo

sistema, inteligente e global, suportado

por infraestruturas dinâmicas. Essa

convergência entre negócios e

Tecnologia da Informação requer que

essas infraestruturas sejam, ainda,

capazes de atuar além dos data centers

corporativos e até das fronteiras físicas

entre fornecedores, clientes e parceiros de

negócios.

O processo de transformação para a nova

TI, que passa pelo modelo de infraestrutura

dinâmica, é uma jornada, a qual deve ser

percorrida com um planejamento correto e detalhado para

que os benefícios esperados sejam obtidos, fazendo da TI o

elemento chave para os processos de negócio do século XXI.

Para saber mais

http://www.cisco.com/en/US/netsol/ns944/index.html

http://h18000.www1.hp.com/products/solutions/converged

http://www-03.ibm.com/systems/dynamicinfrastructure

Page 24: 100 Mini Papers sobre tecnologia

Junho, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 23

Um dos maiores problemas enfrentados pelas empresas

atualmente é a manutenção de processos efetivos para a

gestão do ambiente de TI. Um dos momentos em que isso

costuma ficar evidente é quando uma empresa entra num

processo de terceirização, no qual cada atividade sua tem que

ser mapeada e priorizada adequadamente. Nesse momento

é comum descobrir que muitos procedimentos não estão

documentados e só existem na cabeça de alguns profissionais, e

que conhecimentos de áreas críticas estão sob responsabilidade

de um pequeno grupo de profissionais.

Esses são exemplos de situações enfrentadas pelas empresas

e que deixam os executivos preocupados em melhorar o

desempenho e reduzir os custos de seus ambiente de TI. Mas

como pode ser possível fazer isso se não houver conhecimento

sobre aspectos importantes do ambiente de TI atual, tais como

capacidade, desempenho, níveis de serviço e demais métricas

necessárias para uma gestão eficaz?

Existem vários métodos, frameworks e modelos que podem

ser adotados para entender melhor o ambiente de TI e seus

processos. Entre esses destaca-se o modelo de referência ITIL

(Information Technology Infrastructure Library) que possui foco

específico em gestão de serviços de TI e a partir do qual surgiu

a norma ISO/IEC2000.

O ITIL trata de diversas disciplinas de gestão, com o objetivo

principal de transformar os serviços e processos de TI em

valor para o negócio da organização que o adota. O modelo

não deve ser visto como um padrão ou coletânea de regras

rígidas a serem adotadas, mas sim como um guia de melhores

práticas de mercado, sendo flexível e

adaptável à realidade dos provedores de

TI, agregando valor e, quando possível,

aproveitando processos já existentes,

sempre procurando manter a aderência

ao conjunto de melhores práticas nele

definido. O ITIL na sua versão mais atual

(v3) é dividido em cinco livros, a saber:

- Estratégia do Serviço (Service Strategy);

- Projeto do Serviço (Service Design);

- Transição do Serviço (Service Transition);

- Operação do Serviço (Service Operation);

- Melhoria Continua do Serviço (Continual

Service Improvement).

ITIL: valor para seu clienteEdson Gomes Pereira

Page 25: 100 Mini Papers sobre tecnologia

Junho, 2010

24 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

As boas práticas do ITIL ajudam os

provedores de serviços TI, sejam internos

ou externos, a entender o ciclo de vida

de cada atividade, mensurar, apresentar

resultados, definir expectativas de

crescimento e, principalmente, ajudar

a entender e reduzir os custos com os

serviços de TI.

O gestão de serviços com o ITIL visa utilizar

melhor os recursos de TI, aproveitando a

capacidade do ambiente, organizando e

disponibilizando melhor o conhecimento,

reduzindo a ociosidade de recursos

(pessoas e equipamentos) e produzindo

processos que possam ser repetidos,

medidos e melhorados.

As disciplinas devem ser consideradas

de acordo com cada ambiente, podendo

variar nas suas implementações, mas

sempre devem observar quesitos

básicos como gestão de contratos,

disponibilidade, escalabilidade, custo,

confiabilidade, incidentes e segurança.

Adotar uma base de conhecimento única

para facilitar a troca de informação entre

as áreas da empresa agiliza a tomada de

decisões em momentos de crise e permite

um crescimento estruturado baseado em

medidores de desempenho, os quais

identificam pontos fortes e pontos a serem

melhorados.

O ITIL não deve ser visto como uma ameaça às estruturas atuais,

mas sim como um complemento que ajuda a melhorar o ciclo

de vida dos processos. E deve ser usado como uma ferramenta

de transformação e melhoria contínua na prestação de serviços

de TI e geração de valor aos clientes.

Para saber mais

http://www.ogc.gov.uk/guidance_itil.asp

http://www.itil-officialsite.com/home/home.asp

Page 26: 100 Mini Papers sobre tecnologia

Maio, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 25

Atualmente muita importância tem sido dada à comunicação e

à colaboração entre pessoas, não só no trabalho, mas também

em outras áreas da vida e até no mundo dos quadrinhos, o qual,

como veremos a seguir, nos ensina muita coisa.

Estudos realizados sobre a rede social formada por personagens

dos quadrinhos da editora Marvel Comics, mostram que tal rede

se comporta de acordo com o modelo de redes complexas,

comuns em nosso dia a dia, no qual os pontos de ligação

(pessoas ou objetos em geral) que mais detém informações

também têm maior probabilidade de recebê-las e repassá-las.

Esse tipo de comportamento obedece, ainda, às chamadas

“leis de potência”, ou seja, não sofre variância com a mudança

de escala.

Na Internet, por exemplo, pode-se citar as redes de

relacionamentos (Orkut, Twitter, Facebook, Hi5, blogs, etc.), nas

quais cada ponto de ligação pode ser considerado uma pessoa

ou página e cada ligação seria o relacionamento de amizade,

ou hyperlink. Como esperado em redes que seguem o modelo

citado, as pessoas mais “populares” são as que mais crescem

seu número de amigos, enquanto as menos “populares”

têm grande dificuldade em aumentar a quantidade de seus

relacionamentos.

No mundo real, as pessoas que têm mais amigos tendem a

conhecer mais pessoas, os profissionais com maior experiência

tendem a ser mais consultados, as empresas mais bem

conceituadas recebem mais oportunidades de negócio, e assim

por diante. Porém, antes de ser o mais procurado pelos colegas

de trabalho, amigos ou clientes, algumas

lições podem ser aprendidas com os

heróis dos quadrinhos.

Na análise da rede social dos quadrinhos

da Marvel, que conta com 6.486

personagens marcados por aparições

conjuntas em 12.942 livros e revistas, nota-

se que os “mocinhos” se comportam de

forma a criar comunidades bem definidas

e lideradas por um herói mais carismático

ou de grande influência. Fato similar

acontece no cotidiano corporativo, no

qual cada empresa tem seu objetivo de

negócio e busca levar seus funcionários

a participarem ativamente dele através

de uma hierarquia carismática ou

preponderante.

Como se tornar um super-heróiDouglas Cristiano Alves

Page 27: 100 Mini Papers sobre tecnologia

Maio, 2010

26 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Porém, isso não acontece com os vilões.

Ao comparar heróis e vilões é interessante

verificar que mesmo sozinhos e muitas

vezes mal equipados, os personagens do

mal causam grandes problemas para os

do bem, o que contradiz o senso comum

de que vilões são fracos e desorganizados.

Na verdade observamos que os vilões são

muito capazes naquilo a que se propõem

(como tentar destruir os heróis ou

dominar algo) e individualmente podem

mobilizar vários heróis para neutralizá-los.

Entretanto eles nunca conseguem alcançar

seus objetivos porque sempre fica faltando

alguma coisa.

E o que lhes falta são justamente algumas

habilidades que os heróis possuem quase

que naturalmente, tais como networking

social, trabalho em equipe, comunicação,

transparência e outros jargões que cabem

tão bem quando falamos em colaboração.

Apesar de estarmos lidando com redes

de personagens fictícios sob um modelo

matemático definido, a lógica funciona

igual no mundo real e nos traz uma fórmula

(sem números) para que nos tornemos

verdadeiros super-heróis no trabalho e

na vida em geral. Essa fórmula determina

que não é preciso ter superpoderes,

inteligência excepcional, habilidades

fantásticas ou mesmo instrumentos

maravilhosos. É necessário, sim, ter muito

esforço, foco nos objetivos, comunicação, colaboração e

cooperação com os outros.

Isso tudo combinado, é claro, com uma vida pessoal prazerosa

e saudável fora do ambiente de trabalho (ou do uniforme de

super-herói).

Para saber mais

http://en.scientificcommons.org/23215849

http://bioinfo.uib.es/~joemiro/marvel.html

http://homepages.dcc.ufmg.br/~virgilio/site/?n1=teaching

Page 28: 100 Mini Papers sobre tecnologia

Maio, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 27

A preocupação com armazenamento de dados sempre esteve

presente em nosso dia a dia. A necessidade de guardar

informações valiosas (nem que seja apenas para quem assim

as considera) sempre foi uma questão de extrema importância

e, com o crescimento exponencial da automatização e

informatização em todos os segmentos da economia, a

necessidade de se armazenar dados passou também a se tornar

um grande desafio.

Nas empresas, a ideia de centralizar todos os dados em um

único equipamento logo se tornou um fator de alto risco e

de preocupação, tanto para os fornecedores quanto para os

clientes.

As necessidades atuais não se resumem apenas em ter os dados

salvos em uma caixa. Além da alta disponibilidade, os clientes

querem que os dados possam ser acessados de forma cada vez

mais rápida, que as máquinas que os armazenam consumam

cada vez menos espaço e energia e que seja possível trabalhar

de forma independente dos fabricantes de equipamentos de

armazenamento.

Soluções para atender a demandas como essas foram

introduzidas com as modernas tecnologias de virtualização,

combinadas com as ofertas de alta disponibilidade dos dados

armazenados, inclusive nas situações de contingência.

Muitas empresas consideram, em seus planos de continuidade

de negócios, a real possibilidade de ocorrência de desastres

naturais, acidentes e, até mesmo, de atentados terroristas, com

potencial de destruição de equipamentos e comprometimento

da informações vitais aos seus negócios.

A globalização das empresas contribuiu

para que um novo fator fosse incorporado

às necessidades de contingência, a de se

criar ambientes redundantes e separados

geograficamente. Com isso os novos

desafios apontam para a criação de

soluções que englobem a virtualização

dos equipamentos de armazenamento

com replicação dos dados ou até mesmo a

criação de um ambiente de contingência,

através de centenas ou milhares de

quilômetros de distância. Tudo isso,

é claro, de forma rápida e efetiva, sem

comprometer a disponibilidade da

informação para o usuário.

Entretanto, algumas limitações técnicas,

em virtude da distância, ainda atrapalham

o desenvolvimento de uma solução

Armazenamento de dados – o futuro está apenas começandoCarlos Henrique Fachim

Page 29: 100 Mini Papers sobre tecnologia

Maio, 2010

28 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

completa, que vise atender a todas as

necessidades e expectativas dos clientes,

sejam eles grandes companhias ou

simplesmente usuários que demandem

acesso às informações que estejam em

armazenadas em equipamentos dentro de

empresas fornecedoras.

Equipamentos pequenos e fáceis de usar,

processamento rápido, capacidade para

armazenamento de milhões de arquivos,

totalizando Terabytes ou Petabytes,

consolidação de múltiplos equipamentos

de diferentes fornecedores separados,

geograficamente, mecanismos para

virtualização e replicação de dados,

criação de um único ambiente virtual com

contingência total. Esse é o futuro do

armazenamento de dados.

A necessidade de armazenar informações

seguirá crescendo, assim como o nível

de exigência por soluções completas,

que possibilitem a integração de

diversos ambientes em estruturas cada

vez mais compactas, com alto poder de

processamento e reduzido tempo de

acesso.

É fato que já evoluímos bastante,

principalmente se considerarmos que

começamos com máquinas perfuradoras

de cartão, porém, a acelerada e crescente

demanda em curso nos faz acreditar que

um futuro não tão distante, as atuais

soluções de virtualização, replicação e armazenamento de

dados serão vistas como as perfuradoras de cartão o são hoje.

Para saber mais

http://www-03.ibm.com/systems/storage/virtualization/

Page 30: 100 Mini Papers sobre tecnologia

Abril, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 29

Na opinião de diversos especialistas e estudiosos da área de

administração, a eficácia de uma empresa depende não somente

do acerto de suas decisões estratégicas e das ações tomadas

no ambiente em que se encontra inserida, mas também do

seu nível de eficiência, ou seja, sua capacidade de resposta

às pressões externas, a qual é determinada pelas condições

operacionais internas. Portanto, ao se colocar o gerenciamento

da organização como um processo integrado, torna-se essencial

a compreensão de cada um dos elementos que a compõem,

bem como suas interações (Finanças, Vendas, Marketing, etc).

Nesse cenário, as empresas se deparam com questões

corporativas que abrangem diversas áreas de negócio, tais

como: Como conquistar novos clientes? Como fidelizar a carteira

atual de clientes? Como reduzir os custos operacionais? Como

reduzir os estoques sem prejudicar as vendas? Como melhorar

as margens de lucratividade e mitigar riscos?

Para responder essas e outras perguntas, é necessária a correta

compreensão de um ambiente que muda constantemente,

e o grande desafio é que a velocidade dessas mudanças

frequentemente supera, em muito, a velocidade de absorção

das mesmas pelas organizações, provocando um distanciamento

perigoso entre a estratégia empresarial e sua operação.

Corporate Performance Management (CPM), ou Usinenses

Performance Management, ou simplesmente Gestão do

Desempenho Corporativo, corresponde ao processo de

monitoração, gestão e otimização do desempenho de uma

determinada empresa, proporcionando uma visão integrada e

real da sua situação, com base em métricas de avaliação.

Essas, por sua vez, estão relacionadas aos

objetivos estratégicos da empresa.

Os pilares nos quais o CPM foi concebido

são, portanto, a gestão das informações

(relatórios operacionais, federação de

dados, data warehousing e business

intelligence, planejamento e orçamento,

previsões e simulações baseadas em

tendências), a gestão de processos de

negócio (indicadores de desempenho,

alertas, situação de processos, atividades

operacionais e monitoração dos processos

em tempo real) e a gestão dos serviços

de negócio (monitoração de sistemas e

Entendendo Corporate Performance ManagementRoger Faleiro Torres

Page 31: 100 Mini Papers sobre tecnologia

Abril, 2010

30 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

aplicativos, e a otimização das operações

de infraestrutura de TI para atender aos

objetivos do negócio).

A implantação do CPM permite à

organização a gestão efetiva dos

seus resultados, de forma pró-ativa e

colaborativa. Através de ferramentas de

análise, modeladas de acordo com as

regras de negócio da corporação, dados

financeiros e não-financeiros, provenientes

de fontes heterogêneas de informação,

convertem-se em indicadores chave

de desempenho. É baseado, portanto,

em ações preditivas, que incluem o

planejamento, o monitoramento de

indicadores e a revisão de processos de

negócio.

No atual cenário global, o CPM se

tornou um mecanismo fundamental

para as organizações, proporcionando a

ampliação de suas bases de conhecimento

sobre seus funcionamentos, através da

medição de resultados, e possibilitando

a implantaçã0 de uma cultura orientada

ao desempenho. Tal mecanismo poderá

determinar o sucesso ou fracasso de

uma organização, sua sobrevivência ou

extinção.

Para saber mais

Business Performance Management meets BI

http://www.redbooks.ibm.com/abstracts/sg246340.html

Page 32: 100 Mini Papers sobre tecnologia

Abril, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 31

Não faz muito tempo que, quando falávamos em desktop, logo

vinha à mente a imagem de um PC, como aqueles popularizados

na década de oitenta e que se tornaram padrão de mercado,

com os mais variados sabores de configuração, que dependia

do poder aquisitivo de cada um.

O PC chegou deslumbrando a todos, servindo aos negócios

e aos usuários domésticos que passaram a ter o poder de

processamento em suas mãos, e até o usavam como fonte

de diversão. Hoje, aquele computador pessoal que deu

início ao que chamamos de plataforma baixa, está deixando

aos poucos de existir no mundo empresarial. O que antes

parecia um extremo benefício, provendo aos usuários um

ambiente gráfico, uma plataforma flexível e mais amigável,

tem demonstrado nos últimos anos, ser dispendioso e

ineficiente no que tange ao real aproveitamento de seus

recursos computacionais.

Não há mais sentido em usar tecnologia que não traga

alguma vantagem competitiva, ou que não esteja relacionada

aos negócios. Sobre essa ótica, percebemos que o modelo

tradicional de uso do desktop, cuja área de trabalho é

devidamente configurada para o acesso às aplicações, já não

possui o apelo original, em função dos orçamentos cada vez

mais enxutos e da necessidade de se aumentar a produtividade.

Nessa linha de pensamento, a mobilidade oferece agilidade e

suporte na tomada de decisão em campo, favorecida pelo custo

reduzido da conectividade. Nessa modalidade de trabalho

surgiram diversas soluções específicas, que apontam para o

“Desktop do Futuro”.

Começamos pelos notebooks que,

juntamente com as redes celulares 3G,

provêm uma alternativa de mobilidade

e cujo volume atual de vendas já é

superior ao dos desktops. O seu custo

total de propriedade, entretanto, ainda

não difere muito quando comparado a

esses, no uso tradicional, ou seja, com

todas as aplicações e sistema operacional

instalados localmente.

Uma segunda vertente não tão nova, a dos

thin clients, passou a ganhar força com

o avanço da virtualização nos mercados

corporativos. Tendo a seu favor o aspecto

financeiro, face à economia de energia e

dos baixos custos de manutenção. Esses

dispositivos funcionam basicamente como

um terminal de acesso a um desktop virtual.

Desktop do futuroWainer M. Toni

Page 33: 100 Mini Papers sobre tecnologia

Abril, 2010

32 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Recentemente ressurgiram os chamados

netbooks, cuja portabilidade é o maior

apelo, com seu diminuto tamanho e

extrema leveza, combinados com preços

atraentes. Sem falar na substancial

popularização dos smartphones, hoje

verdadeiros computadores de bolso.

Todos esses dispositivos, aliados às novas

maneiras de se acessar a área de trabalho

ou conteúdos, darão origem ao “Desktop

do Futuro”, o qual dependerá de uma

infraestrutura virtual (pública ou privada)

e deixará de ser um hardware específico,

atrelado a um determinado local, para

ser um ambiente de trabalho dinâmico e

acessível a todo momento.

Novas oportunidades de trabalho

surgirão com a oferta de produtos e

serviços baseados nesse novo conceito,

beneficiando não só as empresas

que se ocupam da construção dessas

infraestruturas virtuais, mas também aos

usuários que farão melhor uso do tempo

e dos recursos. Imagine poder acessar

todas as suas aplicações e documentos

não importando onde estejam, através

de qualquer dispositivo que se tenha em

mãos!

O ambiente de trabalho nunca mais

ficará confinado em um PC. No futuro a

relevância estará nos métodos de acesso e

não na propriedade de um dispositivo. Um

novo paradigma será quebrado, e quem não pegar essa “onda”

poderá acabar “morrendo na praia”.

Para saber mais

http://tiny.cc/desktop71 (Como será o desktop do futuro)

http://tiny.cc/desktop589 (Virtual Desktops VMware view)

http://tiny.cc/desktop432 (Desktop of the future article)

Page 34: 100 Mini Papers sobre tecnologia

Março, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 33

Cloud Computing é, de fato, o assunto do momento em TI.

Porém, como em toda nova tecnologia que promete causar

uma revolução, muitos questionamentos vêm à tona e, no

caso de Cloud Computing, o principal está na segurança.

Pesquisas recentes indicam que 69% dos tomadores de

decisões consideram os pontos relacionados a segurança como

os maiores inibidores para adoção de nuvens públicas que,

diferentemente das privadas, não oferecem ao cliente controle

sobre sua infraestrutura.

Para entendermos melhor o conceito de nuvem pública,

tomemos como exemplo a interessante analogia feita por

Nicholas Carr em seu livro The Big Switch (A Grande Mudança),

no qual defende que, assim como a energia elétrica deixou de

ser gerada de forma descentralizada para se tornar um serviço

público, o mesmo acontecerá com os serviços de TI. Estima-se

que, até 2013, cerca de 20% da carga computacional do mundo

corporativo estará funcionando em infraestruturas de nuvens

públicas. E esse processo pode ser acelerado ainda mais se

todos tiverem uma visão mais clara de alguns pontos cruciais

dessa tecnologia, a saber:

Privacidade: A garantia de privacidade dos dados armazenados

na nuvem é de fato uma das maiores preocupações de

potenciais usuários, que questionam como e quão cuidadosa

será a manipulação e administração de seus dados;

Eliminação de Dados: Em um ambiente tradicional, o cliente

apaga os dados de seus discos e, se desejar, executa diferentes

tipos de processos para eliminá-los de forma definitiva. Em

um ambiente de nuvem pública essa tarefa ficará a cargo do

provedor de serviços e o cliente, por sua

vez, não terá controle sobre isso.

Vulnerabilidades: Uma das grandes

preocupações nesse ponto é que, em

casos extremos, uma empresa pode estar

compartilhando a mesma máquina física

de seu concorrente e consequentemente,

obter acesso a seus dados através de

brechas de segurança;

Denial of Service (DoS): Tentativas de

ataques a serviços de TI causam alta

utilização de recursos computacionais,

fator utilizado para cobrança dos serviços

pelo provedor. O desafio neste caso está

em como isso é controlado e quem paga

essa conta.

Disponibilidade: Se por um lado há uma

tendência de aumento na disponibilidade

Os paradigmas e desafios de segurança em Cloud ComputingHélvio de Castro Machado Homem

Page 35: 100 Mini Papers sobre tecnologia

Março, 2010

34 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

do serviço devido à utilização do

conceito de grid computacional, por

outro é importante observar que, nas

nuvens públicas, o sistema passa a

ser mais dependente dos links de rede

com a Internet que, em geral, são mais

vulneráveis a instabilidades e falhas.

Há ainda as implicações legais, pois

devido ao fato da arquitetura permitir que

os servidores da nuvem sejam distribuídos

em diferentes regiões do mundo, a

transferência de dados entre fronteiras

pode caracterizar uma violação às leis em

países com restrições a essa prática.

A tendência é que respostas definitivas

a essas questões surjam com o

amadurecimento da tecnologia e que,

órgãos governamentais atuem na criação

de normas e padrões que garantam

o endereçamento desses desafios.

Será ainda necessário, adequar os

procedimentos de auditoria, para que

todos os elementos técnicos e processuais

que compõem as nuvens possam ser

verificados adequadamente.

Assim como em toda nova tecnologia,

os riscos existem e devem ser mitigados

da melhor maneira. Um excelente

ponto de partida é a escolha de um

provedor de qualidade, que garanta

que os componentes do ambiente serão

devidamente configurados e gerenciados

e, que possua processos transparentes, atualizados e

devidamente documentados em cláusulas contratuais, de modo

a fornecer ao cliente todo conforto necessário para escolha do

novo serviço.

Para saber mais

http://cloudsecurity.org

http://www.cloudsecurityalliance.org

http://computingonclouds.wordpress.com/

Page 36: 100 Mini Papers sobre tecnologia

Março, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 35

Biocomputação ou Bioinformática, é um dos campos mais

nobres e em ascensão na pesquisa científica, o qual tem sido

utilizado para a análise de sequências biológicas a fim de obter

conhecimentos estruturais, evolucionários e funcionais de

organismos. Esses estudos permitem, por exemplo, identificar

as causas de doenças e criar métodos para combatê-las ou

viabilizar a produção de alimentos e processos químicos com

menores custos.

A pesquisa moderna em Biologia Molecular não seria possível

sem a Biocomputação, pois existem diversos processos de

análise que seriam inviáveis se fossem manuais. Portanto, ter

um ambiente de TI adequado é um pré-requisito para o sucesso

nessa área científica.

O desafio começa pela capacidade de armazenar dados devido

aos volumes gigantescos envolvidos. O dbEST, por exemplo,

maior banco de dados biológico público do mundo, conta com

mais de 16 milhões de ESTs (Expressed Sequence Tags). Bases

como GenBank, PDB, SwissProt, PIR e PRF possuem juntas mais

de 2.3 milhões de sequências de proteínas.

A grande complexidade dos algoritmos somada ao volume

de informações cria mais um obstáculo, que é o tempo de

processamento. A ferramenta BLAST, uma das mais utilizadas na

comparação de similaridade entre sequências biológicas, precisa

processar grandes repositórios em tempo viável. Servidores

de alto desempenho e ambientes de Cloud Computing

acrescentam flexibilidade e capacidade de processamento

aos laboratórios. Soluções de Grid Computing ajudam a tratar

grandes volumes de dados através do processamento paralelo

em massa. Uma das mais conhecidas é o

World Community Grid (WCG) o qual ajuda

a resolver em meses problemas científicos

que demorariam milhares de anos para

serem analisados, graças ao poder de

processamento ocioso de milhares de

computadores. Para participar do WCG,

basta ter acesso a Internet e instalar um

Desafios de TI em biocomputaçãoGuilherme Steinberger Elias

Page 37: 100 Mini Papers sobre tecnologia

Março, 2010

36 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

software cliente em seu computador

pessoal. Existem opções para se escolher

quando o software pode processar os

dados e também quais os projetos de

interesse, dentre eles estão o Discovering

Dengue Drugs Together, Nutritious Rice

for the World e o FightAIDS@Home.

Isso não é tudo. Um outro desafio é o

de se organizar, compartilhar, integrar e

reutilizar os resultados obtidos através de

experimentos bem sucedidos de centenas

de laboratórios. A enorme quantidade de

bases, sites e ferramentas dispersas de

forma não integrada e sem padronização

tornam mais lenta a evolução da Biologia

Molecular. Existe a necessidade de se

estruturar os dados de forma eficiente

em bancos de dados, de consultá-los e

publicá-los em portais Web assim como

de disponibilizá-los para outros usuários

ou ferramentas.

Existem oportunidades para arquiteturas

orientadas a serviços ajudarem na

padronização e integração entre os

laboratórios. Soluções de portais com

funcionalidades de busca avançada,

formulários, tabelas, gráficos, RSS, Blogs

e Twitters facilitam a comunicação entre

os pesquisadores. Soluções analíticas

que aplicam conceitos de data mining

ajudam a extrair conhecimento das bases

de dados.

Outras soluções de TI ainda em laboratório, como por exemplo,

o chip de nanoestruturas capaz de ler o DNA em alta velocidade,

prometem revolucionar a forma como as informações genéticas

são obtidas para análise. O futuro da Bioinformática, a curto

prazo caminha em direção de uma maior automação no processo

de sequenciamento, assim como uma associação mais ampla

entre genes e doenças. A longo prazo espera-se aplicações

para a medicina personalizada baseada na genética individual

para prevenção e tratamento de doenças. As soluções de TI

são imprescindíveis na aceleração das conquistas em biologia

molecular através da Bioinformática.

Para saber mais

http://www.dbbm.fiocruz.br/GenomeComparison

http://www.ncbi.nlm.nih.gov/Genbank

http://www.worldcommunitygrid.org/

Page 38: 100 Mini Papers sobre tecnologia

Fevereiro, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 37

Ultimamente se fala muito em Web 2.0, Software as a Service

(SaaS) e outros recursos que tornam cada vez mais poderosas as

aplicações disponíveis tanto na intranet das empresas como na

Internet. Isso eleva a importância dos navegadores web (ou web

browsers), pois deles depende muito a experiência do usuário

na utilização dessas aplicações.

No início da década de 90, os hoje finados NCSA Mosaic e

Netscape tornaram-se os primeiros navegadores web de maior

destaque entre a comunidade de usuários da Internet e abriram

as portas para um novo mundo, a World Wide Web.

O Netscape manteve seu domínio na preferência dos usuários

até o Internet Explorer assumir a liderança no final da década

de 90. Os principais fatores a favor do Internet Explorer foram

a sua ampla distribuição (ele já vinha pré-instalado com o

sistema operacional Microsoft Windows, líder absoluto entre

os computadores pessoais) e os recursos que a Microsoft tinha

para investir nele, pois ela já havia identificado a importância de

ter uma presença forte nesse mercado.

Durante essa disputa pela hegemonia entre os navegadores,

surgiu um problema que perdura até hoje: as funcionalidades

exclusivas que cada fabricante coloca em sua ferramenta,

que fazem com que um site seja melhor visualizado em um

determinado navegador e, por vezes, nem sequer funcione nos

demais.

No início dos anos 2000, outros navegadores surgiram, mas

não ameaçaram a liderança, que se manteve absoluta, do

Internet Explorer. Um deles foi o Opera, que, embora nunca

tenha alcançado muita popularidade entre os usuários da

Internet, tornou popular uma série de

recursos, tais como navegação em abas,

bloqueador de pop-ups e ferramenta de

busca integrados, além da possibilidade

de instalar complementos conhecidos

como extensões para incluir novas

funcionalidades. Apesar de não ter uma

representatividade expressiva entre os

usuários, o Opera tem uma participação

significativa no mercado dos dispositivos

móveis, como PDAs (Personal Digital

Assistants) e smartphones.

Em 1998, antes de ser comprada pela

AOL, a Netscape liberou o seu produto

O mar está para os navegadoresCristiane M. Ferreira

Page 39: 100 Mini Papers sobre tecnologia

Fevereiro, 2010

38 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

como código aberto, dando origem ao

Projeto Mozilla, dentro do qual surgiu, em

2004, o Firefox, que voltou a aquecer a

chamada “guerra dos navegadores”. O

Firefox tem ampliado seu market share de

forma consistente desde seu lançamento

e, hoje, é o segundo navegador mais

usado.

Outras empresas também estão

interessadas nesse mercado e já entraram

na guerra. A Apple liberou em 2007 uma

versão do navegador Safari, até então

disponível apenas na plataforma Mac OS,

para Windows. A Apple também ganhou

um considerável market share dentre os

dispositivos móveis, através da inclusão do

Safari no iPhone, que também popularizou

a navegação na Internet através de

smartphones.

Outra gigante que entrou na briga foi a

Google, com o lançamento do Chrome,

divulgado como o browser mais leve e

rápido disponível no mercado.

O período em que o Internet Explorer

dominou a Web foi marcado pela

falta de grandes novidades na

tecnologia dos navegadores. Com as

novas funcionalidades apresentadas

principalmente pelo Opera e pelo Firefox,

a Microsoft se viu obrigada a incorporar

uma série de melhorias em seu navegador

disponíveis a partir da versão 7.

A demanda por melhores funcionalidades, maior padronização

e segurança tem obrigado as empresas a atualizarem e criarem

novas funcionalidades para seus produtos numa frequência cada

vez maior. E, nessa guerra, é melhor que não hajam vencedores,

pois, enquanto ela existir, os fabricantes buscarão melhorar cada

vez mais seus produtos, para conquistar os exigentes usuários. E

somos todos nós quem ganhamos com isso.

Para saber mais

http://en.wikipedia.org/wiki/Browser_wars

http://en.wikipedia.org/wiki/Web_browser

http://www.ibm.com/developerworks/web/library/web-work.

html

Page 40: 100 Mini Papers sobre tecnologia

Fevereiro, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 39

Na agricultura tradicional o planejamento e o gerenciamento

de uma cultura se baseia em dados médios. Ou seja, dada uma

área visualmente homogênea, coletam-se amostras de solo e

monitoram-se pragas e doenças, para que sejam recomendados

os fertilizantes, corretivos, defensivos e irrigação, de acordo

com índices médios encontrados naquela área.

Essas áreas homogêneas recebem o nome de talhões, sendo

comum em grandes culturas a adoção de talhões com grandes

variações de tamanho, desde dezenas até centenas de hectares

(1 hectare = 10.000 m2).

Ocorre que nessas áreas - ditas homogêneas - há variabilidade

de todos os tipos, que podem gerar desperdícios, uso

desnecessário de poluentes, bem como interferência na

produtividade agrícola.

Até a década de 90, a tentativa de se trabalhar com áreas

menores era dispendiosa e pouco eficiente, demandando

demarcações físicas nas áreas, inviável para grandes culturas

mecanizadas.

Nos últimos anos tivemos a popularização de duas tecnologias,

o Geographic Information Systems (GIS), que é um sistema

de armazenamento de dados de posições geográficas com

os seus atributos (concentração de nutrientes, porcentagem

de infestação de pragas e doenças e produção) e o Global

Positioning System (GPS), amplamente conhecido e que

provê informação sobre o posicionamento de equipamentos

em coordenadas de latitude, longitude e altitude. Essas duas

tecnologias viabilizaram a possibilidade de uma agricultura mais

precisa.

A combinação de GIS (disponível em um

microcomputador) e GPS (em dispositivos

portáteis), aliados a recomendações

adequadas para cada fração da área,

resulta na definição de uma área

homogênea com uma precisão de dezenas

de metros quadrados, mil a dez mil vezes

menor que um talhão tradicional. Isso se

chama “agricultura de precisão”.

A tecnologia permite a utilização racional

de recursos como água, fertilizantes e

defensivos agrícolas, bem como saber

a resposta em produção dessas “micro”

áreas.

Para tanto, os tratores e implementos

agrícolas estão se transformando,

incorporando sistemas embarcados de

informação acoplados a dispositivos

Precisão na agriculturaHugo Rozestraten

Page 41: 100 Mini Papers sobre tecnologia

Fevereiro, 2010

40 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

coletores, analisadores e atuadores,

permitindo dosagem dinâmica, ou seja,

aplicação de produtos de acordo com

cada posicionamento.

Dentre os tipos de sensores utilizados

para coleta de informações, um exemplo

interessante é um sensor ótico utilizado

para evidenciar deficiências minerais por

meio da análise de coloração das folhas

das plantas.

O processo se inicia com uma varredura

completa do talhão para a coleta

de dados. Depois disso percorre-se

novamente a área, quando o sistema –

previamente alimentado com dados dessa

área - controla o dosador da adubadora

de precisão e a aplicação do fertilizante,

sendo possível fazer a adubação somente

nas plantas deficientes, e não em todo o

talhão, otimizando a aplicação e evitando

o gasto desnecessário de produtos.

A tecnologia aplicada no município de

Não-Me-Toque, no Rio Grande do Sul,

propiciou em 2007 uma redução de 30%

no uso de fertilizantes, e aumento de

9% na produtividade de grãos. No setor

sucroalcooleiro do Estado de São Paulo

essa tecnologia já é adotada em pelo

menos 56% das usinas pesquisadas pela

ESALQ.

Hoje, com os recursos naturais cada vez

mais escassos e recursos tecnológicos

cada vez mais presentes, a agricultura de precisão é fundamental

para o crescimento da produção eficiente de alimentos em

grande escala, reduzido desperdício e com menor agressão ao

meio ambiente.

Para saber mais

http://www.agriculturadeprecisao.org.br

http://www.precision.agri.umn.edu

Page 42: 100 Mini Papers sobre tecnologia

Janeiro, 2010

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 41

De acordo com uma pesquisa realizada em 2009 pela Nielsen

Online, as redes sociais e blogs são frequentados por oitenta

por cento dos brasileiros que acessam a Internet. Com esse

crescimento das redes sociais, as pessoas têm cada vez mais

chance de expressarem suas opiniões desde política até sobre

produtos ou marcas. Isso significa que, se uma empresa é

bem falada nas redes, sua oportunidade de negócios pode se

multiplicar rapidamente. Se o comentário é negativo, sua fama

pode ser afetada.

Mas não é tão simples para uma companhia entrar em uma

rede social. É necessário sair de uma comunicação em massa

profissional, para uma divulgação mais direcionada. Em face a

tantas comunidades e redes sociais distintas, é necessário um

modo diferente de alcançar todo o público.

Para se divulgar um produto ou uma empresa em uma rede

social é preciso saber exatamente onde a marca será colocada e

qual será o propósito. A empresa deve conhecer bem o tipo de

usuário de cada rede antes de começar qualquer tipo de ação.

A segmentação do público é algo muito importante.

Mas as redes sociais podem ser exploradas de formas diferentes

pelas empresas, além da divulgação de produtos. Por exemplo,

através da criação de um perfil da empresa nas redes para receber

opiniões e escutar seus clientes, se aproximando dos mesmos.

Outra abordagem é envolver os internautas na criação de novos

produtos, realizando enquetes sobre como este deveria ser,

solicitando opiniões, e possibilitando o acompanhamento do

desenvolvimento do mesmo. O uso das redes sociais permite

que as empresas estabeleçam uma relação mais próxima com

o cliente, acompanhando qual o reflexo

de seus produtos, marcas e ações pelas

redes.

Uma fatia muito pequena de empresas já

entrou nessa nova forma de comunicação.

No Twitter, por exemplo, as empresas

representam somente 2,49% do total de

perfis registrados de acordo com o Censo

de Usuários de Twitter no Brasil (@censobr).

A Kodak tem usado a rede para promover

seu Blog e Twitter divulgando e discutindo

os posts com os seguidores. No Twitter

a empresa já possui 12723 seguidores e

já enviou mais de 4000 tweets. Outras

empresas estão aproveitando as redes

para de fato vender seus produtos. O site

Comprafacil.com lançou em agosto vários

leilões pelo Twitter. A LG também lançou

As empresas nas redes sociaisBruno C. Faria

Page 43: 100 Mini Papers sobre tecnologia

Janeiro, 2010

42 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

um perfil para seu novo refrigerador

Top Mount que distribuiu kits durante a

campanha.

A contrapartida é quando o usuário está

insatisfeito. Alguns usuários de Internet

banda larga de uma empresa colocaram

no Twitter um comentário sobre a

indisponibilidade do serviço. O objetivo

era apenas expressar sua insatisfação na

rede, mas alguns dias após o comentário

a empresa entrou em contato com um dos

usuários pelo telefone, desculpando-se

pelo transtorno e informando que já estava

trabalhando para resolver o problema.

Algumas empresas já estão mapeando

o que as pessoas estão falando sobre

sua marca, seus produtos e serviços em

comunidades e fóruns, como uma forma

de entender melhor o comportamento do

consumidor. Esse método é conhecido

como monitoramento de Buzz Marketing.

As comunidades também ajudam as

empresas a entender melhor seus

funcionários, através da análise das

comunidades frequentadas, quais são os

interesses e perfis de cada um. É claro que

não se deve entrar em uma comunidade

falando mal da empresa ou de assuntos

não apropriados. Isso pode trazer uma

imagem negativa e levar o funcionário a

não ser bem visto e a empresa a tomar

ações corretivas.

Com as redes sociais e seu poder de comunicação se

desenvolvendo de forma constante e rápida, empresas dos mais

variados nichos precisam estar atentas para não serem deixadas

para trás nessa nova maneira de se comunicar e divulgar suas

marcas. Um novo desafio para quem quer crescer e ser relevante

na nova era da informação.

Para saber mais

http://info.abril.com.br/arquivo/

http://www.usatoday.com/tech/products/2008-10-07-social-

network-work_N.htm

Page 44: 100 Mini Papers sobre tecnologia

Dezembro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 43

A infraestrutura de rede elétrica é, por concepção, um dos

sistemas de maior capilaridade e alcance, dentre os que

viabilizam serviços aos clientes em qualquer segmento de

mercado. O que mudou nas últimas décadas foi o grau de

interligação dessa rede. Hoje é cada vez mais comum encontrar

o chamado grid, um modelo de conexão entre diferentes fontes

de energia que aumenta a robustez do sistema elétrico caso

ocorra falha em algumas de suas partes. Uma das maiores

contribuições desse modelo foi ampliar as possibilidades de

uso dos recursos naturais com a integração de tecnologias

emergentes de geração de energia (eólica, solar, mecânico-

marítimas, entre outras) à malha de distribuição.

O controle da composição dessa malha, chamada matriz

energética, tornou-se uma questão estratégica para as

distribuidoras. Com o aumento da dependência pelo uso da

energia, a intolerância à sua falta por parte dos clientes cresceu

muito nos últimos anos. Além disso, o preço final depende da

dinâmica dessa matriz (secas, baixa intensidade solar, pouco

vento, etc.) e, por isso, tornou-se desafio reduzir o tempo entre

a variação de custo e o preço final, evitando que estimativas

prejudiquem o cliente ou a distribuidora.

O SmartGrid surgiu para ajudar a controlar esses fatores de

risco, utilizando a informática para monitorar a malha de energia,

controlar processos, desencadear ações corretivas a problemas

detectados, estabelecer a precificação em tempo real para

o consumo da energia e, não menos importante, funcionar

como ferramenta de relacionamento com o cliente, que agora

pode saber instantaneamente o valor da energia paga por meio

de informações disponibilizadas pelo

medidor de energia de sua casa.

O SmartGrid contribui ainda para o

conforto do cliente, pode enviar um

aviso de problemas na rede elétrica

antes mesmo de o cliente chegar em

casa, com estimativa de conclusão do

reparo; aparelhos inteligentes poderão

ser comandados remotamente e

preparar alimentos ou mesmo informar

o estoque de lasanha na geladeira a

alguém planejando um jantar em casa

com amigos; eletrodomésticos poderão

solicitar manutenção por desgaste ou

A sinergia do planeta inteligenteFabiano Ferreira

Page 45: 100 Mini Papers sobre tecnologia

Dezembro, 2009

44 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

instabilidade na rede elétrica, evitando

problemas inesperados. Haverá também

ganhos financeiros para o cliente, como

vender parte da energia armazenada

por seu veículo elétrico inteligente,

quando estacionado, de volta à rede

para compensar um súbito aumento de

consumo local; equilibrar picos sazonais

de consumo em sua casa de veraneio com

telhados que convertem energia solar em

elétrica, em regiões que não motivem as

distribuidoras a realizar investimentos na

infraestrutura da rede elétrica; permitir

a operação de alguns equipamentos

somente em horários econômicos ao

receber informações do medidor sobre o

preço da energia.

Empresas como a IBM estão empenhadas

em apresentar arquiteturas e soluções

para o SmartGrid, com iniciativas

multidisciplinares envolvendo diversas

parcerias, como é o caso da Gridwise

Alliance. Outras como a Microsoft,

também interessadas no tema, apresentam

iniciativas para que as pessoas tenham

consciência do uso da energia e passem

a controlar seus hábitos de forma simples

e eficiente.

Num futuro próximo, as distribuidoras

contarão com dispositivos inteligentes

para cuidar da rede elétrica, armazenar

informações e tomar decisões com base

no seu histórico comportamental, tentando, por exemplo,

recuperar automaticamente uma falta de energia realizando

manobras na rede de distribuição, como faz um roteador de

redes de computadores, quando há congestionamento ou

falhas.

A mudança no relacionamento com a energia requer

remodelamento da tradicional infraestrutura de TI,

telecomunicações e procedimentos de campo para garantir

segurança, continuidade e precisão exigidas pelos clientes e

órgãos reguladores. Nosso bem-estar dependerá cada vez mais

das escolhas tecnológicas das distribuidoras de energia para o

SmartGrid, nesse novo paradigma de uso racional dos recursos

energéticos. Esta é a era da sinergia no relacionamento entre

pessoas, distribuidoras de energia e meio ambiente.

Para saber mais

http://www.ibm.com/energy

http://www.gridwise.org

http://www.microsoft-hohm.com

Page 46: 100 Mini Papers sobre tecnologia

Novembro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 45

A evolução da TI é sempre comentada como um fenômeno

inigualável quando comparada a outras frentes, sejam elas

das ciências exatas ou humanas. A ideia deste artigo surgiu

há algumas semanas, quando meu filho de 13 anos estava

configurando seu futuro PC pela Internet e me perguntou se

seria melhor especificar 3GB ou 4GB de memória RAM. A dúvida

dele fazia sentido, afinal significava uma enorme diferença de 1

bilhão de caracteres. É muito pouco provável que a geração

dele saiba o que foram os primeiros “cérebros eletrônicos”,

criados como uma evolução das antigas tabuladoras de cálculo.

Por isso vamos a um pouco de história.

A família System/360, terceira geração de mainframes da

IBM, anunciada há 45 anos, em abril de 1964 representa os

primeiros computadores eletrônicos digitais que definiram

uma arquitetura de hardware e introduziram o conceito

dinâmico, que possibilitou pela primeira vez a configuração

de periféricos externos (discos, fitas, impressoras, etc.) de

forma independente,

Esses enormes computadores ainda não suportavam múltiplos

processadores, e os mais poderosos vinham com 64KB de

memória composta por núcleos de ferrite. A entrada de dados

era feita através de cartões perfurados de 80 colunas e não

existia memória virtual. Os programas eram desenvolvidos em

linguagem de montagem (Assembly), na qual cada instrução

correspondia a uma outra em linguagem de máquina. Eram

recheados de sofisticadas técnicas de programação para

melhor aproveitar os parcos recursos disponíveis. Era o tempo

dos S/360 modelos 25, 30 e 40, instalados a partir de 1969

nos maiores clientes da IBM no Brasil.

Esses mainframes suportaram o início da

automação de processos.

Para acompanhar a evolução do hardware a

IBM desenvolveu os sistemas operacionais

OS/MFT e OS/MVT, tataravós dos que

existem hoje, os quais ainda carregam

em seu DNA uma forte herança genética

daquela época. O multiprocessamento

(ainda que com apenas dois processadores)

com compartilhamento da memória real

foi possível no S/360 modelo 65, já com

256KB de memória. .

O próximo grande salto evolutivo foi o

advento da família IBM System/370,

anunciada em junho de 1970. O S/370

modelo 158 vinha configurado com 2

processadores com capacidade inédita

Uma breve história do tempoJosé Carlos Milano

Page 47: 100 Mini Papers sobre tecnologia

Novembro, 2009

46 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

de processar 1 milhão de instruções por

segundo (MIPS), compartilhando 1MB de

memória real. Esse avanço no hardware

permitiu que os primeiros sistemas

operacionais com suporte a memória

virtual fossem desenvolvidos pela IBM.

Eram o OS/SVS, o OS/VS1, o DOS/VS

e o VM/370, esse último considerado o

precursor da virtualização de recursos, tão

comum hoje no mercado (VMWare, Xen,

PowerVM e Hyper-V, etc.).

A década de 80 foi bastante profícua

para a evolução da TI. Rompeu-se a

barreira de apenas 2 processadores

compartilhando memória (o IBM S/370

modelo 3084, por exemplo, suportava

4 processadores). Nessa década a

tecnologia de processadores RISC foi

introduzida no mercado, o que permitiu o

desenvolvimento de uma nova plataforma

computacional baseada em servidores

distribuídos de pequeno e médio portes

de diversos fabricantes, que rodavam

variantes do sistema operacional UNIX. E

ainda nessa década disseminaram-se os

microcomputadores, em especial o IBM PC

com seus 16KB de memória e um sistema

operacional que não suportava interface

gráfica (PC-DOS), abrindo o caminho para

o surgimento do Windows.

De volta aos mainframes e seguindo na

linha do tempo, na década de 90 foi

anunciada a família IBM System/390, que introduziu o suporte ao

sistema operacional Linux e o conceito de paralelismo (SysPlex),

atingindo a capacidade de processamento de 1.000 MIPS.

Nos mainframes atuais, chamados de IBM System z, surgiu

a arquitetura de processadores de 64 bits, assim como os

processadores especializados em rodar aplicações Java, Linux e

banco de dados, o que possibilitou a consolidação de diversos

tipos de carga no mainframe, reduzindo o custo total de

propriedade da infraestrutura de TI.

Quanto ao meu filho, ele acabou ficando com 4GB porque

naquela semana o 1GB adicional fazia parte de um pacote

promocional e teria custo zero. Tempos modernos.

Para saber mais

http://www.ibm.com/history

http://www.computerhistory.org/

Page 48: 100 Mini Papers sobre tecnologia

Outubro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 47

Costumeiramente a seguinte pergunta é realizada para as

pessoas: “O que você quer ser quando crescer?” As respostas

são as mais variadas possíveis, desde astronauta até jogador

de futebol, passando por médico, bombeiro e até analista de

sistemas. Logo que esses profissionais iniciam em seu primeiro

emprego, é comum se espelharem em alguma pessoa na

empresa, ou fora dela, com o objetivo de, em alguns anos,

ocupar determinado cargo ou possuir reputação semelhante.

Nesse primeiro momento, o que nem sempre fica claro é o

que deve ser feito para chegar lá. E nem como é estar lá. Itens

importantíssimos como os conhecimentos e as experiências

necessários para a posição, o dia a dia típico do profissional, os

prazeres e dissabores encontrados, e a pressão por resultados,

nem sempre são perceptíveis.

De forma a ajudar o profissional a trilhar seu caminho para o

sucesso, e a reduzir riscos de uma decepção futura com sua

carreira, existe a mentorização.

Mentorização pode ser definida como um relacionamento entre

duas pessoas para transferência de experiências e conhecimentos.

Na mentorização existem dois papéis: o mentor e o mentée

(mentorizado ou protegée). A responsabilidade do mentor é

repassar ao mentée seus conhecimentos e experiências, não

de forma com que este siga exatamente os mesmos passos,

mas sim que seja orientado a atingir seus objetivos através das

suas próprias ações e experiências. Por causa desse papel de

orientador, o mentor também é conhecido como coach.

Podemos dizer que a responsabilidade do mentée é ainda

maior que a do mentor, afinal ele deve ser responsável pelo

desenvolvimento de sua carreira, por

definir os objetivos do relacionamento,

por cumprir tudo o que é combinado

com o mentor, e principalmente, aceitar

críticas e sugestões de uma pessoa mais

experiente e com um ponto de vista,

por muitas vezes, diferente do seu. A

comunicação clara e franca entre os dois

é requisito fundamental para o sucesso da

relação.

Os objetivos da mentorização podem

ser diversos, e podemos destacar a

transferência de conhecimentos sobre um

produto ou tecnologia, o aconselhamento

de carreira, e até mesmo a socialização

de um indivíduo dentro de um grupo.

É possível ainda, e recomendável,

estabelecerem-se diversas relações de

Ensina-me com teus erros – e acertosCarlos Eduardo Abramo Pinto

Page 49: 100 Mini Papers sobre tecnologia

Outubro, 2009

48 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

mentorização em paralelo com objetivos

distintos.

Tradicionalmente, a mentorização é

realizada através de reuniões presenciais

entre o mentor e o mentée. Entretanto,

com a evolução da tecnologia, hoje é

possível criar relações entre pessoas

nas mais diferentes partes do mundo.

Ferramentas como e-mail, vídeo

conferência, blogs, e outras ferramentas

de colaboração podem ser utilizadas. Isso

permite que relações cada vez mais ricas

possam ser estabelecidas, agregando-

se diferentes culturas e experiências,

eliminando limitações de distância e falta

de tempo.

A mentorização é uma atividade

voluntária, e é uma relação onde todos

são beneficiados: o mentée aprende

com o conhecimento do mentor, e todos

aprendem com a rica troca de experiências.

Caso você faça parte de um relacionamento

de mentorização, parabéns! Caso contrário,

nunca é tarde para se começar. Todos

temos o que compartilhar e aprender com

outras pessoas, portanto, mãos à obra!

Para saber mais

http://en.wikipedia.org/wiki/Mentoring

http://www.mentoring.org

http://www.rotaryementoring.org/por/mentoring.html

Page 50: 100 Mini Papers sobre tecnologia

Outubro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 49

Reuniões com toda a equipe presente em uma sala, conversas olho

no olho, apertos de mão ou um simples “bom dia” pelos corredores

são situações que estão se tornando cada vez mais raras.

Hoje é comum as pessoas se comunicarem por meios virtuais,

seja por uso de emails, salas de bate-papo (chats), sites de

relacionamentos, videoconferências, cursos a distância ou voz

pela internet (VoIP), combinados ou não com os meios de

comunicação a distância tradicionais tais como telefones fixos,

celulares, radiocomunicadores e TV. Além disso, existem pessoas

que trabalham em suas residências (home office) conectadas

por algum meio de comunicação com suas empresas.

O desejo de se comunicar do ser humano é muito antigo e os

serviços de telecomunicações de um modo geral visam não

só atender a esse desejo mas em estendê-lo, possibilitando

comunicações cada vez mais remotas e em muitas direções

simultâneas. Por esses meios, além do acesso a um espaço

virtual no qual se pode desenvolver relacionamentos e acessar

informações, também é possível publicar e divulgar suas

próprias fontes de informação.

A Tecnologia da Informação e Comunicação, com seu forte

impacto inovador, está funcionando como um verdadeiro

desestabilizador das estruturas vigentes, solucionando

problemas e criando situações inteiramente novas. Estamos

deixando a sociedade industrial de onde viemos rumo a uma

nova sociedade, que se caracteriza pela personalização das

interações com a informação e as ações comunicativas.

Quer seja para reuniões, envio de mensagens, um simples

feedback sobre algum assunto ou uma arriscada cirurgia em um

hospital, a virtualização está encurtando as

distâncias entre as pessoas remotas, ainda

que, ironicamente, esteja diminuindo

cada vez mais as chances de contato ou

presença física.

Os benefícios inquestionáveis estão na

economia com as despesas de viagens

e no tempo ganho pela inexistência de

deslocamento físico.

No caso daqueles que trabalham em home

office, parece haver um impacto positivo na

vida familiar e pessoal, uma vez que o tempo

que se deixa de perder com deslocamentos

pode ser dedicado à família e às atividades

Virtual ou presencial?Paulo da Costa

Page 51: 100 Mini Papers sobre tecnologia

Outubro, 2009

50 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

pessoais. Outra percepção diz respeito ao

fato de, por estar distante, o profissional

remoto tende a se tornar mais organizado,

fazendo melhor uso do agendamento de

tarefas, regulando melhor os horários de

trabalho e descanso e, por que não, se

tornando mais responsável à medida que

tenta compensar o distanciamento com uma

maior eficiência na execução de suas tarefas.

É compreensível também que a

virtualização da interação exija que as

pessoas sejam mais claras e completas

em suas comunicações, a fim de que os

receptores remotos entendam com mais

clareza e exatidão o que está sendo

transmitido. E que também tenham

uma melhor noção do tempo, de fusos

horários, de padrões internacionais

de regras de conduta e etiquetas,

e, de certa forma, desenvolvam um

maior respeito pela diversidade no

tratamento com as demais pessoas.

No mundo virtual não existe espaço

para discriminação de gênero, etnia,

religião ou posição social.

Em um mundo globalizado, no qual

padrões de qualidade são exigidos em

qualquer lugar do mundo, as empresas,

de diversos tamanhos e segmentos, têm

procurado cada vez mais adquirir soluções

ou serviços com as melhores condições

técnicas e comerciais, sendo comum

terem suas bases de dados em um país, sua operação em outro

e a gerência num terceiro.

A virtualização do trabalho, que distancia fisicamente as pessoas

que trabalham juntas é a mesma que tem potencial para

permitir a aproximação virtual entre muito mais pessoas que,

de outra forma, dificilmente interagiriam entre si. Se esse é seu

caso, aproveite o tempo e oportunidade para fazer contatos

com muitas outras pessoas. Se utilizada de forma adequada, a

virtualização é uma ferramenta bastante útil para formação de

networking pessoal e profissional.

Para saber mais

Friedman, Thomas. O mundo é plano. Rio de Janeiro: Editora

Objetiva, 2005.

Page 52: 100 Mini Papers sobre tecnologia

Setembro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 51

Buraco negro é um ponto no espaço-tempo onde a massa

possui densidade infinita e volume zero. Delimitado por uma

fronteira imaginária chamada horizonte de eventos, além desse

limite o que ocorre é a singularidade gravitacional. Como a

velocidade de escape é superior à velocidade da luz, nada é

observável e tudo é invisível e teórico.

Já a singularidade tecnológica, termo criado pelo matemático

e escritor Vernor Vinge, é um ponto no futuro a partir do

qual as mudanças se darão em tal velocidade que hoje é

impossível vislumbrar ou prever o que ocorrerá ou como será

o mundo. Segundo Vinge, por volta de 2030 será possível criar

um computador com inteligência super-humana que iniciará

definitivamente esse processo.

Neil Gershenfeld, diretor do Centro de Bits e Átomos do MIT,

pesquisa sobre um futuro quando a realidade física será invadida

de forma ubíqua por computação embarcada, distribuída

e auto-organizável. Essa capacidade crescerá contínua e

exponencialmente até criar uma realidade virtual de imersão

total e progressivamente realista. Será tão realista que poderá

competir com, e eventualmente substituir, a realidade do mundo

físico em que vivemos, unindo bits e átomos e integrando as

realidades dos mundos virtual e físico.

Ray Kurzweil, futurista e inventor pioneiro nas áreas de

reconhecimento de caracteres e da fala, caminha na mesma

direção que Gershenfeld, mas em sentido oposto. Trabalhando

com modelagem computacional do mundo físico, simulação,

inteligência artificial e realidade virtual, defende que o

argumento básico da Lei de Moore – melhoria exponencial e

crescente – é aplicável não apenas aos

circuitos eletrônicos, mas também a um

sem número de outras tecnologias.

Alguns entusiastas do assunto acreditam

que a singularidade tecnológica seria

o limite da Lei de Moore, alcançado no

instante em que uma máquina desenvolver

capacidade de processamento uma

fração superior à humana. A partir desse

momento, máquinas criariam máquinas

recursivamente melhores de forma

contínua até ser possível fazer upload das

informações do cérebro humano para a

máquina, transferindo o conhecimento

A singularidade tecnológicaWladmir dos Santos Frazão

Page 53: 100 Mini Papers sobre tecnologia

Setembro, 2009

52 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

e a própria consciência, e alcançando a

imortalidade. E tudo isso, acreditam eles,

acontecerá nas próximas décadas! Se

for verdade, muitos dos que leem este

Mini Paper chegarão a esse momento e

poderão, a partir daí, viver eternamente.

A Google criou em parceria com a NASA a

Universidade da Singuralidade, cujo objetivo

é produzir pesquisas multidisciplinares

que, acredita-se, tornarão a singularidade

tecnológica uma realidade.

Mas nesse caminho há uma pedra:

a compreensão dos mecanismos de

funcionamento do cérebro.

Pesquisadores do Howard Hughes Medical

Institute trabalham na engenharia reversa

do cérebro da Drosophila, a mosca da

banana, a fim de compreender os princípios

fundamentais da atividade neurológica.

A IBM pesquisa sobre os microcircuitos

computacionais do cérebro humano há

décadas, desde uma simulação de 512

neurônios realizada nos anos 50, até o

projeto Blue Brain, um estudo iniciado em

2005 para realizar a engenharia reversa do

cérebro dos mamíferos usando simulações

complexas e detalhadas. Um dos muitos

objetivos dessa pesquisa é descobrir como

processar uma quantidade de dados que,

segundo o IDC, cresce a uma taxa de 60%

ao ano. Imagine o volume de informação

gerado, por exemplo, por um sistema

global de monitoração da qualidade da água, com milhões de

dispositivos em rios, lagos e oceanos. Nosso cérebro, pesando

pouco mais de um quilo, realiza tarefas dessa magnitude a todo

instante.

E você? Acredita que um dia será mesmo possível fazer

upload da alma e viver para sempre? Prepare-se: um planeta

mais inteligente está realmente chegando, e o futuro será

surpreendente e imprevisível!

Para saber mais

http://www.spectrum.ieee.org/singularity

http://bluebrain.epfl.ch/

http://www.singularitysummit.com/

Page 54: 100 Mini Papers sobre tecnologia

Setembro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 53

A palavra “informação” tem vários significados. Na área de

Tecnologia da Informação (TI), costuma-se dizer que ela é

um dado inserido dentro de um contexto. Ou seja, o nome

“Michael”, é apenas um dado, mas pode-se transformá-lo

em informação ao se dizer “Michael Jackson” ou “Michael

Schumacher”, por exemplo. Talvez por isso passamos a chamar

de “Tecnologia da Informação” essa área de conhecimento que

antes era conhecida por “Processamento de Dados”. Isto é, o

dado puro é importante, mas só faz sentido se for transformado

em informação.

E o que infraestrutura tem a ver com informação? Embora nunca

tenha existido uma convenção explicitamente estabelecida,

na área de TI a palavra “informação” sempre foi associada a

disciplinas mais relacionadas à parte lógica (software), enquanto

“dado” foi associado mais à infraestrutura física (hardware).

Por exemplo: se nos perguntassem o que é armazenado

em um disco ou uma fita, diríamos que são “dados”, mas

responderíamos que são “informações” caso nos perguntassem

o que é armazenado por um sistema num arquivo ou banco de

dados qualquer.

Contudo, isso está mudando. Com o tempo percebeu-se que

para atender às demandas de negócio, tratar a explosão de dados

advinda das novas tecnologias, e ainda estar em conformidade

com normas e padrões reguladores, seria necessário gerenciar

informações, e não apenas dados. Essa visão começou com o

modelo ILM (Information Lifecycle Management), o qual passou

a gerenciar características do dado, tais como quem e quando

o criou, qual a última vez em que foi alterado ou acessado,

etc. Dessa forma tornou-se possível

tratar as informações de acordo com sua

importância para o negócio, tornando-as

disponíveis ao usuário no tempo adequado

às suas necessidades e, principalmente,

diminuindo custos de armazenamento

pois a informação mais importante passou

a ser guardada em um meio mais rápido e

caro, enquanto a menos importante, em

geral a maior parte, passou a ser guardada

em um meio mais lento e barato.

Esse modelo, no entanto, não foi suficiente

para endereçar todas as preocupações

dessa área, pois se concentrava mais

Infraestrutura da informaçãoAdelson Lovatto

Page 55: 100 Mini Papers sobre tecnologia

Setembro, 2009

54 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

na retenção de dados e não tratava

de outros aspectos fundamentais ao

gerenciamento da informação. Por

essa razão, foi criada a abordagem de

Infraestrutura da Informação (Information

Infrastructure), que contempla quatro

disciplinas, representadas pela sigla

CARS (Compliance, Availability, Retention

& Security), e está alinhada com uma

tendência que o mercado vem chamando

de ICG (Information Centric Governance),

que provê um modelo de gerenciamento

de serviços baseado nas práticas do ITIL

(IT Infrastructure Library), e com enfoque

nos requisitos da informação durante todo

o seu ciclo de vida.

Um exemplo de problema tratado por

Information Infrastructure é o processo de

retenção de dados por longos períodos.

Sabe-se que é possível armazenar um

dado por muito tempo. Em fita, por

exemplo, isso pode ser feito por cerca

de 25 anos, extensível até 40 anos se a

fita for rebobinada periodicamente, uma

vez que o oxigênio impedirá que a mídia

se deteriore antes do prazo. Contudo,

de nada terá valido guardar esse dado

por tanto tempo se, ao recuperá-lo, a

aplicação que é necessária para tratá-lo

tiver sido alterada ou mesmo não exista

mais. Ou seja, teríamos nesse caso apenas

um dado, e não uma informação.

Information Infrastructure pode endereçar esse e outros

problemas pois não só trata das disciplinas relacionadas à

retenção e ao gerenciamento do ciclo de vida da informação,

como ILM já fazia, mas vai muito além disso ao endereçar de

forma mais abrangente as preocupações com conformidade,

disponibilidade e segurança, uma vez que de nada adianta

reter uma informação se ela não estiver disponível no momento

preciso, não tiver integridade ou não atender os requisitos

estabelecidos por leis e normas às quais o seu proprietário deve

obedecer.

Para saber mais

http://www.ibm.com/information_infrastructure/

Page 56: 100 Mini Papers sobre tecnologia

Agosto, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 55

Com o surgimento e disseminação do protocolo HTTP e da

linguagem HTML, no início da década de 90, as páginas Web

tornaram-se um dos principais meios de comunicação entre

usuários e instituições. Nessa época quando as páginas eram

estáticas e não possuíam interação com os usuários, os principais

alvos de ataques de hackers eram os sistemas operacionais,

banco de dados e serviços de emulação de terminais (Telnet) e

transferência de arquivos (FTP).

Em 2004, o termo “Web 2.0” foi criado para descrever as

mudanças e tendências no uso da Web, na direção do aumento

da interatividade, do compartilhamento de informações e da

colaboração. Para isso novas tecnologias surgiram e, com essas,

vieram novas vulnerabilidades que, por sua vez, passaram a ser

o alvo preferido dos ataques de hackers, especialmente no

âmbito dos browsers, servidores e aplicações Web.

Na corrida para impulsionar mais serviços on-line, muitas

aplicações Web frequentemente sofrem com a falta de

segurança. As vulnerabilidades resultantes representam

um caminho fácil para os hackers acessarem ou roubarem

informações confidenciais (pessoais ou corporativas). Um estudo

realizado recentemente pela IBM mostra que a porcentagem de

vulnerabilidades descobertas identificadas como de risco alto é

de cerca de 40%, e com tendência a aumentar.

Os ataques que se utilizam de métodos automatizados de

exploração de vulnerabilidades vêm crescendo bastante, o que

demonstra o grau de exposição das aplicações Web. No período

de 2006 até o final de 2008, as vulnerabilidades que afetaram

as aplicações Web somaram 54% de todas as vulnerabilidades

descobertas. Os tipos predominantes de

ataques são Cross Site Scripting (XSS),

File Include e SQL Injection, sendo que

este último teve um aumento de 134% em

2008, comparando-se com o ano anterior.

A principal causa dessas vulnerabilidades

é a falta de validação correta dos campos

de entrada das aplicações Web. Com

isso, usuários podem submeter dados

arbitrários, e, junto com esses, códigos

maliciosos. Os principais motivos para que

isso possa acontecer são a imaturidade

ou desconhecimento em segurança por

parte dos desenvolvedores, as restrições

de recursos, a falta de tempo e o uso

incorreto das tecnologias.

Muitas empresas acreditam erroneamente

que estão completamente protegidas dos

Segurança em aplicações webThiago Canozzo Lahr

Page 57: 100 Mini Papers sobre tecnologia

Agosto, 2009

56 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

ataques realizados contra suas aplicações

pelo fato de possuírem elementos de

segurança como firewall, IDS (Sistema

de Detecção de Intrusos) ou IPS (Sistema

de Prevenção de Intrusos) que protegem

os servidores em conjunto com algum

processo de execução de varreduras

de vulnerabilidades na camada de

rede. Provavelmente essas empresas

já sofreram ataques em suas aplicações

Web e sequer conseguiram identificá-los.

Um dos motivos para que firewalls, IDS

e IPS não sejam suficientes é que muitas

informações que trafegam na rede são

criptografadas, o que lhes impossibilita a

verificação, a identificação e o bloqueio de

códigos maliciosos.

Mais do que uma prática obrigatória,

segurança de informação deve ser uma

cultura pervasiva ao negócio. A adoção e a

implementação de políticas de segurança

no desenvolvimento de aplicações,

os testes de validação de segurança,

incluindo varredura de vulnerabilidades

nas aplicações Web com ferramentas

automatizadas e o apoio de uma área de

gestão com conhecimento em técnicas

de invasão, são práticas eficazes para

se defender contra ataques e mitigar os

riscos sobre as suas informações e as de

seus clientes.

Para saber mais

http://www.owasp.org

http://www.iss.net

http://en.wikipedia.org/wiki/SQL_injection

Page 58: 100 Mini Papers sobre tecnologia

Agosto, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 57

A mais recente campanha publicitária da IBM nos remete à ideia

de criarmos um mundo mais inteligente, desde a conscientização

e educação de cada indivíduo até o desenvolvimento de

métodos e sistemas que ajudem na construção de um planeta

habitável, confortável e principalmente sustentável.

O evidente crescimento na utilização de sistemas computacionais

aponta para um mundo mais automatizado onde máquinas

controlarão grande parte dos itens essenciais, tais como a

utilização e o tratamento de água, produção e distribuição de

energia, redução de poluentes e muitos outros recursos que

são de extrema importância para o ser humano. Estes sistemas

precisam ser inteligentes para nos ajudar a reverter o processo

de degradação ambiental criado pelo homem.

Quando se fala sobre “inteligência”, é inerente associarmos

a um processo que antes era atribuído essencialmente aos

seres vivos: o processo de aprendizado. É nesse contexto que

apresentamos as Redes Neurais Artificiais (RNAs).

As RNAs são circuitos (redes) de neurônios artificiais (Neurônios

Formais) que associados são capazes de imitar, de maneira

simplória, o processo sináptico do cérebro humano.

O primeiro modelo de Neurônio Formal foi criado pela dupla

Warren McCulloch (um neurofisiologista) e seu aluno Walter

Pitts (um matemático) em 1943, que pretendia descrever o

funcionamento de um neurônio biológico de forma simplista.

Como um exemplo de aplicação das RNAs, imagine um jogo

com 500 palavras em 3 línguas diferentes. Selecionamos uma

palavra e fazemos a seguinte pergunta: É possível identificar a

qual idioma ela pertence?

Esse problema pode parecer

essencialmente humano, pois exige

conhecimento e aprendizagem de

idiomas. Desenvolver uma Rede Neural

Artificial seria uma das abordagens para

a solução, na qual é possível ensinar-lhe

um método de classificação de palavras.

A aprendizagem é feita aplicando-se um

conjunto de palavras conhecidas (chamado

de training set) e ajustando a saída até a

RNA estar apta a fazer a classificação de

forma autônoma. A eficiência dependerá

da função de transferência e dos pesos

das entradas, podendo-se ensinar todas

Redes neurais para um planeta mais inteligenteKiran Mantripragada

Page 59: 100 Mini Papers sobre tecnologia

Agosto, 2009

58 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

as 500 palavras, ou ensinar-lhe a procurar

padrões dentro das palavras que indiquem

sua origem. Dessa segunda forma, se a

RNA for treinada para reconhecer os

padrões adequados, uma palavra inédita

poderia ser classificada corretamente e, ao

longo do tempo, essa RNA se tornaria mais

“experiente” reduzindo gradativamente o

número de erros.

Atualmente há estudos que pretendem

criar RNAs capazes de aprendizagem não

supervisionada, ou seja, sem a necessidade

de intervenção humana para determinar

se a resposta está “certa” ou “errada”.

Outra característica interessante é o

conceito de “força de ligação” entre os

neurônios, que se assemelha à associação

de neurônios biológicos. Sabe-se que

o aprendizado, a repetição de tarefas

e a exposição contínua a determinados

estímulos podem aumentar ou reduzir

a força de conexão entre neurônios

biológicos, tal como em uma RNA.

A humanidade está buscando um

planeta mais inteligente. As pesquisas e

aplicações em Redes Neurais tendem a

crescer em demanda e em potencial de

aplicações. Hoje as RNAs são utilizadas

com êxito em diversos sistemas de

controle, processos industriais, controle

de tráfego aéreo, controle de emissão e

detecção de poluentes, diagnósticos em

medicina, determinação de problemas em TI, reconhecimento

de voz, visão computacional, previsão meteorológica, detecção

de fraudes financeiras e outros.

Aplicando esta e outras técnicas da Inteligência Artificial,

podemos “ensinar” as máquinas a trabalharem a favor do

ser humano e de um mundo mais eficiente, inteligente e

consequentemente sustentável.

Para saber mais

http://www.research.ibm.com/autonomic/

http://en.wikipedia.org/wiki/Artificial_neural_network

http://en.wikipedia.org/wiki/Artificial_neuron

http://www.ibm.com/think/br

Page 60: 100 Mini Papers sobre tecnologia

Julho, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 59

Quantas vezes você já quis abrir um browser para navegar

em algum site em um local onde não havia acesso à Internet

disponível, e imaginou o quanto isso o ajudaria naquele

momento? Pois saiba que você não é o único que já passou por

essa situação. E a boa notícia é que isso está mudando...

Nos últimos anos temos visto uma maior demanda por formas de

acesso móvel à Internet. Isso levou a um aumento no mercado

dos smartphones e também à criação de novos equipamentos e

tecnologias para atender a essa necessidade dos usuários.

Inicialmente impulsionado pelos entusiastas da tecnologia, que

sempre querem possuir os gadgets mais recentes e poderosos,

o mercado dos smartphones tem atraído cada vez mais a

atenção de usuários comuns. Um dos grandes fatores que

levaram à maior popularização desses aparelhos foi a entrada

no mercado do iPhone da Apple. Esse aparelho tornou-se um

fenômeno de vendas no mundo todo. Pouco tempo depois

do lançamento, a versão do browser Safari para o iPhone se

tornou o navegador mais usado dentre os dispositivos móveis,

segundo levantamentos realizados por várias empresas.

Para os usuários que precisam de telas maiores do que

as dos smartphones, mas não tão grandes quanto a dos

notebooks populares, foi criada uma nova categoria de

equipamentos: os netbooks, que são notebooks menores,

com menos acessórios, mais leves, e que com isso oferecem

dois fortes apelos: a mobilidade e o baixo custo. O termo

netbook foi criado através da junção das palavras “Internet”

e “notebook”, evidenciando que o objetivo maior desses

equipamentos é o acesso à Internet.

O conceito dos netbooks foi baseado no

projeto One Laptop per Child (OLPC),

também conhecido como o “Laptop

de 100 dólares”. A ideia original desse

projeto era desenvolver um notebook de

baixíssimo custo para ser distribuído em

países em desenvolvimento para promover

mais efetivamente a inclusão digital,

visando principalmente as instituições de

ensino. Os netbooks se popularizaram

com o lançamento dos equipamentos

da série EeePC da ASUS e, logo em

seguida, as grandes empresas fabricantes

de computadores pessoais aderiram e

Mobilidade para um mundo conectadoCristiane M. Ferreira

Page 61: 100 Mini Papers sobre tecnologia

Julho, 2009

60 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

lançaram equipamentos dessa categoria,

incluindo Acer, Dell, HP e Lenovo.

Em paralelo à oferta cada vez mais

variada de equipamentos, também

temos visto uma maior demanda por

métodos de acesso sem fio à Internet

e melhores taxas de transferências

de dados. No Brasil, isso tornou mais

popular a tecnologia 3G, atualmente

já disponibilizada pela maioria das

operadoras de telefonia celular, e cuja

implantação segue o cronograma da

Anatel que prevê cobertura para a maior

parte das cidades brasileiras ao longo

dos próximos anos. Essa tecnologia

atraiu o interesse de um grande volume

de usuários desde seu lançamento,

principalmente por oferecer capacidades

de banda larga com mobilidade.

Esse cenário cria oportunidades

para empresas que atuam em vários

segmentos, desde as que fabricam

equipamentos até as provedoras de

acesso à Internet, incluindo também

as que se beneficiarão com o maior

volume de acessos aos seus serviços

disponíveis na rede, e as que fornecem

produtos e serviços para implementação

de infraestrutura. Visando esses novos

usuários e seus navegadores portáteis,

várias empresas já criaram versões

mobile de seus sites, mais simplificadas

e redimensionadas para melhor visualização e navegação na

tela pequena de um smartphone.

Unindo a variedade de equipamentos disponíveis atualmente com

as capacidades oferecidas pela tecnologia 3G, o usuário passa

a ter uma grande gama de opções de fácil acesso à Internet

em qualquer lugar, seja para ler e responder seus emails, enviar

mensagens para o Twitter, acessar o Internet Banking, acompanhar

a cotação da bolsa de valores, ouvir músicas, assistir vídeos e

programas de televisão. E isso é só o começo.

O Planeta está cada vez mais conectado. E no quesito

mobilidade as possibilidades são inúmeras e nos revelam que

ainda há muito a ser explorado, tanto por parte dos usuários

quanto das empresas fornecedoras de produtos e serviços para

esse admirável mundo novo.

Para saber mais

http://en.wikipedia.org/wiki/Netbook

http://en.wikipedia.org/wiki/OLPC

http://www.teleco.com.br/3g_brasil.asp

Page 62: 100 Mini Papers sobre tecnologia

Junho, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 61

A evolução tecnológica está a toda velocidade nos dias de hoje.

Vivemos importantíssimas mudanças ao longo dos últimos anos,

com o surgimento e popularização dos mainframes, computadores

pessoais, palmtops, celulares, smartphones, etc. A Internet chegou

e venceu a resistência das pessoas, a barreira das organizações e

até mesmo países, fazendo com que o mundo ficasse “pequeno”,

cada vez mais próximo e sem fronteiras.

Em paralelo, há uma nova revolução acontecendo de forma

silenciosa. Impulsionado pelo aumento na quantidade de

usuários e dispositivos inteligentes, o modelo da Computação

Ubíqua, ou Ubicomp, já se encontra em nosso meio. Esse

modelo foi proposto inicialmente pelo então pesquisador

da Xerox PARC Mark Weiser (1952-1999), em meados de

1988, através de seu artigo “O Computador do século 21”,

no qual ele afirmava que os computadores muito em breve

iriam desaparecer dos olhos humanos e simplesmente estariam

presentes em tudo, embutidos em etiquetas, roupas, móveis,

automóveis, eletrodomésticos, etc. Aparelhos e objetos de uso

do dia a dia poderiam ganhar novas funcionalidades. Desde um

despertador, que além de conhecer a agenda do proprietário

ainda se conectaria à Internet para obter informações do

trânsito, de forma a garantir que seus compromissos não sejam

perdidos, até eletrodomésticos que, além de executarem suas

funções “nativas”, ainda se comunicariam entre si, possibilitando

ao proprietário acionar a lava-louça ou programar o micro-ondas

a distância.

Podemos dizer que a Ubicomp é a interseção entre a

Computação Pervasiva e a Computação Móvel, e com isso

ela se beneficia dos avanços em ambas

as áreas. A Computação Ubíqua surge da

integração da mobilidade com a presença

distribuída, imperceptível, inteligente e

altamente integrada de computadores

e suas aplicações. A palavra “pervasiva”

– derivada do inglês pervasive – não

possui um significado claro em português.

Seu sentido remete a “penetrante”,

“infiltrador”, podendo também ter o

sentido de “difundido”, “espalhado”,

“difuso” e até mesmo “universal”.

Com a Ubicomp teremos computadores

cada vez mais difundidos em nosso

A revolução silenciosa da computação ubíquaMarcos C. Corchs Rodrigues

Page 63: 100 Mini Papers sobre tecnologia

Junho, 2009

62 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

ambiente (embutidos em praticamente

qualquer coisa que possamos imaginar),

sendo usados de forma transparente, ou

seja, sem que nos preocupemos com eles

ou percebamos sua presença. Haverá

também um enorme esforço para tornar

as interfaces com o usuário cada vez mais

amigáveis. Essa é uma tarefa fundamental

para o sucesso desse novo modelo.

Alguns aspectos da Ubicomp merecem

uma atenção especial. Em função da

grande conectividade dos equipamentos,

será preciso que firewalls, antivírus e outros

sistemas de proteção estejam embutidos

nos dispositivos, a fim de garantir a

segurança e a privacidade dos dados

trafegados, através do uso de certificados

digitais, controle de autenticação e

autorização e garantia de integridade das

informações.

Por fim, outra grande preocupação na

implementação do modelo proposto

por Mark Weiser será a complexidade

dos sistemas, mais especificamente a

dificuldade de integração e a facilidade

de uso. Por conta da quantidade

excessiva de dados gerados foi sugerida

a Calm Computing, que determina que

a informação que importa é aquela que

informa sem exigir a nossa atenção.

A próxima era computacional fará com

que não nos preocupemos mais com

as “máquinas”. Elas simplesmente permearão nossas vidas,

participando cada vez mais de nosso cotidiano sem que isso

seja evidente, a não ser que assim desejemos. Essa será a

grande mudança que iremos vislumbrar nesse futuro que se

aproxima.

Para saber mais

http://en.wikipedia.org/wiki/Ubiquitous_computing

http://www.ubiq.com/hypertext/weiser/UbiHome.html

http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html

http://www.computer.org/portal/site/pervasive/

Page 64: 100 Mini Papers sobre tecnologia

Junho, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 63

Imagine você, em um domingo, em frente à televisão, assistindo

a um jogo do seu time do coração através do serviço de IP-TV

que você acabou de contratar e no momento em que seu time

vai bater um pênalti a imagem da televisão começa a congelar.

Agora imagine outra cena, na qual você está em uma ligação

com seu melhor cliente através do seu aparelho de IP-Fone e, no

momento de fechar o negócio, seu cliente começa a ouvir a sua

voz como se fosse a voz do “Pato Donald” (voz metalizada), não

conseguindo entender uma só palavra que você está dizendo.

Com a inserção de novas tecnologias no mercado ou mesmo em

relação às tecnologias e facilidades já amplamente utilizadas,

tais como o Internet Banking ou o Comércio eletrônico, os

provedores de serviços precisam estar cada vez mais atentos

para o quesito qualidade, pois como existem diversas opções

de fornecedores para um mesmo serviço, a qualidade é

certamente um dos diferenciais competitivos que são levados

em consideração pelos clientes na hora da contratação.

No mundo atual, para atender às demandas e exigências

do mercado, é necessário que os prestadores de serviços

amadureçam a forma de gerenciar suas redes, algo que começa

com a gerência de falhas, a qual verifica se os recursos de

infraestrutura estão disponíveis. Essa é uma etapa crítica e

importante, mas não é suficiente. Em nossos exemplos iniciais, os

serviços se encontravam disponíveis, apesar da tela congelada

do serviço de IP-TV ou da voz de pato na utilização do IP-Fone.

Provedores de serviços que só gerenciem falhas, só saberão de

problemas como esses quando seus clientes começarem a ligar

insatisfeitos para suas centrais de atendimento.

Quando pensamos em uma solução de

gerência de serviços completa, é necessário

identificar a causa raiz dos problemas,

através da coleta de indicadores de

desempenho (KPIs) e eventos de falhas

dos recursos. Esses dados ao serem

correlacionados podem ser transformados

em informações de qualidade (Key Quality

Indicators) ou em eventos enriquecidos

de informações relevantes para a solução

dos problemas. É possível também aplicar

os eventos de desempenho e falhas

coletados a um modelo de negócio, de

modo a identificar qual linha de negócio

Gerenciando a qualidade dos serviços do seu negócioAlisson Lara Resende de Campos

Page 65: 100 Mini Papers sobre tecnologia

Junho, 2009

64 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

está sendo impactada, ou seja, qual o

cliente final que está sendo afetado. Para

alcançar tal nível, é necessário possuir um

processo de gerência de serviços bem

definido, suportado por melhores práticas

de mercado, como o ITIL, e ferramentas

adequadas. Com informações relevantes

e precisas em mãos, os prestadores

de serviços são capazes de priorizar a

resolução de problemas de forma rápida

e pró-ativa e atuar de forma mais eficiente

e eficaz.

Em nossos exemplos, se o provedor

dos referidos serviços tivesse mapeado

corretamente a situação e pudesse coletar

e correlacionar todos os indicadores

necessários em sua infraestrutura como,

por exemplo, jitter (variação do atraso),

latência, rotas com alta utilização e

pacotes perdidos, seria possível, de forma

dinâmica, redirecionar os serviços em

uso para outras rotas, fazendo com que

você não perdesse o gol do seu time ou

o fechamento do negócio com seu cliente

devido a problemas nesses serviços.

O direcionamento global para os serviços

como o impulsionador primário do valor

econômico significa que a competitividade

é em escala global e que exige qualidade

na execução dos serviços. A tecnologia

que veio para facilitar o nosso dia a

dia, também nos deixa cada vez mais

dependentes e exigentes, fatos que podem se transformar em

riscos ou oportunidades para os prestadores de serviços.

Para saber mais

http:// www-01.ibm.com/software/tivoli/solutions/bsm/

http://www.itsmfi.org/

http://www.tmforum.org/

http://www.itil-officialsite.com/home/home.asp

Page 66: 100 Mini Papers sobre tecnologia

Maio, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 65

Os números apresentados pela Internet World Stats indicam

um índice de penetração na grande rede de 21,9% da

população mundial (aproximadamente 1,5 bilhões de

internautas), representando um crescimento de 305% no

período entre 2000 e 2008. Se considerarmos a região da

América Latina e Caribe esse índice é de 24,1%, o qual significa

uma população de cerca de 139 milhões de internautas e

representa um crescimento impressionante de 670% nesse

mesmo período. Já o comércio eletrônico brasileiro, segundo

a e-bit, vem crescendo a uma média de 40% ao ano. Em 2008

esse comércio movimentou R$ 8,8 bilhões por intermédio de

12 milhões de consumidores.

Outro dado importante é o que reflete o crescimento do

número de transações envolvendo cartões de crédito, o qual

somente em Julho de 2008 atingiu a marca de 508 milhões, um

crescimento de 21% em relação ao mesmo mês do ano anterior,

sendo responsável por um volume de operações na ordem de

R$ 32 bilhões em compras com “dinheiro de plástico”, segundo

a Associação Brasileira das Empresas de Cartões de Crédito e

Serviços (ABECS).

Com o crescimento do índice de penetração da Internet e da

adesão ao comércio eletrônico, o cartão de crédito, que é hoje

a forma mais prática e usual para as transações comerciais on-

line, passou a ser o alvo preferencial das fraudes no mundo

das vitrines virtuais. Segundo dados da Federação Brasileira

de Bancos (FEBRABAN), em 2007 os prejuízos com a fraudes

praticadas em meios de pagamento eletrônico no Brasil

somaram mais de US$ 150 milhões.

Com o objetivo de proteger o

consumidor contra a crescente onda

de fraudes envolvendo transações

comerciais baseadas em cartões

de crédito, as grandes operadoras

(American Express, Discover Financial

Services, JCB International, MasterCard

e Visa) decidiram formar um conselho,

o Payment Card Industry Security

Standards Council (PCI SSC), para que

seus programas individuais de segurança

fossem unificados, dando origem a um

padrão único de mercado, o Payment

Card Industry - Data Security Standard

(PCI-DSS), cuja primeira versão foi

publicada em dezembro de 2004 e

atualmente encontra-se na versão 1.2,

publicada em outubro de 2008.

PCI-DSS: o que é e por que implementá-lo?Eli F. Martins

Page 67: 100 Mini Papers sobre tecnologia

Maio, 2009

66 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Os requisitos de segurança especificados

no PCI-DSS se aplicam a todos os

elementos de sistemas que participam

do processamento de dados de cartão

de crédito, dentre os quais estão os

componentes de rede, servidores,

aplicativos e gerenciadores de bancos

de dados envolvidos quando um número

de cartão de crédito é transmitido,

processado ou armazenado durante o

fluxo de uma transação comercial.

Portanto, para que todo processo de

tratamento digital de um número de

cartão de crédito, o qual é tecnicamente

conhecido como Personal Account

Number (PAN), seja feito de forma

segura, o PCI-DSS define uma série de

12 requisitos organizados em 6 grupos

logicamente relacionados:

• Construir e manter uma rede segura;

• Proteger as informações dos portadores

de cartão;

• Manter um programa de gerenciamento

de vulnerabilidades;

• Implementar medidas fortes de

controle de acesso;

• Monitorar e testar as redes

regularmente;

• Manter uma política de segurança da

informação.

Para atender a cada um dos 12 requisitos

distribuídos entre esses 6 grupos citados,

as empresas têm que investir em tecnologias de hardware e

software além de contratar serviços especializados em segurança

de informação.

Dentre as tecnologias recomendadas para endereçar tais

requisitos podemos destacar equipamentos de firewall, placas

de criptografia, gerenciadores de identidades, controladores

de acesso e gerenciadores de conformidade com políticas de

segurança.

No Brasil as empresas que estão dentro do contexto do

PCI-DSS, sejam elas virtuais ou do mundo físico, terão, por

determinação das principais bandeiras de cartão de crédito do

mercado, apresentar avanços positivos na redução de riscos das

transações até setembro deste ano e alcançar a conformidade

total até setembro de 2010. O Conselho do PCI certificou

algumas entidades, conhecidas como Qualified Security

Assessors (QSA), para executar a avaliação de conformidade

ao PCI-DSS nas empresas e apresentar sugestões de medidas

corretivas para promover o alinhamento ao novo padrão.

Espera-se com isso tudo um grande salto de qualidade na

segurança das transações comerciais eletrônicas, na direção de

um Planeta mais seguro e inteligente.

Para saber mais

https://www.pcisecuritystandards.org

http://www.internetworldstats.com

Page 68: 100 Mini Papers sobre tecnologia

Maio, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 67

Na década de 60 o Dr. Gordon Moore, cofundador da Intel,

previu que a densidade de transistores em um único chip

dobraria a cada dois anos, o que ficou conhecido como a Lei

de Moore. Por muito tempo, houve descrédito da comunidade

científica devido à quantidade de energia que seria exigida para

concretizar tal previsão. Entretanto, esse crescimento ocorreu

indiferentemente a tais descréditos.

A evolução tecnológica na manufatura do chip permitiu

um maior número de transistores por processador devido à

redução de tamanho dos mesmos. Atualmente com 45nm, e

com tecnologia renovada, a quantidade de transistores em um

chip saltou para aproximadamente 1 bilhão e a frequência de

operação (clock) para 5GHz.

A consequência da combinação desses dois fatores é o maior

consumo de energia por cm2, que aumenta muito a temperatura

no chip. Apesar disso, há uma maior eficiência, com o aumento

de processamento por watt.

Atualmente, a Lei de Moore, enfrenta o seu maior obstáculo: a

falta de tecnologia economicamente viável para resfriar o chip,

pois após uma determinada temperatura, o sistema fica instável

(leakage ou tunneling), e pode sofrer um colapso.

Essa barreira termodinâmica foi adiada com a inovação dos

processadores multi-core indicados ao processamento

de múltiplas tarefas. Nesses chips o clock foi levemente

reduzido para que a temperatura fosse mantida no patamar

dos processadores single-core, e incorporou-se uma nova

arquitetura a qual permitiu que tarefas distintas pudessem ser

executadas em paralelo. Dessa forma, o tempo gasto com o

enfileiramento de tarefas foi reduzido,

assim como o tempo total para execução

de todas as tarefas. Para aplicações cujas

tarefas não podem ser paralelizadas,

entretanto, essa inovação ainda não trouxe

benefício mensurável.

A expectativa para vencer esse obstáculo

está no surgimento de alguma ruptura

semelhante à que ocorreu na transição

da tecnologia de transistores bipolares

para a CMOS (Complementary Metal

Oxide Semicondutor). Essa possibilidade

ainda é remota para os próximos anos e

enquanto isso, algumas inovações são

esperadas, tais como os transistores

com espessuras de 32nm (2009) e 22nm

(2011). E há ainda algumas pesquisas

utilizando resfriamento forçado por

A crescente importância da energia em TIPaulo de Andrade Jr.

Page 69: 100 Mini Papers sobre tecnologia

Maio, 2009

68 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

líquido diretamente em chips, como, por

exemplo, os chips stacks da IBM.

O crescimento de capacidade de

processamento das máquinas e de seu

respectivo consumo de energia, aumenta

o custo de operação dos servidores.

Adicionalmente, dois outros fatores têm

auxiliado para aumentar esse custo: o

crescente investimento na infraestrutura

de fornecimento de energia estabilizada

para atender às necessidades de um alto

nível de disponibilidade dos ambientes de

data center (>99,9%), e ainda, o relevante

aumento do custo da própria energia

(KWh) ao longo dos últimos anos.

A maior parte do custo de operação de um

servidor está na alimentação elétrica ao

longo de sua vida útil. Aproximadamente

metade da potência é consumida

por componentes auxiliares (fonte,

ventiladores, chipset, etc.), independente

da utilização do processador. Ou seja, um

servidor quando não faz processamento

algum, já consome em torno da metade

de sua potência real máxima. Quando

verificamos como a metade restante

está sendo utilizada, por processador

e memória, percebemos que muitos

possuem uma baixa utilização ao longo do

tempo (<20%).

Diante desse cenário, é evidente a

importância de se considerar o consumo

da energia no desenho de uma solução de TI. É imprescindível,

portanto, fazer uso das técnicas de virtualização e consolidação

disponíveis atualmente para se aumentar a taxa de utilização

dos servidores em relação à sua capacidade máxima de

processamento e reduzir assim, ou até mesmo eliminar, a

capacidade ociosa.

Eliminar o desperdício aumenta a eficiência dos ativos, espinha

dorsal do conceito de Lean Manufacturing. Ao otimizar a

utilização da infraestrutura disponibilizada, o custo é reduzido

assim como a necessidade de se realizarem novos investimentos

para sua ampliação.

Para saber mais

http://www.uptimeinstitute.org/

McFarland, Grant. Microprocessor Design. McGraw-Hill

Professional, 2006.

Esty, Daniel C.; Winston, Andrew S. Green to Gold:How Smart

Companies Use Environmental Strategy to Innovate, Create

Value, and Build Competitive Advantage. Yale University Press,

2006.

Womack, James P.; Jones, Daniel T. Lean Thinking: Banish Waste

and Create Wealth in Your Corporation. Free Press, 2003.

Page 70: 100 Mini Papers sobre tecnologia

Abril, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 69

Em pleno século XXI, vivenciamos uma crise financeira mundial,

com grandes oscilações na economia, inibindo a obtenção de

crédito pelas empresas, e prejudicando novos investimentos e

taxas de crescimento esperadas. Na chamada era da informação

e do conhecimento, é possível observar que a instabilidade do

cenário mundial contribui ativamente para o acirramento da

competição entre as empresas, cujo principal objetivo passa a

ser a sobrevivência.

Nesse cenário turbulento, a busca por mais eficiência motivou

as organizações a procurarem diferenciais competitivos,

através da otimização dos seus processos estratégicos, da

capacitação de seus colaboradores, da valorização dos seus

recursos informacionais e, principalmente, do uso inteligente

de seus ativos.

No que tange ao uso inteligente dos ativos organizacionais,

pesquisas recentes estimam que os custos de operação

e manutenção de ativos podem representar valores de 20 a

40% do custo operacional de uma organização. Esses ativos

podem ser máquinas ou componentes tecnológicos, tais como

hardware, software e firmware, ou mesmo prédios e frotas.

Empresas dos segmentos de Utilities-Geração, Utilities-T&D,

Mineração, Siderurgia, Química e Petroquímica, entre outros,

têm a lucratividade vinculada diretamente à disponibilidade,

confiabilidade e desempenho dos seus ativos e serviços

inerentes. Um outro aspecto importante e que também está

ligado à gestão eficiente dos ativos organizacionais refere-se

à imagem da empresa, uma vez que a falta de controle pode

aumentar significativamente o risco operacional.

Um exemplo de risco associado à falta

de gestão dos ativos, e que provocou

uma tragédia, foi o acidente ocorrido na

plataforma para extração de petróleo Piper

Alpha, no mar do Norte, operada pela

Occidental Petroleum, em 06 de julho de

1988, resultando a morte de 167 pessoas.

A investigação do acidente apontou

que o vazamento inicial foi provocado

por um procedimento inadequado de

manutenção, realizado simultaneamente

em uma bomba e sua válvula de segurança.

Outro fato semelhante aconteceu no dia

08 de janeiro de 2003, quando um avião

Enterprise Asset ManagementRoger Faleiro

Page 71: 100 Mini Papers sobre tecnologia

Abril, 2009

70 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

da Air Midwest caiu na Carolina do Norte,

EUA, resultando a morte de 21 pessoas.

De forma similar, a investigação identificou

que problemas relacionados à manutenção

das aeronaves foram as principais causas

do acidente.

Ao adotar as melhores práticas de EAM

(Enterprise Asset Management ou Gestão

Corporativa de Ativos), as organizações

conseguem planejar melhor e, assim,

otimizar a utilização dos seus ativos,

promovendo a redução dos custos de

operação, manutenção, paradas não

previstas de equipamentos, custos de mão

de obra e inventários. Há ainda o benefício

da retenção de conhecimento e o aumento

da confiabilidade, disponibilidade e da

vida útil dos seus recursos, atendendo às

regulamentações relacionadas à segurança

ocupacional, saúde dos empregados e leis

ambientais.

O principal objetivo da EAM é proporcionar

a gestão eficaz do ciclo de vida de todos

os recursos físicos da empresa, que

tenham impacto direto e significativo nas

operações e no desempenho do negócio,

provendo uma maior visibilidade dos

ativos e suas informações relacionadas à

manutenção, garantindo maior aderência

a normas e minimizando riscos. Para tanto,

uma solução de EAM deve contemplar

o planejamento do investimento,

a especificação do ativo, o desenho e construção do ativo,

sua operação e manutenção e, finalmente, o descarte e/ou

substituição, compreendendo também os aspectos relacionados

à aquisição do ativo e à gestão de contratos. Empresas como

IBM, SAP e IFS possuem soluções de tecnologia da informação

que servem como suporte para a implantação de uma gestão

eficiente dos ativos organizacionais.

Em síntese, num cenário no qual as empresas precisam

produzir mais com menos, a EAM ajuda a endereçar os desafios

provenientes das variações rápidas de demanda, permitindo às

organizações um melhor posicionamento frente às mudanças

impostas pelo mercado.

Para saber mais

http://www.theiam.org/asp/default.asp

http://www.ibm.com/software/br/tivoli/solutions/asset-management

Page 72: 100 Mini Papers sobre tecnologia

Abril, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 71

O sistema operacional (SO) é um conjunto de programas cuja

função básica é servir de interface entre o hardware de um

computador e os seus aplicativos, administrando e gerenciando

recursos como processadores, memórias e discos. É algo tão

essencial para o computador quanto é o coração para o corpo

humano.

O componente principal de um SO é o seu núcleo, chamado de

kernel. Há vários tipos de kernel, sendo que os mais comuns são

os microkernels e os monolíticos. No microkernel, a camada de

abstração acima do hardware trabalha apenas com os serviços

básicos do SO, como gerenciamento de memória, execução de

múltiplas tarefas e comunicação interprocessos. Outros serviços,

tais como a comunicação em rede, rodam em camadas acima

do kernel. Já no kernel monolítico, presente na maioria dos SOs

de mercado, todos os serviços e tarefas são executados em um

mesmo espaço de endereçamento de memória.

Nos computadores pessoais, os SOs mais conhecidos são o

Windows da Microsoft, o MacOS da Apple e o Linux, cujo

kernel foi criado e disponibilizado como software livre, fato que

possibilitou o surgimento de várias distribuições desse sistema

no mercado.

Nos servidores de pequeno e médio porte, o Windows e o

UNIX são os SOs mais utilizados, sendo que o UNIX possui

diferentes implementações tais como o IBM AIX, HP UX, Sun

Solaris, FreeBSD, OpenBSD e o próprio Linux, que também é

classificado como um sistema UNIX.

No segmento de servidores de médio porte podemos ainda

citar o IBM I, uma atualização do antigo IBM OS/400, que

entre suas principais características está a

tecnologia chamada de “memória de nível

único”, que é capaz de gerenciar toda

a memória física e disco como se fosse

um único espaço de armazenamento do

sistema. Além disso, esse servidor possui

o banco de dados IBM DB2 integrado ao

SO, rodando várias tarefas diretamente no

kernel.

Nos servidores de grande porte, também

chamados de mainframes, o SO mais

utilizado atualmente é o IBM z/OS, uma

evolução do antigo IBM OS/390. Esse

SO é conhecido pela alta segurança

Os sistemas operacionais estão em toda parteRudnei R. Oliveira

Page 73: 100 Mini Papers sobre tecnologia

Abril, 2009

72 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

e robustez, não só na execução de

aplicações tradicionais como CICS e IMS

mas também de aplicações Java e TCP/IP.

Os mainframes hoje suportam também o

Linux, que em conjunto com o SO IBM z/

VM, tem sido muito usado na consolidação

de servidores. Pode-se notar que o Linux

é o único SO suportado por todos os

tipos de computadores, dos pessoais aos

mainframes.

O uso de SOs vai além dos servidores

e computadores pessoais. Eles estão

também, entre outros, em celulares, PDAs,

tocadores de MP3, sistemas embarcados

e até em máquinas de grande porte para

manufatura e robótica.

As necessidades das aplicações é

que ditam o hardware e o SO a serem

utilizados. No caso dos computadores

pessoais, a escolha é geralmente feita

por aquele SO que traga uma maior

facilidade no seu uso diário e na forma

como gerencia o hardware. O Windows

se tornou popular por ter uma grande

variedade de aplicações disponíveis e de

drivers para dispositivos de hardware, além

de ser de fácil acesso e uso por parte dos

usuários. No caso do SO para servidores,

vários requisitos devem ser considerados,

tais como a importância da aplicação

para o negócio, a capacidade de suporte

disponível para o SO escolhido e os padrões tecnológicos

utilizados pela empresa.

E qual será o futuro desses sistemas? Alguns visionários de

tecnologia acreditam que com as conexões de rede cada vez

mais presentes e velozes, os computadores pessoais ao serem

ligados, carregarão um SO a partir da Internet e utilizaremos

apenas browsers para ter acesso aos aplicativos e serviços

online. Já para os SOs dos servidores acredita-se que caminham

na direção da computação autonômica, com a qual terão um

funcionamento sensível ao contexto, ou seja, serão capazes de

se autoconfigurarem de maneira a atender de forma otimizada

aos requisitos de carga de trabalho.

Para saber mais

http://en.wikipedia.org/wiki/Operating_systems

http://en.wikipedia.org/wiki/Comparison_of_operating_systems

http://computer.howstuffworks.com/operating-system1.htm

Page 74: 100 Mini Papers sobre tecnologia

Março, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 73

Sistemas computacionais já são capazes de expressar emoções?

Se sim, como isso poderia afetar o mundo dos negócios?

A resposta começa em um novo campo de pesquisas chamado

de Affective Computing, criado no MIT em meados da década

de noventa. Trata-se de um campo de natureza interdisciplinar,

para o qual concorrem a Psicologia, a Neurociência, a Sociologia,

a Psicofisiologia, as Ciências Cognitivas e as Ciências da

Computação, principalmente no ramo da Inteligência Artificial.

As pesquisas em Affective Computing subdividem-se em duas

principais vertentes: a primeira realiza estudos sobre as emoções

humanas e suas reações por meio de técnicas computacionais;

a segunda pretende criar sistemas computacionais capazes de

expressar emoções (artificiais) em resposta a estímulos externos.

Um dos estudos realizados no MIT enfoca o autismo infantil,

abordando a maneira como as crianças com esse distúrbio

reagem às suas próprias emoções. Utiliza um programa

de monitoramento das alterações faciais e cria sistemas

que interagem e até auxiliam na educação em termos de

comportamento social. Já existem alguns equipamentos

que podem reagir aos gestos e expressões do ser humano

mostrando felicidade ou tristeza e até capturando odores e sons

do ambiente.

Complementando a resposta à pergunta inicial, existe um outro

campo de pesquisas conhecido como Responsive Systems, cuja

tecnologia permite desenvolver equipamentos que respondam

a estímulos ou eventos externos, isto é, sistemas que reagem

e tomam ações quando “sentem” alterações no ambiente ou

quando recebem estímulos de outros sistemas. Por exemplo,

um sensor (de nível, temperatura, etc.) que

atinge um determinado valor é percebido

por um Responsive System que ativa

outros subsistemas e toma uma série de

ações pré-determinadas.

Os Responsive Systems têm grande valor

em aplicações de “chão de fabrica” onde

se apresentam sob a forma de sistemas

embarcados (embedded systems), com

hardware e software dedicados. Também

são conhecidos como Sistemas de Tempo

Real ou Sistemas Baseados em Eventos.

Essa tecnologia é atualmente bastante

empregada em processos de produção

industrial, nos quais sistemas que controlam

processos são capazes de acionar outros

sistemas ou tomar alguma outra ação

quando “percebem” a ocorrência de um

As emoções, a inteligência artificial e os negóciosKiran Mantripragada

Page 75: 100 Mini Papers sobre tecnologia

Março, 2009

74 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

evento ou recebem algum estímulo. Muitos

sistemas implementam essa capacidade

para poder atender aos requisitos de

tempo de resposta e segurança.

É possível notar uma convergência de

Affective Computing e Responsive Systems

para uma ciência que visa criar sistemas

autônomos e inteligentes, reagindo de

acordo com a observação do ambiente,

incluindo os seres humanos e seus gestos,

expressões, sinais de humor e sons. Mas

como relacionar essas tecnologias com o

mundo dos negócios?

A utilização dos Responsive Systems,

antes aplicados somente em ambientes

considerados críticos (por exemplo

uma usina nuclear), vem crescendo em

sistemas corporativos, e temos ainda mais

possibilidades ao utilizá-los juntamente

com Affective Computing. Previsões da

bolsa de valores poderiam ser realizadas

com base em parâmetros subjetivos, tais

como ânimo e expectativa. Sistemas de

varejo poderiam estudar tendências de

compra e venda, e até criar correlações

com situações de estresse e alterações de

humor.

Tendo em vista a grande quantidade

de aplicações no mundo dos negócios,

a utilização dos Responsive Systems,

aliada às técnicas de inteligência artificial

e apoiada pelos avanços do Affective

Computing poderá oferecer ferramentas de apoio à tomada de

decisões. Pois mesmo que o homem procure agir de maneira

racional, segundo o discurso cartesiano, ele é constantemente

influenciado por suas próprias emoções e pelo ambiente ao seu

redor.

Para saber mais

http://affect.media.mit.edu

http://en.wikipedia.org/wiki/Affective_Computing

http://en.wikipedia.org/wiki/Embedded_system

http://www.research.ibm.com/journal/sj47-2.html

Page 76: 100 Mini Papers sobre tecnologia

Março, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 75

Quando o grupo humorístico britânico Monty Python começou

a usar, nos anos setenta, o termo spam para indicar algo

indesejado, não se imaginava que esse termo viesse a se tornar

tão conhecido quanto odiado na área de informática, um

sinônimo de todos aqueles emails que são enviados sem que

tenham sido solicitados.

Hoje, com o aumento da oferta e da capacidade de provedores

de emails gratuitos, há um prato cheio para os spammers

(aqueles que praticam spam). Correntes, prêmios, propaganda

e tudo mais que alguém queira divulgar, pode fazê-lo quase de

graça utilizando apenas o envio de emails. Segundo os cálculos

da empresa MessageLabs cerca de 75% do tráfego de emails

no mundo é spam.

O problema fica ainda maior quando recebemos não só

propaganda mas emails com “segundas intenções”, os

chamados phishing scams, cujo propósito é ter acesso aos

nossos dados pessoais e confidenciais ou enviar mensagens em

nosso nome.

O termo phishing scam indica o método utilizado por

spammers mal intencionados (chamados de scammers), que

enviam mensagens com “iscas” para várias pessoas tentando

enganá-las, seja atraindo-as a acessar um determinado

website ou instalando algum programa que colete dados

confidenciais. Os scammers chegam a montar réplicas de

páginas originais, mas com endereços alterados. Todos

os dados que a vítima vier a informar na tal página serão

enviados aos fraudadores que os utilizarão em golpes,

tais omo entrar na conta bancária da vítima com os dados

coletados. Mesmo que poucas pessoas

caiam nessas armadilhas, ainda assim os

scammers sairão ganhando pois o custo

dessa prática é baixíssimo.

Com o aumento de complexidade

das soluções de segurança, aumentou

também a criatividade dos scammers,

que se aproveitam cada vez mais de

algumas características humanas tais como

curiosidade, ingenuidade e carência. Esse

problema tem se tornado crítico para as

empresas, que passaram a investir cada

vez mais em ferramentas de defesa e na

educação dos funcionários. Algumas

O que há na sua caixa postal?Sandro Augusto da Silva

Page 77: 100 Mini Papers sobre tecnologia

Março, 2009

76 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

ações podem reduzir bastante o grau de

exposição a essas ameaças:

A chave para o spam e phishing scam é

o seu endereço de email. Logo, trate-o

como informação confidencial, não o

forneça em websites nos quais não confie

e, principalmente, não use o endereço

de email da empresa em formulários de

cadastro.

Não abra arquivos nem links recebidos

por email. Tenha cuidado até com os

enviados por pessoas conhecidas, uma

vez que seus computadores podem estar

contaminados. Ao invés de clicar em links

recebidos, prefira a opção de digitar o

endereço no browser ou copiá-lo e colá-lo.

Se ficar em dúvida com relação a um

determinado email, pesquise na Internet

informações relacionadas ao assunto,

nome do remetente ou palavras do

conteúdo, pois certamente você não foi

o primeiro a receber esse email. Muitos

golpes são facilmente desmascarados

assim.

Sua estação de trabalho deve possuir

programas de antivírus e firewall, e ambos

devem sempre estar atualizados.

Prefira browsers mais seguros, como

o Mozilla Firefox e Internet Explorer na

versão mais recente, que já vêm com anti-

phising instalado.

E, como nada é infalível, a precaução é a melhor vacina. A

atenção com os emails que você recebe e envia é fundamental

para que se possa controlar a disseminação dessas pragas

virtuais.

Para saber mais

http://www.antispam.br/

http://pt.wikipedia.org/wiki/Spam

Page 78: 100 Mini Papers sobre tecnologia

Fevereiro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 77

Quando um projeto em TI se inicia, ainda na sua fase de

concepção, uma das atividades primordiais é o levantamento

dos requisitos funcionais que, teoricamente, irão reger um novo

método de atuação da organização em um determinado ramo de

sua atividade, às vezes com um prazo indeterminado de conclusão.

A variação que os requisitos sofrem durante o ciclo de vida

de um projeto em relação a uma média aceitável de variações

é o que se chama de Volatilidade de Requisitos. São muitos

os fatores que podem determinar se os requisitos de um

determinado projeto são voláteis ou não, como por exemplo

a imaturidade do cliente, a sonegação de informações, a

inexperiência dos analistas de requisitos, o mercado em que

o projeto está inserido etc. Mas, via de regra, a volatilidade de

um requisito é determinada pela influência de um fator externo

a esse requisito, ou seja, o quanto algo não diretamente ligado

ao projeto pode mudar os requisitos desse projeto. Quanto

mais sensível um requisito é a um fator externo, mais volátil ele

é; e quanto mais volátil é o requisito, maior o risco de não se

entregar o projeto no prazo estipulado ou dentro da faixa de

custos previamente aprovados.

Arquitetos de TI devem trabalhar com modelos que se adequem

a essa volatilidade. Não se pode prever o futuro, mas considerar

a Volatilidade Histórica e a Volatilidade Potencial pode ajudar

a ter uma visão mais clara do cenário no qual o projeto está

inserido. A Volatilidade Histórica é a volatilidade determinada

tendo como referência um período de tempo passado. Mesmo

que seja impossível prever se um requisito poderá ou não

variar, analisar o volume de requisitos que já foram alterados

pode fornecer uma aproximação da

possibilidade de alterações futuras e do

perfil do cliente, de maneira a elaborar

arquiteturas menos sensíveis a essas

variações. A Volatilidade Potencial é a

volatilidade que está intrinsecamente

ligada ao fator externo ao projeto no qual

o requisito está inserido.

A volatilidade de requisitosMarcelo Henriques de Castro

Page 79: 100 Mini Papers sobre tecnologia

Fevereiro, 2009

78 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

No Setor Público, por exemplo, um

ministro que assuma um determinado

ministério geralmente leva consigo

diversas indicações de pessoas para

assumir cargos gerenciais de confiança

em seu novo ministério, cada qual com

sua forma específica de trabalho. Se o

requisito de um projeto estiver vinculado

à forma do governo vigente trabalhar, na

troca desse, o projeto poderá, facilmente,

se tornar obsoleto e, como consequência,

todo o investimento prévio poderá ruir

porque não se previu essa possibilidade.

Por essa razão, quanto menos atrelado à

forma de trabalho vigente for um sistema,

menos voláteis serão os requisitos.

Em cenários como esses, a utilização de

técnicas ágeis de desenvolvimento (Agile

Techniques) é uma boa opção para

acomodar variações de requisitos no

decorrer de um projeto. Essas técnicas

proporcionam contínuo feedback dos

stakeholders e analistas de negócio

durante todo o ciclo de vida do projeto,

com o intuito de entregar uma solução

precisa, de alta qualidade, através de

curtas iterações e pequenos releases.

Além de usar técnicas ágeis de

desenvolvimento, é imprescindível que

o projeto seja modularizado e que os

ciclos de cada módulo sejam curtos e com

vida própria, ou seja, cada módulo pode

depender do todo que já tenha sido implementado, mas esse

todo não deve depender funcionalmente de nenhum módulo.

Dessa forma, caso a lógica de um módulo seja mudada por uma

variação de requisito, mesmo sendo drástica a ponto de invalidá-

lo por completo, o restante não será impactado porque não

depende tecnicamente desse módulo para sua continuidade.

Um ciclo de desenvolvimento iterativo e incremental para suprir

as deficiências do modelo em cascata (Waterfall), em conjunto

com uma arquitetura orientada a serviços, na qual cada módulo

seja considerado como um serviço independente, podem

amenizar o impacto das mudanças nos cenários.

É praticamente impossível elaborar uma arquitetura imune

à volatilidade dos requisitos, mas seus efeitos podem ser

minimizados. O conhecimento do cliente, através da análise

das volatilidades histórica e potencial, ajuda a elaborar

arquiteturas menos vulneráveis. A realidade é que raramente

o cliente sabe exatamente o que quer na fase de concepção

de um projeto e quando sabe, muitas vezes não consegue

articular corretamente sua necessidade. E mesmo que o cliente

consiga definir e articular todos os requisitos, sabe-se que

muitos detalhes somente serão descobertos durante a fase de

implementação. Os Arquitetos de TI devem estar atentos a

todos esses detalhes para evitar que seus projetos padeçam da

“síndrome dos 90%”, aquela na qual a homologação acaba não

acontecendo porque o sistema não se mostra capaz de atender

a todas as necessidades para as quais foi projetado.

Para saber mais

http://www.westpole.com/pdf/use-cases.pdf

http://www.mcbreen.ab.ca/papers/UseCaseNotes.pdf

http://portal.acm.org/citation.cfm?id=9800

Page 80: 100 Mini Papers sobre tecnologia

Fevereiro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 79

Nos últimos anos a busca por qualidade de software tem

crescido bastante no Brasil e no mundo. Anteriormente a cultura

de qualidade era praticada apenas por fábricas de software.

Agora ela também tem sido adotada por empresas usuárias de

tecnologia em seus produtos internos.

A qualidade de software contraria o jargão “sempre superar

as expectativas do cliente”. Nessa disciplina até se busca isso,

porém no momento certo, ou seja, apenas durante a definição

do escopo. Na fase da construção do software é preciso ser fiel

ao plano inicial, ou seja, entregar exatamente o que foi pedido.

Não se deve arriscar o projeto em função de oportunidades e

melhorias que eventualmente surjam pelo caminho. Esse é um

dos preceitos de qualidade de software. Mudanças de escopo

são inevitáveis, mas devem ser planejadas para uma versão

posterior, a menos que exista uma necessidade inadiável por

parte do cliente.

A arquitetura do software deve de ser aderente aos requisitos

especificados. Ela pode ser inovadora, duradoura e ainda

tentar resolver, não só os problemas previstos, mas também os

imprevistos. É nesse momento que a equipe de desenvolvimento

deve vislumbrar o que é realmente necessário e não apenas o

que foi pedido.

Segundo uma pesquisa do Gartner Group feita em 2000 com

mais de 1300 profissionais, uma das maiores causas de fracasso

em projetos de software é a falta de escopo. Na ânsia de iniciar

logo os trabalhos, a fase de definição de escopo é reduzida ao

extremo. O resultado disso é um grande número de correções

feitas durante a fase de desenvolvimento. O tamanho da fase

de definição de escopo é inversamente

proporcional ao da fase de correções.

Quanto melhor for definida a fase inicial,

menos tempo se gasta com discussões

desnecessárias na fase final do projeto.

Atualmente esse problema ocorre em 25%

dos casos, de acordo ainda com o Gartner

Group. Outros problemas que ocorrem

na maioria dos projetos são a insatisfação

do cliente, o baixo índice de adoção do

produto, o retrabalho excessivo, a pouca

aderência da solução e, o pior, a imagem

da empresa prejudicada. Esse último item

é muito difícil de ser mensurado, mas os

Teste e qualidade de softwareJúlio Madeira

Page 81: 100 Mini Papers sobre tecnologia

Fevereiro, 2009

80 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

comentários ruins sobre um produto e sua

implantação mancham a reputação de

uma empresa em grande escala.

No processo de desenvolvimento de

software, os planos de teste normalmente

surgem junto com a entrega dos requisitos

e das especificações para a equipe de

desenvolvimento. Quando um software

é classificado como bom em função

dos poucos defeitos que possui, os

desenvolvedores dizem que isso se deve

a eles. Já a equipe de testes diz que é

em função da sua atuação. Na realidade,

o que define a qualidade do software é

justamente a junção desses dois fatores. É

do conflito de visões entre as equipes de

desenvolvimento e de testes que surge a

qualidade do software. É justamente nesse

momento que se tem diferentes soluções

para um mesmo problema e discute-se

qual é a melhor em relação ao negócio

do cliente.

O processo de qualidade pode ser

apoiado por ferramentas de automação

que poupam a equipe de testes de

executar atividades repetitivas para que

eles possam se dedicar a atividades de

maior valor agregado, como regras de

negócio e casos de uso reais. Algumas

dessas ferramentas possuem integração

total a todas as etapas do projeto, desde

o desenho até o lançamento, integrando todas as equipes em

uma mesma plataforma.

Quanto mais tempo se demora para detectar um erro em um

software, mais caro ele fica. Esse custo pode ficar até 80%

mais alto se for detectado no cliente, uma vez que envolve

deslocamentos e a imagem da empresa.

Seja um laboratório de software ou um departamento interno

que cria suas próprias aplicações, a sua reputação pode ser

feita ou destruída sempre que um produto for lançado. Por isso

a preocupação com qualidade de software torna-se cada vez

mais essencial para qualquer empresa que queira se destacar

no mercado.

Para saber mais

http://www.istqb.org

http://www.qaibrasil.com.br

Page 82: 100 Mini Papers sobre tecnologia

Janeiro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 81

Foi-se o tempo em que virtualizar sistemas operacionais era

uma tarefa restrita somente a alguns profissionais de TI que

precisavam montar um pequeno ambiente de testes em seus

desktops. Essa tecnologia vem sendo cada vez mais usada por

grandes empresas que buscam uma forma mais rápida, segura e

barata de administrar seus ambientes computacionais.

Virtualização de servidores é basicamente a capacidade de

emular recursos tradicionais de hardware, tais como como CPU,

placas de rede e memória, em uma máquina virtual (VM - Virtual

Machine) capaz de executar isoladamente seu próprio sistema

operacional e aplicações. Essa tecnologia possibilita ainda a

execução de várias máquinas virtuais em um único hardware

físico, viabilizando a consolidação de servidores. O hypervisor

é o software responsável pela “mágica” da virtualização,

gerenciando a interação entre as máquinas virtuais e o hardware

físico, além de entregar e balancear os recursos de hardware

necessários às VMs.

Apesar de muitos profissionais de TI estarem em contato direto

com a virtualização de servidores em larga escala somente

nesses últimos anos, essa não é uma tecnologia nova. Há

mais de trinta anos a IBM trabalha com virtualização em seus

mainframes, os quais se tornaram “fontes de inspiração” dos

hypervisors atuais. O fato de o mainframe ser um hardware

diferenciado, geralmente usado por grandes corporações que

precisam de sistemas que requerem altíssimo desempenho e

disponibilidade, a capacidade de virtualização nessa plataforma

não ganhou grande visibilidade no mercado de médias e

pequenas empresas.

A virtualização só ganhou maior

popularidade com a adaptação dessa

tecnologia utilizada nos mainframes para a

plataforma x86 (e mais recentemente para a

plataforma x64, com sistemas operacionais

de 64 bits), o que possibilitou às empresas,

com servidores e sistemas de médio e

pequeno porte, utilizar a virtualização como

parte de sua infraestrutura. A virtualização

de servidores de médio e pequeno porte

tem obtido um grande espaço no mercado

mundial com a adesão de empresas que

buscam os benefícios de um datacenter

virtualizado, entre os quais se destacam:

Virtualização para todosRicardo Hortêncio

Page 83: 100 Mini Papers sobre tecnologia

Janeiro, 2009

82 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Consolidação – transformar servidores

tradicionais em máquinas virtuais e

agrupá-los em poucos hardwares físicos

é o principal atrativo aos olhos dos

administradores devido a simplificação

na administração do datacenter;

Redução de custo - reduzir drasticamente

o montante gasto com alocação de

espaço dos servidores assim como no

consumo de energia elétrica;

Otimização – virtualizar atenua de forma

considerável o desperdício de recursos

de um servidor tradicional, porque um

hardware físico passa a ser o responsável

pela carga de processamento de

múltiplas máquinas virtuais com o

aumento do uso do processador para

60% em média.

Paradigmas como os relacionados

aos problemas de desempenho em

servidores virtualizados têm sido, pouco

a pouco, quebrados com a evolução

dos hypervisors e também devido aos

inúmeros casos de sucesso reportados

por empresas que já adotaram a

virtualização de servidores em larga

escala.

Sem dúvida o mercado mundial de

virtualização de datacenters está em

expansão e ainda ganha um impulso

adicional com o chamado Green IT que

visa, principalmente, a otimização do uso

dos recursos disponíveis nos datacenters com destaque para o

consumo de energia elétrica.

Mais do que uma inovação tecnológica, a virtualização de

servidores é uma questão estratégica e relevante para empresas

que buscam redução de custos e maior flexibilidade da

manutenção e administração de seus servidores.

Para saber mais

http://www.vmware.com/virtualization/

http://en.wikipedia.org/wiki/Virtualization

http://en.wikipedia.org/wiki/Green_computing

Page 84: 100 Mini Papers sobre tecnologia

Janeiro, 2009

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 83

Cloud computing, ou computação em nuvem, vem ganhando

espaço na mídia especializada através de lançamentos

anunciados por empresas tais como Amazon, Google, IBM e

Microsoft. Apesar de ser mais um termo da moda, merece ser

analisada com atenção, pois tem atraído um volume considerável

de investimentos de grandes participantes do mercado

de TI. Na mesma direção vão os fundos de venture capital

que começam a investir em novas empresas que oferecem

soluções relacionadas a cloud computing, evidenciando o

reconhecimento do potencial dessa nova tecnologia.

Mas o que é o cloud computing? No momento, essa tecnologia

emergente ainda não possui uma definição clara e precisa.

Para alguns, cloud computing é apenas um nome novo para

iniciativas já feitas pela indústria no passado, como o Grid

(um cluster de servidores ligados com baixo acoplamento),

Utility Computing (serviços computacionais de hardware e

storage comercializados como se fossem energia elétrica) e

Autonomic Computing (sistemas capazes de autogerenciar

problemas resultantes do rápido crescimento da complexidade

de um ambiente computacional). Já outros acham que Cloud

Computing é a evolução natural desses conceitos - embora

não necessariamente seja realizado em um ambiente com Grid,

Utility ou Autonomic Computing - combinando ainda algumas

das novas tecnologias e tendências baseadas na Internet, como

Web 2.0 e Software as a Service (Saas).

Entre as definições mais consensuais diz-se que a computação

em nuvem trata de ”um conjunto de recursos tais como

aplicações, plataformas, capacidade de processamento, área de

armazenamento, conectividade e serviços

disponibilizados na Internet”.

Sob a ótica dos custos de TI, o cloud

computing parece atender a uma

necessidade antiga, a de aumentar a

capacidade computacional disponível,

ou mesmo reduzir essa capacidade, de

acordo com a demanda de negócios da

empresa. Tudo isso sem interrupções e

sem a necessidade de mais investimentos

na infraestrutura do datacenter, novas

aquisições de hardware e software, ou

ainda a contratação e treinamento de

novos funcionários. A empresa pode

contar com uma extensão da capacidade

de sua área de TI, disponível em tempo

real na Internet, contratada com base na

cobrança por uso efetivo dos recursos ou

Você já está nas nuvens?Cristina Matsubara

Page 85: 100 Mini Papers sobre tecnologia

Janeiro, 2009

84 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

cobrança de uma assinatura pelo serviço

desejado e sem se preocupar com a gestão

do aumento da complexidade de TI.

Os provedores de cloud computing

fornecem serviços e produtos baseados

na nuvem, por exemplo, software como

serviço sob demanda (SaaS), hardware

como serviço sob demanda (baseado na

medição de consumo de processamento

computacional armazenamento em

disco, banda de rede, redundância em

datacenters de localidades distintas, etc.)

e plataformas para desenvolvimento e

hospedagem de aplicações. Também

vêm emergindo iniciativas chamadas de

integradoras ou agregadoras de nuvens,

as quais coordenam a integração de

vários desses serviços, dispostos em uma

arquitetura SOA, e com uso de técnicas de

mashups, as quais permitem desenvolver

aplicações que usam conteúdos de mais

de uma fonte para criar um novo serviço

completo.

O modelo emergente de cloud computing

vem sendo viabilizado pela convergência

de diversos fatores, tais como o acesso

quase ilimitado à Internet, a fabricação

de servidores extremante poderosos, as

tecnologias sofisticadas de virtualização

e a disseminação de arquiteturas

multitenant, que permitem a uma instância

de execução de software servir a vários

clientes simultaneamente. Além disso, a perspectiva da redução

de custos nos investimentos em TI tem impulsionado esse novo

modelo.

O cloud computing promete revolucionar o modo como

pessoas e empresas irão contratar os serviços e produtos

relacionados à tecnologia de informação. As empresas passarão

a contratar infraestrutura e aplicações baseadas na nuvem. Na

computação pessoal, o que o futuro parece desenhar é que não

serão mais necessários os computadores pessoais com grande

capacidade de processamento. As pessoas usarão apenas

um equipamento portátil, com um browser para o acesso à

Internet, acumulando a função de vários equipamentos atuais,

tais como computador, telefone celular, câmera fotográfica e de

vídeo, videogame e o que mais existir. Através desse browser

será possível acessar qualquer informação pessoal (fotografias,

músicas, vídeos, e-mails, etc.) e também aplicativos que estarão

todos disponíveis na nuvem.

Para saber mais

http://en.wikipedia.org/wiki/Cloud_computing

Page 86: 100 Mini Papers sobre tecnologia

Dezembro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 85

Data centers têm contribuído com o aumento do consumo global

de energia elétrica e das emissões de carbono. Nos últimos

cinco anos, o consumo de energia dos data centers dobrou e

hoje representa 2% do consumo dos EUA e 4% do planeta. O

crescimento significativo no parque de equipamentos somado

ao aumento exponencial na relação de Watts consumidos e

dissipados, por unidade computacional, tornou-se um obstáculo

à viabilidade operacional desses data centers.

Quase 90% dos data centers em operação no mundo foram

construídos antes de 2001. Concebidos para suportar uma certa

densidade de consumo de energia e carga térmica, muitos

estão entrando em colapso por incapacidade de suportar

cargas maiores, resultantes da alta densidade computacional

viabilizada pela tecnologia nos dias atuais.

Segundo o Gartner (2007), até 2011 mais de 70% dos data centers

corporativos nos Estados Unidos enfrentarão problemas sérios

de consumo de energia, com aumento no custo operacional.

Atualmente o custo de energia por metro quadrado em um data

center representa entre 10 e 30 vezes o custo em um edifício de

escritórios.

Portanto, estamos vivendo um momento de ruptura no conceito

tradicional de data center. A busca pela eficiência em consumo

de energia, refrigeração, capacidade computacional e utilização

de espaço está hoje entre os maiores desafios em pauta nas

agendas dos CIOs.

Mas para onde vai essa energia consumida? Segundo estudos

do U.S. Department of Energy (2007), os equipamentos de

TI respondem por 30 a 40% da energia consumida por um

data center. O restante é atribuído aos

equipamentos de suporte, tais como UPS

(Uninterruptible Power Supply), iluminação

e refrigeração.

Para resolver o problema de consumo de

energia em data centers não basta focar

somente nos chips dos servidores, mas

no data center como um todo, ou seja,

otimizar o uso dos equipamentos de TI

e da infraestrutura para torná-los o mais

eficiente em energia possível.

O conceito de Green Data Center vai ao

encontro desse apelo por eficiência. As

iniciativas que viabilizam esse conceito

Sinal verde para os Green Data CentersAntonio F. Gaspar Santos

Page 87: 100 Mini Papers sobre tecnologia

Dezembro, 2008

86 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

estão concentradas em cinco pilares,

podendo ser aplicadas de forma isolada

ou combinada, a saber:

Virtualização – a consolidação e

virtualização de servidores otimiza a

utilização da capacidade computacional e

reduz a utilização de espaço e de consumo

de energia em até 80%.

Diagnóstico – inspeção e análise quanto

à eficiência em consumo de energia.

Permite identificar e indicar ações de

redução de consumo anual total de um

data center em até 53%. Num estudo

mais específico, gera-se um mapa

espectral térmico sobre o qual aplicam-

se algoritmos de modelagem e otimização

visando a estabelecer um novo layout

de distribuição de equipamentos, para o

melhor aproveitamento de seu sistema de

refrigeração.

Gerenciamento e medição – a partir de

regras de liberação ou limitação de

recursos computacionais, de acordo com

a demanda num respectivo período,

equipamentos de TI habilitados com

propriedades de sistemas autonômicos

(sensores e atuadores) permitem

controle de seu consumo de energia por

meio de ativação, desativação ou até

“desaceleração” de componentes.

Refrigeração híbrida – a combinação de

sistemas de refrigeração tradicionais (ar

condicionado) com sistemas de arrefecimento por fluido liquido

(“refrigeração a água”), por meio de instalação de radiadores

nos racks de servidores, reduz os custos operacionais e aumenta

a eficiência do sistema de refrigeração em até 45%.

Construção e centralização – infraestruturas de TI descentralizadas

são, em geral, mais dispendiosas e ineficientes. A construção de

data centers eficientes em energia, visando à consolidação de

data centers distribuídos, reduz a complexidade, otimiza o uso

dos recursos, aumenta a escalabilidade e melhora a resiliência.

Enfim, adotar o conceito de green data center vai além de

responsabilidade social e postura ecologicamente correta.

É uma questão de redução de custos e sobrevida. Ou seja,

não basta “se pintar de verde”. É necessário investir em

soluções inovadoras, capazes de entregar maior capacidade

computacional com menor consumo de energia.

Para saber mais

http://www.ibm.com/green

Page 88: 100 Mini Papers sobre tecnologia

Novembro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 87

Nos últimos anos, o Brasil se destacou no cenário mundial pela

utilização de tecnologias que facilitam e tornam mais segura

a realização de eventos tais como eleições e declaração de

imposto de renda. Toda essa experiência é agora usada na

relação entre governo e indústrias.

Independentemente da indústria a emissão de uma nota

fiscal sempre é gerada em um mesmo formato: papel. A

legislação diz que as notas fiscais devem ser guardadas para

fins de fiscalização por um período de cinco anos. Para isso,

as empresas devem guardar as milhares de notas fiscais que

emitem em galpões protegidos contra incêndios, contar com

seguranças e manter um controle de tudo que está armazenado,

entre outros contratempos.

Felizmente, a tecnologia oferece uma solução que beneficia

a indústria e o governo, tanto na redução de custos, quanto

em um controle melhor e muito mais eficiente: a Nota Fiscal

Eletrônica (NF-e), projeto que começou em setembro de 2006.

Alguns setores da indústria já estão obrigados pelo governo

a emitir nota somente de forma eletrônica, enquanto outros

também o serão nos próximos anos. A NF-e tem a mesma

validade jurídica que a emitida em papel, e também está sujeita

às mesmas validações por parte do Fisco.

A NF-e é um documento eletrônico em XML que é gerado de

acordo com um formato preestabelecido e aceito em todos

os estados da federação. Esse padrão está no Manual de

Integração do Contribuinte.

Uma das grandes vantagens que o projeto oferece é que

os documentos eletrônicos que contêm as notas devem ser

assinados digitalmente, com o uso

de certificados digitais. Isso garante a

integridade das informações, pois uma

vez assinada a NF-e, qualquer alteração

efetuada depois da assinatura digital

invalida a mesma.

Depois de criado o XML, o próximo

passo é o envio da NF-e para a Secretaria

da Fazenda. A padronização que foi

estabelecida para a comunicação com

as Secretarias de Fazenda é baseada no

conceito de serviços, implementados

como Web Services. Existem serviços

para envio e cancelamento de notas, por

Do papel aos bytes: a nota fiscal eletrônicaMiguel Vieira Ferreira Lopes Gomes

Page 89: 100 Mini Papers sobre tecnologia

Novembro, 2008

88 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

exemplo. Esses serviços estão disponíveis

em todas as Secretarias de Fazenda. Dessa

forma, quem envia a NF-e precisa apenas

saber para qual estado ela será enviada.

Uma vez que a NF-e esteja autorizada

pela Secretaria da Fazenda, a mercadoria

poderá circular com a impressão do DANFe

(Documento Auxiliar de NF-e). Desde o

inicio do projeto já foram autorizadas mais

de 23 milhões de notas.

A adoção da NF-e possibilita uma série de

benefícios para indústrias, consumidores e

governo, entre eles:

Agilidade - a autorização de uma NF-e

leva apenas alguns segundos, melhorando

dessa forma a logística de entrega;

Segurança - o uso de certificados digitais

reduz as fraudes e aumenta a segurança

entre as partes;

Custo - redução dos custos de impressão,

armazenamento e envio da nota;

Governança - a empresa passa a ter um

controle digital e integrado de todo o

fluxo, contando ainda com a facilidade

de poder responder mais rapidamente

às solicitações do Fisco, mudança de

legislação ou de negócios;

Padronização - com o incentivo do uso

de documentos eletrônicos, há uma

padronização para o conteúdo e forma de

envio desses documentos, afetando de

um modo positivo toda a cadeia.

A popularização de tecnologias como certificação digital, o uso

de arquiteturas de sistemas baseadas em serviços e os padrões

abertos estão abrindo caminho para uma nova era na utilização

de documentos eletrônicos no Brasil.

Para saber mais

www.nfe.fazenda.gov.br/

Page 90: 100 Mini Papers sobre tecnologia

Novembro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 89

Em sua definição mais objetiva, inovação é a intersecção

entre invenção e modelo de negócio. E não necessariamente

a invenção e o seu aproveitamento no mercado surgem

em um mesmo momento ou local. Existem vários casos de

uso de invenções tecnológicas realizadas por empresas que

originalmente não as desenvolveram.

A Xerox, através do seu centro de pesquisas PARC (Palo Alto

Research Center), por exemplo, desenvolveu nos anos setenta

várias tecnologias que hoje são largamente utilizadas no

mercado, tais como a interface gráfica com o usuário, a rede

Ethernet e a programação orientada a objetos. Muitas de suas

invenções, entretanto, somente chegaram ao mercado quando

tiveram seu potencial explorado por outras empresas. A Apple,

que se especializou em criar modelos de negócios a partir de

tecnologias existentes, lançou nos anos oitenta o Macintosh, o

primeiro microcomputador de sucesso a prover interface gráfica

com o usuário, baseada na invenção da Xerox. Ao fazer isso, a

Apple transportou para a realidade algo que era brilhante, mas

que não tinha um modelo de negócios associado.

Mas nem sempre é assim. Muitas vezes produtos de sucesso

de uma empresa são transformados e produzem ainda mais

sucesso por intermédio de outra, num tempo ou ambiente

diferente. Novamente podemos citar a Apple, com seu iPod, que

revolucionou a forma de se distribuir, comprar e ouvir música,

com um dispositivo compacto baseado em uma invenção da

Sony (o Walkman) que havia dominado por um bom tempo esse

mercado. Para reaproveitar e ao mesmo tempo revolucionar o

conceito, a Apple juntou um dispositivo de armazenagem mais

moderno (em comparação à fita cassete)

com um modelo de negócio para venda

de músicas através da Internet (o iTunes).

Ou seja, a Apple combinou elementos

preexistentes, mas ao mesmo tempo,

revolucionou o mercado.

E como está a IBM em relação à inovação?

Dispondo de uma divisão de pesquisa

e desenvolvimento com mais de 3000

cientistas e desenvolvedores, e investindo

cerca de seis bilhões de dólares anualmente

em pesquisas, a IBM lidera há quinze

anos o ranking mundial de patentes. O

desafio constante é o de transformar suas

invenções em soluções inovadoras, que

explorem o capital intelectual existente,

eventualmente combinando-o com o de

terceiros, no sentido de criar cada vez

Inovação, desafios e oportunidadesJosé Carlos Duarte Gonçalves

Page 91: 100 Mini Papers sobre tecnologia

Novembro, 2008

90 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

mais pontes para seu aproveitamento no

mercado.

Com essa abordagem, a IBM vem

desenvolvendo exemplos de inovação. Um

deles é o chip Cell, uma invenção da IBM

em parceria com a Sony e a Toshiba, para

um propósito original específico (utilização

no videogame PlayStation 3), e que agora

passou a ser utilizado em um ambiente

totalmente diferente, o supercomputador

Roadrunner, construído pela IBM para o

Laboratório Nacional de Los Alamos, nos

Estados Unidos. Esse é hoje o computador

mais poderoso do mundo em termos de

processamento (1.7 petaflops) e vale mais

que 130 milhões de dólares, mas tem como

base componentes de baixo custo, como o

próprio chip Cell, numa recombinação que

merece, sem dúvida, o título de Inovação.

Outro exemplo da IBM na direção de criar

novas pontes da pesquisa para o mercado,

está o investimento em Cloud Computing,

uma nova tendência em computação e em

conceito mercadológico, na qual a IBM

vem aplicando tecnologias de hardware e

software, com técnicas de virtualização e

provisionamento de recursos, combinadas

em um ecossistema do qual fazem parte

outras organizações tais como Google e

universidades.

Aqui no Brasil, o TLC-BR entra nesse

cenário como um grupo de especialistas

da IBM em contato com o mundo dos laboratórios de pesquisa,

com a missão de ajudar no desenvolvimento de novos modelos

de negócio utilizando tecnologias existentes, através da

capacidade de revisitar o capital intelectual disponível e propor

formas de aproveitá-lo no mercado brasileiro. Nessa capacidade

reside o maior valor do TLC-BR, cujo grande desafio é contribuir

para uma IBM cada vez mais inovadora e capaz de se reinventar

para permanecer competitiva e lucrativa no mercado.

Para saber mais

http://www.ibm.com/ibm/cloud/

http://www.ibm.com/technology/power/

http://www.ibm.com/ibm/ideasfromibm/us/library/

Page 92: 100 Mini Papers sobre tecnologia

Outubro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 91

Há consenso no mercado e nas corporações que poucas ações

podem trazer melhorias tão significativas no desenvolvimento

de software quanto a possibilidade de reaproveitar e capitalizar

o que já foi construído, testado e validado, permitindo que

soluções existentes sejam implementadas rapidamente em

novos contextos. Essa é a ideia do asset reuse, ou reúso de

ativos. Com ele, migra-se do modelo do software artesanal

para uma indústria de software mais madura, capaz de “montar

peças” para compor novos sistemas. Isso torna o processo de

engenharia de software mais eficiente em termos de custo,

produtividade e qualidade, e mais apto a responder com

agilidade às mudanças nos processos de negócio.

Por essa razão, o desenvolvimento de software baseado em

componentes vem se firmando cada vez mais como uma

proposta concreta para a melhoria da produção de software,

cujo processo passa a ter foco em:

Criação de ativos — sejam eles componentes (blocos de software

com funcionalidades) ou serviços (funções de um sistema que

são disponibilizadas na rede através de uma interface), base do

modelo SOA — Service Oriented Architecture;

Reúso de ativos — sejam eles parte do próprio capital intelectual

da corporação, provenientes de comunidades de software livre

ou comprados de terceiros.

Os benefícios dessa abordagem são obtidos através da

definição de uma estratégia corporativa de reúso, representada

por mudanças em termos de negócio, processos, pessoas

e ferramentas. Com isso, tem-se o necessário para a

implementação, monitoração, governança e capitalização das

ações. Pesquisas elaboradas por Ivar

Jacobson e Jeffrey Poulin (referências

mundiais em engenharia de software

e reúso de ativos) apontam melhorias

em produtividade da ordem de 100 a

400% e redução de defeitos e custos de

manutenção de 80 a 90% para corporações

que adotam reúso sistemático de ativos.

Na prática, a implementação dessa

estratégia deve seguir uma trajetória

caracterizada por um novo direcionamento

executivo, no qual o investimento inicial

é necessário e a governança passa a ser

fator de sucesso ou fracasso. O retorno

Estratégia corporativa de reúsoMarcelo D. Vessoni

Page 93: 100 Mini Papers sobre tecnologia

Outubro, 2008

92 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

do investimento (ROI) tipicamente é

obtido de médio a longo prazo, uma

vez que os desafios da estratégia sejam

superados. Porém, existem fatores

comuns apresentados por corporações

que tiveram êxito na implementação da

estratégia de reúso.

O primeiro é a mudança no processo

de engenharia de software, com a

formalização de todos os pontos do

ciclo de desenvolvimento nos quais a

componentização pode ser considerada.

É importante pensar em reúso desde o

início, quebrando a solução em pacotes

menores. O refinamento ocorrerá em

etapas posteriores, contribuindo para a

biblioteca de ativos. É necessária também

uma arquitetura corporativa de referência,

garantindo produtividade e uniformidade

técnica ao portfólio de projetos da

corporação.

Para um fornecedor de TI, outro fator é a

criação de um modelo de licenciamento, no

qual os ativos são precificados e vendidos

como parte da solução, reforçando ao

cliente o potencial de diminuição do

preço final. O cliente, ao adquirir soluções

compostas por ativos reutilizáveis, cria

uma biblioteca que facilita a construção

de novos sistemas.

Por fim, tem-se a necessidade de

investimento (ou uso da receita com

licenciamento) em uma unidade de negócios focada no

gerenciamento dos ativos, ou seja, criação, manutenção,

controle de versões, divulgação e mecanismos de incentivos.

Essa unidade deve ter foco em governança e integração dos

processos, apresentando métricas e visões gerenciais que

possibilitem o acompanhamento dos seus benefícios, como

ROI, economia de cada reutilização, ativos mais solicitados,

entre outros.

Nesse mundo de reúso de ativos, SOA e engenharia de software

madura, as corporações precisam assumir efetivamente o

modelo de colaboração, compartilhando e reutilizando soluções,

unificando esforços e boas práticas. Todos têm a ganhar ao não

reinventar a roda.

Para saber mais

http://en.wikipedia.org/wiki/Code_reuse

http://www.redbooks.ibm.com/redbooks/pdfs/sg247529.pdf

http://books.google.com/books?id=wrFQAAAAMAAJ&pgis=1

Page 94: 100 Mini Papers sobre tecnologia

Setembro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 93

Hoje em dia é praticamente impossível imaginar o funcionamento

de uma organização sem a existência de alguma tecnologia de

software que suporte os seus processos de negócio. Segundo

o renomado cientista da computação Grady Booch, em seu

artigo Leaving Kansas (1998), “software é o combustível para a

execução dos processos de negócio modernos”.

Apesar dessa importância muitos projetos de desenvolvimento

de software falham. Estatísticas do Chaos Report (2006)

apontam que apenas 35% dos projetos tiveram sucesso (ou

seja, atenderam aos requisitos dentro do prazo e custos

previstos). Isso ocorre devido a vários fatores, tais como a

falta de entendimento das reais necessidades dos usuários, a

incapacidade de gerenciar as mudanças que surgem ao longo

do projeto, os módulos de aplicações que não se “conversam”,

dentre outros. Muitas organizações ainda desenvolvem

software de maneira desordenada e artesanal, sendo o sucesso

dependente exclusivamente do mérito de alguns colaboradores

individuais, os chamados “salvadores da pátria”, à custa de

muita cafeína e hora extra.

Para evitar as causas mais comuns de falhas em projetos de

desenvolvimento de software é necessário seguir um processo

de desenvolvimento que seja baseado nas melhores práticas

de mercado. Segundo o padrão SPEM (Software Process

Engineering Metamodel), especificado pela OMG (Object

Management Group), um processo de desenvolvimento de

software é a colaboração entre entidades ativas e abstratas

chamadas de Papéis que realizam operações chamadas

Atividades em entidades concretas e tangíveis chamadas

Artefatos. Grady Booch apresenta quatro

funções principais de um processo de

desenvolvimento de software:

Prover orientações para ordenar as

atividades da equipe de desenvolvimento;

Especificar quais artefatos devem ser

desenvolvidos;

Direcionar as atividades para os papéis

(indivíduos ou equipes);

Oferecer critérios para monitorar e medir

os artefatos e atividades ao longo do

processo.

Um dos processos mais antigos, (surgido

nos anos setenta) e que ainda é bastante

O fim do empirismo no desenvolvimento de softwareWagner Baccarin Arnaut

Page 95: 100 Mini Papers sobre tecnologia

Setembro, 2008

94 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

utilizado até hoje, é o Processo de

Desenvolvimento em Cascata (waterfall).

Nesse processo existe um conjunto de

disciplinas, fases e atividades que são

realizadas e finalizadas de forma sequencial

em um projeto. É nesse processo que, em

sequência, elicita-se os requisitos, modela-

se e projeta-se o sistema, codifica-se, testa-

se (se houver tempo hábil) e, finalmente,

implanta-se o software desenvolvido. Esse

modelo sequencial foi (e ainda é) alvo de

críticas, pois como é muito difícil chegar à

perfeição em uma fase antes de se passar

a outra, o risco de falhas acumula-se no

final, no momento da implantação, no qual

os custos de correção são mais elevados.

Algumas iniciativas surgiram na tentativa

de se criar um melhor processo de

desenvolvimento. Os esforços se somaram

e criou-se, no final dos anos noventa, um

novo e melhorado processo, conhecido

como Processo Unificado, que combina

ciclos de desenvolvimento iterativos e

incrementais visando mitigar os riscos

das principais causas de falhas citadas

anteriormente. Com base no processo

unificado foi criado o Rational Unified

Process (RUP), que se tornou praticamente

um padrão quando se fala em processo de

desenvolvimento de software iterativo e

incremental. É a instância mais disseminada

e é um expoente de mercado. O RUP

possui como princípio básico as seguintes melhores práticas de

desenvolvimento de software: demonstrar valor iterativamente,

elevar o nível de abstração, enfocar continuamente em

qualidade, adaptar o processo, balancear as prioridades dos

stakeholders e aumentar a colaboração dentro da equipe.

Organizações maduras em desenvolvimento de software são

aquelas que possuem a capacidade de aplicar um processo bem

definido, que lhes permita desenvolver sistemas complexos de

maneira repetitiva e previsível seguindo as melhores práticas de

engenharia de software.

Para saber mais

en.wikipedia.org/wiki/Unified_Process

www.standishgroup.com/quarterly_reports

www.omg.org/technology/documents/formal/spem.htm

Page 96: 100 Mini Papers sobre tecnologia

Setembro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 95

Há alguns anos, as principais disputas entre as operadoras de

telecomunicações eram pelo aumento da base de usuários e

pela cobertura da rede de telefonia móvel. Com o surgimento

da tecnologia IP, a consolidação entre as operadoras fixas e

móveis e a necessidade de crescer a receita média por usuário

(Average Revenue Per User - ARPU), as operadoras passaram a

enfrentar os seguintes desafios:

• Responder de forma rápida à demanda do mercado por

novos serviços e conteúdos.

• Fazer parcerias com terceiros para ampliar a gama de serviços

e conteúdos oferecidos.

• Prover personalização e uma experiência comum ao usuário

final, independente da rede ou equipamento terminal que ele use.

• Reduzir o custo de implantação e manutenção dos serviços.

Em outras palavras, as operadoras necessitam inovar na

maneira de ofertar, desenvolver e gerenciar seus serviços de

telecomunicações (0800, SMS, IPTV ou outros).

O Service Delivery Platform (SDP) se propõe a ajudar a

enfrentar esses desafios ao prover uma maneira comum

para criar, executar e gerenciar os serviços de rede de

telecomunicações, de forma independente da tecnologia

utilizada. Surgiram, ao longo do tempo, várias definições

de SDP na indústria, o que motivou o TeleManagement

Forum (TMF) a definir, no final de 2007, um framework

chamado Service Delivery Framework (SDF), com o

objetivo de padronizar os conceitos de entrega e gerência

de serviços.

Na estrutura atual das operadoras, os

serviços são providos de forma vertical,

também chamados de silos. Isso significa

que eles são utilizados por uma única

rede de telecomunicação e sem reúso nas

outras redes. Já no caso do SDP/SDF, os

serviços ficam em uma camada que pode

ser acessada por qualquer rede, seja ela

fixa, móvel ou IP.

A independência ocorre através da

introdução de novos elementos (gateways/

servidores de aplicação) que se comunicam

com as redes através de seus protocolos

nativos e com os aplicativos através de

padrões de linguagem abertos. Esses

elementos expõem as capacidades básicas

da rede de telecomunicação de tal forma

Service Delivery Platform:uma nova forma de prover serviço de telecomunicaçõesFábio Laurino Liberato

Page 97: 100 Mini Papers sobre tecnologia

Setembro, 2008

96 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

que os desenvolvedores de aplicações

não necessitam conhecer protocolos

ou linguagens específicas. Os serviços

são desenvolvidos e hospedados em

servidores de aplicação ou aceleradores

de mercado que utilizam linguagens e

padrões abertos (Java, Web Services,

Parlay) e são integrados aos gateways.

Isso facilita e agiliza bastante a criação

de novos serviços, sejam esses simples

ou complexos (a partir da combinação de

diversos serviços).

Além de prover uma forma de criação e

execução comum, o SDP/SDF também

disponibiliza uma gerência unificada e

a integração dos sistemas de rede com

os de TI (tais como billing e CRM). Essa

integração é baseada nos conceitos

e melhores práticas de Arquitetura

Orientada a Serviços (SOA) e nos padrões

da indústria.

Outro benefício está no aumento da

quantidade de serviços oferecidos.

Ao prover uma camada com padrões

e linguagens abertos, o número de

desenvolvedores e a diversidade de

aplicativos serão bem maiores do que

no caso das aplicações verticais (silos),

orientadas aos protocolos específicos de

cada rede. Assim, com uma quantidade

maior de parceiros e novos serviços

disponíveis, as operadoras podem

estabelecer novos modelos de negócios e aumentar a receita

média por usuário.

Algumas operadoras estão em fase de análise e estudo para

entender como implementar essa plataforma/framework em

suas redes, já outras partiram para implementações parciais e

esperam, assim, poder se diferenciar no mercado com ofertas

de serviços mais flexíveis e customizados.

Para saber mais

http://en.wikipedia.org/wiki/Service_Delivery_Platform

http://www.teleco.com.br/opcelular.asp

http://www.tmforum.org/

h t t p : / / w w w. t m f o r u m . o rg / M a n a g e m e n t Wo r l d 2 0 0 8 /

SDFOverview/5036/Home.html

Page 98: 100 Mini Papers sobre tecnologia

Agosto, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 97

Visão Computacional é uma disciplina da pesquisa científica que

visa criar máquinas que podem ler e entender uma imagem por

meio de modelos matemáticos e algoritmos. Em outras palavras,

a visão computacional tem o objetivo de dar a capacidade de

enxergar para as máquinas, computadores e robôs. Por esse

motivo, esse tema também é conhecido como Visão Robótica

ou Visão de Máquina.

Os modelos matemáticos e algoritmos utilizados estão sob

o domínio de duas áreas da computação: Processamento de

Imagens Digitais e Inteligência Artificial.

Atualmente esta tecnologia é um assunto de grande interesse

nas comunidades científicas, universidades e nos centros de

pesquisa, como o Watson Research Center, onde a IBM mantém

uma equipe dedicada ao estudo dessas aplicações.

Graças aos esforços desses cientistas, já se pode observar como

a visão de máquina está sendo implementada nas mais diversas

áreas, como mostram os exemplos a seguir:

No diagnóstico de doenças, existem softwares capazes de

detectar anomalias em imagens médicas utilizando o recurso de

comparação de padrões.

Em robôs industriais que são capazes de realizar testes de

qualidade e metrologia - inclusive tridimensional - por meio

da análise de uma simples imagem estática plana, ou através

da composição estereoscópica (quando duas ou mais imagens

digitais são utilizadas para gerar um modelo tridimensional de

um objeto).

Em Vigilância Digital, câmeras podem perseguir um objeto

móvel, prever movimentos ou comportamentos, e gerar

informações quantitativas e qualitativas

de um ambiente, como por exemplo,

o número de pessoas em uma sala e o

comportamento de um indivíduo.

No monitoramento de tráfego, onde há

uma demanda crescente pela automação,

pois a observação humana torna-se

menos eficiente já que seres humanos

tendem a se distrair, cometer erros e até

dormir. Deve-se considerar também os

males causados à saúde pela observação

constante em monitores de vídeo. No

entanto, máquinas são capazes de

observar e analisar imagens de trânsito

Máquinas podem enxergar?Kiran Mantripragada

Page 99: 100 Mini Papers sobre tecnologia

Agosto, 2008

98 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

24 horas por dia, controlar semáforos e

cancelas de maneira inteligente, prever

comportamentos, registrar infrações

de trânsito e gerar alarmes no caso de

situações de risco.

Em brinquedos e eletrodomésticos “do

futuro”, como robôs que aprendem a

percorrer um determinado caminho,

desviando de obstáculos para fazer

a limpeza doméstica, e brinquedos

personalizados, que reconhecem um dono

e interagem de acordo.

Em produtos eletrônicos, como câmeras

inteligentes que utilizam técnicas de visão

computacional para detectar o sorriso

(smile shutter mode) e rosto (face detection)

para corrigir automaticamente o foco

da imagem; há também computadores

pessoais com controle de acesso

biométrico, que utiliza o reconhecimento

da íris ocular ou da impressão digital

(fingerprint).

Já é muito comum a utilização do

reconhecimento da impressão digital

para controle de acesso em aeroportos,

áreas de segurança e empresas. O

reconhecimento da íris ocular, da face, do

formato da mão e da maneira de andar

(gait analysis) também são objeto de

pesquisa na busca pela identificação do

indivíduo, pois essas são características

únicas e peculiares em cada ser humano. A

quantidade de produtos que podem ser criados como resultado

dessas pesquisas é virtualmente infinita e depende somente da

imaginação.

A visão humana é rápida e eficiente, porém ela pode falhar

devido à fadiga. No futuro, a visão computacional poderá

substituí-la com eficiência em várias tarefas, principalmente

naquelas que requeiram atenção ininterrupta, deixando para o

homem aquelas que demandem mais de seu intelecto.

Para saber mais

http://www.research.ibm.com/ecvg

http://www.research.ibm.com/s3

http://en.wikipedia.org/wiki/Computer_vision

Page 100: 100 Mini Papers sobre tecnologia

Agosto, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 99

Vivemos em um tempo no qual novas tecnologias são lançadas

diariamente e a necessidade de qualificação profissional torna-

se cada vez mais importante. Hoje, não basta mais o diploma de

graduação embaixo do braço e uma boa fluência em uma língua

estrangeira para se conseguir e manter em um bom emprego.

É necessário ter diferenciais para obter uma valorização no

mercado.

As empresas buscam, cada vez mais, profissionais capacitados

nas tecnologias. Nessa busca, uma das formas de diferenciação

é a certificação, por vezes considerada como evidência

do conhecimento e experiência de um profissional em uma

determinada tecnologia ou serviço, tal como se fosse um “selo

de qualidade” desse profissional.

Para as empresas fornecedoras de tecnologia, em particular, é

imprescindível capacitar e certificar profissionais do mercado em

suas áreas de competência visando a divulgar seus produtos,

soluções e serviços com mais propriedade e assim expandir sua

participação no mercado.

Para as demais empresas também vale a pena investir tempo

e recursos na capacitação e certificação profissional. Essa

atitude demonstra aos clientes, fornecedores e investidores

um diferencial de qualidade, melhora a competitividade e

credibilidade nas oportunidades no mercado, diminui as

incertezas nas negociações, aumenta a garantia de um alto nível

na prestação de serviços, melhora o desempenho e reduz o

nível de problemas. Além disso, com profissionais certificados

em seus quadros, as empresas obtêm melhores pontuações

em licitações e projetos que exijam comprovação de níveis

de capacitação profissional. Por essa

razão, o retorno do investimento feito

na capacitação de recursos humanos é,

geralmente, rápido e garantido.

Mas e para o profissional, será que vale

mesmo a pena ficar horas estudando em

livros, cursos e laboratórios, arcar com o alto

custo dos treinamentos e exames, além de

enfrentar o nervosismo em diversas provas

e entrevistas para obter uma certificação?

Sim, pois muitas certificações têm amplo

reconhecimento no mercado e podem

influenciar em oportunidades de entrevista

para uma recolocação na mesma empresa

(ou no mercado), possibilitando a ascensão

na carreira e a obtenção de melhores

remunerações. Pesquisas indicam que

profissionais certificados costumam

Certificar ou não, eis a questãoLuiz Espínola

Page 101: 100 Mini Papers sobre tecnologia

Agosto, 2008

100 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

receber salários mais altos em comparação

aos demais.

Existem diversos caminhos para se

certificar na área de TI, sendo alguns mais

voltados para a tecnologia e outros para a

gestão de TI com foco no negócio.

No caminho das certificações tecnológicas,

as direcionadas para as áreas de segurança

da informação, redes e arquiteturas de

soluções são muito valorizadas. Afinal,

com o advento da globalização, Internet,

vírus, hackers e fraudes, qual empresa não

precisa de um bom profissional nessas

áreas em sua equipe?

Já o caminho das certificações voltadas

para a gestão de TI com foco no negócio é,

atualmente, o mais valorizado do mercado.

Nesse caminho estão a de Gerência de

Projetos PMP, do Project Management

Institute (PMI) e as de Governança de TI,

tanto em ITIL (IT Infrastructure Library)

quanto em COBIT (Control Objectives for

Information and Related Technology).

É importante ressaltar que a certificação

não substitui uma boa formação e muito

menos a experiência profissional, mas

ajuda na formalização das qualificações

e no reconhecimento do profissional no

mercado de trabalho.

Em um mundo cada vez mais competitivo

destaca-se quem tem algo a mais a

oferecer. Para conseguir esse destaque,

as empresas devem investir e encorajar seus profissionais a

estudarem, se capacitarem e comprovarem seus esforços e

conhecimentos por meio da certificação. Se todos ganham com

as certificações, o que você está esperando para conquistar a

sua?

Para saber mais

IBM Certification Program: http://ibm.com/certify/

Open Group: http://www.opengroup.org/certification/

Prometric: http://www.prometric.com/

Pearson VUE : http://www.vue.com/

Page 102: 100 Mini Papers sobre tecnologia

Julho, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 101

Eu não jogo. E não gosto de jogo. O legado de vício, ruína

e falência existente nessas afirmações manteve no silêncio a

evolução de uma das mais pujantes e socialmente úteis indústrias

que existem: a do “jogo sério” (“serious game”, no original em

inglês). As aspas são aqui apropriadas porque essa indústria,

de fato, não tem um nome e o termo “jogo sério” surgiu quase

como uma desculpa, do tipo “é jogo, mas é sério, hein?”.

Entretanto, uma série de fatos, concatenados, justificam um

olhar mais atento. Vamos, então, trazer alguns deles à luz.

Uma corrente cada vez maior de cientistas entende que o jogo,

particularmente o que explora cenários virtuais, desenvolve

em crianças e adolescentes várias habilidades motoras e de

raciocínio (com as pertinentes ressalvas ao isolamento e aos

prejuízos sociais resultantes).

Outra vertente mostra o rápido declínio de métodos tradicionais

de preparação e treinamento em empresas e governos, e o

principal motivo é financeiro. O custo total de se desenvolver e

aplicar cursos, deslocar pessoas e mantê-las afastadas de suas

funções, está levando ao fim o método tradicional.

Na convergência entre o videogame e o ensino surgem os

serious games. Mas erra quem pensa que resolve o problema do

ensino lançando alguns textos e testes na Internet. Um serious

game, para ser bem sucedido, depende de um grande número

de variáveis, e para estudá-las surgiram diversas associações,

laboratórios e cadeiras universitárias em todo o mundo.

Vamos ao básico: um serious game bem sucedido depende,

em termos gerais, de três elementos: propósito (ou conceito),

conteúdo, e desenho.

O propósito, ou conceito, estabelece

o que se pretende desenvolver com o

jogo. Pode ser qualquer combinação

de necessidades, tais como cognição,

comportamento, percepção, técnica,

teoria, habilidade, entre outras.

O conteúdo estabelece a base de

informações sobre a qual se chega

ao propósito: pode ser uma base de

dados de estratégia militar, uma base

de conhecimentos sobre pilotagem e

voo, o processo de aplicação de uma

tomografia (base para a aplicação

ilustrada na figura acima), uma teoria

sobre relacionamento e poder, ou

qualquer outro conteúdo que permita a

elaboração de um roteiro diretamente

ligado ao propósito.

Serious game é jogo sérioWilson E. Cruz

Page 103: 100 Mini Papers sobre tecnologia

Julho, 2008

102 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

O desenho estabelece a forma pela qual

o propósito será atingido e o conteúdo

transmitido. Aqui se situam a programação

propriamente dita e os vários modelos

de entrega do conteúdo, tais como

simulações, criação de mundos virtuais

(world building) e jogos de interpretação

de papéis (Role-Playing Games).

Esses três elementos, bem combinados,

garantem a obtenção das quatro

características principais de um jogo

bem sucedido: desafio, exercício de

habilidades, competição e sensação

de progresso. E isso vale tanto para um

simulador de voo quanto para um curso

de conduta profissional em uma empresa

qualquer.

Um artigo da revista Wired conta a epopeia

de um desenvolvedor sérvio de games

que, através de um jogo de estratégia,

conseguiu colaborar com a deposição do

ditador Slobodan Milosevic. Os exemplos

e usos começam a surgir, mas ainda é difícil

encontrar empresas privadas extraindo o

máximo dessa disciplina e tornando-se

líderes. Precisa “cair a ficha”, para usar um

jargão mais apropriado ao tema.

Neste momento de incerteza,

provocada pela gradativa falência dos

métodos tradicionais de treinamento

e preparação profissional, é vital que

todo o conhecimento já armazenado

sobre serious games seja aproveitado na construção de jogos

interessantes, divertidos, densos e efetivos. Quem fizer isso vai

“quebrar a banca”.

Para saber mais

http://www.seriousgames.org/

http://en.wikipedia.org/wiki/Serious_game

http://www.seriousgames.org/index2.html

http://www.wired.com/gaming/gamingreviews/news/2005/10/69372

Page 104: 100 Mini Papers sobre tecnologia

Julho, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 103

Next Generation Networks (NGN), ou Redes de Próxima

Geração, oferecem ao mercado de telecomunicações um

modelo sustentável e flexível para atender às demandas

crescentes de comunicação. É um conceito que introduz

uma nova arquitetura para o transporte de diferentes mídias

(voz, dados, vídeo, instant messaging, games) sobre redes de

pacotes, baseadas no protocolo IP (Internet Protocol).

As redes IP foram projetadas originalmente para o tráfego

de dados. Atualmente, grandes e complexas redes, como a

Internet, estão presentes em todo o mundo, fazendo parte da

infraestrutura de base da sociedade moderna.

Mais antigas, as redes de telefonia fixa também possuem um

papel de destaque. Hoje elas formam extensas malhas mantidas

por Operadoras de Telecomunicações (Service Providers,

estatais ou privados). São conhecidas como Rede Pública de

Telefonia Comutada, termo popularizado no setor como PSTN

(Public Switched Telephony Network).

Os serviços básicos de voz das redes fixas e móveis de telefonia

constituem a maior parte da receita de muitos Service Providers.

Porém, esses serviços se massificaram e não proporcionam

crescimentos significativos em renda. A solução está em lançar

novos serviços que estendam a oferta básica de comunicação e

permitam aumentar a receita média por usuário.

O conceito NGN responde a esse desafio. Seu objetivo é permitir

que vários serviços de telecomunicações sejam disponibilizados

sobre a mesma rede IP que transporta os serviços tradicionais de

dados (como e-mail e Web), onde a oferta de novas aplicações é

mais rápida e menos onerosa.

O ETSI (European Telecommunications

Standards Institute) desenvolveu a

arquitetura IMS (IP Multimedia Subsystem),

que define padrões abertos para

implementação de um ambiente NGN.

Diversos elementos e interfaces compõem

a arquitetura, tais como o Softswitch

que, similarmente a um PABX, centraliza

o controle de chamadas e de acesso a

serviços. O protocolo de controle é o SIP

(Session Initiation Protocol), que possui

padrão aberto e facilidades de colaboração

e criação de sessões multimídia. Objetiva

prover uma arquitetura multisserviço,

Next Generation NetworksLeônidas Vieira Lisboa

Page 105: 100 Mini Papers sobre tecnologia

Julho, 2008

104 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

multirrede, baseada em IP e que atenda

a rigorosos requisitos de segurança,

robustez e qualidade, proporcionando o

mesmo nível de serviço das redes PSTN.

Sendo assim, as redes IP existentes

precisam ser revisadas para alcançar essas

necessidades (por exemplo, suportar QoS

– Quality of Service).

As aplicações de novos serviços passam

a residir em servidores convencionais,

utilizando-se plataformas abertas com

custo e tempo de desenvolvimento

significativamente menores, e não

mais em equipamentos específicos de

telefonia, onde a oferta de novos serviços

fica restrita à disponibilidade do fabricante

do hardware.

A longo prazo uma rede NGN também

reduz os custos operacionais do Service

Provider por oferecer uma única

infraestrutura de comunicação, com

tecnologia mais simples para prestação

de serviços e menores investimentos em

manutenção da rede.

Para o usuário final, a revolução de serviços

promete ser significativa, independente

do terminal de acesso que utiliza (celular,

telefone convencional, telefone IP,

desktop). Usando a Web, uma mãe poderá

restringir determinadas chamadas de

seus filhos no telefone fixo residencial. O

vendedor em viagem poderá programar

o direcionamento de chamadas do seu home office para seu

celular enviando uma mensagem de texto a partir do mesmo

aparelho. Em casa, poderemos pausar um filme para atender

uma videochamada urgente na TV.

Esses serviços, controlados por aplicações, exemplificam

como será o crescimento do setor de telecomunicações onde

os Service Providers deixam de depender dos fabricantes de

equipamentos e buscam reunir as competências de engenharia

de redes, desenvolvimento de aplicações e integração de

sistemas de TI.

Não há dúvidas quanto à adoção do modelo NGN e as primeiras

implementações no mundo e no Brasil provam isso. Fica a

questão de quando a convergência ocorrerá por completo e de

como será a concorrência entre os vários atores desse cenário

inovador.

Para saber mais

http://en.wikipedia.org/wiki/Next_Generation_Networking

http://www.teleco.com.br/tutoriais/tutorialngnims1

http://www.itu.int/ITU-T/ngn/introduction.html

http://www.etsi.org/tispan/

Page 106: 100 Mini Papers sobre tecnologia

Junho, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 105

Lembro da minha juventude no interior de São Paulo, onde

não tínhamos transmissão de TV via VHF (Very High Frequence)

e sim por UHF (Ultra High Frenquence) e era usual utilizar

pequenas antenas internas com “adornos” de palha de aço.

Pois bem, o SBTVD (Sistema Brasileiro de TV Digital) está aí e

com ele retornam, triunfantes, as antenas de UHF como meio

de transmissão/recepção terrestre do sinal digital para a TV

aberta.

Aqueles que leram o mini paper “A TV Digital” (abril/2007)

lembrarão que nossa TV Digital está baseada no padrão japonês

“ISDB” com sensíveis implementações e melhorias, entre elas

a adoção do eficiente sistema de compressão de imagem

MPEG-4 e do sistema de decodificação que permite 1080 linhas

de resolução através de um chip. É óbvio que tais melhorias

elevaram o custo inicial dos decodificadores conhecidos como

set-top boxes. Esses decodificadores, combinados aos aparelhos

de TV com suporte HDTV (High Definition TV), podem exibir

uma qualidade de imagem Full HD, muito superior à qualidade

de um DVD atual.

Apesar da produção de conteúdo em HD ainda estar começando

e da interatividade ainda inexistente, a grande maioria dos set-

top boxes está preparada para receber em um futuro próximo

aplicações de interatividade.

A camada de software que suporta essas aplicações de

interatividade e as funcionalidades da TV Digital brasileira

é o Ginga. Ele começou a ser desenvolvido há 17 anos por

pesquisadores da PUC-RJ e da Universidade Federal da Paraíba,

e possui três grandes componentes: ambiente declarativo

(interfaces), ambiente procedural (regras)

e núcleo (core). Esses componentes

disponibilizam funcionalidades de

uma aplicação de TV Digital, tais como

sincronismo, suporte a múltiplos

dispositivos, adaptabilidade e suporte ao

desenvolvimento de programas ao vivo.

Desenvolvido pelo laboratório TelMídia da

PUC-RJ o ambiente declarativo é baseado

na linguagem NCL (Nested Context

Language), que suporta a definição da

sincronização dos equipamentos e utiliza

um padrão internacional de fato na área

de entretenimento e criação de jogos.

A Universidade Federal da Paraíba

desenvolveu o ambiente procedural

baseado em Java, com três grupos de

interfaces: APIs vermelhas correspondentes

A TV Digital chegou; e agora?João Coan

Page 107: 100 Mini Papers sobre tecnologia

Junho, 2008

106 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

às aplicações e extensões especificamente

brasileiras; APIs amarelas, que podem

ser exportadas aos outros padrões de TV

Digital; e APIs verdes, compatíveis com o

padrão GEM (Globally Executable MHP -

padrão europeu).

Já o núcleo (Common Core) suporta os

dois ambientes de maneira complementar

e integrada e é responsável pela exibição

dos objetos de mídia, controle do plano

gráfico, tratamento dos dados e do canal

de retorno.

O TelMídia disponibilizou ainda uma

ferramenta para desenvolvimento de

aplicações chamada Composer, um

ambiente de autoria para a criação de

programas NCL e uma máquina virtual

baseada em VMWare, que permite aos

desenvolvedores obter com baixo custo

um ambiente de simulação e testes do

set-top box.

Como resultado estão surgindo novas

empresas com soluções para diversas

áreas, entre elas finanças (TV Bank),

entretenimento (jogos colaborativos),

B2C, e as aplicações de Governo voltadas

à inclusão social tais como ensino, saúde,

Receita Federal, INSS e votação.

As novas aplicações voltadas para telas

grandes possuirão seus correspondentes

para as pequenas telas dos dispositivos

móveis. Estão no mercado os primeiros

aparelhos celulares prontos para acessar a TV Digital e que

utilizam o padrão One-seg definido no SBTVD especificamente

para tratamento da imagem e funcionalidades nesses

dispositivos.

O primeiro grande passo para o sucesso da TV Digital no Brasil já

foi dado, mas existem outros, como a regulamentação específica

e a interatividade, e a criação dos “modelos comerciais” entre

empresas produtoras de conteúdo, mídia, geradoras de sinal,

integradoras e operadoras de telecomunicações, mas tudo isso

é assunto para o próximo capítulo desta história.

Para saber mais

http://sbtvd.cpqd.com.br/

http://www.ginga.org.br/

http://www.tqtvd.com/br/index.html

http://www.teleco.com.br/tvdigital.asp

Page 108: 100 Mini Papers sobre tecnologia

Maio, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 107

No processo de desenvolvimento de uma aplicação de software,

a complexidade dos requisitos e dos produtos gerados aumenta

gradativamente. Nesse contexto, decisões que objetivam

benefícios imediatos, tais como desempenho ou agilidade na

entrega, podem acarretar em graves consequências a longo

prazo. Por exemplo, a decisão de projetar a arquitetura de

uma aplicação direcionada para uma plataforma específica, seja

de hardware, sistema operacional, servidor de aplicação ou

gerenciador de banco de dados, pode resultar em um futuro

“engessamento” da aplicação e comprometer sua vida útil.

Requisitos de portabilidade, interoperabilidade, manutenção e

documentação de aplicações têm sido muito valorizados, assim

como a produtividade dos desenvolvedores.

Uma iniciativa que tem agregado muito valor ao processo

de desenvolvimento de aplicações é a MDA (Model Driven

Architecture ou Arquitetura Direcionada por Modelos), proposta

em 2001 pelo OMG (Object Management Group). A MDA é um

framework para o desenvolvimento e manutenção de aplicações

que coloca os modelos no centro do processo, e no qual se

propõe o desacoplamento da especificação das funcionalidades

de uma aplicação da especificação de sua implementação,

resultando em aplicações com uma vida útil mais longa, maior

interoperabilidade e portabilidade para múltiplas plataformas.

No processo de desenvolvimento tradicional os modelos são

apenas utilizados como artefatos de documentação de projeto.

Um modelo é a descrição do sistema e seu ambiente. Na MDA os

modelos fazem parte de forma direta do processo de produção,

pois são altamente formalizados e adquirem características

de artefatos de desenvolvimento. Não

por acaso a MDA está baseada, entre

outros, em padrões como a UML (Unified

Modeling Language tema do Mini Paper

nº 37, de maio de 2007).

A abordagem da MDA se inicia com a

especificação das funcionalidades em

um modelo de alto nível para, através

de transformações sucessivas, chegar à

especificação da implementação dessas

funcionalidades em uma determinada

plataforma tecnológica de execução.

Mais especificamente propõe o uso de

três tipos de modelos: o Independente

Um bom modelo vale mais do que mil linhas de códigoAlexandre Filgueiras Costa

Page 109: 100 Mini Papers sobre tecnologia

Maio, 2008

108 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

de Computação, o Independente de

Plataforma e o Específico de Plataforma.

Uma das finalidades da definição em

três tipos de modelos é separar as

decisões de negócio das de plataforma,

permitindo assim uma maior flexibilidade

na especificação e desenvolvimento de

aplicações através de modelos, os quais

podem ser transformados entre si, do

nível mais abstrato para o menos abstrato,

sempre com acréscimo de informações

entre as transformações.

O modelo Independente de Computação

é definido pelos requisitos e as regras

de negócio. Ao modelo Independente

de Plataforma acrescentam-se os

processos computacionais, a formalização

da estrutura e as funcionalidades do

sistema. Por fim, no modelo Específico de

Plataforma combinam-se os detalhes de

tecnologia para a implementação. Nesse

ponto, todos os elementos estão prontos

para a geração automática de código.

Aplicando transformações entre os

modelos podemos alterar a especificação,

validar os requisitos junto aos analistas de

negócio e reaplicar as transformações para

os outros modelos, acelerando o processo

de refatoração (modificação da estrutura

interna de um software sem alterar seu

comportamento externo). Há também um

ganho de confiabilidade, já que as tarefas

são automatizadas e podem ser validadas ao final de cada

transformação.

Existem várias ferramentas baseadas em MDA no mercado,

capazes de automatizar as tarefas de modelagem e

transformação entre os modelos. A automação do processo de

desenvolvimento gera reduções nos esforços e nos custos de

desenvolvimento, uma vez que é possível formar um conjunto de

soluções personalizadas para atender às diversas necessidades

dos usuários fazendo uso de padrões que possuam ampla

adoção e eficácia comprovada.

Ainda existe uma longa “estrada” a percorrer para a adoção

plena de todos esses conceitos, porém as empresas têm

direcionado grande parte de sua atenção (e orçamento) em

iniciativas inovadoras como a MDA para ganharem mais

agilidade e buscarem diferenciação no mercado.

Para saber mais

http://www.omg.org/mda/executive_overview.htm

http://en.wikipedia.org/wiki/Model-driven_architecture

Page 110: 100 Mini Papers sobre tecnologia

Abril, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 109

Após o uso comum de uma prática, em geral é criada uma

disciplina da ciência para sistematizar seu estudo e progresso.

Isso ocorreu com a Engenharia Civil, a Ciência da Computação

e a Gerência de Projetos. O mesmo ocorre com a prestação

de serviços, que vem sendo sistematizada na Ciência de

Serviços. Recebe vários nomes e siglas dependendo de quem

analisa, tais como SSME (Services Science, Management and

Engineering) ou ESS (Engineering and Services Science).

A Ciência de Serviços é uma resposta à realidade de uma

parcela expressiva da força de trabalho mundial que trabalha

nessa área. Estatísticas da Organização Internacional do

Trabalho afirmam que cerca de 40% dessa força de trabalho

atua em prestação de serviços, sendo que em alguns países

essa porcentagem supera 70%. O Brasil possui cerca de 53%.

Atualmente está ocorrendo a transição da “era de produtos”,

baseada em padronização e transações, para a “era de

serviços”, com foco em customização e relacionamentos.

Nessa nova era procura-se alcançar nichos de mercado

através de ofertas modulares. Por exemplo, em terceirização

de TI, pode-se comprar apenas monitoramento da

rede, desenvolvimento de aplicações, gerenciamento

da infraestrutura, ou uma combinação qualquer desses

serviços. Isso se reflete também em marketing, que deve ser

o mais individualizado possível, com a mídia, abordagem

e conteúdo adequados para o consumidor esperado.

E por fim, a prestação de serviços procura estabelecer

um relacionamento duradouro entre o consumidor e o

fornecedor do serviço.

Além desses contrastes, as tecnologias

atuais de comunicação, facilitadas por

redes de computadores, diminuem

virtualmente as distâncias e permitem

que os serviços sejam prestados de

qualquer lugar do globo. Portanto, é

esperado que o profissional de serviços

conheça vários idiomas para atender

seu cliente na sua língua local, tenha

qualificações reconhecidas mundialmente

como certificações profissionais e lide

tranquilamente com diferenças culturais.

O profissional que trabalha com serviços

precisa ter um amplo conhecimento

O novo profissional de serviçosRenato de A. Martins

Page 111: 100 Mini Papers sobre tecnologia

Abril, 2008

110 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

interdisciplinar, passando por Ciências

Sociais (pessoas), Engenharia e

Gerenciamento, aliado a um conhecimento

técnico profundo. Pode-se vê-lo como um

profissional T (ampla base horizontal, com

uma especialização vertical) ou (como

o T, porém com duas especializações

verticais).

As universidades já oferecem educação em

todo esse corpo de conhecimentos através

de disciplinas individuais. O que falta

então para a formação dos profissionais

de serviços? A resposta está na integração

de disciplinas e departamentos, tais

como: Ciência da Computação, Pesquisa

Operacional, Engenharia, Ciências

Gerenciais, Estratégia de Negócios e

Ciências Sociais, Legais e Cognitivas.

Grandes universidades como UC Berkeley,

Oxford, Carnegie Mellon, Penn State,

entre outras, têm disponibilizado cursos

pioneiros nos últimos anos que atendem a

esses requisitos.

Seguindo o que aconteceu com a

agricultura e a indústria, onde a pesquisa e

a inovação permitiram ganhos expressivos

de produtividade e lucratividade, é

indispensável fazer o mesmo com

serviços. A IBM organiza conferências e

apoia de perto as universidades na criação

de conteúdo e na definição do escopo

desses cursos, dedicando vários de seus

pesquisadores a essa tarefa. E, embora pioneira, não está

sozinha, como se pode ver na lista de membros da Service

Research & Innovation Initiative, que também conta com

funcionários da Microsoft, Oracle, Cisco, Unisys, entre outros.

É claro que as inovações em serviços estão sendo realizadas

de forma constante, mesmo sem a formalização de SSME ou

ESS. O que esse novo profissional trará consigo é a capacidade

de medir, criar e analisar, de forma sistemática, os serviços, sua

oferta e consumo. Responderá, entre outras, a perguntas como

‘o que faz companhias e indústrias variarem em produtividade?’,

‘como recompor dinamicamente minha oferta de serviços?’ ou

‘como medir resultados de iniciativas de longo prazo?’.

Para saber mais

http://www.ibm.com/university/scholars/skills/ssme

http://www.ifm.eng.cam.ac.uk/ssme

http://www.thesrii.org

http://www.nessi-europe.com

Page 112: 100 Mini Papers sobre tecnologia

Março, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 111

Redes Sociais são uma representação de entidades (pessoas,

empresas, entre outros) ligadas entre si através de uma ou

mais relações específicas. O primeiro ponto que precisa

ficar claro é que as redes sociais podem ser analisadas em

diferentes níveis. Pode-se definir e analisar uma rede social

na qual cada nó é uma empresa dentro de um ecossistema

(incluindo toda a cadeia de valor), assim como se pode

analisar a dinâmica de redes sociais menores, como uma

equipe ou grupos de equipes específicos.

A análise de redes sociais (ou Social Network Analysis –

SNA) verifica as relações sociais na forma de gráficos de

pontos interligados (grafos). Cada ligação entre dois pontos

representa uma relação entre pares de indivíduos (quem se

comunica com quem, por exemplo).

Em estudo recente (“The role of networks in organizational

change”, The McKinsey Quarterly, Web Exclusive, Abril de

2007), a consultoria McKinsey apresentou um modelo de

análise que, entre outras coisas, procura identificar as pessoas

que funcionam como “conectores” e “brokers” nas redes

sociais. Conectores são pessoas que constantemente são

procuradas por outras pessoas para obtenção de informações,

conhecimento ou mesmo para tomada de decisão. Já os

Brokers são pessoas que atuam como conectores entre

diferentes grupos ou times dentro da estrutura formal de

uma organização.

Visando entender melhor esse assunto, a IBM desenvolveu

recentemente uma ferramenta, ainda de uso interno, para

análise de redes sociais, batizada de Small Blue. Os quatro

serviços oferecidos por essa ferramenta

dão uma boa dimensão dos benefícios

da análise de redes sociais para as

empresas:.

Ego: Permite a um usuário visualizar

e gerenciar a sua rede pessoal. Um

determinado gerente técnico, por

exemplo, pode verificar o grau de

proximidade de seus pares em vendas

ou de pessoas chave na sua e em outras

organizações e trabalhar para fortalecer as

relações necessárias.

Find: Permite localizar expertises dentro

da rede estendida de cada funcionário.

A partir de uma palavra-chave e de

parâmetros tais como o país ou unidade

de negócio, essa funcionalidade apresenta

uma lista de pessoas que possuem a

Análise de redes sociaisMário Costa

Page 113: 100 Mini Papers sobre tecnologia

Março, 2008

112 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

expertise solicitada, ou que podem

direcionar o usuário às pessoas que a

possuam.

Reach: Permite identificar a melhor rota

(de pessoas) para entrar em contato (ou

se conectar) com outra pessoa. Elimina,

assim, barreiras organizacionais e acelera

o fortalecimento das redes sociais.

Net: Apresenta um mapa da rede social

ao redor de um tema. A visualização

mostra as fotos dos funcionários e a cores

indicativas das unidades de negócio dos

participantes da rede, permitindo restringir

a visualização por país ou unidade de

negócio.

É possível formar bases de dados para

Análise de Redes Sociais com dados

organizacionais ou até mesmo com dados

transacionais. O Small Blue, por exemplo,

utiliza dados de correio eletrônico e instant

messaging (transcrições de chats) para

alimentar sua base de dados.

Como não poderia ser diferente, quanto

mais disseminado for o uso de uma

ferramenta desse tipo, melhores serão os

resultados das análises das redes sociais

estudadas. Na IBM, por exemplo, o Small

Blue já é usado em 55 países por cerca

de 3700 funcionários, cuja contribuição

(em forma de dados coletados) permite

indexar e inferir informações sobre mais

de 285 mil funcionários em todo o mundo.

Ao utilizar o serviço “Net” por exemplo, podemos facilmente

identificar os conectores e os brokers dentro da organização

(ou a ausência deles) e com isso tomar ações efetivas para

melhor gerenciar o negócio.

Os relacionamentos informais constituem estruturas

poderosas dentro das empresas. A análise das redes sociais

vem sendo utilizada como uma ferramenta importante para

a sua compreensão, permitindo a tomada de decisões que

tiram proveito dessas estruturas e que ajudam as empresas

a otimizá-las.

Para saber mais

www.ibm.com/press/us/en/pressrelease/23027.wss

www.mckinseyquarterly.com/Organization/The_role_of_

networks_in_organizational_change_1989_abstract

Page 114: 100 Mini Papers sobre tecnologia

Março, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 113

Apesar de alguns especialistas preverem a data de 2010, outros

2012 e alguns 2014, a única certeza que temos é que o fim do

endereçamento IP (Internet Protocol) como o conhecemos está

mais próximo que nunca. Quem poderia prever, na década

de 60, que os endereços criados originalmente para conectar

os computadores das agências militares americanas e também

os computadores das universidades estariam com seus dias

contados?

Naquela época, quando a Agência de Projetos de Pesquisa

Avançada de Defesa (Defense Advanced Research Projects

Agency - DARPA) e o Departamento de Defesa do governo

dos Estados Unidos da América (Department of Defense

- DoD), tiveram a necessidade de interligar computadores

através de uma rede pública, surgiu a necessidade de criar

um modelo de protocolos que fosse flexível, expansível e de

fácil implementação. Depois de anos de experimentações e

modificações, surgiu a arquitetura TCP/IP como conhecemos

hoje. No entanto, seus criadores não sabiam que essa arquitetura

seria utilizada em grande escala no futuro, e não tinham ideia

de que. um dia, geladeiras, micro-ondas, celulares, câmeras,

dentre outros, precisariam de um endereço IP para se interligar

à grande rede de computadores mundial que é a Internet.

Quem poderia prever esse surto de tecnologia?

O protocolo de endereçamento IP atual é conhecido como IP

versão 4 ou IPv4, e ele suporta cerca de 4 bilhões de endereços.

Desse total, pouco mais de 3,7 bilhões de endereços são

disponibilizados para uso, já que alguns endereços são

reservados e não podem ser utilizados. Foi estimado, em 2007,

que restavam apenas 1,3 bilhões de

endereços disponíveis e que o restante

deverá se extinguir entre 2 a 6 anos.

Desde o início da década de noventa,

quando a Internet Engineering Task

Force (IETF) alertou para essa iminente

exaustão do IPv4, foi criado um novo

padrão para o endereçamento IP, o IP

versão 6 ou IPv6 como é popularmente

conhecido. O IPv5, versão intermediária,

foi apenas experimental e nunca chegou

a ser usado fora dos laboratórios de

pesquisa. O IPv6 amplia em bilhões de

vezes a capacidade de endereçamento

IP, porque o mesmo utiliza 128 bits

no lugar dos 32 atuais, e permite um

número bem maior de combinações: 3,4

x 1038 endereços IP.

O fim está próximoLuiz Espínola

Page 115: 100 Mini Papers sobre tecnologia

Março, 2008

114 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Os engenheiros aproveitaram essa

mudança no protocolo para aumentar o

espaço de endereçamento existente e

introduziram novas funcionalidades no

IPv6, tais como configuração automática

de endereços, melhor desempenho,

endereçamento hierárquico (que

simplifica as tabelas de roteamento de

rede), suporte à qualidade diferenciada

para aplicações de áudio e vídeo,

criptografia, autenticação, integridade e

confidencialidade dos dados, entre outras.

Testes com a nova versão estão

sendo realizados no mundo inteiro,

especialmente nos Estados Unidos, Japão,

Coreia, China e Brasil, através da Rede

Nacional de Ensino e Pesquisa (RNP).

Apesar do fim do endereçamento IPv4 ser

inevitável, a migração entre as versões de

protocolos não será tarefa simples devido

ao alto custo envolvido e à necessidade

de haver uma interoperabilidade entre as

versões de IP, para que dispositivos que

utilizem IPv4 ou IPv6 possam se comunicar

e minimizar o impacto dessa migração.

Grandes empresas fornecedoras de

tecnologia trabalham para lançar produtos

compatíveis tanto com IPv4 quanto IPv6,

conhecidos como DualStack IP (camada

dupla IP).

É evidente que o fim está próximo e que

nós precisamos nos preparar o mais rápido

possível para essas mudanças, pois com a convergência digital,

a cada dia que passa, novos equipamentos são fabricados e

mais pessoas passam a ter acesso à Internet, seja através de

computadores pessoais, cibercafés, ou até mesmo através de

um simples celular ou eletrodoméstico.

Para saber mais

The Internet Engineering Task Force - http://www.ietf.org

Rede Nacional de Ensino e Pesquisa - http://www.rnp.br

IPv6 Forum - http://www.ipv6forum.com

Brazil IPv6 Task Force - http://www.br.ipv6tf.org

Page 116: 100 Mini Papers sobre tecnologia

Fevereiro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 115

A participação das empresas no setor de serviços intensificou-

se nos últimos anos, refletindo o crescimento desse segmento

na economia mundial. De fato, o relatório atual de Tendências

de Emprego Global da Organização Internacional do Trabalho

(OIT), identificou que, em 2006, o número de empregados no

setor de serviços ultrapassou, pela primeira vez, os empregados

na agricultura e na indústria em nível mundial.

Devido à sua importância no contexto global, universidades e

empresas buscam em conjunto o desenvolvimento da Ciência de

Serviços, um campo multidisciplinar que agrega o conhecimento

das áreas de Engenharia, Gestão de Negócios, Computação e

Ciências Sociais, com o propósito de aumentar a produtividade

e a inovação da indústria de serviços, baseando-se em métodos

e ferramentas científicas. Dentro desse contexto, a modelagem

matemática e a simulação podem ser grandes aliadas, tanto no

desenvolvimento de ofertas, quanto na entrega de serviços aos

clientes.

A técnica de modelar e de simular vem sendo aplicada desde a

década de 60 na Engenharia de Sistemas, Manufatura, Saúde,

Economia e Pesquisa Espacial, entre outras áreas. Os próprios

processos de negócio passaram a ser modelados e simulados,

minimizando o impacto de mudanças e aumentando a

chance de sucesso na implantação de programas de Gestão

da Qualidade (Total Quality Management – TQM) e da

Reengenharia de Processos (Business Process Reengineering

– BPR). Atualmente, o foco de aplicação está voltado para a

indústria de serviços com o objetivo de provisionar demandas,

alocar recursos para tarefas específicas, analisar riscos e

exercitar mecanismos de determinação

de preços dos contratos.

Para os serviços de outsourcing em

TI, a modelagem e a simulação podem

ser imediatamente aplicadas, pois as

empresas provedoras detêm uma grande

quantidade de informações em seus

bancos de dados, contendo o histórico da

gestão dos serviços de seus clientes, como

a ocorrência de problemas, mudanças,

chamados de usuários e a execução de

projetos. São elementos que servem para

parametrizar o modelo a ser simulado.

Feita a análise dos dados, é necessário

construir um modelo conceitual do serviço

que capture essas informações. O modelo

é então programado em uma linguagem

específica e validado até que sua

Modelagem e simulação na prestação de serviçosJosé C. Bellora

Page 117: 100 Mini Papers sobre tecnologia

Fevereiro, 2008

116 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

execução corresponda ao comportamento

do sistema real. Depois disso, é possível

realizar experimentos, conduzir análises e

evidenciar os resultados das simulações

para auxílio na tomada de decisões.

Com modelos desse tipo será possível,

em fase de negociação e projeto, simular

condições e variáveis que afetem os

recursos e os níveis de serviços. Já na

fase de entrega (delivery) pode-se ter o

controle sobre novas demandas, alocação

de pessoas e sistemática de cobrança.

O modelo de simulação é construído

com base nos eventos oriundos tanto da

monitoração do ambiente quanto das

solicitações de usuários. A geração e o

atendimento desses eventos constitui

um processo estocástico que pode

ser modelado conforme distribuições

estatísticas conhecidas, de forma a

correlacionar a dinâmica do sistema real

com um modelo lógico equivalente.

Na área de serviços ainda é escassa a

utilização da modelagem e simulação como

ferramenta estratégica de planejamento.

Com exceção de trabalhos realizados

para call centers, quase não existem

estudos que quantifiquem a relação

entre a utilização dos recursos e níveis

de serviços na determinação dos custos.

O conhecimento no setor de serviços é

baseado principalmente na intuição e na

experiência de seus empregados. Entretanto, com o aumento da

complexidade dos negócios e a busca por maior produtividade,

fica evidente que novos métodos são necessários. A utilização

de ferramentas científicas como a modelagem e a simulação

trará um grande diferencial na inovação e na oferta dos serviços,

fazendo com que as empresas provedoras não corram o risco

de entregar projetos deficitários ou de tornar seus clientes

insatisfeitos.

Para saber mais

http://www.computer.org/portal/cms_docs_computer/

computer/homepage/0806/trends.pdf

http://www.lionhrtpub.com/orms/orms-6-06/frservice.html

Page 118: 100 Mini Papers sobre tecnologia

Fevereiro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 117

As novas modalidades de negócios trazem também novos riscos

às organizações. Thomas L. Friedman, em seu livro “O Mundo

é Plano”,cita que em 2005 foram terceirizadas, pelos escritórios

de contabilidade, aproximadamente 400 mil declarações

de imposto de renda dos Estados Unidos para empresas de

outros países, em especial da Índia. Até 2015 a previsão é que

um terço das declarações seja elaborado fora dos EUA. Os

dados dos contribuintes são digitalizados e encaminhados às

empresas estrangeiras pela Internet. Tal modelo de negócio

tem como base o envio de informações sigilosas para pessoas,

muitas vezes desconhecidas, de um outro país. Garantir que

as informações não sejam interceptadas em trânsito não é o

impasse a ser resolvido, na medida em que as tecnologias atuais

presentes na Internet, baseadas em criptografia, já resolvem o

problema.

O desafio para o sucesso desse modelo é assegurar que a

informação seja tratada devidamente nas empresas prestadoras

de serviço, sem risco de vazamento de informações dos

contribuintes, o que poderia inviabilizar esse tipo de negócio.

Procedimentos e contratos bem definidos podem mitigar

os riscos de segurança, mas por serem dependentes de

pessoas, não há garantias de que não ocorram vazamentos de

informações de forma intencional ou acidental.

As aplicações de suporte ao negócio devem ser capazes de

oferecer as garantias de segurança necessárias. No exemplo

da terceirização de imposto de renda, as aplicações enviam

as informações necessárias às empresas estrangeiras sem

encaminhar o nome do contribuinte, que é novamente

concatenado quando a declaração

preenchida é devolvida. Além disso, ela

não permite que as informações sejam

exportadas ou copiadas para outro

software na empresa prestadora. Com

negócios cada vez mais globalizados, a

tendência é a disseminação de soluções de

semelhantes, responsáveis por orquestrar

a ação de prestadores que podem estar

em qualquer parte do mundo.

Prover segurança nesse novo cenário

extrapola ter firewall, antivírus, IDS

(Intrusion Detection Systems) ou mesmo

IPS (Intrusion Prevention Systems) de

última geração. Essas tecnologias

continuam sendo essenciais, porém não

mais suficientes às demandas atuais. É

necessário também que o middleware

Novos desafios da segurança computacionalJuliano Freitas da Silva

Page 119: 100 Mini Papers sobre tecnologia

Fevereiro, 2008

118 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

utilizado para suportar as novas aplicações

seja robusto e capaz de fornecer os

atributos de segurança necessários.

Há vários anos, a engenharia social tem

sido vastamente utilizada para viabilizar

invasões. Deve-se atentar, entretanto,

à sua nova roupagem, aplicada em

blogs, comunidades virtuais, redes de

relacionamento e mundos virtuais. Apesar

de serem ferramentas importantes, há a

possibilidade de divulgação de dados

desautorizados, sobretudo, por serem de

difícil monitoração.

Essas ferramentas de colaboração são

fontes de impactos na reputação virtual

e real das empresas. Alguém disposto

a denegrir a imagem de uma empresa

poderia criar um perfil falso e postar

mensagens negativas sobre ela ou ainda

criar vários perfis diferentes para realizar

um ataque de maior dimensão. A exclusão

da pessoa com o comportamento

inadequado não eliminaria o problema,

porque ela poderia criar um novo perfil e

repetir continuamente o ataque.

Uma alternativa poderia ser a atuação de

agentes ou comitês moderadores, mas tal

medida, ainda assim, está propensa a erros

humanos. Além disso, é uma alternativa de

alto custo e com pouca escala. A mitigação

desses riscos requer o estabelecimento de

métodos de autenticação mais rígidos.

Nesse novo panorama, a segurança computacional permanece

como um desafio constante às organizações.

Soluções de segurança orientadas às novas necessidades

têm sido temas constantes de pesquisa no meio acadêmico.

As políticas corporativas, fortemente baseadas em normas

estabelecidas, como as da séria ISSO/IEC 27000, também

precisam ser adequadas ao contexto atual. A mitigação dessas

novas classes de ataques passa então a combinar tanto aspectos

técnicos quanto aspectos culturais por meio de programas de

conscientização em ética e segurança da informação corporativa.

Para saber mais

http://p2p-sec.org

http://en.wikipedia.org/wiki/The_World_is_Flat

Page 120: 100 Mini Papers sobre tecnologia

Janeiro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 119

Há vários anos, a indústria de terceirização de infraestrutura

de TI no Brasil vem crescendo e o outsourcing é um tema

presente na pauta dos executivos de informática das empresas

de grande, de médio e mais recentemente de pequeno porte.

Entende-se por terceirização de infraestrutura de TI a ação que

existe por parte de uma organização em obter mão-de-obra de

fora da empresa, ou seja, mão-de-obra terceirizada e, também,

a provisão e administração de insumos de TI.

As empresas, todavia buscam amparo no discurso de concentrar

esforços em suas atividades de negócios e de terceirizar as

atividades de suporte para canalizar recursos às competências

centrais da empresa. No entanto, este discurso mostra-se

desgastado face às pressões de custo que as empresas sofrem

por conta de um ambiente hipercompetitivo e globalizado.

O IDC, ao entrevistar mais de 500 CIOs de empresas brasileiras

nos traz alguns motivadores e benefícios esperados de uma

eventual iniciativa de terceirização de infraestrutura de TI. As

duas razões mais citadas pelos entrevistados foram redução

de custos operacionais e de suporte (22%), ganhos de escala

e produtividade (14%). Tal pesquisa foi publicada pela Revista

ComputerWorld em agosto de 2005.

A pesquisa mostra que as preocupações com custo e ganhos

de escala se sobrepõe às questões de atualização tecnológica,

segurança e foco na atividade fim da empresa.

A terceirização, desta forma, é uma opção considerada

na expectativa de redução de custos nas operações de TI.

Os provedores de serviços, por sua parte, apostam no

compartilhamento de infraestrutura física, de processos e

de pessoas, integrantes do composto

de marketing de serviços, porém, os

investimentos em hardware, software e

demais componentes específicos para

cada caso representam sempre um custo

significativo.

Dadas as necessidades de investimentos

dedicados, o espaço para ganhos

de produtividade, oferecidos pelos

prestadores de serviços de TI, vem

diminuindo consideravelmente. As

estruturas de TI das empresas e potenciais

clientes são bem mais enxutas do que

antes. Acordos comerciais com provedores

de software e de hardware aliados à

queda natural de preços desses insumos

pressionam cada vez mais os custos

operacionais das empresas candidatas à

Novos desafios em prover terceirização de infraestrutura de TIRobert Alvarez Fernández

Page 121: 100 Mini Papers sobre tecnologia

Janeiro, 2008

120 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

terceirização para baixo. Dessa forma os

ganhos percebidos podem se configurar

menores que os riscos inerentes a uma

empreitada de terceirização, ou seja,

a faixa de ganhos está mais estreita e,

portanto menos atrativa em relação a tais

riscos.

Em qualquer ambiente de negócios de

qualquer ramo de atividade, repensar

o negócio é preciso de tempos em

tempos. As razões vão das mudanças no

ambiente externo tais como tecnológicas,

econômicas, ou sociais como fatores

internos da organização prestadora do

serviço. Trabalhar e entender o ciclo

de vida do produto e rejuvenescê-lo

quando necessário e possível é condição

necessária para o sucesso. Repensar o

negócio dos prestadores de serviços de

TI passa por confrontar o modelo atual

de serviços com as pressões de custo

que os CIOs sofrem para adequação de

sua infraestrutura e custos à realidade do

ambiente de negócios.

A conclusão que se chega é a de que

uma nova forma de realizar negócios

se faz necessária. O modelo atual

não é mais capaz de prover os ganhos

esperados com a decisão de terceirizar,

novas configurações de produto se fazem

necessárias. Os próximos movimentos dos

prestadores de serviço deverão passar

pela transformação dos ambientes candidatos à terceirização,

estudar o ambiente em seus detalhes mais profundos e propor

melhorias e racionalização destes, hora de fazer mais com

menos.

Para saber mais

http://www.outsourcing.com

http://www.ibm.com/services/us/gts/outsourcing.html

Page 122: 100 Mini Papers sobre tecnologia

Janeiro, 2008

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 121

Atualmente as empresas devem adequar continuamente seus

modelos organizacionais para serem capazes de se adaptar aos

diferentes cenários de mercado que variam de forma rápida,

com movimentos nem sempre previsíveis.

Para acompanharem esses movimentos, aproveitando ao

máximo as expansões e perdendo o mínimo nas contrações,

os modelos de processos de negócios também devem ser

ajustáveis e executáveis de forma rápida e eficaz.

Um processo de negócio pode ser definido como um conjunto

de atividades envolvendo pessoas, aplicações e trocas de

informações. Podem ser operacionais, integrados ou não, mas

sempre estão relacionados à cadeia de valor do negócio.

Surge então o conceito de gerenciamento de processos de

negócio, BPM – Business Process Management. O conceito,

segundo o Gartner Group, nada mais é do que um termo

que descreve um conjunto de serviços e ferramentas para

gestão explícita de processos, envolvendo sua modelagem,

análise, simulação, execução, monitoração e administração,

idealmente incluindo suporte para interação humana e sistemas.

Uma solução de BPM possui um ciclo de vida, composto das

seguintes fases:

Modelagem - Modelar, simular e documentar as atividades que

compõem os processos de negócio;

Criação - Encontrar ou criar os recursos que serão utilizados para

a execução das atividades dos processos;

Implementação - Executar as atividades dos processos, com a

integração de pessoas, sistemas, informações e também outros

processos;

Gerência - Monitorar as atividades e obter

resultados para as métricas de negócio

(KPI - Key Performance Indicators), que

serão utilizados para tomada de decisão e

planejamento e ainda para otimização dos

processos, iniciando assim um novo ciclo.

Apesar de ser um conceito de fácil

entendimento, é importante mencionar

que uma infraestrutura deve ser

estabelecida, com softwares específicos

para esse tipo de solução e hardware

adequado, com suporte e capacitação de

pessoas. O processo de desenvolvimento

também precisa ser adequado a esse

Agilidade nos negócios através da gerência de processosPersio Vicente

Page 123: 100 Mini Papers sobre tecnologia

Janeiro, 2008

122 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

novo conceito. Além disso, uma área de

governança é essencial para definir regras

e padrões, a fim de evitar que cada setor

crie e execute seus processos de forma

isolada, sem possibilidade de integração

entre os processos, impossibilitando

reutilização e duplicando esforços.

De acordo com o Forrester Research, as

soluções de mercado de BPM estão em

fase de grande crescimento e aceitação

nas empresas, devendo atingir a casa de

US$ 6,37 bilhões até 2011, isso devido a

dois principais fatores: primeiro, porque a

solução melhora a eficácia do processo e

proporciona melhoria contínua e, segundo,

porque aumenta a agilidade no processo de

desenvolvimento, podendo proporcionar

economia de até 60% no tempo de

desenvolvimento. O mercado de BPM é

bastante competitivo e conta com soluções

completas de empresas como IBM, BEA,

TIBCO, Oracle, SAP e Ultimus.

O conceito BPM deve ser visto de forma

ampla, pois não diz respeito somente à

implementação de tecnologia. Engloba

também a aplicação de métodos e

definições de padrões, visando o controle

e a melhoria contínua, o aumento de

ganhos, a confiabilidade, a redução

de custos, a capacidade de resposta às

mudanças nos requisitos dos negócios e a

satisfação do cliente.

Para saber mais

http://www.gartner.com

http://www.forrester.com

http://www.bpmi.org

http://www.portalbpm.com.br/

Page 124: 100 Mini Papers sobre tecnologia

Dezembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 123

Escrever em objetos é um hábito tão antigo e natural que

remonta às origens da própria linguagem: há pesquisadores que

estudam latim arcaico a partir de inscrições nos banheiros da

Roma antiga. Escrever uma ou mais palavras em uma etiqueta e

associá-la a determinado item, além de nomeá-lo, também nos

ajuda a lembrar do que se trata, qual era o assunto e o que

estávamos fazendo.

Essa habilidade pode auxiliar na solução de um problema que

surgiu com a própria Internet: encontrar informação útil na rede.

Muito tem sido pesquisado sobre localização de informação, e

uma das formas mais inovadoras surgidas recentemente faz uso

exatamente dessa capacidade natural que o ser humano tem

de etiquetar objetos, e não por acaso chama-se etiquetagem

eletrônica (electronic tagging) ou tagging.

Tagging é a prática de classificação colaborativa que permite

que recursos da Web sejam categorizados por uma ou

mais pessoas simultaneamente. Endereços de sites, fotos

e documentos, entre outros, são associados a uma ou mais

palavras-chave, ou tags, escolhidas livremente por seus usuários,

o que lhes atribui um significado consensual e contribui para

tornar explícitas as diferentes ideias relacionadas ao objeto

referenciado. Folksonomia (folk+taxonomy) é o próprio sistema

de classificação resultante dessa prática de tagging.

Pela análise do relacionamento entre tags, pessoas e recursos da

Web é possível identificar indivíduos com interesses semelhantes,

agrupá-los em comunidades, e ainda localizar especialistas

ou autoridades em um assunto. Outra possibilidade é a de

fazer pesquisa semântica, saindo da limitação dos algoritmos

de pattern matching dos sites de busca

atuais e indo ao encontro do novo modelo

proposto de Web Semântica.

Por outro lado, esse mesmo conteúdo

repleto de significado das tags,

quando tornado público traz ameaças

à confidencialidade e à segurança da

informação nas empresas. Tags podem

revelar segredos corporativos ao serem

associadas a um site de um cliente ou a

negócios em andamento. Endereços da

Intranet, apesar do formato codificado em

que são exibidos, eventualmente revelam

informações confidenciais. Um endereço

IP vulnerável, até então oculto do mundo

fora dos muros das empresas, pode ser

exposto ao acaso. Um projeto confidencial

corre o risco de ser inadvertidamente

Eu etiqueto, tu etiquetasWladmir dos Santos Frazão

Page 125: 100 Mini Papers sobre tecnologia

Dezembro, 2007

124 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

divulgado, e tags como “risco” ou “falha”

oferecem possibilidades interessantes a

pessoas curiosas ou eventualmente mal

intencionadas.

Uma forma popular de visualizar e interagir

com as tags é pelo uso de tag clouds,

que são, literalmente, nuvens de palavras

destacadas pela frequência de uso.

TagCrowd é um exemplo de aplicação

Web que permite analisar visualmente em

uma tag cloud a frequência de palavras

em qualquer texto, como por exemplo,

em discursos de candidatos à presidência,

identificando as palavras e ideias com

maior incidência relativa.

O Yahoo! adquiriu recentemente o site del.

icio.us, um pioneiro no compartilhamento

de sites favoritos pela Internet, o chamado

social bookmarking, e que conta com

milhões de usuários cadastrados.

Também adquiriu o flickr, outro sucesso

no compartilhamento de fotos e que,

assim como o del.icio.us, utiliza tagging

ostensivamente.

Há um sem número de sites e fabricantes

seguindo essa mesma linha. O CiteULike,

para organização de citações, o

Technorati, que rastreia milhões de blogs,

o BibSonomy, para compartilhamento de

publicações, e o Google Bookmarks para

compartilhamento de sites favoritos são

apenas alguns exemplos possíveis.

Para o ambiente corporativo há o Lotus Connections, que

oferece um conjunto de ferramentas de computação social

voltadas para uso nas empresas. Nesse conjunto está o Dogear,

que compartilha sites favoritos sem incorrer nas vulnerabilidades

de segurança típicas dos serviços públicos.

O tema é interessante e a pesquisa científica está fervendo,

mas há ainda muito o que fazer pela frente. Uma procura rápida

pelos termos tagging ou folksonomy retorna milhares de links

úteis e artigos recentes. E você? Já etiquetou hoje?

Para saber mais

http://del.icio.us

http://www.bibsonomy.org

http://www.tagcrowd.com/

http://www.google.com/bookmarks/

http://www.ibm.com/lotus/connections

Page 126: 100 Mini Papers sobre tecnologia

Dezembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 125

Quem já teve algum contato com o mundo da tecnologia da

informação provavelmente já ouviu falar na lei de Moore, segundo

a qual o número de transistores (e por consequência, o poder

de processamento) dos microprocessadores dobra a cada um

ano e meio aproximadamente. Embora seja menos comentado

e medido, um fenômeno semelhante ocorre com o software: sua

complexidade também aumenta exponencialmente.

A indústria de software, assim como a de processadores, precisa

constantemente inventar novas técnicas para lidar com tamanho

aumento de complexidade. Sem melhorias nas linguagens,

ferramentas e metodologias, nunca poderíamos construir

sistemas de software tão complexos como os que temos hoje.

Uma das mais recentes e promissoras tecnologias de

desenvolvimento de software é a programação orientada

a aspectos, ou AOP (Aspect Oriented Programming), um

novo paradigma de programação. Seu objetivo é aumentar,

às vezes drasticamente, a produtividade do processo de

desenvolvimento dos chamados “requisitos transversais”, que

existem em praticamente todos os sistemas de software.

As boas práticas de engenharia de software recomendam que se

criem unidades de software independentes para cada requisito,

que podem ser procedimentos em linguagens procedurais ou

classes em linguagens orientadas a objetos, entre outros. Os

requisitos transversais são aqueles que não podem ser isolados

em uma única unidade, porque afetam diversas operações e,

com isso, acabam sendo misturados uns aos outros. Por exemplo,

um requisito transversal de um sistema poderia ser: “nenhuma

operação pode ser efetuada sobre registros bloqueados”.

Em uma linguagem tradicional, o

programador não consegue determinar

diretamente que essa validação deve ser

executada antes de todas as operações.

Ele tem que manualmente identificar e

modificar as operações, para efetuar o

teste de bloqueio antes de qualquer outra

coisa. Esse processo manual é ineficiente e

sujeito a erros.

Em uma linguagem orientada a aspectos,

o programador cria apenas uma unidade,

chamada de aspecto, que determina

o comportamento desejado e onde ele

deve ser utilizado. A partir daí, o trabalho

de aplicar a regra a todas as operações é

feito por uma ferramenta chamada weaver.

É como usar um robô para soldar carros

em uma linha de montagem em vez de

Reduzindo a complexidade no desenvolvimento de softwareCristiano Breuel

Page 127: 100 Mini Papers sobre tecnologia

Dezembro, 2007

126 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

soldá-los manualmente, um a um. Os

ganhos em produtividade e qualidade são

significativos.

Mas não é só a implementação dos

requisitos transversais que é facilitada.

Como eles são isolados em aspectos, não

se misturam mais ao código dos requisitos

convencionais (não transversais), o qual se

torna mais simples, mais fácil de entender

e de modificar. Assim, reduz-se o tempo de

aprendizado por um novo desenvolvedor

e o potencial para surgimento de bugs.

Outra vantagem da tecnologia de aspectos

é que ela pode ser adotada de forma

gradual. Não é necessário reescrever um

sistema do zero para adicionar aspectos,

pois as linguagens orientadas a aspectos

são extensões de linguagens existentes,

como Java ou C.

O conceito da programação orientada

a aspectos surgiu oficialmente no

laboratório PARC (Palo Alto Research

Center), da Xerox, em 1997. Atualmente,

a linguagem orientada a aspectos mais

avançada e popular é o AspectJ, que é

uma extensão do Java. A IBM colabora no

desenvolvimento dessa tecnologia, que

faz parte do projeto Eclipse.

A adoção das linguagens de programação

orientadas a aspectos ainda está em

seus estágios iniciais. No entanto,

seus conceitos já influenciam diversas

tecnologias, como o padrão EJB (Enterprise Java Beans) 3.0,

que contém alguns novos mecanismos inspirados na AOP.

Tudo indica que a AOP veio para ficar, e pode ajudar a indústria

de software a dar o próximo salto em qualidade e produtividade.

Para saber mais

http://www.eclipse.org/aspectj/

http://www.aosd.net/wiki/

Page 128: 100 Mini Papers sobre tecnologia

Novembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 127

Um blog é um web site qualquer, cujo conteúdo é organizado

como um diário (log, em inglês), ou seja, em ordem cronológica.

O nome veio quando “web log” virou “weblog”, depois “we

blog”, para enfim se popularizar em “blog”, dando origem a

uma cultura própria, recheada de termos, tais como:

• Post - um artigo ou publicação que pode conter textos,

imagens, links, entre outros. Um post tem um título, data e

hora, e é categorizado sob um ou mais assuntos definidos pelo

dono do blog. Usa geralmente uma linguagem mais direta e

descontraída, e pode ser tão longo quanto um extenso artigo,

ou conter somente poucas palavras.

• Comment - comentários e opiniões que os visitantes podem

registrar sobre os posts, o que é importante para interatividade

dos blogs.

• Permalink - um link permanente, com o endereço direto de

um post específico.

• Pingback ou Trackback - um post que faz referência a outro

post ou blog.

• Feed - um feed contém somente os últimos posts de um

blog, e é usado para alimentar ferramentas que permitem

ler vários blogs de forma centralizada, sem ter que visitá-los

separadamente.

Blog é um nome mais atual para o que se costumava chamar

de “home page”. A diferença é que, antes da era dos blogs,

alguém que quisesse ter um web site pessoal tinha um enorme

trabalho para publicar conteúdo, geralmente em páginas

estáticas, não interativas. Era um processo manual que exigia

algum conhecimento da linguagem HTML, e por isso eram

geralmente técnicos que publicavam

conteúdo na Web.

Com a padronização do conteúdo em

ordem cronológica, surgiu uma série de

ferramentas e serviços de publicação que

facilitaram a publicação de textos, links e

conteúdo multimídia, de forma organizada (e

bonita), os quais deixaram a Web muito mais

interessante. Se antes um escritor precisava

ter influência com editoras para publicar

trabalhos, hoje, com os blogs, qualquer

pessoa é um escritor em potencial. E, sim,

os blogs revelaram muitos ótimos escritores

e alguns, inclusive, viraram celebridades.

A blogosferaAvi Alkalay

Page 129: 100 Mini Papers sobre tecnologia

Novembro, 2007

128 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Os “blogueiros” (bloggers, pessoas que

possuem e escrevem em seus blogs) visitam

e leem outros blogs, fazem comentários,

criam links e se referenciam, criando uma

espécie de conversa distribuída.

Com a consolidação e padronização

técnica da cultura dos blogs, surgiram

alguns serviços como Technorati, Truth

Laid Bear, Digg, dentre outros, que

têm a habilidade de acompanhar essas

conversas. Mais ainda, eles conseguem

medir a popularidade de um blog ou de

um assunto e sua vitalidade na Web e

conseguem notificar quando um post foi

referenciado em outro blog, ajudando a

publicar um pingback automático, capaz

de mostrar quem o referenciou.

A Blogosfera é o fenômeno sociocultural

materializado nessa malha de interações

dinâmicas e semânticas entre os blogs e

seus autores. Como dizem Doc Searls e

David Weinberger no artigo “Mundo de

Pontas” (“World of Ends”), a Internet é

uma grande esfera oca com a superfície

formada por pontas interconectadas.

Bem, nós somos as pontas e ela é oca

porque não há nada no meio que limite

a nossa interação. Essa metáfora explica

como os blogueiros ganharam voz ativa

na sociedade livre da Internet, onde falam

bem do que gostam e denunciam o que

não gostam. Sendo público e interativo,

qualquer assunto bem conduzido tem potencial de virar uma

bola de neve a ponto de iniciar um escândalo político ou obrigar

uma empresa a admitir que deve fazer um recall de produtos.

Corporações têm usado blogs como uma forma de se

aproximarem de seus clientes. A linguagem descontraída, não-

institucional e, principalmente, interativa dos blogs derruba

barreiras e potencializa comunidades. Bons blogs corporativos

passaram a ser peça chave no ciclo de desenvolvimento de

produtos, como plataforma de divulgação das próximas

novidades e ponto de coleta direta de opiniões de clientes. O

que você está esperando para ingressar na Blogosfera?

Para saber mais

http://www.ibm.com/blogs/

http://en.wikipedia.org/wiki/Blog

Page 130: 100 Mini Papers sobre tecnologia

Novembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 129

O espírito científico habita cada ser humano. A capacidade de

questionar e buscar o novo é o sintoma mais evidente desse

espírito e está, em maior ou em menor grau, em todos nós.

Mas não pense que gritaremos, mais cedo ou mais tarde,

um sonoro “Eureca!”, ou que uma lampadinha brilhando

será repentinamente vista sobre nossas cabeças. O chamado

momento da criação é muito mais singelo e invisível do que isso.

Mesmo os mais famosos inventores se apoiaram em uma série

de pequenos avanços, sobre os quais montaram suas teorias ou

criações. Isso vale tanto para a Teoria da Relatividade quanto

para coisas corriqueiras como o garfo de comer. O processo

evolutivo e colaborativo é uma marca de qualquer criação.

Outra característica marcante do processo criativo é a

insatisfação. O movimento criativo parte da convicção de que

sempre há algo a melhorar, adicionar, ou simplesmente ser

melhor entendido. Da discussão sobre o que ainda não está

suficientemente bom ou bem compreendido surge o novo.

Das características comumente subestimadas no processo

criativo, ressalta-se ainda uma terceira: a enorme capacidade de

trabalho de quem está em busca do novo. Essa perseguição é

incansável, não cessa no final do expediente, muito menos em

finais de semana ou em tempo chuvoso. Por isso dizemos que a

criação não bate ponto. Quem cria, persiste até chegar lá.

O que dizer da combinação dessas três características

(capacidade interminável de trabalho, insatisfação constante

e a necessidade de se analisar e combinar fatos, artefatos,

eventos, paradigmas e ideias existentes)? Foi justamente dessa

combinação que surgiu o conceito moderno de Academia.

Diferente da ideia original de “revelação”

com conotações religiosas, a Academia

moderna se especializou em organizar o

esforço renovador e criador de seu grupo

de adeptos ou membros.

Em aderência a esse conceito citam-se a

proliferação de Academias na Itália durante

o Renascimento, a Academie Française,

a National Academy of Sciences, nos

Estados Unidos e a Academia Brasileira de

Ciências. Em todas elas aparece o esforço

de congregar e de organizar o trabalho

intelectual, e de potencializar os três fatos

há pouco citados.

A corporação moderna aperfeiçoou o

conceito e lhe deu ainda mais força: que tal

tudo isso e ainda a capacidade de investir

no talento, recebendo em troca novos

A criação não bate pontoWilson E. Cruz

Page 131: 100 Mini Papers sobre tecnologia

Novembro, 2007

130 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

produtos, novos serviços, novos processos

para atingir o objetivo final de uma

empresa privada? Com base nessa ideia,

muitas corporações fomentaram, em seus

quadros de profissionais, o surgimento de

Academias, independentes na essência e

empreendedoras por buscarem, sempre,

a perenidade pelo lucro que resulta da

excelência.

Todo esse preâmbulo visa explicar a razão

de ser da IBM Academy of Technology, e

de sua “versão brasileira”, o Technology

Leadership Council – Brazil. A AoT e o

TLC-BR, seus carinhosos apelidos,

representam o esforço de congregar o

espírito questionador, colaborativo e

incansável dos profissionais fantásticos

que temos entre nós.

No momento em que o TLC-BR completa

três anos de existência e a série de Mini

Papers completa dois, somos tomados por

um certo espírito autocongratulatório.

Mas como não o ser? A AoT, com 300

membros, tinha um membro brasileiro

antes do TLC-BR, e agora tem três. No

decorrer de sua jovem existência, o TLC-

BR se transformou e cresceu, extrapolou

sua missão original, editou 48 Mini

Papers em 48 quinzenas, arremessou sua

capacidade de trabalho e liderança no

Projeto Comunidades, realizou o maior

evento técnico que a IBM Brasil já viu

(o Regional Technical Exchange) e participou da formação de

jovens carentes no Projeto Afrotech.

Em todas as empreitadas aparecem sempre as mesmas três

características que, combinadas, têm o poder de mudar o

mundo: construção colaborativa, espírito desbravador, e

incansável força de trabalho.

Digno de parabéns. Digno de reverência. Digno de orgulho.

Para saber mais

Fale com um membro do TLC-BR!

Page 132: 100 Mini Papers sobre tecnologia

Outubro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 131

Acompanhando os avanços na área de física de materiais,

recentemente foi anunciada pela IBM e a Intel uma nova

tecnologia chamada “high-k metal gate”, permitindo a

fabricação de circuitos menores que o limite atual, o que implica

em maior densidade e mais GHz. Outras tecnologias, como a

“Airgap Microprocessor” desenvolvida pela IBM, que ajudará

a reduzir as interferências elétricas internas nos processadores,

farão aumentar ainda mais o desempenho dos circuitos no

futuro.

No entanto, vários são os componentes que afetam a

performance de um sistema, entre eles a própria velocidade

dos processadores, a vazão de dados entre os periféricos e o

processador, e a latência de acesso à memória. Quanto à vazão de

dados, temos ainda um outro aspecto que afeta a performance

que é a defasagem evolutiva entre processadores e periféricos,

e consequentemente a necessidade de infraestruturas maiores

para compensá-la.

É possível perceber esta defasagem analisando o resultado do

benchmark TPC-C de 2007, publicado no tpc.org, de um servidor

padrão com 4 processadores de 2 núcleos cada, onde foram

utilizados aproximadamente 1000 discos e 128 GB de memória

para garantir um desempenho compatível com a velocidade dos

processadores. Outro estudo do ano 2000 mostrava que, para

um servidor similar com a mesma quantidade de núcleos, foram

utilizados 4 vezes menos discos e apenas 8 GB de memória.

Voltando à tecnologia de processadores, até pouco tempo os

fabricantes investiam em três frentes para conseguir uma melhor

performance de seus produtos: a velocidade do processador

expressa em Hertz; o tamanho do cache

interno e a velocidade de acesso a ele; e

a otimização da execução de um grupo

de instruções, utilizando técnicas como

“pipelining”, “branch prediction”, e

execução de múltiplas instruções no

mesmo ciclo.

Para garantir a evolução da performance

dos processadores, os fabricantes adotam

uma nova abordagem baseada nas

seguintes tecnologias:

• Hyperthreading, que permite que

algumas instruções de threads distintas

sejam executadas simultaneamente no

mesmo núcleo;

• Cache, que permanece como uma

frente de melhoria de performance

baseada no aumento do seu tamanho e

Performance é mais que GHzMarcello Pinheiro Guimarães

Page 133: 100 Mini Papers sobre tecnologia

Outubro, 2007

132 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

compartilhamento do seu acesso entre os

processadores, conseguindo colocar os

dados muito mais perto da CPU;

• Tecnologia multicore, que não é apenas

o empacotamento de processadores

comuns em um único chip, mas também

a criação de uma rede interna de

comunicação entre eles, compartilhando

caches de alto desempenho e aumentando

a banda de acesso à memória externa.

Com isto, surge um novo desafio, que é

o melhor uso da tecnologia multicore por

meio da programação paralela.

Das três técnicas, a abordagem multicore

representa uma nova demanda para os

desenvolvedores, que anteriormente

podiam simplesmente esperar novas versões

de processadores mais rápidos para obter

melhor desempenho nas suas aplicações.

Hoje em dia, exceto pelo aumento

do tamanho de cache que beneficia

diretamente as aplicações existentes,

novas aplicações precisam ser codificadas

de forma a paralelizar ao máximo sua

execução. Esta, porém, não é uma tarefa

fácil. Selecionar partes de funções que

possam ser paralelizadas, codificar controles

de concorrência, criar procedimentos

abrangentes de testes para estes controles

e depurar erros encontrados, são atividades

complexas e conhecidas por um grupo

ainda pequeno de desenvolvedores.

Novas soluções de performance precisam ser criadas, tanto no

modelo de programação paralela com camadas de abstração

para gerenciar o paralelismo e facilitar o desenvolvimento,

como um novo modelo de hardware onde várias funções serão

distribuídas entre processadores especializados. Desta forma,

preserva-se a evolução contínua do desempenho total dos

sistemas.

Para saber mais

http://www.ibm.com/developerworks/power/

http://www.intel.com/multi-core

http://www.tpc.org

Page 134: 100 Mini Papers sobre tecnologia

Outubro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 133

A popularização da Internet trouxe novos meios de acesso

a diversas aplicações e serviços que estão disponíveis em

servidores espalhados por todos os continentes. Recentemente,

a Web 2.0 disponibilizou interfaces mais elaboradas e aplicações

que exploram uma maior interatividade com o usuário. Esse

cenário propiciou o surgimento de um novo modelo de

aplicação para os usuários finais, o Software as a Service (SaaS).

Nesse modelo, como o nome sugere, a funcionalidade de um

software é oferecida como um serviço acessível via browser

de maneira que o usuário não precise instalar um produto em

sua estação de trabalho. O serviço pode ser provido por um

servidor que esteja na intranet da empresa ou na Internet.

Outra característica importante desse modelo é a forma de

licenciamento, na qual o usuário deixa de pagar uma licença

de software, e passa a pagar uma taxa periódica pelo uso do

serviço.

A principal diferença entre as aplicações SaaS e as tradicionais

da Web é a forma como elas são desenhadas e implementadas.

Aplicações SaaS são projetadas para serem utilizadas por meio

do browser, enquanto que as tradicionais são apenas interfaces

HTML para aplicações legado, adaptadas para serem acessadas

pelo navegador Web.

Várias empresas já oferecem serviços utilizando esse novo

modelo e estão alcançando mercados no mundo todo, incluindo

localidades onde elas nem sequer possuem um escritório. Tudo

é feito através da Internet.

Esse modelo tem se mostrado atraente sobretudo para pequenas

e médias empresas, possibilitando-lhes prover serviços que

seriam inviáveis devido aos custos da

estrutura de TI inerentes aos sistemas

tradicionais. A disponibilização de um

novo serviço voltado para usuários finais é

feito, geralmente, por meio da instalação

de um software na estação de trabalho.

Isso compreende custos de licenças, de

treinamento para suporte e manutenção,

de recursos para efetuar a instalação do

produto em cada estação de trabalho. Ao

utilizar o SaaS, a empresa pode contratar

um provedor de soluções que desenhe

e desenvolva uma ou mais aplicações

de acordo com suas necessidades,

Software as a serviceCristiane M. Ferreira

Page 135: 100 Mini Papers sobre tecnologia

Outubro, 2007

134 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

implemente a infraestrutura e entregue a

solução como um todo. A equipe de TI local

concentrará seus esforços de suporte e

manutenção nos servidores que executam

a aplicação e não mais nas centenas ou

milhares de estações de trabalho. Além

disso, uma mudança ou uma atualização

da aplicação é implementada tão logo a

nova versão entra em produção. Assim, o

usuário final passa a ter acesso aos novos

recursos introduzidos, sem a instalação

ou atualização de nenhum produto na

estação de trabalho.

Embora esse modelo ofereça várias

vantagens para usuários finais, ele não é

aplicável para softwares que não tenham

interação direta com o usuário final, como,

por exemplo, produtos de monitoração e

de segurança de rede. Além disso, para

prover aplicações SaaS, é necessário

utilizar softwares de infraestrutura tais

como servidores Web, de aplicações e de

banco de dados. Outro ponto importante

é que o usuário precisa estar sempre

conectado à rede para poder acessar o

servidor e utilizar a aplicação.

Um exemplo de adoção de SaaS em

larga escala é o do banco Wachovia,

considerado o quarto maior em seu setor

nos Estados Unidos, que possui hoje mais

de 85.000 de seus funcionários utilizando

o SuccessFactors, uma aplicação SaaS

para gerenciamento de performance e de talentos na área de

Recursos Humanos. Outra empresa que tem se destacado é

a Salesforce.com, que provê aplicações de CRM (Customer

Relationship Management) usando SaaS, e já possui mais de

35.000 usuários cadastrados.

Além de trazer benefícios ao usuário final, o SaaS também

oferece novas oportunidades de negócio para quem desenvolve

e provê soluções para a Internet. Com a popularização dessas

aplicações, empresas e usuários finais terão mais opções para

escolher entre um software tradicional ou uma aplicação SaaS,

analisando qual atende melhor suas necessidades.

Para saber mais

http://en.wikipedia.org/wiki/Software_as_a_Service

http://www.saaspace.com

http://www.successfactors.com

http://www.salesforce.com

Page 136: 100 Mini Papers sobre tecnologia

Setembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 135

Já imaginou sua empresa fazendo tudo de uma maneira

diferente da que tradicionalmente vem fazendo nos últimos

anos ou décadas? Uma nova teoria apareceu para mudar os

negócios: Wikinomics ou Colaboração em Massa, uma forma de

ação coletiva que ocorre quando um grande número de pessoas

trabalha independentemente para um mesmo objetivo.

As regras para se conseguir uma vantagem competitiva na nova

sociedade digital não são as mesmas que as empresas têm

utilizado nos últimos anos. O principio básico que se aplica aqui

é que a empresa deve olhar para fora da sua organização para

desenvolver novas ideias e definir sua direção estratégica. Don

Tapscott e Anthony D. Williams, autores do livro Wikinomics:

Como a colaboração em massa pode mudar o seu negócio,

publicado no Brasil pela editora Nova Fronteira, definem o tema

como “A arte e ciência, teoria e prática do entendimento de como

aproveitar a colaboração para aumentar a competitividade”.

Isso já está acontecendo em diversos segmentos da indústria

e já existem exemplos de empresas que desenvolveram seus

produtos ou mesmo salvaram seus negócios com auxílio dos

usuários da Web. Estudos mostram que inovações em ideias

e produtos em uma empresa vêm muito mais do insumo dos

funcionários, parceiros e clientes do que dos laboratórios e dos

departamentos de P&D como se pensava.

Um bom exemplo de Wikinomics é o que teve que fazer a

Goldcorp, empresa canadense de mineração de ouro. Em certo

momento, a empresa percebeu que suas reservas mineradoras

estavam se esgotando e seu negócio acabaria. Rob McEwen,

CEO da empresa, havia assistido no Massachusetts Institute

of Technology (MIT) a uma palestra

sobre como o Linux surgiu, é mantido e

atualizado. Na indústria da mineração,

informações geológicas são os segredos

mais importantes, estratégicos e bem

guardados de uma companhia. McEwen

colocou todos os dados da companhia

disponíveis no site da Goldcorp, e

lançou um desafio para quem achasse os

melhores métodos e as melhores reservas

de ouro nas minas da empresa, oferecendo

uma recompensa de US$ 575.000. Em

algumas semanas, uma quantidade

imensa de ideias foi submetida, vinda

Wikinomics: que tal contar a todos os seus segredos?José Luis Spagnuolo

Page 137: 100 Mini Papers sobre tecnologia

Setembro, 2007

136 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

de estudantes, consultores, matemáticos

e militares. Os ganhadores identificaram

110 possibilidades, 50% a mais do que

os especialistas da própria companhia,

alcançando a incrível quantia de 8

milhões de onças de ouro encontradas. A

empresa passou de um valor de mercado

de US$ 100 milhões para US$ 9 bilhões

e estabeleceu uma das instalações mais

inovadoras e lucrativas dessa indústria,

ainda conservadora.

Inúmeros outros casos vêm de empresas

inovadoras, como a Boeing na criação

do avião 787, a BMW na concepção

de novos modelos de automóveis, a

Wikipédia na construção da enciclopédia

mais abrangente e popular da Web, a IBM

com o InnovationJam para discussão dos

problemas mundiais, a Procter & Gamble

com o desenvolvimento de moléculas para

tirar manchas de vinho ou para eliminar o

cheiro das fraldas. Essas empresas, que

não se baseiam apenas nos seus centros

de pesquisa, abriram sites pedindo ajuda

nessas áreas. O sucesso dessas iniciativas

demonstra que as empresas que ainda

acreditam que tudo que é necessário para

o seu crescimento encontra-se entre seus

muros estão enganadas.

É claro que existem críticas e problemas

a serem resolvidos nessa abordagem.

Andrew Keen, no seu livro O culto do

amador, Bantam Books, 2007, argumenta que a História mostra

que as massas não são assim tão sábias. Ele cita as guerras,

a escravidão e a adoração a ídolos pop como consequências

de um mundo onde as linhas entre fato e opinião, informação

científica e especulação de amadores são intencionalmente

confundidas entre si. Outro aspecto a se considerar é o da

propriedade intelectual, cujo debate se aqueceu muito desde o

início do movimento Open Source.

A maioria dos autores, entretanto, considera que estamos vivendo

uma mudança importante na maneira como as corporações

desenvolvem produtos e fazem negócios. Assim como

aconteceu em alguns momentos do século passado, quando

a Ford mudou o conceito de linha de produção e a General

Motors criou a corporação moderna, estamos vivenciando uma

nova quebra de paradigma, a qual irá certamente mudar o perfil

das empresas nas próximas décadas. Sua empresa já está pronta

para compartilhar seus segredos com o mundo e vencer?

Para saber mais

http://www.wikinomics.com

Page 138: 100 Mini Papers sobre tecnologia

Setembro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 137

O crescimento da produção de textos e informações em formato

digital, vinculado à inexistência de uma padronização do

formato de documentos eletrônicos, tem gerado uma grande

dificuldade de acesso e recuperação dos mesmos.

A situação hoje é problemática por existirem inúmeros formatos

de documentos. Há uma relação direta entre o formato dos

arquivos de documentos e o software que os criou. Essa

dependência inibe o livre intercâmbio de documentos entre

softwares diferentes ou mesmo entre versões diferentes do

mesmo software.

No instante em que um documento é armazenado sob um

formato proprietário e fechado, o seu conteúdo poderá não

ficar mais acessível ao autor. Basta, por exemplo, que o formato

do arquivo seja modificado pelo fabricante e não se adquira

uma nova versão do software que suporte o formato antigo, ou

até mesmo no caso em que o software seja descontinuado pelo

fabricante.

Para entidades governamentais, documentos fazem parte

do dia a dia. Leis, decretos e normas se materializam dessa

forma. É uma situação extremamente delicada ter o acesso

impossibilitado aos próprios documentos.

Atualmente os governos são forçados a conviver com uma

situação no mínimo incômoda, porque são forçados a adquirir

e utilizar as últimas versões dos softwares de escritório e de

um único fornecedor para garantir a interoperabilidade dos

documentos. Além disso, existe o risco de arquivos com

documentos históricos não poderem ser mais lidos, caso

o software com o qual foram criados não exista mais. E em

situações de emergência, por motivos de

incompatibilidade entre os formatos dos

arquivos, as agências governamentais

encontrarão dificuldades para se

comunicarem de forma eficiente. Isso

ocorreu após o evento do Tsunami na

Ásia, no final de 2004, quando as equipes

de resgate tiveram problemas na troca de

arquivos entre si, com efeitos no atraso do

socorro.

Hoje a informação está diretamente ligada

à aplicação que a criou e o formato e o

controle estão nas mãos do proprietário

do software e não nas do autor que criou

o documento.

Por isso, é preciso criar um padrão

aberto para o formato de documentos,

independente do fornecedor, de modo

A padronização do formato de documentos eletrônicosCezar Taurion

Page 139: 100 Mini Papers sobre tecnologia

Setembro, 2007

138 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

que as aplicações possam livremente criar

e acessar arquivos. O controle passaria

para as mãos do usuário, habilitando-o,

inclusive, a trocar de software sem perder

acesso ao conhecimento armazenado nos

documentos eletrônicos.

O ODF (Open Document Format) é um

padrão aberto e não está subordinado a

nenhuma empresa. É mantido por uma

organização independente, chamada

OASIS (Organization for the Advancement

of Structured Information Standards) e foi

aceito como padrão ISO (ISO/IEC 26300).

Esse padrão garante independência

entre o aplicativo e o documento e sua

especificação está disponível a qualquer

desenvolvedor, sem pagamento de

royalties e sem restrições de uso.

A adoção do ODF pelos governos e

empresas garante benefícios tais como:

• compartilhamento de documentos

entre usuários, independente das

aplicações que eles utilizem;

• não imposição de determinada

tecnologia à sociedade e aos cidadãos;

• disponibilidade futura das informações,

mesmo que a aplicação original (com

a qual se criou o documento) seja

descontinuada;

• liberdade para os fornecedores

de software, que podem desenvolver

aplicativos que utilizem esse formato;

• maior concorrência e inovação, que contribuem para a

redução de custos; e

• liberdade de ação de governos e empresas.

O Gartner Group recentemente afirmou que, em 2010, um em

cada dois governos irão adotar o ODF como seu padrão de

documentos eletrônicos.

A IBM apoia o ODF, adicionou seu suporte nativo ao Notes 8

(versão mais recente) e participa ativamente do OASIS e da ODF

Alliance, entidade que apoia a disseminação desse padrão.

Para saber mais

http://www.oasis-open.org/

http://www.odfalliance.org/

Page 140: 100 Mini Papers sobre tecnologia

Agosto, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 139

Vivemos em um mundo globalizado, onde o capital não se

restringe a um grupo de países, e investimentos são transferidos

com facilidade e agilidade nunca antes vistas. A concorrência é

acirrada e, para manter-se rentável, o trabalho deve ser deslocado

para onde possa ser realizado com menor custo. A qualidade

deixou de ser um diferencial há muito tempo, tornando-se um

pré-requisito. Atualmente, a agilidade nas mudanças, exploração

de capital social, inovação e valor agregado são os elementos que

tornam uma empresa de serviços competitiva no mercado global.

Após a abertura de mercado da Índia, na década de 90, milhões de

profissionais capacitados foram injetados na economia global. As

grandes corporações tiveram que se defender dos baixos custos

e preços oferecidos pelas empresas que contavam com esses

profissionais. Com isso, foi necessário reagir às mudanças e se

reorganizar. O resultado da autorreorganização e desses avanços

em TI é chamado Gestão de Serviços Globalmente Integrada

(GSGI). Observado inicialmente nas grandes prestadoras de

serviços de TI, temos um novo modelo de gestão, ainda em

definição, no qual o capital humano é aproveitado onde se possa

ter a melhor relação custo/benefício.

Na GSGI observamos a criação de centros de excelência em

prestação de serviços em locais com oferta potencial de mão de obra

capacitada e com o menor custo. Podemos citar, como exemplos:

Bangalore (Índia), grande São Paulo e Campinas (Brasil) e Shenzhen

(China). Em comparação com outros modelos de gestão comuns

em multinacionais, que apresentam uma maior imposição da

matriz, ou em transnacionais, cuja característica é a independência

das subsidiárias, o grande diferencial da GSGI é poder alternar

entre os centros de prestação de serviços

com agilidade, aproveitando as melhores

condições, tais como diferenças cambiais.

Com esses centros competindo não apenas

com empresas externas mas também entre

si, para receber os novos contratos globais

e vagas, a GSGI forma uma poderosa força

de otimização de processos e melhoria

contínua. A GSGI é sólida pela proteção

que oferece contra fatores externos que

impactem uma localidade, como guerras,

ataques terroristas e mudanças bruscas nas

políticas de comércio exterior, uma vez que

os serviços para um determinado cliente

podem passar a ser prestados a partir de

outro centro de modo ágil.

Para adotar a GSGI os trabalhos devem

ser segmentados e padronizados ao

Gestão de serviços globalmente integradaDaniel Scumparim

Page 141: 100 Mini Papers sobre tecnologia

Agosto, 2007

140 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

redor do globo. A adoção de service lines

(linhas de serviço) facilita a implantação

de padrões, uma vez que as variáveis a

serem tratadas são reduzidas. Quanto

mais específica for a service line (por

exemplo: suporte a servidores Windows/

Intel), mais fácil é criar o padrão global.

Alguns recursos e procedimentos que

devem ser globalmente padronizados são:

infraestrutura; sistemas de colaboração;

aplicativos de suporte aos negócios;

gestão de conhecimento; gerenciamento

de recursos, pessoas e serviços remotos;

auditoria e aderência às normas e regras;

educação e respeito a diferenças étnicas,

religiosas e culturais. Os modelos a serem

adotados não são, necessariamente,

criados na matriz. Um padrão pode ser

criado em qualquer um desses centros e

adotado por toda a organização. Uma vez

que os centros adotem esses padrões, a

organização ganha uma melhor visibilidade

dos serviços prestados, podendo assim

escolher o centro mais eficiente.

Apesar de estar relacionado com TI, esse

conceito pode ser aplicado a serviços

de outras áreas, como a financeira. O

grande desafio é a integração global

desses centros e a adoção de padrões,

tanto em relação à língua falada, quanto

a ferramentas de trabalho, terminologia

técnica e metodologia. Estas devem ser as

metas das empresas que operam ou pretendem operar nesse

modelo, pois só assim a GSGI colherá os lucros resultantes

da inovação e conhecimento adquirido. Dessa forma, o valor

agregado e aumento de produtividade resultarão em alta

rentabilidade e solidez, como podem ser percebidas nas

empresas que já operam nesse modelo, em diferentes graus de

maturidade, tais como IBM e EDS e, mais recentemente, HP e

Infosys.

Page 142: 100 Mini Papers sobre tecnologia

Agosto, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 141

Para uma organização, os ativos intelectuais são recursos

valiosos para alcançar vantagem competitiva e, por

conseguinte, garantir a sua sobrevivência na nova economia.

Esses ativos estão na mente das pessoas, e o conhecimento,

muitas vezes disperso, pode ser perdido quando uma pessoa

deixa a companhia.

Identificar o conhecimento tácito da organização e transformá-

lo em conhecimento explícito, passível de ser armazenado,

compartilhado e difundido, é o desafio da prática de gestão

do conhecimento.

Esse processo compreende um ciclo que se inicia a partir

da classe mais baixa de informação - os dados. Esses dados

devem passar por algum tipo de processamento de modo

a serem exibidos em uma forma inteligível às pessoas que

irão utilizá-los. Com isso, dados se tornam informações. A

avaliação criteriosa dos dados e informações, considerando

a sua confiabilidade, sua relevância e sua importância, nos

conduzem a um outro nível hierárquico da informação: o

conhecimento. O conhecimento sintetizado e aplicado

a uma determinada situação nos permite atuar de forma

vantajosa no ambiente considerado. Nesse sentido, utilizar

a informação como oportunidade é o que chamamos de

inteligência de negócio e ela representa o nível mais alto na

hierarquia da informação no âmbito de uma empresa.

As atividades de gestão do conhecimento podem ser

agrupadas da seguinte forma:

• Adquirir e armazenar o conhecimento de forma que ele

possa ser recuperado posteriormente;

• Garantir o acesso à informação e

permitir a busca e o compartilhamento

do conhecimento;

• Estabelecer relacionamentos entre

os itens de conhecimento por meio

da síntese, análise, generalização e

classificação;

• Utilizar o conhecimento para apoiar

as tarefas que criam valor dentro da

organização.

• Desenvolver novos entendimentos

e procedimentos a partir de relações,

padrões e significados de conhecimentos

anteriores.

Gestão do conhecimento organizacional: a chave para inovarThiago Guimarães Moraes

Page 143: 100 Mini Papers sobre tecnologia

Agosto, 2007

142 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

A criação do conhecimento organizacional

deve ser entendida como um processo

de exposição do conhecimento isolado

criado pelos indivíduos para todos os

níveis da companhia, permitindo que o

conhecimento circule pela organização.

Por isso, a organização deve apoiar os

indivíduos criativos e lhes proporcionar

contextos favoráveis à criação do

conhecimento.

Em muitas companhias, a primeira

ferramenta de gestão do conhecimento é o

data warehouse, que atua como uma área

central de armazenamento. Ferramentas

complementares são os knowledge

warehouses e as bases de conhecimento,

que capturam e armazenam dados mais

qualitativos.

Além de uma infraestrutura apropriada,

são necessários processos e estratégias

bem definidas para o estabelecimento

de um ambiente adequado de gestão

do conhecimento, além de uma cultura

organizacional fundada na troca de

conhecimento e no verdadeiro espírito de

colaboração entre pessoas e áreas.

O esforço para melhorar a criação de valor

dentro das organizações através da gestão

do conhecimento conduz naturalmente à

formação de comunidades de prática e

ao fortalecimento da organização com

capital humano intelectualmente rico, o

que favorece o desenvolvimento de novas tecnologias e novos

métodos. Por isso a gestão do conhecimento caracteriza-se como

um tema chave para as organizações que pretendem crescer no

mercado em que atuam e diferenciar-se positivamente de suas

concorrentes. Na prática, a gestão do conhecimento deve estar

refletida na estratégia da empresa e deve ser praticada em

todos os níveis da organização. Assim, é possível à corporação

aumentar sua capacidade intelectual e, consequentemente, sua

capacidade de inovar.

Para saber mais

http://www.kmresource.com

http://www.brint.com

Page 144: 100 Mini Papers sobre tecnologia

Julho, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 143

A computação científica tem seu interesse na análise de

problemas científicos por meio de modelos matemáticos e

computadores de alta performance. Algumas das áreas mais

pesquisadas e conhecidas da computação científica são dinâmica

de fluídos, astrofísica, química, modelagem de reservatórios,

engenharia nuclear, modelagem global de oceanos e estudos

de clima e temperaturas (tanto global quanto local). Além

disso, existem as áreas consideradas ‘emergentes’ no uso da

computação científica, tais como biologia, estudo de materiais,

imagens médicas e ecossistemas.

Uma das questões mais discutidas na computação

científica é a resolução dos grandes desafios. É na busca

da solução desses desafios que a indústria, em conjunto

com a academia, desenvolve novas tecnologias, novas

linguagens de programação e novas soluções que virão a

se tornar produtos comerciais no futuro. Dessa forma, foram

desenvolvidos algoritmos, linguagens e computadores com

diferentes arquiteturas ao longo dos anos.

Em 1993, foi criado o TOP500 que faz um ranking dos maiores

supercomputadores no mundo. Para integrar essa lista, o

computador tem que executar um benchmark (conjunto fixo

e pré-definido de instruções) chamado LINPACK que resolve

um sistema denso de equações lineares. A partir da velocidade

de execução desse conjunto determina-se seu poder

computacional em flops (floating point operations per second)

e monta-se o ranking. O último ranking foi atualizado em Junho

de 2007 durante a ISC07 em Dresden, Alemanha. Dessa nova

lista, destacam-se:

• Nas TOP10, há 4 fornecedores: IBM

(com 3 tecnologias diferentes: BlueGene/L

- 1ª, 4ª, 5ª e 7ª posições, System P5 na 6ª e

Blades JS21 na 9ª - vide foto), Cray (2ª e 3ª

posições), Dell (8ª), e SGI (10ª);

• Em relação aos fornecedores, a HP tem

a liderança em número de sistemas com

202, seguida da IBM com 192 e da Dell

com 23;

• Em relação a arquitetura do chip, a Intel

lidera em número de sistemas (57,4%) e a

IBM, com a tecnologia Power lidera em

quantidade de processadores (41,3%);

• O Brasil possui 2 sistemas: Petrobras

na posição 215 (HP) e INPE/CPTEC na

posição 416 (NEC/Sun).

A grande disputa nesse momento é

saber qual instalação atingirá a marca de

A supercomputação mudando limitesMarcelo L. Braunstein

Page 145: 100 Mini Papers sobre tecnologia

Julho, 2007

144 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

1 Petaflops. A IBM tem duas iniciativas

para atingir tal marca: o desenvolvimento

do RoadRuner, equipamento que usa uma

arquitetura híbrida de Cell e AMD; e o

recém anunciado BlueGene/P (já existe um

na posição 31), que com 72 racks atinge

1,002 Petaflops. Cray e Sun prometem

super sistemas para o próximo ano. É

importante lembrar que projetos de

sistemas de 10 Petaflops já estão sendo

desenvolvidos no papel.

Os usos desses supercomputadores são

os mais variados possíveis. Por exemplo,

o Lawrence Livermore National Lab

(LLNL) que está no topo da lista TOP500

faz análise molecular do arsenal atômico

dos Estados Unidos através da simulação

de explosões atômicas, evitando

assim que explosões experimentais

reais tenham que ser feitas. No Japão,

na Inter-University Research Institute

Corporation High Energy Accelerator

Research Organization (KEK), estuda-se

física de altas energias (HEP) simulando

partículas subatômicas e a energia

liberada no choque entre elas. Já a École

Polytechnique Fédérale de Lausanne

usa a supercomputação para modelar o

cérebro humano e assim compreender as

suas funções e disfunções. E o National

Center for Atmospheric Research (NCAR)

necessita de grande poder computacional

para processar complexos modelos de previsão de clima e de

fluxo de poluentes tóxicos pelo planeta.

Independente da corrida tecnológica e da disputa pelo topo do

ranking do TOP500, seus “nobres e poderosos concorrentes”

são imprescindíveis a essas e outras pesquisas que, sem eles,

levariam anos para gerar resultados, ou eventualmente, nem

chegariam a um fim. O importante é que todos nós somos os

grandes beneficiados com os resultados dessas pesquisas.

Para saber mais

http://www.top500.org

Page 146: 100 Mini Papers sobre tecnologia

Junho, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 145

A virtualização é um recurso usado para simplificar, esconder

ou mascarar detalhes de funcionamento infraestruturais de um

hardware ou de um software. Sua função é fazer um componente

simular ou se comportar como outro tipo de equipamento. Desta

forma, o que é executado sobre a plataforma virtualizada passa a

dar mais foco à sua superestrutura, ou seja, à lógica de negócio.

Podemos identificar os seguintes tipos de virtualização:

• Driver de dispositivo: esconde detalhes de um dispositivo

específico criando uma representação virtual de um dispositivo

genérico. É uma das formas mais populares de virtualização.

• Virtualização de hardware: trata-se de um software que

simula todos os aspectos de um computador, incluindo firmware

e dispositivos.

• Virtualização de sistema operacional: provê interfaces

genéricas que podem ser usadas por uma ou várias aplicações

simultaneamente. É uma das virtualizações mais completas,

mais usadas e a que é menos associada à ideia de virtualização.

• Grid: pode ser visto como um novo sistema operacional cujas

interfaces simplificam, escondem e automaticamente gerenciam

uma malha de recursos computacionais heterogêneos e

distribuídos.

Poderíamos citar outros tipos, mas o importante agora é entender

que o objetivo maior do uso de virtualização é a independência

e separação lógica entre camadas de funcionalidades

diferentes, melhor gestão de políticas de segurança e melhor

aproveitamento de recursos computacionais.

A virtualização de hardware é especialmente prática porque

permite manipular o que antes era metal e silício físicos, como

informação que pode ser gravada numa

mídia e até mesmo transportada via rede.

Mas a separação lógica entre a máquina

virtual hóspede e o sistema operacional

hospedeiro não lhes permite cooperar

de forma mais eficiente. Por exemplo, o

hospedeiro não sabe como o seu hóspede

está usando a memória física. Assim, pode

haver um retrabalho em tarefas comuns

como gerência de memória virtual.

A paravirtualização, a princípio, parece

uma virtualização de hardware, mas propõe

que o sistema operacional hóspede

saiba que ele está sendo executado na

camada virtual e possa interagir com ela.

Isso implica em alterações no sistema

operacional hóspede, mas garante uma

cooperação sem precedentes entre as

Nos domínios da paravirtualizaçãoAvi Alkalay

Page 147: 100 Mini Papers sobre tecnologia

Junho, 2007

146 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

duas camadas. O ganho imediato desta

cooperação é a maior performance do

conjunto.

O datacenter do futuro, vislumbrado

com tecnologias de paravirtualização

do presente, será todo virtual. Muitos

dos produtos que hoje são executados

em servidores físicos dedicados, sem

virtualização, passarão para servidores

paravirtuais. Isso acontecerá pois a perda

de performance da paravirtualização tende

a zero, e ao mesmo tempo ganha-se muita

flexibilidade de operação, benefício típico

da virtualização em geral.

A máquina paravirtual passa a ser como

um líquido que se adapta a qualquer

recipiente, podendo ser migrada a quente

para outro equipamento com apenas

milissegundos de indisponibilidade real,

armazenada em backup ou fazer parte de

uma infraestrutura de alta disponibilidade

de máquinas virtuais.

O primeiro sistema operacional moderno

que implementou essas modificações

foi o Linux, com o projeto Xen. A

ideia se popularizou e aderiram a ela

vários fabricantes. Hoje há um diálogo

bem estabelecido na indústria sobre

padronização das interfaces hóspede

hospedeiro.

Com essa padronização se concretizando e

com os benefícios que a paravirtualização

oferece, podemos dizer que nos próximos anos ela substituirá

por completo a tradicional virtualização de hardware.

Para saber mais

http://en.wikipedia.org/wiki/Paravirtualization

http://en.wikipedia.org/wiki/Xen

Page 148: 100 Mini Papers sobre tecnologia

Junho, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 147

Após receber um folheto sobre um novo financiamento pré-

aprovado, que muito lhe interessa, você chega na agência do

seu banco. Um funcionário, com o qual você nunca teve contato,

saúda você pelo nome e o encaminha para conversar com seu

gerente. Enquanto você aguarda tomando um café com adoçante,

afinal você não pode tomar açúcar, um monitor de cristal líquido

começa a apresentar maiores detalhes sobre aquele financiamento

que o fez ir até a agência.

O seu gerente recebe você saudando novamente pelo nome e no

trajeto até a mesa, comenta detalhes sobre o financiamento. Você

preenche um formulário eletrônico usando uma caneta digital, e as

suas informações aparecem no monitor para confirmação, como

num passe de mágica. Ao final, você utiliza um leitor biométrico

para autorizar as transações selecionadas no formulário. Bem-

vindo ao banco do futuro, um banco totalmente focado no cliente!

É difícil prever como será um banco em cinco ou dez anos. Podemos

dizer que eles serão muito mais que agências de atendimento.

Em linhas gerais, eles sofrerão alterações em seus modelos de

negócio, principalmente porque os seus clientes serão muito

mais exigentes, informados e terão maior poder de barganha,

redefinindo as regras do jogo.

A maioria dos bancos de varejo atual competirá pela diferenciação

em um mercado já saturado. É bem provável que fusões e aquisições

reduzam o número total de bancos, principalmente os bancos de

nível médio, e os bancos especializados desempenharão um papel

de maior destaque.

Abordagens tradicionais para criar valor por meio de crescimento e

de eficiência já não serão suficientes. As vantagens obtidas através da

aquisição, da entrada em novos mercados e

das ofertas de produtos reconfigurados serão

momentâneas. O uso amplo de parcerias e

de terceirização será um imperativo básico

de eficiência. A capacidade de adaptação

e de transformação dos bancos aos novos

modelos definirá o seu sucesso ou o seu

fracasso.

A especialização em determinadas

funções de negócio, impulsionada

por novas tecnologias, criará um novo

ecossistema bancário, com uma ampla

cadeia de prestadores de serviços

especializados, o que resultará em

serviços melhores, mais rápidos e mais

baratos. Os bancos deverão analisar suas

competências em função dessa nova

realidade e decidir quais componentes

O banco do futuroFábio Luis Marras

Page 149: 100 Mini Papers sobre tecnologia

Junho, 2007

148 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

de negócio serão comprados do melhor

provedor do mercado e quais serão o

foco da diferenciação do próprio banco.

Como exemplo, podemos mencionar os

serviços providos por especialistas em

risco, que forneçam as melhores análises

de garantias financeiras, que permitirão a

operação no mercado de forma mais eficaz

e a eliminação de ativos não desejados.

A arquitetura orientada a serviços, a

construção de um barramento empresarial

de serviços e a adoção de padrões terão

um papel fundamental na construção

desse novo ecossistema, seja ele

envolvendo parceiros de negócio ou

áreas internas da instituição. Serviços

desenvolvidos nessa nova arquitetura

não terão acoplamentos diretos entre si,

permitirão o compartilhamento entre as

mais diversas linhas de negócio, facilitarão

a movimentação, consolidação e até a

eliminação caso o negócio não mais os

requeiram. A grande diferença entre a

arquitetura atual e futura dos bancos será

a facilidade da criação e disponibilização

de novos produtos e serviços,

independentemente das aplicações e

infraestruturas existentes.

Retornando ao início deste texto, a melhor

maneira para atender às expectativas dos

clientes será a utilização de tecnologias que

permitam capturar novos tipos de dados e

que possam ser utilizadas para aumentar as possibilidades de

vendas de produtos e de serviços. Câmeras de vídeo, etiquetas

de identificação por rádio frequência, canetas digitais, entre

outros, fazem parte de um arsenal tecnológico que poderão

ser utilizados pelos bancos para melhor interagir com os seus

clientes, aumentando a lealdade e consequentemente as

vendas.

Câmeras de vídeo podem capturar informações da face dos

clientes para que o banco ofereça um atendimento mais

personalizado. Podem também rastrear os clientes nas agências,

ajudando a definir o melhor layout. Folhetos e cartões podem

conter com etiquetas inteligentes e fornecer informações

importantes quando os clientes visitarem as agências,

propiciando mensagens personalizadas.

Muitos clientes verão essas tecnologias trazerem grandes

vantagens, como por exemplo, a eliminação de filas e a oferta

de melhores serviços, enquanto outros questionarão a invasão

da sua privacidade.

Todas essas tecnologias já estão disponíveis hoje. Por que

não começar a inventar o futuro agora e deixar os clientes

escolherem se as utilizam ou não?

Page 150: 100 Mini Papers sobre tecnologia

Maio, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 149

No mundo globalizado, um executivo necessita cada vez

mais de informações para poder cumprir suas metas e gerar

lucratividade para o negócio. Para tanto são necessários

planejamentos precisos, melhoria de produtividade de seus

colaboradores, controles mais apurados, redução de custos e

principalmente diferenciação da concorrência. Entretanto, sem

informação correta no tempo exato, o processo decisório fica

prejudicado, com possível perda de espaço no mercado para

a concorrência. O grande problema é saber: que informação é

essa e onde ela se localiza?

O que muitas empresas hoje estão descobrindo é que a

informação não é apenas aquela contida em bancos de dados ou

de conteúdo estruturado. Mais de 80% da informação necessária

para que um negócio funcione depende de informações

contidas em documentos. Esses podem ter diversas formas, tais

como: email, foto, papel, fax, vídeo, áudio, planilhas, editores

de texto, apresentações, todos conhecidos como conteúdos

não-estruturados.

A grande dificuldade é que essas informações estão espalhadas

por diversas áreas e departamentos, dentro de computadores

pessoais ou servidores de arquivos que possuem pouco ou

nenhum controle sobre quem acessa, copia, duplica ou gera

esses documentos.

Existem alguns dados interessantes do Gartner Group:

• Um documento é copiado, fisicamente ou eletronicamente

de 9 a 11 vezes durante sua vida útil;

• O custo para armazenar fisicamente um documento é

em torno de US$ 20,00 sendo que 25% desse custo é gasto

com tempo de ir e vir até o local de

armazenamento;

• Recuperar um documento perdido

custa aproximadamente US$ 120,00 e de

3 a 5% dos documentos de uma empresa

desaparecem;

• Usuários gastam de 20% a 30% de

seu tempo controlando informação de

documentos físicos ou digitais.

Além disso, a partir do ano 2000 ocorreu

uma explosão no número de e-mails

recebidos e enviados por empresas

e também no uso dos mesmos como

evidências em ações processuais. Toda

essa gama de informações em conteúdos

não-estruturados e sem controle é, muitas

vezes, a causa de lentidão e da baixa

produtividade em processos de negócio,

Gerência de conteúdo: uma questão de sobrevivênciaPaulo E. Folkmann

Page 151: 100 Mini Papers sobre tecnologia

Maio, 2007

150 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

o que pode acarretar a perda de milhões

de dólares por falta de gerenciamento

adequado. Outro fato a ressaltar é que

cada vez mais as regulamentações atuais

exigem que o controle desse tipo de

conteúdo tenha o mesmo rigor aplicado

ao armazenamento dos documentos

físicos.

O ambiente necessário para

gerenciamento de conteúdo não-

estruturado, que é popularmente no

Brasil conhecido como GED (Gerência

Eletrônica de Documentos) é conhecido

no mercado como solução de ECM

(Enterprise Content Management).

ECM não é apenas um termo para

definir uma solução de gerenciamento

eletrônico de documentos. É um

conceito muito mais abrangente que

envolve diversos aspectos como gerência

e guarda de documentos, controle de

regulamentações, direitos autorais,

publicação na Web, criação, edição,

captura, arquivamento (de e-mails,

por exemplo) além de implementação

de automação de processos voltados

a conteúdo, que envolve workflow e

monitoração dos processos baseados

em documentos.

Atualmente quem ainda não dominou o

conteúdo não-estruturado está lutando

para sobreviver e conforme Darwin

verificou em seus estudos, são os mais aptos que sobrevivem e

não necessariamente os mais fortes.

Para saber mais

http://www.ibm.com/software/data/cm/

http://www.ibm.com/software/info/contentmanagement/

http://en.wikipedia.org/wiki/Enterprise_content_management/

Page 152: 100 Mini Papers sobre tecnologia

Maio, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 151

O uso de modelos é muito disseminado nos diferentes

campos da engenharia. As plantas baixas na Engenharia Civil

e os modelos em escala reduzida na Aeronáutica são alguns

exemplos.

Um modelo é uma abstração de uma entidade física que foca em

seus aspectos importantes e omite aquilo que não é essencial.

Tem como objetivo representar algo físico de forma a permitir

testá-lo previamente, antes de sua construção. Facilita também

a comunicação e o entendimento entre todos os participantes

do projeto. O modelo tem sentido quando o custo para

desenvolvê-lo é menor que o custo da construção da entidade

física real ou quando o risco da construção é muito alto. Dessa

forma, a planta baixa de uma casa a ser construída permite que

o engenheiro, o arquiteto e os futuros moradores dessa casa

entendam e concordem em como será o imóvel antes que ele

seja construído. Da mesma forma, não é viável construir um

avião real e colocá-lo para voar antes de se realizar inúmeros

testes com modelos de tamanho reduzido.

Em um dos campos mais novos da engenharia, a de Software,

não poderia ser diferente. A modelagem de sistemas oferece

uma forma de descrever o domínio do problema, definir e

validar os requisitos do sistema e projetar a solução, antes de se

iniciar a codificação.

A UML (Unified Modeling Language) é exatamente uma

linguagem unificada para modelagem na área de sistemas.

É considerada uma linguagem porque define uma notação

para representar modelos. E é unificada porque nasceu da

convergência de muitas linguagens de modelagem existentes

anteriormente. A UML é um padrão aberto

definido e mantido pela OMG (Object

Management Group), um consórcio aberto

de várias empresas tais como BEA, EDS,

HP, IBM, Intel, NASA, SAP, entre várias

outras. A primeira versão da UML foi

desenvolvida pela Rational e submetida

para aprovação da OMG em 1997. Os

responsáveis pelo desenvolvimento inicial

foram Grady Booch, Ivar Jacobson e Jim

Rumbaugh, que ficaram conhecidos como

“The Three Amigos”.

A UML possui uma notação e um

metamodelo. A notação representa a

UML: a linguagem dos modelosAna Beatriz Parra

Page 153: 100 Mini Papers sobre tecnologia

Maio, 2007

152 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

parte visível: são os diagramas e a forma

gráfica de representá-los. O metamodelo

descreve a estrutura conceitual de seus

diagramas.

A UML é composta por treze

diagramas, sendo seis estruturais e

sete comportamentais. Os estruturais

representam os elementos que fazem

parte de um sistema e suas relações.

O de classes é o mais conhecido. Os

comportamentais apresentam a dinâmica

dos objetos, ou seja, o seu comportamento

ao longo do tempo. Os mais conhecidos

são o diagrama de casos de uso e o de

sequência.

É importante notar que a UML não

define nenhum método ou processo de

desenvolvimento de software. Ela é uma

linguagem e não uma metodologia ou

processo.

A versão atual da UML é a 2.0, também

conhecida como UML2 e é amplamente

utilizada e suportada por ferramentas

de algumas das principais empresas de

software do mercado.

A UML ajudou a Engenharia de Software a

transformar-se de uma atividade centrada

na codificação realizada por um indivíduo

isoladamente para uma atividade

colaborativa, com foco no projeto,

envolvendo equipes multidisciplinares.

Isso colaborou para a redução dos custos

de desenvolvimento e o aumento da qualidade do software

desenvolvido.

Para saber mais

http://www.uml.org

http://www.ibm.com/software/rational/uml

Page 154: 100 Mini Papers sobre tecnologia

Abril, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 153

As fábricas tradicionais aumentaram sua produtividade

mudando o processo produtivo do modelo artesanal para o de

manufatura. No primeiro modelo, os produtos são criados um a

um por pessoas geralmente sem nenhum tipo de organização

ou de processo. Já no modelo de manufatura, uma grande

quantidade de unidades de um mesmo produto é produzida

a partir de componentes criados por múltiplos fornecedores e

máquinas executam os processos repetitivos e básicos.

Inicialmente, a padronização, no modelo de manufatura, era

extrema e a customização nula. Nesta época Henry Ford teria

dito que o cliente podia ter um carro pintado de qualquer cor

que desejasse, desde que essa fosse a cor preta. Alguns anos

depois Alfred Sloan percebeu que os clientes desejavam mais

do que o modelo mais simples e mais barato. Eles também

buscavam o estilo, a força e o prestígio que o fabricante pudesse

lhes oferecer. Essa ideia deu à GM a liderança que antes era da

Ford.

As fábricas de software buscam a combinação desses princípios

por meio da industrialização do processo de desenvolvimento

e da geração de soluções que atendam às necessidades dos

clientes. Assim como as fábricas tradicionais, as fábricas de

software surgiram em decorrência da sua capacidade de reduzir

o custo e o tempo de produção e precisaram evoluir para

atender aos desejos adicionais e específicos de cada cliente.

As primeiras fábricas de software surgiram abrangendo um

espectro limitado de soluções e linguagens. Elas seguiam

a análise estruturada e seus processos fabris limitavam-se à

customização.

Para responder às crescentes expectativas

e necessidades dos clientes, as fábricas

de software aderiram a novos conceitos

e técnicas de orientação a objeto e de

qualidade. A orientação a objetos baseia-

se na composição e interação entre

diversas unidades de software chamadas

de objetos. Seu propósito é identificar o

melhor conjunto de objetos para descrever

um sistema de software e encapsular nestes

o conhecimento dos desenvolvedores

experientes de forma que outros possam

utilizar. Já a qualidade deixou de ser

uma estratégia de diferenciação com

relação aos concorrentes e passou a ser

considerada necessária e imprescindível.

Podemos dizer que qualidade de software

é um processo sistemático que focaliza

Existe criatividade nas fábricas de softwareMarcelo F. da Silva Pereira

Page 155: 100 Mini Papers sobre tecnologia

Abril, 2007

154 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

todas as etapas e artefatos produzidos

com o objetivo de garantir a conformidade

de processos e produtos prevenindo e

eliminando defeitos.

O termo “fábrica de software” é

controvertido. Ele sugere visões como

a de que é possível criar sistemas e

aplicações com a remoção completa da

criatividade ou de que é possível criar

sistemas e aplicações sem programadores.

Ao contrário, o essencial para se atender a

demanda em escala industrial é parar de

desperdiçar o talento de programadores

habilidosos em atividades rotineiras e

triviais, potencializando a propriedade da

“reusabilidade”.

Hoje existem fábricas de software

competitivas e com alto padrão de

qualidade. Elas devem continuar

aprendendo com outras indústrias

que tenham enfrentado problemas

semelhantes, e aplicar padrões

selecionados de automação às tarefas. Elas

fazem o desenvolvimento de aplicações

ser mais rápido, mais barato e mais fácil.

Ao invés de construir cada aplicação por

inteiro, desenvolvedores criam ou adaptam

apenas as partes necessárias. O restante

está pronto na fábrica de software.

Percebendo as oportunidades de mercado

para a utilização de fábricas de software

as empresas têm investido cada vez mais

no aprimoramento de seus modelos buscando aumentar ainda

mais o espectro de atuação das fábricas. Essa evolução dá início

a um importante ciclo virtuoso na área de desenvolvimento de

soluções.

Page 156: 100 Mini Papers sobre tecnologia

Abril, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 155

Nos próximos dez anos o sistema de televisão brasileiro vai mudar

radicalmente, não apenas pela qualidade de áudio e vídeo, que

serão digitais, mas principalmente com a adição de novos serviços

relacionados à interatividade, como t-commerce (comércio

eletrônico através da TV), jogos, IPTV (TV via IP), VoD (Video on

Demand), integração com a Internet, serviços de educação e

governamentais, como o voto eletrônico, tudo isso por vias com

transmissão bidirecional que vão além da radiodifusão e alcançam

dispositivos móveis e cabo, numa convergência tecnológica

sem precedentes. Surgem grandes perspectivas de integração

social e inclusão digital. Mas tudo vai depender de uma nova

regulamentação.

O primeiro passo para que a convergência e a interatividade

aconteçam é o uso de um terminal de acesso conhecido como set-

top box que extrapolará o conceito de decodificador instalado ao

lado do televisor e poderá nos acompanhar em nossas mudanças

de ambiente e local. As aplicações e serviços disponíveis serão

acessados através de uma camada de software responsável pela

autenticação, acesso, execução, interrupção e gerenciamento.

Tudo estará disponível ao usuário através de controles de navegação

e menus eletrônicos baseados em padrões e enriquecidos com

conceitos de sensibilidade e contexto. O sistema interpretará as

experiências anteriores do usuário e identificará o ambiente que

o cerca, mudando automaticamente a oferta e disponibilidade

de serviços, além de adequar o meio de acesso. Por exemplo,

um usuário que viaje de São Paulo a Porto Alegre, perceberá, ao

chegar ao seu destino, que seu dispositivo móvel automaticamente

encontrou a rede de acesso disponível e selecionou o menu

eletrônico de acordo com os serviços e

aplicações locais e preferências pessoais

(hotéis, transporte, programas preferidos,

entre outros).

Um outro passo necessário é definir um

padrão nacional de TV Digital. Existem

no mundo três grandes padrões de TV

Digital:

TV digitalJoão Carlos Coan

Page 157: 100 Mini Papers sobre tecnologia

Abril, 2007

156 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

• O mais antigo é o ATSC (Advanced

Television System Committee), padrão

norte-americano que permite transmissão

via cabo e radiodifusão. Ele privilegia a

transmissão de alta qualidade de imagem

e som, mas não suporta transmissão para

dispositivos móveis;

• O DVB (Digital Video Broadcasting)

é o padrão europeu que permite

transmissão via radiodifusão, satélite e

cabo. Ele privilegia a interatividade sem

comprometer a qualidade de imagem e

suporta a transmissão para dispositivos

móveis através de uma banda extra,

utilizando serviços das operadoras de

telefonia;

• O ISDB (Integrated Service Digital

Broadcasting) é o padrão japonês e

também o mais novo, suporta transmissões

via radiodifusão, satélite, cabo e também

dispositivos móveis utilizando a faixa de

televisão terrestre, sem a necessidade de

uma operadora de telefonia.

No Brasil será implementado o SBTVD

(Sistema Brasileiro de TV Digital) que é

baseado no ISDB japonês e que também

incorporará novas especificações

proprietárias desenvolvidas pelas

universidades brasileiras. O middleware

desenvolvido, chamado de “FLEXTV”,

suporta o desenvolvimento em JAVA,

todos os meios de acesso (radiodifusão,

satélite, cabo, móvel), novas funcionalidades e aplicações e

o total gerenciamento do sistema desde o set-top box até o

gerador de conteúdo, passando pelo integrador e provedor do

sistema de TV Digital.

Para o sistema se tornar possível, não basta apenas um padrão,

é necessária também a criação dos “modelos comerciais”,

compostos pelas empresas de mídia, geradores de sinal,

produtores de conteúdo, integradores (incluindo a IBM) e até

operadoras de telecomunicações. Esses vão desde um modelo

básico de serviços, mas já com imagem de alta qualidade via

radiodifusão, até modelos completos e complexos de serviços

via cabo e móvel. Os próximos “movimentos” dessas empresas,

bem como a nova regulamentação a ser definida pelo governo,

serão vitais para definir o panorama de negócios do futuro

sistema de TV Digital brasileiro. É aguardar e estar atento às

oportunidades que surgirão.

Page 158: 100 Mini Papers sobre tecnologia

Março, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 157

Introdução de novas tecnologias de TI, incluindo caixas

eletrônicos mais avançados, novas opções de dispositivos

móveis, Internet Banking, comércio eletrônico, entre outros,

não tem diminuído a demanda dos consumidores pelo acesso

aos dados. Analistas apontam, ao contrário, que as novas

tecnologias possuem o efeito de aumentar a necessidade de

um acesso mais amplo às informações armazenadas.

Criou-se assim a necessidade de capturar, gerenciar e

compartilhar uma quantidade sem precedentes de dados,

tanto em tempo real como de caráter histórico. As informações

sobre os clientes e suas transações financeiras ou comerciais,

inseridas por meio dos inúmeros canais disponíveis (como

agências, ATMs e Web) devem ser coletadas, categorizadas,

gerenciadas e então disponibilizadas para as aplicações.

Esse fluxo de dados, porém, está sobrecarregando as

infraestruturas atuais de armazenamento de dados.

Os sistemas legados, baseados em subsistemas de discos

conectados diretamente aos servidores, tendem a isolar as

informações e torná-las disponíveis somente a um conjunto

restrito de aplicações. Mesmo as aplicações centrais críticas,

tais como sistemas de atendimento por telefone ou serviços

baseados na Web, que necessitam das informações em

tempo real para seus usuários, são igualmente afetadas.

O surgimento das redes de armazenamento de dados

(Storage Area Networks, ou SANs) prometia endereçar

alguns desses problemas. Porém, sem uma estratégia efetiva

de gerenciamento de storage, a tecnologia das SANs não

resolve todas as barreiras normalmente encontradas nos

ambientes heterogêneos de TI tais como

complexidade, baixa utilização dos

recursos de armazenamento de dados e

alto custo de propriedade.

Tecnologias inovadoras têm surgido para

auxiliar na abordagem desse tema evidente

a todos os segmentos da indústria. A

virtualização e o gerenciamento da rede

de armazenamento de dados destinam-

se a reduzir o custo e a complexidade,

simplificar a infraestrutura, otimizar a

utilização dos recursos e prover o suporte

necessário para apoiar as estratégias de

negócio das empresas.

Muito mais que armazenar dadosJoão Marcos Leite

Page 159: 100 Mini Papers sobre tecnologia

Março, 2007

158 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

A virtualização permite agrupar recursos

como volumes de discos e arquivos, de

acordo com suas características e perfil

de utilização, e com administração

centralizada. Esse agrupamento lógico

pode incluir áreas de armazenamento de

múltiplos fornecedores e de custo variável.

Além disso, a virtualização busca reduzir

os efeitos que as reconfigurações de

hardware causam na disponibilidade dos

sistemas e, portanto, na continuidade dos

negócios.

O gerenciamento dessa infraestrutura

virtualizada, por sua vez, torna possível

compartilhar melhor os recursos e auxiliar

os administradores, provendo uma visão

integrada de todo o ambiente. Esse

gerenciamento provê uma clara análise

histórica, operacional e pró-ativa do

ambiente, melhor utilização da capacidade

de armazenamento, e evita paradas

desnecessárias dos sistemas. Além

disso, ele suporta a automação baseada

em políticas, com provisionamento de

capacidade, otimização da performance e

gerenciamento dos dados em todo o seu

ciclo de vida.

Uma estratégia adequada de

armazenamento de dados vai ao encontro

das necessidades que mais pressionam os

executivos e gerentes de TI. Como parte

dessa estratégia, a virtualização está entre

as tecnologias mais contribuidoras na redução do custo total de

propriedade e na conversão dos custos fixos em variáveis.

Armazenamento de dados, como uma das maiores prioridades

no ambiente de TI na maioria das empresas, apresenta desafios

na sua gerência que devem ser endereçados com soluções

inovadoras para tirar mais proveito do investimento feito. Isso

significa, portanto, muito mais que simplesmente adicionar

capacidade de armazenamento. É necessário tornar o ambiente

de armazenamento flexível o suficiente para se manter sempre

alinhado com as necessidades de negócio.

E para garantir o sucesso dos negócios nesses dias de extrema

competitividade, respostas rápidas às mudanças são cada

vez mais requeridas, sejam elas por novas necessidades dos

clientes, mudanças na cadeia de fornecedores, ou movimentos

inesperados dos concorrentes e da situação econômica. Nessa

linha, a virtualização no armazenamento de dados é uma

abordagem inovadora, viabilizando uma infraestrutura de TI que

permita transformar as informações em vantagem competitiva,

prover o máximo benefício a um custo viável, e que possua

flexibilidade para suportar as mudanças nos processos.

Para saber mais

http://www.ibm.com/systems/storage/virtualization/

Page 160: 100 Mini Papers sobre tecnologia

Março, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 159

O estabelecimento da Internet como plataforma de negócios

(modelo e-business) alavancou a formação, integração e

automação de cadeias de produção, gerando vantagens

competitivas e redução de custos para as empresas. Esse

cenário também contribuiu para a globalização dos mercados,

fez com que muitos produtos se tornassem commodity mais

rapidamente e acirrou a competição. A evolução desse cenário

e a constante busca por lucros crescentes criaram desafios

quase intransponíveis para as empresas, principalmente após

a entrada da China e da Índia no mercado globalizado. Esses

países se tornaram benchmark da indústria, no que diz respeito

à cadeia de produção e à estrutura de custos, derrubando

preços e margens de lucro.

Na busca por novos modelos de negócios que permitam às

empresas restabelecerem sua competitividade e margens de

lucro, o modelo SOA (Service Oriented Architecture), quando

analisado em sua forma mais ampla, aparece como uma das

principais alternativas. Nesse sentido, SOA é uma plataforma

de negócios que, apoiada por uma arquitetura de sistemas

de TI, possibilita às empresas implementarem um modelo de

negócios flexível, focado, escalável e resiliente.

O princípio da componentização dos processos de negócios,

apresentando-os na forma de serviços, possibilita que a empresa

tenha maior facilidade em identificar quais os componentes que

lhe proporcionam diferenciais competitivos e quais não. Com

isso é possível definir as áreas que merecem investimentos, as

que devem ser mantidas dentro da empresa, as que podem

ser terceirizadas, as áreas a serem fechadas e os produtos que

devem ser adquiridos no mercado. Dessa

forma, um serviço da empresa passa a

ser uma combinação de componentes,

alguns providos por ela própria, outros

por terceiros, formando uma solução de

grande valor agregado a um custo mais

competitivo.

O principal diferencial desse modelo

de negócios é a mudança da estrutura

fechada da tradicional cadeia de produção

(value chain) para a cadeia em rede (value

web). Nessa última, a cadeia de produção

é composta por vários participantes

que competem entre si, caracterizando

uma estrutura aberta e flexível, formada

dinamicamente pelos fornecedores

que têm melhor preço e prazo em cada

segmento e momento da produção. Esse

SOA como plataforma de negóciosDaniel Raisch

Page 161: 100 Mini Papers sobre tecnologia

Março, 2007

160 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

procedimento possibilita a otimização dos

processos da empresa com significativa

redução de custos.

A visão de tecnologia do modelo SOA

permite que os componentes de negócios

sejam mapeados para sistemas de TI e

apresentados na forma de serviços de

TI, normalmente usando o padrão Web

Services como tecnologia de integração

entre os componentes de sistemas. Isso

permite um maior alinhamento entre as

áreas de negócios e a de TI.

Dentre as várias empresas globais que

mergulharam fundo nesse modelo,

podemos citar a Amazon. Ícone do modelo

e-business, destacou-se também no modelo

on demand e atualmente utiliza SOA

como plataforma de seus negócios. Com

isso a Amazon deixou de ser apenas uma

empresa virtual de vendas de livros e CDs

para possibilitar que várias outras empresas

vendam seus produtos pela Web. Empresas

como Target, Borders, Canon, entre outras,

usam a plataforma SOA da Amazon para

viabilizarem seus negócios na Internet.

Com os componentes de integração

baseados em Web Services providos pela

Amazon, essas empresas se conectam na

infraestrutura e nos processos mantidos

por ela, que se encarrega de todos os

serviços de cobrança, distribuição,

logística, entre outros.

A IBM está fortemente engajada com o modelo SOA, não

apenas como provedor de tecnologia e consultoria, mas

também utilizando essa arquitetura em seus próprios processos

de negócio.

A IBM, apoiada no modelo SOA e em sua linha de produtos,

está revendo os processos, componentizando os mais críticos,

reduzindo o número de aplicações com a reutilização de código

e integrando aplicações via tecnologia Web Services. Com o

foco nas áreas de software fullfilment e delivery, na integração

com parceiros de negócios e nos processos de manufatura,

a IBM já obteve uma economia de centenas de milhões de

dólares, além de maior agilidade e uniformidade em seus

processos.

Em suma, o modelo ampliado SOA pode ser considerado uma

evolução do e-business e do on demand. Sua característica

marcante é a formação de redes de produção no lugar

das antigas cadeias de produção, onde se busca o melhor

fornecedor de cada serviço que compõe o processo produtivo.

Para saber mais

http://www.ibm.com/soa

http://www.ibm.com/developerworks/webservices

Page 162: 100 Mini Papers sobre tecnologia

Fevereiro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 161

O cenário atual de negócios se caracteriza por um alto grau de

dinamismo e competitividade. Isso faz o processo de inovação

se tornar um tema corrente das empresas com características

empreendedoras. A inovação permite que novas oportunidades

sejam desenvolvidas para o negócio, assim como novos

produtos e serviços oferecidos com objetivos de atender às

demandas crescentes do mercado.

Nesse cenário, o ambiente de Tecnologia da Informação (TI)

deve ser capaz de reagir rapidamente às mudanças do negócio,

de simplificar e otimizar o uso dos recursos computacionais, de

aumentar a produtividade e a eficiência, reduzindo os custos

operacionais. Deve também possibilitar novas implementações

com riscos reduzidos.

Entretanto, ao invés de atuar nas melhorias acima, na prática

a equipe de TI concentra seus esforços no gerenciamento

de crises e na gestão do dia a dia do ambiente. Segundo

estudos e entrevistas conduzidos pela IBM, 40% das quedas

com indisponibilidade de servidores ocorrem devido a erros de

operação e cerca de 60% das despesas são gastas com suporte,

manutenção, gerenciamento e pequenas mudanças.

Além disso, ao contrário do desejado, os servidores rodam com

uma utilização média muito baixa. Estudos de consolidação

realizados pela IBM Brasil em 1.682 servidores Intel indicaram

uma taxa média de utilização dos processadores de 16,8%. Além

disso, as novas aplicações são frequentemente postergadas

pela necessidade de manutenção nos sistemas existentes, ou

seja, as equipes de TI passam boa parte do tempo apagando

incêndios.

Isso ocorre porque os ambientes de

TI se desenvolveram ao longo do

tempo utilizando um modelo de nichos

verticalizados formados por servidores

de aplicação, de banco de dados,

Web, de infraestrutura, entre outros. A

cada nova aplicação introduzida, novos

servidores são necessários para os

ambientes de produção, homologação

e desenvolvimento. Isso provoca uma

proliferação muito grande do número

de servidores, tornando o ambiente

complexo, de difícil gestão e de custos

altos.

Otimizar é precisoAmauri Vidal Gonçalves

Page 163: 100 Mini Papers sobre tecnologia

Fevereiro, 2007

162 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Para mudar esse quadro, as empresas

podem se beneficiar das novas tecnologias

dos processadores. Essas oferecem maior

poder computacional e introduzem um

novo modelo que possibilita ambientes

mais simples, flexíveis, melhor gerenciáveis

e com custos variáveis. As tecnologias

de virtualização, provisionamento e

orquestração são ferramentas efetivas

para a alteração da situação atual.

A virtualização de memória, de

processadores, de rede e de

armazenamento, cria um ambiente

flexível que possibilita melhor utilização

dos recursos e alocação dinâmica entre

os ambientes virtualizados. Além disso,

permite preservar os investimentos

realizados. O provisionamento facilita

a automação da gestão de capacidade

e de carga, identifica e isola problemas

e permite disponibilizar servidores

e armazenamento sob demanda. A

orquestração possibilita o alinhamento

ao negócio, por meio da definição de

políticas para a alocação de recursos e da

automação do provisionamento.

Esse novo modelo possui ferramentas de

controle e de gerenciamento centralizado,

utiliza padrões da indústria (XML, WSDM,

SNIA SMI-S, DMTF CIM, entre outros),

gerencia ambientes heterogêneos e

aumenta a produtividade do time técnico

na identificação e correção de problemas, o que resulta na

melhoria dos serviços de TI.

Ao avaliar o estado atual da infraestrutura de TI e ao buscar um

ambiente flexível, dinâmico, produtivo, alinhado ao negócio,

com custo mais baixo e de menor risco, a otimização dos

recursos de TI se torna um imperativo.

Além disso, ela também facilita a implantação de uma arquitetura

de aplicações orientada a serviços (SOA), meta final para um

ambiente de TI situado no estado da arte.

Para saber mais

http://www-03.ibm.com/solutions/itsolutions/index.jsp?g_

type=pspot

http://www-03.ibm.com/solutions/sap/doc/content/resource/

business/1602148130.html?g_type=hpfeat

Page 164: 100 Mini Papers sobre tecnologia

Fevereiro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 163

Sistemas de Data Warehousing e Sistemas de Informação

Geográfica (SIG) são duas tecnologias que caminhavam em

separado até bem recentemente.

Data Warehousing é um conjunto de técnicas e ferramentas

que visa construir um banco de dados consistente para análise

de negócios. Elas envolvem a extração do grande volume de

dados proveniente dos processos de negócios (por exemplo

folha de pagamento, vendas, entre outros) e a criação de um

banco orientado por “assuntos”, como por exemplo, volume

de vendas por categoria de cliente. Esse banco é utilizado para

realizar análises que possam prover informações competitivas

para a empresa. A análise mais comum deste processo é a

multidimensional. Ela permite o cruzamento de informações,

agregações e pesquisa detalhada sobre um grande número de

variáveis ao mesmo tempo.

Imagine, por exemplo, agregar num mesmo modelo de

dados as informações sobre pedidos, clientes, data e local

de compra. As ferramentas e técnicas de Data Warehousing

permitem obter informações sobre volume total de vendas

de um certo produto ao longo do ano, qual o perfil do cliente

que compra mais esse produto e em que época. A ferramenta

também é capaz de mostrar rapidamente os dados em detalhe

assim como agregá-los num nível mais alto. Essa análise

multidimensional em tempo real é denominada de OLAP

(On-Line Analytical Process) e as fases de implementação de

um banco de Data Warehousing são usualmente chamadas

de “ETL” (vide figura), a seguir descritas:

1. (E)xtração – Leitura, limpeza e validação dos dados;

2. (T)ransformação – Manipulações com

os dados para torná-los consistentes por

“assuntos”;

3. Carga ((L)oad) ou Modelagem – Inserção

final dos dados nos sistemas de análise

multidimensional.

Já os SIGs proveem a associação de dados

convencionais (preço, cliente, etc) com

pontos espacialmente referenciados,

como por exemplo, obter as menores

distâncias onde podemos encontrar um

certo produto. SIGs têm desempenhado

um importante papel na indústria há

mais de 15 anos. Dada a importância

de que os dados de negócios contêm

uma enorme quantidade de informações

espaciais implícitas e não exploradas,

como endereços dos clientes, filiais

O que a geografia e o data warehousing têm em comum?André Luiz Braga, D.Sc.

Page 165: 100 Mini Papers sobre tecnologia

Fevereiro, 2007

164 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

etc, há cerca de 5 anos, várias

empresas importantes como Oracle,

IBM, ESRI e outras voltaram seu foco

para a integração do processo de Data

Warehousing aos SIGs. Como resultado,

a análise multidimensional passa a ser

incorporada como mais uma dimensão

no processo de Data Warehousing.

Vejamos por exemplo, o grande volume

de dados imobiliários: o site www.move.

com utiliza estes dados em combinação

com a localização física dos imóveis e

permite fazer análises como, “Liste todos

os imóveis para alugar, a até 10 Km de

San Francisco que permitam animais de

estimação”. Essas funções de análise

podem ser usadas pelo usuário final

bem como por empresas que desejem

ofertar imóveis para um certo perfil de

comprador numa certa área, usando

também outros recursos on-line onde

pode-se analisar demografia, faixa de

renda, etc.

Alguns esforços vêm sendo feitos para

definir uma metodologia de “ETL”

espacial, resultando nos seguintes blocos

(vide figura):

1. Extração Espacial – Processos de

conversão de dados implícitos, tais como

endereços em coordenadas espaciais

(Geocodificação), importação de formatos

de dados espaciais, etc;

2. Transformações Espaciais – Junções espaciais e de dados,

como por exemplo, os dados de clientes residentes dentro de

um raio de distância de uma loja;

3. Modelagem Espacial – Criação dos modelos e análises que

serão efetuadas.

Um Sistema de Data Warehousing Espacial completo permite

fazer cruzamentos e agregações multidimensionais em tempo

real. Apesar de poucos sistemas hoje oferecerem esse nível de

funcionalidade, eles se tornarão mais presentes nas corporações

dada a demanda das diversas áreas de negócios em explorar a

dimensão espacial de seu Data Warehousing. Trata-se de uma

inovação no modo de organizar e referenciar o grande volume

de informações já existentes hoje nos mercados de países mais

avançados bem como uma oportunidade a ser explorada pelos

países em desenvolvimento como o Brasil

Page 166: 100 Mini Papers sobre tecnologia

Janeiro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 165

Vigilância digital ou digital surveillance é um sistema pró-ativo de

captura e de análise automática de imagens digitais, que permite

descobrir, localizar e classificar objetos ou pessoas. Por meio da

tecnologia de subtração da imagem (background subtraction),

a vigilância digital oferece alguns recursos como, por exemplo,

detecção de movimento, reconhecimento de placa de carros,

reconhecimento facial, reconhecimento de objetos para remoção

ou abandono, movimento direcional, objetos com velocidade alta,

movimento ou encobrimento da câmera.

Essa tecnologia surge em substituição às monitorações de

Circuito Fechado de TV (CFTV) analógicos, pois torna o vídeo

monitoramento mais eficiente com a monitoração inteligente

(smart surveillance) que agrega valor às imagens gravadas e

pode também se integrar aos sistemas de alarmes e sensores.

As câmeras digitais IP também possuem outras vantagens

como por exemplo uma inteligência que permite a detecção de

movimentos e servidores HTTP.

Segundo Buyer Beware, Security Oz, Oct/Nov 2002, um

operador depois de monitorar um vídeo continuamente por 12

minutos, perderá até 45% da atividade da cena. Depois de 22

minutos, perderá até 95% da atividade da cena.

Os softwares de vigilância digital em geral possuem as seguintes

funcionalidades básicas: gravação por detecção de movimento,

visualização local e via rede, busca inteligente de ocorrências,

exportação dos vídeos, gravação de áudio, conexão com sensores,

saídas para sirenes, entre outros. Alguns modelos possuem

recursos diferenciados como: conexão para PDA (Personal Digital

Assistant) que permite visualizar a imagem de um local suspeito e

comandar luzes e sirenes, seleção de região

da imagem de interesse, alertas em tempo

real, reconhecimento facial, envio de e-mail

com os alertas e imagens, controle das

câmeras PTZ (Pan-Tilt-Zoom). Também já

existem softwares em português.

O mercado brasileiro possui tantas

oportunidades nessa área que em 2006

Vigilância digitalLeonir Veneziani Silva

Page 167: 100 Mini Papers sobre tecnologia

Janeiro, 2007

166 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

foi realizada no Brasil a 1ª feira ISC Brasil

(International Security and Conference),

especializada em segurança de todos

os tipos: patrimonial, de perímetro e até

mesmo de infraestrutura de dados, além

de produtos de segurança, comunicação

e biometria.

As oportunidades de aplicação da

vigilância digital com a proliferação de

redes são inúmeras. Varejistas podem

utilizá-la para prover propaganda voltada

ao consumidor, aumentando assim a

experiência dele com a loja. A área de

indústria a utiliza para monitoramento de

processos de fabricação, de logística, de

controle de qualidade e de estoque. Em

segurança pública há o monitoramento

de cidades e de espaços públicos. Para

o setor de transportes existem sistemas

de controle de tráfego e de rodízio com

reconhecimento da placa do veículo.

A área de educação tem aplicativos de

controle de acesso e de monitoração

perimetral. E o setor bancário tem

grande interesse em sistemas de controle

de fraudes e, mais recentemente, de

contagem de pessoas devido a lei que

define o tempo máximo que o cliente

pode esperar pelo atendimento na fila

do caixa. Existem ainda outras aplicações

para os setores de saúde, de seguros e

para o governo.

ara uma solução de vigilância digital ganhar o mercado, ela deve

ser completa compreendendo hardware, software e serviços. Ao

desenhar uma solução desse tipo é necessária a preocupação

com a qualidade da imagem, o tempo de armazenamento das

imagens, a quantidade de frames por segundo (FPS). Esses são

fatores que influem diretamente nos dois maiores limitadores,

que são a banda de rede para transmissão de dados, geralmente

de baixa velocidade e o espaço para armazenamento das

imagens. Essas restrições exigem soluções inovadoras, inclusive

o acesso aos desenvolvedores para alteração do produto para

atender as necessidades dos clientes brasileiros.

A IBM possui várias soluções que concorrem no mercado de

vigilância digital. Os principais softwares nessa área são o IBM

S3 (Smart Surveillance System) e o IBM RTVMS (IBM Real-time

Vídeo Monitoring System).

Para saber mais

http://www.isscctv.com/rtvms

http://www.intsi.org

http://www.iscexpo.com.br

http://www.abese.org.br

http://www.research.ibm.com/s3

Page 168: 100 Mini Papers sobre tecnologia

Janeiro, 2007

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 167

A todo instante surgem novos termos que atraem a atenção

de analistas e empresas que trabalham com tecnologia da

informação. Um desses termos é Master Data Management

(MDM) ou Gerenciamento de Dados Mestres. Por definição,

Dados Mestres podem ser descritos como a informação

necessária para criar e manter um “Cadastro Corporativo

Único” das principais entidades de negócio que são utilizadas

por diversos departamentos dentro da empresa. São os dados

mais importantes de uma corporação.

Por exemplo, em departamentos de vendas, marketing e

atendimento ao consumidor, dados mestres podem consistir

nas informações de clientes, promoções, garantias e histórico

de chamados. Já em um departamento de suprimentos,

dados mestres podem incluir informações de produtos e

fornecedores. No entanto, essas informações tendem a ser

muito inconsistentes devido às diferentes formas que os

dados são definidos e manipulados em cada departamento

das empresas.

A tarefa de criar sistemas de cadastro único não é novidade.

De fato, as empresas vêm tentando criar seus cadastros

unificados há muitos anos, mas poucas têm obtido sucesso

nessa iniciativa. A dificuldade em encontrar informação

consistente e de forma consolidada e a duplicação do mesmo

dado em diversos sistemas acabam por reduzir o valor da

informação dentro da empresa. Por exemplo, muitas vezes,

campanhas de marketing são enviadas em duplicidade a uma

mesma pessoa ou ainda para endereços errados, diminuindo

a efetividade e aumentando o custo destas campanhas.

O MDM apresenta uma nova abordagem

para o gerenciamento de dados e muda

a forma de se encarar o problema. Em

iniciativas anteriores, cada aplicação

acessava o cadastro único e manipulava

apenas os dados que estavam associados

às suas transações. Nesse caso, a

implementação de políticas sobre os

dados ficava a cargo de cada aplicação,

dificultando bastante a sua manutenção.

Já em uma infraestrutura de MDM existe

um repositório que contém informações

das entidades, políticas sobre os

dados, processos e fluxos de trabalho.

MDM – Gerenciando os dados mais importantes da empresaNathan Gevaerd Colossi

Page 169: 100 Mini Papers sobre tecnologia

Janeiro, 2007

168 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

E além dos aspectos mais comuns da

informação, esse repositório também

cuida da integração com informações

não estruturadas, vindas de repositórios

de conteúdo e informações analíticas,

armazenadas em Data Warehouses.

Para o sucesso da implementação de

MDM na corporação é importante o

apoio da organização de TI que provê

a infraestrutura para o controle das

principais entidades de negócio de forma

abrangente. Também é fundamental

que todos os departamentos da

empresa estejam alinhados à iniciativa,

realizando as adaptações necessárias e

criando pontos de sincronismo entre as

aplicações existentes e a nova estrutura.

Se implementadas de forma planejada

e gradativa, evita-se o caos de uma

mudança corporativa.

Empresas que já implementam iniciativas de

MDM têm obtido resultados mensuráveis

a cada nova entidade implementada.

Por exemplo, uma entidade de produto

tem trazido benefícios de redução de

time to market. A implementação de

uma entidade de cliente tem trazido a

capacidade de venda cruzada e a visão

completa do cliente. Em outras situações,

o MDM ajuda a cumprir regras de mercado

seguidas pelas empresas, como Sarbanes-

Oxley, Basileia II, entre outras.

Hoje, com um mercado cada vez mais competitivo, as empresas

estão sendo forçadas a ter maior agilidade no processo de

decisão e capacidade de se adaptar a novas tendências.

Iniciativas de MDM permitem que empresas tenham maior

visibilidade dos dados corporativos de forma consolidada, com

maior controle da qualidade dos dados, agilidade de decisão e

capacidade de se adaptar rapidamente.

Os fornecedores de tecnologia estão de olho no mercado de

MDM. A IBM atua nesse segmento com soluções integradas

de consultoria de negócio e tecnologia, e infraestrutura de

software e hardware.

Page 170: 100 Mini Papers sobre tecnologia

Dezembro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 169

O primeiro a propor a ideia de Open Source Software (OSS)

foi Richard Stallman na década de 1970, que a formalizou,

com a ajuda de alguns advogados, definindo a modalidade

de licenciamento chamado de General Public Lincense (GPL).

Ninguém se interessou ou sequer ouviu falar sobre isso, até que

em meados da década de 1990, tudo mudou com a grande

popularização do Linux, sistema operacional Open Source.

A tradução correta para Open Source Software é software de

Código Fonte Aberto ( e não “software livre”). É importante

destacar isso, pois muitas vezes o termo é associado à ideia

de software não-proprietário, ou não-comercial. De fato, um

software pode ter seu código aberto, mas ser comercial, ou

ter código fonte fechado e ser de distribuição gratuita. Código

aberto e de distribuição gratuita são características distintas.

A ideia do OSS é simples: um desenvolvedor escreve um

programa e outro pode copiá-lo à vontade sem sequer notificar

o primeiro. Ele pode, inclusive, modificá-lo e redistribuí-lo,

contanto que também mantenha suas modificações abertas e

informe a origem e os autores anteriores.

Isso não quer dizer que haverá diversas versões desconexas

do mesmo software. Cada modificação passa por um processo

estruturado de aceitação, onde boas melhorias retornam à base

e são incorporadas à nova versão do software. Atualmente,

muitas das contribuições são feitas por empresas de tecnologia

(não somente por indivíduos).

É comum – e incorreto – afirmar que OSS represente o fim de

todo software de código fechado. Isso não acontece, devido

à tendência de que inovações continuem a ser abordadas em

um modelo fechado. Imagine um mundo

hipotético que ainda não conhece editores

de planilhas. É natural que, ao lançar esse

produto, seu inventor opte pelo modelo

de código fonte fechado, para maximizar

seus lucros através do total controle de

sua invenção.

Contudo, à medida que essa invenção se

populariza e cria um mercado de usuários

e potenciais concorrentes, a abordagem

em modelo OSS surge como uma das

formas – a mais inovadora – para repensá-la.

OSS inova ao reimplementar o que outros

inventaram e exploraram anteriormente.

Recentemente, porém, a industria começou

a lançar alguns produtos baseados em

modelo OSS, justamente pelo seu poder de

agregar comunidade e criar ecossistemas.

Open SourceAvi Alkalay

Page 171: 100 Mini Papers sobre tecnologia

Dezembro, 2006

170 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Outro conceito infundado é acreditar

que quando o software em si é gratuito,

eliminam-se por completo os gastos.

Sempre haverá a necessidade de um

suporte confiável. O modelo OSS desloca

o eixo do valor agregado do software,

movendo-o do software em si (geralmente

sem custo de licença), para o serviço de

suporte.

No processo de amadurecimento de

software, a diferença básica entre OSS e

software de código fonte fecho está no

fato de que um fornecedor de software no

modelo comercial terá que criar estrutura

e suporte regional antes de vender seu

produto. Já no OSS, ofertas de suporte

só surgirão (espontaneamente) depois

de ele atingir uma boa gama de usuário.

Entretanto, seja qual for a ordem, um dos

principais fatores para garantir maturidade

a qualquer software ou produto á um ciclo

de desenvolvimento – uso – suporte, que

estimule mais desenvolvimento. Somente

essa maturidade garante a aceitação do

produto em escala corporativa. Exemplos

bem conhecidos são OSSs como Linux,

Apache HTTP Service, OpenOffice.org,

Samba, e outros que já usufruem desse

processo cíclico de uma forma global e

corporativa.

Hoje, OSS tem aplicações mais maduras

em infraestruturas e em alguns nichos

de middleware. Por sua vez, os software de código fonte

fechado apresentam maior desenvoltura mercadológica

nas funcionalidades de maior valor agregado ao negócio

(ERPs, CRMs ou processos empresariais). Isso porque essas

funcionalidades têm uma amplitude menor de usuários, o que

inviabiliza o surgimento de suporte espontâneo – fator vital para

a maturidade do OSS.

Portanto, devemos usar código fonte aberto ou fechado? O

ideal é pensar e insistir sempre que possível no uso de padrões

abertos – mais do que se preocupar só com o código – e

buscar um balanço saudável entre ambos. Os padrões abertos

garantem interoperabilidade entre camadas de aplicações, e

ampliam as escolhas, liberdade, e por consequência, poder de

negociação de uma empresa para compor a melhor combinação

madura no momento.

Page 172: 100 Mini Papers sobre tecnologia

Dezembro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 171

O modelo de arquitetura orientada a serviços, comumente

conhecido por SOA, quando implementado adequadamente,

pode trazer significativos ganhos no desenvolvimento de

sistemas, além de melhor time-to-market para as áreas de

negócio. Basicamente, a possibilidade de reaproveitamento

dos diversos sistemas, disponibilizados como serviços, permite

no decorrer do tempo que sua integração com novas aplicações

seja mais eficiente e rápida.

O conceito do modelo desta arquitetura é bem simples. De

um lado há aplicações provedoras de serviço que expõem e

executam tarefas específicas, tais como consulta ao saldo do

cliente, análise de risco de crédito, reserva de passagem aérea,

consulta de pedido de compra ou emissão de relatório de

vendas; do outro, há aplicações consumidoras desses serviços,

que tanto podem ser outros serviços, quanto sistemas ou

usuários finais.

Mesmo por essa descrição resumida, fica evidente a necessidade

de um componente que seja responsável pela comunicação

entre consumidores e provedores de serviços. Esse componente

chama-se Enterprise Service Bus (ESB).

Há quem diga que o modelo SOA possa ser implementado sem

essa camada, porém, por aumentar a complexidade da lógica

tanto dos consumidores quanto dos provedores de serviço e não

oferecer a transparência e facilidade de chamada e execução

dos serviços, esse seria um modelo muito mais parecido com o

Enterprise Application Integration (EAI).

Uma das grandes vantagens do ESB é abstrair a complexidade

de integração entre consumidores e provedores de serviços,

permitindo que sistemas e tecnologias

heterogêneas possam ser integradas, sem

forçar que desenvolvedores de sistemas

precisem ter profundos conhecimentos

das facilidades e protocolos de integração.

A arquitetura de referência da IBM para

SOA contempla essa camada de integração

e, assim como outros fornecedores de

TI, oferece produtos de infraestrutura de

software desenvolvidos especificamente

para implementar o ESB. A adoção deste

ou daquele produto depende do escopo

do projeto que será implementado.

Algumas das funcionalidades providas por

uma camada ESB devem ser: a localização

e a identificação dos provedores de

serviço, a distribuição de mensagens entre

consumidores e provedores de serviços, a

Enterprise Service Bus: via expressa para SOAJosé Carlos Milano

Page 173: 100 Mini Papers sobre tecnologia

Dezembro, 2006

172 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

conversão de protocolos de transporte e a

transformação de formato de mensagens.

Os sistemas e aplicações de negócio atuais

executam essas funcionalidades típicas de

infraestrutura, o que significa que, boa

parte do esforço dos desenvolvedores

está concentrado em questões que nada

têm a ver com as regras de negócio

propriamente ditas. Esse fato, por si só,

torna mais complexos o desenvolvimento

e a manutenção dos sistemas e requer

desenvolvedores com bons conhecimentos

de infraestrutura do ambiente, o que

encarece o custo da mão de obra por

causa da curva de aprendizado mais lenta.

Dependendo da granularidade dos

serviços definidos pelo modelo SOA, é

possível fazer com que o ESB controle

até mesmo o fluxo de execução das

transações de negócio, ou seja, o ESB

passa a ter a inteligência de determinar

quais componentes de serviço precisam

ser executados, em qual ordem, quais

ações serão tomadas de acordo com um

resultado a execução etc. Ao consumidor

de serviços, basta pedir a execução ao

ESB.

Portanto, o ESB permite maximizar a

flexibilidade esperada de uma arquitetura

orientada a serviços. Consumidores e

provedores de serviços não se conectam

diretamente, mas sim por interações com

o ESB. Quando um consumidor de serviço se conecta ao ESB,

esse assume a responsabilidade por realizar o serviço requerido,

independente da existência de disparidade de protocolos,

formato de mensagens, linguagens de programação, localização

das partes. Por sua vez, o provedor de serviços responde ao ESB,

sem mesmo saber onde o pedido de execução teve origem.

Portanto, o ESB funciona como uma grande via expressa

gerenciando os recursos necessários para a adequada execução

de serviços em um modelo SOA.

Para saber mais

http://www.ebizq.net/hot_topics/esb/

http://www.ibm.com/soa

http://w3-103.ibm.com/software/xl/portal/!ut/p/ _s.7_0_A/7_0_

2E6?nb=br&ni=soabrand&e=soabrand

Page 174: 100 Mini Papers sobre tecnologia

Novembro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 173

Este mini paper começa parecendo que só interessa aos

membros do Technology Leadership Council (TLC) da IBM

Brasil. E termina parecendo que só interessa aos nossos clientes

e à gente de fora em geral. A ideia é exatamente essa. Criar um

momento em que um lado se comunique com o outro e os dois

entrem em perfeita sinergia. O resto acontece assim... quase

espontaneamente.

Nosso TLC caminha para completar dois anos. E, nesses dois

anos, já nos acostumamos com ele. Tanto que podemos até ter

esquecido que, de fato, ele significa “Conselho de Liderança

Tecnológica”. A ele pertencem pessoas que acreditam,

sobretudo, na Ciência. E que sabem como produzir tecnologia

a partir da Ciência ou, pelo menos, entender a tecnologia que

outros produziram a partir da mesma Ciência. Essas pessoas

também sabem como usar a tecnologia produzida a partir

da Ciência. Ao extraírem da tecnologia o benefício do uso,

fazem com que essa resulte em inovação. Que só faz sentido

se melhorar a vida das pessoas. E se melhorar a produção das

empresas onde estão as pessoas.

Melhorar a produção passa por melhorar a rentabilidade, a

competitividade e até a sobrevivência ao longo do tempo.

No espaço dos parágrafos anteriores percorremos um longo

caminho da civilização universal. Fomos da crença na Ciência

ao melhor resultado das organizações produtivas. Um trajeto

milenar, percorrido em poucas linhas. Mas o mais importante

é deixar claro que são poucas as pessoas que de fato sabem

percorrer esse caminho sem se perderem ao longo do trajeto.

E menos ainda são os que conseguem levar para dentro das

organizações produtivas os avanços

da Ciência sob a forma de tecnologia

inovadora. E aí, “organizações produtivas”

quer dizer nossos clientes. Ao ter sucesso

nesse processo, atingimos o que hoje se

chama de “agregar valor ao negócio”,

ainda que os que usam esse clichê mal

sabem da enorme distância percorrida

entre a crença na Ciência e o tal do “valor

agregado”.

Agregar valor e ser relevante para os

negócios da IBM Brasil tem sido a pedra

fundamental do nosso TLC. Os resultados

são às vezes melhores, às vezes nem tanto,

mas o balanço geral é, sem dúvida, muito

bom. Bom porque nos deu chance de

professar abertamente a nossa crença.

Bom porque nos permitiu alinhar o

Ciência, tecnologia, inovação, produção, nós e... vocêsFábio Gandour

Page 175: 100 Mini Papers sobre tecnologia

Novembro, 2006

174 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

produto de tanta fé aos objetivos da nossa

empresa.

Portanto, comente essa história de muitos

milênios sintetizada em apenas dois

anos de TLC. Leve essa história para o

seu colega, para os nossos clientes e até

para os seus familiares. A todos eles, diga

que aí está alguém que sabe percorrer os

caminhos que vão da Ciência ancestral à

tecnologia sedutora que, quando usada

adequadamente, produz inovação e

agrega valor.

A você que é ou quer ser membro do TLC,

exponha-se ao risco e aceite ser desafiado

para propor a melhor fórmula inovadora

em cada caso. A fórmula que seja capaz

de melhorar a produção, a rentabilidade,

a competitividade e a sobrevivência ao

longo do tempo. Você sabe que, apesar

das muitas definições para inovação, nada

que não for científico, nada que não for

técnico e nada que não for usado poderá

ser inovador.

Agora, uma sugestão a quem receber

este documento: dê atenção a quem fez

esse papel chegar às suas mãos! Não se

contente em apenas aceitar e agradecer.

Questione o conteúdo, discuta a validade

e desafie o cara. Afinal, ele é membro

do TLC da IBM Brasil e fará questão

de merecer a chance que você, leitor,

lhe oferece de demonstrar sua crença

na Ciência e sua aptidão em criar a inovação que funcione a

serviço das pessoas na sua empresa. E por isso, você merece

os parabéns!

Para saber mais

https://w303.ibm.com/academy/aotweb.nsf/

ContentDocsByTitle/Technology+Leadership+Council+-+Brazil

Page 176: 100 Mini Papers sobre tecnologia

Outubro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 175

Power Line Communications (PLC) ou Comunicações por Linhas

de Força, é uma nova tecnologia que permite a transmissão

de dados como Internet, Imagens e Voz utilizando os cabos de

energia elétrica já existentes para a distribuição de eletricidade.

Mas como é feita a transmissão de informações pela rede de

energia elétrica? Através de um equipamento especial chamado

Master ou Bridge, que é conectado à rede de de energia, logo

depois do transformador de eletricidade. Esse Master recebe

o sinal de rede de alguma tecnologia de banda larga (Cable,

ISDN, ADSL, Fibra Ótica, Rádio, entre outras) e o injeta nos

cabos de distribuição de eletricidade. Com isso, qualquer ponto

de energia elétrica, passa a ter capacidade de acesso à rede. A

conexão é feita com um modem de PLC, também conhecido

como CPE (Customer Premises Equipment), ligado diretamente

a um tomada elétrica e ao computador.

A tecnologia de PLC mais difundida atualmente já permite

velocidades de até 45Mbps. No entanto existe uma nova

geração que chega a velocidades de 200Mbps, duas vezes

mais rápida que a FastEthernet, tecnologia de rede local mais

utilizada nos dias de hoje.

Uma grande vantagem de PLC em comparação às tecnologias

atuais de redes é a utilização de instalações elétricas existentes,

dispensando obras e custos de cabeamento, especialmente

em locais onde este tipo de obra gera grandes impactos, como

hospitais, hotéis, museus, escolas, prédios históricos, entre

outros.

Outra aplicação de PLC é a distribuição de acesso à Internet

em condomínios, onde é contratado um provedor de Internet

banda larga, disponível na região.

Conecta-se o provedor a um PLC Master, e

este à rede elétrica do condomínio. Cada

apartamento precisa apenas conectar

um CPE em qualquer tomada elétrica e

ao computador. A utilização de PLC em

condomínios permite a chamada inclusão

digital, que é a disponibilização de acesso

à Internet para populações de baixa

renda. No estado de São Paulo já existem

projetos-piloto de condomínios populares

com Internet distribuída a todos os

apartamentos através de PLC, permitindo

assim acesso à Internet com baixo custo e

Power Line CommunicationsCarlos Lessandro Lopes Rischioto

Page 177: 100 Mini Papers sobre tecnologia

Outubro, 2006

176 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

melhor qualidade, quando comparado às

tradicionais linhas discadas.

Mas as aplicações de PLC não param na

disponibilização de conexões de Internet

de alta velocidade utilizando-se a rede

elétrica pré existente. Na verdade, essa

é apenas a aplicação mais tradicional

da nova tecnologia. PLC representa um

grande fator de inovação em aplicações

de Home Networking e Automação.

Além de distribuir conexões de Internet

aos vários cômodos da casa, sem qualquer

cabeamento especial, Home Networking

é uma tecnologia que ainda permite

a conexão de todos os dispositivos

eletroeletrônicos de uma casa em rede.

Por exemplo, o televisor pode utilizar

a Internet para atualizar a grade de

programação dos canais, o sistema de

iluminação da casa pode estar conectado

a um computador que programa o horário

para as luzes se acenderem ou apagarem,

a cafeteira e o micro-ondas podem ser

ligados automaticamente no momento

que o despertador toca.

PLC pode também ser utilizado

amplamente na área de automação. O

medidor de consumo de energia elétrica

de uma casa ou empresa pode estar

conectado à rede via PLC e enviar para

a companhia de energia os valores de

consumo, coletados mensalmente. O

mesmo pode ser aplicado ao medidor de água e gás. Assim, não

será mais necessária a visita de um funcionário às residências

para a leitura e coleta dos consumos.

Na Área Industrial são incontáveis as possibilidades de conexão

direta entre equipamentos eletroeletrônicos, sensores e

máquinas.

Para saber mais

http://www.cemig.com.br/plc

http://www.eletropaulo.com.br

http://www.powerlineworld.com

http://www.powerlinecommunications.net

Page 178: 100 Mini Papers sobre tecnologia

Setembro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 177

Cinco anos se passaram desde os atentados de 11 de Setembro.

Consequências políticas e sociais à parte, a constatação em TI

foi de que menos de 200 empresas das mais de 440 atingidas

tinham um plano de recuperação em caso de desastres (Disaster

Recovery Planning, ou DRP), com base no número de empresas

que formalmente declararam a situação de desastre e ativaram

os contratos de contingência com fornecedores de tecnologia

(fonte: “Disaster Recovery Planning”, de Toigo). Um plano de DR

é conceitualmente um conjunto de atividades com o objetivo

de reduzir a propensão à ocorrência de desastres e limitar os

impactos dos mesmos em processos críticos de negócios.

Apesar da evolução nas tecnologias de DR, dos altos custos de

indisponibilidade, que podem ultrapassar um milhão de dólares

segundo o Meta Group, e das exigências de normas regulatórias,

o mercado como um todo ainda não incorporou o plano de DR

no modus vivendi de negócios. Nos Estados Unidos apenas

2 entre 300 empresas participantes do evento de storage do

Gartner Inc.’s em 2006 afirmaram ter testes atualizados de SR.

Um plano de recuperação precisa ser revisado regularmente

para refletir o ambiente de TI, que é muito dinâmico. Ainda

nesse evento, verificou-se que 44% das empresas planejavam

ter um projeto de DR, 30% estavam em fase de implementação

de um processo nessa área e apenas 6% tinham o assunto

integrado aos seus objetivos de negócio (fonte: SearchStorage,

Jun/2006).

No Brasil, as instituições financeiras são as que mais investem

em soluções de DR (principalmente as que têm ações na

bolsa de Nova Iorque), mas poucas realizam testes regulares

de seus planos. Outras empresas que já

passaram por situações traumáticas de

indisponibilidade, ou filiais pressionadas

pelas exigências de suas matrizes no

exterior, priorizam os testes de contingência

como parte de seus negócios.

O grande inibidor para o DR é, sem dúvida,

o volume de desembolso. A infraestrutura

necessária para uma recuperação de

desastres vai desde o local para o segundo

site, infraestrutura de TI (servidores,

subsistemas de armazenamento, redes,

recursos de comunicação, sistemas

operacionais, produtos e bancos de

dados) até a demanda por recursos

humanos qualificados para elaborar,

manter e executar os procedimentos. O

plano de DR exige o envolvimento de toda

Desafios em Disaster RecoveryMárcia Miúra

Page 179: 100 Mini Papers sobre tecnologia

Setembro, 2006

178 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

a corporação, pois envolve os processos

de negócios e de TI, com o compromisso

de abranger todo o parque existente, além

de novos aplicativos que surgem a todo o

instante, para os quais há que se conciliar

disponibilidade e recuperação necessárias

com viabilidade econômica.

A divulgação de que uma empresa investiu

na solução de DR acaba representando

um risco por criar a falsa expectativa de

proteção contra indisponibilidades em

TI. Tal como uma apólice de seguros cuja

falta se percebe de forma traumática,

um plano de DR necessita de foco para

sair da prancheta, antes que a fatalidade

relembre de sua importância. No mundo

dos negócios pós-globalização (custos

reduzidos, recursos escassos e competição

agressiva) a ideia de um plano de DR ainda

pode soar como um luxo. O que significa

então inovar ou diferenciar-se em DR?

Michael Schrage do MIT, Massachusetts

Institute of Technology, afirma que

“inovação está relacionada com os

processos de adoção e implementação

de novos conceitos” e que “a habilidade

para resolver tecnicamente um problema

é muito diferente da capacidade de fazer

com que os clientes adotem a solução

proposta”. Sob esse ponto de vista, os

principais fornecedores de tecnologia

têm atualmente a habilidade de resolver

tecnicamente os problemas de DR, porém o desafio está em

fazer com que o cliente implante e use integralmente esses

novos processos.

Para a grande maioria das empresas, que ainda estão ensaiando

os primeiros passos em DR, há pouco valor agregado em

sofisticar as tecnologias de replicação. Para essas, inovar talvez

seja incluir e disseminar o básico: criação, teste, manutenção,

automatização e gerenciamento o plano, como processo de

negócio.

Page 180: 100 Mini Papers sobre tecnologia

Agosto, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 179

A crescente demanda de mercado por qualidade, por flexibilidade e

por redução de custos, somando às tendências globais de fusões de

empresas, tem criado uma complexidade nunca antes vista.

A competitividade e a eficiência das corporações dependem

primordialmente da definição de uma estratégia que guie todas as

linhas de negócio de forma harmônica. A grande questão que surge

após a definição dessa estratégia corporativa é como introduzi-la na

cultura organizacional e como executá-la de maneira eficiente em um

ambiente tão complexo.

A Tecnologia de Informação existe para facilitar e suportar a

operacionalização dessas estratégias de forma eficiente e consistente.

O que se espera é que as iniciativas de TI suportem a demanda das

áreas de negócio pelo alinhamento das respectivas estratégias.

Pela importância que TI assume nesse cenário, é imprescindível que o

CIO ou o CTO e suas equipes tenham uma visão global da empresa

para planejar corporativamente as iniciativas de TI. Isso é comumente

conhecido como arquitetura corporativa de TI ou Enterprise

Architecture (EA).

Conceitualmente Enterprise Architecture é um modelo utilizado para

planejar a arquitetura corporativa de TI por meio do mapeamento e

entendimento dos processos, sistemas, pessoas e tecnologias. Além

disso, provê uma visão única da arquitetura da empresa ao conciliar

as iniciativas, gerenciar o conhecimento, promover a padronização e

o reúso da tecnologia, facilitar integração e alinhar com os objetivos

principais da corporação.

EA ajuda a responder algumas questõves básicas e importantes:

• Quais são os processos de negócio de uma organização e

como TI os suporta?

• A arquitetura de TI atual suporta e

adiciona valor à organização?

• Como a arquitetura de TI está se

desenvolvendo para suportar a visão de

futuro da organização?

A criação e a manutenção de uma

Enterprise Arquitetura compreende as

seguintes fases:

Enterprise Architecture: planejando TI de maneira corporativaLuís Fernando Liguori

Page 181: 100 Mini Papers sobre tecnologia

Agosto, 2006

180 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

1. O entendimento da arquitetura de TI

atual, ou seja, um mapeamento da infra-

estrutura de hardware e de software,

das aplicações e das suas interfaces, dos

usuários dos sistemas, da governança

e dos processos de negócio. Essa visão

global permite identificar a criticidade de

cada de sistema e sua respectiva infra-

estrutura, em função da importância dos

processos de negócio que eles suportam.

Permite também identificar os serviços

comuns que podem ser compartilhados

entre as diversas áreas usuárias.

2. A definição dos princípios de TI da

organização, isto é, os ‘‘mandamentos’’

que irão coordenar a utilização e

implementação de soluções de TI dentro

da corporação. Os princípios garantem

que as novas iniciativas de TI sejam

criadas e suportadas de maneira integrada

e consistente, tendo como consequência

padronização e controle mais eficiente.

3. O entendimento da visão de futuro da

corporação e alinhamento com TI por meio

da não dentificação dos requerimentos

de negócio e de TI, das tendências da

indústria e da evolução tecnológica.

4. A criação de uma arquitetura de TI futura

tendo como base a atual, respeitando

os princípios definidos e atendendo aos

requerimentos identificados. A arquitetura

futura fornece uma visão de curto e de

longo prazo de TI,viabilizando uma análise de gaps e a definição

de um roadmap alinhado com o negócio.

A aplicação do modelo de EA é uma mudança na abordagem

de TI para inúmeras empresas, visto que a maioria pratica um

modelo de arquitetura de silos. EA traz grandes benefícios

organizacionais, operacionais e torna TI mais visível e justificável

para o negócio.

Em síntese, Enterprise Architecture compõe parte importante

do plano diretor de TI, que mostra onde uma corporação está,

define onde ela quer chegar e indentifica como chegar.

EA=>Arq.Futura=Arq.Atual+PrincípiosdeTI+Requerimentos

Page 182: 100 Mini Papers sobre tecnologia

Agosto, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 181

Começado como um projeto para levar o sistema operacional

Unix para a plataforma Intel, o Linux teve seu foco inicial voltado

para servidores. Havia um jargão entre os desenvolvedores, que

anunciava o “Linux for World Domination”. Com o passar do

tempo parecia que a profecia iria se realizar. O Linux proliferou

em servidores e é hoje um sistema operacional com grande

portabilidade, que roda em uma grande variedade de máquinas,

arquiteturas e processadores.

Mas nos desktops o Linux acabou não se difundindo da mesma

maneira. Para estudar esse fenômeno o Open Source Development

Labs (OSDL), consórcio criado para acelerar o desenvolvimento

do Linux, considerado a maior autoridade no assunto, criou o

Desktop Linux Working Group (DTL). A primeira atividade do

grupo foi definir qual o escopo do problema, ou seja, definir o que

é considerado desktop. A resposta foi uma classificação em cinco

tipos, que aqui será resumida em dois: de uso empresarial e de

uso doméstico. A principal diferença entre esses dois grupos é que

na utilização empresarial é possível ter um ambiente com escopo

definido e controlado, o que não ocorre na utilização doméstica,

onde é usual a instalação de placas e softwares específicos e

não comuns em grande escala. É importante ter em mente essa

diferença ao analisar os vários aspectos do problema.

Apoiados nas considerações do 4th Annual Desktop Linux Summit

e nos resultados da pesquisa Desktop Linux Survey podemos listar

os principais motivos para a dificuldade de proliferação do Linux

em desktops:

• Suporte a hardware: existe uma grande dificuldade para os

fabricantes de equipamentos, periféricos e dispositivos criarem

o suporte necessário no Linux. Hoje eles já

têm equipes montadas para desenvolver o

suporte para Windows que são, em muitos

casos, financiadas pela Microsoft. Essas

equipes teriam que ser aumentadas para

suportar também o Linux.

• Suporte a software e aplicativos: existe

um problema parecido com o da área de

Linux em desktopEsthon Medeiros

Page 183: 100 Mini Papers sobre tecnologia

Agosto, 2006

182 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

hardware, ou seja, a necessidade de ter

pessoas treinadas em Linux, nas equipes

de desenvolvimento, para adaptar

os softwares e aplicativos ao Linux. É

importante lembrar que os aplicativos

internos, aqueles desenvolvidos pela

própria empresa, também têm que

ser considerados. Outro aspecto é o

da compatibilidade de documentos

compartilhados entre usuários Linux e

não Linux. Os principais aplicativos de

escritório giram em torno de documentos

do Microsoft Office e de e-mails.

Esses documentos normalmente têm

formatos proprietários, o que dificulta

o compartilhamento entre usuários

de diferentes sistemas. A adoção

do conceito de Open Document

pelas empresas desenvolvedoras de

softwares pode resolver o problema,

mas enquanto isso não ocorrer em larga

escala, essa restrição existirá e será um

grande obstáculo à difusão do Linux no

ambiente de escritório.

• Diversidade do Linux: a diversidade

de distribuições Linux torna a

generalização do suporte a hardware,

software e aplicativos ainda mais

complexa.. A adesão dos distribuidores

ao padrão Linux Standard Base e ao

projeto Portland, que visa compatibilizar

os dois principais gerenciadores gráficos

do Linux, o KDE e o Gnome, devem resolver os problemas de

compatibilidade dos vários Linux.

Numa recente notícia da CNET News é mencionado que os

dois maiores distribuidores de Linux aguardam uma explosão

na adoção do Linux em desktops nas empresas. Ron Hovsepian,

Executivo Chefe da Novell, previu em abril que o Linux para

desktops vai entrar nos principais mercados nos próximos 12 a

18 meses. Já Alex Pinchey da Red Hat, não só concorda como

vê uma grande movimentação na área de desktops: “Começou

na Europa, onde as pessoas estão muito, muito insatisfeitas com

a Microsoft.” Atualmente existem várias distribuições do Linux

para o mercado com foco em desktops, entre elas Xandros,

Ubuntu, Novell Desktop, RedHat e Freespire.

A difusão do Linux em desktops em empresas é possível e

promissora, mas requer o treinamento dos usuários e da área

de suporte, e a definição de um escopo fechado de suporte a

hardware e aplicativos. O desafio mais forte é vencer a questão

cultural, pois as pessoas estão habituadas ao Windows e sempre

há uma resistência natural às mudanças.

Page 184: 100 Mini Papers sobre tecnologia

Julho, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 183

Conversas com CIOs e outros profissionais de TI mostraram que

muitos têm uma visão desatualizada dos mainframes e que ainda

pensam nessas máquinas como aqueles computadores imensos

e muito caros. Até algum tempo atrás isso era verdade. Mas

muitas mudanças vêm ocorrendo com essas máquinas. Segundo

analistas de indústria, nos últimos quinze anos o custo por MIPS

já caiu dezenas de vezes com consequente redução de custo

por usuário. Como resultado, hoje os mainframes são máquinas

que apresentam uma relação custo-benefício atraente. E porque

não aproveitar essa oportunidade para reciclar algumas das

ideias pré-concebidas e errôneas sobre estes sistemas?

Uma pesquisa na Internet em sites de publicações especializadas

retorna alguns números que demonstram a importância dos

mainframes para o mundo da computação:

• Mais de 80% de todas as transações eletrônicas globais são

processadas em mainframes;

• Mais de 95% dos dados mundiais de sistemas financeiros e

de seguros são processados por mainframes;

• O valor do portfólio mundial de aplicações em mainframes é

estimado em mais de um trilhão de dólares;

• Estima-se que existam em produção entre 150 e 175 bilhões

de linhas de código Cobol;

• O CICS processa mais de 30 bilhões de transações por dia,

representando um valor de negócios equivalente a um trilhão

de dólares por semana;

• Mais de 900 mil profissionais têm seu salário pago por

atividades de manutenção e desenvolvimento de aplicações

Cobol e CICS.

O mainframe é muito utilizado nos

sistemas legados, que são de grande

importância para as empresas, pois as

mantêm operando e gerando receita. Mas,

além disso, onde mais o mainframe é e

pode ser utilizado?

Uma aplicação que vem despertando

muito interesse é o uso como consolidador

de sistemas Linux. Muitas empresas

exploram os recursos de virtualização

dos mainframes para centralizar nessas

máquinas as centenas de pequenos

servidores Linux que estão espalhados

pela corporação, reduzindo sensivelmente

os custos de gerenciamento desse

ambiente distribuído.

Existe também um novo posicionamento

estratégico para os mainframes, o de

Por que mainframes?Cezar Taurion

Page 185: 100 Mini Papers sobre tecnologia

Julho, 2006

184 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

ser um hub no modelo SOA (Services

Oriented Architecture). O mainframe

está tecnologicamente bem aparelhado

em termos de segurança, confiabilidade,

disponibilidade, capacidade de

processamento e I/O e recursos de

virtualização para se tornar o elo central

da infraestrutura para a computação

colaborativa, cerne do modelo de negócios

On Demand. Além disso, o mainframe,

por sua capacidade computacional é

um servidor de dados por excelência,

suportando aplicações intensivas em I/O

como as de Business Intelligence.

Com os recursos de Linux, Java e SOA não

é mais necessário mudar de plataforma

para modernizar as aplicações legadas que

rodam nos mainframes. O investimento

no conceito de aplicações como serviços,

explorando a imensa base de aplicativos

que suportam os processos de negócios

de muitas grandes empresas, com certeza

aumentará a potencialidade e valor dos

sistemas.

Enfim, toda essa evolução fez com que

esses sistemas que apareceram pela

primeira vez há mais de quarenta anos

continuem vivos e tendo um papel

importante.

Page 186: 100 Mini Papers sobre tecnologia

Junho, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 185

Além de eficiência operacional, os CIOs buscam cada vez

mais aprimorar a qualidade dos serviços e a satisfação de seus

clientes, como forma de agregar valor ao negócio. O artigo de

Henderson e Venkatraman “Strategic alignment: leveraging

information technology for transforming organizations” (IBM

System Journal, volume 38, números 2&3, 1999 http://www.

research.ibm.com/journal/sj/382/henderson.pdf) propôs

um framework em que identifica quatro principais maneiras

de alinhar estrategicamente TI com negócio. Usar TI como

prestadora de serviços é uma dessas formas, conforme

representado na figura.

Nessa abordagem, o CIO deve definir a estratégia de

tecnologia levando em conta o mercado de TI, num contexto

externo à empresa. Sua equipe deve considerar três aspectos

principais. O primeiro é o escopo, ou seja, a escolha das

tecnologias que estão disponíveis no mercado e suportam os

negócios correntes e futuros. O segundo são as competências

sistêmicas, atributos que contribuem na criação de novas

estratégias de negócios. O último é governança, que são os

mecanismos que possibilitam a otimização e preservação das

competências sistêmicas.

Considerados esses três aspectos, o passo seguinte é definir

a infraestrutura interna: os skills de TI e a arquitetura e

processos dos sistemas de informação.

O alinhamento termina com a consideração da visão interna

do negócio, ou seja, as demandas das áreas de negócio

por sistemas de informação. Demanda que é gerada pela

estratégia de negócios da empresa.

Por isso, o modelo de prestação de

serviço é, usualmente, baseado em um

portfólio de produtos, visto como um

catálogo de serviços com os respectivos

acordos de níveis de serviços (SLAs) e

custos associados. Por um lado, as áreas

usuárias passam a planejar os recursos de

tecnologia que irão demandar, contando

com custos mais precisos. Por outro lado,

a área de TI passa a conhecer quais são

os serviços, os resultados a entregar e qual

o valor que pode agregar ao negócio.

Ou seja, estrutura-se um modelo de

relacionamento transparente entre as

linhas de negócio e TI.

Outra consequência é que a performance

de TI não é medida apenas pelo custo, mas

também pela satisfação de seus clientes.

TI e negócios alinhados por meio da prestação de serviçosJosé A.A.A. Reguera

Page 187: 100 Mini Papers sobre tecnologia

Junho, 2006

186 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

O papel do CIO também muda para o de

um “executivo de serviços” que necessita

entender e satisfazer seus clientes.

Entretanto, a implementação desse

modelo enfrenta várias dificuldades: a

maturidade e os skills dos recursos de

TI, a complexidade para a definição de

métricas de cobrança, a associação dos

custos de TI às métricas definidas, os

custos fixos, a incompatibilidade entre os

requerimentos de flexibilidade alta e de

custo baixo, além do nível de cobrança

existente nas organizações internas.

Nesse contexto um outsourcing

estruturado por meio de um catálogo de

serviços, alinhado com as necessidades

das linhas de negócios, pode facilitar a

implementação de uma TI provedora de

serviços.

Independentemente do tipo de sourcing

escolhido, estão disponíveis no mercado

diversos padrões e conjuntos de melhores

práticas de gestão que ajudam na

implementação de um modelo eficiente

de prestação de serviços. O já tradicional

ISO 9000 da International Organization for

Standardization é um padrão de qualidade,

e seu propósito é criar, melhorar e avaliar

a efetividade de um sistema gerencial de

uma organização.

Um dos mais populares padrões no

mercado, o ITIL (IT Infrastructure Library)

do Office of Government Commerce do governo do Reino

Unido, é uma coletânea de melhores práticas de gestão de TI.

Seu objetivo é ajudar a criar ou melhorar as capacidades de

gerenciamento de serviços de TI.

O eSCM-SP (eSourcing Capability Model-Service Provider),

desenvolvido por um consórcio liderado pela Carnegie Mellon

University, é um modelo de capacidade que propõe a criação,

melhoria e avaliação das capacidades de provedores de

serviços de TI em atenderem às necessidades de seus clientes.

O eSCM-CL é um modelo complementar destinado aos clientes

de terceirização.

Finalmente, o COBIT (Control Objectives for Information

and related Technology) da Information Systems Audit and

Control Foundation (ISACF) e do IT Governance Institute é um

modelo de auditoria e governança de TI. Sua popularidade

tem aumentado porque ele provê mecanismos de controle que

ajudam a satisfazer requerimentos do Sarbanes-Oxley Act of

2002 (SOX).

A implementação de uma TI prestadora de serviços não é uma

solução que se aplica a todos os casos, mas pode ser muito

apropriada para várias empresas. A escolha é estratégica e deve

ser continuamente revisada para refletir o posicionamento da

empresa em relação ao negócio e à TI.

Page 188: 100 Mini Papers sobre tecnologia

Junho, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 187

Já foi o tempo em que bastava ir a uma biblioteca ou, até

mesmo, juntar recortes de jornal, para que um estudante

pudesse fazer um trabalho de pesquisa para a escola. Nos dias

atuais, é necessário compilar informações de diversas fontes.

Como resultado a demanda por espaço para o armazenamento

de dados é crescente nos mais diversos meios tais como disco

rígido, CD ou cartão de memória.

Da mesma forma, numa escala maior, as empresas vem

experimentando um crescimento exponencial na quantidade de

informação que geram e utilizam na operação do seu negócio.

O crescimento anual de dados, estimado em 64% ao ano

segundo o ESG Impact Report™ (Compliance: The effect on

Information management and the storage industry), tende a ser

ainda maior nos próximos anos. Além da demanda crescente

por armazenamento de dados provocada pela necessidade

de cumprir legislações e normas diversas, novas tecnologias

tais como Web Services e XML, introduzidas pela arquitetura

orientada a serviços (SOA), tendem a causar uma enorme

proliferação da informação, conforme exposto na matéria “21st

Century Information Degradation” da Forum Systems de junho

de 2005.

Com todas essas mudanças, a demanda por hardware

de armazenamento chegou a um ponto em que se tornou

imprescindível a introdução de procedimentos que permitam

manter as informações necessárias com o menor custo possível.

Para endereçar esse problema surgiu o ILM (Information Lifecycle

Management), um modelo de referência definido pelo SNIA

(Storage Networking Industry Association), entidade que dita os

padrões abertos para a área de storage.

Esses padrões podem ser resumidos em um

conjunto de políticas, processos, práticas e

ferramentas utilizados para alinhar o valor

da informação para o negócio com o custo

de infraestrutura de TI mais apropriado,

desde o momento em que a informação é

criada até o seu descarte.

Para tanto, as principais disciplinas

desenvolvidas em ILM são o gerenciamento

de conteúdo (ferramentas para arquivamento

de e-mails, políticas de retenção de dados),

a proteção de dados (backup, recuperação)

e o gerenciamento hierárquico de storage.

Esse consiste na construção de camadas

que propiciem uma estrutura otimizada de

custos para o armazenamento de dados,

com as seguintes características:

Como conviver com tanta informação?Adelson Lovatto

Page 189: 100 Mini Papers sobre tecnologia

Junho, 2006

188 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

• informações críticas e valiosas para

o negócio devem ser armazenadas

em sistemas de discos que oferecem

excelentes níveis de serviço, com tempo

de resposta mínimo e alto nível de

proteção e espelhamento de dados;

• informações menos críticas para o

negócio, que necessitem de acesso on-

line mas não requerem um tempo de

resposta tão rápido e nem um esquema

de proteção entre localidades, podem ser

armazenadas em sistemas mais baratos;

• informações para as quais a lei

determine o arquivamento por vários

anos, sendo acessadas em operações que

não demandem o acesso imediato, podem

ser armazenadas em fita magnética.

Devido à natureza multidisciplinar de

projetos de implementação ILM, esses

devem ser conduzidos por equipes que

envolvam profissionais de tecnologia da

informação, usuários e, em alguns casos,

o departamento jurídico para definir, por

exemplo, o tempo legal de retenção dos

vários tipos de documentos.

O gerenciamento do ciclo de vida da

informação constitui uma iniciativa

estratégica para as empresas e transcende

as tecnologias ou produtos específicos,

embora esses possam ser usados como

ferramentas de automação de suas

políticas.

O mercado tem dedicado atenção ao gerenciamento da

informação devido à crescente demanda por storage e,

com isso, os produtos relacionados com o ILM ganharam

destaque. Entretanto não se deve esquecer que os serviços de

planejamento e implementação constituem peça fundamental

da estratégia de ILM.

Page 190: 100 Mini Papers sobre tecnologia

Maio, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 189

Transformar conhecimento tácito em conhecimento útil e

explícito continua sendo um desafio atual, apesar de discutido e

estudado há algumas décadas. Descobrir e fomentar as relações

interpessoais que fazem o conhecimento fluir nas organizações,

facilitar a localização de um determinado conhecimento e até

mesmo organizar e classificar informações, fazem parte de uma

implementação de práticas de gerenciamento de conhecimento.

Uma das abordagens utilizadas por empresas que buscam eficiência

nesse gerenciamento é a implementação de uma taxonomia

corporativa, ou seja, um conjunto de regras de classificação

da informação. Os desafios são significativos. Definir e manter

uma taxonomia formal, são provavelmente, o maior deles. É

necessário ao menos uma equipe de especialistas, ferramentas, e a

estruturação de bancos de informações que suportem a associação

de categorias à informação. O projeto deveria incluir todos os

documentos (compartilhados ou não), páginas da Intranet, Internet

e Extranet, formulários, além de outros componentes que muitas

vezes são negligenciados no processo.

Começa a surgir na Internet uma possível alternativa às taxonomias

formais. Seu objetivo inicial não é endereçar os mesmos problemas

e sequer se apresentar como solução corporativa. O conceito de

folksonomy (folksonomia num anglicismo para este termo, que

ainda não existe em português) pode ser uma alternativa para

muitos dos desafios corporativos no terreno de gerenciamento de

conhecimento.

Uma folksonomia é uma taxonomia gerada não por um grupo

de especialistas, mas pelos próprios usuários das informações.

Não há a especificação formal associada a uma taxonomia. A

natureza da classificação de informações,

ao invés de estática, é altamente dinâmica.

Basicamente, um usuário associa

‘‘etiquetas eletrônicas’’ (tags) a uma

determinada informação compartilhada,

criando um rótulo para o conteúdo. A

análise da frequência com que uma tag é

associada a uma informação por diferentes

Os novos rumos da gerência de conhecimentoMário Costa

Page 191: 100 Mini Papers sobre tecnologia

Maio, 2006

190 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

usuários torna-se a chave para classificá-la,

determinando quais etiquetas melhor as

descrevem.

Nesse contexto, é interessante observar

que a associação de tags é parte

intrinsecamente natural do processo

mental de aprendizado, e que, portanto,

os seres humanos em geral se sentem

automaticamente familiarizados com

o conceito, acelerando sua adoção e

aumentando sua relevância.

A partir da análise de associação de

tags, outras informações úteis podem

ser extrapoladas, como, por exemplo,

identificar especialistas em um determinado

assunto, verificando a frequência com que

um usuário associa uma tag específica a

diferentes documentos.

Exemplos concretos de folksonomias

são encontradas em sites como delicio.

us (http://www.delicious.com) e Rawsugar

(http://www.rawsugar.com). Esses são

exemplos do que se denomina ‘‘social

bookmarking’’. Ao invés de armazenar

a lista de favoritos em seu browser, um

usuário arquiva seus links em um desses

sites. Ao armazenar um link, o internauta

associa a ele uma ou mais tags. A partir

daí, nas buscas por uma determinada

palavra, os resultados são classificados

com base do número de associações entre

essa palavra e os diversos site, ou seja,

a associação de tags gera uma folksonomia que é utilizada

posteriormente para a localização da informação.

Esse mesmo conceito entende-se a outras aplicações. O serviço

Flickr (http://www.flickr.com), por exemplo, utiliza folksonomia

para organizar um acervo de fotografias digitais compartilhadas

via Internet.

O Yahoo, através do seu serviço My Yahoo, não só suporta a

associação de tags a informações, mas também armazena essas

tags em um servidor central, explicitamente buscando a criação

de uma folksonomia.

A partir desses exemplos concretos da aplicação do conceito,

fica claro que se trata de uma nova maneira de criar, compartilhar

e acessar informações. Ainda é cedo para saber se a folksonomia

terá realmente um papel de destaque no mundo corporativo.

Mas é razoável supor que o conceito será expandido e aplicado

nas mais diferentes áreas, possivelmente dando origem a novos

modelos de negócio.

Page 192: 100 Mini Papers sobre tecnologia

Maio, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 191

Em 1991, Mark Weiser, então chief technology officer do

Xerox Palo Alto Reserch Center, publicou um artigo na revista

Scientific American, entitulado “The Computer for the 21st

Century”. Weiser previa que os PCs desapareceriam de nosso

olhar e passariam a fazer parte de todos os objetos, de forma

distribuída, integrada e onipresente. Surgiu, a partir daí, o

conceito de ubiquitous computing (ubíquo: que está ao mesmo

tempo em toda parte, onipresente).

O princípio da computação ubíqua consiste em embutir ou

integrar recursos computacionais ao ambiente. Seu objetivo é

permitir que lidemos com a tecnologia da informação de modo

mais natural. Assim, a computação ubíqua propõe uma terceira

onda no modelo de interação homem-máquina: uma pessoa,

muitos computadores. A primeira foi a dos mainframes (um

computador, muitas pessoas), seguida pela revolução dos PCs

(uma pessoa, um computador).

Algumas tecnologias surgem a partir desse conceito:

a) Pervasive Computing: traduzido como computação pervasiva

(o correto seria computação permeável), refere-se à propriedade

da permeabilidade dos sistemas ubíquos, hoje viabilizada por

tecnologias wireless;

b) Calm Technology: refere-se à propriedade da invisibilidade,

com a qual os computadores perdem seu estereótipo

convencional e o acesso a seus recursos ocorre de forma

transparente. Dessa maneira o usuário não se dá conta da

tecnologia, que pode estar embutida em seu PDA, no celular,

no relógio de pulso, na roupa, nos óculos e até mesmo no

próprio corpo; e,

c) Things that Think: é a capacidade

dos dispositivos ubíquos de adquirem

percepção, inteligência e interação entre

si, facilitando nossas vidas.

Sistemas ubíquos viabilizam a

implementação das chamadas aplicações

contextuais, que agregam aos dispositivos

a capacidade de detectar, computar e

agir a partir de mudanças de condições

do ambiente. O celular que se desliga

ao detectar que entrou em uma sala

de cinema é um exemplo de aplicação

contextual. Informações contextuais

incluem localização, sinais vitais, dados

pessoais, preferências de consumo, etc.

Na área de venda direta ao consumidor,

aplicações contextuais em dispositivos

instalados em uma loja poderiam identificar

Computação onipresente: ficção ou realidade?Antonio F. Gaspar Santos

Page 193: 100 Mini Papers sobre tecnologia

Maio, 2006

192 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

um consumidor em frente a uma prateleira

e ofertar produtos específicos (como em

algumas cenas de Minority Report).

Na área de saúde, estuda-se utilizar

wearable computers para a monitoração

de sinais vitais e interação com dispositivos

no ambiente. Assim, o usuário seria avisado

sobre condições nocivas à sua saúde.

Wearable computer e RFID estão entre as

tecnologias emergentes que viabilizam a

computação ubíqua.

Originário do MIT Wearable Computing

Project, o computador de vestir (em

uma tradução livre) é uma das maiores

promessas da indústria de computação

móvel. Trata-se de um computador portátil,

desenhado para ser usado junto ao corpo.

São geralmente integrados à roupa ou a

objetos de uso pessoal do usuário ou até

mesmo acoplados ao seu corpo.

RFID (Radio Frequency Identification)

é uma tecnologia que utiliza ondas

eletromagnéticas para identificar algo,

de forma única. Essa tecnologia é uma

alternativa inovadora em substituição aos

códigos de barras. Sua principal vantagem

é a de não requerer, para leitura, um

contato direto, ou direcionado. Etiquetas

RFID são chamadas inteligentes pois

podem prover outras informações além da

identificação única do objeto ao qual estão

associadas. Informações que podem ser

lidas e interpretadas por dispositivos dotados de computação

ubíqua (Things that Think). Dessa forma, um forno de micro-

ondas poderia se autoprogramar a partir das informações lidas

da etiqueta RFID da embalagem do alimento congelado. Outra

situação seria a abertura automática da porta de seu carro e

posterior partida do motor, a partir da leitura, pelo carro, de

uma cápsula subcutânea que contenha um circuito RFID.

O alcance dos sistemas ubíquos tende, portanto, a influenciar

nos modelos de negócios. A evolução do B2C (Business to

Consumer) para o T2T (Thing to Thing) é impulsionada pelo

lançamento de novos produtos e serviços de computação

ubíqua. A dinâmica do relacionamento de consumo passa,

portanto, a um esquema bidirecional: agora o produto ou o

serviço também pode encontrar o consumidor. Surge daí o

desafio de disponibilizar produtos e serviços adequados às

necessidades diretas de cada cliente preservando, ao mesmo

tempo, sua privacidade.

Para saber mais

http://researchweb.watson.ibm.com/journal/sj38-4.html

http://www.ubiq.com/hypertext/weiser/UbiHome.html.

Page 194: 100 Mini Papers sobre tecnologia

Abril, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 193

De acordo com a pesquisa “As atitudes dos gerentes de TI

da América Latina em relação à segurança da informação”,

encomendada pela IBM e Cisco Systems em 2005, 71% das

empresas classificam a segurança como prioridade alta e 15,4%

em média da verba de TI é investida em segurança. E em se

tratando de segurança corporativa, os três As, autenticação,

autorização e auditoria são essenciais a qualquer discussão.

Mas o que são exatamente esses três temas? E qual a sua

influência no dia a dia dos usuários e nas áreas que dão suporte

à segurança?

Quando você tenta acessar seu correio eletrônico, verificar sua

conta bancária ou fazer uma compra em uma loja virtual, a

aplicação precisa saber quem você é. Para isso são utilizados

mecanismos de autenticação. Autenticar significa provar

que você é você mesmo, ou seja, identificar o usuário para a

aplicação.

Existem diversas maneiras de se autenticar. Uma delas é usar

algo que você sabe, como por exemplo, uma senha. Outra

é utilizar algo que você possui, como um certificado digital.

Pode-se ainda usar algo que você é como sua impressão digital

ou o padrão de sua retina. E finalmente executar alguma ação,

como um gesto ou uma sequência de movimentos próximos a

um sensor.

Após se autenticar, você efetivamente poderá fazer o que

deseja como consultar o extrato no banco, ler e enviar e-mails

ou realizar uma compra. Mas existem limites para as ações

que você pode executar. Por exemplo, você não poderá ver o

extrato bancário de outras pessoas ou realizar pedidos em nome

de terceiros. Nesse momento entram os

mecanismos de autorização.

Autorizar, aqui, significa definir quais

são as permissões que você possui no

sistema, ou seja, quais ações podem ser

executadas. Dependendo de quem é o

usuário e do que ele está tentando fazer, a

autorização é concedida ou não.

Autorização é o que impede um

funcionário de ver o salário de seus

companheiros quando está no sistema

de recursos humanos. É o que permite

que um gerente veja as avaliações de

seus funcionários, mas não veja as de seus

chefes. Normalmente, a autorização é

baseada na função que o usuário exerce

(por exemplo, gerente, comprador), em

alguma característica da aplicação (por

Os três as da segurançaMarcus Vinicius Itala Ferreira

Page 195: 100 Mini Papers sobre tecnologia

Abril, 2006

194 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

exemplo, pedido maior que R$ 5.000,00)

e no tipo de ação que o usuário deseja

executar (por exemplo, ver extrato, colocar

pedido).

Após algum tempo, pode ser necessário

acessar um histórico de quem fez o quê

e quando. Para isso, os mecanismos de

auditoria são utilizados. Esses mecanismos

armazenam registros ou logs das

operações realizadas, ou seja, quem fez,

o quê fez, quando fez e se foi autorizado a

fazê-lo. Dessa forma, pode-se ter uma ideia

de como o sistema é utilizado, se alguém

tentou fazer algo que não deveria e se foi

bem sucedido nessa tentativa. A auditoria

também é utilizada para provar que

empresas estão de acordo com padrões

de mercado ou com exigências de órgãos

governamentais de regulamentação.

Com o uso de autenticação, autorização e

auditoria os sistemas ficam mais seguros,

pois os usuários têm acesso apenas

às aplicações e funções pertinentes e é

possível provar quem fez o quê e quando.

Esses pontos são fundamentais para a

segurança de qualquer ambiente de TI

corporativo.

Devido às regulamentações de governo

e à necessidade de proteger o capital

intelectual, as empresas têm investido

muito nos três As. Um exemplo atual é

a obrigatoriedade, para empresas com

negócios nos Estados Unidos, de se adaptar à lei Sarbanes-

Oxley (SOX). Ela requer a implementação de controles que

limitam a manipulação de determinadas informações a pessoas

autorizadas, e determinam o armazenamento de registros de

auditoria sobre quem manipulou a informação e qual ação foi

realizada.

Outro exemplo é a crescente utilização de mecanismos de

autenticação do tipo biométrico (leitor de impressão digital ou

scanner de retina) e o uso de certificados digitais. O objetivo é

aumentar o nível de segurança no acesso às aplicações além da

tradicional dupla usuário-senha.

As oportunidades de negócio provenientes da aplicação dos

três As são inúmeras: implementação e gestão de mecanismos

de autenticação mais fortes, de métodos centralizados de

autorização para facilitar auditoria, de sistemas para geração

e armazenamento de registro de auditoria, de sistemas de

gerenciamento de identidade e de sistemas de controle de

acesso. Mas isso é uma outra história...

Page 196: 100 Mini Papers sobre tecnologia

Abril, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 195

Existe hoje uma avalanche de informações sobre SOA (Service

Oriented Architecture, ou Arquitetura Orientada a Serviço). Os

clientes, a IBM e os concorrentes falam extensivamente sobre o

assunto e todos querem de alguma forma obter proveito desse

modelo. O Gartner prevê que até 2008, SOA será utilizada em

80% dos projetos de desenvolvimento de novos aplicativos.

Uma pesquisa da Forrester de 2004 indicou que organizações

que adotaram uma arquitetura orientada a serviço reduziram no

curto prazo seus custos de desenvolvimento e manutenção em

cerca de 30%.

Mas o que é SOA? Como o próprio nome diz, é uma arquitetura

que permite que novas aplicações sejam criadas a partir da

combinação de funcionalidades chamadas de serviços. Esses

serviços podem ser novos desenvolvimentos ou até serem

criados a partir da exposição de funcionalidades de aplicações

existentes. Uma vez criado, um serviço pode ser reutilizado

ou recombinado na construção de diferentes sistemas. A

cada novo sistema implementado o número de componentes

disponíveis tende a aumentar. Com a reutilização dos serviços

o esforço para desenvolver os próximos sistemas diminui. Uma

boa analogia são os blocos de montar. É possível combinar

blocos de diferentes formas e cores para criar castelos, carros,

barcos, entre outros. Os serviços comparam-se aos blocos e as

aplicações às combinações geradas ao juntá-los. Assim como

os mesmos blocos criam as mais variadas formas, os mesmos

serviços criam as mais diversas aplicações.

Uma aplicação criada a partir da combinação (ou orquestração)

de serviços é chamada de composite application. Sob outro

ponto de vista, uma aplicação composta

implementa um processo de negócio.

É desse modo que o uso de SOA

possibilita flexibilizar a implementação e

a manutenção de processos de negócios.

Em última instância é um meio que

permite traduzir para a área de tecnologia

os objetivos e necessidades das áreas de

negócios. Ao criar um novo sistema, TI

verifica os serviços já existentes e quais

novos serviços devem ser criados para

suportar o novo processo de negócios.

Um ponto chave dessa arquitetura é o

conceito de granularidade do serviço.

Se o serviço executar uma função muito

específica ou muito abrangente fica mais

difícil reutilizá-lo. Um serviço deve refletir

a tarefa de negócios a ser implementada,

Arquitetura orientada a serviçoCíntia Barcelos

Page 197: 100 Mini Papers sobre tecnologia

Abril, 2006

196 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

por exemplo, “checar o crédito de um

cliente”. Portanto, a boa análise dos

serviços é um ponto crítico para que a

solução tenha os retornos esperados.

Um serviço pode ser implementado em

qualquer linguagem de programação e em

qualquer tipo de servidor, contanto que

tenha uma interface bem definida para

ser utilizado. A interação com um serviço

é similar à interação com um garçom no

restaurante. O garçom é o intermediário

entre o cliente e as áreas internas do

restaurante. Para o cliente, a forma como

ele faz a requisição ao cozinheiro não é

importante, mas sim que o pedido seja

atendido corretamente.

Muitas empresas atuais são resultantes

de múltiplos processos de fusões e de

aquisições. Possuem sistemas legados que

já consumiram muito investimento e que,

do ponto de vista técnico ou financeiro,

não devem ser descartados da noite para

o dia. Portanto esses sistemas necessitam

ser integrados às novas aplicações. Com o

uso de SOA, as funcionalidades existentes

podem ser aproveitadas e novas aplicações

podem ser criadas por meio da técnica de

composição.

Por que toda essa revolução agora,

uma vez que reutilização de código não

é um assunto novo? Uma das respostas

é a adoção de padrões abertos como,

por exemplo, os Web Services, comumente utilizados para

a implementação de serviços. O uso de um mesmo padrão

por todos os fornecedores é um meio poderoso para se

promover a integração entre sistemas díspares. Uma segunda

resposta é que têm sido estabelecidas áreas de governança de

serviços, responsáveis por cuidar de forma corporativa desses

componentes, assim como já fazem os administradores de

bancos de dados. Outro ponto importante é a possibilidade de

realizar a conexão dinâmica de serviços, ou seja, descobrir em

tempo de execução quem pode prover determinada função.

Como analogia, o ato da consulta às páginas amarelas para se

descobrir que empresa pode prestar um determinado tipo de

serviço.

Em resumo, SOA permite integrar aplicativos de forma mais

rápida, reduzir custos e tempo de desenvolvimento. Também

oferece maior flexibilidade para a área de TI dando-lhe agilidade

em resposta aos novos requerimentos da área de negócios em

um ambiente On Demand. Mais informações sobre SOA estão

disponíveis no endereço http://www.ibm.com/soa.

Page 198: 100 Mini Papers sobre tecnologia

Março, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 197

Grid computing ou computação em grade é uma forma de

utilizar computadores heterogêneos para processar informações

em paralelo, independente de plataforma física de hardware,

sistemas operacionais ou localização geográfica. Essa tecnologia

pode ser utilizada para o processamento de aplicações que

exigem muitos recursos de CPU tais como análise de cadeia

de proteínas e de DNA, simulações de explosões de bombas

atômicas, prospecção sísmica e análises geológicas. Também

é empregada em aplicações comerciais de análise financeira

de carteiras de investimentos e de ações, de cálculos de riscos

financeiros, de cálculos atuariais e de prospecção de dados.

A característica principal do Grid é permitir que problemas

computacionais que necessitem de cálculos sofisticados e

complexos sejam executados em tempo hábil para a tomada

de decisão ou obtenção de uma informação. Para tanto, utiliza

um middleware responsável por distribuir aplicações em uma

grade de processamento, por controlar a distribuição da carga

de trabalho e por agregar os resultados após a execução.

Sem Grid, as aplicações ficam restritas a rodar em uma

única máquina de configuração máxima, sob o mesmo

sistema operacional e compartilhando a mesma memória,

ou em servidores configurados em cluster dependendo das

implementações disponíveis. Com Grid, essas barreiras deixam

de existir, pois equipamentos e sistemas operacionais distintos

são utilizados para criar uma imagem única de sistema.

Ao longo dos últimos anos as empresas adquiriram grandes

quantidades de computadores pessoais e de servidores

departamentais, com a preocupação de dar ao usuário final

agilidade no processamento de suas

necessidades computacionais. Esses

equipamentos acabam ficando na maior

parte do tempo ociosos. Utilizar melhor

esses recursos é uma grande preocupação

dos executivos. A implementação de um

Grid pode explorar de uma forma produtiva

os recursos ociosos de computadores, pois

pode ser criado com dezenas, centenas ou

até milhares de computadores distribuídos

em locais geograficamente distintos,

que utilizem os mais diversos sistemas

operacionais e arquitetura de hardware.

Para utilizar uma aplicação em Grid é

preciso analisar se ela é adequada para

esse tipo de ambiente. A principal decisão

é a escolha do middleware que será o

responsável por permitir o uso da aplicação

Inovação em gridsJosé Carlos Duarte Gonçalves

Page 199: 100 Mini Papers sobre tecnologia

Março, 2006

198 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

em uma arquitetura com a topologia

distribuída. A implementação de um Grid

pode começar com uma configuração

simples, como por exemplo, dois desktops

obsoletos com sistema operacional Linux

e pode-se chegar a Grids complexos

como o Teragrid http://www.teragrid.org

que compreende 40 teraflops de poder

computacional e 2 petabytes de storage.

Portanto a implementação de um Grid

pode começar pequena, de forma fácil de

gerenciar e crescer com a complexidade

requerida para o tipo de aplicação que vai

ser utilizada.

O padrão de mercado para Grid é definido

pela Globus Alliance http://www.globus.

org que criou a Open Grid Services

Architecture (OGSA) e o Open Grid

Services Infrastructure (OGSI), padrões

abertos que permitem o desenvolvimento

de aplicações para explorar Grid.

A Globus Alliance também mantém um

pacote open source que implementa

funções básicas que são necessárias para

se criar um Grid. São os denominados

Globus Toolkits (GT), atualmente na

versão 4 (GT4). Existem também outras

implementações de serviços de Grid

fornecidas por empresas do mercado,

entre elas Plataform, Avaki e Data Synapse.

A IBM oferece soluções de software,

hardware e serviços para Grid computing.

O site http://www.ibm.com/grid contém referências, casos de

sucesso e educação sobre o tema.

Outros exemplos interessantes de uso de Grid Computing

são encontrados em http://setiathome.berkeley.edu, projeto

que usa computadores pessoais para analisar sinais de rádio

do espaço sideral e em http://www.worldcommunitygrid.org,

Grid que utiliza o tempo ocioso de desktops para executar

dois projetos simultâneos, uma análise de cadeia de proteínas

humanas, e um algoritmo de auxílio às pesquisas para combate

à AIDS.

Antes de ser um alavancador de capacidade computacional, o

uso de Grid representa a oportunidade de ajudar as empresas

a implementarem métodos inovadores de uso de tecnologia. É,

portanto, mais uma forma de uma empresa de TI se transformar

no conselheiro e parceiro preferencial do cliente.

Page 200: 100 Mini Papers sobre tecnologia

Março, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 199

O termo Web 2.0 possui milhões de referências quando

consultado nas principais ferramentas de busca e se tornou

conhecido após a realização de uma conferência homônima

em San Francisco em outubro de 2004. O objetivo original do

evento foi realizar um brainstorm sobre o futuro da World Wide

Web e analisar sua evolução e contínuo crescimento, a despeito

do estouro da bolha que colapsou o mundo pontocom na

última virada de milênio.

Melhor caracterizada como uma evolução (ao invés de

revolução), podemos definir (e exemplificar) as aplicações Web

2.0, de forma resumida, como:

• Colaborativas (ex: Wikipédia, uma enciclopédia virtual

escrita por voluntários e baseada em wiki, uma rede de

páginas Web que podem ser modificadas através de browsers

comuns);

• Participativas (ex: Blogs, que são registros pessoais

publicados na Web, organizados como um diário e

normalmente com participação de visitantes);

• Radicalmente descentralizadas (ex: BitTorrent, ferramenta

para troca de arquivos mantida por usuários);

• Dinâmicas (ex: RSS, tecnologia que permite aos usuários

da Web subscreverem-se a websites que forneçam

alimentadores de conteúdo atualizados regularmente);

• Interativas (ex: Google Maps, serviço de pesquisa e

visualização de mapas e fotos de satélite gratuito na web).

• Compartilhadas (que facilitam a criação baseada no reúso

de trabalhos de terceiros, através de licenças do tipo Creative

Commons).

Uma das características mais marcantes das

aplicações Web 2.0 é a “ponte” que fazem

entre a funcionalidade e a interatividade do

ambiente desktop com as potencialidades

e alcance da Web, abrindo um leque de

oportunidades para novas aplicações com um

baixo TCO por usuário, o que vai ao encontro

da estratégia de Rich Client Plattform da IBM.

Web 2.0 e AjaxMarcelo Sávio

Page 201: 100 Mini Papers sobre tecnologia

Março, 2006

200 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

Na Web atual, cada vez que um usuário dá

um clique solicitando uma informação, uma

requisição é enviada ao servidor que, por

sua vez, devolve uma resposta ao browser.

Normalmente nessa resposta, uma nova

página HTML inteira é carregada, o que

causa a sensação de lentidão.

Na Web 2.0, de uma maneira geral,

é “dispensado” esse vai e volta visível.

Um exemplo clássico é o Google Maps,

no qual é possível passear por um mapa

qualquer e aproximar-se ou afastar-se (com

um zoom) com muito pouco redesenho

na tela, onde o mapa parece sempre

contínuo. É claro que as requisições

e respostas também acontecem aqui,

porém de uma forma menos perceptível,

pois acontecem nos “bastidores” e as

respostas são preparadas e enviadas

contendo apenas a informação necessária

requisitada. O redesenho inteiro da tela só

acontecerá efetivamente quando o usuário

muda para uma nova página. Dessa forma,

a experiência do usuário se torna muito

mais rica e agradável, pois a sensação é

muito mais próxima a de estar usando uma

aplicação local.

Uma das abordagens de desenvolvimento

de aplicações para suportar esse modelo,

baseia-se no uso de linguagens script

que rodam nas máquinas dos usuários e

trocam dados com os servidores. Nesse

aspecto os holofotes atuais apontam para o Ajax (Asynchronous

JavaScript and XML), que surgiu no início do ano passado.

O Ajax não é propriamente uma tecnologia nova, mas um

design pattern muito útil para aplicações Web, pois permite

deixá-las com um “jeitão” de software desktop. O Ajax é novo

no sentido que a maioria dos desenvolvedores está começando

a conhecê-lo, porém todos os seus componentes já existem há

algum tempo e o sucesso está justamente na recombinação

poderosa desses ingredientes já conhecidos. (aqui estamos

falando de uma sopa de letrinhas que inclui CSS, JavaScript,

HTML, XHTML, DOM, XML e XSLT).

O sucesso do Ajax já resultou na recente formação da Open

Ajax Alliance, a primeira comunidade open source dedicada a

promovê-lo, liderada pela IBM e com o apoio de diversas outras

empresas do mercado. E há uma tendência de que se crie

uma sinergia do Ajax com outros projetos open source como

Apache, Mozilla e Eclipse.

Finalmente, é importante esclarecer que Web 2.0 não tem

nada a ver com a Internet2, que se trata de um consórcio,

criado há cerca de 10 anos, composto por universidades que

trabalham em parceria com algumas empresas e governos para

desenvolver e implantar novas tecnologias e aplicações de

redes avançadas na Internet.

Para saber mais

http://www.openajax.org/

Page 202: 100 Mini Papers sobre tecnologia

Fevereiro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 201

Autonômico ou autônomo significa o que possui autonomia, o que

se mantém sozinho. Nos últimos 20 anos, a indústria de informática

esteve obcecada em obter o mais rápido, o mais compacto e o mais

poderoso, pouco se preocupando com o aumento exponencial

da complexidade dos recursos tenológicos. Essa complexidade, a

carência de profissionais qualificados no mercado e o consequente

alto custo para manter diversos administradores, tornaram

prioritária a busca de um melhor aproveitamento dos recursos

financeiros e computacionais, ou seja, ter processos mais espertos,

eficientes e independentes. Em resposta a essa necessidade,

surgiu a ideia de sistemas autonômicos de computação.

O corpo humano é um excelente exemplo para ilustrar o

significado de um sistema autonômico. Pensemos na dilatação

da pupila. Se o ambiente ao nosso redor está muito iluminado,

o cérebro comanda a contração da pupila. Do mesmo modo, se

existe menos iluminação, a pupila se dilata. Isso acontece porque

possuímos um sistema nervoso autônomo que ajusta a abertura da

pupila às condições de iluminação. Esse sistema também controla

de maneira involuntária a temperatura, os batimentos cardíacos, a

respiração, a digestão e outros.

Analogamente, sistemas de computação autonômicos possuem

a habilidade de autogerenciamento e de adaptação dinâmica

a mudanças, de acordo com regras de negócio e objetivos

preestabelecidos. Essa capacidade permite aos sistemas a

identificação e correção de problemas, antes mesmo que eles

sejam percebidos pela equipe de TI. Permite também o ajuste

constante de parâmetros com o objetivo de atingir um estado

ótimo de execução.

A IBM entende que um sistema autonômico

deve seguir quatro princípios básicos. O

primeiro é ser autoconfigurável, ou seja,

ser capaz de adaptar-se dinamicamente

às mudanças do ambiente. O segundo é

ser capaz de reparar erros antes que eles

comprometam o funcionamento normal

do sistema. O terceiro é ser autoajustável,

alterando parâmetros de balanceamento

da carga de trabalho e melhorando a

utilização de recursos. E por último, deve

ter autoproteção contra ataques externos.

A movimentação da indústria de informática

para a criação de sistemas de computação

autonômica é gradual e trabalhosa. A IBM

tem desenvolvido soluções para auxiliar

empresas a tornarem as infraestruturas de

TI mais resilientes, eficientes e seguras.

As bases da computação autonômicaTânia Cristina Okay

Page 203: 100 Mini Papers sobre tecnologia

Fevereiro, 2006

202 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

A linha de produtos Tivoli, por exemplo,

oferece características de monitoramento

e gerenciamento automático de recursos

da infra-estrutura de TI. Discos, bancos

de dados, aplicações podem ser

constantemente monitorados e ajustados

sem intervenção manual. A estabilidade do

ambiente melhora, pois os problemas são

detectados com mais rapidez. Já o banco

de dados DB2, acompanha a utilização de

seus recursos e automaticamente ajusta

valores de parâmetros para atingir um

desempenho satisfatório para o usuário.

A IBM desenvolve servidores com

características de balanceamento

automático e contínuo da carga em um

cluster, o que possibilita a identificação da

queda de um nó e automática migração

da carga para um servidor alternativo. Na

linha de dispositivos de armazenamento

oferece produtos capazes de determinar

e corrigir automaticamente situações de

falha em discos.

O desenvolvimento de sistemas

autonômicos de computação é um grande

desafio da indústria de informática para

os próximos anos. A empresa que adotar

a nova tecnologia terá um ambiente de TI

mais resiliente, estável, de resposta mais

rápida, mais seguro, com maior facilidade

de implementação de novas capacidades

e com menor custo. A IBM e outros

fornecedores de hardware e software trabalham para incorporar

cada vez mais os conceitos de computação autonômica em suas

soluções.

Continue lendo na URL rica em informações sobre o tema:

http://www.research.ibm.com/autonomic.

Page 204: 100 Mini Papers sobre tecnologia

Fevereiro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 203

Uma tecnologia que atrai gigantes como Cisco, Google,

Microsoft e MCI. Uma ameaça à telefonia tradicional que tira

o sono de grandes operadoras de telefonia. Uma expectativa

de crescimento de mercado de 18 vezes entre 2004 e 2009

na América do Norte passando de 1,24 para 23,4 bilhões de

dólares, segundo relatório da Infonetics.

Esse é o cenário de VoIP (Voice over IP ou Voz sobre IP).

Uma tecnologia que já é utilizada por milhares de pessoas e

apresenta um alto potencial de crescimento, apontada como a

exterminadora da telefonia tradicional.

VoIP é um protocolo que utiliza a Internet ou redes IP privadas

para comunicação de voz. A telefonia IP é uma modalidade

de VoIP que fornece serviços telefônicos semelhantes aos

tradicionais. Os usuários podem fazer e receber ligações

telefônicas usando um aparelho telefônico específico para

conexão na rede IP (telefone IP), um telefone convencional com

um adaptador IP ou ainda um software cliente instalado em um

computador.

Apesar de estar disponível desde o final da década de 90, sua

utilização está se popularizando somente agora, devido ao uso

em grande escala de acesso à Internet em banda larga, o que

tornou o VoIP viável e acessível para mais pessoas.

Inicialmente o VoIP permitia apenas a comunicação de voz

entre dois usuários de computadores conectados por uma rede

IP. Um software instalado no computador era responsável por

converter a voz para o formato digital e transmiti-la pela rede

até o destino, onde a voz digitalizada era convertida novamente

pelo software para o formato analógico.

Em seguida, expandiu-se essa ideia para

permitir que um usuário de computador

pudesse também se comunicar com

usuários da rede tradicional de telefonia.

Nesse caso, a voz digitalizada é transmitida

pela rede IP até um ponto onde é feita

a conexão com a rede de telefonia

tradicional. Atualmente, a conexão

entre usuários é independente do modo

de acesso de cada um deles (telefone

tradicional, telefone IP ou software).

A redução do custo de chamadas de longa

distância é um dos benefícios principais

dessa nova tecnologia. O custo de uma

VoIP: o próximo capítulo da telefoniaAna Beatriz Parra

Page 205: 100 Mini Papers sobre tecnologia

Fevereiro, 2006

204 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

ligação entre telefones IPs, por mais

distantes que estejam, é exatamente igual

ao do acesso a um site localizado do outro

lado do mundo, ou seja, apenas o custo de

acesso à Internet.

Se a conexão envolve um telefone

convencional é necessária uma interface

que conecte a rede IP ao sistema de

telefonia tradicional. Na prestação desse

serviço reside a aposta de lucro de novas

empresas.

Uma empresa distribuída em diversos

estados ou países pode por meio da

utilização de telefonia IP, eliminar os

gastos com ligações telefônicas de longa

distância nacionais ou internacionais,

usando sua infra-estrutura de rede de

dados já existente. Além disso, a tecnologia

permite unificar as redes de dados e de

voz e integrar aplicações com voz, dados e

imagem em um único terminal, reduzindo

custos de infra-estrutura.

Com esse motivador estratégico, novas

empresas surgem para prover os serviços

de voz sobre IP. Uma das primeiras e

mais conhecidas é a Skype, inicialmente

fornecedora de software e depois, com

o SkypeOut e com o SkypeIn, de serviços

de conexão entre a rede IP e a telefonia

tradicional.

Recentemente a Microsoft e a MCI

anunciaram uma parceria para ofertar

software e serviços que permitirão aos seus usuários ligarem de

um computador para qualquer telefone do mundo. Este novo

serviço será chamado MCI Web Calling for Windows Live Call e

fará parte do software Windows Live Messenger, successor do

Microsoft Messenger. Tanto no Skype quanto no novo serviço

da Microsoft e da MCI, o usuário só paga quando necessitar de

conexão com a rede de telefonia convencional.

No Brasil, a Agência Nacional de Telecomunicações (Anatel),

órgão responsável pela regulamentação do setor, anunciou há

pouco tempo que considera o VoIP uma tecnologia e, segundo

sua diretriz, tecnologias utilizadas na prestação de serviços

não são regulamentadas. Portanto, serviços de VoIP entre

dois computadores ou internos a uma rede corporativa não

são regulamentados. Já em conexões envolvendo rede IP e

telefonia tradicional, o serviço passa a ser caracterizado como

de telecomunicações. Por essa razão, para entrar no mercado

brasileiro, a Skype está estabelecendo alianças com operadoras

locais.

As grandes empresas de telefonia tradicional no Brasil ainda

estão tímidas nesse mercado. Telefônica e Brasil Telecom

anunciam serviços de VoIP para o início de 2006. A GVT é

a empresa mais agressiva. Criou a Vono, uma empresa com

foco específico em telefonia IP e espera conquistar 100 mil

clientes em 2006. Já para os provedores de soluções de TI, há

oportunidades de serviços de consultoria e de implementação

de soluções de VoIP, de reestruturação da rede de dados dos

clientes e até de outsourcing, com serviços gerenciados de

telefonia IP.

A telefonia IP é mais um capítulo na evolução das

telecomunicações. Essa tecnologia veio para ficar e irá

transformar o modo como hoje nos comunicamos.

Page 206: 100 Mini Papers sobre tecnologia

Janeiro, 2006

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 205

Agora é tarde demais para dizer que as empresas têm que

começar a se preparar para flutuações, ameaças e eventos

inesperados. O discurso On Demand foi atropelado pela

realidade. Pessoas e comunidades já passaram a se comportar

exatamente desse modo. Fazem coisas e demandam

produtos e serviços quando bem entendem, causando em

seus fornecedores todas as flutuações, ameaças e eventos

inesperados que povoaram discursos e profecias nos últimos

anos.

Enquanto escrevo este artigo em meu microcomputador,

deixo meu iPodder ativo, baixando vários podcasts de temas

de meu interesse, e ao mesmo tempo ouço uma música,

mais especificamente um podcast de uma banda de rock

independente de Oklahoma.

Para aqueles que ainda não tiveram contato com estas novas

tecnologias, vale a pena explicar alguns termos utilizados:

um podcast é um arquivo audível ou visível produzido em

formato padrão (por exemplo MP3) e armazenado em sites

seguindo um método RSS (Really Simple Syndication) que

possibilita a um agregador de podcasts localizá-lo e assinar

suas sucessivas edições. RSS é um método padronizado de

descrição de conteúdo, feito sobre XML, e que pode ser

utilizado por qualquer um que queira publicar conteúdo em um

site tornando-o acessível aos agregadores. O agregador (como

iPodder ou iTunes) é um software que gerencia a assinatura, o

download e a execução de podcasts.

As definições acima não são suficientes para produzir

especialistas em podcasting mas bastam para demonstrar

que já é viável ouvir ou assistir conteúdo

sob demanda. O podcast de Oklahoma

que mencionei no início foi baixado por

cerca de 200 pessoas em abril, e por

cerca de 37.000 em novembro! Mais do

que o crescimento de 18.400% em seis

meses, esses downloads significam cerca

de 1,5 Terabyte de conteúdo baixado

por ouvintes em um único exemplar de

programa semanal de música.

Em uma outra frente totalmente diversa,

surgiram equipamentos como o da TiVo,

uma empresa que trabalha viabilizando

a programação televisiva sob demanda.

O aparelho da TiVo é baseado em uma

tecnologia chamada DVR (Digital Video

Recorder) ou PVR (Personal Video Recorder).

Permite a captura da programação

As pessoas já são on demandWilson E. Cruz e José Luis Spagnuolo

Page 207: 100 Mini Papers sobre tecnologia

Janeiro, 2006

206 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

televisiva e seu armazenamento em um

disco rígido interno para a visualização

posterior, mesmo que se queira assistir um

outro canal ao mesmo tempo.

Entre as facilidades oferecidas figura a

gravação parametrizada, ou seja, a partir

da definição do usuário o aparelho monta

uma programação pessoal. E como o sinal

está gravado, o usuário pode dar uma

pausa em um programa que está assistindo

e retomá-lo alguns minutos depois. Essa

funcionalidade é muito explorada por

pessoas que querem pular os intervalos

comerciais. A indústria de publicidade e

marketing é largamente afetada e já está

em processo de revisão de seus conceitos

para uma potencial mudança nos hábitos

de se ver TV.

Em um cenário mais geral, as pessoas

compram pela Internet a um ritmo

crescente (4,4% de todo o comércio

varejista brasileiro será feito pela Internet

em 2005, e, no comércio entre empresas,

serão R$ 240 bilhões), conversam

a distância, sem o uso do telefone,

por meio de ferramentas simples e

largamente disponíveis como Skype,

escolhem a melhor poltrona do cinema,

montam o percurso entre a empresa e a

residência com base em informações de

congestionamento e usam a tecnologia

para tudo isso. E todas as indústrias já

sofrem o impacto hoje. Como consequência, conhecem na

prática os conceitos de imprevisibilidade, flutuação e ameaça.

O cliente de seu cliente já é On Demand. A tecnologia atropelou

a profecia, e as coisas estão acontecendo agora, em todas as

áreas. Não é mais possível postergar a ajuda de que ele precisa

para fazer frente às intempéries.

Page 208: 100 Mini Papers sobre tecnologia

Dezembro, 2005

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 207

O IDG Now! publicou: “O ano de 2006 começará com uma

epidemia de infecções por uma nova variante do vírus Sober.

A previsão nada animadora é da Trend Micro, que afirma ter

analisado os códigos da versão AG da praga e descoberto

inclusive o período para o ataque - dia 5 ou 6 de janeiro”.

Apenas 72 horas após ter surgido na Internet, no dia 26 de

janeiro de 2004, o vírus MyDoom, considerado o de mais rápida

disseminação da história, gerou prejuízo para empresas em

cerca de 170 países. O MyDoom lidera o ranking das pragas

mais destrutivas de todos os tempos, com prejuízos estimados

entre US$ 75 e US$ 92 milhões, seguido de longe pelo Netsky,

com prejuízos de US$ 56 a US$ 69 milhões. O ranking segue

ainda com os vírus Sobig, Klez, Sasser, Mimial, Yaha, Swen, Love

Bug e Bagle.

Ataques computacionais, incluindo invasões a sites, vírus e

roubo de informações, entre outros, geraram perdas de mais

de 230 milhões de dólares às empresas nos Estados Unidos

no último ano. É o que aponta a edição 2005 da pesquisa de

segurança e crimes computacionais realizada pelo Computer

Security Institute em parceria com o FBI. Esses números referem-

se apenas às perdas materiais, mas quanto vale uma informação

para a empresa? Se esse prejuízo for computado também, as

cifras serão muito superiores.

O primeiro vírus de computador foi o Brain que atacava os setores

de boot do disco rígido, relatado pela primeira vez em 1986.

Nesse ano também foram registrados o Virdem (o primeiro vírus

que altera um arquivo executável) e o PC-Write (o primeiro cavalo

de Tróia, ou seja, o primeiro vírus disfarçado de software útil).

Em 1988, apareceu o primeiro vírus

da Internet, que utilizava um código

autopropagável. O vírus Morris fez com

que a velocidade das comunicações pela

Internet diminuísse substancialmente. Em

1990, o Virus Exchange BBS entrou no ar

como uma base de trocas para criadores de

vírus colaborarem e compartilharem o seu

conhecimento. Nesse mesmo ano surgiu

também o primeiro vírus polimórfico,

conhecido como Chameleon ou Casper.

Os vírus polimórficos têm a capacidade de

se transformar cada vez que se replicam

utilizando rotinas de criptografia, o que

torna a detecção difícil pelos softwares

antivírus.

Desde então, os vírus têm se tornado

cada vez mais sofisticados. Vírus foram

Vírus! Uma praga cheia de históriasAlexandre de Queiroz Baltar

Page 209: 100 Mini Papers sobre tecnologia

Dezembro, 2005

208 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

criados especificamente para explorar

vulnerabilidades de sistemas operacionais,

de macros de aplicativos Office, de redes

de compartilhamento de arquivos peer-

to-peer (P2P), de sites e de aplicativos.

Começaram a acessar os catálogos de

endereços de e-mail e a se reenviarem

para os contatos. Surgiram também os

que criam portas ocultas que permitem

aos seus criadores executar qualquer

software que desejem nos computadores

infectados.

A maioria dos softwares antivírus atuais

é quase inteiramente dependente de

assinaturas de vírus ou da identificação

de certas características para identificar

códigos potencialmente nocivos. Muitos

vírus lançados hoje demonstram uma

taxa de infecção incrivelmente rápida nos

primeiros dias, seguindo-se um acentuado

declínio na propagação quando os

arquivos de assinatura são distribuídos

para neutralizá-los.

Para ir um pouco adiante nessa

neutralização, é preciso atuar mais

próximo às raízes do problema. Uma das

raízes pode ser a qualidade do sistema

operacional. Na última pesquisa realizada

em 2005 pela Evans Data Corporation

com desenvolvedores sobre a segurança

inerente dos diferentes sistemas

operacionais, 74% dos entrevistados

consideraram o Linux inerentemente mais seguro que o sistema

operacional Windows. Além disso, 82% dos entrevistados

responderam que os seus servidores Linux nunca foram

comprometidos. O compromisso da IBM com o Linux tem

mais essa área de alavancagem, plenamente respaldada pela

comunidade que mais entende do assunto, os desenvolvedores.

Além disso, a proteção das empresas e a investigação das

vulnerabilidades é vital no combate ao vírus. Apesar da IBM não

atuar diretamente em softwares antivírus, IGS fornece serviços

customizados de consultoria, monitoração e administração de

recursos computacionais. O Security Operation Center (SOC)

irá disponibilizar, a partir do segundo semestre de 2006, vários

tipos de serviços de proteção à infra-estrutura e análise de

vulnerabilidades dos recursos e ambientes computacionais.

Page 210: 100 Mini Papers sobre tecnologia

Novembro, 2005

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 209

De repente todos entraram de cabeça na onda da virtualização.

A HP anunciou em setembro pacotes reunindo hardware e

software para automatizar data centers. A Intel Capital investiu

na aquisição da empresa Virtual Iron Software para desenvolver

tecnologia de virtualização baseada em Windows. A Red Hat

declarou que a nova versão do Enterprise Linux incluirá em 2006

a capacidade de virtualizar servidores. A Cisco anunciou uma

arquitetura chamada Vframe que combina switches e software

de virtualização. A EMC anunciou o Invista, a Sun, agora dona

da StorageTek, tem o VSM.

A IBM, é claro, também entrou com tudo nesta disputa, com

sua conhecida capacidade de oferecer soluções ponta a ponta.

Mas antes de falar da IBM, vamos esclarecer o seguinte: o que

é virtualização, afinal?

Virtualização é a capacidade de apresentar os recursos de

computação de forma tal que os usuários e aplicações possam

usufruir deles independentemente das particularidades de

implementação, característica física ou localidade geográfica.

O termo “transparência” caberia muito bem como sinônimo. A

virtualização oferece uma visão lógica dos dados, dos servidores,

da capacidade de armazenamento e das aplicações.

Fácil perceber que o conceito extrapola os limites de um

produto e é, antes, uma visão completa sobre como agregar

pessoas, processos e informações.

Tecnologias de virtualização existem há décadas no mainframe,

mas agora elas proliferam no mundo heterogêneo das

plataformas Unix e Windows. Desde a infraestrutura de hardware

até o aplicativo para o usuário final, todos os segmentos da

Tecnologia da Informação foram atingidos

pela virtualização. E por quê? A resposta

é simples: a virtualização é a tecnologia

básica para permitir que a área de TI tenha

a resiliência necessária para os desafios de

um mundo On Demand.

Dentre os desafios, destaca-se o

gerenciamento unificado, principalmente

O boom da virtualizaçãoJosé Alcino Brás

Page 211: 100 Mini Papers sobre tecnologia

Novembro, 2005

210 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

em ambientes com infraestrutura de TI

heterogênea.

É ai que entra o VE, Virtualization Engine. O

VE é um conjunto de tecnologias, recursos

e ferramentas utilizadas para virtualizar

uma infraestrutura e gerenciá-la de

maneira unificada. Possui os ingredientes

para reduzir custos, melhorar a utilização

de recursos e simplificar o gerenciamento

de ambientes heterogêneos.

Mas atenção: o VE não é uma entidade

solitária, tampouco um produto isolado.

O VE ganha força na medida em que

é apresentado como um conjunto de

tecnologias, abrangendo o servidor,

o storage, a rede, o aplicativo, o

sistema operacional e as funções de

gerenciamento. É uma visão cross-

brand, complementada por serviços

de consultoria, planejamento e

implementação que permitem ao Cliente

virtualizar sua infraestrutura e aproximá-

lo de um ambiente operacional On

Demand.

Clientes com demandas pontuais (por

exemplo simplificar alguns servidores

Intel) podem esconder traços muito

mais amplos de necessidades que o

Virtualization Engine resolveria. Ao

deparar com um nicho (“o calo que está

doendo”), é imperativo responder com

a mensagem total do VE, mostrando o

caminho pavimentado para um ambiente On Demand. O VE

é uma forma estruturada de a IBM mostrar toda a sua força e

todo o seu diferencial.

Ficou curioso sobre Virtualização e o Virtualization Engine?

Então descubra mais sobre o assunto em http://www.ibm.com/

servers/eserver/virtualization.

Page 212: 100 Mini Papers sobre tecnologia

Novembro, 2005

Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM | 211

O valor agregado da implementação de comunidades virtuais

pelas empresas começa pela mudança do modo como a

informação é compartilhada. As organizações tipicamente

possuem uma estrutura organizacional baseada em um

modelo de árvore, onde hierarquia e autoridade são a base

para a geração e localização de conhecimento e informações.

O problema com este modelo é que ele é muito eficiente

para a divisão do trabalho, mas é bastante ineficiente para

o compartilhamento do conhecimento. É fácil visualizar o

problema pensando no modelo em árvore: existe um e apenas

um caminho oficial para que a informação seja compartilhada

entre dois nós.

Antes de falar em comunidades virtuais, é importante

conhecer o conceito de Comunidades de Prática. Enquanto

redes de relacionamento são inerentes ao ser humano e

se formam naturalmente, de maneira estruturada ou não,

as comunidades de prática são redes semi-formais com

profissionais que compartilham informações sobre um

assunto ou problema comum.

A implementação de comunidades de prática pode ser

estimulada pelo uso de ferramentas de colaboração. Esta

abordagem permite que os custos de implementação das

comunidades de prática sejam drasticamente reduzidos,

ao mesmo tempo em que se obtém um melhor controle

do conhecimento que flui através da rede de profissionais

associados. O uso das tecnologias de colaboração para

a implementação de comunidades de prática fez surgir o

conceito das Comunidades Virtuais de Prática.

Um dos principais desafios nas

comunidades virtuais de prática é

conseguir gerar informações de boa

qualidade. Neus (2001) propõe cinco

fatores de sucesso para a qualidade da

informação nas comunidades virtuais: (1)

a responsabilidade pela informação como

base para o estabelecimento da reputação

O valor das comunidades virtuais para as empresasMario Costa

Page 213: 100 Mini Papers sobre tecnologia

Novembro, 2005

212 | Liderança e Tecnologia: 100 mini papers nos 100 anos da IBM

dos colaboradores; (2) um foco temático

e uma cultura corporativa voltada para a

contribuição de alto nível; (3) um senso de

confiança e identidade, através de dados

pessoais confiáveis; (4) uma memória

ou repositório comum de informações e

conhecimentos, alimentado através da

colaboração dos membros; e (5) critérios

de elegibilidade (membership) para

manter o nível e o foco das contribuições.

Talvez o exemplo mais em voga de

comunidades virtuais seja o Orkut

(www.orkut.com). O Orkut possibilita

o estabelecimento de comunidades

virtuais através da associação de outras

pessoas a um ou mais participantes já

cadastrados. Viabiliza, ainda, a criação

de comunidades virtuais de prática, na

medida em que permite que qualquer um

crie comunidades ao redor de um tema

específico.

Uma empresa, analogamente, poderia

criar suas próprias comunidades virtuais

de prática como um meio de fomentar

a criação e o compartilhamento de

informações. Ao estimular a criação

de comunidades virtuais de prática ao

redor de temas de interesse corporativo,

as empresas podem obter alto valor

agregado com baixo custo.

A tecnologia para a implementação das

comunidades virtuais de prática existe, sua

disponibilização não é especialmente complexa, e seu custo é

baixo. Talvez o maior desafio seja a criação de um modelo de

medição do retorno sobre o investimento, já que os benefícios

primários são, de forma geral, intangíveis.

Dito isto, que tal um projeto piloto de comunidade virtual de

prática para debater o assunto?

Page 214: 100 Mini Papers sobre tecnologia

Adelson Lovatto tem 24 anos de experiência em Tecnologia da Informação, é formado em Matemática e

Administração.

Alexandre de Queiroz Baltar é o executivo de estratégia de tecnologias para GTS Service Delivery America Latina

com mais de 29 anos de experiência em Tecnologia da Informação.

Alexandre Filgueiras Costa é IT Architect, com 10 anos de experiência em Tecnologia da Informação, formado em

Ciência da Computação pelo Instituto Metodista Bennett, e mestrando no NCE/UFRJ.

Alisson Lara Resende de Campos é Especialista de Sistemas certificado pela IBM com 12 anos de experiência em

Tecnologia da Informação, formado em Computação pela Universidade Mackenzie, com especialização em Redes

pela FASP. É membro do Board de Certificação de IT Specialist Américas da IBM desde 2006.

Amauri Vidal Gonçalves é Arquiteto em IT Strategy and Design Services da IBM Brasil, com certificação ITIL

Foundations e VCP - Vmware Certified Professional. Tem 38 anos de experiência na área de Tecnologia da

Informação com passagens pelas áreas de mainframe, networking, gerenciamento de sistemas. Nos últimos 7

anos tem atuado em projetos de soluções de Otimização de TI contribuindo para criar ambientes mais flexíveis e

dinâmicos para nossos clientes.

Ana Beatriz Parra é Certified IT Architect com mais de 20 anos de experiência em Tecnologia da Informação,

formada em Ciência da Computação pela USP, pós-graduada em Administração pela FGV-EAESP.

André Luiz Braga é Certified IT Architect com 15 anos de experiência em Tecnologia da Informação, formado em

Engenharia Eletrônica pela UFRJ em 1993 e Doutor em Engenharia de Sistemas formado pela COPPE/UFRJ em

2004.

Antonio F. Gaspar Santos é IBM Certified IT Architect em GTS/ITD com 20 anos de experiência em Tecnologia

da Informação. Possui graduação e mestrado em Engenharia da Computação, ambos pela Universidade de São

Paulo.

Sobre os autores

Page 215: 100 Mini Papers sobre tecnologia

Avi Alkalay é um hacker diagonal que acessa um BlueGene de seu iPhone, ocupa-se com construção de uma Web

semântica e ferramental para colaboração humana. Formado em 1994 pela UNESP, mantém seu blog em http://

avi.alkalay.net e Twitter em http://twitter.com/avibrazil.

Bruno C. Faria é Administrador de Banco de Dados com 4 anos de experiência em Tecnologia da Informação,

formado em Engenharia de Computação pela faculdade IBTA/Metrocamp e possui certificações Oracle, DB2, AIX

e ITIL.

Carlos Eduardo Abramo Pinto foi o líder da carreira IT Specialist na America Latina entre 2008 e 2011 e atuou

em diversos programas para suporte e desenvolvimento das carreiras técnicas na IBM. Atua com Tecnologia da

Informação desde 1994, e é formado em Processamento de Dados pela Universidade Mackenzie.

Carlos Lessandro Lopes Rischioto é Especialista em Software WebSphere na IBM Brasil. Profissional de Tecnologia

da Informação há mais de 12 anos. Formado em Ciência da Computação pela Universidade São Francisco,

atuando com tecnologias Java e Web desde 1998. Especialista em produtos das Famílias WebSphere, SOA e

BPM, possuindo diversos certificados em produtos, é Instrutor Oficial da IBM. Também é professor universitário

atuando em diversos cursos de graduação e pós-graduação voltados para Tecnologia Java, Web e SOA.

Cesar Taurion Gama E. Chede é Gerente de Novas Tecnologias Aplicadas da IBM, com mais de 25 anos de

experiência em Tecnologia da Informação, formado em Economia, com mestrado em Ciências da Computação, e

com MBA em Marketing de Serviços.

Cíntia Barcelos é Arquiteta de Soluções na área de Software da IBM. É certificada pela IBM e pelo The Open

Group e tem 18 anos de experiência em Tecnologia da Informação. Formada em Engenharia Eletrônica pela UFRJ

e possui MBA no IBMEC em Administração de Empresas.

Cristiane Maria Ferreira é Product Services Specialist com 19 anos de experiência em Tecnologia da Informação,

formada em 1992 pela Universidade Mackenzie e membro da IBM Academy of Technology desde 2010.

Cristiano Breuel é Advisory Software Engineer do IBM Brasil Software Lab, com mais de 10 anos de experiência

em Computação, formado em Engenharia de Computação pela Escola Politécnica da USP e mestre em Ciência

da Computação pelo IME/USP.

Page 216: 100 Mini Papers sobre tecnologia

Cristina Matsubara é Especialista Certificada IBM em TI.

Daniel Raisch é Arquiteto de Software, tem mais de 30 anos de experiência em TI, formado em Matemática pela

UFRJ e pós-graduação em Gestão de TI pela FGV-RJ, é membro do Conselho Técnico Mundial de System/z e

membro do Conselho Técnico Mundial dos Arquitetos para System/Z.

Daniel Scumparim (M.Sc.) é Gerente de Projetos, com 15 anos de experiência em Tecnologia da Informação e

Gestão, formado Tecnólogo em Processamento de Dados pela Fatec, MBA em Gestão Empresarial pela FGV e

Mestre em Ciências Sociais Aplicadas pela UNIMEP.

Diego Augusto Rodrigues Gomes é especialista em TI na IBM Brasil, desenvolvedor de aplicações Java/JEE, com

aproximadamente 7 anos de experiência em Tecnologia da Informação, bacharel em Ciência da Computação pela

Universidade de Brasília, atualmente mestrando em Informática pela mesma universidade.

Douglas Cristiano Alves é especialista em TI com 6 anos de experiência em Tecnologia da Informação, e é

formando em Ciência da Computação pela Universidade Federal de Minas Gerais.

Edson Gomes Pereira é Arquiteto de Delivery, com 20 anos de experiência em Tecnologia da Informação, formado

em 1994 e pós-graduado em 2006 pelo Mackenzie e Certificado em ITIL V2/V3 e PMI/CAPM.

Esthon Medeiros usa Linux em Desktop desde 2000, é Systems Architect com 31 anos de experiência em

Tecnologia da Informação, formado em 1990 pelas Faculdades Associadas Anglo Americana.

Fabiano Ferreira é Gerente de Soluções, com 13 anos de experiência em tecnologias voltadas ao mercado de

energia, formado em Engenharia Elétrica pela Unicamp.

Fábio Gandour é Cientista-chefe da IBM Brasil. É graduado em Medicina e pós-graduado em Ciências da

Computação. Trabalha na IBM Brasil há 20 anos.

Fábio Laurino Liberato é Arquiteto de TI na IBM, com 9 anos de experiência em Tecnologia da Informação,

formado em Engenharia Elétrica, em 2001, pela Universidade Estadual de Campinas.

Page 217: 100 Mini Papers sobre tecnologia

Fábio Luis Marras é Arquiteto de Sistemas Sênior certificado, com 20 anos de experiência em Tecnologia da

Informação, trabalha com a indústria financeira desde 1992, e é Engenheiro Eletrônico.

Guilherme Steinberger Elias é IBM Certified IT Specialist recertificado e membro do Board de Carreira, atualmente

atua como IT Architect em projetos de Billing internacionais e em brainstorms de Patentes, com 16 anos de

experiência em Tecnologia da Informação, formado em Engenharia Eletrônica pela Escola de Engenharia Mauá,

com pós-graduações em Redes, Gerenciamento de Projetos e Mestre em Engenharia de Software pela Unicamp.

Hélvio de Castro Machado Homem é IT Architect, certificado IT Specialist, com mais de 10 anos de experiência em

Tecnologia da Informação, formado em Sistemas de Informação pela Universidade Paulista e pós-graduado em

Gestão Empresarial pela FGV.

Hugo Rozestraten é certificado como Especialista de Sistemas de TI na IBM, e trabalha atualmente como

Arquiteto de Soluções de Outsourcing. Com 14 anos de experiência em Tecnologia da Informação, é formado em

Engenharia Agronômica pela ESALQ/USP.

João Carlos Coan é Arquiteto de Soluções de TI Certificado pela IBM e Open Group, com mais de 25 anos de

experiência em Tecnologia da Informação, formado em Administração de Empresas, pós-graduado em Vendas e

Projetos de Telecomunicações.

João Marcos Leite é Especialista em Sistemas certificado pela IBM e pelo The Open Group, com 30 anos de

experiência em Tecnologia da Informação e há 10 anos atuando na IBM com especialização em Storage e Systems

Software. Formado como Tecnólogo em Nível Superior em Processamento de Dados pela Universidade Federal

do Paraná em 1984.

José A.A.A. Reguera é Gerente de Tecnologia de GTS Services Delivery, com 17 anos de experiência em

Tecnologia da Informação, formado em Engenharia de Computação pela UNICAMP, com Curso de Especialização

em Administração para Graduados pela FGV-EAESP.

José Alcino Brás é Especialista de Sistemas, com 40 anos de experiência em diferentes segmentos da Tecnologia

da Informação. É formado em Física pela Universidade Mackenzie.

Page 218: 100 Mini Papers sobre tecnologia

José Carlos Bellora é IT Architect de GTS, possui 22 anos de experiência em Tecnologia da Informação, formado

em Engenharia Elétrica pela PUC-RS, com pós-graduação em Análise de Sistemas e Mestrado em Engenharia de

Sistemas e Computação pela COPPE/UFRJ.

José Carlos Duarte Gonçalves é IBM Distinguished Engineer e Chief Technologist Officer (CTO) da IBM Brasil. É

membro da IBM Academy of Technology desde 2007. Também é membro da IBM Innovation Network e lider do

Latin America Technical Leadership Team.

José Carlos Milano é Client Technical Advisor da IBM para a Caixa Econômica Federal, com 36 anos de experiência

em Tecnologia da Informação, formado em Física e Matemática pela Universidade Federal de São Paulo. É

um Distinguished Engineer Senior Certified na profissão de Arquiteto de TI, da qual é membro do board de

certificação.

José Luis Spagnuolo é Diretor de Cloud Computing da IBM Brasil, Senior Certified IT Architect, membro da IBM

Academy of Technology, com 26 anos de experiência em Tecnologia da Informação, formado em Tecnologia pela

Universidade Mackenzie e Administração de Empresas pela Universidade Paulista.

Juliano F. da Silva é Gerente Sênior de Suporte a Sistemas, com 13 anos de IBM. É Mestre em Computação

Aplicada e Bacharel em Ciência da Computação pela UNISINOS. Atualmente, cursa pós-graduação em Gestão

Empresarial na FGV. É também professor de curso de pós-graduação na área de Governança da Segurança de TI

pela UNISINOS.

Julio Madeira é Gerente de Desenvolvimento, com 10 anos de experiência em Tecnologia da Informação e pós-

graduação em Gestão Estratégica de TI pela FGV.

Kiran Mantripragada é atualmente Research Engineer no novo Research Lab da IBM Brasil, além de um Certified

IT Specialist e também um ex-IT Architect somando mais de 15 anos de experiência em TI, desenvolvimento de

software e desenvolvimento de soluções. É formado em Engenharia Mecatrônica e Mestre em Engenharia de

Software pelo IPT.

Page 219: 100 Mini Papers sobre tecnologia

Leônidas Vieira Lisboa é Arquiteto de Redes em GTS, com 13 anos de experiência em Tecnologia da Informação,

formado em Engenharia Elétrica pela Escola Politécnica da USP, em Direito pela Faculdade de Direito da USP e

pós-graduado em Administração de Empresas pela FIA-USP.

Leonir Veneziani Silva é um Certified IT Specialist pela IBM, Physical Security Engineer, com 19 anos de experiência

em Tecnologia da Informação, formado em Engenharia Agronômica, pós-graduado em Análise de Sistemas e pós-

graduado em Engenharia de Software.

Luís Fernando Liguori é Arquiteto de Sistemas Certificado, com 16 anos de experiência em Tecnologia da

Informação, formado em Engenharia Eletrônica pela Faculdade de Engenharia Mauá.

Luiz Espínola é Consultor de TI e Segurança da área de IT Delivery da IBM Brasil, possui mais de 16 anos de

experiência em Tecnologia da Informação, formado em 1993 pelo CEFET e possui 20 certificações em produtos

e serviços.

Marcello Pinheiro Guimarães é IT Architect de GTS, possui mais de 25 anos de experiência em SSV, com graduação

em Física pela USP.

Marcelo D. Vessoni é Executivo do Centro de Competência Técnica ADM (Application Development & Maintenance)

da área de consultoria e serviços em aplicações da IBM Brasil (GBS AS). Atua há 12 anos em Tecnologia da

Informação, é bacharel e mestre em Ciência da Computação pela UFSCAR.

Marcelo F. da Silva Pereira é certificado pela IBM como Gerente de Projetos Sênior em GBS, com 21 anos de

experiência em TI, formado em Engenharia de Computação pela PUC-RJ, com pós-graduação em serviços pelo

IBMEC e MBA Empresarial pela FDC.

Marcelo Henriques de Castro é Sênior IT Architect certificado pela IBM e Master IT Architect certificado pelo Open

Group, com sólida experiência em arquiteturas de aplicação, integração e infraestrutura.

Marcelo L. Braunstein é Gerente de Soluções de STG - Brasil, com 23 anos de IBM, é formado em Engenharia de

Sistemas pela PUC-RJ e possui Mestrado em Administração de Empresas também pela PUC-RJ. Publicou o livro

Cultura Organizacional e Privatização: a Dimensão Humana.

Page 220: 100 Mini Papers sobre tecnologia

Marcelo Sávio é Arquiteto de TI certificado pela IBM e pelo The Open Group, com 22 anos de experiência em

Tecnologia da Informação. É formado em Matemática pela UERJ e possui mestrado em Engenharia de Sistemas

e Computação pela COPPE/UFRJ.

Márcia Miura é IBM Certified IT Specialist com mais de 20 anos de experiência em Tecnologia da Informação,

Bacharel em Matemática pela PUC/SP e pós-graduada em Gestão de Negócios pela FGV e Business and IT

Management (University of California).

Marcos da Cunha Corchs Rodrigues é IT Specialist com quase 9 anos de experiência em Tecnologia da Informação,

formado em Informática com ênfase em Análise de Sistemas pela Universidade Estácio de Sá e atualmente possui

certificações técnicas em SOA, Object Oriented Analysis and Design UML2, Rational Software Architect, DB2,

Cognos BI e Multidimensional reports.

Marcus Vinicius Itala Ferreira é Especialista de Sistemas Certificado e trabalha na divisão de Software da IBM

Brasil na área de pré-vendas de softwares de segurança. Tem mais de 17 anos de experiência em Tecnologia da

Informação. É formado em Engenharia de Computação pela PUC-Rio (1992).

Mario Costa atua há mais de 20 anos em Tecnologia da Informação, é Mestre em Administração de Empresas e

tem MBA Executivo pela Fundação Dom Cabral.

Miguel Vieira Ferreira Lopes Gomes é Arquiteto de TI na IBM, especializado em e-commerce, com 12 anos de

experiência em Tecnologia da Informação e formado em Processamento de Dados em 1999, pela Universidade

São Judas.

Nathan Gevaerd Colossi é gerente de desenvolvimento no IBM Software Lab em São Paulo, com 12 anos de

experiência em TI e mestrado em Ciência da Computação pela Universidade Estadual de Campinas.

Paulo da Costa é Especialista de Sistemas na IBM Brasil, Professor do grupo Veris Educacional e trabalha desde

1989 em TI. Mestre em Gestão de Redes pela PUC-Campinas, pós-graduado em Engenharia de Redes e Sistemas

de Telecomunicações pelo INATEL, especialista em Redes de Computadores pela Unicamp e graduado em

Análise de Sistemas pela Universidade São Francisco.

Page 221: 100 Mini Papers sobre tecnologia

Paulo de Andrade Jr. possui 22 anos de experiência em áreas de Engenharia e Supply Chain, em empresas no Brasil

e Europa, é formado pela Escola de Engenharia Industrial de São José dos Campos.

Paulo E. Folkmann é Especialista em Sistemas certificado com 24 anos de experiência em Tecnologia da

Informação. Formado em 1986 pela Universidade Mackenzie. Atua na área de Enterprise Content Management

desde 1993. Atualmente é Líder Técnico América Latina para Industry Solutions na IBM Brasil.

Persio Vicente é gerente de time técnico pré-vendas e serviços IBM nas áreas de Enterprise Content Management

e Business Analytics. Atua na área de software IBM há 13 anos e possui 20 anos de experiência no mercado de

TI. Formado em Administração de Empresas com ênfase em Análise de Sistemas pela FASP e MBA na FGV em

Gestão e liderança de Pessoas.

Renato de Almeida Martins é Especialista em TI e Embaixador para Universidades, com mais de 10 anos de

experiência em Tecnologia da Informação. Formado em Ciência da Computação pela Universidade Católica de

Goiás (UCG), com especialização na Universidade de Brasília. Na IBM desde 2004, passou por Serviços e Software

Group na Irlanda e no Brasil. Possui diversas certificações em produtos IBM, Microsoft e Sun. É também PMP pelo

Project Management Institute - PMI.

Ricardo Hortencio é Administrador de Sistemas com 11 anos de experiência em tecnologia da Informação,

formado em 2002 em Ciências da Computação e certificado na carreira IT Specialist na IBM.

Robert Alvarez Fernández é Arquiteto de Soluções Técnicas, com 20 anos de experiência em Tecnologia da

Informação, formado em Administração de Empresas pela FASP e mestre em administração de Empresas pela

PUC-SP e é professor de pós-graduação da ESPM.

Roberto Salomon é Arquiteto em Software Services na IBM. Com 12 anos de experiência em Tecnologia da

Informação e certificado em Engenharia de Software pela Georgia Institute of Technology - GeorgiaTech,

participou do início do debate sobre padrões textuais no governo brasileiro.

Roger Faleiro Torres é Projetista de Sistemas Sênior, com 20 anos de experiência em Tecnologia da Informação,

formado em Ciência da Computação pela PUC/MG, com MBA em Gestão Empresarial e em Logística Empresarial

pela FGV. É mestre em Administração de Empresas, com ênfase em Gestão da Informação pela FEAD.

Page 222: 100 Mini Papers sobre tecnologia

Rudnei R. Oliveira é Especialista de Sistemas com 12 anos de experiência em Tecnologia da Informação e

formado em Tecnologia da Informação com ênfase em Negócios pela FATEC-SP.

Sandro Augusto da Silva é IT Specialist, com 15 anos de experiência em Tecnologia da Informação, formado em

Ciência da Computação pela Universidade Federal de Uberlândia.

Tania Cristina Okay é Gerente Técnica de Information Management em Software Group para a América Latina,

com mais de 15 anos de experiência em Tecnologia da Informação. Formada em Engenharia Mecatrônica pela

Escola Politécnica da Universidade de São Paulo, Tania tem se dedicado intensamente na implementação de

projetos de Business Intelligence em clientes brasileiros, com ênfase na área financeira.

Thiago Canozzo Lahr é Analista de Segurança da Informação desde 2002, certificado IT Specialist e na área de

Ethical Hacking, e também graduado em Engenharia de Computação pela PUC-Campinas.

Thiago Guimarães Moraes é Arquiteto de Aplicação, com 10 anos de experiência em Tecnologia da Informação,

formado em 2001 pela UFRJ, mestre em Sistemas de Informação e doutorando em Engenharia de Sistemas e

Computação pela COPPE/UFRJ.

Wainer Mendes Toni é Senior IT Architect, com 21 anos de experiência em Tecnologia da Informação. É formado

em Engenharia Elétrica pela FEI – Faculdade de Engenharia Industrial e pós-graduado em Master Business

Information System - Executivo em Ciência da Computação pela PUC-SP.

Wilson Eduardo Cruz é Gerente de Arquitetos da IBM, com 26 anos de experiência em Tecnologia da Informação,

formado em Engenharia na Escola Politécnica da USP, com MBA na Fundação Dom Cabral. É membro da IBM

Academy of Technology desde 2006.

Wladmir dos Santos Frazão é Arquiteto Certificado IBM e Open Group, com 24 anos de experiência em Tecnologia

da Informação, formado em 1990 pela Fatec e é Mestre em Engenharia de Software pelo IPT.

Page 223: 100 Mini Papers sobre tecnologia

Este livro foi composto em Avenir 10

e impresso sobre papel offset 90g

e capa sobre papel cartão 250g, em dezembro de 2011.

Page 224: 100 Mini Papers sobre tecnologia

O ano de 2011 é um marco na história da IBM. Foi neste ano que a companhia celebrou 100 anos de existên-

cia, dos quais 94 com presença no Brasil. Há 7 anos, o Technology Leadership Council-Brazil (TLC-BR) publica

artigos em seus veículos internos, mas também em comunidades externas e veículos de comunicação em

geral. O TLC-BR tem como missão integrar a comunidade técnica da IBM Brasil, suportar e contribuir para os

negócios da empresa. Além disso, busca promover a visibilidade externa, a vitalidade técnica, a inovação e

a tecnologia de ponta, com os clientes, executivos de negócios e a sociedade. Chegar ao centésimo artigo

publicado é um marco importante e também sinal de que há muito conteúdo a ser explorado e desenvolvido,

em prol não apenas dos profissionais técnicos, mas de toda a sociedade.