112
Transformação e Mudança 100 MINI PAPERS TECHNOLOGY LEADERSHIP COUNCIL BRAZIL

Transformacao e mudanca - 100 mini papers - eBook

Embed Size (px)

Citation preview

Transformação e Mudança 100 mini papers

Technology leadership council Brazil

Transformação e mudança

100 mini papers

Technology leadership council Brazil

São Paulo

2014

4

Technology leadership council Brazil

apresenTação

Transformação e mudança: a decisão é sua – lidere ou desisTaRodrigo Kede de Freitas Lima, General Manager IBM Brasil

Estamos em um momento de grandes transformações. Se você

vive no Brasil e trabalha em tecnologia tem motivo de sobra

para se sentir em uma montanha-russa. Toda montanha- russa

desperta uma serie de sensações – enquanto uns tem medo,

outros se divertem, outros sentem frio na barriga; mas uma

coisa é certa – a maioria no final da viagem tem uma sensação

de desafio cumprido e de ter vencido.

Podemos começar falando do Brasil. Em 1985, depois de mais

de 20 anos de regime militar, tivemos novamente um presidente

civil (Tancredo Neves), eleito pelo congresso nacional, que

nem chegou a tomar posse, pois

faleceu antes disso. A nova geração

talvez não conheça os detalhes do

movimento “Diretas Já” que mostrou a

força que tem um povo unido que briga

pelos seus direitos. Entre 1985 e 1990

passamos por vários planos econômicos

fracassados e uma eleição presidencial

– a primeira na qual o povo foi às urnas

e escolheu seu presidente. Estávamos

ainda engatinhando no restabelecimento

da tal democracia, algo completamente

esquecido nos quase 21 anos de regime

militar. Hoje, olhando para trás, fica mais

fácil entender a história toda, mas não

é possível “(re)aprender democracia” em 5 anos. Cometemos

muitos erros e alguns acertos.

Em 1989, fomos às urnas e elegemos um presidente da República

jovem, que prometia mudar o país, corrigir a onda de corrupção

que assolava o nosso querido Brasil. Pouco mais de 2 anos

depois de sua eleição, o povo foi mais uma vez às ruas para

pedir o impeachment do então presidente Fernando Collor.

Seu vice-presidente assumiu o poder e concluiu o mandato em

1995. Foram anos de muito aprendizado para o povo, para os

políticos e para o sistema. Eu costumo dizer que esse foi um

período importante de transformação do país em uma democracia

(por mais rudimentar e problemático que tenha sido o período,

conseguimos restabelecer um país democrático).

Novamente fomos às urnas e elegemos um novo presidente.

Fernando Henrique Cardoso, ex-ministro da Fazenda do governo

Itamar, um dos pais do Plano Real, construiu a credibilidade com

o país inteiro enquanto era ministro para se candidatar e ganhar

as eleições. FHC, como era conhecido, foi responsável por uma

fase fundamental no desenvolvimento do país. Nos seus dois

mandatos, foi o responsável por estabilizar a economia e mudar

o cenário do país: criou a lei de responsabilidade fiscal, saneou

o sistema financeiro, construindo um dos mais sólidos do mundo,

privatizou vários setores como o de Telecomunicações e Energia.

Antes do seu Plano Real, vivíamos um mundo de 40% de inflação

ao mês; algo inimaginável nos dias de

hoje – os preços nos supermercados

mudavam várias vezes ao longo do dia

(dá para viver assim?). Considero a fase

do Governo FHC como de eficiência

operacional e estabilização econômica.

Novamente estamos falando de quase

10 anos de muita transformação.

Em 2002, a população elegeu Luis

Inácio Lula da Silva, ou Lula apenas.

Lula certamente surpreendeu muitos

durante sua gestão, menos radical do

que era esperado por alguns setores.

Honrou contratos, manteve a filosofia de

gestão econômica do governo anterior e colocou em cargos-

chave pessoas com bastante credibilidade como o presidente

do Banco Central – Henrique Meirelles (ex CEO Global do Bank

Boston). Lula focou seus esforços em resolver o problema de

pobreza no país, sua principal bandeira. No final de suas duas

gestões, acho que existem, assim como nos governos anteriores,

alguns marcos que foram fundamentais para o desenvolvimento

do país. O primeiro foi o que chamo de Mobilidade Social – uma

democracia em algum momento aprende a gerir o país e estabilizar

sua economia. Depois disso é natural que a pirâmide social

comece e mudar. Tínhamos uma classe média que representava

pouco mais de 20% da população e hoje estamos falando de

quase 60% da população. O Brasil também se beneficiou por

5

Technology leadership council Brazil Technology leadership council Brazil

ser um dos maiores produtores de commodities do mundo e

aumentou significativamente o nível de exportações para a

China, segunda economia do mundo, que virou nosso maior

parceiro comercial, trazendo muita riqueza para o país. Natural,

depois do restabelecimento da democracia e da estabilização

da economia. O país cresceu acima da média das décadas

anteriores graças a uma nova classe de consumidores. Nosso

crescimento como país foi resultado do crescimento do consumo

interno e do sucesso da China.

Em 2010, Dilma foi eleita presidente da República. Desde

2008, com a crise mundial, crescer ficou mais difícil. Somente o

consumo doméstico não é suficiente para fazer o país crescer nos

patamares necessários. A China, apesar de continuar crescendo,

cresce menos e compra menos. E agora? O nome do jogo para

o Brasil é eficiência e competitividade. Para conseguir isso,

precisamos de um investimento enorme em infraestrutura e

educação para disponibilização de mão de obra qualificada.

Com aproximadamente 5% de taxa de desemprego, como

vamos crescer? Temos que fazer mais com o mesmo, ser mais

eficientes e produtivos. Portos, aeroportos, ferrovias, tecnologia,

pesquisa e desenvolvimento nas mais diversas áreas, investimento

pesado em educação básica... Estamos no meio dessa batalha.

Já começamos esse trabalho como país. Muitas são as críticas e

o povo, com legitimidade, foi às ruas questionar e pedir solução

para os seus problemas.

Sou um eterno otimista e acredito que, apesar dos erros e da

velocidade, estamos fadados a crescer e nos tornar um país

desenvolvido em algum momento. Temos 19% da terra arável e

12% da água potável do mundo. Quanto vai valer isso em 2050,

quando 70% da população mundial estará vivendo em cidades?

Temos que acelerar os investimentos e o desenvolvimento. Essa

será a única forma de termos um país desenvolvido para os

nossos netos.

Vivemos, portanto, num país em uma enorme Transformação.

E cada um de nós tem seu papel nessa jornada.

Você deve estar pensando qual a relação disso com tecnologia

e com a IBM. Na minha opinião, absolutamente tudo. Toda

essa transformação só existirá com uso intenso de tecnologia

pela empresas, governos e instituições. Nós da IBM investimos

100 anos trabalhando pelo progresso da sociedade, portanto

podemos e teremos um papel ainda mais fundamental na

transformação do Brasil.

Por esta razão, gostaria de falar sobre outra transformação que

esta acontecendo no mercado de TI. Os clientes estão cada vez

mais comprando outcomes, soluções de negócio, específicos

para cada setor, ao invés de infraestrutura. Temos que pensar

que agora a commoditização não será dos produtos apenas

e sim dos modelos. O mundo caminha a passos largos para

cloud, mobile, social business e big data. A tecnologia está

saindo do back office e indo cada vez mais para o front office.

Está deixando de ser custo e virando fonte de receitas. “Dados”

já são o novo recurso natural e as empresas e instituições que

entenderem isso sairão na frente. No caso específico da IBM,

somos a única empresa do mercado que desenvolveu a tecnologia

de Computação Cognitiva, que na minha opinião vai mudar a

forma como vivemos e trabalhamos.

Estamos, portanto, vivendo um momento de transformação intensa

em tecnologia também. Tenho certeza de que daqui a 5 anos,

teremos novos players e alguns concorrentes desaparecerão.

Precisamos, cada vez mais, nos especializar nas novas tendências

da tecnologia e não somente nos produtos – e isso é válido

para vendas, para o time técnico, para delivery e até mesmo

para o back office.

Dizemos que a cada 30-40 anos, a tecnologia passa por uma

onda disruptiva. Esse momento é agora.

Brasil e Tecnologia, ambos num momento crucial de transformação.

Combinação “especial”. Como disse, tem gente que gosta de

montanha-russa (como eu), outros não.

A jornada é longa, mas o jogo é ganho a cada dia.

Lidere ou desista.

Copyright © 2014 IBM Brasil — Indústria, Máquinas e Serviços Ltda.

Todas as marcas neste livro são propriedades de seus respectivos donos, com direitos reservados.

Organização: Technology Leadership Council Brazil.

Coordenadores do livro: Argemiro José de Lima e Maria Carolina Azevedo.

Projeto Gráfico: www.arbeitcomunicacao.com.br

Dados Internacionais de Catalogação na Publicação (CIP) (Câmara Brasileira do Livro, SP, Brasil)

Transformação e mudança [livro eletrônico] : 100 mini papers. -- São Paulo : Arbeit Factory Editora e Comunicação, 2014.

Vários autores. ISBN 978-85-99220-04-7

1. Computação 2. Engenharia de software 3. IBM - Computadores 4. Liderança 5. Mudança 6. Tecnologia da informação.

14-11613 CDD-004

Índices para catálogo sistemático:

1. Transformação e mudança : Liderança : Tecnologia da informação 004

Computadores Híbridos, a próxima fronteira da computação .................................................................................... 10

Como ler em cinquenta anos o que foi escrito hoje? .................................................................................................. 11

A maneira Lean de se pensar ..................................................................................................................................... 12

Então, você quer trabalhar com Arquitetura de TI? ..................................................................................................... 13

Computação Quântica ................................................................................................................................................ 14

O desafio da modernização de sistemas legados ...................................................................................................... 15

Tecnologia para Cidades Inteligentes ......................................................................................................................... 16

Tudo como Serviço ...................................................................................................................................................... 17

O Nevoeiro e o Sapo ................................................................................................................................................... 18

Boas práticas para a elicitação de requisitos ............................................................................................................. 19

O homem que enxergou a forma das coisas .............................................................................................................. 20

Métricas de Software .................................................................................................................................................. 21

Gestão por Competências: é hora do C.H.A. ............................................................................................................. 22

Daily Scrum para todos! .............................................................................................................................................. 23

Como agradar ao cliente que contrata serviços? ....................................................................................................... 24

Especial Centenário da IBM: SAGE, um berço de inovação ...................................................................................... 25

Integrar conhecimentos: o desafio do consultor ......................................................................................................... 26

Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial...................................... 27

A evolução do modelo de entrega de serviços de TI .................................................................................................. 28

Especial Centenário da IBM: IBM 1401, quando os tempos eram outros... ................................................................ 29

A Internet das Coisas .................................................................................................................................................. 30

Especial Centenário da IBM: O Programa Espacial e a Tecnologia da Informação ................................................... 31

Colaboração eficiente em um Planeta Inteligente ....................................................................................................... 32

Especial Centenário da IBM : Enxergando o mundo melhor ...................................................................................... 33

Vivemos em um mundo cada vez mais instrumentado ............................................................................................... 34

Especial Centenário da IBM: Elementar, meu caro Watson ........................................................................................ 35

Impactos da revolução multi-core no desenvolvimento de software .......................................................................... 36

Especial Centenário da IBM: A IBM e a Internet ......................................................................................................... 37

Governança, Risco e Conformidade ........................................................................................................................... 38

Especial Centenário da IBM: IBM Tape: Quebrando barreiras no armazenamento de dados ................................... 39

O novo Bug do Milênio? .............................................................................................................................................. 40

Manutenções de sistemas na velocidade do negócio ................................................................................................ 41

Escalabilidade e Gerenciamento em Cloud Computing ............................................................................................. 42

A evolução da Web na direção dos negócios ............................................................................................................. 43

Agilidade Financeira em TI .......................................................................................................................................... 44

Gestão de Custos de TI ............................................................................................................................................... 45

FCoE, a integração das redes LAN e SAN ................................................................................................................. 46

Poder, muito poder, de processamento ...................................................................................................................... 47

sumário

O Poder da Tecnologia Social ..................................................................................................................................... 48

Meninas e Tecnologia ................................................................................................................................................. 49

Sobre Profetas e Bolas de Cristal ................................................................................................................................ 50

Cidades inteligentes: o trabalho se move para que a vida siga .................................................................................. 51

Tecnologia especial para a inclusão social ................................................................................................................. 52

Agile: você está preparado? ........................................................................................................................................ 53

A Teoria das Inteligências Múltiplas e as Profissões em TI ......................................................................................... 54

Analytics ao alcance dos seus dedos ......................................................................................................................... 55

A importância do processo de RCA ............................................................................................................................ 56

Posso ver os dados? ................................................................................................................................................... 57

Aprender Brincando .................................................................................................................................................... 58

Processamento de áudio em placas gráficas ............................................................................................................. 59

Unicode ♥ דוקינו ☻ Уникод ♫ وكينوي .......................................................................................................................... 60

A verdade é um caminho contínuo .............................................................................................................................. 61

Tudo (que importa) a seu tempo .................................................................................................................................. 62

Computação em Nuvem e Sistemas Embarcados ..................................................................................................... 63

Nanotecnologia — Como Isso Muda Nossas Vidas? ................................................................................................... 64

TI com Sustentabilidade e Eficiência ........................................................................................................................... 65

A estratégia e sua operacionalização ......................................................................................................................... 66

A evolução do NAS ..................................................................................................................................................... 67

Vai para a nuvem ou não vai? ...................................................................................................................................... 68

Profissão: Arquiteto de Negócios ................................................................................................................................ 69

Quatro Horas? ............................................................................................................................................................. 70

Se botar sua reputação na vitrine, ela vai valer mais que R$ 1,99? ............................................................................ 71

O que é Segurança da Informação ............................................................................................................................. 72

A matemática do acaso ............................................................................................................................................... 73

A Origem do Logical Data Warehouse (LDW) ............................................................................................................. 74

Storage & Fractais ....................................................................................................................................................... 75

Social Business versus Social Business Model .......................................................................................................... 76

Método Científico e Trabalho ...................................................................................................................................... 77

Qual é o tamanho do link? ........................................................................................................................................... 78

Bancos de dados NoSQL ........................................................................................................................................... 79

Os desafios da Internet das Coisas ............................................................................................................................ 80

Traga seu dispositivo móvel ........................................................................................................................................ 81

O céu é o limite para a automação inteligente ............................................................................................................ 82

Inteligência em segurança, uma nova arma contra o cyber crime ............................................................................. 83

Tecnologia Transformando Cidades Inteligentes ........................................................................................................ 84

Crowdsourcing: o poder da multidão .......................................................................................................................... 85

TOGAF – O que é e por quê? ....................................................................................................................................... 86

Revele o cliente que está por trás dos dados ............................................................................................................. 87

Singularidade: Você está pronto para viver para sempre? ......................................................................................... 88

Agora eu posso twittar ................................................................................................................................................ 89

O novo consumidor ..................................................................................................................................................... 90

Transformando riscos em oportunidades de negócio ................................................................................................. 91

QoS em redes de acesso em banda larga ................................................................................................................. 92

As máquinas sentem? ................................................................................................................................................. 93

Alinhando TI e TA ........................................................................................................................................................ 94

O “Vale do Grafeno” e a Revolução Tecnológica ........................................................................................................ 95

O tempo não para, mas pode ser melhor aproveitado... ............................................................................................. 96

Ontologias e a Web Semântica ................................................................................................................................... 97

Customização em massa: obtendo uma vantagem competitiva ................................................................................ 98

Software Defined Network: O Futuro das Redes ........................................................................................................ 99

Uma vista privilegiada do planeta Terra ...................................................................................................................... 100

Sorria, você pode estar nas nuvens ............................................................................................................................ 101

IBM Mainframe – 50 anos de Liderança Tecnológica e Transformação ...................................................................... 102

A Interoperabilidade da Internet das Coisas ............................................................................................................... 103

Gerência de Projetos Ágil ou PMBOK®?...................................................................................................................... 104

Sangue, suor e Web: como a World Wide Web foi criada ........................................................................................... 105

Acesso Direto à Memória: vulnerabilidade por projeto? .............................................................................................. 106

Big Data e o nexo das forças ...................................................................................................................................... 107

Desmistificando Capacidade Virtual, Parte I .............................................................................................................. 108

Desmistificando Capacidade Virtual, Parte II ............................................................................................................. 109

Considerações Finais e Agradecimentos ................................................................................................................... 110

10

Technology leadership council Brazil

Por mais de 20 anos a indústria

de TI conseguiu manter válida

a Lei de Moore, dobrando a

capacidade de processamento

dos chips a cada 18 meses,

mas ultimamente tornou-se um

grande desafio manter tal ritmo,

o que pode significar uma

ameaça para o mercado, que

segue demandando por mais

capacidade.

A atual arquietura de chips atingiu sua limitação física,

considerando-se a curva de desempenho versus a dissipacão de

calor gerada e a energia necessária para o seu funcionamento.

Não é mais possível continuar entregando mais capacidade sem

uma mudança de conceito e de arquitetura. Já foram tentadas

algumas soluções, como por exemplo a fabricação de chips

multicore, mas ainda não se resolveu esse impasse. Por outro lado,

o mercado de TI continua precisando de mais capacidade para

atender às novas demandas de negócio, através de aplicações

cada vez mais complexas, as quais requerem computadores

cada vez mais potentes.

A indústria está buscando alternativas para endereçar essa

questão. Uma consiste no aumento do nível de paralelismo entre

os diversos núcleos de processamento de um mesmo chip, o

que requer novos conceitos de programação e redesenho dos

atuais sistemas para que possam explorar essa arquitetura de

processadores. Outra alternativa consiste na implementação de

um novo conceito de computadores, baseado numa arquitetura

híbrida de processadores.

Computadores híbridos são compostos por distintos tipos

de processadores, fortemente acoplados sob um sistema

integrado de controle e gestão, que possibilita o processamento

de cargas complexas e variadas. A Intel e AMD, por exemplo,

estão trabalhando em chips multicore nos quais os núcleos de

processamento são distintos entre si, para possibilitar ganhos

de desempenho sem bater no teto da dissipação de calor.

Mas ainda não há previsão de liberação desses novos chips

para o mercado.

A IBM está trabalhando em um novo servidor da plataforma

z/Series, o qual conterá processadores das suas tradicionais

famílias (Mainframe, POWER7 e x86) dispostos numa única

plataforma computacional, gerenciada de forma centralizada e

integrada. No passado recente a IBM disponibilizou um servidor

z/Series integrado com processadores Cell para atender uma

necessidade específica da Hoplon, empresa brasileira que

atua no mercado de infojogos. Essa experiência foi muito bem

sucedida e possibilitou o avanço na direção do conceito de

servidor híbrido. Com essa nova plataforma, que está em

fase final de desenvolvimento, a IBM pretende prover uma

solução de grande desempenho e escalabilidade, capaz de

atender às demandas por soluções que requerem poder de

processamento com características mistas entre as tradicionais

aplicações comerciais e aplicações de computação intensiva

(High Performance Computing).

Com os computadores híbridos pretende-se ultrapassar as

limitações impostas pelas atuais arquiteturas e também resolver

os problemas gerados pela forte dependência existente entre

as aplicações e a plataforma computacional para as quais

foram originalmente projetadas. Esse novo tipo de computador

funcionará como se fossem vários servidores lógicos virtualizados

num único servidor físico, com uma camada de gerência integrada,

capaz de distribuir partes de uma aplicação para o processador

que lhe for mais propício, dando ao seu usuário as facilidades

e os beneficios de uma plataforma fisicamente centralizada,

mas logicamente distribuída, endereçando os atuais desafios

do mundo descentralizado relativos à integração de aplicações,

segurança, monitoração, distribuição de carga e contabilidade

do uso de recursos, entre outros.

Simplificação da TI, redução do número de servidores instalados

(e de seus requisitos de espaço, energia e refrigeração), maior

capacidade de gerência de ponta-a-ponta e, consequentemente,

redução do custo total de propriedade. Essas são as propostas

de valor das arquiteturas híbridas.

Estamos na iminência de uma nova plataforma computacional,

a qual poderá representar uma mudança de paradigma na

indústria de TI e possibilitar novas soluções de negócios, abrindo

horizontes para as empresas e para toda a sociedade.

Para saber mais:

http://www.redbooks.ibm.com/abstracts/redp4409.html

compuTadores híBridos, a próxima fronTeira da compuTação

Daniel Raisch

11

Technology leadership council Brazil Technology leadership council Brazil

como ler em cinquenTa anos o que foi escriTo hoje?Roberto F. Salomon

Faz relativamente pouco tempo que começamos a usar arquivos

em mídia eletrônica para armazenar documentos. Além do papel,

já usamos diversos outros suportes para os nossos documentos

como madeira, pedra, barro e cera. Ao usar esses suportes

nossos antepassados os tornavam indissociáveis do documento

propriamente dito.

Com a chegada da mídia eletrônica, conseguimos separar, pela

primeira vez, o suporte de um documento de seu conteúdo. Assim,

os documentos se tornaram “virtuais”, sendo armazenados em

arquivos digitais gerados por algum aplicativo. Graças ao suporte

digital, uma cópia de um documento é idêntica ao seu original.

Seria o melhor dos mundos se não houvesse a questão da

recuperação e leitura posterior desses documentos. Trabalhamos

bem a analogia de uso de softwares para a produção de

documentos: uma folha de papel em branco exibida na tela

na mesma posição em que estaria uma folha em uma máquina

de escrever.

No entanto, não houve, até recentemente, uma discussão

adequada sobre o formato de armazenamento desses

documentos, resultando em problemas de compatibilidade

com os quais convivemos até hoje. A vinculação dos formatos

aos softwares que os criaram tornou-se uma barreira à adoção

de novas tecnologias e soluções.

O problema gerado pela ausência de padronização no

armazenamento de documentos é apenas a parte mais visível

da questão. A falta de padronização na comunicação entre

os componentes de software que adquirimos é tão grande

quanto o número de fornecedores existentes no mercado.

Enquanto a adoção de soluções que suportem padrões abertos

e publicados faz sentido econômico para a iniciativa privada,

no setor público essa adoção é vital para a preservação das

informações do Estado.

A preocupação com o uso de padrões abertos em documentos

oficiais levou a União Européia a publicar uma definição do que

é um padrão aberto. Há várias, mas todas concordam que um

padrão aberto deve:

• ser mantido por organização sem fins lucrativos, através

de um processo aberto de decisão:

• ser publicado e acessível sem custo, ou a um custo

meramente nominal;

• garantir o acesso gratuito, sem o pagamento de royalties,

a toda propriedade intelectual do padrão.

Vários padrões se adequam a essa definição comum, dentre

eles o ODF – OpenDocument Format, que define o formato de

armazenamento para documentos eletrônicos textuais.

No Brasil, o Governo Federal já reconheceu a importância da

adoção de padrões que permitam a integração aberta entre os

seus órgãos e os demais poderes e esferas da administração

pública. A edição do e-PING – Padrões de Interoperabilidade

de Governo Eletrônico, demonstra que o Governo Federal já

entende ser necessário estabelecer quais os padrões que

serão usados para a comunicação com a sociedade. Essa

definição deve ser o mais independente possível de pressões

econômicas de grupos de interesse. Iniciativas como a do e-PING

são estratégicas e necessárias.

Há hoje um consenso sobre sua importância, demonstrado

por eventos como a “Government Interoperability Framework

Global Meeting 2010”, promovida pelo PNUD (Programa das

Nações Unidas para o Desenvolvimento) realizada no Rio em

maio de 2010.

Os governantes precisam ter claro que em um mundo cada

vez mais digital o Estado não pode se furtar de estabelecer

o uso de padrões abertos, o que comprometeria seriamente

a capacidade de colaboração entre órgãos governamentais

e entre estes e a sociedade civil, criando obstáculos para a

preservação de investimentos e da memória da nação.

Para saber mais:

http://www.odfalliance.org

12

Technology leadership council Brazil

a maneira lean de se pensar

Diego Augusto Rodrigues Gomes

Vivenciamos um conjunto de mudanças de pensamento em

várias esferas do conhecimento. Na economia, muitos órgãos e

empresas tentam diminuir suas despesas. No contexto do meio

ambiente, temos acordos entre países para a redução de gases

de forma a estancar o aumento da temperatura global. Além

disso, estamos sob crescente incentivo à economia de água,

energia elétrica e à diminuição da poluição. Também estamos

frequentemente criando mecanismos inteligentes para o uso

doméstico diário. E o que é comum a tudo isso?

O esforço na redução do consumo de recursos e o seu melhor

aproveitamento. Com base na cultura e nos princípios de

gerenciamento adaptados do Sistema Toyota de Produção,

que surgiu no Japão como alternativa ao sistema de produção

em massa, foi criado o termo Lean (enxuto) para descrever

os sistemas de produção que buscam fornecer, a um custo

reduzido, valor aos clientes por meio da melhoria dos fluxos

entre processos.

Ao eliminar-se o desperdício em todos os fluxos que geram

valor, criam-se processos que demandam menos esforço,

menos espaço, menos capital e que requerem menos tempo

para a criação de produtos e serviços. Tudo isso com menos

defeitos e com maior qualidade quando comparados aos

processos tradicionais.

Os cinco princípios norteadores do pensamento Lean afirmam

que é imprescindível:

1. definir o que é valor para o cliente e procurar satisfazê-lo;

2. definir o fluxo de valor de maneira a eliminar processos que não agreguem ao produto final (eliminar desperdícios);

3. dar fluidez aos processos, criando um fluxo contínuo de produção, atendendo rapidamente às necessidades do cliente (flexibilidade);

4. não mais empurrar o produto para o consumidor, e sim, fazer com que ele o retire de acordo com sua necessidade;

5. buscar a excelência e perfeição (qualidade e melhoria contínua).

A melhoria dos processos se dá não apenas pela redução,

mas pela eliminação de desperdícios, categorizados em sete

tipos: superprodução (produção além da demanda); espera

(períodos de inatividade devido à espera pelo próximo passo

da produção); transporte (movimento de partes desnecessárias

ao processamento); excesso de processamento (retrabalho);

deslocamento (pessoas ou equipamentos se movimentando

mais que o necessário para a execução de um procedimento);

inventário (estoque de insumos que não estão diretamente ligados

à necessidade atual); defeitos (perda de unidades de produção

e de tempo gasto para construí-las).

A busca pela qualidade segue duas estratégias: treinar e

desenvolver a força de trabalho e tornar os processos estáveis

e capazes de atender às necessidades do cliente. Pessoas

motivadas e que abraçam a cultura e filosofia da empresa são

o coração desse modelo. Cada um é responsável por melhorar

o fluxo de processos da instituição, sugerindo soluções e novas

abordagens, mesmo que não sejam responsáveis diretos por isso.

A flexibilidade nesse modelo é fruto do trabalho de profissionais

com múltiplas habilidades, os quais não só conhecem a sua

atividade e sabem operar suas ferramentas, mas também sabem

executar as atividades de outros profissionais, dando, assim,

maior fluidez ao fluxo de atividades que compõem a execução

dos processos.

Esse modelo de pensamento tem sido aplicado com sucesso em

diversos ramos de atividades, tais como manufatura, distribuição,

gestão da cadeia de suprimentos, desenvolvimento de produtos,

engenharia, entre outros. Mais recentemente, inclusive, tem

sido aplicado no processo de desenvolvimento de software.

Em síntese, falar de Lean é falar de maneiras coerentes de se

eliminar aquilo que não é necessário. Significa romper com o

pensamento “quanto mais, melhor”, agregar mais valor com

menos trabalho, reduzir custos, otimizar os tempos de produção

e entrega e melhorar a qualidade dos produtos e serviços.

Em outras palavras, é eliminar tudo aquilo que não agrega valor

e que não é importante ao resultado final. Adotar a filosofia Lean

como uma nova maneira de pensar e agir pode ser um bom

começo para tornar nosso planeta mais inteligente.

Para saber mais:

http://www.lean.org

http://www.lean.org.br

Livro: O Modelo Toyota, Jeffrey K. Liker (2005)

http://agilemanifesto.org/

13

Technology leadership council Brazil Technology leadership council Brazil

enTão, você quer TraBalhar com arquiTeTura de Ti?Cíntia Barcelos

Eu ainda lembro quando, há alguns anos, falei para meu pai

que iria mudar de função na empresa em que trabalho há

16 anos. Mencionei que tinha conseguido uma excelente

oportunidade em uma nova área como arquiteta de TI. Ele

ficou feliz, mas confuso (apesar de ter um doutorado em Física

Teórica), e me disse: “Mas minha filha, você não se formou em

Engenharia?”. Ele até já tinha aceitado eu ter sido contratada

como analista de sistemas, mas virar uma arquiteta era um

pouco estranho para ele.

Afinal, o que faz um arquiteto de TI? Ele projeta soluções baseadas

em Tecnologia da Informação para resolver problemas de negócio,

as quais comumente integram diversos sistemas e se utilizam de

múltiplas tecnologias, serviços e produtos. Esse profissional, que

tem um amplo conhecimento técnico e experiência em diversas

disciplinas, consegue identificar e avaliar as possibilidades até

chegar à solução que melhor vai atender às necessidades do

negócio. Por isso é um profissional que deve conhecer bem a

indústria e o negócio em que trabalha e, a partir desses contextos,

fazer a conexão com a área de tecnologia.

Ao projetar uma solução, o arquiteto de TI precisa entender bem

o ambiente e os padrões estabelecidos na empresa no qual a

solução será inserida. Na sua caixa de ferramentas estão, além da

ampla experiência, metodologias de projeto de sistemas, técnicas

de modelagem, conhecimentos de padrões de arquitetura e

habilidades de consultoria e gerência de projetos.

Apesar de possuir conhecimento e ferramentas, o arquiteto

de TI nunca cria uma solução sozinho, sempre trabalha em

conjunto com especialistas que possuem conhecimento profundo

em cada um dos componentes da solução. E é nesse ponto

que entram outras qualidades necessárias ao arquiteto de TI:

liderança, comunicação, trabalho em equipe e negociação.

São principalmente esses conhecimentos não-técnicos que

diferenciam esse profissional dos demais.

Outra forma de entender o que um arquiteto de TI faz é dizer o

que ele não faz. Ele não é um “super especialista” que conhece

profundamente todas as tecnologias, produtos ou serviços,

mas tem bastante experiência e um bom conhecimento sobre

como essas coisas funcionam e como podem ser combinadas.

O mais importante da sua atividade é saber enxergar cada

tecnologia ou componente da solução como uma “caixa preta”,

com suas entradas e saídas, entendendo o que cada “caixa”

é capaz de gerar, muito mais do que saber em detalhes o que

acontece lá dentro. Ele não é um gerente de projeto, mas precisa

ter conhecimentos básicos dessa disciplina e, geralmente,

torna-se o braço direito desse outro profissional, pois precisa

entender e orientar a implementação da solução que projetou.

Ele também não é um consultor, mas precisa conhecer técnicas

e metodologias de consultoria.

E nem preciso dizer que o arquiteto de TI não é o mesmo que

um super desenvolvedor ou um analista de suporte sênior.

A profissão de arquiteto de TI está em alta e a demanda por

esse profissional segue aumentando. No mercado já existe

certificação nessa profissão, oferecidas pelo OpenGroup, IASA

e Zachman, entre outras. Ao me tornar uma arquiteta de TI,

encontrei a função e a carreira que sempre almejei. Nunca quis

largar a área técnica, porque é minha vocação e, de certa forma,

meu grande diferencial. Ao mesmo tempo, como arquiteta de

TI posso exercer funções de liderança, entender do negócio e

da indústria. Ainda não tenho muita certeza se meu pai entende

exatamente o que eu faço, mas tudo bem, eu também nunca

consegui entender muito bem as publicações da pesquisa dele.

Acho que vou dar esse artigo para ele ler...

Para saber mais:

http://www.iasahome.org/web/home/certification

14

Technology leadership council Brazil

compuTação quânTica

Conrado Brocco Tramontini

A computação quântica (CQ) consiste no processamento de

dados representados por partículas subatômicas e seus estados.

Mas antes de olhar diretamente para a CQ, é necessário observar

um pouco dos princípios da mecânica quântica, a base de

diversos ramos da física e da química, cujos estudos começaram

no início do Século XX, com os trabalhos do alemão Max Planck

e do dinamarquês Niels Bohr, premiados com o Nobel de Física

em 1918 e 1927, respectivamente.

Os conceitos da Mecânica Quântica são tão incomuns que

o próprio Einstein não aceitou essa teoria como completa.

Niels Bohr já advertira, em 1927, que “qualquer um que não se

chocasse com a teoria quântica não a compreenderia”. Segundo

a Mecânica Quântica o estado de um sistema

físico é o conjunto de todas as informações que

podem ser extraídas desse sistema ao se efetuar

alguma medida, incluindo a soma desses estados.

É exatamente isso que você entendeu, o estado

de um sistema físico é o conjunto de todos

os seus possíveis estados. Esse fenômeno

é chamado de “superposição” e é uma das

bases para a CQ.

Um experimento teórico conhecido como “o gato

de Schröndinger”, demonstra a estranha natureza

das superposições quânticas, nele um suposto

gato está preso a uma caixa, com um frasco de

veneno que será liberado caso ocorra uma reação em uma

partícula quântica. O gato tem 50% de chance de estar vivo ou

morto. Já para a mecânica quântica, entende-se que devido

a superposição de estados da partícula, o gato está vivo e

morto ao mesmo tempo, esperando apenas que a influência do

observador defina seu estado. Aqui aparece outra importante

característica, o Princípio da Incerteza de Heisenberg, que diz

que não podemos determinar simultaneamente, e com precisão,

a posição e o momento de uma partícula. Para livrar o bichano

dessa situação e saber o que aconteceu, deve-se abrir a caixa

e espiar. Nesse momento é feito uma medida sobre o estado

do sistema, que colapsa em um único estado (vivo ou morto).

Até que isso ocorra os estados ficam superpostos.

Se você ficou meio chocado com o que leu até aqui, significa

que estamos no caminho certo...

Enquanto um computador clássico utiliza pulsos elétricos para

representar o estado dos bits com valores 0 ou 1, a CQ utiliza

partículas e propriedades quânticas superpostas, como átomos

excitados ou não ao mesmo tempo, fótons que podem estar

simultaneamente em dois lugares, elétrons e pósitrons ou prótons

e neutrons com estados sobrepostos.

Uma molécula de um único transistor pode conter milhares

de prótons e nêutrons que podem ser usados como qubits.

A superposição torna possível representar muito mais dados,

aumentando a capacidade dos canais de comunicação

da informação, permitindo à CQ efetuar processamentos

exponencialmente mais velozes do que a computação tradicional

porque, ao invés de processar um dado por vez, irá “raciocinar”

em bloco, processando vários dados ao mesmo

tempo, como se existisse um só.

A Google demonstrou em dez/2009, no

controverso chip quântico desenvolvido pela

D-wave, um sistema de busca em imagens que,

por usar superposição, se mostrou mais rápido do

que os atuais. É como se você pudesse procurar

suas meias em todas as gavetas, de uma só vez.

Outra importante aplicação é a criptografia

quântica na qual um servidor emaranha o qubit

B ao qubit A e os envia respectivamente para as

máquinas A e B e em seguida, o que a máquina

A escreve em seus qubits é replicado para os

qubits da máquina B, sem oferecer risco de ser interceptado

uma vez que não se utiliza de nenhum meio ou contato físico

mas sim de um outro fenômeno chamado, não por acaso, de

teletransporte.

Os sistemas quânticos ainda apresentam dificuldades para serem

controlados pois se mostram sensíveis às mínimas interferências

e também porque o tempo em que se consegue controlar as

partículas ainda é muito pequeno. No entanto, a despeito desses

desafios, existe um consenso de que o desenvolvimento dessa

tecnologia vem ocorrendo mais rápido do que se imaginava

inicialmente. Com a computação quântica, podemos dizer que

a computação clássica está viva e morta ao mesmo tempo?

Para saber mais:

http://www.fisica.net/computacaoquantica/

http://qubit.lncc.br/index.html

15

Technology leadership council Brazil Technology leadership council Brazil

o desafio da modernização de sisTemas legados

Victor Amano Izawa

No cenário atual, a maioria das empresas

precisa modernizar seus sistemas para

atender suas necessidades de negócio.

Essas atualizações nem sempre são simples

e muitas vezes necessitam implementar grandes

mudanças, afetando partes desses sistemas que podem ser

essenciais ao negócio.

A modernização pode ser necessária para o cumprimento de

leis regulatórias ou mesmo para cortar gastos e otimizar os

processos de negócio, com os quais as empresas visam manter-

se competitivas num mercado cada vez mais agressivo.

Quando se trata de modernização de sistemas legados, o custo

é a principal causa que impede as empresas de mudarem seus

sistemas. E mesmo que esses gastos sejam considerados como

um investimento nos negócios da empresa, existe ainda um outro

fator crítico, relacionado ao risco do processo de modernização,

o que contribui para desencorajar muitas ideias ou hipóteses

de modernização.

Nenhuma empresa quer arriscar seus negócios e ficar meses

aguardando a finalização do processo de modernização. Mas

isso significa que as empresas devem sacrificar seus negócios

e se tornarem menos competitivas? Como contornar isso de

maneira a minimizar esses riscos?

Uma solução adotada por várias empresas é modernizar

sua infraestrutura de sistemas utilizando-se de arquiteturas

distribuídas (clusters de servidores de alto desempenho). Sendo

assim, as empresas podem manter seus sistemas legados

com desempenho e capacidade elevados, fazendo uso de

computadores com alto poder de processamento, discos rígidos

de rápida resposta para grandes volumes de dados e redes

de fibra óptica com alta capacidade de transferência de dados,

por exemplo.

Quando as empresas decidem adotar uma estratégia e uma

política de modernização em seus sistemas, alguns fatores

devem ser considerados, tais como a adoção de um modelo de

processo de desenvolvimento de software e o gerenciamento

de escopo e risco.

Inicialmente deve-se avaliar se existe algum modelo de processo

de desenvolvimento de software vigente que possa atender às

necessidades da empresa ou se será adotado um novo modelo,

como o Open Unified Process (OpenUP) ou Rational Unified

Process (RUP), para que a modernização seja feita de maneira

organizada e otimizada.

Como muitas necessidades são apresentadas como melhorias no

sistema, é importante que cada uma seja analisada de maneira

que o escopo definido não seja muito alterado. A inclusão de

uma simples melhoria pode aumentar bastante a complexidade

da modernização e, consequentemente, impactar nas demais

partes do sistema. E isso significa considerar novos riscos e

aumentar o custo de desenvolvimento. Portanto, gerenciar riscos

é muito importante para que determinadas modificações não

impliquem em complicações futuras.

O desafio de manter-se atualizado pode ser enfrentado desde

que se saiba gerenciar os riscos, os custos e o processo como

um todo adequadamente. No mercado atual, uma empresa deve

demonstrar competência para sempre inovar e estar à frente da

concorrência, enfrentando com sabedoria os novos desafios.

Para saber mais:

Livros: Legacy Systems: Transformation Strategies (2002) – William M. Ulrich; Prentice Hall PTR

Modernizing legacy systems: Software technologies, engineering processes, and business practices (2003) – Robert Seacord, Daniel Plakosh, Grace Lewis; Addison-Wesley

16

Technology leadership council Brazil

Tecnologia para cidades inTeligenTes

José Carlos Duarte Gonçalves

Há algum tempo falamos que a globalização está deixando o

mundo cada vez mais plano, com menos barreiras geográficas.

Mas estamos começando a perceber um fenômeno ainda maior:

o planeta também está se tornando mais inteligente.

Quando comecei minha carreira em TI, há 33 anos, a memória

de um computador IBM S/370 era capaz de armazenar até

64Kbytes de informação. Atualmente qualquer telefone celular

possui milhares de vezes essa quantidade de memória.

O alcance da tecnologia também deu um enorme salto ao longo

desse tempo. Hoje já existe mais de quatro bilhões de usuários

de telefonia celular no mundo, o que representa quase 70% da

população mundial. Até o final de 2010, estima-se que haverá

mais de um bilhão de transistores para cada ser humano, cada

um custando um décimo de milionésimo de centavo de dólar.

Estima-se também que haverá mais de 30 bilhões de etiquetas

de RFID (identificação por rádio frequência) em circulação, além

de dois bilhões de pessoas conectadas à Internet.

O que isso tudo significa? Que pela primeira vez na história, as

infraestruturas digitais e físicas do mundo estão convergindo

e praticamente qualquer coisa pode se tornar digitalmente

conectada a um baixo custo. O mundo está caminhando para

ter um trilhão de coisas conectadas – a “Internet das Coisas”

feita de carros, geladeiras, prédios, rodovias, etc.

Mas para termos um mundo realmente mais inteligente temos

que cada vez mais nos preocupar com o meio ambiente, a

sustentabilidade do planeta e o não esgotamento dos seus

recursos naturais. Temos hoje a oportunidade de usar a tecnologia

para resolver ou minimizar os grandes problemas da sociedade,

tais como congestionamentos de trânsito, conservação de água

potável, distribuição de alimentos e energia, serviços de saúde,

entre outros.

Uma das questões mais críticas é o transporte, com seus

engarrafamentos caóticos nas grandes cidades. Só em São

Paulo, o custo do congestionamento, levando-se em conta

o tempo ocioso das pessoas nos horários de trânsito mais

intenso, passa de R$ 27 bilhões por ano. Se forem considerados

também os gastos referentes ao consumo de combustível e o

impacto dos poluentes na saúde da população, teremos um

custo adicional anual de R$ 7 bilhões.

Como resolver? Cidades como Estocolmo, Cingapura, Londres e

Brisbane já estão buscando soluções inteligentes para gerenciar

melhor o trânsito e reduzir a poluição. As iniciativas vão desde

a previsão do tráfego aos sistemas de pedágio inteligentes e

dinâmicos. Em Estocolmo, com a implementação do pedágio

urbano, o congestionamento já foi reduzido em 25%, a redução da

poluição chegou a 40% e o uso de transporte público aumentou

em 40 mil pessoas/dia.

Os líderes de governo e das instituições, precisam identificar as

oportunidades certas e obter os investimentos necessários por

meio de incentivos e programas de apoio. É importante ressaltar

que tornar-se mais inteligente não se aplica apenas às grandes

corporações, mas também às empresas de pequeno e médio

porte que são os motores de nosso crescimento econômico.

Cada vez mais, seremos medidos pela maneira como aplicamos

nosso conhecimento e nossa capacidade para resolver os

grandes problemas. É um desafio que devemos entender e

receber de braços abertos, de maneira a buscar resolver os

problemas e tornar as cidades mais inteligentes.

Para saber mais:

http://www.ibm.com/innovation/us/thesmartercity

http://cities.media.mit.edu/

http://www.smartcities.info/

17

Technology leadership council Brazil Technology leadership council Brazil

Tudo como serviço

Sergio Varga

A evolução e maturidade das tecnologias de virtualização, os

avanços de desempenho e capacidade dos servidores e redes,

e o aumento de aplicações compartilhadas estão permitindo

às empresas disponibilizarem uma vasta gama de soluções no

modelo “as a Service” (aaS). Aplicações que até há pouco tempo

atrás não se imaginava que poderiam ser implementadas nesse

modelo agora já estão disponíveis. Como um exemplo, no final

de 2009 a IBM lançou no mercado o TivoliLive, um ambiente

de monitoração disponível no modelo “Monitoring as a Service”.

Noutro exemplo temos as já conhecidas Box.net e Salesforce.com,

que integraram o modelo de armazenamento de documentos

de uma com o de gestão de relacionamento com clientes da

outra, oferecendo novos serviços

combinados no modelo “Software

as a Service” (SaaS).

Communication as a Service

(CaaS), Infrastructure as a Service

(IaaS), Platform as a Service

(PaaS), Service Management as

a Service (SMaaS) são alguns

outros exemplos desse modelo de

serviços que tem crescido muito

nos últimos anos. Esse mercado,

segundo a previsão do IDC, saltará

dos US$ 17.4 bilhões em 2009 para

mais de US$ 44 bilhões em 2013. Outra pesquisa, da Saugatuck

Technologies, afirma que ao fim de 2012, 70% das pequenas

e médias empresas e 60% das grandes terão pelo menos uma

aplicação SaaS, ou seja, esse modelo não será restrito a um

determinado tamanho de empresa.

O primeiro grande grupo de aplicações a entrar no modelo “as a

Service” foram as de CRM, Recursos Humanos e Procurement,

ou seja, principalmente aquelas voltadas para usuários finais.

A partir de então, outras começaram a serem portadas para

esse modelo e hoje temos uma enorme lista de aplicações, até

mesmo aquelas desenvolvidas localmente. Outro grande uso

das soluções aaS é para projetos-piloto e análise de aplicações

a serem implementadas na empresa.

Um fator importantíssimo para a explosão dessas aplicações é

o cloud computing, que está se tornando uma realidade. Várias

empresas já estão disponibilizando esse tipo de infraestrutura,

como a Amazon que em 2006 lançou o Elastic Compute Cloud,

e a IBM que em 2009 lançou o Cloudburst.

No entanto, para a disseminação do modelo “as a Service”, existem

quatro grandes desafios, identificados em outra pesquisa feita pelo

IDC ainda em 2008: segurança, desempenho, disponibilidade e

integração. Aumentar a segurança das soluções implementadas

através da Internet e garantir a privacidade das informações

é a maior prioridade para empresas que proveem aplicações

no modelo “as a Service”. A segunda maior preocupação é

disponibilizar aplicações com um

desempenho aceitável e para isso,

além de servidores de grande

capacidade, também podem ser

necessários vários pontos de

presença espalhados pelo mundo

para minimizar a latência de rede.

Para ter alta disponibilidade nesses

ambientes são necessários planos

de continuidade e monitoração

ininterrupta. Outro desafio é habi-

litar soluções que sejam fáceis de

ser integrar com os sistemas dos

clientes, eventualmente em nuvens diferentes.

Apesar dos desafios, a facilidade de implementação, o baixo

custo sugerido e a inexistência de investimentos em hardware

e software são grandes atrativos para os clientes adotarem

aplicações oferecidas nesse modelo.

O que provavelmente veremos num futuro próximo? As empresas

de TI batalhando nesse nicho de mercado e os consumidores

deixando de investir em ativos de TI e usando soluções de

negócio como serviços.

Para saber mais:

http://blogs.idc.com/ie/?p=543

www.ibm.com/services/us/gts/flash/tivoli_live.swf

http://www.saugatech.com/

18

Technology leadership council Brazil

o nevoeiro e o sapo

Wilson E. Cruz

Um dos fatos mais perturbadores de nosso tempo é o excesso

de estímulos que hoje passam por nossos olhos e ouvidos e, com

alguma sorte, invadem nosso cérebro. A todo momento aparece

alguém dizendo: “É muita informação! Não dá prá gerenciar!”.

O fenômeno, muito novo, vertiginosamente crescente, e já no

limiar da sanidade, tem perturbado, tanto no âmbito pessoal

quanto no profissional, a maioria das pessoas “conectadas”.

Para me ajudar no diagnóstico da situação e abrir a porta para

alguns temas de reflexão, uso aqui Dee Hock, fundador do

conceito que define a Organização VISA, e seu fantástico livro

“Nascimento da Era Caórdica”: “Com o tempo, os dados vão se

transformando em informações, as informações em conhecimento,

o conhecimento em compreensão

e, depois de bastante tempo

(...) a compreensão pode se

transformar em sabedoria.

(...) As sociedades nativas (...)

tiveram tempo para desenvolver

a compreensão e a sabedoria.”.

Perceba que a palavra “tempo”

aparece três vezes.

Aproveitando o quinto aniversário

do Mini Paper Series, e sua

tradição como instrumento de

divulgação, arrisco algumas

questões e ideias que talvez

tragam alguma luz aos que buscam direção no meio da névoa.

Comecemos pelas questões:

• Quantos Mini Papers você já leu? E, mais importante, em

quantos deles você buscou a informação do quadrinho

chamado “Para saber mais”?

• Por que razão o resultado de suas pesquisas, naqueles

sites famosos, saem naquela ordem, mesmo que todas as

cem primeiras respostas tenham 100% de aderência ao

seu argumento de pesquisa?

• E, finalmente, o que faz um sapo quando está no meio de

um nevoeiro?

Se suas respostas não lhe trouxeram a sensação de estar apenas

arranhando a superfície dos assuntos mais importantes de sua

vida, não perca tempo com o resto deste artigo. Vá para o próximo

assunto, e para o próximo. Se, por outro lado, as respostas

deixaram você um pouco incomodado ou ressabiado, vale a

pena refletir sobre alguns pontos (refletir, não necessariamente

concordar):

• Saia da armadilha de que “o mais acessado é o melhor”:

em qualquer site da moda, aparece no topo da lista de

recomendações a música mais baixada, a notícia mais lida,

o vídeo mais assistido. Quem garante que a quantidade

(sobretudo a quantidade gerada por outros) lhe garante

qualidade?

• Crie, cultive e conserve a sua lista de fontes, baseada em

seu sistema de valores e preferências. Você paga suas

contas, portanto não é escravo da

"enciclopédia universal” dos outros.

• Preste atenção, e, preferen-

cialmente, formalize suas re-

gras e critérios de mérito. O que

lhe é bom? O que faz diferença

para você?

• Reserve tempo para discutir.

Já foi dito aqui, mas vale

repetir que no final da frenética

sequência que vai do ruído

à sabedoria, a discussão é o

filtro final.

• E, finalmente, desacelere. Pre-me-di-ta-da-men-te. Cal-

cu-la-da-men-te. Perceba que bem perto do solo a névoa

é menor, e dê pequenos pulos, mais curtos e certeiros,

gastando mais tempo no solo, para olhar em volta e avaliar

o mundo ao redor.

Mas no meio disso, como ficam os aniversariantes, o TLC-BR

(seis anos!) e o Mini Paper Series (cinco anos)? Eles podem ser

disseminadores de informação e conhecimento útil, o que já é

bastante neste nevoeiro denso e baixo. Mas eu torço por mais.

Eu torço por vê-los como a “sociedade nativa” de Dee Hock,

buscando o pensamento, a reflexão, e com isso a compreensão

e a sabedoria.

Para saber mais:

http://www.onevoeiroeosapo.blog.br

HOCK, Dee – “Nascimento da Era Caórdica” – São Paulo: Editora Cultrix, 1999

19

Technology leadership council Brazil Technology leadership council Brazil

Boas práTicas para a eliciTação de requisiTos

Cássio Campos Silva

A atividade de elicitação de requisitos é uma das mais importantes

práticas da engenharia de software. Através dela, busca-se o

entendimento das necessidades do usuário e dos requisitos

de negócio, de forma a endereçá-los posteriormente através

de uma solução tecnológica.

Algumas literaturas adotam o termo elicitação, ao invés de

levantamento, pois essa prática não trata simplesmente o

levantamento de requisitos, mas também da identificação dos

fatos que os compõem e os problemas a serem solucionados. Por

ser uma atividade interpessoal, essa prática é muito dependente

da capacidade de entendimento do analista e da habilidade do

usuário em expressar as suas necessidades.

Em uma pesquisa realizada pelo Standish Group foram mapeados

cinco fatores críticos para o sucesso de um projeto: Envolvimento

do Usuário; Suporte Gerencial Executivo; Descrições claras dos

requisitos; Planejamento adequado; Expectativas realísticas.

Repare que os fatores grifados são aqueles diretamente

relacionados aos requisitos.

Considerando-se a complexidade na execução das atividades

de elicitação de requisitos e a dependência do relacionamento

entre os envolvidos, algumas boas práticas devem ser adotadas

pelos analistas de forma a facilitar o processo:

Preparação: Prepare-se previamente e de forma adequada para

as atividades planejadas, as quais são geralmente realizadas

através de entrevistas, questionários, brainstorms e workshops.

Stakeholders: Mapeie (com antecedência) quem serão os

participantes do processo, quais os seus papéis no projeto e

na organização e quais são os seus níveis de conhecimento

e influência. É imprescindível que as pessoas corretas sejam

envolvidas o quanto antes.

Postura: Busque sempre a efetividade nas comunicações, assim

como procure demonstrar ponderação durante as situações

de conflito.

Entendimento: Procure focar no entendimento do problema e

evitar conclusões precipitadas. Nesse primeiro momento o mais

importante é saber escutar.

Experiências passadas: Utilize de forma positiva as experiências

vividas anteriormente para ajudar a melhor compreender o

problema. Evite considerar que o problema atual é igual a algum

outro que tenha sido resolvido em um cliente ou projeto passado.

Documentação: descreva o problema de forma clara

e objetiva. Em caso de dúvidas, consulte o cliente e

evite inferências. Procure usar exemplos citados pelos

stakeholders. A adoção de diagramas e figuras sempre

ajuda na documentação e entendimento dos requisitos.

A criação de protótipos também contribui para o entendimento

comum da solução proposta.

Validação: Faça com que os stakeholders validem a documentação,

verificando o entendimento do problema e as melhorias desejadas

e eventualmente façam solicitações de mudanças.

Ao final do processo deverá ser possível demonstrar de maneira

documental o entendimento do problema, as necessidades

do cliente e as oportunidades de melhorias. Isso delimitará

o escopo do projeto e deverá nortear o desenho da solução,

assim como o planejamento do projeto.

A mensuração do tamanho, complexidade e riscos de um projeto

dependerá da qualidade e coerência dos requisitos. É crucial que

essa atividade seja executada de forma criteriosa e detalhada,

pois qualquer falha nesse momento poderá gerar projetos mal

sucedidos, perdas financeiras e clientes insatisfeitos.

Para saber mais:

http://en.wikipedia.org/wiki/Requirements_elicitation

http://www.volere.co.uk

Livro: Requirements Engineering 2nd Edition - Ken Jackson

20

Technology leadership council Brazil

o homem que enxergou a forma das coisas

Fábio Gandour e Kiran Mantripragada

Benoît Mandelbrot faleceu no dia 14 de outubro de 2010. Poderia

ser apenas mais um nome exótico da ciência mas ele foi bem

mais do que isso. Filho de poloneses com ascendência judaica,

Mandelbrot nasceu em Varsóvia, em 1924, no seio de uma família

com forte tradição acadêmica. Estudou inicialmente na França

e depois nos Estados Unidos. Em 1958, começou a trabalhar

como cientista da IBM T.J. Watson Research Lab, onde chegou

aos títulos de IBM Fellow e Cientista Emérito.

Benoît Mandelbrot foi o matemático que melhor entendeu e

divulgou uma nova formulação

para representar os fenômenos

da natureza. Seu entendimento

levou à criação da palavra “fractal”,

inspirada no Latim fractus, que

significa fraturado, quebrado.

Ele afirmava que a natureza é

regida pela Geometria Fractal,

pois a Geometria Euclidiana não

conseguia descrever formas

naturais mais complexas, como

nuvens, árvores, o traçado dos rios

e cadeias de montanhas.

A Geometria Euclidiana clássi-

ca é construída a partir de 3

elementos: o ponto, a reta e o

plano. O ponto não tem dimen-

são, ou seja, é um elemento zero-dimensional. A linha

por sua vez, tem uma única dimensão, o comprimento, e portanto,

pode apresentar uma grandeza mensurável. Finalmente, o plano

apresenta duas dimensões, o comprimento e a largura. Com

estes 3 elementos, Euclides de Alexandria, que viveu entre 360

e 295 A.C., construiu a Geometria Euclidiana.

Alguns matemáticos, como Bernhard Riemann, observaram que

os conceitos descritos por Euclides podem ser extrapolados

para objetos de “n” dimensões, como hiperesferas, hiperplanos,

simplex n-dimensionais e outras “figuras”.

Mandelbrot, por sua vez, observou de forma brilhante que

existem dimensões “quebradas”, ou seja, que realmente existem

objetos “n-dimensionais”, onde “n” é um número real. Assim, se

uma reta apresenta uma única dimensão e o plano apresenta

duas dimensões, como seria um objeto “1,5 dimensional”? De

fato, Mandelbrot mostrou que tais objetos existem e podem ser

descritos pela teoria que ele chamou de Geometria dos Fractais.

A Geometria Fractal estuda objetos com propriedades

interessantes, como por exemplo, o Tapete de Sierpinski, que

é o resultado da remoção sucessiva do quadrado central, após

divisão do quadrado maior original em nove quadrados menores

e iguais, formando um objeto com área que tende a zero e

perímetro que tende ao infinito. A imagem mostrada abaixo é

uma extrapolação do “Tapete” para um “Cubo de Sierpinski”.

Observem que a quebra [fratura] de uma dimensão em outra

menor, de mesma forma e contida dentro da primeira, cria uma

dimensão sem fim.

Benoît Mandelbrot pode ter

sido vítima da beleza de sua

própria criação pois as imagens

construídas a partir da Geometria

Fractal tiveram um forte apelo para

o mundo das artes.

Este apelo fez com a Geometria

Fractal fosse vista e usada mais

como uma ferramenta de ilustração

do que como um modelo matemático

para representação da natureza. Por

exemplo, a busca da palavra “fractal”

no Google Images apresenta mais

de 1 milhão de resultados, todo eles

de grande apelo visual.

Por ser matemático, Mandelbrot

nunca foi considerado um candidato ao Prêmio Nobel, pois

não existe essa categoria na premiação. Mas a utilização

prática da Geometria Fractal poderá, no futuro, reconhecer

a sua contribuição para outras áreas, como a Física ou a

Economia. Se alguém mostrar, por exemplo, que a evolução

das crises financeiras também tem um comportamento fractal,

a justiça terá sido feita. Em outra linha, Stephen Wolfram

e a teoria dos Autômatos Celulares, explicada no seu livro

“A New Kind of Science”, pode ser o começo da correção desse

equívoco histórico.

Para saber mais:

http://tinyurl.com/34f59ty

http://www.math.yale.edu/mandelbrot/

http://www.wolframscience.com/

21

Technology leadership council Brazil Technology leadership council Brazil

méTricas de sofTware

Daniela Marques

É indiscutível que qualidade é um item importante para qualquer

produto ou serviço. Um software usado como ferramenta para

suportar diversas linhas de negócios nas empresas também deve

apresentar, a cada versão, níveis mais elevados de qualidade.

É fato também que novas versões são exigidas para atender

às novas demandas, assim como para oferecer novidade aos

clientes. Essas afirmações trazem à tona a questão de como

aumentar a produtividade no desenvolvimento de software

mantendo ou elevando os padrões de qualidade.

Uma das ferramentas que a engenharia de software utiliza são as

métricas de software. Essas métricas podem ser consideradas

como um conjunto de atributos, previamente documentados e

conhecidos do ciclo de desenvolvimento de software.

Apesar da existência da

norma IEEE 1061-1998, ain-

da persiste uma falta de con-

senso na utilização dessas

métricas, ainda que poucos

duvidem que elas sejam

essenciais para o processo

de desenvolvimento de qual-

quer software. Afinal, com as

métricas é possível realizar

análises nas informações

coletadas, de forma a poder acompanhar o desenvolvimento

de um software, traçar planos para manter o cronograma do

projeto em dia e atingir o nível desejado de qualidade.

Em relação à qualidade, é importante ressaltar que todos os

envolvidos no processo de desenvolvimento de um software

devem participar na determinação do seu respectivo nível de

qualidade, assim como no tratamento das inconformidades

no atendimento aos requisitos inicialmente especificados. As

métricas de software podem ser classificadas em medidas diretas

(quantitativas) e medidas indiretas (qualitativas). As medidas

diretas são aquelas que representam uma quantidade observada,

tais como custo, esforço, número de linhas de código, tempo

de execução e número de defeitos. Já as medidas indiretas

são aquelas que exigem análise e estão relacionadas com a

funcionalidade, qualidade, complexidade e manutenibilidade.

As métricas de software auxiliam diretamente no planejamento

do projeto. Por exemplo, a métrica “LOC (Lines of Code)” é

utilizada para dimensionar prazo e custo através da contagem

de linhas de código.

A produtividade durante cada teste (derivada do tempo de

execução) e o número de defeitos encontrados trazem como

benefício a informação necessária para a estimativa de

finalização do projeto e do esforço exigido em cada fase de

testes. A quantidade de defeitos encontrados também fornece

dados para a determinação da qualidade do software (medida

indireta), assim como a análise da causa-raiz dos defeitos ajuda

a formalizar um plano de melhorias para as futuras versões (veja

exemplo no quadro).

Diversas são as métricas

existentes e as suas apli-

cações no ciclo de vida de um

software. Cabe ao gerente de

projeto coordenar as ações

para determinar o padrão de

qualidade requerido e definir

quais elementos devem ser

medidos e monitorados

durante esse ciclo. A

coleta dessas informações

permite não só um melhor acompanhamento do processo

de desenvolvimento de um software, mas também a análise

qualitativa desse software como um produto. A base histórica

das métricas permite que futuras propostas de mudança ou

criação sejam mais precisas, visto que projetos similares tendem

a passar pelos mesmos problemas e soluções.

Para manter ou elevar o nível de qualidade de um software

é essencial medir e monitorar durante todo o seu ciclo de

desenvolvimento. As extrações de métricas fornecem não só

uma visão da situação real mas, principalmente, permitem

planejar e tomar providências na busca de melhoria contínua.

Para saber mais:

http://www.kaner.com/pdfs/metrics2004.pdf

http://standards.ieee.org/findstds/standard/1061-1998.html

22

Technology leadership council Brazil

gesTão por compeTências: é hora do c.h.a.Pablo Gonzalez

Podemos afirmar que gerir pessoas é uma ciência em constante

evolução e repleta de desafios. Neste contexto, um modelo que

vem se tornando cada vez mais notório nas organizações é a

chamada gestão por competências, na qual o objetivo principal

é melhorar o preparo dos colaboradores em busca de maior

produtividade e adequação ao negócio, valorizando assim o

capital intelectual da organização.

Com base nesta premissa, gerir competências significa

coordenar e incentivar os colaboradores a reduzirem os gaps

(necessidades de melhoria), saber o que eles são capazes de

executar (competências atuais) e entender o que a empresa

espera deles (competências requeridas).

O termo “competência” pode ser representado

por três propriedades correlacionadas,

resumidas na sigla C.H.A. Conhecimento,

Habilidade e Atitude. O Conhecimento

refere-se à assimilação de informações

que a pessoa acumulou no decorrer da

vida e que causam impacto sobre seu

julgamento ou comportamento — o saber. Já

a Habilidade refere-se à aplicação produtiva

do conhecimento — o saber fazer. Por fim, a

Atitude refere-se à conduta da pessoa em

situações distintas e na sociedade — o agir.

Para exemplificar a aplicação deste conceito em uma organização,

vamos imaginar que numa escala de zero a dez, a sua habilidade

em “Negociação” seja seis, e, supondo que o grau mínimo

requerido pela empresa seja dez, podemos afirmar que você

tem um gap de valor quatro nesta competência.

Com base nesse resultado, e, juntando-se os resultados de

outras técnicas de análise de desempenho como o Feedback

360º, cria-se um plano de redução de gaps, através do qual a

empresa vai sugerir como e quando esses gaps serão trabalhados.

O intuito é aprimorar as competências existentes de maneira

alinhada aos objetivos estratégicos da organização, através de

um plano de desenvolvimento profissional individual.

A implementação da gestão por competências não é complexa,

porém requer alguns métodos e instrumentos específicos. Ter

a missão, visão, valores, objetivos estratégicos, e processos

bem definidos são alguns dos passos fundamentais para a

sua adoção.

Cabe ao RH definir a matriz de competências requeridas

juntamente aos gestores de cada área. Outro fator essencial

é manter a comunicação ativa durante todo o projeto, a fim

de esclarecer os objetivos e manter os avaliados informados.

É importante, ainda, salientar que a falta de preparo das

pessoas para avaliar e dar feedback e a resistência de alguns

colaboradores podem dificultar a adoção do modelo. No entanto,

tal dificuldade pode ser mitigada através da capacitação prévia

e conscientização.

O uso da tecnologia pode ser um acelerador, já que auxilia na

identificação e armazenamento histórico das competências,

além de permitir a geração de gráficos e relatórios para análise.

Seguindo esse modelo a empresa poderá

estruturar melhor os papéis profissionais e

competências fundamentais para o negócio,

aumentar a eficácia na execução das tarefas,

identificar talentos e garantir que seus

profissionais apresentem os diferenciais

competitivos exigidos pelo mercado.

Assim, a gestão das competências é flexível

o bastante para ser adotada em empresas de

qualquer porte, desde pequenas organizações

até multinacionais, mostrando ser viável e

eficiente em múltiplos cenários.

Empresas como Coca-Cola, Embraer, IBM, Petrobras e Shell, entre

muitas outras, já adotaram medidas voltadas para a gestão por

competências e relataram melhorias significativas em termos de

eficácia na execução das tarefas, reconhecimento e motivação

dos funcionários, entre outros benefícios.

Em suma, cabe à empresa utilizar esse modelo num ciclo de

melhoria contínua no qual, a cada novo projeto ou ciclo de

avaliação, novos indicadores deverão ser criados e os antigos

reavaliados, de forma a mensurar os resultados obtidos e

planejar os próximos passos. E é dentro desse contexto que

a gestão por competências busca a excelência corporativa e

a satisfação daqueles que representam o maior bem de uma

empresa: as pessoas.

Para saber mais:

http://slidesha.re/19HNtL

http://bit.ly/fMylgE

http://www.gestaoporcompetencias.com.br

23

Technology leadership council Brazil Technology leadership council Brazil

daily scrum para Todos!Renato Barbieri

Hora do almoço no

Morumbi Shopping em

São Paulo. Cheguei bem

cedo pois, como sabem

os frequentadores dos

restaurantes desse shop-

ping, essa é a única forma

de garantir lugar nas mesas

maiores quando não há

reserva. No restaurante es-

colhido, garçons e maitres

estão reunidos num círculo,

todos em pé. Os maitres

conduzem a rápida reunião

com orientações gerais e algumas específicas.

Alguns dos garçons são novos e são apresentados ao time, que

lhes dá as boas-vindas. Alguns garçons comentam situações,

tiram dúvidas rápidas e em dez ou quinze minutos a reunião está

encerrada. Isso ocorre diariamente em todos os restaurantes

da rede, segundo me informou um dos maitres. Corta a cena.

O Movimento Ágil nasceu como uma iniciativa de desenvolvedores

de software com o objetivo de encontrar alternativas aos métodos

tradicionais de desenvolvimento que tornassem essa atividade

mais leve, mais ágil, e culminou com a publicação do Manifesto

Ágil (Agile Manifest) em fevereiro de 2001.

Entre as novas metodologias que surgiram a partir desse

movimento, a Extreme Programming (XP) prega como um dos

seus príncipios básicos reuniões diárias, de no máximo quinze

minutos, na qual todos os participantes permanecem em pé

e utilizam esse momento para compartilhar experiências e

dificuldades.

Outra metodologia ágil, a Scrum, também incentiva as reuniões

diárias e rápidas conhecidas como Daily Scrum Meetings (ou

simplesmente Daily Scrum), com o mesmo propósito do exemplo

anterior: compartilhar experiências e dificuldades de maneira

rápida, ágil e frequente.

Numa Daily Scrum, três perguntas básicas devem ser respondidas

por cada participante:

• O que foi feito desde a última reunião?

• O que pretendo fazer até a próxima reunião?

• O que me impede de prosseguir?

A ideia não é transformar esses momentos em meras reuniões

de status, mas compartilhar o que cada um já fez e ainda irá

fazer para alcançar o objetivo comum do grupo. Questões e

problemas são apenas citados resumidamente e seus detalhes

e soluções deverão ser tratados externamente com as pessoas

apropriadas.

A metodologia Scrum prevê um agente facilitador na equipe,

o qual tem papel fundamental na Daily Scrum: o de Scrum

Master. Ele age como moderador das reuniões e guardião da

metodologia, não permitindo que discussões se estendam além

do tempo e do escopo determinado. Ele mantém o foco no que

é necessário e alerta para exageros e distrações.

A prática da Daily Scrum pode ser adotada em muitas situações

além do desenvolvimento de software. Temos exemplos práticos

de seu uso em equipes de suporte, e como mostra o exemplo

no começo deste artigo, restaurantes também a utilizam, de

forma adaptada às suas necessidades, mas mantendo o objetivo

primordial: a colaboração no trabalho em equipe.

E por que não adaptar uma boa ideia?

É comum pensarmos em metodologias como camisas-de-

força, que ao invés de apoiar e ajudar os profissionais, acabam

por restringir ações e inibir a criatividade. Esse é um conceito

ultrapassado e o Movimento Ágil quebrou esse paradigma.

As melhores práticas são maleáveis por princípio, e permitem a

revisão de seus conceitos e implementações. A Daily Scrum não

é exceção e nem mesmo precisa ser diária, como o nome original

sugere, mas deve ser frequente, e o mais importante de tudo:

que esses encontros resultem na união de seus participantes

e assegure, para cada um deles, que todos colaborem para

alcançar um objetivo comum.

Para saber mais:

http://www.agilemanifesto.org

http://www.scrumalliance.org

http://www.extremeprogramming.org

24

Technology leadership council Brazil

como agradar ao clienTe que conTraTa serviços?Rosemeire Araujo Oikawa

Imagine as seguintes situações do cotidiano:

• Ficar sem toalhas por quase um dia inteiro num quarto de

hotel ao voltar da praia;

• Receber o seu carro do manobrista com arranhões após

um jantar perfeito num restaurante;

• Esperar dez minutos para ser atendido por um Call Center

e não conseguir solucionar seu problema.

A lista de situações adversas que podem ocorrer quando

contratamos serviços é enorme. E com os consumidores cada

vez mais exigentes e conscientes dos seus direitos, a tendência

é que essa lista continue a crescer. As empresas prestadoras

de serviço precisam estar preparadas para lidar com isso.

Hoje o mercado de serviços

representa 68,5% do PIB mun-

dial. Veja no gráfico ao lado a

representatividade desse setor

na economia global. As empresas

já aprenderam a terceirizar o que

não é o foco do seu negócio, a

vender produtos como serviços,

a criar serviços especializados,

e muitas estão aprendendo a

trabalhar de maneira orientada

a processos. Mas em meio a tudo isso parece que muitas

esqueceram o mais importante: atender às expectativas dos

seus clientes.

Firmar um Acordo de Nível de Serviço ou SLA (Service Level

Agreement) é a chave para iniciar um relacionamento de sucesso

com o cliente. É através desse documento que o prestador

de serviço traduz as expectativas do cliente em objetivos a

serem entregues, penalidades que poderão ser aplicadas e

responsabilidades que deverão ser cumpridas. O grande desafio

é ter os SLAs bem definidos, pois as falhas ocorrem justamente

quando as expectativas do cliente não são corretamente

traduzidas nesse acordo.

Para se ter SLAs bem definidos os seguintes aspectos, devem

ser levados em consideração:

• Conhecer as necessidades dos usuários do serviço (usuário

é quem utiliza o serviço, e cliente é quem paga);

• Entender como o serviço suportará os negócios do cliente

e os impactos que lhes poderá causar;

• Estabelecer níveis alcançáveis e que possam, de fato, ser

medidos;

• Estruturar o acordo com um pensamento de provedor de

serviços e não de vendedor de produtos;

• Criar um modelo de custos que suporte os níveis de serviço

oferecidos ao cliente;

• Especificar níveis de serviço

para todos os componentes

do serviço principal, incluindo

as partes terceirizadas;

• Definir acordos com as áreas

internas e externas responsáveis

pela execução do serviço.

A eficácia na definição e gestão

dos SLAs é a base para a entrega

de serviços com qualidade. A

formalização das expectativas do cliente e o entendimento claro

entre as partes do que foi contratado e o que será entregue

molda a percepção sobre um serviço, tornando-o mensurável

e objetivo.

Atingir um SLA é entregar o que já é esperado e excedê-lo pode

comprometer o custo e até passar despercebido pelo cliente. Por

outro lado, SLAs não cumpridos podem comprometer a relação

com o cliente ou a percepção de qualidade de todo o serviço.

Os SLAs devem ir além da pura medição e ser um instrumento

de suporte à melhoria contínua dos serviços e dos processos

de negócio nas empresas.

Para saber mais:

http://www.gartner.com/DisplayDocument?id=314581

Fonte dos dados: Banco Mundial http://data.worldbank.org

Agricultura Manufatura

Serviço10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

1800 1815 1830 1845 1860 1875 1890 1905 1920 1935 1950 1965 1980 1995 2000

Fonte dos dados: Banco Mundial (http://data.worldbank.org)

0%

25

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: sage, um Berço de inovação

Marcelo Sávio

A Força Aérea dos Estados Unidos, impulsionada pela repercussão

da explosão das bombas atômicas experimentais soviéticas

no início da década de 50, deu início a um projeto ambicioso

chamado SAGE (Semi-Automatic Ground Environment) para

criação e implantação de um sistema de defesa contra aviões

bombardeiros.

Esse sistema foi implantado entre 1957 e 1961 e operava de

maneira distribuída por vinte e três centros de processamento

de dados instalados em bunkers gigantescos na América do

Norte, cada qual contendo dois computadores de grande porte

chamados de AN/FSQ-7 (Army-Navy Fixed Special eQuipment).

Essa máquina, especialmente desenvolvida pela IBM, foi rotulada

de “cérebro eletrônico” nas manchetes da imprensa da época

e é, até hoje, considerado o maior computador que já existiu.

Pesava mais de 250 toneladas e usava mais de 50 mil válvulas

eletrônicas, que consumiam 3 megawatts de energia elétrica.

O sistema processava um conjunto de informações oriundas

de centenas de radares, calculava rotas aéreas e comparava

com dados armazenados para viabilizar tomadas de decisão

que, de forma rápida e confiável, efetuassem a defesa contra

os aviões bombardeiros inimigos potencialmente carregados

de artefatos nucleares altamente destrutivos.

Para fazer tamanha complexidade funcionar, uma série de

inovações foram introduzidas no projeto, tais como o uso do

modem para a comunicação digital através de linhas telefônicas

comuns, monitores de vídeo interativos, computação gráfica,

memórias de núcleo magnético, métodos de engenharia de

software (o sistema possuía mais de 500 mil linhas de código

escritas por centenas de programadores), técnicas de detecção

de erros e manutenção de sistemas, processamento distribuído

em tempo real e operação em alta disponibilidade (cada bunker

possuía sempre um de seus dois computadores operando em

modo stand-by).

A experiência adquirida pelas pessoas e empresas (Bell,

Burroughs, IBM, MIT, SDC e Western Electric) participantes

do SAGE foi posteriormente estendida a outros projetos de

sistemas militares e civis. Algumas por exemplo, trabalharam

no projeto da ARPANET, a rede de computadores que resultou

na Internet que todos usamos. Outras trabalharam no sistema

de controle de tráfego aéreo civil da FAA (Federal Aviation

Administration) nos Estados Unidos. O SAGE também serviu

de modelo para o sistema SABRE (Semi-Automatic Business-

Related Environment), criado pela IBM em 1964 para controlar,

em tempo real, as reservas de passagens aéreas da companhia

American Airlines, que funciona até hoje.

O SAGE funcionou até o final de 1983, apesar de que, quando

ficou totalmente pronto, no início de 1962, as principais

ameaças à segurança aérea já não eram mais os grandes

aviões bombardeiros, mas sim os velozes mísseis balísticos

intercontinentais, contra os quais o sistema era inútil. Apesar

dessa breve “obsolescência”, o SAGE representa um marco

importante na história da ciência e da tecnologia, pois, ao se

tornar o primeiro sistema on-line, em tempo real e geograficamente

distribuído do mundo, desbravou um território inexplorado, com

a ajuda de tecnologias e ideias inovadoras que abasteceram

de maneira indelével a então nascente indústria de informática.

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/sage/

http://www.youtube.com/watch?v=iCCL4INQcFo

26

Technology leadership council Brazil

inTegrar conhecimenTos: o desafio do consulTor

Márcia Vieira

A sociedade atual, que está sendo chamada de “hiper-

moderna”, ressalta uma cultura marcada pelo excesso de

consumo, de informações, de coisas descartáveis e rela-

cionamentos temporários. A velocidade das mudanças e a

falta de tempo disponível conduzem a um estilo de vida em

ritmo acelerado e a um estado de constante atenção e busca

por informação sobre diversos temas. Esse novo cenário gera

oportunidades de trabalho para consultoria em diversas disciplinas

organizacionais, tais como gestão empresarial, tecnologia da

informação, marketing e vendas, entre outras.

De acordo com o Instituto Brasileiro dos

Consultores de Organização, o trabalho de

consultoria pode ser definido como

“o processo interativo entre um agente de

mudanças (externo e/ou interno) e seu

cliente, que assume a responsabilidade

de auxiliar os executivos e colaboradores

do respectivo cliente nas tomadas de

decisão, não tendo, entretanto, o controle

direto da situação que deseja ser mudada

pelo mesmo”.

Como agente de mudança, o consultor deve

ser hábil na identificação e solução de problemas, e demonstrar

paixão por disseminar conhecimento. Quando isso não ocorre,

há risco de ser descartado pela lógica da hipermodernidade.

Basicamente significa que para ser um bom consultor em qualquer

disciplina organizacional, deve-se buscar conhecimento útil,

prático e aplicável, com foco na obtenção de resultados.

Manter-se atualizado sobre aquilo que já faz bem e ampliar o

conhecimento é o maior desafio e ao mesmo tempo um dos

maiores motivadores da carreira profissional em consultoria.

Boas memórias em minha carreira como consultora remetem a

profissionais que se diferenciaram pelas habilidades em trazer

soluções criativas e chegar a ótimos resultados a partir de um

vasto conjunto de informações e conhecimentos adquiridos.

Como o conhecimento é a matéria-prima essencial do consultor,

pode-se afirmar que o processo de geração de conhecimento

é o ponto de partida, no qual os consultores devem sempre

buscar uma visão de causa e efeito e gerenciar as expectativas

dos clientes em relação às soluções dos problemas.

A geração de conhecimento estabelece um ciclo contínuo e

uma relação sinérgica entre os conhecimentos explícito e tácito.

O conhecimento explícito, em geral, é obtido mais facilmente,

seja através das bases corporativas, cursos, treinamentos, ou

nas mídias disponíveis.

Já o conhecimento tácito é decorrente

da experiência de cada profissional. Em

um mundo globalizado, torna-se mais

complexo integrar esses conhecimentos.

Por essa razão é imprescindível que o

consultor mantenha uma extensa rede de

relacionamentos e desenvolva novas formas

de atuação junto a indivíduos e grupos

(teamwork), com objetivo de integrar as

partes e visões do problema, assim como

aprofundar todos os seus aspectos.

A competência para integrar conhecimentos

e obter uma visão do todo é fundamental para o consultor.

Além disso, buscar o entendimento de como os conceitos

são construídos e articulados, e não simplesmente aceitar o

conhecimento das partes, ajuda a identificar problemas, sugerir

mudanças e trazer visões de outras culturas.

O consultor é aquele que, além de saber fazer, deve saber pensar e,

portanto, precisa ter um nível elevado de educação e uma atitude

de formação permanente, na qual as habilidades de aprender

a aprender e de trabalhar em equipe atuem como fio condutor.

Para saber mais:

http://www.ibco.org.br/

Livros: Aprendizes e Mestres: A nova cultura da aprendizagem. Juan Ignácio Pozo (2002) e Introdução ao pensamento complexo. Edgar Morin (2003)

27

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: iBm ramac: o início de uma era na compuTação comercial

José Alcino Brás

Na década de cinquenta do século passado os computadores

deixaram de ser exclusivos das aplicações militares e passaram

a ser necessários na automação de processos de negócio das

empresas. Foi para atender a essa demanda de mercado que

a IBM lançou, em 1956, o IBM 305 RAMAC (Random Access

Method of Accounting and Control) o seu primeiro computador

produzido em série projetado para executar aplicativos de

contabilidade e controle de transações comercias, tais como

processamento de pedidos, controle de inventário e folha

de pagamento.

A grande novidade do 305 RAMAC não estava na sua capacidade

de processamento mas na utilização de um novo equipamento

periférico para a entrada e saída de dados, denominado “Unidade

de Disco IBM 350”, o qual permitia a gravação e leitura de dados

de forma extremamente rápida quando comparada aos outros

meios de armazenamento usados até então. Do tamanho de

dois refrigeradores, o IBM 350 consistia de 50 discos de 60 cm

de diâmetro montados e centralizados em único pivô movido

por um motor e que somavam 5 megabytes de capacidade, os

quais eram acessados a uma taxa de 10 kilobytes por segundo.

A unidade de disco do RAMAC representou um verdadeiro

marco na evolução da tecnologia, no qual diversos obstáculos

técnicos foram suplantados, tais como encontrar o material

adequado para confecção do disco e da superfície magnética,

criar o mecanismo de leitura e gravação com movimento rápido

e certeiro posicionando-o sobre o local físico do dado que girava

a 1.200 rotações por minuto, além de garantir que o mesmo não

tocasse fisicamente a superfície do disco magnético através

da injeção de ar comprimido entre a superfície do disco e o

cabeçote de leitura e gravação.

Ao possibilitar que a informação fosse gravada, lida e alterada

em poucos segundos e, principalmente, pudesse ser acessada

de forma aleatória, eliminou a necessidade de se classificar os

dados em sequência antes do seu processamento, o que até

então era um requisito imposto pela tecnologia dos equipamentos

de fita magnética ou cartões perfurados, que eram os meios

disponíveis para se armazenar dados mais usados na época.

O sucesso do RAMAC fez sua produção alcançar mais de mil

unidades comercializadas e instaladas ao redor do mundo,

inclusive no Brasil, onde chegou em 1961. Essa máquina

principiou o fim da era dos cartões perfurados e introduziu

uma nova era, na qual as corporações passaram a utilizar

computadores para conduzir e agilizar seus negócios, fazendo

uso do processamento de transações on-line e armazenamento

de grandes volumes de dados em discos magnéticos.

A tecnologia introduzida no RAMAC foi a semente que gerou os

discos magnéticos produzidos até os dias atuais - antigamente

ainda chamados de “winchesters”, depois “discos rígidos” e hoje

simplesmente de “HDs” — os quais se encontram disponíveis

no mercado com capacidade de armazenamento superiores

a 2 terabytes, giram a 15 mil rotações por minuto e alcançam

taxas de transferência de dados superiores a 200 megabytes

por segundo (mais de 20 mil vezes superior ao IBM 350).

Aquele grupo de engenheiros do laboratório da IBM talvez não

imaginasse que o RAMAC representaria o início de uma era

para uma das tecnologias mais importantes na indústria da

computação, a qual influenciaria por completo no modo de

armazenar e processar a informação, um bem intangível e de

grande valor para inúmeros segmentos da sociedade, que

por sua vez segue demandando e gerando cada vez mais

informação, num volume de crescimento estimado, ano passado,

em mais de 1 zettabytes (1 milhão de terabytes). Haja disco

para armazenar tudo isso!

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/ramac/

http://www.youtube.com/watch?v=CVIKk7mBELI

http://www.youtube.com/watch?v=zOD1umMX2s8

28

Technology leadership council Brazil

a evolução do modelo de enTrega de serviços de TiEduardo Sofiati

O mercado de serviços de TI tem evoluído significativamente

nos últimos anos. Provedores e clientes têm buscado ampliar

as modalidades de contratação dos serviços, visando obter

maiores benefícios — e não apenas redução de custos — por

meio de um melhor alinhamento das soluções de tecnologia

com as necessidades de negócio.

O modelo tradicional possui provedores especializados na entrega

de serviços repetitivos, os quais se baseiam em ganhos de

eficiência e escala, proporcionando competividade. Como o

mercado de serviços de TI apresenta muitos competidores,

cada provedor busca propor diferenciais para atrair e manter

clientes e assim aumentar sua participação

nesse mercado.

Alguns provedores apostam em modelos

que trazem maior valor para os serviços

ofertados para atender aos requisitos de

negócios de seus clientes. O provedor,

nesse caso, é percebido pelo cliente

como um parceiro estratégico ao invés

de fornecedor e passa a oferecer não

commodities, mas sim soluções.

Como exemplo, podemos citar a evolução nas ofertas de serviços

recentemente lançadas pelo segmento de outsourcing de

infraestrutura e telecomunicações, que estão alinhadas às últimas

tendências de tecnologia, tais como Cloud Computing, SaaS

(Software as a Service), Virtual Desktops, Unified Communications

e segurança de redes. Essa evolução está transformando o

modelo tradicional de outsourcing, em um modelo utility-based,

que muda o conceito de propriedade sobre os ativos de TI.

Segundo o Gartner, até 2012, 20% das empresas não terão

mais ativos de TI, o que se transforma em oportunidades para

os provedores alavancarem ofertas mais completas, capazes

de entregar serviços com mais agilidade e qualidade através

da adoção de tecnologias de ponta

Em relação ao desempenho dos provedores de serviços também

houve bastante evolução nos últimos anos. Através do uso de

KPIs (Key Performance Indicators) tem sido possível mensurar

a efetividade dos processos e soluções de tecnologia que

têm sido empregados nos contratos. Os SLAs (Service Level

Agreements), que regem os contratos de outsourcing há bastante

tempo, também têm evoluído na definição de indicadores mais

alinhados à disponibilidade dos serviços e sistemas que causam

impacto aos negócios dos clientes.

Para as empresas de serviços conseguirem sobreviver e crescer

nesse mercado tão acirrado e ainda manter resultados saudáveis,

as seguintes estratégias estão sendo adotadas, principalmente

pelas empresas globais:

Padronização: maximizar o uso de modelos comuns para a

maior parte do portfólio de serviços, como

forma de viabilizar a repetição na entrega,

o que resulta em economia de escala e

simplificação nas estruturas de delivery;

Integração: Executar modelos de entrega,

na forma mais eficiente possível, usando

todo o alcance que o provedor possua,

visando obter o menor custo possível com

pessoal aproveitando a disponibilidade de

skills existentes em cada região;

Automação: Reduzir as tarefas manuais

ao máximo para baixar custos e ainda elevar a qualidade do

serviço entregue.

É possível refletir acerca da notável evolução ocorrida com

a prestação de serviços de TI ao longo dos anos. Na forma

antiga, os provedores criavam uma abordagem nova para cada

projeto, propondo modelos customizados para cada cliente,

um método ineficiente que gerava desperdício de tempo e

dinheiro. Atualmente se busca simplificar a concepção dos

projetos, sobretudo suas bases, através de modelos padronizados

e simplificados, baseados nas melhores práticas de TI e no

conhecimento da indústria. Com isso, mais tempo é dedicado

na solução de problemas de negócios específicos de cada

cliente, transformando a TI numa alavanca para estimular o

crescimento, gerando economias para a empresa e preparando-a

para atender novos desafios.

Para saber mais:

http://www.ibm.com/services

29

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: iBm 1401, quando os Tempos eram ouTros...José Carlos Milano

Respeitando-se as devidas proporções, poder-se-ia dizer

que o computador IBM 1401 foi, na década de sessenta, tão

importante para a disseminação da computação no mundo

corporativo das pequenas e médias empresas, quanto o PC

para os consumidores dos dias de hoje. Para se ter uma ideia,

venderam-se mais de dez mil equipamentos dessa linha, quando

muitos leitores deste artigo nem sequer haviam nascido. Os

tempos eram certamente outros...

O 1401 foi o primeiro computador totalmente transistorizado

fabricado pela IBM (quando se substituíram as válvulas a vácuo).

Era menor e mais durável que os antecessores. Foi lançado em

1959 e comercializado até 1971 (e muitos seguiram rodando

até a década de oitenta). Seu sucesso foi tão grande e para

ele tanto código foi desenvolvido, que a IBM se viu obrigada

a criar um emulador por microcódigo que permitisse executar

os programas escritos para o 1401 nas linhas de mainframes

que o sucederam, começando pelo System/360, lançada em

1964. Por incrível que pareça, muitos desses emuladores foram

utilizados em outras famílias de mainframe até a chegada do ano

2000, quando finalmente os programas ainda existentes para

1401 tiveram que ser reescritos por causa do “bug” do milênio.

A facilidade de programação, através das linguagens SPS

(Symbolic Programming System) e depois com a Autocoder,

foi a maior responsável pelo sucesso do 1401. No início, a

maioria dos ambientes computacionais (chamados de CPDs)

era constituída pelo “mainframe” 1401 em si e pelos “frames” da

unidade perfuradora e leitora de cartões (1402) e da impressora

(1403). Ainda não existiam unidades de fita ou discos magnéticos.

Como também ainda não existia sistema operacional, a operação

de criação de código executável a partir da programação

simbólica feita pelo usuário era bem peculiar. O programa

SPS precedia o programa escrito pelo usuário. Tudo em cartão

perfurado. Ao pressionar o botão de “load” na leitora de cartões

1402, o programa SPS era carregado na memória do 1401 para

em seguida ler e traduzir o programa escrito pelo usuário em

código executável. Na verdade, a tradução do programa do

usuário acontecia em duas etapas. Na primeira, gerava-se uma

massa de cartões com a tradução parcial, que era perfurada na

1402. Essa massa de cartões era então realimentada na parte

leitora da 1402 quando, finalmente, os cartões com o programa

objeto eram perfurados e ficavam prontos para execução.

A menor unidade de memória endereçável no 1401 era o

“character”, composto por oito bits (fisicamente um núcleo de

ferrite para cada bit). Esse “character” seria o equivalente ao

que hoje chamamos de “byte”, termo que só passou a existir

na era do System/360. Desses oito bits, seis eram utilizados

para representar o caractere, o sétimo era o bit de paridade e

o oitavo representava uma “word mark”. Uma “word” no 1401

representava uma sequência variável de caracteres consecutivos,

sendo que o último era chamado “word mark”. É por isso que

o 1401 ficou conhecido como uma máquina que processava

tamanhos variáveis de palavras. Cada instrução em sua linguagem

de máquina podia ter de 1, 4, 7 ou 8 caracteres de tamanho.

Apesar de toda a beleza da tecnologia, não era nada trivial

programar essas fantásticas máquinas, principalmente se

comparamos com os atuais ambientes de desenvolvimento

de sistemas. Passados 50 anos, as facilidades e técnicas de

programação de hoje permitem uma enorme produtividade

na geração de códigos. Alguém se arrisca a estimar quantas

linhas de código de programas devem existir no mundo hoje?

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/mainframe/

http://ibm-1401.info/index.html

30

Technology leadership council Brazil

a inTerneT das coisas

José Carlos Duarte Gonçalves

A Internet foi criada pelos norte-americanos em 1969, como

uma rede visava o compartilhamento dos caros e escassos

recursos computacionais entre as universidades financiadas pela

ARPA (Advanced Research Projects Agency), uma agência de

fomento à pesquisa do Depto. de Defesa do governo dos Estados

Unidos. A ARPANET (assim chamada no início) foi concebida

para suportar ambientes computacionais heterogêneos e oferecer

o máximo de resiliência possível, mesmo no caso de falha ou

indisponibilidade de alguns nós da rede. Isso se tornou possível

através do uso de sistemas de roteamento de pacotes distribuídos

entre os vários computadores que interligados permitiram a

continuidade das comunicações e operações. Para estar sempre

disponível e permitir a conexão

de sistemas heterogêneos, duas

características foram necessárias:

simplicidade e padronização.

Simplicidade é fundamental para

facilitar a conexão de qualquer

coisa, e a aderência a padrões

é necessária para permitir, além

da comunicação e troca de

informações, a interoperabilidade.

Na década de noventa, com a

criação de formas mais amigáveis

de interação, como a World

Wide Web (WWW) e também

com o advento dos softwares

navegadores (browsers), todo mundo, e não mais somente os

pesquisadores acadêmicos, passou a ter acesso às facilidades

providas pela Internet. A primeira grande novidade daquele

momento foi a criação de websites, tais como os disponibilizados

por empresas, bancos e jornais, por exemplo. Os usuários,

que contratavam serviços de provedores, passaram a acessar

informações do mundo todo, entrar em museus virtuais, ler

notícias em tempo real de qualquer lugar e utilizar também

outras aplicações como chats e email.

Em 1997, a IBM criou uma estratégia para a utilizar a Internet

como plataforma de negócios (e-business), o que ajudou a

consolidar a grande virada da Internet para o mundo comercial,

quando as empresas passaram a explorar a grande rede para

fazer negócios e aumentar lucros. Atualmente a Internet está

sendo explorada intensamente para a colaboração através de

redes sociais, blogs, chats, twitter, etc. Petabytes de dados são

gerados todos os dias por inúmeras aplicações, ocasionando

uma explosão de informações.

E não param de surgir novos usos para a Internet, os quais

vão além da conexão entre pessoas e/ou computadores. Já

existe quase um trilhão de “coisas” conectadas na rede, o

que possibilita aplicações e usos em nossas vidas até então

inimagináveis, a partir da monitoração de eventos, em tempo

real, recebidos diretamente de sensores. Fazendo uso de

tecnologias economicamente viáveis e compatíveis, esses

sensores instalados em equipamentos, embalagens, prédios,

produtos, animais, marcapassos,

relógios e outros, utilizam-se de

microchips que são capazes de

capturar informações de vários

subsistemas e alimentar sistemas

centrais de suporte à tomada

de decisão e, evetualmente, de

ação sobre os eventos e objetos

monitorados.

A Internet das Coisas está criando

um rede objetos identificáveis e

que podem interoperar uns com

os outros (o que vem sendo

chamado de Machine to Machine,

ou M2M) e com os data centers e

suas nuvens computacionais. Ao aglutinar o mundo digital com

o mundo físico, está permitindo que objetos compartilhem in-

formações sobre o ambiente em que se encontram e reajam de

forma autônoma aos eventos, influenciando ou modificando os

próprios processos nos quais estão inseridos, sem necessidade

de intervenção humana.

Soluções desse tipo têm aplicabilidade em diversos setores da

sociedade e possibilitam o surgimento de modelos de negócio

inovadores, calcados em um novo mundo, instrumentado,

interconectado e inteligente. Essa é a Internet das Coisas ou

Internet of Things.

Para saber mais:

http://www.youtube.com/watch?v=sfEbMV295Kk

http://www.ibm.com/smarterplanet/

http://en.wikipedia.org/wiki/Internet_of_Things

31

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: o programa espacial e a Tecnologia da informação

Agostinho Villela

Quando contemplamos a Lua no céu, é difícil imaginar como

o homem conseguiu chegar até esse astro. A Lua fica a mais

de 380 mil km de distância da Terra, o que significa mais de 10

vezes a distância dos satélites artificiais mais altos e cerca de 400

vezes mais longe que o alcance máximo dos ônibus espaciais.

Fica mais difícil ainda imaginar quando consideramos que tal

feito se deu há mais de 40 anos, durante a missão Apollo XI da

NASA, numa época em que os computadores mais poderosos

tinham menos capacidade de processamento e memória que

o mais básico telefone celular de hoje em dia.

A missão Apollo XI fez parte do programa espacial norte-americano,

que foi iniciado em 1958 como reação ao lançamento dos satélites

Sputnik I e II pela então rival União Soviética, dando início à

corrida espacial durante a Guerra Fria. Ao longo do tempo foi

subdividido em vários programas, sendo os projetos Mercury,

Gemini e Apollo os primeiros voltados para as viagens tripuladas.

O projeto Mercury foi iniciado em 1959 e durou até 1963. Tinha

como objetivo primário colocar um homem em órbita ao redor

da Terra. Consistiu de 26 missões.

Entre 1965 e 1966 foi executado o projeto Gemini. O foco,

nesse caso, era desenvolver técnicas necessárias para viagens

complexas ao espaço. Consistiu de 10 missões e teve eventos

como “caminhadas no espaço” e ”rendezvous” entre naves.

O programa Apollo, que tinha como meta levar o homem à

Lua até o final da década de 60, começou em 1961 e teve

como grande impulso o famoso discurso do então Presidente

John Kennedy ao Congresso norte-americano, pronunciado

dias depois, e em resposta, ao sucesso do primeiro vôo

tripulado ao espaço, no qual estava o cosmonauta russo Iuri

Gagarin. No seu auge, o programa Apollo chegou a empregar

400 mil pessoas e envolver 20 mil entidades, entre governo,

empresas, universidades e centros de pesquisa, tendo gasto

cerca de US$ 24 bilhões na ocasião (algo como US$ 150

bilhões nos dias de hoje).

O programa espacial demandou o estado da arte em informática

da época, empurrando os limites da tecnologia e contribuindo

de forma muito significativa para o seu progresso. Os avanços

na microeletrônica e na arquitetura de hardware e software dos

sistemas desenvolvidos para projetar e controlar as naves e

seus tripulantes foram substanciais.

A participação da IBM nesse contexto sempre foi muito intensa,

sendo considerada, inclusive, uma parte integral do programa

espacial norte-americano. Desde o início, forneceu computadores

(da família IBM 70x) para rastrear satélites, tanto os soviéticos

Sputniks, quanto os norte-americanos Explorer-1, (primeiro

satélite artificial dos Estados Unidos) e Echo-1, (primeiro

satélite de comunicação do mundo). Em meados dos anos

sessenta, a IBM forneceu computadores da família 7090 para

ajudar a NASA a controlar as primeiras missões tripuladas. E,

a partir de 1964, além de fornecer computadores S/360 para

projetar, rastrear e controlar naves, a IBM passou a fornecer

computadores embarcados para navegação e monitoração,

como os sistemas IU (Instrument Units) dos foguetes Saturno,

contribuindo decisivamente para o sucesso do primeiro vôo

tripulado que pousou na Lua, em Julho de 1969.

Pouco eventos contribuíram de forma tão intensa para a inovação

e o avanço da tecnologia da informação como o Programa

Espacial, que ainda hoje continua, na forma de ônibus espaciais,

sondas, telescópios espaciais, além da própria Estação Espacial

Internacional e, quem sabe, uma missão tripulada para Marte.

Tecnologias como o circuito integrado, painéis solares e células

combustíveis não existiriam ou teriam demorado mais para

surgir se não houvesse o desafio da conquista do espaço. E

nenhuma outra empresa de tecnologia de informação tem sido

tão protagonista desse processo como a IBM.

Para saber mais:

www.ibm.com/ibm100/us/en/icons/apollo/

www.ibm.com/ibm/ideasfromibm/us/apollo/20090720

32

Technology leadership council Brazil

colaBoração eficienTe em um planeTa inTeligenTe

Lenilson Vilas Boas

Em nosso cotidiano profissional, acessamos emails e websites,

usamos blogs, Twitter, redes sociais, mensagens instantâneas,

smartphones, videoconferência, compartilhamento e edição

online de documentos bem como diversas outras ferramentas

de colaboração. Essas tecnologias nos permitem realizar cada

vez mais atividades, independentemente de nossa localização

e influenciam em nosso comportamento.

Por outro lado, as organizações e a sociedade também exigem

mais agilidade, seja no trabalho ou na vida pessoal. Mas como

pode-se aumentar a produtividade sem otimizar ou reduzir

algumas atividades?

É nesse contexto que as ferramentas

colaborativas podem ser grandes aliadas,

reduzindo a quantidade de aplicações que

temos que administrar e tornando mais

ágil e intuitiva nossa interação com os

equipamentos. A produtividade torna-se

então diretamente proporcional à facilidade

de uso dessas ferramentas, causando uma

mudança que influencia diretamente em

nossa interação com os aparelhos e aplicativos, através dos

quais recebemos e enviamos informações a todo o momento.

Uma colaboração inteligente não depende apenas da tecnologia

mas também de uma mudança cultural, através da qual passamos

de uma postura individualista para outra, mais colaborativa.

Essa nova postura integra as pessoas e a sociedade através

de aparelhos e sistemas, que passam a ser considerados como

verdadeiros “companheiros”, indispensáveis para a comunicação

e a troca de informações em nosso dia-a-dia.

Podemos sofisticar ainda mais a colaboração e aumentar a

produtividade com a utilização de dados contextuais. Esses

dados consideram onde o usuário está localizado, com

quem está interagindo ou se está em uma situação especial,

como por exemplo, uma situação de perigo. Surge então a

computação ciente de contexto (context-aware computing)

com aplicações que utilizam e tomam decisões com base no

ambiente (contexto) em que estão inseridas em determinado

momento, considerando o local e a situação ao seu redor. Em

outras palavras, a computação ciente de contexto considera as

entradas implícitas que descrevem a situação e as características

do ambiente em sua volta. A origem dos dados contextuais está

nos indicadores de localização (GPS), sensores de temperatura e

luz, data e hora, monitores de redes de computadores, status de

serviços e outros. A integração de notebooks, celulares, sensores

e vários outros dispositivos ao ambiente físico, possibilita a

colaboração inteligente, capaz de adaptar

as aplicações às condições e limitações

dos seus usuários. Um exemplo disso é um

telefone celular ciente de contexto, capaz

de mudar automaticamente para o modo

“vibrar”, ao invés de “tocar”, dependendo

da hora ou local onde se encontra.

Com a futura implementação do IPv6, a

nova versão do protocolo de comunicação

da Internet e sua vasta capacidade de

endereçamento de equipamentos na rede, a colaboração

e a integração serão ainda maiores, pois existirão muitos

mais dispositivos conectados e capazes de interagir e trocar

informações em escala global. Será possível, por exemplo,

automaticamente identificar e combater situações de emergência

como incêndios, explosões, vazamento de substâncias tóxicas,

monitorar o trânsito e até mesmo informar seu médico sobre

resultados de exames ou algum acidente ocorrido.

Praticamente qualquer objeto, com o qual o ser humano possa

ou não interagir, será capaz de trocar informações com outros

equipamentos e pessoas, o que em muito poderá aumentar

nossa eficiência na execução das tarefas cotidianas. Tudo isso

sem ninguém precisar apertar nenhum botão.

Para saber mais:

http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html

http://www.hardware.com.br/artigos/computacao-ubiqua/

33

Technology leadership council Brazil Technology leadership council Brazil

enxergando o mundo melhor

Carlos Eduardo Abramo Pinto

O que um laser desenvolvido para manufatura de chips eletrônicos,

um peru de jantar de Ações de Graças e três cientistas têm em

comum? Se você, tal como eu e mais de 20 milhões de pessoas

no mundo, realizou cirurgia de correção ocular nos últimos

20 anos, essa improvável combinação de tecnologia, reunião

familiar e busca por inovação faz parte da sua vida.

Criado na década de setenta por cientistas russos e desenvolvido

nos anos seguintes por diversos grupos, que incluíam o laboratório

de pesquisa naval dos EUA, o laser excimer foi concebido para

fabricação de dispositivos eletrônicos, para o qual é usado

ainda hoje.

O termo excimer é derivado da expressão excited dimers (dímeros

excitados), que reflete a forma como o laser funciona: através

do estímulo eletrônico de gases reativos, como cloro e flúor,

misturados a gases inertes como argônio, criptônio ou xenônio,

é produzida luz ultravioleta. Essa luz pode realizar alterações

microscopicamente precisas em diversos materiais. E, por não

produzir calor nem danificar a região próxima a sua aplicação,

o laser excimer é conhecido como laser frio.

No início dos anos oitenta, três cientistas do laboratório de

pesquisa Thomas J. Watson da IBM nos Estados Unidos – James

Wynne, Samuel Blum e Rangaswamy Srinivasan - pesquisavam

novas formas de utilização do laser excimer, recém adquirido pelo

laboratório. Devido às características citadas do laser excimer, os

cientistas se perguntavam qual seria o resultado da sua aplicação

em tecidos humanos ou animais. E os primeiros testes foram

realizados em sobras do peru do jantar de Ação de Graças de

um dos cientistas, com resultados altamente positivos, em que

cortes extremamente precisos na carne, ossos e cartilagens do

peru foram obtidos sem danos à região próxima da aplicação do

laser. Como forma de demonstrar o resultado, o time produziu

uma imagem ampliada de um fio de cabelo humano com a

palavra IBM gravada através da aplicação do laser excimer.

Essa imagem foi publicada em todo o mundo, iniciando diversas

discussões sobre a utilização dessa descoberta em diferentes

áreas da medicina, como cirurgias de cérebro, ortodontia,

ortopedia e dermatologia. Ao mesmo tempo, cirurgiões

oftalmologistas estavam à procura de alternativas para as técnicas

existentes de cirurgias oculares. O procedimento com bisturi

não era preciso, danificava permanentemente a córnea e exigia

um longo tempo de recuperação dos pacientes.

Através de pesquisa colaborativa entre a IBM e oftamologistas

do Centro Médico Presbiteriano de Columbia, foi feito um estudo

em 1983 introduzindo o uso do laser excimer para remodelagem

da córnea humana. Esse estudo iniciou um programa mundial

de pesquisas, culminando em 1995 com a aprovação das

autoridades americanas para o primeiro sistema comercial de

cirurgias refrativas baseadas em laser.

Hoje os dois principais tipos de cirurgia da córnea por laser

excimer são as cirurgias fototerapêuticas, conhecidas como

PTK e utilizadas para remoção de tecido da córnea de modo

a corrigir alguma doença ocular, como úlceras de córnea, e

as cirurgias fotorefrativas, utilizadas para remover tecido da

córnea para corrigir um problema de refracção, como miopia,

hipermetropia e astigmatismo. As principais técnicas de cirurgias

fotorefrativas são a PRK e a LASIK. A técnica PRK exige um

tempo de recuperação grande, estimado em 4 a 8 semanas,

e é necessária a utilização de lentes de contato para proteção

da córnea nos primeiros dias.

Já a técnica LASIK (laser-assisted in-situ keratomileusis), a

mais popular cirurgia ocular realizada no mundo, possibilita a

rápida recuperação dos pacientes, estimada em um a dois dias,

não exige a utilização de lentes de contato para o processo

de recuperação, e possui altíssimo percentual de efetividade,

eliminando a necessidade de utilização de óculos e lentes de

contato em mais de 90% dos casos.

Quem diria que uma descoberta como essa começou a partir da

curiosidade de três cientistas e um simples peru? É a inovação

a serviço da sociedade.

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/excimer/

34

Technology leadership council Brazil

vivemos em um mundo cada vez mais insTrumenTado

Antônio Gaspar

O mundo está cada vez mais instrumentado,

interconectado e inteligente. Nesse contexto,

as novas gerações de tecnologias em ins-

trumentação fazem seu papel como um dos

pilares que preconizam um Smarter Planet. Digo

“novas”, pois esse conceito iniciou-se com a revolução industrial.

Até a década de oitenta, a palavra instrumentação nos remetia

a conceitos díspares que iam de algo relativo a música, cirurgia

(instrumentação cirúrgica) e, menos conhecida, uma tal de

instrumentação industrial. Foi justamente essa que evoluiu a

ponto de fazer parte de nossas vidas, constantemente e de

forma onipresente.

Nas instalações industriais, seu papel está relacionado aos

sistemas de controle e automação, os quais são constituídos por

três componentes básicos: sensores, controladores e atuadores.

Os sensores são responsáveis pela captação das chamadas

“variáveis medidas” (temperatura, nível, pressão etc). Agindo como

transdutores, os sensores convertem a dinâmica física dessas

variáveis em sinais de telemetria e os transmitem através de

protocolos de comunicação padronizados, em formato analógico

(ainda muito usados) ou digital.

Os controladores são os receptores dos sinais de telemetria

dos sensores e são responsáveis por aplicar algoritmos de

correção (principio básico do “mede, compara, computa e

corrige”), tomando-se referenciais preestabelecidos para a

tomada de decisão.

Os atuadores são os dispositivos que recebem os comandos

vindos dos controladores. Seu papel é atuar sobre uma “variável

manipulada” (ex: vazão de água), a fim de obter resultados

sobre uma “variável medida” a ser controlada (ex: nível da água

na caldeira).

Esses sistemas ultrapassaram as fronteiras das instalações

industriais. A engenharia de materiais e miniaturização de

circuitos eletrônicos – hoje o planeta tem mais de 1 bilhão de

transistores por ser humano – trouxeram esses conceitos básicos

para aplicação em controle de dispositivos muito mais próximos

de nós do que imaginamos. A amostra mais representativa disso

está nos automóveis.

Na década de noventa, surgiram os carros com injeção

eletrônica no Brasil, nos quais os sistemas eletromecânicos

foram substituídos por uma malha de sensores (rotação,

velocidade, temperatura etc), atuadores (bicos injetores, etc)

e, não menos importante, o módulo central de controle, um

verdadeiro microcomputador embarcado (nada a ver com o

tal “computador de bordo”). Hoje, seu carro pode ter mais de

100 milhões de linhas de código embarcado. A propósito, você

já pensou em fazer um upgrade de software nele? É isso que

ocorre em alguns recalls feitos pelas montadoras.

A instrumentação foi além das aplicações automotivas e começou

a fazer parte do cotidiano urbano. Estações meteorológicas

tradicionais passaram a integrar um grid de controle climático

urbano. Dados sobre temperatura, pressão barométrica, umidade,

velocidade e sentido dos ventos são transmitidos a centros de

controle meteorológicos por meio de telemetria via 3G, wi-fi,

cabos ou rádio. Nas vias de grande concentração de tráfego,

as câmeras de monitoração deixaram de ser simplesmente

transmissoras de imagens e passaram a representar fontes

de dados para sistemas inteligentes de vigilância digital que

podem identificar padrões de eventos, alertar e tomar decisões

sobre o controle do tráfego. Outros sistemas são dotados de

algoritmos de reconhecimento facial, capazes de identificar,

com precisão, pessoas relacionadas em um banco de dados.

E, através de microfones acoplados, as tecnologias de análise

de áudio são capazes de identificar disparos de armas de fogo

e emitir alertas à policia.

Enfim, para quem assistiu ou leu Minority Report ou 1984, temos

uma materialização da ficção. Fora das telas e dos livros, resta-

nos aplicar a tecnologia para o bem comum, visando a um

planeta melhor e mais inteligente.

Para saber mais:

http://www.ibm.com/smarterplanet

35

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: elemenTar, meu caro waTson

José Luis Spagnuolo

De tempos em tempos acontece um salto na indústria de TI que

transforma todo o futuro e modifica a perspectiva do passado.

Foi assim com a introdução do IBM S/360, com o surgimento

da computação pessoal e também com o advento da Web.

No começo deste ano assistimos ao que pode se tornar uma

transformação gigantesca na maneira como os computadores

poderão participar da vida humana. Um computador chamado

Watson participou, nos Estados Unidos, de um programa de

auditório em um jogo sobre conhecimentos gerais, contra os dois

maiores campeões da história do programa em anos anteriores.

O Watson tinha que selecionar temas, entender linguagem natural

e em questão de segundos, tentar responder corretamente às

perguntas antes de seus oponentes humanos.

A vitória do Watson foi esmagadora. O que mais chamou a

atenção foi a vastidão de conhecimentos e a capacidade de

interpretação necessárias para se ter sucesso nesse tipo de

jogo, pois uma vez iniciado, o Watson não podia ter contato ou

acesso a informações externas e sequer seus programadores

podiam tocá-lo ou acessá-lo remotamente.

Por incrível que pareça, essa máquina nao dispõe de nenhum

hardware ou software especial. É baseada na tecnologia IBM

Power 7 rodando em Linux, com chips de memória comuns, com

armazenamento de dados em discos padrão IBM DS8000, tudo

utilizado em larga escala por diversas empresas ao redor do

mundo. O que se pode destacar é a quantidade de processamento

do Watson, pois foram 90 servidores Power 750 configurados em

cluster, cada um com 32 núcleos de processamento POWER7

operando a 3.55 GHz e uma memória RAM de 16 Terabytes. Isso

tudo resultou em uma capacidade extraordinária de execução

de 80 Teraflops (trilhões de operações por segundo) utilizada

para o entendimento, pesquisa, recuperação, classificação e

apresentação das informações.

O grande diferencial do Watson é o DeepQA, uma arquitetura de

sistema probabilístico inventada pela IBM, que usa algoritmos

de processamento analítico massivamente paralelos. Mais de

cem técnicas diferentes foram usadas para analisar a linguagem

natural, identificar as fontes de informação, gerar as hipóteses,

achar e classificar as evidências e combinar e priorizar as

respostas. A maneira como essas técnicas foram combinadas no

DeepQA trouxeram agilidade, precisão e clareza no encontro das

respostas. O Watson representou um verdadeiro salto quântico

na concepção, aplicação e desenvolvimento da Inteligência

Artificial. E, após o jogo, as primeiras aplicações práticas na

sociedade já começaram a surgir.

No campo da medicina, está em curso uma revolução no

diagnóstico e prescrição de tratamentos. Existem milhões de

sintomas e distúrbios possíveis, fazendo com que um médico

acerte, em media, 50% dos seus diagnósticos e consiga lembrar-

se de apenas 20% das melhores práticas para os tratamentos

corretos. A indústria de saúde acredita que o Watson poderá

elevar o número de acertos para mais de 90% no diagnóstico e

terapia, melhorando a vida dos pacientes, reduzindo os custos

para hospitais e governos, permitindo, portanto, que uma parte

maior da população tenha acesso a saúde de melhor qualidade.

Outra possibilidade de aplicação prática seria a do Watson atuar

como uma central de atendimentos. Através do entendimento da

linguagem natural e do acesso aos dados dos usuários, o Watson

poderia responder a questões e disparar ações necessárias

para satisfazer aos clientes de maneira rápida e correta.

Estamos apenas começando a avaliar as transformações que

o Watson poderá gerar em nossas vidas nos próximos anos.

Mas uma certeza já está estabelecida, a indústria de TI nunca

mais será a mesma.

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/watson/

http://www.ibm.com/innovation/us/watson/

http://ibm.com/systems/power/advantages/watson

36

Technology leadership council Brazil

impacTos da revolução mulTi-core no desenvolvimenTo de sofTware

Thadeu de Russo e Carmo

Nos últimos anos, o aumento da

velocidade dos processadores

passou, por questões físicas, a não

mais acompanhar o aumento da

quantidade de transistores. Por conta

dessa e de outras limitações, a busca

por ganhos de desempenho levou a

diversas abordagens, a se destacar

a construção de processadores com

múltiplos núcleos.

Atualmente os processadores com múltiplos núcleos, popu-

larmente conhecidos como multi-core, estão cada vez mais

comuns em computadores pessoais, não estando limitados

somente a desktops e notebooks, uma vez que ganharam

presença na fabricação de tablets e videogames. Por exemplo, o

processador Cell desenvolvido em conjunto pela IBM, Toshiba e

Sony está presente no Sony Playstation 3. Os consoles Microsoft

Xbox 360 e Nintendo Wii também utilizam processadores

baseados na tecnologia IBM Power com multi-core.

Processadores com múltiplos núcleos impactam conside-

ravelmente a maneira com que programas são escritos, já

que não é mais possível usufruir naturalmente do aumento de

performance de seus clocks. Para que os programas possam

usufruir dos ganhos de desempenho, precisam ser escritos de

modo que possam ser distribuídos, pelo sistema operacional,

de forma concorrente entre os núcleos do processador.

Escrever programas para que sejam executados de forma

concorrente não é uma tarefa fácil. Podemos imaginá-los como

programas formados por vários outros programas menores,

os quais muito provavelmente vão compartilhar informações

entre si, o que nos leva a pensar em como sincronizar o acesso

de leitura e escrita dessas informações. Ademais, com essas

ações ocorrendo em paralelo é impossível saber com certeza

a ordem na qual serão executadas. Para complicar um pouco

mais, a maioria das atuais linguagens de programação e dos

ambientes de desenvolvimento de sistemas não é adequada

ao desenvolvimento de sistemas concorrentes.

Em linguagens como Java, C++ e C#, o controle de acesso a

uma região compartilhada de memória é feito através de travas

(conhecidas como “semáforos”). Contudo, o uso dessas travas,

além de ser complicado, possui limitações e cria situações

propensas a deadlocks, ou seja, situações de impasse que não

permitem que o sistema prossiga com a execução.

O paradigma de programação funcional, que por muito tempo

foi considerado muito teórico para o desenvolvimento de

aplicações comerciais, vem ganhando, já há alguns anos, um

maior interesse por parte do mercado. Esse interesse se dá por

conta de que as linguagens funcionais, tais como Erlang e Haskell,

possuem características apropriadas para o desenvolvimento de

sistemas concorrentes. Diferente das linguagens imperativas, que

favorecem a mutabilidade de dados, as linguagens funcionais se

baseiam em aplicações de funções e recursão. Podemos pensar

em como executar um loop sem alterar o valor de nenhuma

variável, inclusive das que controlam o loop. Existem linguagens

funcionais e concorrentes, como Scala e Closure, que rodam

em JVMs (Java Virtual Machines) e interroperam naturalmente

com a plataforma Java.

Estamos passando por uma mudança de paradigma, assim

como ocorreu com a orientação a objetos. O desenvolvimento

de algoritmos não sequenciais está cada vez mais comum.

Abstrações da programação concorrente (por exemplo o uso de

atores e de memória transacional em software) já estão marcando

mais presença nas linguagens de programação. As linguagens

funcionais estão cada vez mais próximas do mundo corporativo

e o modo como os desenvolvedores de sistemas devem passar

a endereçar os problemas está mudando, mais uma vez.

Para saber mais:

http://www.gotw.ca/publications/concurrency-ddj.htm

http://www.erlang.org

http://haskell.org

37

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: a iBm e a inTerneT

Leônidas Vieira Lisboa

Vários acontecimentos contribuíram para a evolução da Internet,

transformando-a na rede global que transporta diversas mídias

e serviços e tornou-se um ícone dos últimos 100 anos, mudando

os negócios das corporações e a vida das pessoas.

Para entender melhor esse ícone, vale a pena navegar brevemente

por alguns fatos importantes que foram parte de sua história e

observar como a IBM esteve presente neles.

1. A ARPANET (Advanced Research Project Agency Network

- 1969) e a NSFNET (National Science Foundation Network -

1986) foram redes pioneiras que conectaram computadores

a longas distâncias, provenientes de projetos com finalidades

militares e científicas nos Estados Unidos, respectivamente.

A ARPANET introduziu alguns conceitos importantes como

redundância e transmissão por pacotes, ao passo que a NFSNET,

que posteriormente absorveu os nós da rede ARPANET quando

essa foi dissolvida, criou o backbone que deu origem à Internet.

A IBM participou ativamente na NSFNET em conjunto com

a operadora MCI, o Estado de Michigan e um consórcio de

universidades norte-americanas. Muitas tecnologias inovadoras

e novos produtos foram desenvolvidos utilizando-se o protocolo

TCP/IP, sob uma forte disciplina de gerência de projetos. No

início a NSFNET interligou cerca de 170 redes nos EUA e já em

1995 alcançou 50 milhões de usuários em 93 países. A partir

desse momento ocorreu a transição comercial dessa rede para

as operadoras de telecomunicações.

2. Quando o IBM Personal Computer (IBM 5150) foi anunciado

em 1981, ele se tornou o produto líder na transformação que

estendeu as fronteiras da computação ao grande público. A

presença do PC em lares, escolas e empresas tornou-o o

dispositivo que popularizou a Internet na década seguinte. O

IBM PC trouxe o conceito de arquitetura aberta para os micros

através da publicação do seu projeto, permitindo que outras

empresas criassem software e periféricos compatíveis com essa

plataforma. Atualmente, a maioria dos computadores pessoais

ainda segue esse padrão aberto. Por essa razão, o IBM PC foi

um marco na história dos computadores pessoais, as máquinas

que possibilitaram o uso em massa dos serviços da Internet,

como o email e a World Wide Web.

3. Em meados dos anos noventa o termo “e-business” representou

a materialização de uma estratégia da IBM para mostrar ao

mercado como reunir serviços e tecnologia para fazer negócios

através da Internet, através de uma visão “network-centric”, voltada

à Web. Talvez, essa tenha sido a contribuição mais importante

da IBM para a evolução da Internet, elevando-a ao status de

infraestrutura global necessária aos negócios do século XXI .

Foi o início da era das transações eletrônicas via Internet, hoje

tão comuns nos bancos e nas lojas virtuais.

A IBM criou ainda várias tecnologias que ajudaram a Internet a se

estabelecer como ferramenta essencial para a era da informação.

Isso ocorreu, por exemplo, com o advento da plataforma de

software Websphere, que permitiu a integração de diversos

sistemas à Web e do World Community Grid, onde se mostrou

como a Internet pode ser aplicada de forma inteligente em

projetos de larga escala e apoiar iniciativas sociais globais.

Se é verdade que ao refletir sobre o passado é possível planejar

melhor o futuro, a reflexão sobre as contribuições da IBM para a

evolução da Internet nos faz pensar não somente nas inovações

já introduzidas e seus impactos, como também nos permite

vislumbrar um futuro de progresso e benefícios que a tecnologia

ainda poderá trazer à humanidade.

Para saber mais:

http://www.ibm.com/ibm100/us/en/icons/internetrise/

http://www.ibm.com/ibm100/us/en/icons/worldgrid/

http://www.ibm.com/ibm100/us/en/icons/ebusiness/

38

Technology leadership council Brazil

governança, risco e conformidade

Hugo Leonardo Sousa Farias

Ao longo dos anos, a Tecnologia da Informação se tornou a

espinha dorsal para o negócio de muitas empresas e deixou de

ser uma opção, tornando-se um diferencial competitivo. Entretanto

essa dependência exige muitos cuidados, tais como garantir

que os investimentos em TI gerem valor ao negócio, que os

processos de TI sejam eficientes e que a disponibilidade das

operações seja mantida, além da necessidade de aderência

aos processos contratuais, aos mecanismos regulatórios e à

legislação vigente.

Para endereçar esses desafios, as empresas recorrem cada

vez mais aos modelos e frameworks de Governança, Gestão

de Riscos e Conformidade (Compliance) ou simplesmente GRC.

Esses termos por muito tempo viveram em “ilhas”, como se

cada um observasse o outro a partir da sua respectiva “praia”, e

raramente uniam seus esforços, recursos, processos e sistemas

para alcançar objetivos comuns. Felizmente isso vem mudando,

pois tratar de GRC sob uma perspectiva integrada tem chamado

a atenção de muitas empresas.

De acordo com o ITGI (IT Governance Institute), Governança

é o conjunto de responsabilidades e práticas exercidas pelos

executivos e pela alta direção da empresa com o objetivo de

fornecer orientação estratégica, assegurando que os objetivos da

companhia sejam alcançados e que os recursos sejam utilizados

de forma responsável.

Existem padrões e guias internacionais de boas práticas de

governança de TI que podem ser utilizados como referência,

tais como: COBIT (Control Objectives for Information and related

Technology), um framework de boas práticas de TI; ITIL (IT

Infrastructure Library), um conjunto de melhores práticas para o

gerenciamento de serviços de TI; ISO/IEC 27001, um padrão de

sistema de gestão de segurança da informação, dentre outros.

A definição de Gestão de Riscos do Risk IT Framework,

determina que essa atividade deve envolver todas as unidades

de negócios da organização para prover uma visão abrangente

de todos os riscos relacionados à TI. Uma estrutura corporativa

de gerenciamento de riscos (Enterprise Risk Management)

proporciona um maior alinhamento com o negócio, eficiência

dos processos de TI, maior disponibilidade das operações com

uma consequente redução de incidentes, tudo isso gerando valor

ao negócio. Em empresas prestadoras de serviços, a gestão

de riscos pode representar oportunidades de novos negócios.

Por fim, Conformidade é o ato de aderir e demonstrar adesão a leis

e regulamentos externos, assim como a políticas e procedimentos

corporativos. Controles internos devem ser implementados para

garantir ainda a eficiência das operações e a confiabilidade dos

relatórios financeiros. As “não-conformidades” custam caro,

podem gerar impacto financeiro e afetar a imagem da empresa.

Uma pesquisa da Advanced Market Research com empresas

nos Estados Unidos, estimou os investimentos em GRC, no ano

de 2010, em US$ 29,8 bilhões, um crescimento de 3,9% em

relação ao ano anterior.

Governança de TI, Gestão de Riscos e Conformidade não devem

ser tratados como disciplinas isoladas pois a gestão centralizada

dessas atividades é uma tendência irreversível. Além disso,

GRC é parte integrante da gestão corporativa e proporciona o

alinhamento estratégico com o negócio e a entrega de valor, além

de uma melhor gestão dos recursos e do desempenho da TI.

Com a crescente exigência do mercado (interno e externo)

por transparência e responsabilidade, as melhorias em GRC

representam um diferencial competitivo que pode proporcionar

crescimento e abertura de novos mercados para as empresas.

É a convergência de três áreas de conhecimento fazendo a

diferença. 1 + 1 + 1 nesse caso é muito mais do que 3.

Para saber mais:

http://pt.wikipedia.org/wiki/GRC

http://www.isaca.org/Knowledge-Center/

39

Technology leadership council Brazil Technology leadership council Brazil

especial cenTenário da iBm: iBm Tape: queBrando Barreiras no armazenamenTo de dados

João Marcos Leite

Que a quantidade de dados digitais gerados no mundo cresce

exponencialmente todos já sabemos. O número de fontes de

informações é cada vez maior, pois existem computadores

conectados em rede em quase todos os lares, escolas e empresas,

e se considerarmos os smartphones, tablets, videogames e

demais dispositivos eletrônicos existentes em nosso cotidiano,

a lista dos potenciais geradores de dados torna-se realmente

muito extensa.

Esses dados, quando relacionados aos negócios, passam

a ser fundamentais para a sobrevivência das empresas,

independentemente de seu porte. Daí surge a questão: onde

guardar tanta informação? E se esses dados forem perdidos

por algum motivo, como recuperá-los de forma rápida, com o

mínimo de impacto nos negócios?

Há mais de meio século, uma invenção da IBM responde a

essas perguntas: as unidades de fita magnética. Elas têm

desempenhado um papel essencial na proteção dos dados

empresariais, principalmente aqueles que necessitam ser retidos

por longos períodos de tempo, a um custo menor do que o

armazenamento em discos magnéticos.

O primeiro modelo comercial anunciado pela IBM em 1952, a 726

Magnetic Tape Recorder, marcou a transição do armazenamento

de dados em cartões perfurados para um meio magnético. No

início, o maior desafio foi convencer os usuários, que antes podiam

inspecionar visualmente os registros através das perfurações

dos cartões, a aceitarem um novo meio físico onde não se podia

mais ver os dados a olho nu. Somente após os usuários se

acostumarem com essa quebra de paradigma do armazenamento

digital é que foi possível começar o desenvolvimento de outros

dispositivos magnéticos, como os discos IBM RAMAC e todos

os demais que vieram desde então, impulsionando fortemente

o desenvolvimento da Tecnologia da Informação.

Diversas tecnologias criadas pela IBM para as unidades de fita

foram posteriormente adotadas nos discos magnéticos, como os

cabeçotes thin-film, a utilização de memória cache intermediária

para aumentar o desempenho na transferência de dados com

os servidores e a adoção de microcódigo dentro do dispositivo.

Assim, as funcionalidades que foram desenvolvidas primeiramente

para as unidades de fita também ajudaram significativamente

na evolução tecnológica dos subsistemas de disco.

A influência que o armazenamento de dados em fitas magnéticas

trouxe ao mundo computacional foi mais além: criou o conceito

de armazenamento hierárquico, com dados online e offline a

custo variável; levou ao nascimento da mais importante aplicação

de gerenciamento de dados: o backup/restore; viabilizou a

portabilidade de dados para proteção remota e integração

entre empresas; e permitiu o arquivamento de dados por longa

duração para atendimento às regulamentações de retenção

de informações.

Nesses quase sessenta anos, nos quais saltamos dos meros

2 MB por carretel de fita (no modelo IBM 726) para 4TB por

cartucho no modelo mais recente (IBM TS1140) e a taxa de

transferência de dados passou de apenas 12,5 kB/s para 800

MB/s (sem considerar a compressão), foram muitas as conquistas

dos engenheiros que participaram no desenvolvimento dessa

tecnologia, com ideias inovadoras e revolucionárias que

trouxeram para a TI a possibilidade de processar e proteger

cada vez mais informações, bens intangíveis e de grande valor

para as empresas.

As unidades de fita evoluíram de várias formas e ainda

permanecem como o meio de armazenamento de dados com

a melhor relação custo/benefício, de modo flexível e escalável,

para atender às maiores demandas das aplicações de negócio,

quebrando barreiras a cada nova geração. Essa tecnologia tem

mantido o fôlego por quase sessenta anos, e promete ainda

muito mais para, pelo menos, os próximos quarenta.

Para saber mais:

www.ibm.com/systems/storage/tape/index.html

www.ibm.com/ibm/history/exhibits/storage/storage_fifty.html

40

Technology leadership council Brazil

o novo Bug do milênio?Sergio Varga

A nova versão do protocolo IP (Internet Protocol) que vem a

substituir a versão IPv4 atualmente vigente, será a IPv6. Esta

mudança permitirá a conexão de cerca de 3,4x1038 endereços

ao invés dos 4 bilhões de endereços suportados hoje. Conforme

descreveu Luís Espínola no primeiro livro de Mini Paper, o fim

acabou chegando mesmo antes de 2012, pois em Fevereiro

de 2011 os últimos blocos livres de endereçamento IPv4 foram

alocados pela Internet Assigned Numbers Authority (IANA).

Isso significa que qualquer instituição que necessite de um novo

endereço IP oficial, conseguirá somente com um dos cinco

orgãos regionais que, porventura, ainda detenham endereços

disponíveis. Ao término dessa reserva, as empresas

terão que buscar alternativas tais como outsourcing,

colocation (hospedagem de computadores em

outra empresa), etc.

Há quem fale que esse será o novo bug do milênio.

Os profissionais de TI que estavam no mercado

de trabalho antes de 2000 devem se lembrar do

frisson que ocorreu nos últimos anos antes da

virada do ano 2000, em especial no final de 1999.

Na maioria dos sistemas, o ano era codificado

com dois dígitos e isso poderia causar grandes

problemas naqueles que utilizavam datas para

efetuar cálculos. Por exemplo subtrair 99 de 00 era

obviamente diferente de subtrair 1999 de 2000. Logo,

foi necessário aumentar o campo “ano” para quatro dígitos, o

que causou muita correria para alterar os sistemas legados. No

final das contas não se soube de grandes problemas ocorridos

após aquele tão esperado Reveillón.

Mas o que está acontecendo hoje? Temos praticamente toda a

Internet utilizando IPv4 e sem a possibilidade de crescimento no

seu atual espaço de endereçamento. Logo, torna-se necessário

começar efetivamente a migração para o IPv6. Segundo o

levantamento efetuado pela ARBOR Networks, o volume de

tráfego IPv6 em 2008 foi de 0,0026% do total e no ano seguinte

ainda se manteve nessa ordem. Ainda existem milhares de

aplicações que utilizam o IPv4, mas por outro lado, as grandes

empresas já estão disponibilizando produtos compatíveis com

IPv6. Como ficam então os programas, aplicativos, sistemas e

websites que ainda não suportam o protocolo IPv6? Visualiza-se

uma enorme oportunidade para serviços, venda de hardware e

software, consultoria, desenvolvimento e treinamento para apoiar

as empresas que necessitarão adequar suas aplicações ao

novo protocolo. Não podemos nos esquecer ainda do potencial

que essa conversão trará, pois todo equipamento que suporte

o protocolo IP, tais como celulares, televisões, computadores,

eletrônicos, gadgets e o que mais se imaginar precisará utilizar

o novo protocolo. Abre-se então um leque inimaginável de

oportunidades.

Uma boa saída seria converter as aplicações para

o IPv6 através de formas alternativas, utilizando-

se de recursos tais como proxies, gateways e

NAT (Network Address Translation), mapeando

endereços inválidos para endereços oficiais, no

entanto isso implicaria em uma possível perda

de desempenho das aplicações, causada pela

criação de hops adicionais de tráfego.

O IPv4 durou cerca de 30 anos e, por enquanto,

não se consegue nem pensar que algum problema

de esgotamento venha a ocorrer com o IPv6, pois,

nesse caso, mesmo se cada um dos 7 bilhões

de habitantes da Terra tivessem 50 dispositivos

com acesso à Internet, ainda seria possível o

endereçamento. Mas, no ritmo do avanço tecnológico, não

seria surpresa se daqui a 80 anos, por exemplo, os endereços

voltarem a se esgotar.

Diferente do bug do ano 2000, a adoção do protocolo IPv6 é um

problema menos crítico pois, aparentemente, há tempo suficiente

para a migração. É provável que os setores de entretenimento

e marketing venham a impulsionar essa mudança, pois são os

que necessitam atingir grandes volumes de consumidores e

o IPv6 poderá ser uma solução para agilizar esse processo.

Para saber mais:

http://inetcore.com/project/ipv4ec/index_en.html

http://validador.ipv6.br/index.php?site=www.ipv6.br&lang=pt

41

Technology leadership council Brazil Technology leadership council Brazil

manuTenções de sisTemas na velocidade do negócio

Luiz Phelipe A. de Souza

Imagine o seguinte cenário: O Natal está chegando, época

de maior faturamento de uma grande empresa de varejo, e as

expectativas de vendas são altas. Essa empresa, analisando

seu mercado, percebe que ações do concorrente começam a

ter impactos nos seus resultados e que, seguindo a tendência,

os números esperados para o fim do ano podem estar

comprometidos. A estratégia precisa ser revista. Regras do

negócio precisam ser modificadas para tentar reverter o quadro.

A equipe de TI precisa ser envolvida. Os sistemas que suportam

a operação da empresa precisam considerar as novas regras e

é preciso alterar seus códigos-fonte. Sobrecarregada por várias

outras de-mandas, a equipe de TI dá prazos que não atendem

às necessidades dos usuários.

Um cenário similar a esse pode ser identificado em todas as

organizações que hoje dependem de sistemas de TI para

funcionar. Impasses como esse e questões de como os sistemas

de TI podem ser mais flexíveis o suficiente para garantir a agilidade

que as áreas de negócio precisam, podem ser equacionadas com

uma separação das lógicas e regras que fundamentam o negó-cio

(que, normalmente, demandam muito de manutenções por parte

dos usuários finais) do restante das funcionalidades do sistema.

O componente onde as regras podem ser implementadas e

mantidas deve prover mecanismos de fácil manuseio, inclusive

por pessoas não diretamente envolvidas no desenvolvimento

dos demais componentes da aplicação.

Atualmente, o mercado de TI – clientes e fornecedores – tem

adotado essa abordagem em ferramentas de gestão de regras

de negócio (BRMS – Business Rules Management Systems).

Em linhas gerais, a ideia original desse tipo de ferramenta é

disponibilizar um repositório controlado onde todas as regras

de negócio podem ser criadas, mantidas e lidas por pessoas

envolvidas na definição dessas regras (e não, invariavelmente,

por profissionais de TI, conhecedores de linguagens de

programação). Ainda, todo esse conjunto de regras publicados

pode ser, a qualquer momento, consumido por sistemas legados,

independente da tecnologia nas quais foram originalmente

desenvolvidos.

Obviamente, alguns requisitos são primordiais ao correto

funcionamento de um sistema de regras de negócio. O primeiro

– e principal – é na forma de escrita dessas regras. Para que

usuários “não técnicos” possam escrever regras que consigam

ser interpretadas por sistemas de TI, as ferramentas de gestão

de regras fornecem mecanismos e funcionalidades para criação

de um vocabulário próprio para a escrita de regras de negócio.

A escrita de uma regra, com um vocabulário criado a partir do

jargão da organização, deve ser algo tão simples e natural

como: “se a idade do motorista for menor que 20 anos então

considere o motorista inexperiente”.

Ponto fundamental também considerado por especialistas nesse

tipo de tecnologia é a governança e controles de acesso aos

artefatos criados a partir da ferramenta. Para uma adoção com

baixo risco para o negócio da empresa, acessos devem ser

permitidos (ou negados) até o momento de publicação quando a

regra alterada passaria a vigorar (sendo consumida por sistemas

legados). Esse tipo de funcionalidade permite uma adoção mais

segura, evitando mudanças de regras com imediato impacto

nos sistemas da organização.

A implementação de uma ferramenta de regras de negócio em

sistemas complexos não é tarefa das mais simples. O esforço

de extração de lógicas de negócio de sistemas antigos, de

regulamentações e normas ou até mesmo da cabeça de

usuários, requer muita análise e atenção. Os benefícios podem

ser grandes. A medição dos ganhos pode ser feita com base

na velocidade como o negócio reage a demandas urgentes

ou mesmo nas atividades de TI que pode ter seu backlog de

manutenções reduzido.

Qual o desenvolvedor de aplicações que nunca ouviu um pedido

de alteração com um comentário do tipo: “Deve ser rápido.

É só incluir um IF...” ?

Para saber mais:

http://en.wikipedia.org/wiki/Business_rules

http://www.businessrulesgroup.org

http://www.brcommunity.com

42

Technology leadership council Brazil

escalaBilidade e gerenciamenTo em cloud compuTing

Edivaldo de Araujo Filho

No modelo de Computação em Nuvens (Cloud Computing) os

recursos computacionais ficam distribuídos física e virtualmente

por diversas localidades, tornando-se transparente aos

usuários onde seus dados são armazenados e suas aplicações

processadas. O crescente uso desse modelo vem modificando

o cenário atual dos negócios e desafiando os especialistas e

arquitetos de TI na construção dessa nova realidade, na busca

de redução de custos, melhorias no desempenho e aumento

da segurança e escalabilidade dos sistemas de informação.

O conceito de Cloud está há algum tempo em destaque

no mercado e já é uma realidade para muitas empresas,

principalmente de pequeno e médio

porte, as quais já migraram toda ou

parte de sua infraestrutura de TI para

a nuvem, contratando como serviço

a solução tecnológica de suporte

aos seus negócios. Nas grandes

corporações os CIOs também vêm

buscando fortemente virtualizar suas

infraestruturas, investindo, na maioria

das vezes, em nuvens privadas dentro

de seus próprios ambientes de TI

(Private Cloud).

Como a Cloud oferece alta esca-labilidade, tornou-se uma

solução viável para atender de forma inteligente à demanda

por automação requerida pelos negócios, associada a uma

utilização efetiva e otimizada dos recursos computacionais. O

tema da escalabilidade já foi tratado anteriormente no paradigma

computacional de Grid Computing, o qual já se preocupava

com o uso inteligente da infraestrutura de TI, especialmente

com relação à capacidade de expansão (excesso) e redução

(escassez) dos recursos tecnológicos, de acordo com o demanda

dos sistemas em operação.

Com o cenário de Cloud Computing, a escabilidade proporciona

um novo conceito, de crescimento elástico virtual e não físico do

Data Center. Para os clientes torna-se conveniente essa nova forma

de comercializar aplicações e dados, cujos volumes crescem e

diminuem de acordo com a situação. A escalabilidade evidencia

uma série de ganhos na infraestrutura de TI, principalmente no

que tange ao custo e à forma dinâmica de se expandir e retrair o

uso de recursos computacionais associados às necessidades

do cliente e com o máximo de precisão e transparência possíveis.

O gerenciamento tradicional da infraestrutura de TI sempre

apresentou um controle centralizado e físico das instalações

computacionais corporativas. Com o advento da Cloud, a TI

está sendo redesenhada para poder atender à demanda dos

negócios. A gerência desse novo ambiente está enfrentando o

desafio de não somente manter ativos os recursos operacionais,

mas em redefinir um modelo para sua monitoração em ambiente

híbrido, com parte da TI tradicional e parte virtualizada e em

nuvem, seja pública ou privada.

Gerenciar TI com Cloud Computing

pressupõe uma mudança de para-

digma na qual os itens de confi-

guração crescem ou diminuem de

forma acelerada e diversificada.

Ao se utilizarem nuvens públicas,

soma-se a isso a característica do

desconhecimento da localização física

dos recursos, acompanhada por um

modelo virtualizado e distribuído, que

exige um gerenciamento autonômico e descentralizado mas

focado nas aplicações de missão crítica e com impacto direto

no core business e nos serviços dos clientes.

A demanda crescente não só por infraestrutura, mas por

aplicações na nuvem impulsiona investimentos acentuados

em virtualização e automação dos ambientes de TI, sejam nos

provedores dos serviços de Cloud ou em grandes corporações

que estão buscando nuvens privadas. A busca por Cloud é

uma forma da TI atender ao crescimento do negócio, associado

a data centers cada vez mais complexos, e ainda manter a

conformidade com a consolidação de equipamentos, economia

de espaço e principalmente, redução de consumo de recursos

como energia e refrigeração.

Para saber mais:

www.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf

www.ibm.com/cloud-computing/

43

Technology leadership council Brazil Technology leadership council Brazil

a evolução da weB na direção dos negócios

Márcio Valverde

Como o leitor dos Mini Papers do TLC-BR pode notar, há uma

clara evolução nas tecnologias da Web, as quais caminham

fortemente em direção a proporcionar experiências cada vez

mais ricas, inteligentes e interativas aos usuários.

Em um mercado crescente e dinâmico como o atual, no qual

os usuários exigem cada vez mais velocidade e facilidade na

interação com as aplicações Web, é natural observar o surgimento

de novas tecnologias para atender a essas demandas.

A Web semântica, por exemplo, busca organizar o conhecimento

armazenado em arquivos e páginas da rede. Esse conceito

vem da compreensão da linguagem humana por parte das

máquinas, para a recuperação da informação. Algumas empresas

fornecedoras de tecnologia já oferecem funcionalidades da web

semântica em seus produtos, tornando-os capazes de otimizar

o fluxo de informações e gerar resultados mais inteligentes em

suas buscas, possibilitando aos seus clientes mais precisão e

agilidade na tomada de decisões.

Em outra vertente de desenvolvimento da Web, a busca pela

disponibilidade de dados conforme as necessidades de cada

usuário e pela transformação da informação em conhecimento

fizeram com que diversas empresas (como Apple, Google, IBM,

Mozilla, etc.), se unissem em um consórcio para colaborar na

construção da quinta geração da linguagem mais conhecida da

Internet, a HTML, que apesar de ter sido projetada para manter

a compatibilidade com as aplicações atuais, é uma linguagem

mais dinâmica e capaz de oferecer um ambiente mais estruturado

e seguro do que todas as suas versões anteriores.

Na HTML5 a simplicidade tomou o lugar dos antigos scripts

complexos e cheios de detalhes, e ainda por cima trouxe uma

série de novas funcionalidades abrangentes e interessantes,

tais como:

1. A possibilidade de localizar serviços e outros fins que estejam próximos à posição geográfica do usuário através de Geolocation;

2. O uso de Speech Input, bastante útil na acessibilidade de aplicações por parte de usuários com necessidades especiais;

3. Maior rapidez e agilidade no tráfego de streams de áudio e vídeo;

4. Inclusão de threads, chamadas de WebWorks, que per-mitem executar mais de uma atividade ao mesmo tempo em uma página web, reduzindo bastante o tempo de processamento e resposta.

Nesse ambiente em constante evolução, muitas empresas já

começam a repensar a maneira de construir suas aplicações Web

e como irão distribuir esses novos serviços. As possibilidades vão

desde a utilização de smartphones, tablets, TVs digitais interativas,

redes sociais e até computação em nuvem, permitindo que as

empresas usem a Web como plataforma de negócios e estreitem

cada vez mais a relação entre consumidores e fornecedores,

aumentando assim o potencial das oportunidades de negócios,

em uma escala global.

Não estamos diante de uma revolução, mas sim de uma evolução

na maneira de fazermos negócios, mas devemos ficar atentos

a esse “Admirável Mundo Novo”, o qual está se configurando

como um componente importante na construção de um planeta

mais inteligente, capaz de interligar povos e mercados em um

novo patamar.

Para saber mais:

http://www.youtube.com/watch?v=DHya_zl4kXI

http://www.youtube.com/watch?v=ei_r-WSoqgo

44

Technology leadership council Brazil

agilidade financeira em TiRodrigo Giaffredo

As empresas operantes no Século XXI têm, entre outros, o desafio

de se manterem modernas e inovadoras, num momento em

que a propagação da informação em alta velocidade, e o fácil

acesso a conteúdos técnicos, leva ao surgimento de uma nova

geração de pensadores criativos.

Quando se fala em modernização e inovação, tecnologia é

assunto recorrente. Ainda que ideias criativas nem sempre

esbarrem em componentes tecnológicos sofisticados, é fato

que organizações mais automatizadas, seja nas atividades

principais ou nas de suporte, lideram a disputa por mercados.

Tradicionalmente, os gastos com a

TI (Tecnologia da Informação) são

considerados despesas. Porém, as

empresas jovens e lucrativas

quebraram esse paradigma, ao

considerá-los como investimentos

importantes para o desbravamento

de mercados, criação de produtos,

e manutenção da competitividade.

Com isso, o papel da TI no desem-

penho financeiro corporativo, vem

migrando do status de coadjuvante

(mero centro de custos e provedor

de serviços), para o de agente de

mudança no sucesso financeiro

do negócio.

Para medir o desempenho da TI nas

organizações, é preciso entender que métricas isoladas não

contam toda a história. Avaliar os resultados das variações

horizontais (período corrente versus períodos anteriores) ou

verticais (gasto da TI sobre o total dos gastos) não é suficiente para

aferir o papel das áreas de tecnologia na eficiência corporativa.

No artigo “IT Key Metrics Data 2011” (Gartner, dezembro de 2010),

os autores, afirmam que é necessário “avaliar o desempenho da

TI no contexto da organização, a fim de comunicar corretamente

o valor e o significado da atuação dessa área no alcance dos

resultados.” Opinião semelhante é citada no relatório “Global

Banking Taxonomy 2010” (IDC Financial Insight, julho de 2010).

Partindo dessa premissa, as organizações eficientes devem

aferir o desempenho da TI, apoiadas no tripé “TI como % da

receita, das despesas, e da mão-de-obra”, compreendendo

assim o nível de intensidade da participação da área no

desempenho do negócio.

Vamos nos ater ao exemplo “Gastos com TI versus receitas

totais”, abordado no artigo supracitado, e representar grafi-

camente a comparação através de uma matriz (veja figura),

situando a interseção entre esses dois pilares em quadrantes

nas seguintes cores:

1. Amarela: receitas totais e gastos com TI movem-se na mesma

direção; caso a interseção ocorra no quadrante superior direito,

o ideal é que o gasto com TI varie menos em % do que a receita,

“acelerando” a lucratividade. Já no

caso de a interseção ocorrer no

quadrante inferior esquerdo, a

redução % do gasto de TI deve ser

maior do que a da receita, “freando”

a perda de margens.

2. Verde: receitas crescem e gastos

com TI diminuem. Aparentemente

perfeito, porém é importante ana-

lisar se o orçamento da TI está

sendo preterido na organização

(a chamada “miopia do gasto”, e

não economia de fato).

3. Vermelha: período crítico no qual

as receitas diminuem, e os gastos

com TI aumentam. Tempo de revisar

o orçamento da área, priorizando

investimentos criativos e com ótima relação de custo-benefício.

Essa é uma das possibilidades de utilização da análise financeira

multidimensional no âmbito da TI (outro exemplo é o Balanced

Scorecard, metodologia de medição e gestão de desempenho

organizacional através da utilização de indicadores financeiros,

comerciais, de processos internos e de aprendizado/crescimento),

e cabe aos executivos CxO (inclusive CIOs) combiná-las no intuito

de gerar informações preditivas sobre o mercado, e assegurar

longevidade e agilidade nos mais variados contextos.

Para saber mais:

http://www.gartner.com/DisplayDocument?id=1495114

http://www.idc-fi.com/getdoc.jsp?containerId=IDC_P12104

45

Technology leadership council Brazil Technology leadership council Brazil

gesTão de cusTos de TiAnderson Pedrassa

Entender e comunicar a produtividade da Tecnologia da

Informação em termos relativos a outras métricas de negócio é

obrigatório, segundo o Gartner. Tratar a dinâmica do investimento

em TI apenas como Percentual da Receita, métrica mais utilizada,

pode inviabilizar o entendimento de tendências importantes e

não reflete, de fato, a contribuição da TI para os resultados da

operação de uma empresa.

Como componente importante da equação da produtividade

da TI, a Gestão de Custos de TI tem a missão de medir para

gerenciar; medir para fazer mais com menos. Muitos gestores

sabem quanto custa a operação de TI (quanto se paga) mas,

por falta da transparência dos custos, veem a TI como uma

caixa-preta que gera gastos

significativos e crescentes. Dar a

visibilidade desses custos pode

revolucionar a forma como as

empresas consomem os recursos

(internos e externos) e aumentar o

foco nos investimentos em TI que, de

fato, contribuam para os resultados

dos negócios dessas empresas.

Para tanto, uma etapa importante

consiste na definição de processos

internos para identificar e medir os

fatores diretos e indiretos formadores

de custo. Esses gastos e desembolsos incluem despesas com

funcionários, hardware, software, espaço físico, contratos,

impostos, terceirização, energia elétrica, água, luz, telefone,

refrigeração, depreciações e amortizações.

Alguns gastos podem ser diretamente associados a um sistema,

aplicação ou serviço. Entretanto, despesas compartilhadas devem

seguir outro critério, normalmente o da proporcionalidade de

uso, no qual sistemas ou clientes que consomem mais recursos

compartilhados devem pagar mais. Esse rateamento eleva a

maturidade da gestão de custos de TI e por isso requer uma

nova métrica, chamada Custo Padrão, que define valores para

as unidades de recursos ou de serviços de TI, formando um

catálogo de preços no qual, por exemplo, constam o custo do

minuto de processamento, do gigabyte de armazenamento e

do kilobyte trafegado na rede. Outros valores tais como o custo

por transação de banco de dados, por timeout ou deadlock e

até por erro grave de programação, podem revelar aplicações

menos eficientes e que são grandes consumidoras de recursos.

O Custo Padrão possibilita uma base de comparação entre

áreas, unidades de negócios, localidades, depar-tamentos

e fornecedores, com seus respectivos esta-belecimentos e

acompanhamentos de metas de custos, podendo, inclusive, ser

utilizado com a finalidade de apoiar a elaboração de orçamentos.

Para se chegar ao Custo Padrão deve-se coletar o consumo

direto de recursos de TI, tais como o dos sistemas operacionais,

gerenciadores de bancos de dados, infraestrutura de Internet,

sistemas de correio eletrônico, servidores de rede e impressão

e qualquer outro sistema, aplicação ou appliance. O consumo

pode informar tempo de processamento, utilização de memória,

operações de entrada/saída (IOPS, Input/Output Operations

Per Second), armazenamento,

tráfego de rede, operações de

bancos de dados, entre outros.

De fato, tudo o que é consumido

pode ser registrado em arquivo e

mensurado para efeito de apuração

do Custo Padrão.

A Gestão de Custos de TI produz

dados que, explorados com o apoio

de ferramentas de BI (Business

Intelligence), permitem conduzir

simulações, previsões, apoiar o

Capacity Planning e aumentar a

eficiência operacional. Uma maior compreensão dos custos

de TI também lança luz sobre a questão da comparação entre o

custo para desenvolvimento versus o custo operacional total da

aplicação ou sistema, revelando que o primeiro perde importância

quando o ciclo de vida das aplicações aumenta para cinco ou

dez anos, por exemplo.

Uma Gestão de Custos de TI efetiva, ajuda a mostrar com números

a verdadeira contribuição da Tecnologia da Informação para o

resultado financeiro de uma empresa. Em tempos em que bons

motoristas têm desconto no seguro do carro e pessoas com

hábitos saudáveis passam a ter desconto no plano de saúde,

faz sentido que sistemas mais eficientes sejam recompensados

de alguma maneira.

Para saber mais:

http://www.gartner.com/technology/metrics/communicating-it-metrics.jsp

http://www.mckinseyquarterly.com/Unraveling_the_mystery_of_IT_costs_1651

46

Technology leadership council Brazil

fcoe, a inTegração das redes lan e sanAndré Gustavo Lomônaco

Há cerca de dez anos, artigos comparavam os sistemas de

telefonia tradicionais com os, até então, novos sistemas de

telefonia baseados no protocolo Internet (IP). Enquanto fatores

como baixo custo de aquisição e confiabilidade eram associados

aos sistemas tradicionais, salientava-se o retorno do investimento

dos sistemas de telefonia IP pela redução de custos através

da utilização dos mesmos meios já utilizados pela rede de

dados e também pela unificação da equipe de suporte com o

conhecimento de ambas tecnologias, eliminando-se distintas

equipes dedicadas.

Atualmente presenciamos a convergência entre outras duas

importantes tecnologias: as redes locais de dados (LAN) que

utilizam o protocolo Ethernet para o envio e recebimento de dados

e as redes locais de armazenamento de dados (SAN) que utilizam

o protocolo Fibre Channel (FC) para transportar comandos e

dados entre servidores e sistemas de armazenamento. Essa

integração, fundamentada em um novo protocolo denominado

Fibre Channel over Ethernet (FCoE), poderá trazer para a área

da Tecnologia da Informação impactos e benefícios semelhantes

aos que a telefonia IP trouxe nos últimos 10 anos.

Embora essas redes distintas possam ser integradas atualmente

com técnicas que utilizam protocolos de empacotamento de

comandos e dados, tais como os protocolos iSCSI, FCIP e

iFCP, o nível de integração e os benefícios obtidos através do

protocolo FCoE superam os das atuais técnicas de integração,

conseguidos ao se compartilhar em um único meio físico tanto

o tráfego de dados das redes locais quanto o de operações de

entrada e saída dos periféricos de armazenamento.

Atualmente um servidor que exija acessos redundantes a redes

necessita ser configurado com dois adaptadores de conexão à

rede de armazenamento (HBAs) e dois adaptadores adicionais

para a rede local de dados, isso sem considerar as demais

conexões para as interfaces de gerenciamento do equipamento.

No novo cenário de consolidação, habilitado pelo FCoE, todo

tráfego LAN e SAN passa a ser encaminhado através de um

novo adaptador denominado Converged Network Adapter (CNA),

obtendo-se vantagens na redução do número de adaptadores

em cada servidor, no consumo de total de energia elétrica, no

espaço físico requerido pelo servidor, na quantidade de switches

de rede e no cabeamento necessário. Esse novo adaptador

inclui o protocolo Ethernet que foi redesenhado para encapsular

e transportar também o tráfego do protocolo FC tornando-o

disponível para uso imediato por parte dos atuais equipamentos

de armazenamento de dados.

Como o overhead necessário para encapsular o tráfego de

um protocolo por dentro do outro gira em torno de 2% do total

trafegado, pode-se considerar que o desempenho geral, quando

se compara FC com FCoE, é praticamente o mesmo. E embora

o custo atual do adaptador CNA ainda seja superior ao do

adaptador HBA, essa diferença vem diminuindo com o tempo,

devido ao aumento nas vendas e na utilização dos adaptadores

CNA, especialmente em novas implementações.

Mas, principalmente para os profissionais não tecnicos de TI,

ainda pode ficar no ar a dúvida se a migração para essa nova

tecnologia não será muito demorada e difícil. De fato, além da

troca da tecnologia em si, será necessário formar profissionais

que detenham conhecimento de ambas as redes (LAN e SAN),

o que demandará esforços consideráveis, mas o retorno

desse investimento deverá ser rápido e compensador, uma

vez que a consolidação dessas redes permitirá atender de

forma mais otimizada os requisitos de segurança, desempenho,

escalabilidade e disponibilidade das aplicações que suportam

as áreas de negócio.

Para saber mais:

http://www.redbooks.ibm.com/redpapers/pdfs/redp4493.pdf

47

Technology leadership council Brazil Technology leadership council Brazil

poder, muiTo poder, de processamenTo

Fernando de Moraes Sprocati

Desde sua popularização no final dos anos noventa, os

computadores pessoais vêm tendo seu uso cada vez mais

diversificado. De meras máquinas eletrônicas de digitação até

centrais multimídia e multitarefa, foram incorporando cada vez

mais recursos e poder de processamento.

Um grande salto nesse poder de processamento veio com a

utilização de processadores específicos para lidar com vídeo,

tarefa bastante exigente principalmente em função dos jogos

com visuais cada vez mais realísticos.

Conhecidos pelo jargão “GPU” (Graphical Processor Unit),

os processadores gráficos possuem enorme capacidade

de processamento numérico e, atualmente, possuem muitas

centenas de núcleos, enquanto que as CPUs (mesmo aquelas

mais modernas) apresentam no máximo 16 núcleos — que até

podem ser “duplicados” com o mecanismo de hyperthreading.

E apesar das GPUs possuírem núcleos mais simples do que

os das atuais CPUs, atingem um desempenho muito superior

em processamento numérico.

Foi pensando nesse potencial que se desenvolveu a linguagem

OpenCL (Open Computing Language), com o objetivo de tornar

possível executar programas comuns nas placas gráficas, as

mesmas usadas para executar jogos. Criada pela Apple e

posteriormente definida por um consórcio de grandes empresas

do setor, tais como AMD, IBM, Intel e NVIDIA, entre outras, a

OpenCL vem obtendo uma crescente adoção no mercado.

Para aproveitar os benefícios oferecidos pelos recursos das

placas gráficas é preciso reescrever as aplicações para que

passem a utilizar o paralelismo, mecanismo através do qual um

programa tem seus múltiplos fluxos divididos entre os núcleos

de processamento. Esse esforço é amplamente recompensado

pelos ganhos de desempenho, usualmente na ordem de 100

vezes. Um dos fabricantes publicou casos de altos ganhos de

desempenho, superiores a 2.500 vezes.

As aplicações que mais se beneficiam desse novo recurso são

aquelas que envolvem pesados cálculos numéricos, como

os da indústria do petróleo, área financeira, dinâmica dos

fluídos, processamento de sinais, cálculos sismológicos e

simulação, entre outras.

A princípio, qualquer aplicação poderia ser executada nas

GPUs. Até sistemas gerenciadores de bancos de dados já

foram portados para esses processadores, obtendo-se ótimos

resultados. Hoje já existem, inclusive, aplicações com detecção

de GPUs compatíveis que ativam automaticamente seu uso.

Usando-se GPUs é possível dobrar o desempenho das aplicações

sem ter que investir em hardware caro, pois para essa ordem

de grandeza de ganho de desempenho não é necessário usar

GPUs poderosas. Mas, independente disso os fabricantes de

GPUs seguem aumentando a capacidade de processamento de

seus produtos, a ponto de ser possível hoje montar um desktop

com poder de cálculo de 2 TeraFLOPS usando GPUs a um

custo aceitável para usuários domésticos. Como referência, uma

das CPUs mais avançadas da atualidade (Intel Core i7 980X

EE) atinge “apenas” 100 GigaFLOPS, ou seja, uma média de

desempenho vinte vezes menor.

Entretanto, ainda existem gargalos nessa tecnologia, princi-

palmente no que se refere à capacidade de transferência de

dados entre a memória principal da CPU e a memória das GPUs,

ponto que já está sendo endereçado pelos fabricantes, o que

eleva o potencial de utilização das GPUs para fins gerais.

A disseminação de aplicativos que utilizem a OpenCL pode nos levar

a um novo patamar de desempenho simplesmente aproveitando

de maneira mais inteligente a capacidade de processamento que

temos instalada em nossos computadores de hoje.

Para saber mais:

http://www.khronos.org/opencl/

http://www.alphaworks.ibm.com/tech/opencl/

48

Technology leadership council Brazil

o poder da Tecnologia social

Marcel Benayon

Se hoje em dia todos já nascem “conec-

tados”, me recordo bem de quando entrei

para esse time. Foi em 1992, quando eu

tinha 12 anos e ganhei de meu pai um

modem analógico — creio que muitos

leitores nem conheceram essa tecnologia

— mas ele, que trabalhava na IBM e era

muito dedicado, sempre chegava tarde

em casa e adiava a instalação do novo

equipamento. E foi assim até que um

dia, sem conhecimento algum mas com

muita sorte, peguei as ferramentas e

ecoou o barulhinho do sucesso (do sinal

da portadora do modem)! Dias depois

entrava no ar minha própria BBS (Bulletin Board System), uma

central de troca de mensagens e arquivos. Foi minha primeira

experiência de conectividade, aliando tecnologia e sociedade.

Como o público era de garotada e a receita baixa, as linhas foram

cortadas e o serviço suspenso alguns anos após a inauguração.

Quinze anos depois fui surpreendido por uma questão

tecnológica trazida por um amigo que ouvira falar do Twitter e

tinha sérias dúvidas se iria dar certo. Ele achava que, como não

tinha dinheiro ligado diretamente, não haveria base para uma

receita de sucesso. Lembrei de minha BBS, suas diferenças

e vínculos com a nova realidade.

Hoje não há dúvidas de que as redes sociais são um marco

tecnológico. Já me acostumei ao calendário no Facebook, aos

contatos no LinkedIn e às informações no Twitter. Mais importante

que isso, as empresas estão fazendo dinheiro fluir por esse

caminho, reduzindo a distância de seus clientes a apenas um

clique do mouse. E a maior publicidade hoje já é clique-a-clique,

uma atualização do antigo boca-a-boca.

Fugindo dos spams, trago exemplos diferentes e pouco

conhecidos de aplicação de mídia social, como a Jones

Soda e seus refrigerantes de milho e patê de salmão (entre

64 sabores) que obteve fama mundial ao lançar, via Facebook,

uma campanha que já vendeu mais de um milhão de garrafas

personalizadas com qualquer foto de seus

fãs na rede. No Brasil, o sucesso inicial

do Foursquare em motivar restaurantes a

mimar quem registrava sua presença no

local passou, mas marcou o início de uma

era. A União, ao lançar a versão light de

seu açúcar, ofereceu amostras grátis aos

que duvidaram da qualidade do produto

em redes sociais.

Os líderes de projeto do Service Day, uma

das iniciativas do centenário da IBM em

que cada funcionário da empresa doou

8 horas do seu tempo para atividades

comunitárias, foram treinados para ex-

plorar mídias sociais na condução das atividades, principalmente

nas de captação de voluntários e divulgação de resultados.

Derivada das ações virtuais durante o evento, a comunidade da

IBM no Rio de Janeiro no Facebook já passou de 500 integrantes

e é hoje um forte canal de integração.

Se antes era difícil entender o capital fluindo junto aos bits e bytes,

a utilização social da tecnologia hoje impulsiona o mercado na

captação de recursos em bolsas de valores. Para alavancar

pesquisas e desenvolvimento, o LinkedIn levantou cerca de

US$ 350 milhões (mais do que seus US$ 243 milhões de receita

e 23 vezes seu lucro em 2010). O sucesso na captação da

rádio virtual Pandora gerou preocupações, uma vez que o site

amarga prejuízos e possui modelo ainda questionável, mas,

mesmo assim, investidores esperam que a injeção de capital

dê novos rumos à companhia. O Facebook aguarda sua vez na

fila, com estimativas iniciais apontando uma capitalização de

US$ 10 bilhões, precificando a empresa em US$ 100 bilhões!

Será que o mercado vai apoiar essa operação ou teremos pela

frente a formação da “bolha.com 2.0”? Para não me arrepender

depois, os velhos disquetes de 5 1/4‘’ com arquivos de minha

BBS ainda estão guardados...

Para saber mais:

http://www.bspcn.com/2011/03/04/20-examples-of-great-facebook-pages/

49

Technology leadership council Brazil Technology leadership council Brazil

meninas e Tecnologia

Cíntia Barcelos

Quando eu era criança adorava ir à feira com meu pai. Tinha

meu carrinho de compras e a diversão era fazer as contas de

cabeça antes dos donos das barracas. Eles não acreditavam que

o resultado dava certo. E, modéstia à parte, sempre dava. Meu

pai me ensinou esse “truque”, assim como a pensar, racionar de

forma lógica e a gostar de matemática de uma forma divertida.

Hoje tenho duas filhas e minha grande preocupação é deixar

as opções abertas para que elas possam buscar aquilo que

realmente gostam, seja em matemática, ciências ou artes plásticas.

Infelizmente nem todas têm a oportunidade de se desenvolver

e apreciar as ciências exatas. Acredito que o problema começa

cedo na vida delas e a parcela cultural é muito forte. Meninas

são constantemente levadas a achar

que não são boas em matemática e

que tecnologia é chato. Muitos dizem

que meninas são melhores nas áreas

humanas e em profissões que envolvem

pessoas e que meninos é que são

bons com números. Eles, além desse

incentivo que ocorre naturalmente,

têm vários exemplos de homens que

são engenheiros ou profissionais da

computação, os quais admiram e julgam

ter uma carreira bacana. Já as meninas

não têm muitos exemplos nos quais

possam se inspirar.

Eu me formei em Engenharia Eletrônica

e trabalho com tecnologia há 19 anos. Minhas filhas (de 7 e 9

anos) sempre me perguntam o que faço no trabalho. Venho me

aprimorando na resposta com o passar dos anos. É mais trivial

para elas entenderem o que faz um professor, dentista ou médico.

É parte do dia a dia delas. Comecei a explicação pela parte

da engenharia, que um engenheiro inventa, constrói, conserta

coisas e, resolve problemas. Quase tudo à nossa volta tem a

participação de engenheiros. Depois acrescentei a tecnologia.

Elas nasceram nesse mundo de celulares, tablets, netbooks e

são apaixonadas por esses gadgets. Eu as explico que no meu

trabalho eu indico ou aplico tecnologias para que as empresas

e a comunidade em que vivemos possam funcionar melhor. Eu

faço projetos nos quais a tecnologia tende a tornar tudo mais

simples. Engenheiros e demais profissionais de tecnologia criam

coisas novas que ajudam a sociedade. É uma forma bem mais

bacana de apresentar a área para as meninas, sem vinculá-la

a um estereótipo específico de nerd.

Trabalhar com tecnologia envolve criatividade, gostar de resolver

problemas, ter habilidade para trabalhar em grupo e ser curioso.

Gostar de estudar é fundamental para se manter atualizado e

estar em alta no mercado de trabalho. Fazer faculdade é muito

importante e a pós-graduação é um diferencial, assim como

buscar as certificações profissionais de mercado. Essa carreira

pode garantir, além de um bom emprego, conhecer e conviver

com pessoas muito talentosas. Profissionais de tecnologia são

modernos e estão sempre por dentro das novidades. Tem tudo

a ver com meninas, modernas e antenadas.

Hoje ainda não há um caminho trivial para as mulheres que decidem

enveredar pelas áreas de engenharia e tecnologia. Talvez por isso

existam poucas nas carreiras técnicas das

universidades e das empresas. No meu

trabalho, por exemplo, são incontáveis

as reuniões das quais participo em que

eu sou a única mulher “técnica” na sala.

Mas se existe um preconceito inicial,

esse é facilmente vencido ao se mostrar

competência e conhecimento. Para mudar

esse quadro geral é preciso atuar com as

meninas desde cedo, mostrando-lhes as

coisas de forma clara. Pais e professores

são fundamentais na tarefa de descobrir e

incentivar meninas talentosas em ciências

exatas a seguirem sua real vocação. E o

que o mercado hoje busca é uma força de

trabalho diversificada, pois quando homens e mulheres trabalham

juntos chegam a resultados melhores. O mercado está carente

de engenheiros e bons profissionais de tecnologia. Existe uma

grande oportunidade para mulheres se desenvolverem e crescerem

nessa promissora área.

Hoje não vou mais à feira pois meu marido (economista) faz

as compras da casa melhor do que eu. Mas eu instalo os

equipamentos eletrônicos, sou o suporte técnico da casa para

assuntos gerais e estudo matemática com minhas filhas. Crianças

aprendem com exemplos e essa é uma forma doce de dizer-

lhes que podem ser boas em qualquer coisa que gostarem e se

dedicarem. Mas ainda adoro fazer contas de cabeça. Sempre

que chega a conta do restaurante meus amigos me pedem

para ver quanto deu por pessoa...

Para saber mais:

http://anitaborg.org/

http://women.acm.org

50

Technology leadership council Brazil

soBre profeTas e Bolas de crisTal

Avi Alkalay

Há quem diga que os antigos profetas eram pessoas comuns

que proferiam simples consequências lógicas baseadas em

observação mais profunda de fatos de seu presente e passado.

Tudo o que vemos à nossa volta é resultado de alguma ação,

tem uma história e um motivo de ser e de existir.

Em contrapartida, seguindo um mesmo raciocínio científico, se

algo aparentemente “não tem explicação” é porque ninguém se

aprofundou suficientemente nos fatos históricos que o causaram.

Avancemos no tempo. Hoje, vinte anos após a Internet ter mudado

a sociedade e os negócios, o mundo está bastante informatizado.

Na prática, isso significa que milhares de computadores

constantemente geram dados em volume torrencial. Seja o

item que passou pelo caixa do supermercado, a placa do carro

capturado pela câmera de trânsito, o perfil visitado na rede

social ou o registro de uma ligação telefônica.

Após ser usada em seu propósito inicial (totalizar uma conta,

multar, etc.), a informação passa a ser dado histórico.

Mas os dados históricos podem ter um valor ainda maior em

seguida. Quando agregados em grande quantidade ou dispostos

em gráficos, podem mostrar desempenho, crescimento, queda

e, principalmente, tendências, que é a materialização no mundo

dos negócios da eterna busca pela previsão do futuro.

“Profetas” modernos trabalham mais ou menos assim:

1. Identificam diversos repositórios de dados históricos espalhados numa empresa (ou até fora dela) e os integram de forma a permitir que sejam acessados em conjunto. Dois exemplos de dados seriam (a) todos os produtos vendidos numa loja e (b) cadastro de clientes com dados mais genéricos como CPF, endereço e renda mensal. Muitas vezes os dados são armazenados em data warehouses ou data marts e outras vezes descartados após a análise;

2. Encontram e modelam relacionamentos entre esses dados. Por exemplo, o CPF do cliente que comprou tais produtos e o perfil desse CPF no cadastro geral de clientes;

3. Criam visões gráficas que os ajudam a inferir e, even-tualmente, “prever o futuro” e tomar melhores decisões a fim de controlá-lo. Veja que esse fator, ainda bastante humano, é o mais valioso nesse processo.

Neste exemplo, uma previsão desejável – baseada no histórico

de uma população – é o padrão de compra dos moradores de

um certo bairro ou dos clientes de certa faixa de renda ou com

certo número de dependentes. Essa análise é útil justamente

para abastecer uma loja com produtos e quantidades certas

ou ainda viabilizar campanhas de marketing direcionadas, com

índice de retorno muito maior.

Outra previsão importante é o quanto será necessário abrir as

comportas de uma usina hidrelétrica a fim de gerar energia

suficiente para atender a demanda após o último capítulo de

uma novela popular – hora em que cidades inteiras tomarão

banho ou começarão a passar roupa.

Parece algo banal mas é um evento histórico que, quando não

tratado, pode causar apagão num estado inteiro. Esse exemplo

é real e mostra a intrínseca relação – às vezes nada intuitiva

quando vista isoladamente – entre fatos díspares.

Prever ou controlar o futuro tem se institucionalizado como

ciência formal nas disciplinas de Business Intelligence – que

tem como objetivo observar indicadores quantitativos a fim de

entender o passado e o presente – e Business Analytics – que

busca nos auxiliar a fazer as perguntas certas via correlação

entre dados. Seus praticantes têm conhecimento multidisciplinar

(hidrelétricas e novelas, por exemplo) e usam sua intuição, ambos

potencializados por sistemas e métodos dessas disciplinas.

A última palavra em profecias são sistemas que recebem dados e

fatos conforme esses vão surgindo e, em tempo real, conseguem

tomar decisões de ajuste e melhoria de desempenho, tais como

dar ou retirar crédito financeiro, comandar operações na bolsa de

valores ou distribuir carga em uma rede telefônica, entre outras.

Prever ou controlar o futuro sempre será algo difícil e portanto

valorizado. Sistemas e técnicas de análise de negócios são

as bolas de cristal modernas que transformaram essa arte em

algo científico e tangível.

Para saber mais:

http://en.wikipedia.org/wiki/Data_mining

http://theregister.co.uk/2006/08/15/beer_diapers/

51

Technology leadership council Brazil Technology leadership council Brazil

cidades inTeligenTes: o TraBalho se move para que a vida siga

Flávio Marim

Uma certa sequência de três imagens um dia pulou de um

pôster na parede do escritório de planejamento da cidade de

Münster, Alemanha, para ganhar a web em forma de discurso

em prol da diminuição de carros nas ruas. As fotos mostram um

comparativo entre o espaço ocupado pelo mesmo número de

pessoas quando utilizam bicicletas, carros e ônibus. Em 2001,

quando a imagem foi criada, a web, ainda jovem, não inspirou

outras ideias melhores de transporte coletivo e veículos não

poluentes. Hoje, com soluções maduras em trabalho remoto

e o caos nos fazendo clamar por cidades mais inteligentes,

trabalhar sem sair de casa evidencia o que parecia estar perdido:

as cidades ainda podem ser das pessoas.

Qualquer habitante de

um grande centro sabe

o valor de evitar horários

de pico. Ninguém apre-

cia fazer parte do ver-

dadeiro exército que

se desloca diariamente

gastando muito tempo

e paciência enquanto

emitem toneladas de

gases venenosos na

atmosfera.

Se o transporte público não atende à demanda e veículos não

motorizados são frágeis demais na disputa por espaço, as

soluções em trabalho remoto podem tirar pressa, desgaste

mental e poluição das ruas.

Estudos mostram que trabalhadores brasileiros gastam uma hora

e meia em média por dia se deslocando entre seus lares e locais

de trabalho, metade dos quais usando automóveis e motocicletas.

São toneladas de CO2 que deixariam de ser produzidas se

essas pessoas pudessem ficar em suas casas, mas essa é

apenas a ponta do iceberg. Com mais tempo disponível em

suas vidas, a população poderia levar às ruas menos estresse

e ansiedade e uma maior predisposição a pequenas atitudes

que fazem as verdadeiras cidades inteligentes.

Mesmo com essa possibilidade e centenas de ferramentas

disponíveis, o que se vê é que protocolos básicos do bom

convívio urbano, como respeitar a faixa de pedestres, dar

espaço a ciclistas e ser paciente o tempo todo são desafios

quase inatingíveis para quem já gastou seu estoque diário de

tolerância e sequer conseguiu se aproximar do local onde trabalha.

Aqui, tecnologia e conectividade começam a ser utilizadas

de maneira equivocada e imperam imprudências tais como

uso de celulares, smartphones, tablets e até laptops, dividindo

perigosamente a atenção ao volante e despertando os olhos

atentos dos criminosos.

A conectividade da qual já dispomos, se usada com disciplina,

nos oferece uma nova maneira de sermos produtivos e focarmos

em um bem maior.

Empresas como IBM, Xerox e American Airlines, por exemplo,

perceberam há anos que boa parte de seus colaboradores pode

produzir em home-office

o mesmo ou até mais

do que nas estruturas

convencionais. O tabu

da falta de produtividade

longe dos olhos da

gerência tem se revelado

exatamente isso: um tabu.

É sabido que em muitos

casos a adaptação ao

trabalho remoto não é

fácil. É comum surgirem

conflitos familiares e

muitas vezes o profissional não consegue garantir o ambiente

apropriado fora da empresa. Isso indica que pode ter chegado

a hora de aplicar em casa a habilidade de se adaptar a um novo

ambiente de trabalho. Viver conectado não pode significar um

aumento de tensão. Ao contrário, deve possibilitar que se produza

com mais tranquilidade, dando fôlego às cidades e deixando-

as respirar sem o peso de nosso vai-e-vem já desnecessário.

As pessoas têm nas mãos uma grande chance de quebrar uma

reação em cadeia que tem transformado convívio em disputa. Usar

as tecnologias de trabalho remoto para promover essa quebra cria

uma grande oportunidade para que surjam as verdadeiras smart

cities: centros urbanos menos poluídos, menos congestionados,

com melhor qualidade de vida e povoados de smart attitudes.

Para saber mais:

http://super.abril.com.br/cotidiano/se-todo-mundo-trabalhasse-casa-667585.shtml

52

Technology leadership council Brazil

Tecnologia especial para a inclusão social

Ilda Yaguinuma

A Organização das Nações Unidas

(ONU) calcula em 600 milhões o nú-

mero de portadores de necessidades

especiais no mundo. Em 1998 a data

de 3 de dezembro foi escolhida para

comemorar o Dia Internacional da

Pessoa com Deficiência. Essa data

foi especialmente homenageada em

2006 como o dia da “e-acessibilidade”,

ou seja, acessibilidade às tecnologias de informação.

A estimativa para pessoas com deficiências é de 14,5% da

população, segundo o Censo 2000 do Instituto Brasileiro de

Geografia e Estatística (IBGE). São pessoas que possuem

dificuldade de enxergar, falar, ouvir, locomover-se, ou com

alguma outra necessidade relacionada à parte física ou mental.

A tecnologia, seja no avanço da mobilidade física como na

expressão da capacitação intelectual, está evoluindo para

integrar as pessoas de necessidades especiais nos mais variados

segmentos do mercado produtivo.

Na área de sensoriamento visual, desenvolvedores pesquisam

alternativas para adaptar os aplicativos às pessoas com

deficiência. Temos inúmeros exemplos: aplicativos que leem

as páginas que vão sendo abertas na tela e transmitem essas

informações por meio de áudio, o aparelho Snail Braille Reader

que converte em áudio mensagens de texto em braille, leitura por

meio de vibração oferecido pelo Nokia Braille Reader, celulares

que podem fazer ligação mediante acionamento por movimento,

aplicativo móvel que permite reconhecer objetos ao aproximá-

los do aparelho, gravação de voz para efetuar ligações pré-

programadas e pulseiras que orientam o deficiente visual por

meio de dispositivo GPS e conexão Bluetooth.

Para o mundo de deficiência auditiva, identificamos que a

LIBRAS (Língua Brasileira de Sinais) é a linguagem mais usada

para a comunicação no Brasil. Assim como as diversas línguas

existentes, ela é composta por níveis linguísticos como: fonologia,

morfologia, sintaxe e semântica. Da mesma forma que nas

línguas oral-auditivas existem palavras, nas línguas de sinais

também existem itens lexicais, que recebem o nome de sinais.

A única diferença é sua modalidade viso-espacial.

Em termos de avanços tecnológicos para LIBRAS, podemos

exemplificar softwares que traduzem palavras em português,

captam a fala através do microfone e exibem no monitor a

interpretação na forma gestual e animada em tempo real, oferecem

interface de chat com apresentação em sinais da escrita em

língua portuguesa, bem como em língua de sinais e editam

textos em língua de sinais escrita.

Atualmente já existem sites que ajudam na busca de colocação

de pessoas portadoras de necessidades especias para atuação

no mercado de trabalho. As grandes empresas de TI participam

desses sites no intuito de cumprirem o objetivo da Lei de Cotas

(artigo 93 da Lei Federal 8.213/91), na qual se estabelece que

de 2 a 5% do quadro de funcionários das empresas deve ser

reservado a pessoas com deficiência.

Diversas empresas no Brasil colaboram com organizações que

atuam na área, tais como Avape, IOS, Impacta e Instituto Eldorado,

com atividades de educação e recrutamento de PWD (People

With Disabilities). Elas colaboram com essa causa através de

programas de incentivos, acreditando no desenvolvimento da

diversidade da força de trabalho para o futuro.

Estudos mostram que promover essa diversidade traz benefícios

às empresas. Pessoas com formações diferentes proporcionam

visão holística, promovem a criatividade e a inovação. Do ponto

de vista de desempenho profissional, os funcionários deficientes

devem ser avaliados da mesma maneira que qualquer outro

funcionário. O que é preciso avaliar permanentemente é o

programa de inclusão em si. Devem ser revistas periodicamente

as fontes de recrutamento, os métodos de seleção e treinamento

e as ações de sensibilização e integração dos deficientes na

comunidade profissional.

A tecnologia pode abrir portas e quebrar barreiras para as

pessoas com necessidades especiais integrando-as à sociedade

e tornando-as parte da cadeia produtiva, com a rapidez e a

dinâmica que o mercado exige.

Para saber mais:

http://www.deficienteonline.com.br

http://www.oficinadofuturopcd.com.br

http://betalabs.nokia.com/apps/nokia-braille-reader

53

Technology leadership council Brazil Technology leadership council Brazil

agile: você esTá preparado?Luiz Esmiralha

No início, era o caos. Essa poderia ser a frase de abertura de

um livro que contasse a história da indústria da Tecnologia da

Informação. Em seus primórdios, o desenvolvimento de sistemas

era uma atividade artesanal, arriscada, não-padronizada e cara.

Uma longa fase de testes e correções ao término do projeto

poderia indicar que a qualidade do sistema final era inferior ao

que se esperaria de um produto confiável.

Por volta da década de setenta, foram criadas diversas

metodologias derivadas diretamente da engenharia, que

descreviam um ciclo de vida de projeto definido por fases

sequenciais, hoje conhecido como waterfall ou cascata. Esse

método define que para iniciar uma fase é necessário que a

anterior seja finalizada e que cada fase está ligada diretamente

a um conjunto específico de atividades, assemelhando-se a

uma linha de produção fabril. Embora algumas equipes tenham

obtido sucesso com o uso de metodologias desse tipo, cerca de

24% dos projetos de TI ainda são cancelados ou descartados

após a entrega, conforme descrito no Chaos Report (2009),

publicado pelo Standish Group.

A ideia de uma fábrica de software evoca uma imagem de

previsibilidade e redução de custos e riscos. Porém, o

software possui várias características intrínsecas que tornam

o seu desenvolvimento essencialmente diferente da atividade

de produção em série do modelo tradicional de Henry Ford.

Uma fábrica produz um mesmo tipo de objeto, repetidamente,

reduzindo assim o custo unitário de produção. Desenvolver

software é um esforço intelectual mais próximo do projeto de

novos produtos, enquanto a maioria das atividades repetitivas

podem ser automatizadas.

A mutabilidade é outra característica essencial do software.

Ao contrário de prédios, carros e outros objetos do mundo

físico, um sistema de software é relativamente fácil de ser

modificado e adaptado a novas situações. Geralmente, os

sistemas corporativos têm vida longa, portanto é vital que essa

característica seja bem aproveitada, permitindo ao sistema

acompanhar a evolução do negócio.

As metodologias ágeis (Agile) surgiram como resposta à

necessidade de processos disciplinados e confiáveis, porém

mais alinhadas à natureza peculiar do software. Ao invés dos

planejamentos minuciosos com rigorosos controles de mudanças

das outras metodologias, a Agile encara a mudança como uma

oportunidade.

Embora existam diferentes sabores de Agile (Extreme

Programming, Scrum, FDD, Crystal, Agile UP, entre outros), o

Manifesto Ágil sintetiza os valores e princípios comuns a todos.

Agile enfatiza que a colaboração com o cliente é um fator crítico de

sucesso, que o progresso se mede através da entrega de software

funcionando e que é melhor saber se adaptar a mudanças do

que insisitir em seguir um plano.

A adoção de um ciclo de vida particionado em iterações fixas

com duração entre uma e quatro semanas, equipes menores e

mais capacitadas, contratos de escopo negociável, envolvimento

do cliente durante todo o projeto, desenvolvimento guiado por

testes e uso maciço de testes unitários são algumas das técnicas

usadas para permitir adaptabilidade de forma disciplinada.

Equipes ágeis são autogerenciáveis, ou seja, recebem objetivos e

decidem como melhor atingi-los dentro do contexto da empresa.

Diversas técnicas podem ser utilizadas para acompanhar o

andamento do projeto, tais como reuniões diárias de quinze minutos

no formato stand-up, onde os participantes ficam em pé e reportam

o status de seu trabalho e eventuais dificuldades que estejam

enfrentando e o uso de quadros kanban e gráficos burn-down

para comunicar a situação do projeto a todos os participantes.

Embora Agile não seja uma panacéia para todos os tipos de

projetos, seus princípios e práticas podem constituir uma

ferramenta poderosa para gerentes de projeto de desenvolvimento,

à medida que não repetem vícios de modelos tradicionais e, ao

mesmo tempo, propiciam às equipes técnicas uma metodologia

ágil e eficaz para o desenvolvimento de sistemas.

Para saber mais:

http://www.agilealliance.org/

http://agilemanifesto.org/

http://en.wikipedia.org/wiki/Agile_management

54

Technology leadership council Brazil

a Teoria das inTeligências múlTiplas e as profissões em TiElton Grottoli de Lima

No início dos anos 80 Howard

Gardner, eminente professor

da Universidade de Harvard,

propôs a ampliação do conceito

tradicional de inteligência ao

pesquisar aspectos que viriam

a redefinir completamente a

percepção acadêmica sobre

a inteligência humana.

Tradicionalmente, avalia-se a capacidade cognitiva de uma

pessoa pelos seus aspectos lógicos e matemáticos. Essa é a

capacidade refletida nos testes de quociente de inteligência

(QI), uma medida que representa a habilidade em lidar com

padrões, números e formas, características essencialmente

matemáticas. Gardner percebeu que essa maneira de medir a

capacidade cognitiva de um indivíduo era limitada, pois deixava

de lado outros aspectos tão importantes quanto os lógicos

e matemáticos. Por exemplo, a oratória, a destreza física e a

habilidade de expressão escrita não são refletidas pela avaliação

do modelo tradicional. Essas observações levaram Gardner

a conceber sua Teoria das Inteligências Múltiplas, propondo

que a capacidade cognitiva de uma pessoa deve ser avaliada

dentro de um espectro de habilidades básicas. Sua pesquisa

identificou sete habilidades humanas elementares, cada uma

delas manifesta através de um tipo de inteligência: a linguística,

a lógico-matemática, a espacial, a corporal-cinestésica, a musical,

a interpessoal e a intrapessoal.

Na área de tecnologia, diversas profissões atestam a aplicabilidade

do espectro de inteligências proposto por Gardner. Notadamente

a inteligência mais percebida pelo senso comum é a inteligência

lógico-matemática, que confere ao indivíduo a capacidade de

raciocínio lógico, de lidar com quantidades, formas e padrões.

Utilizada por programadores para construir algoritmos, lidar com

abstra-ções e variáveis. Também demonstrada por profissionais

de consultoria em negócios quando reconhecem padrões e

aplicam o pensamento sistêmico visando a solução de problemas

empresariais.

Os profissionais especializados em desenvolvimento de software

para jogos eletrônicos podem demonstrar ainda outras duas

habilidades bem características de suas atividades: a inteligência

espacial, relacionada à capacidade de perceber o mundo visual

com precisão, efetuar modificações e transformações sobre as

percepções iniciais e recriar aspectos da experiência visual (essa

inteligência se aplica especialmente no uso de simuladores e

dos modelos computacionais que recriam virtualmente o mundo

físico) e a inteligência musical, reconhecida como o talento que

se manifesta mais cedo no desenvolvimento humano, através

da capacidade de perceber e manipular tons, timbres, ritmos

e temas musicais.

Ainda no desenvolvimento de software, temos na linguagem

escrita a forma mais comum de interação entre sistemas e

seus usuários. Como consequência, arquitetos de sistemas e

de interfaces não podem prescindir da inteligência linguística,

que é a habilidade individual de lidar com a linguagem escrita

e falada. E tratando-se de interação, observa-se atualmente o

crescimento da popularidade de interfaces operadas por gestos

e movimentos corporais. A criação de software e hardware

adequados a esse novo paradigma exige o entendimento de

habilidades motoras por parte de desenvolvedores e arquitetos,

alavancando a manifestação da inteligência corporal-cinestésica,

caracterizada pelo domínio dos movimentos do corpo e da

manipulação de objetos.

Ao lado das ocupações de perfil técnico, há também as profissões

relacionadas às vendas e aos diversos níveis de relacionamento

com os clientes, cujo sucesso depende em grande parte do

trato com as pessoas e de relacionamentos bem gerenciados.

Essas são características intrínsecas da inteligência interpessoal,

demonstrada pela capacidade de manter boas relações com

outras pessoas por meio da compreensão de seus humores,

motivações e desejos.

Por fim, mas não menos importante, há a inteligência intra-

pessoal, que confere ao indivíduo o bem-estar consigo mesmo,

reconhecendo suas aspirações, ideias e sentimentos. É

demonstrada por uma atitude motivada e autoconfiante. Essa

característica condiciona o sucesso profissional e é notadamente

expressa nos grandes líderes.

Esse grupo de inteligências elementares tem sido trabalhado e

expandido desde sua concepção, tanto por Gardner como por

outros estudiosos, mas sem perder seu posicionamento como

conjunto básico de habilidades humanas. Perceber como as

diferentes inteligências se manifestam nas profissões de TI

permite expandir a nossa visão sobre os profissionais da área

para além de seus estereótipos tradicionais.

Para saber mais:

http://revistaescola.abril.com.br/historia/pratica-pedagogica/cientista-inteligencias-multiplas-423312.shtml

http://www.youtube.com/watch?v=l2QtSbP4FRg

55

Technology leadership council Brazil Technology leadership council Brazil

analyTics ao alcance dos seus dedos

Paulo Henrique S. Teixeira

Quando se ouve o termo “Business Inteligence”, ou simplesmente

BI, é comum associarmos a uma infraestrutura que seja capaz de

processar e gerar relatórios a partir de informações de negócio,

que por sua vez são obtidas de diferentes fontes e consolidadas

em uma grande base de dados.

O conceito de BI não é recente. Em 1958 o pesquisador Hans

Peter Luhn definiu “Business Inteligence System”, em um artigo

do IBM Journal of Research and Development, como sendo um

sistema automático para disseminar informação aos vários setores

de qualquer organização industrial, científica ou governamental.

No ambiente altamente competitivo atual, o uso eficiente de

informações coletadas de diversas fontes e armazenadas em

sistemas de BI se transformou em um diferencial ou mesmo

uma questão de sobrevivência para as organizações, evoluindo

para o conceito de Business Analytics.

Para que as decisões de negócios sejam tomadas com maior

rapidez e precisão as informações precisam estar disponíveis

a qualquer momento. Além disso, tais decisões não estão

mais restritas ao ambiente físico do escritório. Com a maior

mobilidade da força de trabalho e a flexibilização na jornada,

elas acontecem também nos clientes, nos aeroportos, na rua

ou nas residências.

O surgimento de conexões de rede mais rápidas possibilitou

aumentar a abrangência do acesso aos ambientes de analytics,

suprindo parte dessas necessidades. Mas foi o surgimento de

smartphones e tablets que abriu as portas da mobilidade aos

usuários, dando início ao analytics móvel. O Gartner estima

que 33% dos acessos a esses sistemas em 2013 serão feitos

por dispositivos móveis.

Executivos, gerentes, força de vendas e mesmo o suporte de

campo aos usuários ou clientes são os maiores candidatos a

usufruir de benefícios como:

• Acesso às informações de negócios, independente da

localização, para embasar a tomada de decisões;

• O uso de telas multitouch, que permite novas formas de

interação do usuário final. O uso de toques específicos na

tela permite a adição de novas funcionalidades de consulta

a relatórios, com menor necessidade de treinamento aos

usuários;

• A geração de alertas em tempo real nos dispositivos móveis,

como um nível de estoque abaixo do limite mínimo, permite

ações e decisões mais ágeis, reduzindo paradas em uma

linha de produção.

• Facilidades de geolocalização por meio da triangulação

de antenas de telefones celulares, GPS ou redes Wi-Fi.

Isso permite que um vendedor gere relatórios específicos

a partir da sua localização, como por exemplo o perfil de

consumo da população da região em que ele se encontra.

Ou que uma central de atendimento determine qual técnico

de campo está mais próximo de um cliente e com isso

agilize o atendimento.

Já é possível que dispositivos móveis atuem como um canal

para alimentar o sistema de analytics com novas informações.

Por exemplo, um texto ou uma pergunta pode ser gravada,

enviada e comparada com outras informações das bases de

dados (text e audio mining).

O analytics móvel é ainda recente e segue a tendência de um

mundo em que as pessoas estão permanentemente conectadas.

A sua implementação tem capacidade disruptiva nos processos

das organizações e deve ser muito bem planejada, para que a

agilidade e os benefícios de negócio esperado sejam de fato

alcançados.

Para saber mais:

http://www.ibm.com/software/analytics/rte/an/mobile-apps/

http://www.gartner.com/it/page.jsp?id=1513714

56

Technology leadership council Brazil

a imporTância do processo de rcaGustavo Cezar de Medeiros Paiva

Na era digital é primordial para uma empresa evitar

indisponibilidades de seus sistemas, que geram quedas de

produtividade, perdas de receitas e prejuízos à reputação

da companhia. Diante disso, é imprescindível a realização

de investigações dos problemas que afetam os negócios da

empresa. O processo de Root Cause Analysis (RCA ou Análise

de Causa Raiz) tem como objetivo identificar, corrigir e previnir

a recorrência desses problemas.

O processo de RCA, coberto na seção Problem Management

(Gerenciamento de Problemas) do ITIL (Information Technology

Infrastructure Library), é considerado reativo e proativo ao mesmo

tempo. Reativo pois o problema será investigado após sua

ocorrência, e proativo devido ao resultado da investigação,

que deverá contemplar uma solução para que o problema não

ocorra novamente.

A investigação do problema requer a participação de diferentes

times e disciplinas, de acordo com sua categoria e é liderada

pelo time de gestão de problemas ou, na sua falta, por uma

equipe que tenha sido designada para tal função. Por meio desse

trabalho colaborativo é gerado um relatório de RCA que possui,

dentre outras informações, os serviços que foram impactados, a

descrição do problema, a cronologia dos eventos, as evidências,

as ações tomadas para restauração do serviço e principalmente

o plano de ação para correção definitiva do problema.

Existem várias técnicas para aplicação do método de RCA,

sendo que as mais utilizadas são a técnica dos cinco porquês e

a do diagrama de Ishikawa, também conhecido como “espinha

de peixe”. A primeira consiste em questionar o motivo pelo

qual aquele problema ocorreu até se esgotarem todas as

possibilidades, enquanto a segunda técnica se fundamenta

na ideia de que um efeito, nesse caso um problema, pode

possuir diversas causas, que são mapeadas de forma gráfica

em um diagrama similar a uma espinha de peixe, para que

então possam ser melhor investigadas.

Ao se trabalhar em um processo de RCA é fundamental que

os recursos necessários estejam disponíveis. Tais recursos são

chama-dos de documentos de diagnóstico e são compostos

por alguns elementos, como por exemplo arquivos gerados

pelos sistemas, que possuem informações relacionadas ao

seu funcionamento.

Com o advento e a propagação da computação em nuvem nas

empresas, o desafio é integrar as ferramentas de monitoração do

ambiente para que a coleta das informações seja realizada com

sucesso. A ideia é que haja uma correlação desses dados visando

determinar, nos documentos de diagnóstico, os relacionamentos

entre os desvios de serviços nas aplicações e as falhas na

infraestrutura.

Tanto o fornecedor de serviços de computação em nuvem

quanto os clientes devem fazer um esforço de integração de

ferramenta de gestão de incidentes e problemas, de forma que

haja transparência nesse processo facilitando assim o trabalho

investigativo.

Não importando qual o tipo de infraestrutura, o processo de

RCA proporciona uma melhoria na disponibilidade e na gestão

dos serviços de TI, aumentando assim a satistação dos clientes

e reduzindo os custos operacionais, uma vez que os serviços

estarão submetidos a um profundo e contínuo processo de

investigação em caso de indisponibilidade.

Para saber mais:

Livro: ITIL Service Operation - Autor: Gabinete de Governo do Reino Unido - ISBN 9780113313075 - 2011

57

Technology leadership council Brazil Technology leadership council Brazil

posso ver os dados?Ana Beatriz Parra

Se alguma vez na vida você já assistiu a uma apresentação

de Hans Rosling, é muito provável que tenha se apaixonado

por visualização de dados. A apresentação animada sobre o

desenvolvimento sócio-econômico feita por Rosling em 2006, no

TED, foi vista por milhares de pessoas e é um exemplo de como

a representação visual dos dados pode revelar informações que

nos permite uma melhor compreensão do mundo.

A visão é um dos nossos sentidos mais apurados. Nosso

sistema visual é muito bom na percepção de posição, extensão,

orientação, formato e tamanho. Pela visão, conseguimos perceber

rapidamente padrões e anomalias, tais como diferenças entre

tamanhos, formatos, orientação e posicionamento dos objetos.

As representações visuais de dados podem ser classificadas

de diferentes maneiras. A primeira distinção que podemos fazer

é em relação a sua forma de construção, manual ou através de

algoritmos. Na primeira categoria, temos os infográficos, que

são representações de um determinado domínio, desenhadas

manualmente e que, em geral, não podem ser replicadas

facilmente para um outro conjunto de dados. Os infográficos

são visualmente atraentes e atualmente muito utilizados em

jornais e revistas para apresentar dados diversos, como o nível

de endividamento dos países europeus ou a comparação entre

os diversos tipos de leite disponíveis no mercado.

Na segunda categoria temos as representações geradas por

algoritmos computacionais que podem ser reutilizados para

novos conjuntos de dados. Essa categoria é chamada de Data

Visualization (DataVis) ou Information Visualization (InfoVis). Uma

mesma representação visual pode ser utilizada repetidamente

ao longo do tempo com conjuntos atualizados de dados.

O New York Times é um dos veículos de comunicação que melhor

utilizam a visualização de dados para enriquecer e facilitar o

entendimento das suas matérias, tanto utilizando infográficos

como InfoVis.

Outra forma de classificação que podemos utilizar é em relação

ao objetivo da visualização: exploração ou explanação dos

dados. A exploração é utilizada quando ainda não conhecemos

os dados e procuramos compreender e identificar informações

importantes que eles possam fornecer. Na explanação o

objetivo é comunicar um conceito já entendido anteriormente.

Nesse caso, a visualização é utilizada para enfatizar aspectos

interessantes dos dados e transmitir uma informação já

conhecida pelo autor (informação adquirida provavelmente

pela exploração prévia). Cada vez mais essas duas categorias

estão se fundindo pelo desenvolvimento de visualizações

interativas, nas quais o autor apresenta uma explicação inicial

da informação e fornece aos usuários formas de explorar

os dados, por exemplo, mudando o período analisado, ou

selecionando um subconjunto dos dados.

A representação visual exige conhecimento de uma série de

disciplinas, tais como programação para coleta e tratamento dos

dados, matemática e estatística para exploração e entendimento

da informação, design para representação visual e, principalmente,

conhecimento do domínio ao qual pertencem os dados em análise.

A visualização de dados é um recurso extremamente rico para

analisar e representar informações. Mas como tudo na vida

tem dois lados, a visualização utilizada de forma incorreta

pode dificultar o entendimento ou mesmo levar a conclusões

equivocadas. Para representar uma informação é necessário

conhecer muito bem os dados, definir a questão que se quer

responder ou a mensagem que se quer transmitir, identificar o

perfil dos seus usuários e selecionar as técnicas de representação

adequadas ao seu objetivo.

Para saber mais:

To learn more: http://www.ted.com/talks/lang/en/hans_rosling_shows_the_best_stats_you_ve_ever_seen.html

http://learning.blogs.nytimes.com/tag/infographics/text

58

Technology leadership council Brazil

aprender Brincando

Sergio Varga

Nada mais interessante do que aprender alguma coisa se

divertindo, não? Jean Piaget (1896-1980), um dos grandes

pensadores do século XX, descreveu em sua Teoria Cognitiva

que o desenvolvimento intelectual ocorre em quatro estágios,

sendo que as brincadeiras e os jogos são atividades importantes

para esse desenvolvimento.

Existem várias iniciativas e práticas pedagógicas nas quais

os conhecimentos são ensinados por meio de brincadeiras,

principalmente na fase da infân-

cia. Ultimamente os jogos de

computador foram introduzidos

com a finalidade de ensinar

conceitos e suas aplicações com

o uso de atividades práticas. Além

disso, algumas questões mais

complexas, que eventualmente

requeiram uma forma diferente de

pensamento, foram solucionadas

com jogos de computador. Mais

recentemente um problema sobre

a AIDS que já estava há três anos

em pesquisa pelos meios comuns, foi solucionado em apenas

três semanas quando jogado no ambiente foldit.

Estão surgindo diversas soluções no ensino de eletrônica e da

lógica de programação. Em 2005 um grupo de estudantes do

Interaction Design Institute Ivrea (IDII), na Itália, desenvolveu

uma placa microcontroladora de baixo custo, baseado no

projeto Wiring — Open Source, na qual qualquer pessoa pode

desenvolver dispositivos inteligentes com um mínimo de

conhecimento em eletrônica e em lógica de programação. Essa

placa e suas similares tornaram-se uma excelente ferramenta

de apoio ao aprendizado no mundo acadêmico e aos adeptos

de tecnologia.

Mas o que essa simples placa faz? Ela permite, de uma maneira

muito fácil, desenvolver os mais variados dispositivos eletrônicos,

desde o acionamento de sequência de LEDs até uma automação

residencial completa.

Esse tipo de placa é baseado em um microprocessador que

monitora entradas e controla saídas digitais e analógicas onde

podem ser conectados diversos tipos de instrumentos, como

sensores, luzes, motores etc. Para conectá-la a esses dispositivos

utilizam-se wiring cables e protoboards sem necessidade de

solda ou conexão especial. No aspecto de programação existe

uma linguagem própria com uma interface amigável, também

baseada em código aberto (Open Source). Dessa forma qualquer

pessoa é capaz de fazer um primeiro experimento, como piscar

um LED, em menos de 5 minutos de trabalho.

Além de sua utilização no meio

acadêmico, essa placa tem

potencial para ser utilizada em

empresas, principalmente em

processos de desenvolvimento nos

quais a prototipação de circuitos

impressos é necessária e cara.

Empresas que fazem pesquisas

também podem se beneficiar

desse tipo de dispositivo para

desenvolvimento e testes de novos

produtos. Ou ainda, dentro do

conceito de cidades inteligentes,

representa um auxilio nas camadas de instrumentação e

interconexão de sistemas e dispositivos.

Para aqueles que trabalham somente com software e têm

pouco conhecimento em eletrônica, a proposta apresentada

por esse tipo de equipamento permite abrir um mundo novo

de oportunidades e inovações.

Além disso, para os pequenos que ainda estão descobrindo o

gosto pela ciência e engenharia, essa placa permite instigar a

curiosidade e desenvolver a criatividade e o raciocínio lógico por

meio de brincadeiras, enquanto educa a criança nos conceitos

de elétrica, eletrônica, física e computação.

Será que esse novo “brinquedo” não seria uma chave para

despertar nas crianças e jovens o fascínio por tecnologia e por

tudo aquilo que a cerca?

Para saber mais:

http://makeprojects.com/Topic/Arduino

http://fold.it/portal/info/science

59

Technology leadership council Brazil Technology leadership council Brazil

processamenTo de áudio em placas gráficas

Diego Augusto Rodrigues Gomes

Desde o surgimento das placas de vídeo, pesquisadores as

utilizam para resolver problemas não relacionados ao contexto

gráfico. Isso se dá pelo fato da unidade de processamento gráfico

(GPU na sigla em Inglês) se mostrar extremamente eficiente

em aplicações que demandam elevado poder computacional.

Quando fabricantes de placas de vídeo disponibilizaram interfaces

de programação voltadas para aplicações de propósito geral

e não apenas de natureza gráfica, o uso desses dispositivos

para a solução de problemas computacionalmente intensos

se popularizou.

Daí surgiram aplicações para solução eficiente de problemas

da área de bioinformática, simulações físicas e financeiras,

que antes seriam executadas em

tempo muito maior se utilizassem

apenas CPUs convencionais. Nesse

contexto, programas de áudio que

necessitam realizar muitas operações,

como aplicação de efeitos, simulação

e síntese de áudio tridimensional ou

que precisam apresentar tempos

de resposta mais curtos, podem se

beneficiar do uso desse hardware

gráfico para o processamento mais

eficiente de informações.

O conceito de áudio 3D está rela-

cionado à capacidade de simular o

posicionamento de uma fonte sonora em um espaço tridimensional

virtual ao redor de um ouvinte. Isso acontece com o auxílio

de um processo chamado síntese binaural, em que os canais

esquerdo e direito de um sinal de áudio são filtrados por funções

matemáticas que permitem simular tal posicionamento. Assim,

da mesma forma que se precisa de óculos para experimentar

a visualização em três dimensões, é preciso utilizar fones de

ouvido para experimentar a audição tridimensional com maior

fidelidade ao posicionamento do som.

Percebemos o posicionamento espacial de uma fonte sonora

porque as ondas percorrem distâncias distintas e encontram os

ouvidos direito e esquerdo em instantes diferentes. O cérebro,

ao receber essas duas informações, nos permite identificar de

onde vem o sinal sonoro. Em termos matemáticos, as funções

que definem como uma onda sonora atinge a entrada do canal

auditivo após a reflexão na cabeça, tronco e ouvido externo de um

ouvinte são chamadas de funções de transferência relacionadas

à cabeça, termo originário do inglês, Head-Related Transfer

Function (HRTF). Essas funções, além de aplicáveis no campo

do entretenimento, também são úteis no auxílio a deficientes

auditivos. Existem alguns estudos que utilizam HRTFs para

simular o posicionamento de uma fonte sonora e transmitir esse

sinal ao aparelho auditivo de pessoas com deficiência.

Alguns centros de pesquisa tais como MIT e o Ircam possuem

bancos de HRTFs para representar algumas posições ao

redor do ouvinte. A determinação dessas funções demanda

uma quantidade considerável de recursos e por esse motivo

não são feitas para todas as posições ao redor de um ponto

central de referência. Para obter os valores das funções

de pontos não conhecidos, utilizam-se mecanismos de

interpolação capazes de calculá-los

a partir daquelas já existentes.

O ganho em desempenho para

aplicações de áudio 3D utilizando

GPU é interessante, pois permite

a construção de aplicações mais

interativas e que possibilitam a simu-

lação e a resposta mais eficiente às

mudanças de posicionamento. Essa

tecnologia, além de ser utilizada para

transmitir estímulos que provoquem

novas sensações aos espectadores

no campo do entretenimento tais como

cinema, música e jogos, pode ser

utilizada em simulação acústica de salas e provavelmente em

outros campos ainda não explorados. Além disso, mostra-se

mais vantajosa que os sistemas surround atualmente presentes

em salas de cinema e em sistemas de home theater, já que em

vez de cinco ou mais canais de áudio armazenados em algum

tipo de mídia, tem-se apenas dois.

O processamento de áudio com uso de GPUs contribuirá

significativamente para o avanço dos sistemas em 3D,

possibilitando a construção de ambientes virtuais cada vez

mais realistas além de permitir o desenvolvimento de dispositi-

vos que tragam benefícios à vida humana.

Para saber mais:

NVIDIA CUDA C Programming Guide, version 4.0

http://sound.media.mit.edu/resources/KEMAR.html

http://www.ircam.fr/

http://www.princeton.edu/3D3A/

Hearing Aid System with 3D Sound Localization, IEEE

60

Technology leadership council Brazil

unicode ♥ דוקינו ☻ Уникод ♫ دوكينويAvi Alkalay

Você sabia que há pouco tempo era impossível misturar diversas

línguas numa mesma frase de texto sem a ajuda de um editor

multilíngue especial? Mais ainda, que havia idiomas cujas letras

sequer tinham uma representação digital sendo impossível usá-las

em computadores? Tudo isso virou passado com o advento do

Unicode e para entendê-lo vamos relembrar alguns conceitos:

Caractere: É a representação digital do que chamamos de letra

ou grafema ou ideograma. Alguns exemplos de caracteres: J

(jota maiúsculo), ç (cê-cedilha minúsculo), Φ ζ λ Ψ Ω π (caracteres

gregos), וניקוד (a palavra “Unicode” em hebraico), símbolos

matemáticos como × ÷ ∞ ∂ ∑ ∫, ou financeiros como $ ¢ £ ¥ ₪ €, hieróglifos egípcios e muitos outros

que mostraremos neste texto;

Glifo: Uma representação gráfica para

um certo caractere. As fontes Times New

Roman e Arial usam glifos diferentes

para representar o mesmo caractere “g”;

Encoding: É uma dica que damos ao

computador para que ele saiba qual

caractere ou letra humana ele deve

usar para mostrar certo código binário.

Por exemplo, o código 224 no encoding

ISO-8859-1 é o caractere “à”, porém no ISO-8859-8 é a letra “א”.

Repare que no universo desses antigos encodings as letras “à” e

não podem coexistir porque usam o mesmo código binário. E é ”א“

justamente esse o problema que foi levantado no começo do texto.

Antes do Unicode era necessário somente 1 byte de computador

para armazenar a informação de 1 caractere. Os encodings são

necessários mas, como vimos, havia limitações indesejáveis. Como

o Unicode propõe uma gama muito maior de códigos binários,

único e imutável por ideograma, caracteres de idiomas diferentes

podem agora coexistir no mesmo texto. Neste exemplo “à” e “א”

têm códigos Unicode que não conflitam entre si: 0x00ED e 0x05D0.

A história do Unicode começa em 1987 na Xerox e Apple, e

tenta incorporar todos os ideogramas e letras do mundo, um

conjunto bem maior do que 255 caracteres (que é o que cabe

em 1 byte). Um caractere Unicode pode ter de 1 a 4 bytes.

Evoluir para múltiplos bytes por caractere tem certas implicações

pois os softwares não estavam preparados para isso. Contar

caracteres numa frase é agora diferente de contar o número

de bytes ocupados por essa frase. Mostrar ou imprimir tal frase

é também agora uma tarefa de outra ordem: há línguas onde

se escreve da direita para esquerda, como árabe ou hebraico,

versus as da esquerda para direita, baseadas no sistema latino.

No título do artigo há a palavra “Unicode” em ambos os sentidos

na mesma frase, na escrita latina (→), hebraica (←), russa (→) e

árabe (←) respectivamente e isso serve de exemplo para mostrar

que a questão de múltiplos sentidos de escrita na mesma frase

é contemplada e resolvida pelo Unicode.

O Unicode introduziu também desafios de desempenho pois há

muito mais caracteres maiúsculos e minúsculos para comparar e

mais bytes para armazenar e processar. Mas tudo isso é marginal

com a evolução do poder computacional, universalidade e

eternidade da informação que o Unicode oferece.

Ainda no título, outra coisa que chama a atenção são símbolos

como ♪♠☼☺, ideogramas que fazem

parte de uma faixa de caracteres do

Unicode chamada Emoji, incorporado

ao padrão em 2010. Mas por enquanto,

podemos utilizar somente alguns Emojis

em forma de texto porque estão em

fase de implementação nos sistemas

operacionais. Por outro lado, eles já são

bastante populares nos sistemas iOS

(iPhone, iPad), Mac OS X Lion e Linux.

Somente a versão 8 do Windows terá

suporte completo a Emoji.

Emoji é também um marco de evolução da linguagem escrita.

Em tempos de uso intenso de redes sociais e SMSs, é muito

mais divertido e expressivo escrever “eu ♥ você”, “estou com

fome², vamos”, “adorei ”, “hoje estou zen” etc. E que

tal mais esses para seu próximo tweet?: ♐ ☠ ☢ ☭ ☣ ✡ † ➡ ☮ ☎ ♚ ♛ ✿. Todos são caracteres tão comuns quanto “ú” ou “H”

e graças ao Unicode, não é necessário nenhum recurso de

processador de texto para usá-los.

O Unicode já está em pleno uso na Internet. É comum encontrarmos

páginas que misturam línguas ou usam caracteres avançados.

Um relatório periódico do Google mostra que entre 2008 e 2012

o uso de Unicode em sites subiu de 35% para mais de 60%. Não

poderia ser menos, pois Unicode é uma tecnologia absolutamente

essencial para um mundo globalizado e multicultural.

Ao longo deste texto mostrei alguns caracteres, letras e

ideogramas curiosos. Para fechar, deixo-os com uma última ideia:

um pouco de unicode nao faz mal a ninguem.

Para saber mais:

http://www.DecodeUnicode.org/

http://en.wikipedia.org/wiki/Emoji

http://googleblog.blogspot.com.br/2012/02/unicode-over-60-percent-of-web.html

61

Technology leadership council Brazil Technology leadership council Brazil

a verdade é um caminho conTínuo

Paulo Maia

Todos nós já vivenciamos situações

nas quais percebemos que as em-

presas fornecedoras de produtos e

serviços não conhecem bem os seus

clientes, pois apesar de possuírem

um significativo volume de dados

sobre eles, não conseguem usá-los de maneira efetiva. No caso

das empresas que passaram por fusões e aquisições, prática

comum no mercado atual, o problema é ainda maior. Além

disso, um a cada três gestores toma decisões baseadas em

informações que eles não confiam ou não possuem, segundo

estimativa do estudo Break Away with Business Analytics and

Optimization da IBM de 2010. Problemas como esses não

aconteceriam se as empresas tratassem suas informações

como verdadeiros ativos, cuidadosamente geridos e com alto

controle sobre sua qualidade.

Por outro lado, o desafio só aumenta. A quantidade de dados

existentes no mundo está crescendo em taxas alucinantes e

cerca de 90% do volume total foi gerado apenas nos últimos

dois anos. Essa é a era do que está sendo chamado de big

data, que possui quatro desafios principais, representadas

pelos quatro “Vs”:

• Volume de dados. Em 2011, foi cerca de 1.8 zettabytes

(ZB, o que equivale 1021 bytes). Em 2020 a previsão é de

que seja 35 ZB. O Google processa mais de 24 petabytes

(PB, 1015) por dia, o Twitter cerca de 7 PB e o Facebook

mais de 10 PB.

• Velocidade na criação e integração dos dados, com

processos de negócio demandando informação praticamente

em tempo real.

• Variedade dos dados, pois 80% das informações existentes

estão em um formato não estruturado, como correio eletrônico,

vídeos, fotos, documentos, redes sociais e dados advindos

de sensores eletrônicos.

• Veracidade, uma vez que é necessário identifcar quais

informações são confiáveis em meio à grande quantidade

originada em alta velocidade por diversas fontes.

Em virtude desse cenário surge o conceito de governança

de dados, disciplina que envolve a orquestração de pessoas,

processos e tecnologias, visando estabelecer controle sobre

esses ativos. Para a implementação bem sucedida dessa

disciplina, vários fatores são importantes: a escolha de um

patrocinador executivo para apoiar as atividades que normalmente

envolvem várias áreas de negócio e a avaliação do estágio atual

da maturidade em relação à governança de dados e do nível

que se pretende alcançar em um determinado prazo.

Dessa forma, os resultados podem ser medidos e o respaldo

das áreas de negócio mantido. O programa deve se tornar um

processo contínuo, no qual se estabelece um escopo inicial

alinhado com alguma estratégia de negócio da empresa, como por

exemplo aumento da receita, gerado pelo melhor conhecimento

dos clientes; redução de custos, ao se diminuir despesas com

armazenagem de dados ou mitigação de riscos a partir de uma

gestão mais eficiente do risco de crédito.

As disciplinas principais que suportam o programa são qualidade

de dados, segurança, gestão de dados mestres (Master Data

Management), governança analítica e ciclo de vida da informação.

Alguns dos benefícios alcançados por organizações que

implementam governança de dados são a melhoria da confiança

dos usuários em relação aos relatórios e a consistência de

seus resultados quando comparados com outros que tenham

origem de diversas fontes de informação e também o aumento

do conhecimento sobre o cliente que possibilita campanhas de

marketing mais efetivas.

É importante ressaltar que a causa principal de falhas na

implementação de um programa de governança é a falta de

alinhamento entre os objetivos de negócio e programas da área

de TI, a qual não deve ser responsável pela governança de

dados, mas sim a protetora ou a zeladora dos mesmos.

Durante séculos, filósofos como Nietzsche têm buscado uma

resposta para o signficado da verdade, mas ela se mantém

evasiva. Em termos práticos, a verdade poderia ser definida

como a informação com a mais alta qualidade, disponibilidade,

relevância, completeza, precisão e consistência. As empresas

que forem capazes de implementar programas de governança

de dados, considerando a velocidade, variedade, volume e a

veracidade das informações que são geradas, terão enorme

vantagem em um mercado cada vez mais competitivo e inteligente.

Para saber mais:

http://www.dama.org

http://www.eiminstitute.org

http://www-01.ibm.com/software/data/sw-library/

62

Technology leadership council Brazil

Tudo (que imporTa) a seu Tempo

Renato Barbieri

O tempo voa. “Já passamos do

meio do ano?” “Parece que foi

ontem!” “Nem vi passar...” Os

filósofos poderiam continuar

debatendo a natureza do tem-

po, mas em nosso cotidiano

precisamos de soluções práticas

para exercitar a única opção que

nos sobra: utilizá-lo da maneira

mais racional e eficiente possível.

Os métodos, técnicas e ferra-

mentas de gerenciamento do

tempo têm por objetivo nos ajudar

na identificação das nossas tarefas, sua organização, priorização

e ainda evitar o adiamento de sua execução.

Publicado no Brasil em 2005 sob o título “A Arte de Fazer

Acontecer”, o livro de David Allen iniciou o movimento Getting

Things Done ou GTD, como é mais conhecido.

O método GTD se baseia em conceitos muito simples e parte

do princípio de que tudo que precisamos, ou muitas vezes

desejamos fazer, ocupa espaço valioso em nossos cérebros e

acaba por desperdiçar tempo e energia quando nos preocupamos

continuamente com o que precisa ser feito mas não o fazemos.

Essas fontes de preocupação são chamadas de “stuff” (coisas),

que primeiro precisam sair do nosso cérebro para serem

armazenadas em algum tipo de repositório, como uma lista

numa folha de papel, agenda ou mesmo um software escrito

para GTD. O que importa é tirar da cabeça e capturá-lo em um

meio de armazenamento para uso futuro.

O próximo passo é o processamento de toda essa informação, ou

seja, decidir se a tarefa será executada imediatamente (se leva

menos de dois minutos, faça agora!), se merece ser detalhada

e estruturada como projeto, se será delegada para alguém, se

queremos deixá-la para um futuro ainda distante, se deve ser

armazenada como referência ou simplesmente jogada no lixo.

Com as tarefas processadas e organizadas, é possível iniciar

o trabalho necessário em cada uma delas.

O GTD também nos aconselha a organizar as tarefas por

contexto (em casa, no trabalho, na rua) assim poderemos

executá-las em diferentes situações do nosso dia-a-dia,

aproveitando melhor o tempo. O ciclo é então fechado com

revisões semanais e mensais, permitindo que as tarefas sejam

avaliadas periodicamente e suas prioridades ajustadas de

acordo com sua importância e urgência.

Mas a utilização desse método requer mudanças de hábitos.

Uma ótima referência, que complementa muito bem esses

conceitos, é o livro “Os Sete Hábitos de Pessoas Altamente

Eficazes”, de Stephen R. Covey. Existe até uma implementação do

GTD, chamada Zen-To-Done (ZTD), que incorpora os conceitos

descritos nesse livro do Covey.

Outra técnica para gerenciamento de tempo, que é ao mesmo

tempo simples e muito interessante, é chamada de “The Pomodoro

Technique”. Essa técnica, amplamente divulgada na Internet

e que conta com muitos adeptos na comunidade Agile, usa o

conceito de timebox para dividir tarefas em blocos de esforço

de 25 minutos seguidos de períodos de descanso de 5 minutos.

A cada 4 pomodoros é aconselhável fazer um descanso mais

longo, de 15 a 20 minutos.

Esta técnica é ótima para exercitar o foco nas tarefas e utiliza

apenas duas listas: uma para controlar as atividades diárias e

outra para guardar as atividades pendentes. A técnica recomenda

ainda que as frequentes interrupções que sofremos sejam

registradas, para assim termos melhor ideia do quanto nossa

produtividade é afetada.

As técnicas acima são complementares e oferecem os recursos

necessários para que cada um encontre o seu próprio estilo ou

sua própria solução. Imagine como seria interessante aplicar

uma ou mais das técnicas acima no seu dia a dia e chegar ao

ponto de dizer a si mesmo: “Nossa! Consegui fazer tudo o que

era prioritário para hoje. E agora, tenho tempo sobrando. O que

posso fazer para aproveitar esse tempo?” O objetivo final é usar

o tempo de maneira racional e inteligente para fazermos tudo

que importa no seu tempo.

Para saber mais:

http://www.davidco.com/about-gtd

http://zenhabits.net

http://www.pomodorotechnique.com

63

Technology leadership council Brazil Technology leadership council Brazil

compuTação em nuvem e sisTemas emBarcados

Nilton Tetsuo Ideriha

Computação em nuvem é um modelo de negócios onde recursos

computacionais escaláveis e elásticos são fornecidos como um

serviço aos clientes de forma self-service e on-demand por meio

da Internet.

Originalmente nesse novo modelo, pensamos na utilização

desse tipo de serviço para abstrair os recursos computacionais,

como um servidor localizado no datacenter remoto ou então para

substituir alguma aplicação instalada em desktops de usuários.

Existem no entanto, outros tipos de sistemas que podem

usufruir dos recursos providos em nuvem, como os sistemas

computacionais embarcados, que são um conjunto de hardware

e software com o propósito de desempenhar funções específicas

dedicadas ao dispositivo ou sistema que controlam. Estão

presentes, por exemplo, em automóveis, equipamentos médicos,

aeronaves e eletrodomésticos, e podem utilizar serviços em

nuvem para ampliar os seus recursos, aumentando assim a

gama de serviços disponíveis aos seus usuários.

Cada vez mais os sistemas embarcados estão conectados às

redes corporativas e à Internet, vencendo uma barreira importante,

pois, tradicionalmente, a sua interconexão vinha sendo isolada

de outras redes. Esse novo acesso possibilita a expansão de

serviços ofertados por esses sistemas.

Alguns modelos de automóveis, por exemplo, já possuem

instalados centrais que possibilitam o controle integrado do

sistema de som, navegação por GPS, conectividade com celulares

e outros equipamentos eletrônicos. Carros com acesso à Internet

poderão acessar rotas de GPS, músicas, fotos e arquivos de um

repositório central provido por um serviço de armazenamento

em nuvem, tornando possível ao usuário ouvir suas músicas

preferidas e acessar as suas rotas em qualquer veículo equipado

para acessar tal serviço.

Há também o maquinário de chão de fábrica, que gera uma

grande quantidade de dados originados de sensores e sistemas

de controle que podem ser enviados para uma infraestrutura

em nuvem, analisados por técnicas de Big Data, utilizadas

em aplicações de gerenciamento, monitoração e Data Mining

visando, entre outras coisas, a predição de falhas e manutenção.

Outro exemplo de aplicabilidade são os serviços na área médica

que fazem coleta de dados das Unidades de Tratamento Intensivo

(UTI) e as enviam para um serviço em nuvem. Esse por sua vez

calcula os valores de risco que podem ser comparados com

padrões externos para medir o desempenho das UTIs a fim

de orientar a melhoria em áreas de desempenho insatisfatório.

Existem no mercado Starter Kits, que são um conjunto de

hardware e software destinados a projetos de computação

em nuvem, onde os recursos são acessados através de APIs

(Application Programming Interface) específicas diretamente

do software cliente embarcado. Esses Kits oferecem serviços

de computação em nuvem para armazenamento de dados,

atualização de firmware, acesso remoto com base em Virtual

Private Networks (VPNs) e configuração remota.

Essa nova abordagem pode ampliar a capacidade de

armazenamento e processamento dos sistemas embarcados,

que antes eram isolados e dedicados, representando um novo

campo a ser explorado onde novos negócios são promissores

com maior produtividade, integração e funcionalidade.

Para saber mais:

http://pt.wikipedia.org/wiki/Sistema_embarcado

http://www.eetimes.com/design/embedded/4219526/ The-embedded-cloud--IT-at-the-edge?Ecosystem=embedded

64

Technology leadership council Brazil

nanoTecnologia – como isso muda nossas vidas?Amauri Vidal Gonçalves

A Wikipedia define a Nanotecnologia como o estudo da

manipulação da matéria em uma escala atômica e molecular,

ou seja, estruturas que variam de 1 a 100 nanômetros (10-9

m). Para termos uma ideia mais objetiva das dimensões que

estamos falando, seria como comparar o tamanho de uma bola

de futebol com o da Lua.

A nanotecnologia objetiva o desenvolvimento de produtos

em diversas áreas, tais como Medicina, Biologia, Química,

Física, entre outras, manipulando-se átomos para construir

estruturas estáveis. Para isso utiliza-se de instrumentos de alta

especialização como, por exemplo, o Microscópio Eletrônico

de Varredura ou MEV.

O conceito de nanotecnologia foi abordado pela primeira vez

em dezembro de 1959 quando Richard Feynman (1918-1988),

um conceituado físico, comentou sobre a possibilidade de

manipulação de moléculas e átomos, vislumbrando a produção de

componentes invisíveis a olho nu. A partir de 2000, ela começou

a ser desenvolvida em laboratórios em projetos que permitiram

sua aplicação em várias áreas.

Essa tecnologia já está presente em nossa vida atual e trará

enorme impacto em um futuro próximo. Vejamos alguns exemplos:

Hoje em dia a nanotecnologia já é usada na fabricação de

artigos esportivos como tênis, tornando-os mais leves e ao

mesmo tempo mais resistentes. É usada ainda em tintas para

automóveis, deixando sua pintura mais resistente ao desgaste do

dia a dia. Empresas como HP, IBM, Toshiba e outras fabricantes

de storage e semicondutores também já utilizam a nanotecnologia

em seus processos de fabricação.

Na Medicina, nanomotores serão em um futuro próximo, a

base para a construção de nanorrobôs (nanobots), que ao

serem introduzidos no corpo humano poderão localizar células

cancerígenas residuais após cirurgias, permitindo tratamento

localizado mais efetivo. Poderão ainda monitorar a saúde através

de nanocâmeras, transmitir informações para equipamentos

através dos quais os médicos farão diagnósticos e definirão o

melhor tipo de tratamento para as doenças ou levar medicamentos

diretamente ao alvo, evitando efeitos colaterais indesejáveis.

A nanotecnologia será adotada na manufatura de tecidos, roupas

e sapatos, especialmente tratados para serem capazes de

repelir líquidos, evitar manchas e secar mais rápido. Existirão

também fraldas de papel mais resistentes e de maior duração e a

possibilidade da confecção de camisetas mais leves, resistentes

e até à prova de balas.

Na Tecnologia da Informação e Comunicação, além da produção

de displays muito finos e maleáveis, será possível também a

construção de baterias biodegradáveis e limpas a partir de

organismos vivos (como os vírus), alguns carregados positivamente

e outros negativamente, separados por material isolante.

Na indústria automotiva, baterias com base em lítio poderão

ser utilizadas com sucesso alavancando a produção de carros

híbridos com vantagens financeiras e ambientais.

Sensores ambientais robustos e portáteis serão capazes de

realizar análises químicas e tomar decisões. A geração de

energia elétrica será realizada de forma absolutamente limpa,

através do uso de nanotubos de carbono, contribuindo para

um planeta mais sustentável.

Esses são apenas alguns exemplos do uso da nonotecnologia

no futuro próximo. Inúmeras outras áreas como alimentação,

defesa, microeletrônica, cosméticos e controle de tráfego, serão

afetadas pelo seu uso.

Convido-os a assistir os vídeos selecionados abaixo que ilustram

algumas dessas ideias inovadoras apresentadas acima e que

irão transformar de forma radical o mundo em que vivemos.

Para saber mais:

http://www.youtube.com/watch?v=KizHjy4U2vs

http://www.youtube.com/watch?v=7hZ5hinf9vo

http://www.youtube.com/watch?v=YqGkC5uJ0yM

65

Technology leadership council Brazil Technology leadership council Brazil

Ti com susTenTaBilidade e eficiência

Evandro Evanildo da Silva

A mesma tecnologia que tanto traz conforto

para as nossas vidas, muitas vezes pode

gerar transtornos e prejuízos ao planeta. Já

se pode notar que o meio ambiente vem

sofrendo com as mais diversas formas

de agressão que afetam diretamente os

recursos naturais.

O lixo eletrônico (e-lixo), composto por monitores, gabinetes

ou outros componentes, é muita vezes descartado de forma

incorreta se acumulando na natureza e até mesmo nas ruas

dos grandes centros urbanos. Já faz parte de nosso cotidiano

encontrar restos eletrônicos em praças e ruas. Somam-

se ainda outros fatores que trazem prejuízos ambientais

causados pelos metais pesados que compõem as baterias

e componentes eletrônicos.

Estima-se que o mundo deverá produzir cerca de 50 milhões de

toneladas de lixo por ano, que hoje é descartado em diversas

partes do planeta, normalmente muito longe de onde foi produzido

originalmente. Muitas vezes isso ocorre de forma clandestina

em países menos desenvolvidos.

Um computador, por exemplo, tem cerca de 18% de chumbo,

cádmio, berílio e mercúrio, sendo o chumbo um dos metais mais

perigosos. Todos esses materiais tóxicos, descartados de forma

irregular, representam hoje um grande problema ambiental.

As substâncias perigosas contidas no e-lixo podem contaminar,

além dos aterros sanitários, o solo, os lençóis freáticos e outros

recursos naturais afetando direta e indiretamente todas as formas

de vida. A tecnologia avança de forma rápida sem se preocupar

com os artefatos que se tornam obsoletos.

Além da preocupação com descarte do lixo, temos que avaliar

formas de melhoria no ciclo de vida dos produtos, a começar

pelo uso de materiais mais sustentáveis e menos poluentes na

fabricação de novos dispositivos.

A exploração de fontes de energia renováveis, o melhor

aproveitamento dos equipamentos, o descarte responsável,

as melhorias no gerenciamento e consumo de energia e a

reciclagem de dispositivos eletrônicos, se enquadram no que

devemos ver como “o futuro na era da TI Verde”.

É possível que um dos caminhos esteja nos benefícios da

computação em nuvem, que pode contribuir muito para

reduzir a capacidade ociosa, melhorando o uso e tornando

a TI mais sustentável.

A hospedagem de sistemas em infraestrutura compartilhada

é capaz de atender a milhões de usuários em milhares de

empresas simultaneamente, reduzindo assim o consumo de

energia elétrica e a quantidade de lixo eletrônico, com melhor

aproveitamento dos equipamentos já existentes.

É importante ressaltar que os servidores que rodam em altas taxas

de utilização consomem mais energia, mas isso é compensado

pela economia obtida através da melhor utilização e distribuição

na carga de processamento e de memória.

Muitas empresas estão adotando a virtualização como forma

de economia e investindo em Cloud Computing para consolidar

seus custos em hardware e energia, e também melhorando as

estruturas dos data centers, que agora estão ganhando uma

nova versão chamada “Green”.

O “Green Data Center” busca utilizar fontes alternativas de energia

limpa, como é o caso das energias eólica, solar e oceânica. Essa

última tem a capacidade de gerar energia elétrica através da

energia cinética das ondas e ainda refrigerar por meio da troca

de calor. Essa alternativa tem sido aplicada em data centers

flutuantes, que por serem itinerantes mitigam a restrição de

espaço fisíco em áreas urbanas, hoje um grande problema

para o crescimento ou construção de data centers.

Novas pesquisas estão ajudando no desenvolvimento da

tecnologia e preservação de recursos, explorando formas

sustentáveis para que o avanço tecnológico não afete o futuro

do meio ambiente.

Para saber mais:

http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=25420&sid=97

http://www.cpqd.com.br/highlights/265-sustentabilidade-e-eficiencia-em-ti.html

ht tp: // in fo.abril.com.br/corpora te/noticias/google -obtem-patente - de - dat acenter-flutuante-04052009-0.shtml

66

Technology leadership council Brazil

a esTraTégia e sua operacionalização

Luciano Schiavo

Que empresário não gostaria de ter maior lucratividade e foco no

cliente, reduzir custos, ter processos mais enxutos e funcionários

com o perfil profissional ideal? Não existe só um caminho para

atingir esses objetivos, mas é possível trabalhar com algumas

teorias e metodologias que facilitam e simplificam essa tarefa.

Michael Porter escreveu em seu artigo “What is Strategy” (Harvard

Business Review, pg 61-78, Nov/Dec, 1996) que a estratégia

é a criação de uma única e valorável posição envolvendo um

diferente conjunto de atividades. Essa posição também está

relacionada à decisão do tipo de atividades que não se deve fazer.

Ainda nesse contexto, cabe a decisão

sobre a terceirização de serviços como

por exemplo, TI, permitindo dessa forma

maior foco nas atividades diretamente

ligadas ao negócio. Para Michael Porter,

a redução de custos por si só não é uma

estratégia e sim uma autocanibalização,

porque compromete as margens de lucro

durante um longo período de tempo.

Após a definição da estratégia, ela deve

ser operacionalizada e uma das maneiras de se fazer isto é

por meio da metodologia Balanced Scorecard (BSC), criada

por Kaplan e Norton. Eles identificaram quatro perspectivas

que geram muito valor quando utilizadas em conjunto.

A perspectiva financeira estrutura qual será o sucesso baseado

no retorno financeiro. A perspectiva do cliente estabelece

como a organização deseja ser vista pelos clientes e remete

a perspectiva de processos internos que identifica como os

mesmos devem ser adaptados para entregar o produto ou

serviço ao cliente. A perspectiva de aprendizado e crescimento

permite analisar se a empresa possui todo conhecimento e

habilidades necessários para entregar o que foi definido na

estratégia.

O próximo passo, depois de criar os objetivos para cada

perspectiva, é criar os KPIs (key performance indicators ou

indicadores chaves de desempenho) que permitirão acompanhar

a evolução da implementação da estratégia. Geralmente nesse

ponto, o contraste com os KPIs atuais da empresa mostra que

alguns esforços não estavam alinhados com a estratégia da

empresa. Nessa fase é comum iniciar projetos com o objetivo

de criar e coletar algumas informações para os novos KPIs.

Em 2010 surgiu uma pesquisa (Harvard Business Review,

Spotlight on Effective Organization: How Hierarchy Can

Hurt Strategy Execution, Jul/Aug, 2010)

que apresentou e categorizou os

maiores obstáculos para a execução

da estratégia. Os maiores ofensores

eram falta de tempo e restrições de

recursos. Quando considerada a estrutura

organizacional, a maior dificuldade estava

na tradução da estratégia em execução, o

alinhamento dos cargos e fazer com que

essa estratégia seja significativa para a

linha de frente. Outros estudos também

identificaram problemas na condução do BSC devido aos vieses

de julgamentos ao se avaliar o desempenho dos indicadores.

A grande oportunidade e ao mesmo tempo desafio é formular

qual será a estratégia e o que realmente deve ser medido.

A vantagem de seguir essa abordagem de estratégia mais

indicadores é que os executivos podem ver de forma clara o

que realmente é essencial para então priorizar corretamente os

projetos. Finalmente, essa abordagem também ajuda a empresa

a perseguir um único objetivo, alinhar as tarefas, as prioridades,

a comunicação e evitar as “armadilhas” do micro gerenciamento.

Para saber mais:

http://www.isc.hbs.edu/

http://www.balancedscorecard.org

http://www.lean.org/WhatsLean/History.cfm

67

Technology leadership council Brazil Technology leadership council Brazil

a evolução do nasHélvio de Castro Machado Homem

O assunto Big Data, cada vez mais presente nas agendas

executivas, e o enorme crescimento de dados gerados a

cada dia fazem as empresas e os provedores de serviços de

TI, inclusive de Cloud Computing, repensar suas estratégias

de armazenamento de dados. As tecnologias para esse fim

vêm evoluindo de forma significativa, permitindo assim uma

distribuição mais inteligente dos dados e com menor custo.

Um bom exemplo disso é a tecnologia NAS (Network Attached

Storage), que surgiu no início da década de 90 exclusivamente

para desempenhar o papel de servidor de arquivos e que vem,

desde então, ganhando novas melhorias e funcionalidades.

O NAS utiliza a topologia de redes do padrão Ethernet. Operando

com os tradicionais cabos metálicos de par trançado, que tem

menor custo de implementação, já atende de forma bastante

satisfatória a requisitos de performance. Pode-se ainda adotar

o padrão de redes que opera em velocidade de 10 Gbps em

ambientes que demandam maior desempenho.

Além dos tradicionais protocolos com base em arquivos, a partir

de 2001 alguns equipamentos que fornecem a tecnologia NAS

passaram a permitir também a utilização de protocolos com base

em blocos, característicos da SAN (Storage Area Network), mas

utilizando também o padrão de redes Ethernet. Os primeiros

permitem o acesso direto à estrutura de arquivos e diretórios,

enquanto que aqueles com base em blocos “entregam” os

dados em um formato encapsulado para o cliente do sistema

de storage (por exemplo, um servidor de banco de dados) com

maior desempenho.

Existem opções de equipamentos que fornecem as tecnologias

NAS e SAN de forma integrada, essa última através de

Ethernet e Fibra Ótica. Esses equipamentos são normalmente

chamados de unificados ou multiprotocolos. Principalmente

em cenários em que não se pode abrir mão da velocidade

oferecida somente pela tecnologia de fibra ótica, isso se torna

bastante interessante pois, devido à sua grande flexibilidade,

permite que diferentes requisitos sejam atendidos com menores

custos de aquisição e manutenção.

Outra tecnologia que tem avançado de forma considerável é

o Scale-Out NAS, uma evolução do NAS tradicional, que tem

um cluster composto por no máximo dois nós. O Scale-Out

NAS é muito mais escalável e permite a utilização de diversos

nós espalhados geograficamente, mas que aparecem com

um único dispositivo ou ponto de acesso para o usuário final.

Isso se torna especialmente importante para serviços de

armazenamento de arquivos, como os fornecidos através de

Cloud Computing. Neles, o usuário, ao gravar seus dados

na nuvem, não tem a menor ideia de onde eles estão sendo

armazenados fisicamente. O importante é que eles possam

ser acessados de forma simples e rápida.

E é exatamente a utilização em Cloud Computing, além do Big

Data, mídias sociais e mobilidade, os principais motivos pelos

quais o IDC estima que a receita do mercado da tecnologia

Scale-Out NAS deverá mais que dobrar até 2015 (de 600 milhões

para 1,3 bilhão de dólares).

Ainda de acordo com o IDC, o mercado de storage com base

em arquivos de forma geral cresceu significativamente nos

últimos anos e essa tendência deve permanecer ao menos até

2015. Para se ter uma ideia, em 2011, esse mercado representou

cerca de 72% da capacidade de storage comercializada no

mundo e até 2015 deve chegar aos 80%.

A combinação de diferentes tecnologias de storage permite

compor um ambiente híbrido, com camadas diferenciadas por

performance e protocolo. Essa é a melhor forma de atender a

requisitos técnicos e de negócio e ainda otimizar os custos de

armazenamento de dados.

Para saber mais:

http://www-03.ibm.com/systems/storage/network/

http://en.wikipedia.org/wiki/Network-attached_storage

68

Technology leadership council Brazil

vai para a nuvem ou não vai? Antônio Gaspar

Agora tudo vai para

a nuvem!” É bem

provável que você

tenha se deparado

com essa frase. À

computação em nu-

vem, associam-se

prerrogativas de es-

calabilidade, elasti-

cidade e rápido provisionamento, sem falar nas promessas

de reduções em custos, que promovem grande expectativa

e euforia no mercado. Tudo isso é possível, é real, mas têm

sua condições. Afinal, como disse Milton Friedman, “there is

no (...) free lunch”.

Então, será mesmo que tudo vai para a nuvem? A resposta

mais sensata seria: depende. Em outras palavras, é preciso

avaliar os requisitos funcionais e não funcionais de cada

workload (aplicações e demais sistemas candidatos à cloud).

Em contrapartida, é preciso verificar sua aderência aos padrões

e requisitos intrínsecos de um servico em nuvem. Exploremos,

portanto, alguns dos aspectos qualificadores em um processo

de avaliação de elegibilidade à migração para cloud.

Virtualização. É um dos três pilares fundamentais de cloud

computing, além da padronização e automação. Na análise de

portabilidade de um workload para cloud, é importante verificar

sua compatibilidade com o respectivo sistema hypervisor (camada

de software entre o hardware e a máquina virtual), disponibilizado

pelo serviço na nuvem. Este detalhe pode parecer irrelevante

mas faz toda a diferença, especialmente no que diz respeito

a garantir suporte de terceiros às respectivas aplicações em

ambiente virtualizado, na nuvem.

Capacidade computacional. Aplica-se especialmente na

adoção de modelo IaaS (Infrastructure as a Sevice) de cloud,

no qual é preciso estimar as capacidades de armazenamento e

processamento que serão demandadas versus as que podem

ser disponibilizadas pelos recursos na nuvem.

Funcionalidades. Intrínseco na adoção de modelo PaaS (Platform

as a Sevice) e SaaS (Software as a Service) de cloud, no qual se

deve verificar os recursos funcionais e possíveis parametrizações

de um serviço cloud, a fim de avaliar sua aderência funcional

aos respectivos requisitos de aplicações de negócios.

Licenciamento de software. Este aspecto tem impacto direto no

TCO (Total Cost of Ownership). Provedores de software estão

se adaptando e estabelecendo as políticas de licenciamento

de seus produtos, especificamente voltadas à utilização em

ambiente cloud. Embora não seja um quesito propriamente

técnico, conhecer as políticas de licenciamento é um fator

crítico na análise de elegibilidade, pois mitiga riscos de custos

imprevistos no pós-migração para a nuvem.

Interoperabilidade. Com a diversidade de modelos e provedores

de cloud, deverão eclodir ecosistemas de TI heterogêneos

nos quais os workloads estarão distribuídos entre ambientes

tradicionais e uma ou mais nuvens. Sendo assim, é preciso

avaliar o grau de acoplamento, que representa o nível de

dependência entre os diversos módulos funcionais distribuídos.

Módulos com alto grau de acoplamento, sendo executados em

ambientes geograficamente distintos, exigem uma atenção

especial, por exemplo, quanto a latência de rede e impactos

de indisponibilidades em “nuvens isoladas”.

Níveis de serviço. Cada workload tem uma criticidade associada,

alinhada aos resquisitos de negócios. É preciso verificar, portanto,

se os SLAs (Service Level Agreement) disponibilizados pelo

provedor de serviços de cloud atendem a esses requisitos.

Segurança. Esse é um tópico que certamente merece mais

espaço e discussão. Por hora, ressaltam-se a garantia de

confidencialidade, o controle de acesso aos dados e, devido

a questões regulatórias, a localização do repositório na nuvem.

Importante ressaltar que esses qualificadores variam sua

relevância de acordo com o tipo de cloud adotada. Clouds

privadas normalmente são implementadas e direcionadas pelas

políticas de TI da empresa, potencializando-se o espectro de

elegibilidade dos workloads. Especificamente nas clouds públicas

e nas clouds privadas compartilhadas que esses qualificadores

são mais relevantes. Conhecer bem os workloads e os serviços em

nuvem é, portanto, fundamental para adoção de cloud computing.

Esse novo conceito quebra paradigmas dos modelos atuais

em disponibilização de TI como serviços. É real e irreversível,

promovendo uma transformação sem precedentes nos modelos

de organização, processos e tecnologias da informação.

Para saber mais:

https://www.ibm.com/developerworks/mydeveloperworks/blogs/ctaurion/?lang=en

https://www.opengroup.org/cloudcomputing/uploads/40/23840/CCRA.IBMSubmission.02282011.doc

69

Technology leadership council Brazil Technology leadership council Brazil

profissão: arquiTeTo de negócios

Marcelo de França Costa

No final da década de 90 eu costumava ser chamado de analista

de sistemas. Esse título me permitia atuar em todas as fases

do ciclo de desenvolvimento de software, do levantamento de

requisitos à arquitetura da solução, passando pela modelagem

dos dados, implementação e testes. Hoje, entretanto, deparamos

com carreiras cada vez mais especializadas. No contexto de

uma nova área de conhecimento (Informática tem menos de

um século de existência), as respectivas profissões, bem como

suas especializações, ainda estão se consolidando, sempre

guiadas pelo mercado. Uma das mais recentes, com cerca de

apenas uma década, é a de arquiteto de negócios.

Arquitetura de Negócios, assim como sua “irmã”, a Arquitetura

Corporativa, são respostas a uma compreensível necessidade

do mercado: alinhar Tecnologia da Informação (TI) com a

estratégia e objetivos de negócio.

Terminologias à parte, muitos

concordam que a diferença básica

entre ambas é o foco. A primeira se

interessa pelo planejamento macro

do negócio, analisando a supply

chain (cadeia de suprimentos)

na qual a empresa se insere, o

modelo operacional, a cadeia de

valor e a lacuna entre o “hoje” e o

“desejado” no âmbito da missão e

visão da companhia. Já a segunda

parte dos objetivos de negócio

e de uma visão estratégica de

TI (o que inclui governança,

suporte à gestão do portfólio de

projetos, infraestrutura, pessoas e sistemas). Deixando de lado

as diferenças, ambas caminham juntas quando o assunto é

suportar os processos de negócio com o uso racional da TI.

Ao centro, a figura (retirada do US National Institutes of Health)

exemplifica um framework onde a Arquitetura de Negócios é

mostrada como parte (disciplina) da Arquitetura Corporativa.

No que tange às profissões, outra comparação comum está

relacionada ao analista de negócios. Enquanto esse, normalmente,

está interessado apenas nos processos de uma unidade de

negócio ou departamento, o arquiteto se preocupa em modelar

e analisar a empresa como um todo.

A disciplina de Arquitetura de Negócios vem crescendo em

importância, assim como a demanda por profissionais com

habilidades específicas: formação em administração (MBA ou

graduação em Engenharia de Produção, por exemplo), porém com

ênfase em TI. Para Alex Cullen, analista da Forrester Research,

“é um papel construído ao redor do planejamento de negócio,

descobrindo oportunidades para utilizar TI mais efetivamente” em

vendas, serviços ao consumidor e outras áreas críticas. Segundo

o InfoWorld, é atualmente uma das seis carreiras mais atrativas

em TI, com grande potencial de crescimento nos próximos anos.

Como todo profissional, o arquiteto de negócios também utiliza

um conjunto específico de ferramentas. Nesse quesito, muitas

empresas adotam o TOGAF (The Open Group Architecture

Framework) para implantar e evoluir suas arquiteturas. O TOGAF,

que à semelhança do PMBOK (Project Management Body of

Knowledge) também teve sua origem no DoD (US Department

of Defense), compreende métodos

e ferramentas consi-derados

como melhores práticas. Estru-

turado em fases, possui uma,

conhecida como Phase B, que

trata da Arquitetura de Negócios,

examinando como a empresa

deve operar para alcançar seus

objetivos.

Uma atividade realizada nessa fase

é a criação de modelos. Para tanto,

o ArchiMate é a linguagem padrão

que permite descrever, analisar

e visualizar os relacionamentos

contidos nos domínios do negócio.

Tais modelos ilustram diferentes aspectos (viewpoints) em níveis

de abstração diversos, desde o relacionamento com clientes

e fornecedores (um caso de uso de negócio, por exemplo) até

aspectos internos como plataformas tecnológicas que suportam

os processos de negócio.

De forma breve, procurei apresentar aqui a disciplina de

Arquitetura de Negócios, bem como o papel do arquiteto de

negócios. Tanto para profissionais como para empresas, o

momento é oportuno para que desenvolvam expertise nessa

área de conhecimento, cada vez mais demandada pelo mercado.

Para saber mais:

http://www.businessarchitectsassociation.org/

http://www.opengroup.org/togaf/

70

Technology leadership council Brazil

quaTro horas?Sergio Varga

Imagine as seguintes sequências de

ações: (1) sair de casa, pegar o carro,

ir ao shopping, comprar um bilhete

para o cinema, assistir a sessão de cinema, pegar o carro no

estacionamento e voltar para casa; ou (2) sair de casa, pegar

um táxi, ir ao estádio de futebol, comprar o ingresso, assistir

ao jogo e voltar para casa de táxi. Quanto tempo, em média,

levaria para executar essas sequências? Vamos assumir que

quatro horas é um número razoável?

Por outro lado, imagine uma empresa que pretende colocar

o seu site de vendas em um novo servidor no seu datacenter.

Qual é o tempo necessário para habilitar tal serviço, desde a

instalação do equipamento no datacenter até iniciar o serviço,

já pronto para ser usado pelo usuário? Um mês? Uma semana?

Um dia? Quatro horas?

Quem afirmou “um mês” com certeza pensou no modelo

tradicional de serviços em TI onde é necessário instalar o

servidor no datacenter, configurar as conexões de rede e de

armazenamento, instalar o sistema operacional e configurá-lo,

instalar e customizar servidor de web e de banco de dados

e finalmente instalar a aplicação web. Sem falar na alocação

dos profissionais de várias áreas de suporte como rede,

armazenamento, servidor e outras.

Aquele que pensou em “uma semana” talvez tenha considerado

um servidor já instalado no datacenter, possivelmente virtual,

utilizando imagens padronizadas e previamente criadas, já com

o sistema operacional e, eventualmente, até com a instalação

e configuração do software e da aplicação.

Os mais otimistas, que pensaram em “um dia”, com certeza

consideraram um ambiente previamente configurado em teste,

exigindo apenas personalizações mínimas para habilitar o sistema

em produção, ou ainda um ambiente em cloud privada com

as imagens já definidas e configuradas, exigindo somente a

instalação da aplicação.

E se houvesse a possibilidade de habilitar

essa aplicação em apenas quatro horas?

Muitos diriam que é ainda um sonho,

mas hoje já é possível.

Algumas empresas disponibilizaram soluções nas quais, por

meio de integração entre tecnologias de rede, armazenamento

e servidor em um único chassis que, com uma camada de

automação, possibilitam rapidamente implantar aplicações em

poucas horas. Essas soluções consolidam o conhecimento de

diversos profissionais e demanda um contingente técnico menor

para administrá-las e suportá-las.

É a tecnologia a serviço da tecnologia ou, ainda, é a tecnologia

a serviço da gestão de TI. Isso já ocorreu com a utilização

de robôs, mas agora está acontecendo na área de sistemas

computacionais.

Em um mundo altamente conectado e inteligente, a capacidade

de reagir de uma maneira rápida a mudanças pode ser um

diferencial competitivo. E com certeza podemos visualizar novas

soluções que poderão surgir dentro desse conceito como na

área de business analytics, com soluções persononalizadas

para segmentos específicos de indústria, ou sistemas cognitivos

com soluções integradas que envolvam o conhecimento de

uma determinada área de negócio.

Com essa tecnologia surge também um novo tipo de profissional:

o administrador de sistemas integrados, que precisa entender

as várias tecnologias utilizadas e as várias disciplinas de

administração como gerenciamento de usuários, segurança,

monitoração e desempenho. Será que podemos estar entrando

em uma nova era da gestão de TI?

Para saber mais:

http://www.youtube.com/watch?v=g9EGP2tkoQw&feature=colike

http://tech.journeytofrontier.com/2012/04/ibm-unveils-puresystems.html

71

Technology leadership council Brazil Technology leadership council Brazil

se BoTar sua repuTação na viTrine, ela vai valer mais que r$ 1,99? Wilson E. Cruz

Muitas vezes um fato cor-

riqueiro e aparentemente

insignificante pode ser o

gatilho ou o catalisador

para uma ideia. Serve tudo,

até mesmo algo bem trivial,

por exemplo uma simples

transação de troca de figu-

rinhas do álbum de meu filho.

Mais especificamente uma

troca articulada pela Internet.

O site é simples: o usuário se

registra, cadastra um álbum que está colecionando, as figurinhas

repetidas que tem, as que lhe faltam, e o site se encarrega de

fazer o “match”, ou seja, oferecer as possibilidades de troca,

que são, obviamente, concluídas no mundo real, com o envio

das figurinhas repetidas e o recebimento das desejadas, pelo

correio. A sutileza dessa transação está no seguinte: como

confiar naquele fulano que diz que vai mandar as figurinhas

que você precisa?

A resolução desse impasse, nesse site, é simples e notável:

cada vez que se fecha uma transação de troca, é gerada para

os dois lados uma pendência de avaliação, que é resolvida

quando o recebedor declara que recebeu as figurinhas conforme

combinado e, portanto, está satisfeito com o remetente. Ao

registrar o recebimento, é gerada uma pontuação ao remetente.

O acúmulo de pontos se traduz em patamares de reputação,

representados por um símbolo que fica colado ao perfil pessoal

do usuário e que aparece o tempo todo, inclusive quando uma

troca está sendo proposta. Ou seja, ao decidir se uma troca é

interessante, a reputação de um usuário aparece claramente

e influencia na decisão do outro. Trocar com um “arquiduque”

que já fez mais de duas mil trocas é mais seguro e garantido

do que trocar com um “peregrino” que não tem ponto algum.

Mas e as primeiras trocas? Se um novato não tem pontos, então

não tem reputação. E aí? É simples. Quem não tem pontos é

convidado a enviar as suas figurinhas antes, de tal maneira

que o outro espera chegar, avalia positivamente, gerando os

primeiros pontos para o remetente, e a partir daí envia as suas,

resolvendo o problema de falta de reputação inicial.

Esse processo nos dá de brinde uma definição importante:

reputação no mundo virtual é a repetição de interações bem-

sucedidas. Pode ser uma interação de troca, mas também

poderia ser, em outro site, a resposta correta a uma pergunta,

o pagamento em dia de uma dívida ou a prestação eficiente

de um serviço.

Mas podemos assumir que alguém que faz centenas de

trocas bem-sucedidas é um bom pagador de suas dívidas ou

compromissos? E quem responde corretamente muitas dúvidas

sobre um assunto, pode ser um bom prestador de serviços

relacionados a esse assunto?

Essas perguntas geram um enorme campo para se pensar

e se articular novos negócios: um varejista poderia incluir a

reputação registrada no site de trocas para fortalecer a análise

de crédito daquele senhor que quer comprar uma televisão a

prazo. O cidadão interessado em contratar um bom marceneiro

para fazer seus móveis de sala poderia começar sua seleção

nos sites de aficionados por marcenaria, buscando os mais

frequentes, fiéis e competentes respondedores de dúvidas.

Múltiplas características, competências ou virtudes dão origem

a múltiplas reputações, ou praticamente um “currículo virtual” de

reputações confirmadas por interações virtuais bem-sucedidas

em vários campos. E dá para imaginar o valor que esse currículo,

bem administrado, pode ter para quem quer realizar atividades

e negócios na rede.

A coleta de dados que buscam quantificar a reputação já

é uma realidade. Mas cada um tem a própria fórmula, não

necessariamente a correta ou a mais útil. Ninguém, ainda, fez algo

de realmente inovador na área da administração e intercâmbio

de reputações, sustentando transações de valor comercial.

Teríamos aí um novo candidato a bilionário?

Para saber mais:

http://www.trocafigurinhas.com.br

http://trustcloud.com

72

Technology leadership council Brazil

o que é segurança da informação

Avi Alkalay

Você sabia que o tema segurança vem sendo apontado por

anos consecutivos como um dos assuntos que mais geram

interesse no mercado de TI? Os provedores de tecnologia

gostam de abordá-lo na mídia e em eventos, devido aos muitos

produtos e serviços que podem ser ofertados, num padrão

similar ao da “indústria do medo” na área de segurança pessoal

e carros blindados.

Por exemplo, se uma vulnerabilidade é maliciosamente explorada

numa empresa, o responsável pela segurança será severamente

punido pelo seu superior. E um fator psicológico que ameniza

isso parece ser adquirir vários produtos de segurança para

lançar-lhes a culpa no caso de um incidente.

Também é fato que quanto mais produtos

de segurança uma empresa adquire,

mais produtos haverá para gerenciar e

não necessariamente estará mais segura.

Eleva-se, aliás, a chance de estar insegura

devido ao aumento de complexidade na

operação do ambiente.

Então o que é segurança? Uma definição

que eu gosto é “segurança em TI se

interessa por tudo que abrange a

confidencialidade, disponibilidade e inte-

gridade da informação”. Essa definição

tem derivações óbvias: “estamos inseguros se alguém de fora

pode ver as informações internas de nossa empresa”; “estamos

inseguros se nossos dados desaparecem”; e “estamos inseguros

se alguém modifica maliciosamente nossas informações”.

Mas o que muitos ignoram é que a informação pode ser exposta,

perdida ou deteriorada por fatores operacionais e não maliciosos,

como um disco lotado ou uma configuração equivocada de

algum software que nada tem a ver com segurança. Até uma

aplicação desenvolvida internamente, talvez por um programador

inexperiente, pode consumir todo o poder de processamento

de um servidor, deixando seu serviço, e por consequência a

informação, indisponível.

Segurança não é firewall. Não são senhas. Nem serviço que se

adquire como uma caixa-preta. Nem criptografia. Nada disso

vale se estiver em mãos inexperientes ou inconsequentes.

Segurança corporativa em TI deve ser um valor perene em

todos os participantes do fluxo da informação, ou seja, todos os

colaboradores de uma empresa. É um processo. E sendo assim,

deve estar presente desde a confecção de uma aplicação por

um programador até seu uso na mesa do usuário final.

O passo inicial é adotar um método. O segundo é aplicá-lo

na área de desenvolvimento de aplicações, que, concebidas

com preocupações de segurança, fazem com que seja mais

fácil garantir segurança real mais adiante. Uma boa prática é

não reinventar a roda sempre que um programa novo estiver

sendo escrito. O uso de um framework maduro de mercado,

como o Java Enterprise Edition, pode ajudar a resolver esses

problemas e abstrair níveis que o programador corporativo não

precisa abordar.

Costumo dizer também que segurança

é sinônimo de organização. É possível

conceber segurança num data center

desorganizado? Faremos um bom traba-

lho se organizarmos a TI sem pensar

em segurança? Não há segurança sem

organização e vice-versa.

É comum também encontrar empresas

em que segurança tem tamanha ênfase

(às vezes em níveis neuróticos), que fazer

certos negócios passa a ser proibitivo,

porque “é inseguro”. Reflexo comum disso é não permitir o

uso das ferramentas práticas de mensagem instantânea ou de

redes sociais. Mas ao fazer isso pode-se perder a oportunidade

de gerar relacionamentos com clientes ou parceiros que usam

intensivamente essas ferramentas. Então é bom ou ruim permitir

esse tipo de abertura? A experiência tem mostrado que o

resultado geral é positivo quando se permite a comunicação

entre as pessoas.

O paradoxo é que empresas só fazem negócios quando seus

funcionários se comunicam com o mundo externo e o impulso

natural da segurança é restringir isso. Proteger a informação não

significa torná-la indisponível. Portanto, nem tanto ao céu, nem tanto

à Terra: segurança em TI deve ser gerida de forma responsável,

consciente, com a mente aberta e, principalmente, inovadora.

Para saber mais:

http://WorldOfEnds.com

73

Technology leadership council Brazil Technology leadership council Brazil

a maTemáTica do acaso

Kiran Mantripragada

“Deus não joga dados com o universo”. Apesar de suas

contribuições para o nascimento da mecânica quântica, Albert

Einstein não conseguia aceitar a sua formulação probabilística.

Isso ficou claro quando Einstein escreveu essas palavras

para o seu amigo Max Born, em uma tentativa de refutar o

desenvolvimento matemático de Werner Heisenberg, responsável

pela fundamentação do Princípio da Incerteza. A frase mostra

a dificuldade de Einstein em aceitar que a natureza possa ter

algo de imprevisível ou de aleatório. A ciência atual prega que

Einstein estava errado nessa questão.

Infelizmente essas palavras se tornaram muito conhecidas fora

do mundo científico e são, frequentemente, usadas em debates

religiosos ou filosóficos, talvez até de forma equivocada, onde se tenta

justificar a existência de um “destino” ou um futuro predeterminado.

Mas a Teoria das Probabilidades ainda nem havia nascido

formalmente. Essa matemática que tenta descrever o acaso

só foi fundamentada em 1957 por Andrey N. Kolmogorov, ou

seja, alguns anos depois de Einstein e Heisenberg. Por outro

lado, os conceitos de probabilidade, aleatoriedade, acaso e

imprevisibilidade já faziam parte do senso comum desde a

antiguidade clássica.

Há tempos que essas noções já vinham sendo utilizadas em

diversos lugares, desde jogos de azar, cassinos, jogos de dados,

cara-ou-coroa, adivinhação, tomadas de decisão em negócios,

análise de riscos e até na legislação.

Entretanto, é comum o ser humano cometer erros quando

submetido à noção de acaso. Um exemplo clássico é a “Falácia

do Apostador” no qual os jogadores mantém uma crença comum

de que, após uma sequência de perdas em jogos de azar, sempre

se seguirá uma sequência de ganhos (e vice-versa) como uma

espécie de auto compensação.

Mas o que significa aleatoriedade? Será que na natureza existem

realmente eventos aleatórios ou absolutamente imprevisíveis?

Mesmo antes de Kolmogorov, já era comum usar a brincadeira de

cara-ou-coroa para mostrar os conceitos de imprevisibilidade e

de probabilidade. Sabe-se que mesmo havendo 50% de chances

de cair uma determinada face, não se pode afirmar com certeza

o que deve acontecer na próxima jogada. Isso não significa que a

matemática está errada. Ela prova apenas que, em uma quantidade

infinita de jogadas, o número de aparições de uma determinada

face tende a 50%. Ainda, se o leitor quiser ser pragmático, pode

afirmar que este infinito deve ser um número par, pois se for um

“infinito impar” o valor nunca será exatamente 50%.

Controvérsias à parte, será que podemos afirmar que

aleatoriedade realmente existe na natureza? Mais um vez, se

o leitor for um tanto pragmático, pode afirmar que o jogo de

cara-ou-coroa é descrito pela mecânica clássica de Newton,

ou seja, se forem conhecidas com precisão todas as condições

iniciais e condições de contorno (como velocidade inicial, força,

vento, atrito, massa, centro de massa da moeda, etc.), pode-se

então calcular qual face deverá cair voltada para cima.

Na realidade este é exatamente o problema da previsão

meteorológica, pois assim como na moeda, qualquer instabilidade

ou imprecisão nas condições iniciais podem trazer resultados

divergentes. É o tal do “efeito borboleta”, mas isso é assunto

para a Teoria do Caos, que difere do conceito de aleatoriedade.

E no computador? Já imaginou como “gerar” um número

aleatório? Um cientista da computação sabe que gerar um

número randômico não é algo trivial, por isso é comum o uso

da expressão “pseudoaleatório” para estes números gerados

artificialmente. Em resumo, o computador precisa de uma fórmula

para gerar números, mas se existe qualquer fórmula matemática

para isso, o tal número gerado é essencialmente não aleatório,

pois ele pode ser calculado a priori.

Este artigo não tem como propósito trazer conclusões sobre

o tema, mas proporcionar insumos para discussões mais

aprofundadas, talvez em um boteco com os amigos. E para

isso, que tal começar com a frase: “Provavelmente a natureza

não é determinística”.

Para saber mais:

Artigo: What is a random sequence? (Sergio Volcham)

http://pt.wikipedia.org/wiki/Aleatoriedade

Imagem obtida no site http://filipinofreethinkers.org/

74

Technology leadership council Brazil

a origem do logical daTa warehouse (ldw)Samir Nassif Palma

A gestão da informação tem um valor cada vez maior nas

organizações. Grandes volumes de dados são manipulados

diariamente com o objetivo final de suportar o processo de

tomada de decisão.

Essa história começou há 30 anos com os sistemas de suporte à

tomada de decisão ou Decision Support Systems (DSS). Depois,

vieram os armazéns de dados ou Data Warehouses (DW), que

são protagonistas da habilidade de prover um ambiente analítico

para inteligência do negócio ou Business Intelligence (BI). Em

seguida, os DWs cresceram e se tornaram corporativos, onde

todos os departamentos são fornecedores e consumidores de

informação em um ambiente estruturado.

Surge o conceito do Enterprise Data Warehouse (EDW), que

veio para ficar. Porém, com o crescimento do volume de dados

e do número de consumidores, o desempenho de resposta

desses sistemas passa a determinar o valor real do ambiente

analítico para a empresa. A informação precisa ser obtida no

tempo necessário, sob pena de não ter mais significado para

o negócio. É a latência da informação, principal requisito para

os ambientes informacionais.

Tal requisito tem gerado investimentos em recursos tecnológicos,

como processadores mais potentes, redes mais velozes, discos

magnéticos com armazenamento particionado, paralelismo de

acessos, entre outros, que proporcionam um melhor desempenho

aos usuários finais. Entretanto, tal ganho é temporário. A matu-

ridade e o valor agregado do ambiente informacional cresce

proporcionalmente à sua quantidade de acessos. Quanto mais

acessos, maior é o uso, e assim maior é sua importância e outra

vez o desempenho pode ser afetado.

Também são realidade as iniciativas paralelas e pulverizadas

conduzidas por diversas áreas da organização, que adotam

processos próprios e tecnologias que diferem dos padrões

definidos por TI. Além disso, novos tipos de dados devem

ser processados e consumidos, e representam alto valor ao

cliente-consumidor. São dados não estruturados, estimados em

80% do total disponível, o que inclui emails, textos, planilhas,

posts em redes sociais, blogs, vídeos, etc. O próprio percentual

já indica um salto no volume total, hoje avaliado na casa dos

zettabytes (1021 bytes). É o Big Data aparecendo como forte

candidato a protagonista.

Há, portanto, diferentes fatores que pressionam a busca por

alternativas na gestão informacional, sem esquecer sua própria

governança e o aproveitamento dos componentes legados.

Assim, em 2009, surgiu o conceito de ambiente informacional

(ou analítico) lógico, ou Logical Data Warehouse (LDW), que

propõe a adoção de uma visão completa, integrada e abrangente

de todos os ativos de informação da organização, visão que é

suportada por diferentes recursos tecnológicos em múltiplas

plataformas. O conceito em si propõe o papel de uma nova

agregação dos dados. Há uma quebra de paradigma se

comparado ao EDW, onde o dado é centralizado. O LDW é

composto por múltiplos repositórios de dados, elementos de

distribuição de processos, descentralização de cargas de

trabalho, plataformas especializadas, virtualização de dados,

e uma eficiente gestão de metadados.

Os metadados são dados que descrevem e explicam dados e

se tornam chave nessa visão, principalmente na orquestração

dos acessos às bases e entre os ativos que armazenam os

dados requisitados. A inteligência passa para a definição de

qual elemento do ambiente responderá à demanda solicitada.

Surge o Catálogo de Informações e sua governança.

O LDW protege o investimento da organização em plataformas

de dados, aproveitando o legado informacional e permitindo

dedicar novos investimentos em demandas especializadas

(appliances, por exemplo). Para o negócio, o LDW representa a

adaptação e resposta às crescentes exigências informacionais

do mercado, com altos volumes e variedade.

A informação como ativo de valor da organização não precisa

estar centralizada, mas sim sua governança, o que inclui a

gestão de metadados, o controle e a administração da

informação.

Para saber mais:

http://thinking.netezza.com/blog/logical-data-warehouse-smart-consolidation-smarter-warehousing

75

Technology leadership council Brazil Technology leadership council Brazil

sTorage & fracTais

Márcia Miura

Quando recebi o convite para visitar o laboratório de storage

da IBM em Tucson (EUA) logo imaginei uma sala repleta de

bancadas com nerds debruçados sobre equipamentos, vísceras

expostas... conseguiria eu estabelecer comunicação com os

cientistas e aprender algo?

Essa imagem inicial foi apenas um dos aspectos da minha

experiência que foi, no mínimo, fascinante. Trabalho desenhando

soluções de storage nas quais são considerados aspectos

práticos como custos, desempenho e arquitetura, sempre com

o viés de negócios. O dimensionamento de uma solução de

armazenamento passa por modelagem de dados e análise do

comportamento do aplicativo de um determinado cliente. Dessa

forma, sob o ponto de vista do conhecimento científico, eu sou

quase usuária final das ferramentas e

produtos exaustivamente estudados e

testados no laboratório.

A primeira reunião de que participei

referiu-se ao comportamento dos dados

em memória cache e sua representação

matemática em um novo subsistema de

discos. A influência de um novo nível de

cache no subsistema é comprovada

por meio da medição de desempenho

dos diversos tipos de cargas de leitura

e gravação. Tal como na Física Quântica,

que estuda o comportamento do elétron

e tenta descrevê-lo por meio de equações, o comportamento

dos dados em cache também precisa ser estudado e descrito

por equações, que por sua vez devem ser inseridas em um

software de modelagem para executar simulações. Esse estudo

exige medições com variáveis distintas até que se obtenha uma

conclusão que afetará o dimensionamento das soluções para

os clientes de storage.

Na discussão acalorada entre especialistas sobre o compor-

tamento dos dados em cache, fiquei abismada ao saber que

a Teoria dos Fractais também se aplica ao padrão de acesso

aos dados nos diferentes níveis de memória incluindo cache.

Benoit Mandelbrot (1924 - 2010), pesquisador da IBM, enunciou

em 1975 que qualquer formato na natureza pode ser descrito

matematicamente em frações que ele chamou de Fractais.

Qualquer formato irregular como a estrutura de uma nuvem,

uma montanha, um brócoli ou um alvéolo pulmonar, podem ser

quebrados infinitamente em frações que se repetem, formando um

padrão. Mandelbrot analisava gráficos de erros de transmissão

de dados, e notou que o padrão de erros era igual para 1 dia, 1

hora e 1 segundo. A visão microscópica era a repetição da visão

macro. Essa descoberta foi importante também para diversas

outras áreas, como nos programas de diagnóstico de tumores,

nos efeitos especiais de filmes de ficção (Star Trek foi o primeiro

a usar essa técnica) e no design das antenas de celular.

A organização do armazenamento de dados em hierarquias

de cache tornou possível melhorar o desempenho de acesso,

mas trouxe o desafio de criação de algoritmos cada vez

mais complexos para o gerenciamento de cache. Bruce Mc

Nutt, engenheiro sênior da divisão de

storage da IBM, observou o acesso a

dados num mainframe e descreveu o

padrão repetitivo no livro “The Fractal

Structure of Data Reference”. O perfil

de acesso na memória do servidor se

repetia nos buffers dos processadores,

na memória central do processador,

no cache do subsistema de discos

e nos discos físicos. O mérito dessa

constatação é que os desenvolvedores

e arquitetos de produtos de software e

hardware podem elaborar algoritmos

inteligentes, que otimizem o uso dos diversos níveis de

memória resutando em melhor desempenho. As soluções de

storage tendem a ser cada vez mais inteligentes e integradas

ao software e, para isso, o conhecimento dos padrões de

acesso é fundamental.

Era dificil imaginar que aquelas estruturas coloridas e graciosas

pudessem explicar tantas coisas na natureza e que estivessem

presentes no nosso dia-a-dia em tecnologia. Do ponto de vista

filosófico, pode-se dizer que há sempre uma nova forma de

ver o mundo (a geometria Euclidiana não permitia essa visão),

ensinando que uma pequena parte pode representar o todo.

Para saber mais:

Fractals – Hunting the hidden dimension – DVD da PBS Nova

The Fractal Structure of Data Reference, Bruce McNutt

TCL-BR MP #123 - O homem que enxergou a forma das coisas (ibm.co/16sDsuQ)

76

Technology leadership council Brazil

social Business versus social Business model

Rodrigo Jorge Araujo

Você realmente sabe o significado do termo Social Business?

Como ele foi criado ou como é utilizado no mercado?

O termo Social Business foi criado há mais de 20 anos pelo

economista, ganhador do Prêmio Nobel da Paz, Prof. Muhammad

Yunus para definir um modelo de desenvolvimento sócio-

econômico que tem por base uma filosofia de investimentos

na capacidade das pessoas e empresas para se tornarem

auto-suficientes, inventivas e empreendedoras com o objetivo

do desenvolvimento mútuo.

Na definição de Yunus: “Um negócio social é uma empresa

sem perdas nem dividendos, projetada para atingir um objetivo

social dentro do mercado altamente regulado de hoje. É diferente

de uma organização sem fins lucrativos

porque o negócio deve buscar gerar um

lucro modesto, mas esse será usado

para expandir o alcance da empresa,

melhorar o produto ou serviço ou outras

formas que subsidiem a missão social”.

Alguns princípios foram criados para

definir o Social Business, segundo Yunus:

• O objetivo do negócio não é

a maximização do lucro, mas

sim superar a pobreza e outros

problemas que ameaçam as pes-

soas, tais como educação, saúde,

acesso a tecnologia e meio-ambiente.

• Sustentabilidade econômica, financeira e consciência

ambiental.

• Investidores recebem de volta apenas a quantia que

investiram; nenhum dividendo é dado além dessa quantia

e o lucro da empresa permanece nela para expansão e

melhorias.

• A mão-de-obra envolvida recebe remuneração de mercado,

com melhores condições de trabalho.

• Faça com alegria.

Já o Social Business Model (popularmente conhecido apenas

como Social Business) é um modelo recente aplicado a negócios

que adotaram ferramentas e práticas de redes sociais para

funções internas e externas dentro das suas organizações,

com o objetivo de gerar valor para todos os envolvidos, como

funcionários, clientes, parceiros e fornecedores.

Nesse novo modelo de negócios, as empresas precisam

cada vez mais ouvir, entender e responder às necessidades

de seus clientes, ao mesmo tempo em que os consumidores

querem cada vez mais saber sobre a reputação, idoneidade e

capacidade das empresas em atender aos seus requerimentos

e necessidades. Se essa interação não for eficiente, os riscos

de perda de mercado são altos e reais.

O e-Commerce mudou a forma como as pessoas e empresas

faziam negócios, o Social Business está mudando a forma como

as partes são reputadas, o que afeta diretamente na capacidade

de se manterem ativas no mercado. É uma mudança notável no

modo como empresas e indivíduos se relacionam.

Por esse motivo, cada vez mais as

empresas procuram soluções de

comunicação em alta velocidade,

redes sociais, armazenamento de

dados em nuvem e análise de grandes

volumes de dados que as auxiliem a

entender e se comunicar com seus

clientes e parceiros de negócio.

Nesse cenário a tecnologia tem um

papel fundamental em suportar e

gerenciar as novas interações sociais

e comerciais que deixarão de ser

opções e passarão a ser essenciais

para o sucesso dos negócios.

E, como no passado, novas áreas e oportunidades começam a

surgir, assim como a necessidade de profissionais especializados

nas mais diversas disciplinas. Você já se imaginou em uma

reunião estratégica com um Diretor de Marketing Online ou

envolvido em um projeto com o Gerente de Comunidades e

Redes Sociais?

Para saber mais:

Livro - Building Social Business: The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs.[S.l.]:PublicAffairs, 2011. 256 p

http://bit.ly/1090gcP

http://bit.ly/16UcoFi

http://onforb.es/11Eem8Q

77

Technology leadership council Brazil Technology leadership council Brazil

méTodo cienTífico e TraBalho

Gregório Baggio Tramontina

Na maioria das vezes nós não nos damos conta, mas aplicamos

ao menos parte do método científico no nosso dia-a-dia e também

no nosso trabalho. Ele nos ajuda a resolver os problemas e

a fornecer argumenta-ções e informação justificada quando

necessário. Mas o que é o método científico e por que é importante

conhecê-lo?

O método científico é um conjunto de técnicas para a investigação

dos fenômenos que nos

cercam, para deles podermos

gerar novos conhecimentos

ou ajustar e corrigir o que

já sabemos. É um esforço

empírico com base em evi-

dências mensuráveis. E

embora as especificidades

variem de área para área

de conhecimento, pode-se

identificar dois elementos

comuns que conferem a sua

forma geral. Esses elementos

básicos são as hipóteses e os

testes dessas hipóteses.

Ao observar um fenômeno, um

cientista propõe uma ou mais

hipóteses para explicá-lo. As hipóteses não surgem do nada, mas

vêm daquilo que já se conhece sobre o fenômeno (ou fenômenos

parecidos) e seguem também uma análise de plausibilidade. Com

as hipóteses, o cientista então propõe testes para validá-las ou

refutá-las. Os testes devem ser passíveis de repetição por outros

cientistas, para verificação independente, e devem ser os mais

objetivos e controlados possíveis para evitar tendenciosidade nos

resultados. As hipóteses também geram previsões, por exemplo,

se elas forem verdadeiras, então espera-se observar certos valores,

comportamentos ou novos fatos sobre o fenômeno. Essas previsões,

por sua vez, podem ser confirmadas com mais testes e observações,

tornando a pesquisa ainda mais fundamentada.

Esse processo culmina quando fornece uma teoria. Na ciência,

o significado da palavra teoria é diferente do seu uso geral.

Coloquialmente, uma teoria é um “palpite” sobre a explicação

de algo, mas sem necessidade de maiores confirmações.

Cientificamente, uma teoria é muito mais, compondo-se de

um corpo de conhecimento estabelecido e bem suportado

pelas evidências disponíveis. Exemplos de teorias científicas

conhecidas são a da evolução das espécies de Charles Darwin

e a da relatividade de Albert Einstein, que até hoje fornecem

explicações verificáveis para uma vasta gama de fenômenos

naturais mesmo frente aos mais novos testes a que são submetidas.

Claro, nem toda pesquisa termina com uma teoria totalmente nova,

mas pode propor ajustes ao conhecimento existente, confirmar

aspectos novos de uma teoria ou mesmo mostrar que conceitos

importantes, à luz de novos dados, são na verdade incorretos

(vide o caso do éter, o meio

proposto para a propagação

da luz, refutado no famoso

experimento de Michelson-

Morley em 1887 – para uma

referência mais completa veja

o link abaixo).

Em nosso trabalho frequen-

temente nos deparamos com

situações que pedem uma

análise apurada para se-

rem resolvidas e são nes-

ses momentos em que

nossas habilidades, como o

pensamento crítico, são mais

requisitadas. A elaboração de

hipóteses e seus testes frente

ao problema que se apresenta formam o cerne de nosso processo

investigativo.

Além disso, é possível traçar uma relação direta entre o que

fazemos para resolver nossos desafios profissionais e os

elementos do método científico. Portanto, conhecendo mais a

fundo o método temos a oportunidade de melhorar os resultados

de nosso trabalho. E isso é refletido em todos os fatores que

deles derivam, como por exemplo a satisfação final do cliente.

Um exemplo dessa aplicação talvez seja em times de suporte à

produção, nos quais a análise e resolução rápidas e acertadas

de um problema podem fazer a diferença entre o sucesso ou

fracasso de um projeto.

O método científico tem a capacidade de melhorar nosso trabalho

e suas lições têm grande abrangência e utilização imediata.

Portanto vale a pena conhecê-lo e aplicá-lo.

Para saber mais:

What Was the Michelson-Morley Experiment?

Understanding and using The Scientific Method

Wikipedia - Epistemology

78

Technology leadership council Brazil

qual é o Tamanho do link?José Carlos Bellora Junior

Um todo projeto de infraestrutura de TI é muito comum a seguinte

pergunta: Qual é o tamanho do link? De fato, à medida que

novos sistemas, usuários e localidades precisam de acesso, a

capacidade dos enlaces de rede (também conhecidos como links

de dados) em fornecer um bom serviço é sempre questionada.

O planejamento e o gerenciamento de capacidade das redes de

comunicação podem ser facilitados caso o tráfego envolvido seja

previsível, ou possa ser medido de forma a aproximá-lo de um

modelo padrão. Determinar o comportamento do tráfego através

de medição é requisito fundamental para o dimensionamento e

o gerenciamento dos recursos em uma rede de dados.

A medição e a modelagem do

tráfego têm sido realizadas desde

que houve a necessidade de

computadores remotos trocarem

informações entre si. O tráfego de

dados possui períodos de “rajadas”

seguidas por longos períodos de

“silêncio”. Essa característica é

observada com medidas em

várias escalas de tempo (de

milissegundos a minutos), o que

caracteriza a autossimilaridade

do tráfego. A importância desse

comportamento está no fato de

ser difícil determinar uma escala natural de tempo para o

dimensionamento, pois o tráfego real não converge para um

valor médio em escalas maiores. Essa característica invariante

das rajadas resulta em baixa utilização dos recursos da rede

para qualquer tipo de serviço, ou seja, é necessário deixar

uma banda ociosa para acomodar o tráfego em eventuais

períodos de rajadas.

A ineficiência na utilização dos canais de comunicação faz com

que a tecnologia seja empregada com base no princípio do

compartilhamento dinâmico dos recursos da rede (roteadores,

switches, links). Os dados da comunicação entre os computadores

são multiplexados em um único canal, não de forma determinística

com reserva de tempo, mas de forma aleatória (multiplexação

estatística), de modo que o acesso à rede é imediato a qualquer

instante e com qualquer duração. Dessa forma, os computadores

podem comunicar-se através da troca de mensagens por links

compartilhados, sem a necessidade de circuitos dedicados.

Estudos demonstram que o tempo de resposta da rede é

diretamente influenciado pelo tamanho da mensagem trafegada,

sendo necessários tamanhos menores para otimizar o tempo

de transmissão. Esse conceito faz com que a comunicação

seja executada através da troca de pequenos segmentos

de informação conhecidos como pacotes, a essência das

redes atuais.

A obtenção dos dados necessários para uma caracterização

precisa do tráfego em redes de

alto desempenho é essencial

para o desenvolvimento de novas

tecnologias, planejamento de

capacidade, gerenciamento e

engenharia de tráfego de rede.

A maioria dessas atividades

necessita de um modelo para

fazer uma previsão de curto ou

longo prazo do tráfego.

Atualmente, os administradores de

rede se valem de medições com

base em SNMP (Simple Network

Management Protocol) existente

nos próprios componentes de rede (roteadores e switches)

ou em monitoração de pacotes, para o qual necessitam de

equi-pamentos específicos para captura e armazenamento de

dados (sniffers). Essas medições possibilitam obter informações

variadas sobre o tráfego com maior ou menor nível de detalhe,

dependendo do método empregado. É importante que o

projetista da rede tenha informações diversas que apontem

características predominantes do tráfego e padrões de uso

das aplicações que o ajudem a identificar possíveis problemas,

como congestionamentos.

Agora, sempre que você questionar qual deverá ser o tamanho do

link, pense logo que isso dependerá do padrão de tráfego de rede.

Para saber mais:

http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-leland.pdf

http://www.caida.org/research/traffic-analysis/

79

Technology leadership council Brazil Technology leadership council Brazil

Bancos de dados nosql Claudio Alves de Oliveira

Embora o conceito de NoSQL tenha surgido em 1998, ele ainda

não se tornou muito conhecido, mesmo entre os profissionais de

tecnologia. Para abordá-lo, precisamos considerar um assunto

mais amplo, o Big Data, que atualmente vem despertando a

atenção dos gestores de TI e empresários face à sua importância

para decisões operacionais e estratégicas, pois pode ajudá-

los em atividades como geração de negócios, novas linhas de

produtos e até na criação de necessidades de consumo.

As análises em grandes massas de dados podem trazer respostas

que antes não seriam possíveis de ser obtidas, por isso é grande

o potencial de mercado do Big Data, bem como o desejo das

empresas de adotá-lo.

Para tratar uma imensa quantidade de dados e aproveitá-los

da melhor maneira possível, estão sendo criadas tecnologias

que sustentam o Big Data como o NoSQL para infraestrutura

de banco de dados, Stream Computing como novo paradigma

e Hadoop e MapReduce voltado para análise de dados.

O NoSQL (Not only Structured Query Language) é um termo

genérico para uma classe definida de bancos de dados não-

relacionais, que têm uma propriedade chamada BASE (Basically

Available, Soft state, Eventual consistency), que distribui os dados

em diferentes repositórios tornado-os sempre disponíveis, não se

preocupa com a consistência de uma transação, delegando essa

função para a aplicação, porém sempre garante a consistência

dos dados em algum momento futuro à transação.

Esse conceito é exatamente o oposto das propriedades principais

dos tradicionais RDBMS (Relational Database Management

System), que são Atomicidade, Consistência, Isolamento e

Durabilidade, também conhecidas como ACID.

Ainda assim, o NoSQL não rompe com o “império” dos bancos

relacionais, mas complementa-os, já que ambas as tecnologias

podem coexistir.

Entre as vantagens dos bancos NoSQL em relação aos relacionais,

destaca-se a facilidade de escalabilidade vertical (aumento

de recursos dentro de um servidor) e horizontal (aumento no

número de servidores). Essa facilidade é um benefício direto

para os desenvolvedores, que passam a se preocupar mais

com suas aplicações e menos com manutenção. Esse é um dos

maiores motivos pelos quais os bancos NoSQL se espalharam

rapidamente entre as maiores aplicações web em funcionamento.

Por ter sido projetado para armazenamento de dados distribuídos

e em larga escala, grandes empresas de serviços de busca

e mídia social usufruem diretamente da tecnologia NoSQL e,

algumas pesquisas indicam que sua adoção pelo mercado

está em pleno crescimento.

É a necessidade do negócio que define qual abordagem deve

ser utilizada. Há que se utilizar critérios de comparação como a

escalabilidade do sistema, questões de consistência dos dados,

a existência ou não de linguagem de consulta e até a facilidade

de uso. Os bancos relacionais já têm mais tempo no mercado,

portanto são mais maduros e experimentados, porém mais

limitados. Já as implementações NoSQL, ainda que estejam

definindo um padrão próprio, são peças chave para o sucesso

das iniciativas em torno de Big Data.

Para saber mais:

http://www.google.com/trends/explore#q=NOSQL

http://www.ibm.com/developerworks/br/data/library/techarticle/dm-1205bigdatauniversity/

80

Technology leadership council Brazil

os desafios da inTerneT das coisas

Fábio Cossini

No seu artigo “A Internet das Coisas” (2011), José Carlos Duarte

Gonçalves nos apresenta a evolução da Internet e o conceito

daquilo que hoje é conhecido, dentre outros nomes, por Internet

da Coisas. De uma histórica interação homem-máquina através

de navegadores (browsers), essa nova Internet viabiliza a conexão

entre objetos, pessoas e o ambiente que os cerca, possibilitando

a troca e o processamento de informações para tomada de

ações, muitas vezes, sem intervenção humana. Porém, como

em todo início de uma nova era tecnológica, muitos são os

desafios para sua consolidação e uso com ampla aceitação.

A aplicação da Internet das Coisas já altera o dia a dia de milhares

de pessoas ao redor do mundo. O projeto SmartSantander,

na Espanha, tem transformado a cidade de Santander num

laboratório de pesquisas a céu aberto, trazendo benefícios

reais tanto para pesquisadores por meio de projetos-piloto,

quanto para seus cidadãos com a coleta e disponibilização de

informações sobre tráfego, vagas em estacionamentos, locais

para carga e descarga de suprimentos, temperatura, humidade

ou poluição sonora.

Na medicina já há pesquisa sobre a monitoração de pacientes

de Alzheimer ou diabetes através da Internet das Coisas. Com

sensores implantados diretamente em seus corpos, esses pacientes

poderão, num futuro próximo, enviar informações para aplicativos

que prescreverão, de forma mais eficiente e assertiva, drogas

que os atendam individualmente, de acordo com o diagnóstico

recebido. No caso do mal de Alzheimer, os esforços são para

que os pacientes também levem uma vida mais independente

em termos de mobilidade com monitoração geográfica.

Em relação a aplicações comerciais, o ramo de seguros será

um dos mais afetados, uma vez que a medição dos hábitos

individuais dos segurados poderá levar a uma precificação

personalizada do seguro. Além disso, as seguradoras poderão

mitigar o risco individual ao sugerir a cada segurado uma série

de informações que o protejam de eventuais sinistros, como

evitar regiões de maior probabilidade de roubo de automóveis

ou vigilância residencial à distância por meio de sensores de

movimento semi-invisíveis conectados à Internet.

No entanto, para que os benefícios da Internet das Coisas se

realizem plenamente, alguns obstáculos deverão ser eliminados.

O primeiro deles é a diversidade de padrões existentes para

comunicação entre objetos. O projeto CASAGRAS2, patrocinado

pela Comunidade Europeia, identificou 127 padrões publicados

e 48 em desenvolvimento em seu relatório final de 2012. Esses

padrões cobriam 18 áreas que se estendiam desde protocolos

de rádio-frequência (RFID) até padrões de comunicação voltados

para indústrias específicas, como a de saúde.

Com o crescimento exponencial de objetos que poderão se

comunicar entre si, a identificação unívoca de cada um torna-se

imperativo. O IPv6 nasce com esse direcionamento, uma vez que

o novo endereçamento de 128 bits permite a identificação de 79

octilhões de vezes mais endereços que o IPv4, ou seja, mais de

56 octilhões de endereços por habitante no planeta (6 bilhões).

Como resultado do número de objetos que poderão estar

conectados coletando e processando informações, surge a

necessidade de armazenamento. As informações coletadas

poderão ser muito voláteis, exigindo que os próprios dispositivos

as armazenem, ou com vida longa, de acordo, por exemplo,

com a necessidade da aplicação ou de legislações. Nesse

cenário a computação em nuvem e o Big Data terão lugar de

destaque para absorver a necessidade de processamento

ubíquo e geração de informações para aproveitamento humano.

Os próximos anos serão decisivos para uma convergência em

termos de pesquisa e conceituação da Internet das Coisas, para

que um mundo interconectado através de dispositivos permita

uma integração global, se não com o mesmo padrão, ao menos

com mecanismos que possibilitem a troca de informações com

custos que suportem um planeta mais inteligente.

Para saber mais:

http://www.ipv6.br

http://www.iot-i.eu/public/news/inspiring-the-internet-of-things-a-comic-book

81

Technology leadership council Brazil Technology leadership council Brazil

Traga seu disposiTivo móvel

Sergio Varga

Você já deve ter ouvido falar ou lido a respeito do termo BYOD

(Bring Your Own Device), não é? Se ainda não, isso está

relacionado à explosão da quantidade de dispositivos móveis

pessoais que os funcionários trazem para as empresas e a

necessidade delas lidarem com estes equipamentos dentro

do ambiente empresarial.

Entendem-se por dispositivos móveis os Smartphones, telefones

celulares, PDAs, Tablets, entre outros.

Além da liberação de uso dos dispositivos móveis, é necessário

criar ou alterar as aplicações existentes para suportar esse

novo tipo de dispositivo. A maioria das aplicações utilizadas

nas empresas foi desenvolvida para ser acessada por meio de

computadores pessoais ou terminais fixos. O desenvolvimento

de aplicações direcionadas para dispositivos móveis requer

um cuidado maior com a segurança,

o volume de dados trafegado, a

disponibilidade e compatibilidade

das aplicações.

Segundo Cezar Taurion, gerente de

novas tecnologias da IBM, esse é um

fenômeno que as empresas não têm

como ignorar, mas em vez disso, tratar

de frente e definir políticas de uso de

modo que não comprometam o seu

negócio. Em seu artigo publicado no imasters, entre os pontos

levantados por ele estão o custo, suporte técnico, segurança

e restrições legais.

Uma alternativa para minimizar esses pontos é o conceito do

Inverse-BYOD, que significa a empresa fornecer aos funcionários

os dispositivos móveis em vez de aceitar o uso de dispositivos

pessoais, embora não resolva todos os impactos causados

por eles. Para agravar ainda mais, temos outras duas novas

tecnologias como cloud computing e social business, que

também trazem desafios adicionais.

Considerando essas outras duas novas tecnologias, verificamos

que agora os desenvolvedores de aplicações também devem

se preocupar com a localização dos dados, itens de segurança

adicionais e compartilhamento de dados entre mídias sociais.

Além disso, devem elaborar novas aplicações que integrem

todas essas tecnologias, sejam elas aplicações internas ou

externas à empresa.

Do ponto de vista de gerenciamento desses dispositivos já

existem soluções que, embora ainda embrionárias, consideram

a integração das três tecnologias.

Verificamos alguns desafios que as empresas têm hoje em dia,

relacionados aos dispositivos móveis, que ainda não estão

totalmente solucionados. Muitos outros desafios ainda estão

por vir! Novos dispositivos móveis já estão sendo pesquisados.

Por exemplo, o projeto SixthSense, no qual dispositivos

ajustados ao corpo humano conseguem interagir com o meio-

ambiente. Existem muitas oportunidades de aplicações nas mais

diversas áreas do meio empresarial, como em e-commerce,

mídia eletrônica e qualquer outra que

possibilite interação entre as pessoas,

especialmente em social business.

Outro exemplo de dispositivo que as

empresas precisarão gerenciar e suportar

são os dispositivos que leem ondas

cerebrais e executam determinadas

tarefas cotidianas. Pode parecer um

pouco futurista, mas na área acadêmica,

especialmente na medicina, já existem

pesquisas nesse campo, tais como descrito no theguardian.

É uma questão de tempo elas chegarem nas empresas.

Como vimos, os dispositivos móveis vieram para ficar e cabe

às empresas, sejam elas consumidoras ou provedoras de

tecnologias, a responsabilidade de gerenciá-los e desenvolverem

novos produtos e modelos de negócio. É uma área muito dinâmica

visto que a explosão no uso de smartphones móveis, catalisada

pelo iphone, tem menos de cinco anos.

Quem poderá adivinhar o que acontecerá nos próximos cinco?

Para saber mais:

https://ibm.biz/BdxvQT

https://ibm.biz/BdxvQw

https://ibm.biz/BdxvQQ

https://ibm.biz/BdxvQ9

82

Technology leadership council Brazil

o céu é o limiTe para a auTomação inTeligenTe

Moacyr Mello

Aprendizagem de máquina é uma disciplina da Inteligência

Artificial que lida com a identificação de padrões que podem

ser tratados estatisticamente. Por outro lado, o Processamento

de Linguagem Natural, que está muito em voga após o sucesso

do Watson no Jeopardy!, é outra disciplina de Inteligência

Artificial que, auxiliado pela Linguística, aplica a identificação

de padrões na linguagem escrita de vários tipos de textos. Em

TI (Tecnologia da Informação), poderíamos usar esses recursos

para aplicá-los, por exemplo, numa especificação de software,

de procedimentos para manutenção e suporte de servidores de

datacenter ou numa proposta comercial. Enfim, em vários tipos

de documentos que possuam padrões e algumas regras de

formação. A associação desses elementos possibilita a proposta

de uma automação mais inteligente em TI.

Algoritmos de aprendizado de máquina

podem, por exemplo, inferir os resultados de

equações de sistemas complexos que são

difíceis de se formular matematicamente.

Como boa parte do que fazemos em TI

é escrever, definir e descrever, por que

não utilizar essas técnicas para introduzir

automação inteligente no nosso conjunto de

ferramentas de desenvolvimento? Tarefas

como estimativas e planejamento poderiam

em parte ser automatizadas. Ganharíamos

em padronização e rapidez. Isso parece impossível?

A ideia por trás da patente “Effort Estimation Using Text Analysis”

é justamente utilizar esses recursos para estimar o esforço de

implementação para especificações de software que usem

a técnica de casos de uso para captura de requisitos. É uma

abordagem estatística e tem como premissa que a automação,

a rapidez e a capacidade de exploração rápida de cenários, são

vantagens mais importantes que qualquer precisão milimétrica

da estimativa obtida por outros métodos.

Para implementar um software assim usamos uma rede neural

artificial (RNA), que é um modelo de processamento computacional

que se inspira no sistema nervoso dos seres vivos. Ele utiliza vários

neurônios artificiais associados em rede para imitar o modelo

biológico. A importante característica da RNA é a capacidade

de adquirir informação ou em outras palavras aprender.

A rede é “ensinada” a observar padrões no texto a partir de

exemplos conhecidos e associá-los ao custo de implementação.

Esse custo pode ser expresso em homens-hora ou por outra

pontuação genérica. Em seguida a rede pode inferir o valor

dos demais casos.

O problema maior está em caracterizar adequadamente os padrões

de complexidade que aparecem no texto. Apesar dessa ideia ser

generalizável para outras técnicas de especificação de requisitos,

em se tratando de casos de uso, a tarefa é mais fácil porque

essa técnica possui uma pequena gramática para sua escrita.

Então pontuamos cada elemento de gramática por meio

de palavras muito frequentes, e utilizamos os conceitos de

similaridade e afinidade de Karov [“Similarity-based Word Sense

Disambiguation”, Association for Computational Linguistics,

1998, vol. 24, No 1, 20 pgs.] e Hashimoto [Dynamics of Internal

and Global Structure through Linguistic Interactions, MABS ‘98,

LNAI 1534, pp. 124-139, 1998.].

Associado com essa pontuação utilizamos

pesos, fornecidos por um dicionário de

domínios, que foi construído durante o

processo de aprendizagem a partir de

um vocabulário inicial. A finalidade desse

dicionário é armazenar o conhecimento

estruturado, já adquirido anteriormente,

sobre o domínio e o tipo de sistema que

comumente o representa. A rede neural por

sua vez irá lidar com o conhecimento não

estruturado, conhecimento a ser adquirido

durante o treinamento e armazenado na

memória da rede.

Podemos dizer que, assim como uma pessoa que lê o texto e

avalia o esforço de acordo com sua própria experiência, formando

uma impressão de complexidade que o texto lhe causa, também

a RNA irá avaliar a pontuação por meio da memória, do volume,

da dificuldade de leitura, dos termos complexos ou usuais e

dos termos associados a um domínio de aplicação complexo.

Esses são exemplos das variáveis que caracterizam os atributos

memorizáveis da rede neural na patente mencionada.

Produtos para especificação de requisitos de software ou

de planejamento de projetos poderiam se beneficiar de uma

automação como essa, pois sempre são acompanhados de

algum tipo de estimativa de esforço.

Para saber mais:

TLC-BR Mini-Paper #091 (http://ibm.co/184qJ3S)

US-PTO Patent #US8311961 (http://1.usa.gov/12uVbOs)

http://en.wikipedia.org/wiki/Machine_learning

83

Technology leadership council Brazil Technology leadership council Brazil

inTeligência em segurança, uma nova arma conTra o cyBer crime

Alisson Lara Resende de Campos

Nos últimos anos temos nos deparado com outro tipo de

guerra, não mais com armas de fogo convencionais, químicas,

biológicas ou nucleares, e sim com armas virtuais, conhecida

como guerra cibernética.

Com a disseminação da Internet, conectando tudo e todos, temos

hoje uma situação sem precedentes no que tange ao acesso

a informações sensíveis de organizações ou ultrassecretas de

governos ao redor do mundo. O acesso a essas informações

deixou de ser simples jogos de hackers, que competiam entre

si para ver quem quebrava primeiro um determinado servidor

web, para se tornar uma atividade orquestrada por grandes

corporações ou governos, com o objetivo de espionagem

industrial ou armas de destruição em massa.

Nessa guerra cibernética são utilizadas novas técnicas de

exploração de sistemas, ou APT (Advanced Persistent Threat),

como também são conhecidas. Essas técnicas utilizam, de

forma conjunta e orquestrada, diferentes tipos de códigos com-

putacionais maliciosos, conhecidos como worms, vírus e rootktis

ou técnicas de exploração, como phishing, engenharia social

entre outras. Um dos casos mais famosos foi o worm “Stuxnet”,

que foi projetado para atacar as instalações industriais, como

as de enriquecimento de urânio do Irã, que teve centrífugas

comprometidas em 2010. E esse é apenas um incidente entre

outros existentes e outros que ainda surgirão.

Por essa razão os antivírus e firewalls tradicionais já não são

suficientes para proteger as organizações, resultando assim

no surgimento de um conjunto sofisticado de contramedidas,

necessárias ao combate desse tipo de ameaça.

Uma das principais armas, para combater essa ameaça pungente

é conhecida como “Security Intelligence”, que teve origem nas

soluções de SIEM (Security Information and Event Management),

que surgiram para realizar a coleta e correlação de eventos

em registros de equipamentos de tecnologia, mas precisaram

evoluir para atender a nova realidade em que vivemos.

As ferramentas de Security Intelligence são projetadas para

analisar, normalizar e correlacionar grandes volumes de dados

de aplicações, sistemas operacionais, ferramentas de segurança,

fluxo de redes, entre outras. Elas analisam o tráfego crítico

na infraestrutura e aprendem o comportamento esperado, de

maneira a detectar anomalias. Dessa forma as ameaças podem

ser descobertas mesmo antes de existirem vacinas ou correções

sistêmicas contra elas. Assim é possível identificar, de maneira

proativa, as ameaças e ações ilícitas no momento ou mesmo

antes da sua ocorrência.

Enquanto escrevo este artigo, uma nova tendência está surgindo:

a integração entre soluções de Big Data e de Security Intelligence.

A troca de dados entre essas soluções possibilitará a melhoria da

análise preditiva e a previsão dos riscos relacionados as empresas

e governos. Essa tarefa era quase impossível de ser realizada

até então, devido ao alto volume de dados não estruturados,

tais como emails, mensagens instantâneas e redes sociais.

A análise dos dados, inclusive a comportamental e sentimental,

juntamente com a capacidade de correlacionar um alto volume de

dados e a interoperabilidade das ferramentas de TI vêm sendo a

resposta dos good guys para combater as ameaças cibernéticas

emergentes, com suas novas técnicas de exploração de falhas,

espionagem, fraudes e roubos de informações sensíveis das

corporações e entidades governamentais. Os bad guys não

dormem no ponto, e você não pode dormir também!

Para saber mais:

http://en.wikipedia.org/wiki/Advanced_persistent_threat

http://www-03.ibm.com/security/solution/intelligence-big-data/

http://blog.q1labs.com/2011/07/28/defining-security-intelligence/

http://www.site.com/link3

84

Technology leadership council Brazil

Tecnologia Transformando cidades inTeligenTes

Dan Lopes Carvalho

Uma das questões que tem atraído grande atenção no âmbito

da gestão pública é prover serviços e infraestrutura de qualidade

para atender as necessidades do sistema urbano moderno, que

exige dinamismo e flexibilidade para uma população urbana,

que cresce significativamente e com o agravante da distribuição

desordenada no cenário brasileiro. Nesse contexto o conceito

de cidades inteligentes torna-se mais importante.

Em estudo recente, realizado por um grupo de universidades da

União Europeia formulou a primeira definição acadêmica para

conceituar cidades inteligentes: “uma cidade é dita inteligente quando

investimentos em capital humano e social em conjunção com uma

infraestrutura tradicional (transporte) e de

comunicação moderna (TIC – Tecnologia

da Informação e Comunicação) ali-

mentam um crescimento econômico

sustentável e uma elevada qualidade

de vida, com uma administração eficiente

dos recursos naturais, através de uma

governança colaborativa”. Dentro dessa

definição é possível interpretar que

cidade inteligente tem diversos fatores,

tais como desenvolvimento humano,

meio ambiente, transporte, segurança,

economia, redes sociais e outros.

Os governantes, em seu planejamento

estratégico para construir um sistema

urbano moderno e aderente às

constantes mudanças, deparam-se com uma infinidade de

adversidades, que vão desde a uma precária infraestrutura a

um imenso fluxo de informação que precisam ser administrados.

A tecnologia poderia então alavancar os fatores de sucesso

que transformam um sistema urbano em inteligente.

A transformação de uma cidade com base na tecnologia da

informação deve se dar por meio de três pilares: instrumentação,

interconexão e inteligência.

Instrumentação é a capacidade da cidade em capturar dados

em sua infraestrutura, ou seja, sensores que permitem observar e

absorver alterações de comportamento ou anomalia do ambiente,

tais como monitores de movimentação e aglomeração de pessoas

em pontos estratégicos.

Interconexão é a capacidade que o sistema de uma cidade tem

para transmitir e receber os diversos tipos de dados observados

para então interagir com os devidos atores permitindo eficiência

da governança do ecossistema. Um exemplo seria associar

eventos de trânsito que podem gerar riscos ou impactos em

outro sistema urbano, como a segurança pública.

Inteligência é a capacidade do sistema de interpretar e gerar

respostas rápidas e automatizadas para melhoria do serviço

público como um todo e de maneira integrada. O método mais

eficiente para medir um sistema inteligente de uma cidade é

a capacidade de interagir com o cidadão e gerar mudanças

rápidas e eficientes no sistema.

A visão de que o sistema urbano deve

ser integrado e deve ter capacidade

de fornecer sinergia entre os diversos

recursos provoca uma mudança no

atual modelo de gestão das cidades,

que deve apresentar uma estratégia

de compartilhamento entre os órgãos

do serviço público, tais como

segurança, transporte, mobilidade,

energia, água, entre outros, por

meio de um processo de informação

integrada, encaixando-se em um

ambiente intermunicípio, interestado,

nacional e até mesmo internacional.

As cidades iniciam, então, uma

longa e contínua caminhada para atender esse novo perfil

de gestão urbana, onde a governança deve ser compartilhada

com uma visão integrada, de modo a proporcionar respostas

efetivas e planejamento de políticas públicas mais céleres

e eficazes, que por sua vez proporcionam ao cidadão uma

melhor qualidade de vida.

Nesse contexto, a transformação tecnológica é o alicerce para

esse novo modelo de cidades inteligentes.

Para saber mais:

http://www.smartcitiesineurope.com

http://www.ibm.com/smarterplanet/br/cities

85

Technology leadership council Brazil Technology leadership council Brazil

crowdsourcing: o poder da mulTidão

Carlos Eduardo dos Santos Oliveira

Juntos somos mais fortes. Você certamente já ouviu isso muitas

vezes. Pois benvindo ao mundo do crowdsourcing. O termo foi

criado pelo jornalista Jeff Howe e publicado em seu artigo The

Rise of Crowdsourcing, na revista Wired, em junho de 2006.

O conceito de reunir pessoas com diferentes habilidades

em prol de um objetivo comum é muito mais antigo do que o

termo cunhado por Howe. Um bom exemplo e talvez o mais

antigo e famoso no Brasil é o do Movimento Software Livre, que

tem entre seus objetivos difundir a cultura open source. Esse

movimento nasceu em 1985, liderado por Richard Stallman,

com uma proposta muito simples: um ciclo onde cada um

soma o seu conhecimento ao do grupo,

desenvolvendo software com código

aberto. Na prática, se você utiliza

um software livre, pode melhorá-lo e

devolvê-lo ao grupo para que possa ser

utilizado por outros, reiniciando o ciclo.

Nos últimos anos o crowdsourcing

tem ganhado força principalmente

em ambientes de TI, quando pas-

sou do anonimato à fama devido ao

surgimento das derivações crowd-

funding e crowdtesting.

O conceito base do crowdfunding

é capitalizar projetos de qualquer

natureza por meio de apoio de caráter

financeiro e tem como principal ativista no Brasil o projeto Catarse,

uma plataforma de financiamento coletivo. Nele, qualquer pessoa

pode apoiar financeiramente qualquer um dos muitos projetos

cadastrados no site do Catarse.

Recentemente a comunidade Transparência Hacker angariou

fundos suficientes, com apoio recebido via Catarse, para o projeto

Ônibus Hacker, que visou a aquisição, reforma e modernização

de um ônibus, com o objetivo de difundir a “cultura hacker” em

todo o país.

Já o crowdtesting utiliza o conceito de multidão aplicado na área

de teste de qualquer natureza ou área específica do conhecimento.

Esse conceito é largamente utilizado por grandes empresas de

tecnologia como Microsoft e Google, por meio de seus programas

de testes de aplicativos em versões beta.

Em TI, por exemplo, isso é visto como um grande aliado, dada

a infinidade de cenários de teste que uma multidão pode

proporcionar e que não poderiam ser simulados dentro de

uma empresa. Entretanto, existem algumas ressalvas quanto

a segurança e privacidade de informações, principalmente

quando o objeto do teste trata de inovação ou define um

posicionamento estratégico.

Dados o poder, alcance, cenários e benefícios que o crowdtesting

proporciona, muitas empresas têm adotado esse conceito

e reduzido o tempo do ciclo de testes de seus produtos de

semanas para horas. Outra vantagem é a enorme diversidade

de sistemas operacionais, dispositivos

e configurações que esse modelo de

teste pode abranger, algo muito difícil

de se alcançar dentro de um ambiente

de TI corporativa.

Um exemplo de aplicação do conceito

de crowdtesting são as comunidades de

usuários Linux, onde cada usuário obtém

a sua cópia, instala e reporta bugs ao

fornecedor ou grupo de desenvolvedores

para posterior correção.

Nesse modelo, existem duas pos-

sibilidades de recompensa: financeira

ou reputação. Recomendo a leitura do

Mini Paper na pág. 71, de Wilson E. Cruz,

no qual é abordado o tema reputação de forma mais profunda.

Se o objetivo for uma recompensa financeira, já existem alguns

serviços de outsourcing de testes, como o Crowdtest, que contrata

mão-de-obra especializada para trabalhos regulares.

Nos últimos anos empresas globais aderiram ao crowdsourcing,

criando programas próprios, visando algum tipo de vantagem

competitiva ou inovação. Entre estas encontram-se gigantes

como Pepsico, P&G, Ford, Dell, Starbucks e Fiat entre outras.

Com o apoio dessas empresas o crowdsourcing vem ganhando

espaço na mídia e nas corporações, crescendo a passos largos.

Para saber mais:

http://crowdsourcing.typepad.com

Crowd Testing – Applicability and Benefits

http://blog.ideiasnamesa.com.br/tag/crowdsourcing/

86

Technology leadership council Brazil

Togaf – o que é e por quê?Roger Faleiro Torres

O TOGAF (The Open Group Architecture Framework) é um

modelo conceitual de arquitetura corporativa concebido em

1995 pelo The Open Group Architecture Forum, cujo objetivo é

fornecer uma abordagem global para o desenho, o planejamento,

a implementação e a governança de arquiteturas, estabelecendo

assim uma linguagem comum de comunicação entre os arquitetos.

Atualmente na versão 9.1, publicada em Dezembro de 2011, o

TOGAF se baseia em um processo iterativo, reutilizável, cíclico

e suportado pelas melhores práticas de modelagem envolvidas

nas atividades fim ou meio de uma organização, compreendendo

quatro tipos de arquitetura que são comumente aceitas como

subconjuntos de uma arquitetura corporativa, a saber: negócios,

dados, aplicações e tecnologia.

O conteúdo do TOGAF está estruturado em sete partes:

1. Introdução, que compreende conceitos básicos sobre arquitetura corporativa, o próprio TOGAF, terminologia e expressões adotadas;

2. O método para o desenvolvimento de arquiteturas (ADM – Architecture Development Method);

3. Técnicas e diretrizes associadas ao ADM;

4. Estruturas para conteúdos de arquitetura;

5. Ferramentas e o Enterprise Continuum;

6. Modelos de referência;

7. Framework das capacidades de arquitetura.

De forma resumida, o ADM é um método para o desenvolvimento

e manutenção de arquiteturas corporativas. O framework das

capacidades de arquitetura contempla os atores e papéis

que operarão o ADM, o qual é suportado por técnicas e

diretrizes, que produzirão o conteúdo a ser armazenado em

um repositório (estruturas para conteúdos de arquitetura),

sendo esse conteúdo classificado de acordo com o Enterprise

Continuum. O repositório é inicialmente populado com modelos

de referência, tais como o TRM (Technical Reference Model)

e o III-RM (Integrated Information Infrastructure Reference

Model), que fazem parte do TOGAF.

O ADM, ilustrado na figura, é considerado o principal componente

do TOGAF, compreendendo diversas fases que interagem entre

si, por meio dos domínios de arquitetura, para garantir que todos

os requisitos de negócio sejam devidamente atendidos. Uma

vantagem para a adoção do ADM é que ele pode ser adaptado

à terminologia adotada pela empresa.

Por que a arquitetura corporativa e o TOGAF devem ser

considerados assuntos estratégicos pelas empresas? A

arquitetura corporativa ajuda a identificar lacunas entre o estado

atual e o estado desejado pela empresa, fornecendo um plano

para que a organização alcance seus objetivos, descrevendo-a

em múltiplos níveis de amplitude e profundidade. O TOGAF, por

sua vez, acelera o ciclo de desenvolvimento dessa arquitetura,

fornecendo respostas para as perguntas o que, quem, quando,

como e por quê.

Para saber mais:

http://www.opengroup.org/togaf/

http://pt.wikipedia.org/wiki/TOGAF

Enterprise Continuum:

http://pubs.opengroup.org/architecture/togaf9-doc/arch/chap39.html

87

Technology leadership council Brazil Technology leadership council Brazil

revele o clienTe que esTá por Trás dos dados

Mônica Szwarcwald Tyszler

Diariamente somos bombardeados por informações que chegam

de todos os lados, por e-mail, redes sociais, imprensa e outdoors.

Segundo estudo divulgado pela IDC, são gerados cerca de 15

petabytes de dados todos os dias. A expectativa da consultoria é

que esse fluxo chegará a 8 zettabytes até 2015. Essa quantidade

gigante de informações torna difícil separar o que é relevante.

Esse também é um problema para as empresas que tentam

conhecer o perfil dos seus clientes, visando oferecer produtos e

serviços personalizados de acordo com as suas necessidades.

Um primeiro passo rumo à modelagem do comportamento dos

consumidores é compreender o nível das informações existentes

na companhia e utilizá-las da maneira correta. É fundamental

saber como integrar o negócio às características individuais

dos clientes. Os dados brutos levam a uma visão limitada de

quem é e o que quer o seu consumidor.

Para um resultado efetivo, as empresas devem procurar consolidar

em um único ponto a visão 360 graus. Visando entender melhor

as vontades dos clientes surgiram ferramentas para coleta,

gerenciamento e análise de dados. O termo customer analytics,

muito em voga pelas grandes companhias, é a síntese do esforço

em conhecer o comportamento do consumidor e saber criar

modelos para estreitar esse relacionamento.

Informações de clientes em sistemas como ERP, CRM, cadastros

e dados obtidos de fontes externas como agências de marketing

ou empresas de pesquisa de mercado, devem ser consolidados

e analisados a fim de traduzir em números o seu comportamento.

O processo de obtenção desses dados é gradual e evolutivo,

e leva a um aprendizado constante de quais informações são

valiosas e quais os próximos caminhos a seguir.

Uma considerável parte desse universo de dados precisa ser

transformada antes de ser usada para uma análise efetiva. A

ciência dessa análise está na aplicação de conceitos estatísticos,

matemáticos ou mesmo econométricos, como inferências,

correlações, regressões lineares e logísticas, para revelação

de informações antes escondidas. O estudo do perfil de um

consumidor é possível graças às aplicações de métodos científicos

que viabilizam a segmentação de clientes, a modelagem de

ofertas e o desenho de programas de fidelidade personalizados.

A partir de melhores previsões e decisões mais inteligentes, os

varejistas, os bancos, as corretoras de seguros, por exemplos,

podem gerar maiores volumes de vendas criando, em tempo

real, promoções e ofertas.

Acompanhando essa tendência, as empresas provedoras de

tecnologia já estão prontas para prestar esses serviços para todos

os setores da economia, oferecendo não apenas os produtos,

mas também especialistas capazes de aplicar a análise de

dados nas diversas indústrias, nos mais variados cenários.

As tecnologias de análise de dados permitem identificar o

cliente quando entrar em uma loja física ou visitar uma loja virtual,

associando-o ao seu histórico de consumo, hábitos, preferências

e situação socioeconômica. Assim, será possível criar ofertas,

propostas de produtos e serviços aderentes às necessidades

dos consumidores, proporcionando uma experiência de interação

única e personalizada. O customer analytics é o caminho para

as companhias explorarem uma nova fronteira competitiva.

Para saber mais:

http://www.wharton.upenn.edu/wcai/

http://www.customeranalyticsevent.com/

http://www-01.ibm.com/software/analytics/rte/an/customer-analytics/

88

Technology leadership council Brazil

singularidade: você esTá pronTo para viver para sempre?Cesar Nascimento

Pare para imaginar como seria sua vida se a humanidade fosse

uma raça imortal. Ou melhor, pense nos impactos caso se torne

imortal. As consequências em nossos sistemas políticos e

econômicos seriam, sem dúvida, grandes e profundas. Deixando

os aspectos humanos de lado, existem, de fato, possibilidades

reais apoiadas por grandes cientistas de que a humanidade

alcance a imortalidade em breve.

Segundo Raymond Kurzweil[1], pesquisador da área de Inteligência

Artificial, é possível que a imortalidade aconteça ainda nesse

século[2]. A imortalidade da

raça humana faz parte de

várias previsões que Kurzweil

fez e chamou de Singularidade

– uma transformação profunda

nas capacidades humanas –

que segundo o pesquisador

deve acontecer em 2045[3].

As previsões de Kurzweil

têm como base modelos

matemáticos que propõem

uma evolução científica

e tecnológica em escala

exponencial. Para se ter

uma ideia, seus modelos

mostram que as duas últimas

décadas do século XX foram

equivalentes a todo progresso

dos oitenta anos anteriores. Nós vamos fazer mais vinte anos

de progresso em apenas 14 anos (em 2014) e depois fazer o

mesmo novamente em apenas sete anos. Dentro da escala

exponencial proposta por Kurzweil, os 14 primeiros anos do

século XXI seriam superior ao progresso cientifico alcançado

durante todo o século anterior. Para expressar isso de outra

forma, não teremos cem anos de avanço tecnológico no século

XXI e sim um avanço cerca de 1.000 vezes maior do que o que

foi alcançado no século XX.[3]

Ainda segundo Kurzweil, a imortalidade poderá ser atingida por

meio de dois fatores combinados: GNR (Genetics, Nanotechnology,

Robotics) e progresso computacional exponencial previsto pela

Lei de Moore[4].

A GNR vai contribuir para melhorar a qualidade de vida dos seres

humanos, aumentando a expectativa de vida em muitos anos.

A combinação de robótica e nanotecnologia vai nos ajudar na

criação de tratamentos efetivos, direcionados e menos invasivos

pois será possível programar nanobots para a erradicação de

qualquer moléstia. Imagine alguns exemplos: nanobots na sua

corrente sanguínea que removem o excedente de gordura ou

açúcar, que podem fazer correções na córnea, e que eliminam

vírus, bactérias ou parasitas.

A robótica e a evolução exponencial da computação fornecem

a segunda parte da equação da imortalidade.

São necessários cerca de 10 quatrilhões (1016) de cálculos

por segundo (cps) para fornecer um equivalente funcional

ao cérebro humano. Estima-

se que, em 2020, essa

capacidade computacional

custará cerca de mil dólares

e, que em 2030, esses mesmos

mil dólares em poder de

processamento serão cerca

de mil vezes mais poderosos

do que um cérebro humano

(figura). Hoje, existem modelos

matemáticos e simulações

de uma dúzia de regiões do

cérebro. Segundo pesquisas

atuais, já é possível simular

de cerca de 10.000 neurônios

corticais[5], incluindo dezenas

de milhões de conexões.

Isso significa que se tivermos os meios de hardware, software

e controle sobre nossos corpos, poderemos literalmente fazer

uma réplica do nosso cérebro.

Dessa maneira, tudo se resume a uma frase usada pelo próprio

Kurzweil: “viva o bastante para viver para sempre”[6]. Viva o

suficiente para tirar proveito das melhorias que a genética e

nanotecnologia trarão, assim você poderá viver ainda mais,

quem sabe até o ponto de inflexão a partir do qual poderá viver

indefinidamente.

Para saber mais:[1] https://ibm.biz/Bdx3Ar

[2] https://ibm.biz/Bdx3AY

[3] https://ibm.biz/Bdx3AZ

[4] https://ibm.biz/Bdx3Aw

[5] https://ibm.biz/Bdx3uT

[6] https://ibm.biz/Bdx3ub

89

Technology leadership council Brazil Technology leadership council Brazil

agora eu posso TwiTTar

Sergio Varga

A velocidade com

que novos serviços e

produtos aparecem na

Internet e se disseminam

é impressionante. É o caso

do facebook, do twitter e

do youtube, ferramentas

inicialmente concebidas

para o compartilhamento

de informação entre pes-

soas, que se tornaram

padrões de mídias sociais.

Por outro lado, muitas empresas proibiam o acesso a essas

ferramentas no meio empresarial, sob o pretexto de não estarem

relacionadas com as atividades de negócio, sendo então

consideradas uma distração para os funcionários.

O que era considerado proibido, vem sendo encorajado pelas

próprias empresas. Mas, o que levou a essa mudança de posição?

Vários motivos podem ser citados, dentre os quais, relacionamento,

propaganda, formação de opinião, a frenética necessidade por

informação e a rapidez que ela atinge o consumidor.

As empresas viram nessas mídias sociais novas oportunidades de

chegar aos seus consumidores, canais inovadores de marketing.

Há muito tempo tem se observado que a propaganda boca-a-boca

é uma das melhores formas de conseguir novos consumidores

e pesquisas recentes comprovam isso. As mídias sociais

simplesmente tornaram possível aumentar exponencialmente

esse tipo de propaganda. Os relacionamentos sociais também

já não têm mais fronteiras. Ao entrar para uma comunidade ou

associar-se a um amigo, as opiniões divulgadas na rede agora

são “escutadas” instantaneamente e com maior abrangência,

pois os amigos do seu amigo também veem sua opinião.

A mudança de posição das empresas está também relacionada

à percepção dos formadores de opinião, pessoas de referência e

celebridades nas redes sociais. O poder ou atração que exercem

sobre as outras pessoas é muito grande, podendo se tornar

grandes promotores ou “detonadores” de produtos ou serviços.

Além disso temos a busca incessante pela informação. Somos

movidos por conhecimento e curiosidade. Seja a informação

mais simples ou banal até a mais importante ou prioritária. E

essa busca também tem sido atendida com as mídias sociais.

Outro ponto é a velocidade que a informação chega ao consumidor.

No momento em que lê esse artigo, você pode receber no twitter

uma promoção relâmpago de TV que está sendo realizada por

uma grande rede de eletrodomésticos com descontos especiais.

Isso não era possível há poucos anos atrás e as empresas agora

estão cada vez mais utilizando o social business.

A utilização de mídias sociais pelas empresas para divulgação de

produtos e pelos funcionários para disseminação de experiências,

troca de opiniões e informações, tem sido objeto de preocupação

das empresas. Essa mesma preocupação ocorreu no passado

com o advento do e-mail na década de 80.

O ponto mais importante é definir os critérios de como se portar

para o mundo externo, ou seja, o que o funcionário postar nas

mídias sociais tem que seguir algumas diretrizes do empregador,

pois ele o está representando naquele momento. Outro ponto

é a criação de iniciativas como o uso de blogs para comentar

produtos, tweets sobre eventos, facebooks empresariais e

vídeos promocionais no youtube. Essas iniciativas permitem

que os funcionários participem e divulguem tais conteúdos

nas mídias sociais.

As empresas também solicitam a seus funcionários que auxiliem

na resposta a comentários ou questões de consumidores

relacionadas com produtos ou serviços. As mídias sociais, que

estão sendo constantemente monitoradas, são canais importantes

onde o consumidor consegue chegar às empresas.

A maior dificuldade para o funcionário é conciliar a participação

nas mídias sociais de caráter pessoal com o uso no âmbito

empresarial, ou seja, o funcionário pode usar o twitter e o

facebook para falar de assuntos da empresa e de assuntos

pessoais? Ou deve usar o facebook para uso pessoal e o twitter

para uso profissional? Não existe uma regra e fica a cargo do

funcionário decidir sobre isso.

Bom, uma coisa é certa, agora eu posso twittar sem que meu

chefe me olhe atravessado, não é? Vamos twittar então?

Para saber mais:

http://bit.ly/15wuLf7

http://bit.ly/17t1jLS

90

Technology leadership council Brazil

o novo consumidor

Ricardo Kubo

Tenho observado meus filhos e eles já não assistem televisão da

mesma forma que eu fazia. Hoje, eles veem o que querem, na hora

e quantas vezes quiserem, na Internet. Se eu já demandava um

atendimento personalizado, que tipo de consumidor serão eles?

Esse novo cliente tem a expectativa de que o varejista o atenda

de forma única e sem compromisso de fidelidade. Recentemente,

vivi uma experiência memorável no interior de São Paulo, no

qual o processo de compra funcionava com a antiga caderneta.

Recebi um atendimento personalizado, desde o cumprimento

caloroso até o pagamento “fiado” sem nenhuma burocracia. No

entanto, ao voltar para a “cidade grande”, passo a valorizar a

conveniência e outros atributos importantes como a velocidade de

compra e a entrega, fazendo com que eu prefira a compra online.

Em uma experiência anterior, trabalhando em uma start-up de

negócios na Internet, foi possível operarmos “no azul”, mesmo

com o estouro da bolha da NASDAQ em 2001. A sustentação

se deu através de uma empresa tradicional que ali ingressava

no mundo virtual, formando o que, no jargão da época, era

conhecido como Bricks and Clicks.

Atualmente a competitividade no comércio eletrônico corrói

valores como serviços e ambientação, oferecidos nas lojas

tradicionais. A recuperação desses valores, aproveitando as

sinergias com o mundo digital, é um dos maiores desafios

enfrentados pelos grandes varejistas.

Em 2011, a TESCO, terceira maior varejista do mundo, alavancou

as compras online a partir da utilização de gôndolas virtuais nos

metrôs da Coréia. A Anthon Berg foi bem sucedida ao inaugurar

suas lojas explorando o engajamento de seus consumidores

via mídia social. Essa sinergia do mundo real e virtual pode

ser uma alternativa a se explorar, para compensar as baixas

margens de lucro do comércio eletrônico. E isso também vale

para a indústria, que já começa a criar iniciativas conjuntas e

interdependentes no mundo real e virtual.

Muitas marcas investem em lojas-conceito para gerar uma

experiência de compra personalizada ao explorar visão, olfato

e até emoções, com o propósito de fidelizar o consumidor,

levando também em conta os fatores relacionados à diferença

de gerações e suas respectivas propensões de compra.

Com o aumento da escala, o atendimento personalizado acaba

por recorrer a soluções de tecnologia para melhorar a experiência

do consumidor. Essas soluções podem ajudar a identificar,

interagir e personalizar o atendimento aos novos consumidores.

Para munir essas soluções de informações relevantes, tecnologias

como reconhecimento biométrico, plataformas de comércio

eletrônico, campanhas digitais (aproveitando ou não as mídias

sociais) e sistemas de retaguarda, são todos grandes coletores

de dados que podem ser analisados para se entender o

comportamento do indivíduo em relação aos diversos pontos

de contato que uma marca disponibiliza.

Ainda nesse contexto observamos a entrada de uma nova variável,

a computação cognitiva, provável diferencial na capacidade de

“digestão” dessa explosão de dados. Finalmente, há também o

impacto da mobilidade, com dispositivos como smartphones

servindo como canal de interação e deixando rastros digitais

valiosíssimos, como a localização em tempo real. Esse canal dá

ainda mais poder ao consumidor, que pode visitar fisicamente

uma loja ao mesmo tempo que compara preços de outras lojas

para negociar e até efetivar uma compra em um concorrente a

partir de seu smartphone. Isso gera impactos diretos no modelo

de negócios, precificação, promoções e níveis de serviços, que

muitas vezes apresentam diferenças entre canais digitais, lojas

físicas ou call-centers.

De fato, o consumidor está onipresente e as futuras gerações

serão cada vez mais instrumentadas, informadas e imediatistas.

Se notarmos como nossos pais faziam compras e como nós

fazemos hoje, notamos quantos hábitos novos já adotamos

em tão pouco tempo. Quem está preparado para atender esse

novo consumidor?

Para saber mais:

http://en.wikipedia.org/wiki/Bricks_and_clicks

https://www.youtube.com/watch?v=nJVoYsBym88

https://www.youtube.com/watch?v=_cNfX3tJonw

91

Technology leadership council Brazil Technology leadership council Brazil

Transformando riscos em oporTunidades de negócio

Alfredo C. Saad

O conceito de risco surgiu na transição da

Idade Média para a Moderna, ao longo

dos séculos XVI e XVII. Até então, apesar

do notável avanço já alcançado em outras

áreas do conhecimento humano, ninguém

ousava desafiar o desígnio dos deuses, que

pareciam determinar os eventos futuros. Esse

fato fazia com que os eventos observados

fossem simplesmente associados à boa ou

má sorte. Uma arraigada visão fatalista impedia que sequer

fosse imaginada a possibilidade de ações que aumentassem a

probabilidade de ocorrência de eventos favoráveis ou diminuíssem

a probabilidade de ocorrência de eventos desfavoráveis.

Os ares inovadores trazidos pelo Renascimento fizeram com

que os pensadores da época desafiassem esse temor do futuro,

levando-os a desenvolver e aperfeiçoar métodos quantitativos

que antecipavam variados cenários futuros em contraposição

ao cenário único imposto pelo destino. Um dos primeiros marcos

foi a solução, por Pascal e Fermat, em 1654, acerca do enigma

da divisão de apostas de um jogo de azar. Surgiram então os

primeiros fundamentos da Teoria das Probabilidades, básicos

para o conceito de risco.

A partir daí, a recém criada perspectiva fez surgir, ao longo do

século XVIII, inúmeras aplicações em distintas áreas, tais como

cálculos de expectativa de vida das populações e até mesmo o

aperfeiçoamento do cálculo de seguros para as viagens marítimas.

A evolução permanente dos métodos quantitativos trouxe, já na

Idade Contemporânea, essas aplicações ao mundo corporativo.

Textos escritos por Knight em 1921 (Risco, Incerteza e Lucro) e

Kolmogorov em 1933 (Fundamentos da Teoria das Probabilidades),

assim como a Teoria dos Jogos, elaborada por von Neumann

em 1926 são bases para a evolução contemporânea do tema.

Dentre as áreas abordadas desde então, podem ser citadas as

decisões relativas à fusão e aquisição de empresas, as decisões

de investimento e os estudos macro-econômicos.

A evolução da disciplina de gestão de riscos permitiu identificar

quatro diferentes formas de reagir a um risco, a saber: aceitar,

transferir, mitigar ou evitar o risco. Há, entretanto, uma quinta

forma, inovadora, de reação: a de transformar o risco em uma

oportunidade de negócio.

Um exemplo de aplicação desse conceito

pode ser visto em contratos de terceirização

de serviços de TI. Tipicamente, o cliente

contrata o provedor de serviços para operar

o ambiente de TI de sua organização com

níveis de qualidade pré-definidos em

contrato, os quais garantem que eventuais

falhas não impactarão significativamente

os negócios do cliente.

Nesse cenário, é parte relevante da atividade do provedor de

serviços o continuado esforço para identificação e tratamento

das vulnerabilidades no ambiente de TI operado e que possam

vir a afetar as atividades do cliente.

Sabe-se que cultivar no cliente a percepção de que o provedor

atua proativamente na identificação dos potenciais fatores de

riscos aos seus negócios aumenta significativamente a sua

predisposição em contratar novos serviços.

Mais ainda, o tratamento indicado para vulnerabilidades

identificadas, muitas vezes, requer a tomada de ações que se

encontram fora do escopo de serviços contratado.

Esse cenário caracteriza a quinta forma para reagir a um risco

identificado: a geração de uma nova oportunidade de negócio,

que pode ser viabilizada pela ampliação do escopo dos serviços

contratados, com a finalidade de eliminar ou ao menos mitigar

fatores que colocam os negócios do cliente em risco.

O exercício permanente dessa conduta proativa do provedor

consolida, na percepção do cliente, a ideia de que o provedor

é capaz de gerar um valor agregado relevante, que é o de

assegurar que seus próprios negócios estão protegidos por uma

efetiva gestão dos riscos de TI. Tal valor agregado extrapola

largamente os limites comerciais estritos do contrato firmado,

criando vínculos de confiança mútua valiosos para ambas as

partes e que poderão gerar ações de parceria em áreas não

exploradas nem vislumbradas anteriormente.

Para saber mais:

Six keys to effective reputational and IT Risk Management

The convergence of reputational risk and IT outsourcing

Bernstein, Peter L. – Against the Gods: The Remarkable Story of Risk, John Wiley & Sons Inc, 1996

92

Technology leadership council Brazil

qos em redes de acesso em Banda larga

Mariana Piquet Dias

A demanda por banda larga tem aumentado significativamente

devido a diversas aplicações que são transportadas sobre a

Internet, tais como televisão (IPTV), voz (VoIP), vídeo sob demanda

(VoD), vídeoconferência e jogos interativos. Nessas aplicações

milhares de usuários competem pelos mesmos recursos da rede

de acesso de banda larga, o que pode degradar o desempenho

dos serviços contratados. Quem nunca teve a experiência de

um vídeo interrompido por lentidão na rede ou ruídos excessivos

ao fazer chamadas de VoIP?

Por essa razão os provedores de banda larga precisam garantir

níveis adequados de qualidade de serviço (QoS) na rede para

atender aos requisitos dos usuários e suas aplicações. Uma

política adequada de QoS permitirá classificar e priorizar os

tráfegos de acordo com seus requisitos.

Esse cenário traz um grande desafio para as operadoras

de telecomunicações, pois a política de QoS precisa ser

implantada de ponta a ponta sobre redes complexas que

usam várias tecnologias de acesso em banda larga como

ADSL (uso da rede de telefonia), DOCSIS (uso da TV a cabo)

e GPON (rede de fibra óptica), além das tecnologias móveis

Wi-Fi e 3G/4G.

Para criar essa política é necessário um bom entendimento

sobre os principais parâmetros de QoS: disponibilidade da

rede, largura de banda, latência e jitter.

A disponibilidade tem sua importância porque interrupções

de rede, mesmo de curta duração, podem comprometer o

desempenho das aplicações.

Largura de banda é outro parâmetro importante que afeta

o planejamento de QoS. Muitas redes operam sem controle

da largura de banda, permitindo que certas aplicações

superutilizem o meio e comprometam o fornecimento de banda

para outros serviços.

A latência, ou atraso da rede, é o tempo que um pacote de dados

demora para transitar entre a origem e o destino. O jitter é a

variação desse atraso. Quando a latência ou o jitter são muito

grandes, diversos danos podem ser causados a aplicações de

tempo real como voz e vídeo.

Na elaboração de uma política de QoS, esses parâmetros devem

ser planejados de ponta a ponta na rede analisando todo o

caminho desde o usuário até o provedor do serviço. Também

é necessário conhecer bem os requisitos de cada aplicação e

dos usuários. No entanto, o dinamismo do mercado mostra que

esses requisitos têm se transformado rapidamente com o tempo.

Portanto é necessário implementar soluções de monitoração e

análise de rede para identificar mudanças no comportamento

do tráfego de maneira a ajustar o planejamento de QoS.

Algumas características e funções dessas soluções são

importantes na gestão da experiência do usuário, como gráficos

de tráfego em tempo real, suporte para modelagem de tráfego

ou limitação de velocidade, bloqueio de sites e filtragem de

conteúdo. Essas soluções permitem visualizar e analisar o

tráfego, suportando a operadora na criação de políticas de

QoS mais eficazes.

Com esse ciclo de monitoração e planejamento é possível ter

um plano efetivo de QoS que habilita as redes de banda larga

a suportar os serviços atuais e futuros. Isso traz uma grande

oportunidade para soluções que incluem serviços de monitoração

e ferramentas analíticas que levarão as operadoras a investir

em redes mais eficientes e na oferta de acesso de banda larga

de melhor qualidade.

Para saber mais:

http://tinyurl.com/lmmfy6d

http://en.wikipedia.org/wiki/Quality_of_service

http://en.wikipedia.org/wiki/Network_traffic_measurement

https://ibm.biz/BdDGFH

93

Technology leadership council Brazil Technology leadership council Brazil

as máquinas senTem?Samir Nassif Palma

Alguns filmes futuristas ou de ficção científica nos mostram

máquinas que aprendem e assumem o comando do mundo.

Ou ainda, robôs que tem sentimentos, se consideram humanos

e desejam assim se tornar um de nós. Afinal, será possível

que máquinas tenham sentimentos? Poderiam tomar decisões?

Nossos avós com certeza responderiam que não, mas a realidade

nos apresenta algo diferente.

De forma similar às pessoas, as máquinas possuem sistemas

internos funcionais responsáveis pela execução de suas ações

e tarefas. No entanto, esses sistemas são criados, codificados,

testados e implementados por pessoas. As funções dos sistemas,

definidas de acordo com seu propósito, visam atender a um

objetivo final para o qual a máquina foi projetada.

Já vimos algumas máquinas alcançarem objetivos antes

impensáveis, como derrotar um campeão de xadrez, ou mesmo

vencer um concurso de perguntas e respostas. Além disso,

existem aquelas que projetam a previsão do tempo, prospectam

a localização de óleo no fundo do mar ou traçam a melhor rota

de percurso entre dois endereços. São máquinas com sistemas

internos especializados, que analisam dados e tomam decisões.

Portanto, já temos resposta de uma das perguntas colocadas

no início desse texto. E quanto aos sentimentos?

O verbo sentir nos remete à experiência, à percepção, à emoção

e ao juízo de valor. Sentir algo bom ou ruim pode ser traduzido

em positivo ou negativo. Há ainda a indiferença, ou seja, o valor

neutro do sentimento. Essa também é uma forma usada para

estruturar a abordagem de sentimentos em máquinas. Dado

um cenário e condições a que seu sistema é submetido, há o

processamento para apresentação de uma resposta: positiva,

negativa ou neutra.

Mas qual seria o objetivo de termos máquinas e sistemas que lidam

com sentimentos? Uma resposta seria a tentativa de modelar o

comportamento humano de maneira a prever sua próxima ação.

Empresas já mostram interesse em análise de sentimentos

buscando tomar ações mais assertivas para aumentar suas

vendas ou evitar a perda de clientes. A pesquisa gira em torno de

reputação e comportamento de clientes durante o lançamento

ou consumo de produtos e serviços. Por exemplo, como avaliar

a percepção ou sentimento do público-alvo na veiculação de

campanhas de marketing e qual o retorno gerado?

Uma alternativa que vem sendo utilizada atualmente é a

interpretação de comentários em redes sociais, ou em websites,

com o uso de técnicas de mineração de textos (ou text mining).

Entretanto, a análise de sentimentos em textos é uma tarefa

extremamente desafiadora. Expressões com gírias, vícios

de linguagem, objetos ocultos, abreviações e o contexto são

exemplos de dificuldades. A boa notícia é que muita coisa

já é possível. O processo cognitivo é similar ao utilizado na

educação de crianças. Requer muita orientação, método

(estrutura e processo) e prática (treinamento e experiência).

Dessa forma a máquina aprende a coletar, interpretar e até

sentir o que está oculto.

Por ser uma tarefa de tradução da linguagem humana para a

de máquina, a análise léxica para julgamento de sentimento

é totalmente orientada ao contexto e ao objeto que se deseja

avaliar. A técnica de análise de um produto, por exemplo,

é diferente da análise de uma pessoa (um artista ou um

político em campanha eleitoral), assim como analisar times

esportivos é diferente de analisar a imagem ou a reputação

de organizações.

A interpretação de textos é apenas um caso de uso para a

análise de sentimentos. Há outras técnicas e modelos, como

a combinação de eventos, que também são utilizados.

Enfim, voltando a pergunta-título, podemos sim afirmar que as

máquinas sentem. Basta ensinar e treinar seus sistemas internos

funcionais. Mas pode ficar tranquilo, pois ainda não há nada

que possa nos levar a um fim catastrófico como os de alguns

filmes de ficção científica.

Para saber mais:

IBM Analytics Conversations

Techniques and Applications for Sentiment Analysis - ACM

Creating a Sentiment Analysis Model – Google Developers

Introduction to Sentiment Analysis - LCT

94

Technology leadership council Brazil

alinhando Ta e TiMarcelo de França Costa

Automação pode ser entendida como o uso de máquinas e

sistemas de controle para aperfeiçoar a produção de bens ou

a prestação de serviços. Esse conjunto de hardware e software,

chamado Tecnologia de Automação (TA), é aplicado com objetivos

que incluem aumentar a produtividade e a qualidade, reduzir o

número de falhas e a emissão de resíduos, obter economia de

escala e melhorar as condições de segurança. A TA é o passo

além da mecanização, que diminui a necessidade de intervenção

humana nos processos.

Um dos exemplos de emprego da

TA está nas chamadas Smart Grids,

redes de energia inteligentes que

buscam melhorar a distribuição de

energia por meio de medidores

de qualidade e de consumo em

tempo real, os chamados smart

meters. Assim, a residência do

cliente é capaz de “conversar”

com a companhia distribuidora,

avisando por exemplo sobre um

problema de energia antes mesmo

do cliente pegar o telefone para reclamar.

Observando a Smart Grid, verificamos que se trata de uma

solução que também faz uso da Tecnologia da Informação (TI),

bem como das telecomunicações, para obter informações e

agir de forma automatizada, de acordo com o comportamento

de fornecedores e consumidores.

Ao analisar a TA no mundo corporativo, num contexto mais

estratégico, dada sua proximidade tecnológica com a TI, seria

natural pensarmos em ambas quanto à definição de processos

e objetivos da governança de TI. Essa subárea da governança

corporativa é responsável pela coordenação dos departamentos

de tecnologia e pelo alinhamento de seus processos, de forma a

garantir que suportem a estratégia corporativa e contribuam para

que a organização atinja seus objetivos de negócio. Espera-se,

com a governança de TI, alcançar benefícios como o alinhamento

às boas práticas e padrões internacionais, facilitar auditorias,

simplificar o gerenciamento e obter transparência na atuação

das áreas, além de racionalizar investimentos ao permitir uma

visão mais clara do retorno esperado.

A proposta é que a governança de TI seja estendida à área de

TA, de forma que engenheiros de automação, por exemplo, não

executem seu trabalho alheios ao contexto global da empresa,

mas sim dentro de uma filosofia da área de TA, alinhada ao

planejamento corporativo. Uma boa forma de se fazer isso

seria tomar como base modelos de referência consagrados,

tais como CMMI, COBIT, ISO e ITIL.

A integração entre sistemas de automação e controle de processos

(TA) e sistemas corporativos (TI) é um requisito antigo. Um dos

modelos de referência mais citados na área de TA é o ISA-95

(ver figura), padrão internacional criado pela ISA (International

Society of Automation), usado para

se determinar quais informações

devem ser trocadas entre os

sistemas de produção, manutenção

e qualidade com os de back office

como compras, finanças e logística.

Os sistemas corporativos, como

por exemplo os ERP (Enterprise

Resource Planning), usualmente

não são projetados para conversar

diretamente com os sistemas

de “chão de fábrica”. Atuando

como intermediários entre esses

dois mundos estão os sistemas PIMS (Process Information

Management System) e MES (Manufacturing Execution Systems),

presentes no nível 3 do modelo da ISA. Esses sistemas controlam

a produção, coletam os dados da planta industrial por meio de

subsistemas de nível 2 como o SCADA (Supervisory Control And

Data Acquisition), organizando, armazenando e disponibilizando-

os para aplicações do nível 4, responsáveis pelo planejamento

da produção.

Ao se buscar o alinhamento entre TA e TI e a integração entre

seus sistemas, uma especial atenção deve ser dada às redes de

comunicação de dados, que devem ser segregadas e protegidas.

Falhas de segurança em redes e sistemas de TA, especialmente

os que controlam instalações industriais, tais como hidrelétricas,

caldeiras e reatores nucleares, podem resultar não só em prejuízos

financeiros mas em desastres de grandes proporções.

Quando prevalece a sinergia entre TA e TI, quem ganha é a

empresa. A TA tem muita informação a oferecer para a TI, bem

como a TI tem muito aprendizado e boas práticas que podem

contribuir com os projetos de TA.

Para saber mais:

http://www.isa-95.com/

http://www.isa.org

95

Technology leadership council Brazil Technology leadership council Brazil

o “vale do grafeno” e a revolução Tecnológica

Carlos Alberto Alves Matias

O grafeno é uma camada plana

de átomos de carbono, da família

do grafite e diamante, com padrão

hexagonal, possuindo várias pro-

priedades muito interessantes:

resistente, leve, flexível, quase

transparente, e como excelente

condutor poderá substituir o silício na

produção de alguns equipamentos

eletrônicos, tornando-os mais rápi-

dos, compactos e eficientes. As

aplicações do grafeno parecem

infinitas: nanotecnologia, acesso

mais veloz à Internet, baterias mais duráveis e recarregáveis

em poucos minutos, além de filtros de água mais eficientes,

cimentos mais resistentes, motores mais econômicos e menos

poluentes. Tudo com matéria-prima de baixo custo.

Descoberto na década de 30, o grafeno teve pouca atenção até

que os cientistas russos Konstantin Novoselov e Andre Geim

conseguiram isolar o material à temperatura ambiente, merecendo

o prêmio nobel de física em 2010.

Diante dessas tão incríveis propriedades do grafeno, laboratórios

ao redor do mundo estão recebendo altos valores para que os

cientistas possam fazer suas pesquisas no desenvolvimento

de novas e importantes aplicações.

A Comissão Européia destinará um bilhão de Euros para apoiar

projetos pioneiros na próxima década. Nos EUA e em outros

países não será diferente. Construído numa área de 6.500 m2 na

Universidade Mackenzie, em São Paulo, o centro de pesquisas

Mackgrafe, terá investimento aproximado de R$ 30 milhões e

deverá ser inaugurado em maio de 2014.

Atualmente, 1 Kg de grafite custa US$ 1 e dele pode-se extrair

150g de grafeno, avaliado em pelo menos US$ 15 mil, uma

fantástica valorização! Prevê-se que o mercado de grafeno

terá potencial para atingir até US$ 1 trilhão em 10 anos. E o

melhor, estima-se que o Brasil possua a maior reserva mundial,

segundo relatório publicado em 2012 pelo DNPM (Departamento

Nacional de Produção Mineral).

O grafeno já é utilizado para fabricar eletrodos de baterias,

telas táteis, dispositivos de eletrônica digital e compostos para

a indústria aeronáutica. Porém, especialistas afirmam que o

melhor ainda está por vir.

Um novo tipo de cabo de transmissão

de dados poderá deixar a Internet

ultraveloz. Segundo pesquisa

publicada pela revista Nature

Communication, a ideia é aproveitar

toda a velocidade alcançada pelos

elétrons no grafeno. Por outro lado,

cientistas da Berkeley University

pensam que o segredo da rapidez

não esteja nos cabos, mas sim nos

moduladores de rede – equipamentos

responsáveis por gerenciar o envio

dos pacotes de dados na Internet.

Purificar a água salgada, transformando-a em potável e com baixo

custo, poderia ajudar áreas secas, como o nordeste brasileiro.

O processo, criado por pesquisadores do Massachusetts

Institute of Technology (MIT), consiste em passar a água do

mar por um filtro extremamente fino de grafeno, retendo todas

as impurezas nela contidas, podendo eliminar até materiais

radioativos, o que poderia reduzir contaminações como as

ocorridas recentemente em Fukushima.

Na University of California, um aluno descobriu, casualmente, que

ao submeter um disco de grafeno a uma carga elétrica por apenas

dois segundos, um LED se manteve aceso por cinco minutos.

Engenheiros da Stanford University, substituíram o carbono

por grafeno numa nova bateria, cuja recarga se completou em

poucos minutos, cerca de mil vezes mais rápido.

O grafeno possui 200 vezes mais mobilidade de elétrons do

que o silício, o que pode permitir a produção de processadores

mais potentes, com até 300 GHz de frequência. E o monóxido

de grafeno tem a múltipla versatilidade de ser isolante, condutor

e semicondutor, podendo ser muito útil em nanochips.

Já imaginou um celular no formato de uma pulseira? Sim, isto

poderá ser possível graças à flexibilidade do grafeno. Muitas

empresas já registraram diversas patentes relacionadas ao

promissor cristal revolucionário e as pesquisas avançam a cada

nova descoberta.

O futuro ao grafeno pertence e vai mudar a nossa vida!

Para saber mais:

https://ibm.biz/BdDNb4

https://ibm.biz/BdDNbs

https://ibm.biz/BdDNbi

96

Technology leadership council Brazil

o Tempo não para, mas pode ser melhor aproveiTado...Antônio Gaspar, Hélvio Homem, José C. Milano, José Reguera, Kiran Mantripragada,

Marcelo Sávio, Sergio Varga e Wilson E. Cruz.

Para muitas pessoas com mais de 35 anos, Ayrton Senna

“morreu ontem”. É como se desse para fechar os olhos e viver

de novo a sensação de ligar a TV no domingo pela manhã e vê-

lo vencendo mais uma. Ayrton faleceu em 1o de maio de 1994.

O surpreendente é que a World Wide Web e seus browsers

começaram a se popularizar em 1995, ou seja, logo depois disso.

Mas poucos são capazes de se lembrar claramente como era

a vida sem Internet. Qual a causa desse estranho paradoxo?

O psicólogo israelense Daniel Kahneman introduziu insights

da área dele na ciência econômica, especialmente no que diz

respeito a avaliação e tomada de decisão sob incerteza. Ele

afirmou que teríamos dois sistemas em nossos cérebros. Um

lento, que envolve atenção e foco, que usamos nas atividades

em que temos consciência e controle. E outro, extremamente

rápido, independente e incontrolável, péssimo em estatísticas

mas ótimo em gerar decisões rápidas por comparação. Por esse

trabalho Kahneman recebeu em 2002 o Prêmio do Banco da

Suécia em Ciências Econômicas em memória de Alfred Nobel

(comumente e erroneamente chamado de Prêmio Nobel da

Economia). Será que a nossa sensação de passagem de tempo

tem a ver com esses sistemas descritos pelo aclamado cientista?

Aparentemente sim e também há sinais de que essa percepção

varia de pessoa para pessoa. O relógio interno seria uma medida

pessoal e dependente de algum referencial, isto é, duas pessoas

no mesmo lugar e executando as mesmas atividades podem

ter a percepção de que o tempo passou mais rápido para uma

do que para outra. Isso acontece, entre outras coisas, porque

cada um grava os fatos em um nível de intensidade diferente,

dependendo de sua relação pessoal com os acontecimentos.

Uma frase de Einstein pode dar mais luz a esse fenômeno: “Quando

um homem senta com uma garota bonita por uma hora, lhe parece

um minuto. Mas quando senta numa chapa quente por um minuto,

lhe parece uma hora”. A isso ele chamou de relatividade, uma

ideia brilhante que nos aponta para um tempo experiencial, que

passa mais rápido ou devagar dependendo de como se encara

uma determinada experiência. Ou seja, temos duas variáveis

que, combinadas, nos dão uma pista sobre a percepção de

tempo. A primeira variável é o que está passando na frente de

nossos sentidos (os fatos, a chapa quente) e a segunda é como

encaramos ou respondemos a esses fatos, ou seja, a frequência,

a intensidade e a maneira particular como cada um monta as

conexões cerebrais (ou sinapses) em resposta ao que se passou.

Isso talvez nos conduza a um método para tentar reagir à sensação

desagradável de tempo passando cada vez mais rápido: basta

escolher a própria vida (os fatos) e mergulhar nela com especial

atenção em cada momento, tornando-o inédito e digno de muitas

conexões cerebrais, saboreando-o como se fosse sempre pela

primeira vez (ou como se fosse o último). O método automático

é, sem dúvida, mais confortável mas nos rouba a capacidade

de viver plenamente os momentos e torná-los inesquecíveis.

Também cria aquela sensação de tempo perdido, do eterno

correr atrás do sol que se põe, muito bem retratada na música

Time do Pink Floyd. E para ajudar na tarefa de melhor aproveitar

o tempo, vale a pena lembrar de outra música, Seasons of Love

do musical da Broadway Rent, que nos sugere medir um ano

não somente por seus 525.600 minutos, mas sobretudo pelas

boas experiências vividas durante esse tempo, seja no trabalho,

em casa ou na comunidade em que vivemos.

É comum imaginar o tempo como algo contínuo, infinito e talvez

até cíclico. Ao menos, foi assim que Stephen Hawking procurou

descrever a forma do tempo ao representá-lo usando um “Corpo

de Moebius”. A questão intrigante nessa topologia é que não

existe lado de dentro nem lado de fora, não existe um começo

nem um fim, mas sempre estamos percorrendo o mesmo espaço.

Em seu livro "O Universo numa Casca de Noz", Hawking afirma

que a maioria de nós quase nunca presta atenção à passagem

do tempo, mas todos de vez em quando se intrigam com o

conceito de tempo e seus paradoxos.

E cá estamos nós, do comitê editorial do TLC-BR, após duzentas

quinzenas. Será que passou muito ou pouco tempo? Ao olharmos

para o Mini Paper número 1, há quatrocentas semanas (pouco

mais de quatro milhões de minutos), ainda podemos lembrar do

momento de sua criação e também das muitas aventuras que

saboreamos no percurso de sua publicação. As chapas quentes

existiram, mas os bons papos com autores, revisores, leitores e

até críticos, gravaram milhões de conexões inesquecíveis em

nossos cérebros. Cada Mini Paper foi único, mas em comum

nos deixaram com gosto de quero mais. Queremos novos temas,

autores, experiências e sinapses que nos permitam aproveitar os

momentos de sua criação e publicação, assim como esperamos

que lhe proporcionem momentos proveitosos de leitura. Que

venham mais duzentos Mini Papers!

Para saber mais:

Corpo de Moebius: http://en.wikipedia.org/wiki/M%C3%B6bius_strip

Daniel Kahneman: http://en.wikipedia.org/wiki/Daniel_Kahneman

Stephen Hawking: http://en.wikipedia.org/wiki/Stephen_Hawking

97

Technology leadership council Brazil Technology leadership council Brazil

onTologias e a weB semânTica

Fábio Cossini

Apesar de desconhecidas para a maioria das pessoas e

profissionais de TI, as ontologias têm sua origem na Grécia

antiga, tendo sido utilizadas por filósofos como Aristóteles e

Porfírio. Com sua evolução, hoje estão presentes em diversas

áreas do conhecimento humano e, em TI, em aplicações para

inteligência artificial, gestão do conhecimento, processamento

de linguagem natural e engenharia de software. Então, o que

vem a ser uma ontologia e como ela é peça fundamental na

construção da Web Semântica?

Há várias definições para ontologia, mas

uma das mais encontradas é a de Tom

Gruber: “Ontologia é uma especificação

formal e explícita de uma conceitualização

compartilhada”. O World Wide Web

Consortium (W3C), por sua vez, conceitua

uma ontologia como “a definição dos termos

utilizados na descrição e na representação

de uma área do conhecimento”. Por exemplo,

uma ontologia sobre os padrões da Internet

das Coisas (área de conhecimento)

descreveria esses padrões (objetos), seus

atributos (termos) e os relacionamentos

encontrados entre eles.

As ontologias podem ser consideradas como

um dos níveis mais altos de expressividade do conhecimento,

pois englobam as características presentes em vocabulários,

glossários, taxonomias e frames, além de permitir a expressão

de restrições de valores (por exemplo, o conjunto único de

valores para representar as unidades da federação no Brasil) e

restrições de lógica de primeira ordem (um CPF está associado

a uma e somente uma pessoa física), além de outras restrições.

Por sua vez, a Web Semântica é definida pelo W3C como

o próximo grande objetivo da Web, que permitará que

computadores executem serviços mais úteis por meio de

sistemas que ofereçam relacionamentos mais inteligentes. Em

outras palavras, a Web passará de páginas com conteúdo

para páginas com significado (semântica). Tente fazer uma

pesquisa com a palavra “limão” e você terá resultados que

vão desde a definição de uma fruta cítrica até restaurantes e

um conhecido bairro paulistano.

Só você, visualmente, conseguirá separar aquilo que realmente

lhe interessa daquilo que está fora do seu contexto de pesquisa.

As bases da Web Semântica serão as ontologias, que permitirão

dar significado às páginas de conteúdo além de relacioná-las

entre si. Os computadores poderão executar queries por meio

de agentes para encontrar de forma mais rápida e precisa o

conjunto de informações desejadas, além de proporcionar a

possibilidade de inferência sobre elas e seus relacionamentos.

Para dar significado a Web tradicional

baseada em páginas de conteúdo estático

(HTML), faz-se necessário que elas venham

acompanhadas de outras tecnologias. O

Resource Description Framework (RDF),

o Resource Descripiton Framework

Schema (RDF-S) ou o Simple Knowledge

Organization System Reference (SKOS)

são linguagens usadas para descrever o

conteúdo de uma página. Conjugadas com

linguagens ontológicas como a Ontology Web

Language (OWL), entre outras, trazem à tona

conhecimento estruturado permitindo o uso

de agentes para busca e inferência.

Apesar dos benefícios da Web Semântica,

alguns obstáculos ainda estão presentes para

sua completa adoção. Paradoxalmente, há pouco conteúdo

semântico, tornando difícil sua própria evolução. A integração de

diferentes idiomas adiciona esforços de codificação para que o

mesmo conteúdo seja interpretado por ontologias escritas para

outros idiomas. E, acima de tudo, nenhuma linguagem ontológica

é comumente aceita como a ideal para a Web Semântica, além

de não serem totalmente padronizadas entre si, tornando mais

difícil sua integração.

Dessa forma, ainda há um esforço de padronização e adoção

antes de colhermos os frutos que o significado e a automação

de busca trarão sobre a Web Semântica.

Para saber mais:

Web Semântica: A Internet do Futuro. Karin K. Breitman.

Semantic Web for the Working Ontologist: Effective Modeling in RDFS and OWL. D. Allemang e J. Hendler.

Six Challenges for the Semantic Web. Oscar Corcho et Al.

98

Technology leadership council Brazil

cusTomização em massa: oBTendo uma vanTagem compeTiTiva

Claudio Marcos Vigna

Cada vez mais as empresas têm repensado suas formas de

fazer negócios. É nesse contexto, em que buscam diferenciais

para obter vantagens competitivas, que muitas têm adotado a

estratégia da customização em massa (CM).

A proposta da CM é oferecer produtos únicos numa escala de

produção agregada comparável à da produção em massa e a

custos relativamente baixos. Para tanto, a CM exige da empresa

que a adota, agilidade e flexibilidade em atender diferentes

pedidos em diferentes quantidades a custos comparáveis aos

de produtos padronizados e com alto padrão de qualidade.

A palavra customização advém do inglês customization, que por

sua vez deriva da palavra customer, que em português significa

cliente. Não existe uma tradução para o termo customization

e dessa forma, por falta de uma tradução adequada, esse

termo foi aportuguesado como customização, que segundo B.

Joseph Pine II, pode ser entendido como o atendimento dos

anseios específicos de cada cliente ou até a personalização

em massa de produtos.

No Brasil existem algumas iniciativas embrionárias em direção

à CM. Podemos citar como exemplos, uma empresa de

eletrodomésticos que permite a seus clientes personalizarem

geladeiras e fogões, e empresas automobilísticas que já permitem

customizar alguns componentes direto da fábrica.

Ter a capacidade de atender o cliente com produtos customizados

é o desejo de muitas empresas, pois tal iniciativa cortaria custos

relativos a estoques e aumentaria a satisfação do cliente que

adquiriu o produto customizado. Mas, para isso, as empresas

devem vencer os obstáculos decorrentes da sua adoção.

A capacitação em CM requer excelência de desempenho

nas áreas funcionais de toda a cadeia de valor envolvida na

operação. Segundo modelo de Claudio Vigna e Dario Miyake,

a capacitação pode ser obtida pelo desenvolvimento de

competências funcionais, que por sua vez são sustentadas

por recursos organizacionais e técnicas operacionais em cinco

áreas consideradas críticas. Tais áreas e seus objetivos estão

descritas a seguir:

Planejamento do produto e processo: desenvolvimento de

produtos customizáveis que atendam às necessidades do cliente

e não comprometam a eficiência dos processos operacionais.

Um exemplo é o desenvolvimento de produtos modulares, tais

como uma plataforma de veículos para ser compartilhada entre

diferentes modelos.

Logística de abastecimento: melhoria do relação da empresa com

seus fornecedores para otimizar os processos. Ao adotar a troca

eletrônica de dados (EDI — Electronic Data Interchange), é possível

aplicar técnicas de inventário gerido pelo fornecedor (VMI — Vendor

Managed Inventory) para reposição contínua de produtos.

Operações internas: aumentar a flexibilidade e produtividade

das operações de produção e

logística interna, por exemplo,

adoção de sistemas flexíveis

de manufatura (FMS — Flexible

Manufacturing System), ou

robôs capazes de executar

diferentes atividades, confor-

me programa de produção.

Logística de distribuição:

possuir assertividade e agili-

dade nas operações da logís-

tica desde a expedição até a

entrega ao cliente, por exemplo, adoção de técnicas cross

docking e utilização de roteirizadores inteligentes.

Marketing e vendas: aumentar a interação com o cliente por meio

do aprimoramento dos canais de promoção e das operações

de captura de pedidos, por exemplo, adoção de soluções

inteligentes de e-commerce, de engines de monitoramento

de redes sociais e de data mining.

A aplicação da customização em massa pode ser benéfica para

as empresas, aumentando as receitas, o lucro e a participação de

mercado, mas sua adoção não é tão trivial. Apesar dos obstáculos,

executivos têm dedicado esforços para a sua implementação.

Para saber mais:

http://www.teses.usp.br/teses/disponiveis/3/3136/tde-27072007-160311/pt-br.php

http://en.wikipedia.org/wiki/Mass_customization

http://mass-customization.de/

99

Technology leadership council Brazil Technology leadership council Brazil

sofTware defined neTwork – o fuTuro das redes

Leônidas Vieira Lisboa e Sergio Varga

A recente evolução nos modelos de entrega de TI, com serviços

em nuvem, sistemas analíticos e desktops virtuais, intensifica

a demanda por uma infraestrutura de TI que seja simples,

escalável e flexível.

Para atender essas demandas, a indústria avançou no

desenvolvimento de tecnologias de virtualização de servidores e

storage, trazendo maior agilidade no aprovisionamento de recursos

em um data center. No entanto, esse avanço não foi acompanhado

pela indústria de rede. Alterações na camada de rede usualmente

requerem intervenções complexas

e com baixo grau de automação,

aumentando o prazo e o risco para

implementação de novos serviços.

Há pouca flexibilidade para absorver

mudanças de tráfego, impactando

o suporte a ambientes dinâmicos

como os requeridos pelo mercado.

Em grande parte, essa complexidade

reside no fato de que cada modelo

de equipamento de rede é projetado

para executar funções específicas.

Além disso, as funções de controle

e entrega de pacotes são realizadas

por cada dispositivo de forma

descentralizada. A camada de paco-

tes (ou dados) é responsável pelo

envio, filtragem, buffering e medição dos pacotes, enquanto a

de controle é responsável por mudanças na topologia da rede,

rotas e regras de envio.

Uma nova tecnologia foi desenvolvida para agilizar o

aprovisionamento de recursos de comunicação, facilitar a

administração e a operação e simplificar a infraestrutura de rede.

Ela tem sua base em três pilares. O primeiro é a separação das

camadas de controle (lógico) e de entrega de dados (físico) em

equipamentos distintos, o que permite controle centralizado. O

segundo é virtualização ou abstração da rede física, permitindo

designar o melhor caminho para cada tráfego, independente da

infraestrutura física. E o terceiro é a capacidade de programação

da rede, propiciando a automação da configuração da rede, ou

seja, sistemas externos podem automaticamente definir a melhor

configuração de rede para uma dada aplicação.

Essa tecnologia se chama Software Defined Network (SDN) e

promete trazer agilidade e flexibilidade em expansões e mudanças

de rede. Os switches de rede se tornam mais simples e menos

inteligentes pois todas funções do plano de controle são feitas por

uma camada externa centralizada, denominada SDN controller

que sai dos equipamentos de rede e passa a ser um software

executado em um servidor comum.

Para padronizar e promover o uso do SDN foi criada uma

organização chamada Open Network Forum (ONF) que é

liderada por empresas usuárias e que também conta com a

participação de fabricantes de equipamentos. Ela incentiva

a adoção do SDN por meio do desenvolvimento de padrões

abertos. Um dos resultados desse

trabalho foi o OpenFlow, um protocolo

que padroniza a comunicação entre

um SDN controller e o plano de dados

dos equipamentos de rede. Apesar de

ser o protocolo mais associado com

SDN, alguns fabricantes já começam

a empregar outros protocolos, como

BGP (Border Gateway Protocol) e

XMPP (Extensible Messaging and

Presence Protocol), para implementar

casos de uso de SDN em redes que

exigem maior escalabilidade, pois

ainda há discussões no mercado

sobre a capacidade máxima de

projetos SDN com base somente

em OpenFlow.

Outra iniciativa importante é a aliança Open Daylight, liderada

por fabricantes da indústria de redes e que propõe a criação de

uma estrutura robusta, sobre código aberto da Linux Foundation,

para construir e suportar uma solução SDN.

Hoje, essa tecnologia é mais aplicável para redes de data centers,

mas já existem iniciativas para utilizá-la no aprovisionamento de

serviços em redes de telecomunicações. O uso de SDN ainda

não se massificou mas seu desenvolvimento foi incorporado por

todos os principais fabricantes de rede. Também é interessante ver

que alguns ambientes de nuvem já estão testando e incorporando

características de SDN para obter ganhos de produtividade na

administração da rede e endereçar os desafios de eficiência

enfrentados atualmente.

Para saber mais:

https://www.opennetworking.org/

http://www.opendaylight.org/

https://www.opennetworking.org/sdn-resources/onf-specifications/openflow

100

Technology leadership council Brazil

uma visTa privilegiada do planeTa Terra

Kiran Mantripragada

Sensoriamento remoto não é um assunto assim tão novo. Na

verdade a Terra vem sendo fotografada de forma sistemática

por aeronaves desde o início da primeira guerra mundial com

o objetivo de mapeamento, reconhecimento e vigilância.

Hoje os sistemas embarcados em satélites estão mais baratos

e miniaturizados. A evolução nos sensores permitem maior

resolução espacial e espectral. Isso significa que um único

pixel da imagem pode capturar objetos com menos de um

metro quadrado na superfície da Terra, enquanto a análise

em diferentes faixas do espectro eletromagnético ou acústico

permite diferenciar características que antes eram impossíveis

de se fazer, por exemplo a identificação de espécies vegetais.

Desde a primeira guerra, a resolução

espacial variou de alguns quilômetros

por pixel até menos de um metro por

pixel enquanto a resolução espectral

permite hoje coletar imagens com mais

de duzentas bandas de frequência. Para

se ter uma ideia, as nossas câmeras

comuns fotografam somente as três

bandas do espectro visível, ou RGB

(Red, Green, Blue). Há ainda satélites

equipados com sensores tipo RADAR,

ou seja, que coletam ondas acústicas

em vez de eletromagnéticas.

Utilizando um princípio relativamente

simples, a reflexão de ondas, é possível fotografar o planeta Terra

de forma sistemática. Um sensor equipado em uma aeronave

(satélite, avião, ou até um balão) recebe diferentes valores de

intensidade para cada material que reflita o seu sinal. Por exemplo,

uma planta e o telhado de uma casa refletem um determinado

sinal eletromagnético com intensidades diferentes.

Graças à popularização dessa tecnologia, os estudos em

processamento de imagens de sensoriamento remoto vêm

ganhando muito destaque no meio acadêmico. Algumas

empresas também já exploram comercialmente esse tipo de

serviço e outras fornecem pesquisas sob demanda, normalmente

com aeronaves de altitudes mais baixas para atender um

propósito específico.

As aplicações são inúmeras: produção agropecuária,

monitoramento de florestas, análise e previsão meteorológica,

vigilância militar e civil, planejamento urbano, ocupações

irregulares, análise de correntes marítimas, análise de

biodiversidade vegetal e animal, medições e análises de corpos

d’água, indústria de petróleo e gás, previsão e monitoramento de

desastres naturais, controle de fronteiras, crescimento urbano,

planejamento de transporte, vias públicas, rodovias, ferrovias etc.

Esse avanço tecnológico que possibilitou tantas aplicações

trouxe também problemas bastante desafiadores. Os pixels

de uma única imagem são grandes quantidades de dados em

duas dimensões em tons de cinza. Associa-se a isso, imagens

com bilhões de pixels em centenas de faixas espectrais e temos,

então, matéria-prima para o famoso Big Data com dados na

casa do 100-dimensional.

Alguns dessses conjuntos de dados estão disponíveis gra-

tuitamente na Internet. Por exemplo, a

página Web Earth Explorer da NASA/

USGS (United States Geological Survey)

permite baixar imagens de qualquer parte

do mundo, desde meados de 1970 até

hoje ou até a última passagem do satélite

Landsat sobre o local de interesse.

Há também dados de diversos outros

satélites e de alguns produtos resultantes

de pós-processamento de imagens. Por

exemplo pode-se baixar um mapa com

índices de vegetação chamado NDVI

(Normalized Difference Vegetation Index).

Esse tipo de informação é muito usado

em agropecuária e mapeamento de florestas.

Assim, inicia-se uma disciplina dentro da computação cognitiva

que busca capturar informações relevantes a partir desse universo

de dados sensoriais. Algoritmos de machine learning precisam

lidar com enorme quantidade de pixels para interpretá-los e

transformá-los em informação consumível pelo ser humano.

A tecnologia que envolve o sensoriamento remoto é mais um

legado que ficou disponível para o mundo depois das guerras e

das corridas armamentista e espacial. Cabe então a cada um de

nós, cientista, empresário, professor, fazendeiro, gestor público ou

apenas um cidadão curioso, fazer uso desse conjunto fantástico

de dados, totalmente disponíveis, muitos deles sem nenhum

custo, para ajudar a observar, vigiar, preservar e transformar

o nosso planeta.

Para saber mais:

USGS Earth Explorer: http://earthexplorer.usgs.gov

What is Remote Sensing: http://oceanservice.noaa.gov/facts/remotesensing.html

101

Technology leadership council Brazil Technology leadership council Brazil

sorria, você pode esTar nas nuvens

Antônio Gaspar

O mundo está cada vez mais ins-

trumentado, interconectado e inteligente.

Essa frase abriu o artigo da pág. 64,

publicado pela série Mini Papers do

TLC-BR. Nesse contexto, falemos um

pouco sobre a evolução da câmeras de

CFTV (Circuito Fechado de TV) para uso

residencial. As câmeras de captação de

vídeo evoluíram a partir dos modelos

analógicos, chegaram aos digitais e hoje

são compatíveis com tecnologias de rede

local Wi-Fi. As chamadas câmeras IP

tornaram-se dispositivos inteligentes a

um custo acessível para uso doméstico. Uma câmera IP, além

de prover função básica de captura de imagem, inclui aplicação

e interface web que disponibiliza funções adicionais como

captação de som ambiente e movimento com envio de alertas

por email, SMS e redes sociais, visão noturna, configuração de

múltiplos perfis de acesso e horários de operação etc.

Em geral as câmeras possuem pouca ou nenhuma capacidade

de armazenamento de dados, ou seja, permitem visualização

em tempo real mas a gravação depende de serviços externos.

Então é necessário ter servidores de gravação (dispositivos

DVR — Digital Video Recorder) nas instalações vigiadas para

armazenar as imagens.

Sendo assim, um cidadão investe em algumas câmeras IP que

permitem monitoração 24x7 e grava no seu computador ou

DVR. Precavido que é, mitiga problemas de indisponibilidade

instalando nobreaks para as câmeras e o dispositivo de gravação.

Entretanto, há uma condição fora de seu controle e que deve ser

levada em consideração: e se o ambiente for invadido? O que

fazer se o dispositivo de gravação for subtraído e, junto dele,

todas as imagens? Aliás, isso é comum em eventos desse tipo.

A área de segurança eletrônica residencial esbarra em maneiras

de armazenar remotamente as imagens gravadas.

Bem, foi-se o tempo em que cada residência tinha um computador

pessoal cujos arquivos ali permaneciam, isoladamente. Estamos

na era do wireless, dos smartphones e das nuvens, tudo mais

inteligente e interconectado. Com a migração de armazenamento,

servidores e desktops para a nuvem, os sistemas de segurança

seguem a mesma tendência. Segundo previsões do Gartner para

o setor, uma em cada dez empresas processarão os recursos

de segurança em nuvem até 2015. Na linha residencial, isso

não deverá ser diferente. Ter suas imagens capturadas por um

serviço de armazenamento de câmera de

segurança off-site, na nuvem, é possível

e é a solução para sinistros tais como

citados anteriormente.

As vantagens da gravação de CFTV

residencial em nuvem são inúmeras:

independência de servidores locais

(menos equipamentos no local monitorado),

imunidade à perda de imagens por furto de

equipamento (incluindo furto das próprias

câmeras, uma vez que a imagem é gravada

externamente), backup de gravações (é

possível baixar as gravações do sistema

para dispositivos móveis), segurança e privacidade (controle de

acesso ao portal e comunicação segura), viabilização de uso de

câmeras wireless (menos cabeamento, fácil instalação), e por

fim, a visualização das imagens podem ser feitas por diversos

tipos de dispositivos a qualquer momento, em qualquer lugar.

Mas como contratar um serviço desses? São poucas opções

e muito voltadas ao mercado corporativo, especialmente

condomínios, empresas e estabelecimentos comerciais.

Felizmente, esse perfil está mudando e surgiram opções para

o mercado residencial. No mercado nacional, os preços ainda

são elevados, mas como a nuvem é agnóstica a fronteiras

geográficas, há empresas no exterior com serviços e preços

bem interessantes, caso o idioma inglês não seja uma restrição.

Esse tipo de serviço é geralmente cobrado pela combinação

de uma ou mais variáveis tais como gigabytes armazenados,

tempo de retenção, número de câmeras capturadas, número

de frames por segundo etc. Além disso, os provedores desse

tipo de serviço, chamado de VSaaS (Video Surveillance as

a Service) oferecem um portfólio vasto de funcionalidades

agregadas à simples captura de imagem. Serviço de indexação

de gravações, notificação de câmera fora de serviço, inicio

automático de gravação a partir de detecção de movimento,

alertas com fotos anexadas etc. Há, inclusive pacotes simples

de serviços de gravação, sem custo e sem compromisso com

prazo de contrato. Portanto, quando vir uma placa de “sorria,

você esta sendo filmado”, pense que sua imagem pode estar

muito além do que você imagina.

Para saber mais:

http://www.researchandmarkets.com/research/m9wgm4/video

http://en.wikipedia.org/wiki/VSaaS

102

Technology leadership council Brazil

iBm mainframe – 50 anos de liderança Tecnológica e Transformação

Daniel Raisch

Com o fim da II Guerra Mundial a computação comercial ganhou

grande impulso, levando varias empresas de tecnologia na

Europa e nos EUA a investirem nesse mercado. A IBM, que

se lançou nessa jornada no início dos anos 50, chegou aos

anos 60 com pelo menos três famílias de computadores de

grande porte em produção, firmando-se como um dos grandes

fornecedores do mercado.

Esse aparente sucesso não escondia os desafios que a IBM

enfrentava internamente. As várias linhas de computadores

tinham arquitetura e tecnologias distintas, linhas de produção e

gestão independentes e até incompatibilidade entre os modelos

da mesma família e seus periféricos. Administrar essas linhas

tornava a produção mais cara e abria espaço para a concorrência

toda vez que um cliente tinha necessidade de upgrade.

Foi a partir desse cenário que Thomas

Watson Jr., na época IBM Chairman of

the Board, decidiu lançar a corporação

no projeto de um novo computador

que tivesse como características, a

compatibilidade total entre os modelos,

periféricos e aplicativos, e que buscasse

suprir as necessidades computacionais

dos clientes nas várias indústrias.

Foi com essa missão que o executivo

Bob Evans e seu time de arquitetos, Fred

Brooks, Gene Amdahl e Gerrit Blaauw, desenharam o computador

System/360 (S/360), um sistema para todos os propósitos, por

isso o nome S/360.

Com orçamento de US$ 5B e mais de dois anos de trabalho, o

S/360 deu origem à família de mainframes IBM, os computadores

de grande porte de maior sucesso no mercado, que se tornou

o benchmark da indústria de computação comercial.

O anúncio oficial foi feito por Thomas Watson Jr. em 7 de Abril

de 1964, na cidade de Poughkeepsie, NY, EUA.

O Mainframe, hoje denominado System z, transformou a empresa.

Sete novas fábricas foram inauguradas para atender à demanda,

outras linhas de computadores foram fechadas paulatinamente,

e o número de funcionários cresceu exponencialmente. Toda a

corporação girava em torno dessa nova família de computadores.

A indústria também foi transformada. A aviação civil avançou

com a implementação do sistema de reservas SABRE, os

bancos entraram no mundo online e o homem pisou na Lua.

O S/360 esteve presente em tudo isso, sendo considerado

pelo escritor americano Jim Collins, um dos três produtos de

maior impacto nos negócios, junto com os primeiros carros

da Ford e os jatos da Boeing.

A engrenagem sonhada por Thomas Watson Jr. girou forte e a IBM

começou a dominar o mercado. A renda da corporação cresceu

ano após ano, diferentemente dos resultados da concorrência.

Em meados dos anos 70, a IBM se tornou a maior empresa de

computadores do mundo figurando entre as TOP 10 empresas

do mundo de acordo com a Fortune Magazine.

No Brasil dos anos 70 e 80, devido à política governamental de

informática que restringia a importação de computadores, os

Mainframes IBM tiveram uma penetração

muito expressiva, impulsionados pela

sua fábrica em Sumaré, SP.

Nesse período, a IBM Brasil teve um

crescimento acelerado, ampliou a base

de clientes, aumentou o faturamento

e abriu filiais próprias nas principais

capitais do país, deixando um legado

de estabilidade para os difíceis anos 90.

Cinquenta anos depois, verificamos

que a robustez da arquitetura original

aliada à sua liderança tecnológica, permitiram que o IBM

Mainframe se mantivesse vivo no mercado e relevante para

os seus clientes e para toda a corporação até os dias de hoje.

Atualmente, o Brasil ocupa o terceiro lugar no cenário mundial do

mercado de mainframes, o que representa um parte significativa

do faturamento da IBM Brasil.

Nenhum outro produto de tecnologia se manteve por tanto

tempo no mercado, e nenhum outro produto da IBM contribuiu

tanto para o sucesso da corporação.

Sem medo de errar, pode-se dizer que a IBM fez o Mainframe

e o Mainframe fez a IBM.

Para saber mais:

http://ibmmainframe50anos.blogspot.com

Livro: Father, Son & Co. - Thomas Watson Jr.

Livro: Memories That Shaped an Industry - Emerson Pugh

103

Technology leadership council Brazil Technology leadership council Brazil

a inTeroperaBilidade na inTerneT das coisas

Paulo Cavoto

A Internet das Coisas está cada vez mais presente. A popu-

larização de tecnologias de proximidade como o NFC (Near

Field Communication) e o RFID (Radio-frequency identification),

além da miniaturização de componentes e o crescente aumento

da velocidade e da confiabilidade das redes de comunicação,

aceleram e impulsionam o surgimento de equipamentos inteli-

gentes e intercomunicáveis.

No Mini Paper da pág. 80 (Os desafios da Internet das

Coisas), Fábio Cossini descreve as principais barreiras para

consolidação e ampla aceitação dessa nova era tecnológica.

Essa transformação também traz uma grande ruptura na área

de desenvolvimento de software.

Muito disso já é realidade e a arquitetura do software executado

nesses dispositivos inteligentes é voltada à comunicação direta

entre máquinas (M2M – Machine To

Machine), porém sempre com escopo

muito bem definido de possibilidades.

Por exemplo, sua adega poderá ter

um componente de integração com

lojas online, assim seu eletrodoméstico

poderá avisar se você deve comprar

mais vinho e eventualmente poderá

até fazer sugestões com base

no seu padrão de consumo. Mas

provavelmente esse dispositivo não

vai conversar com sua televisão para

lhe dar as opções de vinho disponíveis ou com o seu fogão

para saber qual deles melhor harmoniza com o que esta sendo

preparado, quando os dispositivos forem de marcas diferentes

O mercado vem lidando com ambientes cada vez mais

heterogêneos e interconectados há algum tempo. Sistemas

com maior capacidade de extensão e de integração são os

pedidos mais comuns que os fabricantes têm recebido e novos

produtos inteligentes nascem a todo momento, ainda que

muitas vezes, esses produtos não se comuniquem com os

de outros fabricantes.

É impossível contemplar todas as possibilidades de interações

entre os dispositivos, porém deve-se promover a conectividade

com a maior quantidade possível de dispositivos, inclusive

com aqueles ainda nem foram inventados. Essa possibilidade

deve ser uma diretriz para que a Internet das Coisas evolua e

alcance mais adeptos. Os projetos de novos aplicativos não

conseguirão prever qualquer tipo de interação, mas devem

se basear em uma arquitetura que suporte a propagação e o

consumo de mensagens.

Cada novo produto deverá prover meios de comunicação e

extensões mais simples por meio de APIs (Application Program

Interfaces) públicas ou protocolos abertos, de maneira que

até mesmo um orquestrador dessas conexões torna-se

desnecessário. Com o intuito de permitir uma gama ainda maior

de possibilidades, cada componente deverá fornecer meios de

configuração com outros dispositivos usando tecnologias de

proximidade ou mesmo a Internet, algo parecido com o que

fazemos com dispositivos bluetooth.

A diferença é que uma vez “pareados”

pode-se escolher quando disparar

outro evento ou quais ações serão

tomadas assim que determinado

evento é disparado. Dessa forma, as

possibilidades de comunicação entre

dispositivos são ampliadas, deixando

a escolha da ações sob o controle do

usuário, possibilitando a criação de

redes entre dispositivos de marcas

diferentes.

Usando nosso exemplo, cada componente (a adega, o forno e

a televisão) deve gerar e consumir eventos, mas eles só serão

configurados uma vez e instalados em nossa casa por nós

mesmos. Pela televisão você poderá procurar pelos dispositivos

prontos para se comunicar e, uma vez encontrada a adega,

configurar o que fazer caso determinado evento seja disparado

por ela; o mesmo poderia ser feito entre o forno e a adega.

Cabe a nós, profissionais de tecnologia, arquitetar nossos

produtos de forma aberta e customizável. Assim, as aplicações

e possibilidades que a Internet das Coisas nos proporcionará

só serão limitadas pela nossa imaginação.

Para saber mais:

Mini Paper Series 184 (pg. 80): Os desafios da Internet das Coisas

http://www-03.ibm.com/press/us/en/pressrelease/43524.wss

104

Technology leadership council Brazil

gerência de projeTos ágil ou pmBok®?Felipe dos Santos

Desde a publicação do Manifesto Ágil, no início de

2001, a comunidade técnica de desenvolvimento

de software vem discutindo, comparando e

avaliando os métodos de gerenciamento de

projetos prescritivos (aqueles que geram mais

artefatos oferecendo uma série de controles) e

adaptativos (aqueles que se moldam durante

iterações). A partir destas definições, podemos

considerar o guia PMBOK (Project Management

Body of Knowledge), publicado pelo PMI (Project

Management Institute) como um método prescritivo

e o Scrum como um método adaptativo. O Scrum

é a metodologia ágil mais utilizada no mundo (6th

Annual “State of Agile Development” Survey, 2011)

e, por isso, será utilizado neste artigo.

Uma comparação entre essas abordagens mostra um grande

paradoxo, pois o planejamento do PMBOK deve propiciar a

prevenção de mudanças, enquanto nos métodos ágeis as

mudanças são bem vindas. Para a comunidade PMI os métodos

ágeis aparentavam ser pouco documentados, organizados e

altamente suscetíveis a falhas, devido a uma quantidade mínima

de controles. Já para a comunidade Agile as metodologias

existentes eram burocráticas e agregavam pouco valor. Com o

tempo as duas comunidades entenderam que existia espaço para

ambas metodologias. O método ágil surge, então, como uma nova

ferramenta para o gerente de projetos, dando mais flexibilidade

em projetos de natureza adaptativa. O PMI reconheceu isso e

há pouco mais de dois anos lançou a certificação PMI-ACP

(Agile Certified Practitioner) que certifica o profissional com

conhecimentos em princípios ágeis.

O PMBOK orienta que o planejamento seja completo e abrangente

e que o plano produzido seja seguido até a entrega final do projeto.

Essa abordagem é apropriada em muitos casos, já que as áreas

de conhecimento do PMBOK auxiliam o gerente de projetos

na obtenção de sucesso, pelo menos sob o ponto de vista do

“triângulo de ferro” (prazo, custo e escopo). Os métodos ágeis,

como o Scrum, defendem a ideia de que estimativas empíricas

estão sujeitas a erros e que não se deve investir muito tempo

planejando todos os detalhes, já que podem ocorrer diversas

mudanças no decorrer do projeto.

Existem projetos de natureza iterativa e incremental,

nos quais não se espera ter todas as respostas no

início. Uma novela é um bom exemplo. A novela

pode ter vários rumos conforme a aceitação do

público e, em até certos casos, essa pode ser

encerrada por não atender aos interesses da

emissora. O Scrum faria mais sentido nesse tipo

de projeto. Já para um projeto de construção de um

estádio de futebol o PMBOK seria o mais indicado,

por conta de planejamento rigoroso que inclui

gestão de riscos. Nesse tipo de projeto tudo deve

ser minuciosamente planejado no início para que

o cliente saiba exatamente o quanto vai gastar e

em quanto tempo terá sua obra concluída.

Em projetos de desenvolvimento de software, um estudo feito

pelo Standish Group (Chaos Report 2002) mostrou que 64% de

um sistema raramente é utilizado. A parte restante corresponde

ao que realmente importa para os usuários. O Scrum orienta a

priorizar o que gera maior valor ao cliente. Em certos projetos

isso quer dizer, inclusive, que podemos colocar em produção

algo inacabado, mas que já ofereça um benefício ao negócio.

Devemos levar em consideração que o cliente muitas vezes não

sabe exatamente o que quer no início de um projeto. Durante

as iterações ele pode se dar conta de que algum item já não

faz mais sentido e que um novo requisito é necessário, seja por

demanda do negócio, exploração de uma nova oportunidade,

mudança na legislação, entre outros.

Na ótica do Scrum, por exemplo, itens podem ser substituídos,

removidos e incluídos, sem que isso represente falha no projeto,

pois foca-se mais na satisfação do cliente do que em cronogramas

e planejamento minuciosos. Existem também alguns desafios

como, por exemplo, transformar um cliente tradicional (que exige

prazo e custo definido) em um cliente Agile, mas observa-se

uma aceitação cada vez maior dos métodos ágeis. Por exemplo,

os clientes começam a aceitar que em alguns casos vale mais

a sinergia entre os participantes no projeto e a resposta rápida

às mudanças do que um clima de conflito entre as partes, no

qual se discutem fortemente prazo, custo e escopo, gerando

desgaste no relacionamento.

Para saber mais:

Mini Paper "Agile: você está preparado?" (pg. 53) Series Ano 7 Maio 2012 – n. 157

http://www.agilemanifesto.org

http://brasil.pmi.org/

105

Technology leadership council Brazil Technology leadership council Brazil

sangue, suor e weB: como a world wide weB foi criada

Marcelo Savio

O surgimento da World Wide Web há 25 anos é comumente

referenciado como um marco fundador de uma nova era, na qual

a Internet se expandiu para além dos muros das universidades

e centros de pesquisa onde estivera restrita por vinte anos.

Apesar da sua enorme importância e quase onipresença no

mundo atual, a Web possui uma história altamente contingencial,

com precariedades, tensões e bifurcações, comuns a muitos

outros fatos ou artefatos tecnológicos. E que só foi para a frente

graças à inspiração e, principalmente, à transpiração, de seus

abnegados construtores Tim Berners-Lee e Robert Cailliau,

ambos do CERN, um laboratório internacional de física localizado

em Genebra (Suíça).

O físico britânico Tim trabalhava lá como desenvolvedor de

software quando idealizou um sistema para obter informações

sobre as conexões entre todas as pessoas, equipes, equipamentos

e projetos em andamento no CERN. Em março de 1989, escreveu

uma proposta para diretoria, na qual solicitava recursos para a

construção de tal sistema. Não obteve retorno algum.

Foi quando entrou em cena Robert Cailliau, um engenheiro

de computação belga que Tim conhecera em sua primeira

passagem pelo CERN, para quem expôs suas ideias e agruras.

Robert, um entusiasta de tecnologia e veterano do Laboratório,

tornou-se em um aliado primordial, pois possuía uma extensa

rede de contatos e providencial capacidade de convencimento.

Reescreveu a proposta em termos mais atrativos e conseguiu

não só a aprovação por parte da mesma diretoria, mas também

dinheiro extra, máquinas novas, estudantes ajudantes e salas

para trabalhar. Tim pôde dar início à codificação das primeiras

versões dos principais elementos da Web: a linguagem HTML

(Hyper Text Markup Language), o protocolo HTTP (Hyper Text

Transfer Protocol), o servidor e o cliente Web (browser).

Em 1991, Robert e Tim conseguiram aprovação para

demonstrar a primeira versão da Web na Hypertext-91, uma

grande conferência internacional sobre hipertextos no EUA.

Na verdade, eles enviaram um paper que fora rejeitado “por

falta de mérito científico”, mas, com a persistência usual,

conseguiram convencer os organizadores do evento a

lhes deixarem realizar uma demonstração ao vivo. Partiram

entusiasmados para os EUA, mas mal sabiam eles que as

dificuldades estavam só começando.

Quando chegaram no local do evento descobriam que não havia

nenhuma maneira de se conectarem com a Internet. Robert

novamente entrou em ação. Conseguiu convencer o gerente

do hotel a puxar um par de fios de telefone e os soldaram ao

modem externo que haviam levado pois não havia conector

compatível. Para conseguirem conexão com a Internet, Robert

ligou para a universidade mais próxima e encontrou alguém

que lhes permitiu usar um serviço de acesso discado, de

onde foi possível conectar ao servidor Web remoto que estava

preparado no CERN. A demonstração foi um sucesso. Nos

anos seguintes dessa mesma conferência, todos os projetos

e estandes tinham algo a ver com a Web, que a partir de então

começou a ganhar o mundo.

Com a disseminação surgiram inúmeras sugestões de melhorias.

Chegara a hora de procurar o IETF, o fórum responsável pelos

padrões e especificações técnicas da Internet. Mas somente em

1994, após dois anos de intermináveis discussões, finalmente

conseguiram aprovar a primeira especificação da Web. E,

preocupados com o futuro, organizaram no CERN naquele

mesmo ano a I Conferência da WWW, na qual foi anunciado que

os códigos da Web seriam de domínio público e que um consórcio

de padronização específico para lidar com as questões da Web

(W3C) seria criado. A nascente tecnologia estava devidamente

encaminhada para assumir a relevância que de fato lhe coube

na história da Internet e da humanidade.

A criação da Web, por meio da combinação de hipertextos com

redes de computadores, nos mostrou que também é possível

criar uma tremenda inovação a partir de tecnologias consolidadas

e amplamente disponíveis. E que a jornada para se concretizar

uma inovação é sempre difícil e demanda não só competência

técnica mas muita determinação por parte de seus idealizadores.

Pense nisso quando abrir a próxima página Web no seu browser.

Para saber mais:

http://www.webat25.org

http://www.w3.org/People/Berners-Lee/Weaving/Overview.html

106

Technology leadership council Brazil

acesso direTo à memória: vulneraBilidade por projeTo?Felipe Cipriano

FireWire é uma interface serial de alta velocidade criada pela Apple

como substituta para o SCSI e de certa forma concorrente do USB.

Uma das vantagens da FireWire é a possibilidade de obter

a-cesso direto à memória, sem intervenção do sistema operacio-

nal. Isso permite transferências mais rápidas e diminui bastante

a latência entre o dispositivo e o computador.

Não é por acaso que a FireWire é bastante usada em edição

audiovisual. Nesses cenários que demandam menor atraso

possível (edição em tempo real, por exemplo), qualquer

interferência do sistema operacional seria bastante perceptível.

Mas o acesso direto à memória também tem seus perigos:

como a FireWire é uma interface hot-swap, um dispositivo

pode se conectar a um computador já iniciado e ter acesso

privilegiado à memória do sistema, que muito provavelmente

contém informações confidenciais. Assim, é possível conseguir

um dump – uma cópia de todo o conteúdo da memória – apenas

se conectando à porta FireWire de um computador já ligado,

mesmo que ele esteja travado por senha.

Um dos ataques comuns explorando o acesso direto à memória

na FireWire é obter esse dump de memória para então analisá-

lo em busca de informações.

Em alguns sistemas operacionais as senhas do usuário atual

não são criptografadas e ficam expostas na memória como texto

puro. Ainda que o sistema trate adequadamente as senhas, é

possível obter dados de documentos recentemente abertos ou

mesmo explorar falhas em programas de terceiros.

Mas o ataque que acho mais interessante é a manipulação direta

de códigos já carregados na memória para burlar a segurança

do sistema. Assim como o GameShark fazia com jogos de

videogame, esse tipo de ataque modifica as bibliotecas de

autenticação carregadas em memória para aceitar qualquer

senha. Esse tipo de ataque é bem discreto, já que não altera

arquivos do sistema e dificilmente alguém estranharia sua

senha (legítima) sendo aceita pelo sistema. Também é eficaz

mesmo em máquinas com criptografia de disco, uma vez que

as chaves já estão carregadas na memória para executar o

sistema operacional.

Além do cenário de uma máquina sendo explorada durante a

ausência do usuário, essa técnica pode ser usada para acessar

máquinas em suspensão, pois a memória é mantida ligada.

Quando a máquina retorna do estado de suspensão, as senhas

– como a da BIOS ou de programas de criptografia de disco – não

são necessárias para reativar o sistema. Esse ataque é bem

rápido por já conhecer os endereços de memória geralmente

usados para autenticação em cada sistema.

Como forma de evitar isso, a maioria dos sistemas operacionais

mais novos implementa o ASLR (Address Space Layout

Randomization), um método que usa endereços de memória

diferentes para cada vez que um programa é iniciado. Mas

essa proteção apenas diminui a velocidade do ataque, visto

que nesses sistemas é necessário obter um dump completo de

memória e então procurar pelos endereços de memória onde

o código de autenticação está carregado.

Uma das soluções mais comuns é bloquear o driver serial

da FireWire, o que já é suficiente para evitar ataques DMA

(Direct Memory Access). Outra solução é bloquear completa-

mente o uso das portas FireWire, seja removendo drivers ou

isolando a entrada.

No Mac OS X e no Linux é possível desativar apenas o DMA. No

caso do OS X, quando se usa criptografia de disco, o sistema

bloqueia automaticamente o DMA pela FireWire quando a tela

está bloqueada com senha.

E apesar da interface FireWire estar entrando em desuso, esse

ataque é possível em qualquer interface hotplug que tenha

acesso direto à memória, como por exemplo a Thunderbolt,

que é justamente tida como a substituta da FireWire.

Para saber mais:

https://www.os3.nl/_media/2011-2012/courses/rp1/p14_report.pdf

http://www.breaknenter.org/projects/inception/

107

Technology leadership council Brazil Technology leadership council Brazil

Big daTa e o nexo das forças

Alexandre Sales Lima

Nos últimos anos observamos uma mudança significativa no

mercado de TI encabeçada principalmente pela confluência das

seguintes forças: cloud, mídia social, mobilidade e informação

(Big Data). Esse último se encontra no epicentro da mudança,

pois seu desenvolvimento está intrinsicamente relacionado

com o crescimento e confluência das outras forças. Dado esse

cenário, uma pergunta se destaca: como navegar na onda de

oportunidades de Big Data no nexo dessas forças?

Se nós olharmos para cada uma delas podemos observar o

seguinte cenário:

Cloud: o aumento na adoção de soluções de computação em

nuvem vem provendo mais agilidade, escalabilidade, capacidade

e dinamismo ao mundo corporativo, permitindo a oferta de

novos e melhores serviços.

Mídia Social: extremamente difundida no contexto interpessoal

possui um conjunto de informações bastante diversificado (texto,

vídeo, relacionamentos e preferências). Ela se consolidou como

um canal de comunicação poderoso do ponto de vista social e

corporativo, dando uma voz ativa ao cidadão e ao consumidor.

Mobilidade: com um crescimento mundial acima de dois dígitos

a utilização de smartphones mudou em vários aspectos como

a sociedade se comporta e se correlaciona. A adoção de

tecnologias 3G e 4G introduzem um nível de capilaridade e

abrangência na coleta de informações nunca visto na história.

Por exemplo, mais de 60% dos usuários do Twitter acessam a

aplicação por meio de dispositivos móveis. Isso sem considerar

os dispositivos conectados que emitem sinais continuamente.

Informação: além do crescimento sistêmico natural das empresas,

temos hoje um aumento grande também de dados relacionados

com a colaboração humana, tais como, e-mails, páginas web,

documentos, conversas de mensagens instantâneas e tecnologia

de mídia social.

Se olharmos a dinâmica entre essas forças, podemos ver que

cada uma delas potencializa a outra numa espiral crescente

de capacidades e volume de dados. O Gartner chama essa

confluência de “Nexus of Forces”, o IDC de “The Third Platform”,

The Open Group de “Open Platform 3.0”. Independentemente

do nome podemos ver que Big Data está no centro dessa

mudança do cenário de negócios, ora como catalizador ora

como subproduto do processo de negócio. Mas como tirar

proveito disso?

O primeiro passo é entender o que é Big Data. O Forrester

o define como técnicas e tecnologias que tornam a

manipulação de dados em escala extrema acessível. O

segundo passo é entender o que podemos fazer com ele.

Big Data permite analisar mais informações, mais rápido e

mais profundamente, nos ajudando a entender o mundo de

uma maneira inconcebível há pouco tempo atrás. Possibilita

também encontrar valor e oportunidades de negócio onde

não era previamente concebido. Por exemplo, permite que

uma grande corporação interaja de forma individualizada

e personalizada em escala. Contudo o terceiro passo é o

mais importante. Como fazer isso?

Antes de tudo é preciso entender que Big Data por si só não é

importante. Se não colocarmos os dados dentro de um contexto

significativo, não vamos conseguir surfar nesse tsunami de dados.

Por fim, temos a tecnologia que viabiliza essa visão: Hadoop,

sistema distribuído para armazenar e recuperar informações,

distributed streams computing para processar dados em alta

velocidade e advanced analytics para identificar padrões e

tendências nesse mar de informações.

A convergência dessas forças está propiciando não só uma

mudança no cenário de TI, mas também está promovendo uma

mudança nos processos de negócio atuais. A combinação desses

componentes viabiliza a extração de valor dos dados e a geração

de vantagem competitiva para as empresas que souberem

utilizá-los. Para manter-se competitivo nesse novo mercado é

necessário que, não só as empresas, mas os profissionais de

TI dominem esses novos conceitos.

Para saber mais:

http://www.ibmbigdatahub.com/

http://www.gartner.com/technology/research/nexus-of-forces/

https://ibm.biz/BdDwS7

108

Technology leadership council Brazil

desmisTificando capacidade virTual, parTe iJorge L. Navarro

Em um sistema virtualizado, as máquinas virtuais compartilham a

máquina física (PM — do inglês physical machine). Essa máquina

física tem uma capacidade de processamento bem definida,

mas quanto dessa capacidade real vai para uma máquina virtual

(VM) específica?

Vamos chamar de capacidade virtual a capacidade realmente

utilizada por uma VM. Quais são os parâmetros que determinam

essa capacidade virtual? Hypervisors e tecnologias de

virtualização diferentes podem usar nomes diferentes, mas

em todos os casos, os conceitos por traz deles são os mesmos.

Capacidade de Máquina Física. A camada de virtualização distribui

a capacidade da PM entre suas VMs. Os recursos disponíveis

em uma PM é o limite absoluto da capacidade virtual: uma VM

hospedada não pode ser maior que a PM anfitriã e o processamento

extra, devido a virtualização em si (overhead) também deve ser

considerado. A capacidade é tipicamente medida em núcleos

de processador ou o agregado dos ciclos de CPU (MHz).

Capacidade Garantida. Essa é a capacidade que a VM terá

com certeza, quando demandada. Por exemplo, considere

uma capacidade garantida de 4 núcleos. Se a carga requerida

pela VM são 2 núcleos, a VM utilizará esses 2 núcleos. Mas

se a demanda aumentar para 5 núcleos, a VM terá 4 núcleos

garantidos e o núcleo faltante poderá ou não ser disponibilizado

dependendo de fatores adicionais. Isso também é conhecido

como nominal e reserva, e é medido em unidades de capacidade.

Atributo de uso exclusivo. Marcação indicando se a capacidade

garantida é separada para uso exclusivo da VM. Se não for, a

capacidade garantida não utilizada fica disponível para uso

pelo resto das VMs que compartilham a PM. Outro nome para

esse atributo é uso dedicado.

Limite/atributo de corte. Marcação que indica se a capacidade

garantida pode ser excedida ou não, mas a capacidade virtual

da VM pode ir além da capacidade garantida caso necessário.

Alguns hypervisors especificam um limite de capacidade não

atrelado a capacidade garantida.

Núcleos virtuais. Um conceito fundamental, mas por vezes

complicado, é o elo entre o mundo físico e o virtual. O sistema

operacional dentro da VM enxerga núcleos virtuais e entrega a

execução de processos para eles, e em seguida, o hypervisor

aloca núcleos físicos para os virtuais. O número de núcleos

virtuais pode limitar a capacidade virtual, isto é, a VM com

2 núcleos virtuais nunca poderá ter uma capacidade virtual

superior a 2 núcleos físicos.

Prioridade relativa. Esse parâmetro especifica prioridades

entre VMs que concorrem por capacidade. Essa competição

pode acontecer quando a soma das demandas é maior que a

capacidade da PM. Os nomes mais comuns desse conceito são

uncapped weight (peso sem corte) ou shares (compartilhamento).

A capacidade virtual, de fato, depende de todos os fatores acima.

Vamos considerar um cenário simples: 2 VMs, vermelha e azul,

compartilhando uma PM de 8 núcleos.

As VMs vermelha e azul são ambas definidas da mesma forma:

capacidade garantida de 4 núcleos, sem uso exclusivo, sem

corte/limite, 8 núcleos virtuais e prioridade relativa de 128.

O que aconteceria quando usuários da VM vermelha colocassem

uma demanda de 5 núcleos em sua VM, ao mesmo tempo

em que usuários da VM azul colocassem uma demanda de 5

núcleos em sua VM? De acordo com a parametrização acima,

é possível que a VM vermelha use 5 núcleos físicos pois ela

está sem corte/limite e tem pelo menos 5 núcleos virtuais. Mas

para poder ir além dos seus 4 núcleos garantidos deve haver

capacidade física disponível. E esse não é o caso, pois a VM

azul está usando seus 4 núcleos de capacidade garantida.

Então, a distribuição de capacidade final nas condições acima

é: ambas as VMs estão usando 4 núcleos, consequentemente

a PM está 100% ocupada (todos os 8 núcleos utilizados).

Pode-se concluir, da perspectiva de dimensão, que a PM foi

subdimensionada, não conseguindo atender a todas as demandas.

O que aconteceria se a demanda da VM azul decrescesse de

5 para 1 núcleo? Na segunda parte deste artigo abordaremos

isso considerando casos mais complexos e sutis.

Para saber mais:

https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_capacity_part_i?lang=en_us

https://www-304.ibm.com/connections/blogs/performance/?lang=en_us

http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html

http://www-03.ibm.com/systems/power/software/virtualization/resources.html

109

Technology leadership council Brazil Technology leadership council Brazil

desmisTificando capacidade virTual, parTe iiJorge L. Navarro

No Mini Paper anterior definimos o conceito de capacidade

virtual e identificamos os fatores genéricos de que ele depende:

Máquina Física (PM), capacidade garantida, atributo de uso

exclusivo, atributo de limite/corte e prioridade relativa.

Um cenário muito simples foi proposto: uma PM de 8 núcleos

com duas VMs, a vermelha e a azul, parametrizadas com a

seguinte configuração: capacidade garantida de 4 núcleos, sem

uso exclusivo, sem corte/limite, 8 núcleos virtuais e prioridade

relativa de 128.

Se a demanda da vermelha é de 5 núcleos e da azul é de 1

núcleo, qual será a distribuição da capacidade restante?

A azul receberá somente 1 núcleo, já que essa demanda é bem

menor que os 4 núcleos garantidos. Os 3 núcleos restantes não

são usados e, como ela não tem o atributo de uso exclusivo

ativado, eles são cedidos de volta como capacidade livre.

O uso da vermelha aumenta pra 5 núcleos, 4 deles vindos de sua

capacidade garantida e 1 núcleo adicional vindo da capacidade

livre. Nessa situação a PM está 75% ocupada (6 de 8 núcleos)

e não existem demandas não atendidas.

Uma regra geral é que se todas as VMs estiverem sem corte e

sem uso exclusivo e a soma de todas as demandas resultar em

um número menor que a capacidade da PM, então as demandas

de todas as VMs poderão ser atendidas.

Vamos considerar um caso com concorrência, ou seja, a

capacidade de PM não é suficiente para satisfazer a soma das

demandas das VMs, sendo todas elas sem corte e sem uso

exclusivo. Como a capacidade da PM, agora escassa, é distribuída?

Suponha a mesma PM de 8 núcleos, com 3 VMs (vermelha, azul e

verde) e a seguinte configuração: capacidade garantida de 3 núcleos

para vermelha e azul e 2 núcleos para a verde, sem uso exclusivo,

sem corte/limite, 8 núcleos virtuais e prioridade relativa de 128.

As demandas são: vermelha e azul com 4 núcleos e verde

com 1 núcleo. As demandas somam 9 núcleos, mais do que a

capacidade física (8 núcleos).

No primeiro grupo temos VMs com demandas menores ou

iguais às suas capacidades garantidas: elas são atendidas

e o resto da capacidade garantida é cedida, aumentando

a capacidade livre. A VM verde está nesse grupo: ela usa 1

núcleo e cede 1 núcleo.

No segundo grupo ficam as VMs com demandas maiores

que as suas capacidades garantidas: elas recebem suas

capacidades garantidas mais uma proporção da capacidade

livre, de acordo com suas prioridades relativas. A vermelha e

azul estão nesse grupo, ambas usam 3 núcleos garantidos

mais meio núcleo vindo do núcleo livre dividido em duas

partes iguais, já que ambas VMs tem a mesma prioridade

e portanto recebem a mesma fração. Nessa situação, a PM

está 100% utilizada e existem demandas não atendidas – a verme-

lha e a azul.

O que aconteceria se a VM verde fosse desligada ou sua demanda

caísse para zero? Ou se a VM azul tiver um limite/corte? Ou se

o número de núcleos virtuais para a VM vermelha for alterado

para 2? Ou se a demanda da verde subir para 4 núcleos?

Ou se a capacidade garantida da azul for de uso exclusivo?

E se... e se... e se...

Os cálculos para resolver um caso genérico, se você sabe

o que fazer e como fazer, são simples. Eu criei uma planilha

implementando esses cálculos, para ser usada como uma

ferramenta de ajuda: O desmistificador de capacidade virtual.

Ela vem com uma apresentação que ilustra o seu uso. Realize

experimentos com a ferramenta a fim de compreender e entender

totalmente capacidades virtuais.

Um último ponto: talvez eu devesse adicionar o seguinte

subtítulo: “… num mundo perfeito”. No mundo real existem

efeitos de segunda ordem – sobrecarga (overhead), ineficiências,

perdas de cache – que diminuem as capacidades virtuais que

obtemos. Esses efeitos pertencem ao universo de técnicos

avançados e gurus de performance, mas você deve estar

ciente de sua existência.

Para saber mais:

https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_capacity_2nd_part_and_tool?lang=en_us

https://www-304.ibm.com/connections/blogs/performance/?lang=en_us

http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html

http://www-03.ibm.com/systems/power/software/virtualization/resources.html

110

Technology leadership council Brazil

Como foi colocado na apresentação, estamos vivendo um

momento de transformações intensas. Políticas, econômicas

e tecnológicas. Transformações, por sua vez, impõem a neces-

sidade de reeducação/novos aprendizados.

Contemplando os cerca de 100 mini papers que compõem esse

livro, tem-se uma boa ideia dos temas que serão dominantes, e,

portanto, o que deverá compor a agenda daqueles que querem

se preparar para essas mudanças. Vale dizer que, ainda que

cada mini paper, intencionalmente, não tenha se aprofundado no

seu respectivo tema, permitiu ao leitor adquirir um conhecimento

inicial do assunto, indicando referências para mais informações.

Compilar esses documentos, no entanto, envolveu esforço

considerável. Desde o esforço despendido por cada autor para

desenvolver o assunto de uma forma concisa, porém interessante,

passando pelo esforço dos revisores, dos tradutores (os mini

papers foram escritos, em sua maioria, em português e depois

traduzidos para o inglês), dos revisores de tradução e de Argemiro

Lima e Maria Carolina Azevedo que coordenaram todo o processo,

incluindo a parte administrativa de obter recursos financeiros

e contratar fornecedores. Tudo isso feito na forma de trabalho

voluntário, além dos deveres e obrigações de cada um.

Tamanha mobilização remete às práticas que decorrem dos

valores da nossa companhia que visam justamente permitir

que a IBM possa operar as transformações que se espera. Por

exemplo, "unite to get it done" (demonstrada claramente, pela

mobilização que envolveu todo esse trabalho) e "show personal

interest" (sem a qual, estaríamos ainda com um livro incompleto).

Assim, gostaria de deixar registrado, em nome do TLC-BR

(Technology Leadership Council), o meu mais sincero apreço,

agradecimento e admiração por todos aqueles que tornaram

a intenção desse segundo livro numa realidade, publicado em

2 idiomas, na forma digital e impressa. Os autores, IBMistas e

ex-IBMistas, os revisores do Comitê Editorial, os tradutores da

comunidade técnica da IBM Brasil, os revisores de tradução

da IBM Academy of Technology e os líderes do Comitê Editorial.

Por fim, cabe lembrar que a produção dos mini papers (felizmente)

não para. E já são nove anos, quinzenalmente.

Adelson Lovatto

Adrian Hodges

Adrian Ray

Agostinho Villela

Alberto Eduardo Dias

Alberto Fernando Ramos Dias

Alex da Silva Malaquias

Alexandre Sales Lima

Alexis da Rocha Silva

Anderson Pedrassa

André Luiz Coelho da Silva

André Viana de Carvalho

Argemiro José de Lima

Argus Cavalcante

Ashish Mungi

Atlas de Carvalho Monteiro

Bianca Zadrozny

Boris Vitório Perez

Brendan Murray

Bruno da Costa Flach

Carlos Fachim

Carlos Henrique Cardonha

Carolina de Souza Joaquim

Caroline Pegado de Oliveira

Cesar Augusto Bento do Nascimento

Christian Prediger Appel

Claudio Keiji Iwata

Cleide Maria de Mello

Colleen Haffey

Daniela Kern Mainieri Trevisan

David Losnach

David R. Blea

Debbie A. Joy

Denis Vasconcelos

Denise Christiane Correia Gonçalves

Denise Luciene Veroneze

Diane Ross

Eduardo Furtado de Souza Oliveira

considerações finais e agradecimenTos

Agostinho de Arruda Villela, Presidente do TLC-BR

111

Technology leadership council Brazil Technology leadership council Brazil

Fabio Cossini

Felipe Grandolpho

Fernando Ewald

Fernando Padia Junior

Fernando Parreira

Flávia Aleixo Gomes da Silva

Flavia Cossenza Belo

Flavia Faez Muniz de Farias

Gabriel Pereira Borges

Gerson Itiro Hidaka

Gerson Makino

Gerson Mizuta Weiss

Glauco Marolla

Guilherme Correia Santos

Guilherme Galoppini Felix

Hema S Shah

Jeferson Moia

João Claúdio Salomão Borges

João Francisco Veiga Kiffer

João Marcos Leite

João N Oliveira

John Easton

John Fairhurst

José Alcino Brás

Juliana Costa de Carvalho

Katia Lucia da Silva

Kelsen Rodrigues

Leonardo Garcia Bruschi

Liane Schiavon

Louise de Sousa Rodrigues

Luiz Gustavo Nascimento

Marcel Benayon

Marcelo França

Marco Aurélio Cavalcante Ribeiro

Marco Aurélio Stelmar Netto

Marcos Antonio dos Santos Filho

Marcos Sylos

Marcos Vinícius Gialdi

Marcus Vinícios Brito Monteiro

Maria Carolina Feliciano de Oliveira e Azevedo

Miguel Vieira Ferreira

Nicole Sultanum

Odilon Goulart

Paolo Korikawa

Patrick R Varekamp

Patti Foley

Paulo Emanuel Critchi de Freitas

Paulo Huggler

Priscilla Campos Kuroda de Carvalho

Rafael Cassolato de Meneses

Reinaldo Tetsuo Katahira

Renan Camargo Pacheco

Rosane Goldstein G. Langnor

Rosely Oga Miyazaki

Ruth Gibrail Tannus

Sandipan Sengupta

Sandra Mara Gardim Rocha

Sandra Woodward

Sara Elo Dean

Sergio Varga

Shephil Philip

Shweta Gupta

Steve Heise

Tarik Maluf

Tatiana Brambila Corghi

Teresa Raquel Souza do Nascimento

Thiago Guimarães Moraes

Thiago Signorelli Luccas

Thomas Mailleux Sant'Ana

Tiago Moreira Candelária Bastos

Vandana Pandey

Vitor Hugo Lazari Pavanelli

Washington Cabral

Wellington Chaves

Technology leadership council Brazil