quinta-feira, 14 de outubro de 2010

Cinco tendências para observar em 2011

Lista é baseada nos planos de investimento das companhias no próximo ano

Por Computerworld/EUA
11 de outubro de 2010 - 12h10

As listas de tendências em TI surgem às cascatas quando o final de ano se aproxima e é comum que muitas sejam super valorizadas e acabem esquecidas. Por outro lado, outras que passam despercebidas, em um primeiro momento, acabam roubando a cena e realmente transformam o mercado.

Na verdade, elaborar as listas é um desafio, pois muitos movimentos de mercado são imprevisíveis. Mas um dos critérios mais precisos é acompanhar para onde o dinheiro está indo. Com isso em mente, elaboramos uma lista com as cinco tecnologias ou conceito que podem decolar em 2011.

1 - A recessão mundial é transformadora.
Desde o final de 2008, muitas companhias que encararam a desaceleração no crescimento compensaram a produtividade com profundos cortes de orçamento. Em muitos casos, o total que deixou de ser gasto ficou reservado, aguardando o momento certo para ser colocado a disposição novamente. Como querem voltar a crescer, a tendência é a de que invistam em novas tecnologias, com potencial para gerar lucratividade. Por outro lado, a adição de recursos complementares aos que já existem deve ser adiada, uma vez que os principais líderes de TI estão preocupados planejando como atender as demandas mais urgentes da área de negócios, buscando prazos mais curtos para isso.

2 - Tecnologias que cortam custos permanecem em destaque.
Dada a recessão, não é surpresa que a virtualização, elemento mais óbvio para o corte de custos, está ainda mais em destaque agora. Um ano atrás, o Gartner a colocou no topo das principais tecnologias para 2010, baseada em pesquisa com CIOs. Pelos nossos critérios, elas continuam no topo, seguida da computação em nuvem, software como serviço (SaaS) e aplicações de análises de negócios.

3 - Mobilidade explode
Todos podem ver que a mobilidade é uma das bolas da vez no mercado de tecnologia, mas os fornecedores estão realmente focados em gerenciamento, suporte, segurança e outros desafios que vêm com a computação móvel? Um grande percentual de profissionais está levando ao ambiente de trabalho dispositivos de armazenamento rápido e colocando documentos e e-mails sensíveis neles. E os tablets estão chegando com força cada vez maior. Mais de 30 deles foram anunciados ou entregues em 2010 e são baratos o suficiente para que muitos os comprem.

4 - Software está mudando rápido
Pegue o fenômeno da nuvem pública, pense em aplicações de larga escala baseadas em mobilidade web e você verá o começo de uma tendência que pode transformar a forma como trabalhamos. Quando você conecta dados significativos da corporação aos tablets por meio do seu data center, seja em nuvem pública ou privada, você tem tecnologia transformadora. Finalmente o mundo da TI consegue desacorrentar os trabalhadores de suas estações de trabalho, de forma que eles mantenham contato completo em qualquer lugar que estejam. Os dias dos aplicativos corporativos monolíticos, inflexíveis, baseados em redes LAN e proprietário estão chegando ao fim.

5 - Empresa 2.0 seguirá seu caminho
Informação no modelo crowdsourcing, que é o real valor da Web 2.0 para as corporações, é uma ferramenta poderosa. É uma forma simples de ajudar a companhia a iniciar qualquer novo conceito. O uso dessa informação modela ideias, fornece visões valiosas e está no caminho para se tornar mais presente. Isso não significa que as ferramentas atuais de Web 2.0 vão acompanhar o movimento. Pelo contrário. As empresas estão vendo esse ponto como estratégia de negócios e não de tecnologia.

========================================
COMENTÁRIOS DO MAURO

Sempre ví com muito bons olhos as pesquisas e posicionamentos colocados pela Computerword, mas acredito que ao levarmos as informações para a nossa realidade individual temos que levar em conta os diferentes níveis de amadurecimento, necessidades e desejos.

Numa realidade brasileira, das pequenas e médias empresas, ainda existe um grande vazio na utilização do conhecimento de ponta nas suas atividades, inclusive para conseguir decidir se precisa ou não utilizar algum recurso de última geração em TI nas suas operações.

Ao meu ver vamos estamos numa época onde os softwares open source estão se maturando em larga escala como negócio viável, as pessoas passaram a pelo menos perceber mais e melhor que a TI faz a diferença para os seus negócios (principalmente devido a complexidade das operações) e os nossos modelos de negócio estão se transformando para conseguirem utilizar de forma mais intensa e prática a colaboração como sustentação.

Melhoramos muito, melhoramos rapidamente e melhoramos com sustentabilidade, mas ainda existe grandes... enormes....  desníveis de utilização da TI nos negócios no mercado.

Mãos e Mentes a Obra!!!

Abraços;

Mauro Cesar
mauro.oliveira@vilelaleite.com.br

terça-feira, 10 de agosto de 2010

Profissional de TI é condenado à prisão por não informar senhas

Terry Child foi condenado com base nas leis de hacking existentes nos Estados Unidos.

Por IDG News Service / San Francisco
09 de agosto de 2010 - 08h36

Terry Child, um administrador de redes da cidade de San Francisco, na Califórnia (EUA), foi sentenciado a quatro anos de prisão por se recusar a informar as senhas de administrador do sistema de redes da cidade. O caso aconteceu em julho de 2008.

A assessoria jurídica de San Francisco informa que a sentença foi proferida pela juíza Teri Jackson, na última sexta-feira (6/8).

Terry foi condenado com base nas leis de hacking vigentes no Estado da Califórnia. Apesar de a rede continuar funcionando durante os 12 dias em que o profissional se recusou a informar as senhas, os jurados julgaram criminosa a atitude do técnico.

De acordo com os promotores de San Francisco, a ação de Child "revelava alguém com sede de poder e que representa um risco à Administração Municipal".

A defesa
Terry Child defendeu as atitudes durante o julgamento. Disse estar apenas cumprindo suas atribuições e ter negado as senhas ao supervisor do departamento de tecnologia e de serviços de informações, Richard Robinson, por este não ser qualificado para o acesso a tal informação. Cerca de 12 dias após Robinson pedir as senhas, Terry Child resolveu informar a palavra-passe ao prefeito da cidade Gavin Newsom.

Na visão do advogado de Child, Richard Shikman, a análise da promotoria é distorcida, pois Terry seria um "homem de grande caráter". O advogado também informou que "Terry não é, de jeito nenhum, um hacker ou qualquer coisa parecida. "Vamos levar o caso a instâncias superiores; iremos apelar", disse o advogado. Shikman informa ainda que o caso é uma representação do conflito entre "ignorância humana e postura profissional".

Liberdade
Segundo a porta-voz da assessoria jurídica da cidade de San Francisco, Erica Derryk, Child já teria cumprido 775 dias da sentença, o que o qualificaria à condicional dentro de 4 a 6 meses. O tempo máximo que Child pode passar na prisão é de cinco anos.

900 mil dólares
Possivelmente, Child deverá arcar com as despesas de 900 mil dólares, gastos pela cidade na tentativa de resgatar as senhas de acesso. Isso será decidido em 13 de agosto.

terça-feira, 20 de julho de 2010

Gartner cria código de conduta para contratos de manutenção

Conselho mantido pela consultoria define sete direitos dos clientes no relacionamento com os fornecedores.

Por Redação da Computerworld
19 de julho de 2010 - 14h26

Com o intuito de reduzir as preocupações dos consumidores em relação aos contratos de manutenção de hardware e software, a consultoria Gartner montou um código de conduta, voltado a estabelecer a postura adequada dos fornecedores em diversas situações.

O documento foi escrito a partir da opião de CIOs e analistas, por de situações reais vividas hoje no mercado. O objetivo, informa o Gartner, é propor mudanças na forma como a indústria de TI se posiciona.

Segundo o vice-presidente e diretor do Gartner, David Cappucio, um dos principais conflitos a serem resolvidos é o fato de que manutenção de hardware e software representa a maior forte de custos de TI, enquanto significa uma das principais fontes de receita dos fornecedores.

Nesse contexto, o papel do código de conduta é focado em fornecedores e indica como a manutenção deve ser dirigida para atingir um equilíbrio entre atender os objetivos dos clientes e não comprometer os processos de missão crítica. O documento descreve sete direitos dos usuários dos serviços, com o intuito de gerar uma relação mais equilibrada para todas as partes envolvidas:

O direito a um processo adequado de atualizações de serviços de software – Os fornecedores devem oferecer a todos os clientes um processo de atualizações e patches com frequência bem definida e prazos de duração. Além disso, precisam definir um processo para a adoção de atualizações emergenciais na descoberta de falhas operacionais ou de segurança sérias, com metodologia de notificação a todos os interessados.

As atualizações agendadas ou emergenciais devem estar alinhadas à abrangência do contrato, para que os consumidores não paguem por lançamentos desnecessários ou indesejados. Por fim, os contratos de atualizações devem atender às necessidades regionais do cliente, oferecendo níveis semelhantes de suporte, a custos semelhantes, para todas as regiões onde os negócios são realizados.

O direito a tempos de resposta e níveis de suporte de TI claramente definidos, baseados na importância da aplicação e em outros fatores de negócios – Contratos de manutenção devem estabelecer, claramente, o tempo de resposta que os fornecedores terão para determinadas aplicações e questões. O cliente, por sua vez, tem o direito de exigir uma definição a respeito do tempo máximo para a solução de problemas específicos.

Para atender esses critérios, o fornecedor deve oferecer uma variedade de níveis de manutenção, baseados em critérios corporativos específicos, incluindo quão crítica é a aplicação, a necessidade por planos de continuidade de negócios e recuperação de desastres e a necessidade de disponibilidade de suporte especializado.

O direito à previsibilidade quanto às mudanças no preço dos contratos, com planos de longo prazo para os custos – Fornecedores que oferecem diversos processos estratégicos não são facilmente “trocáveis” pela empresa tomadora de serviços. Isso engessa a capacidade do cliente de negociar preços. Para evitar uma situação complicada, o documenti recomenda que o contrato inicial detalhe todos os procedimentos de variação de preços, de forma que estes sejam amplamente reconhecidos por todos os envolvidos no contrato.

O direito de interromper ou alterar contratos de suporte para produtos que não estão em uso – As necessidades de suporte das empresas mudam, seja por redundâncias causadas por fusões e aquisições, seja por mudanças de requerimentos. Com flexibilidade no contrato de suporte, as empresas terão mais facilidade em ajustar os níveis de serviço a um ambiente empresarial, que é extremamente volátil. Os fornecedores devem permitir que os clientes encerrem determinados tipos de suporte e os custos associados, além de transferir licenças de uso de uma região para outra.

O direito à qualidade e previsibilidade dos níveis de suporte ao longo de todo o ciclo de vida do produto e do contrato – Os contratos firmados devem ser muito claros quanto ao nível de suporte prestado pelo fornecedor ao longo de todo o ciclo de vida do produto. Os clientes têm o direito de esperar total transparência com relação aos níveis do suporte e o fornecedor tem o dever de informar, proativamente, todas as mudanças que possam ocorrer no suporte.

Direito à manutenção e suporte a sistemas legados, definida claramente no contrato – Os responsáveis pelo códigom indica a dificuldade em determinar com precisão quando um produto se torna aplicativo legado e concordam que trata-se de um aspecto altamente problemático, pois nem sempre os fornecedores estão prontos ou se dispõem a oferecer apoio contínuo para esses produtos. Assim, o fornecedor deve especificar claramente por quanto tempo um cliente pode esperar o suporte a um produto depois que o ciclo de fida determinada pelo fornecedor terminar.

O direito a definições claras e futura aprovação de cada detalhe dos acordos de suporte – A falta de clareza nessas definições leva a confusão e conflitos entre clientes e fornecedores. O contrato deve especificar detalhadamente as garantias oara que o fornecedor entregue serviços apropriados, com níveis bem discutidos e sobre os quais houve acordo. Um contrato detalhado, linha por linha, permite futuras atualizações ou mudanças nos acordos de nível de serviços (SLAs) de forma justa para ambos os lados.

As 10 principais ameaças das redes sociais às empresas

Fornecedora de soluções de segurança lista os grandes riscos embutidos nos ambientes colaborativos e que devem ajudar na elaboração das políticas de acesso.

Por Network World/EUA
13 de julho de 2010 - 09h28

Os departamentos de TI têm demonstrado preocupação, já há algum tempo, em relação aos riscos que as redes sociais podem representar para as organizações. E a preocupação não é infundada, de acordo com a fornecedora de soluções de segurança de redes Palo Alto Networks.

A empresa listou as dez principais ameaças a que as empresas estão sujeitas quando seus funcionários acessam as redes sociais e como isso deve influenciar a criação das políticas de acesso.

1::Worms. Entre os vermes (worms, em inglês) de redes sociais estão o Koobface, que se tornou, de acordo com pesquisadores, “o maior botnet da web 2.0”. Apesar de uma ameaça multifacetada como o Koobface desafiar o que entendemos por “verme”, ele é projetado especificamente para se propagar pelas redes sociais (como Facebook, mySpace, Twitter, hi5, Friendster e Bebo), aliciar mais máquinas à sua botnet, e sequestrar mais contas para enviar mais spam para aliciar mais máquinas. Tudo isso para lucrar com os negócios típicos das redes botnets, como scarewares (como antivírus falso) e serviços de encontros românticos com sede na Rússia.

2::Isca para golpes de phishing. Alguém se lembra do FBAction? O e-mail que lhe pedia maliciosamente para se conectar ao Facebook, torcendo para que ninguém percebesse a URL fbaction.net no campo de endereço do navegador? Muitos usuários do Facebook tiveram suas contas invadidas e, embora tenha sido apenas “uma fração menor que um por cento”, o total de vítimas ganha corpo quando lembramos que o Facebook tem mais de 350 milhões de usuários. Pesa a favor do Facebook o fato de ter agido rápido, trabalhando para incluir o domínio numa lista negra, mas desde então surgiram muitas cópias descaradas (por exemplo, fbstarter.com). Desde então, o Facebook tem brincado de gato e rato com esses sites.

3::Trojans. As redes sociais têm-se tornado um excelente vetor para Trojans (cavalos-de-Troia). Basta se deixar seduzir por um aviso suspeito de “clique aqui” para receber:

*Zeus – um potente Trojan de roubo de dados bancários potente que, apesar de popular, ganhou vida nova nas redes sociais. Diversos roubos de grandes somas já foram atribuídos a Zeus. Um exemplo notável: o que teve como vítima a administração escolar central de Duanesburg, no Estado de Nova York (EUA), no fim de 2009.

*URL Zone – é um Trojan similar, mas bem mais esperto. Ele é capaz de comparar o saldo das contas da vítima para ajudá-lo a decidir quais roubos merecem prioridade.

4::Vazamento de informações. Compartilhar está na alma das redes sociais. Infelizmente, muitos usuários compartilham mais do que deveriam sobre empresas e entidades, com dados sobre projetos, produtos, informações financeiras, mudanças organizacionais, escândalos e outras informações importantes. Há até maridos e esposas que divulgam, na rede, como seu companheiro ou companheira tem trabalhado até tarde em projetos altamente confidenciais, acompanhado de mais detalhes sobre o tal projeto do que seria aceitável. As consequências desse tipo de indiscrição vão do embaraçoso ao jurídico.

5::Links encurtados. As pessoas usam serviços de encurtamento de URL (como bit.ly e tinyurl) para fazer caber URLs compridas em pequenos espaços. Eles também fazem um ótimo trabalho de esconder o link original; desta forma, as vítimas não serão capazes de perceber que estão clicando em um programa instalador de malware e não num vídeo da CNN. Esses links encurtados são muito fáceis de usar e estão por toda parte. Muitos dos programas para Twitter encurtam os endereços automaticamente. E as pessoas estão acostumadas a vê-los.

6::Botnets. No fim de 2009, pesquisadores de segurança descobriram que contas desprotegidas do Twitter estavam sendo utilizadas como um canal de comando e controle para algumas botnets (redes de PCs vulneráveis, comandadas remotamente). O canal padrão de comando e controle é o IRC (rede de bate-papo), mas alguns cibercriminosos decidiram explorar outras aplicações – como o compartilhamento de arquivos P2P, no caso do Storm – e agora, engenhosamente, o Twitter. O microblog tem fechado tais contas; mas, dada a facilidade de acesso das máquinas infectadas ao Twitter, a situação terá continuidade. Assim, o Twitter também se torna adepto das brigas de gato e rato...

7::Ameaças persistentes avançadas. Um dos elementos-chave das ameaças persistentes avançadas (APT, na sigla em inglês) é a obtenção de dados sigilosos de pessoas de interesse (exemplos: executivos, diretores, ricaços), para o que as redes sociais são um verdadeiro tesouro de informações. Quem usa APTs emprega as informações obtidas para seguir adiante com mais ameaças – aplicando mais “ferramentas de inteligência” (como malwares e Trojans) e, com isso, ganhando acesso a sistemas importantes. Assim, apesar de não estarem diretamente ligadas às APTs, as redes sociais são uma fonte de dados. Menos exótico, mas não menos importante para indivíduos, é o fato de que informações sobre sua vida e suas atividades servem de munição para o ataque de cibercriminosos.

8::Cross-Site Request Forgery (CSRF). Embora não sejam um tipo específico de ameaça – é mais uma técnica usada para espalhar um sofisticado verme de rede social -, os ataques CSRF exploram a “confiança” que uma aplicação de rede social tem quando funciona sob o navegador de um usuário já conectado à rede. Durante o tempo em que essa aplicação não verificar novamente a autorização que lhe foi concedida, será fácil para um ataque infiltrar-se no canal de conexão do usuário, enviando conteúdos maliciosos que, clicados por outros, fariam mais vítimas, que por sua vez ajudariam a espalhá-lo.

9::Impostura (passar por alguém que você não é). Várias contas de redes sociais, criadas por pessoas de destaque e seguidas por milhares de pessoas, têm sido invadidas (o caso mais recente é o de um punhado de políticos britânicos). Mesmo sem invadir contas, diversos impostores têm conquistado centenas e milhares de seguidores no Twitter, só para depois constranger as pessoas que fingem ser (exemplos: CNN, Jonathan Ive, Steve Wozniak, Dalai Lama), ou fazer coisas piores. O Twitter disse que a partir de agora vai bloquear esses farsantes que tentam manchar o nome de suas vítimas, mas sob sua decisão. Já ficou comprovado que a maioria dos impersonators não distribui malware, porém algumas contas já fizeram isso (como a do Guy Kawasaki).

10::Excesso de confiança. O ponto em comum entre todas essas ameaças é a tremenda confiança depositada nas aplicações sociais. Como o e-mail na época em que chegou às multidões, ou o mensageiro instantâneo quando se tornou onipresente, as pessoas confiam em links, fotos, vídeos e arquivos executáveis sempre que eles são enviados por “amigos”, pelo menos enquanto não caírem do cavalo algumas vezes. Parece que as aplicações sociais ainda não deram seu coice a um número suficiente de pessoas. A diferença em relação às redes sociais é que o propósito delas, desde o começo, é compartilhar (muita) informação, o que implicará numa curva de aprendizado mais longa para a maioria dos usuários. Isso quer dizer que as pessoas ainda terão que cair do cavalo mais algumas vezes.

quinta-feira, 1 de julho de 2010

Dez fatores essenciais ao sucesso dos projetos

Profissionais criam um guia com os principais passos para evitar problemas comuns às implementações ligadas à área de TI.

Por CIO/EUA
25 de junho de 2010 - 16h57

Qual a receita para o sucesso dos projetos? Muitos profissionais de TI concordam que o apoio dos principais gestores da companhia, uma clara definição de escopo e requerimentos, boa comunicação e os recursos adequados representam os principais ingredientes.

Esses não são os únicos fatores que influenciam as chances de sucesso de um projeto. Os executivos de TI também têm em mente que as iniciativas dependem de uma metodologia, atender às expectativas dos gestores e um grande conhecimento em gestão.

Recentemente, um grupo de 83 CIOs que participam de um grupo de discussões no LinkedIn criaram um guia com os fatores para que o projeto seja bem-sucedido.

Alguns dos fatores mencionados são óbvios, outros nem tanto. Acompanhe os principais itens discutidos:

1. Defina sucesso
Os profissionais só vão atingir o sucesso se souberem exatamente o que é esperado deles. O gerente de projetos globais da empresa Integra LIfeSciences, Steve Hawthorne, diz que é indispensável saber quais os objetivos de um projeto.

“É comum para nós, profissionais de TI, definirmos sucesso como a junção de metas, necessidade e orçamento atendidos”, diz. O executivo ainda afirma que, sim, esses são pontos importantes em um projeto. Mas vale lembrar que compreender a influência desses quesitos para a empresa é igualmente importante. Em outras palavras: saiba o quê, mas tente saber também por quê.

2. Popularidade não é tudo
Consultora de TI e líder de projetos, Bronnie Brooks, diz que, por várias vezes já teve de tomar decisões que a fizeram pouco popular entre os clientes, a gerência ou, mesmo, a equipe. Tudo isso para manter um projeto andando e atingir os resultados esperados. Em uma ocasião, por exemplo, teve de informar ao cliente que determinado recurso – esperado para o software encomendado – não poderia ser integrado ainda. O usuário teria de esperar pacientemente até o lançamento da versão seguinte.

Tomar decisões difíceis sobre onde alocar recursos no meio do andamento de projetos é, no mínimo, difícil. Gerentes de projetos também querem ser queridos, ao passo em que respondem pelo sucesso das empreitadas. Mesmo assim, não podem recuar ante a decisões críticas.

“Às vezes, a melhor decisão não é a mais popular”, diz Brooks, que emenda “mas é o que vai garantir que a projeto ande equilibrando a relação entre o esperado e o possível”.

3. Capacitar o usuário final e acompanhar o start-up
Uma questão óbvia ao sucesso do projeto é treinar os usuários para utilização das soluções. Em muitos casos, porém, a implementação de sistemas falha, não em função de entrega fora do prazo ou por estourar o orçamento, mas porque as pessoas não foram adequadamente treinadas.

“Quando a questão é aprimorar o uso do software, não existe “demais”. Certamente a maioria das soluções novas dão errado, por conta de usuários mal treinados”, afirma um gerente de TI, durante o encontro de CIOs realizado na Espanha.

4. Estabelecer atribuições e competências – de maneira clara e objetiva
Não é raro que pessoas envolvidas em um projeto, como gerentes, equipe de TI, comitês e patrocinadores não entendam exatamente quais são as atribuições individuais. Isso se dá em função da falta de esclarecimento prévio. A afirmação é do auditor de TI pertencente ao The Wood Group, Chet Ung.

Se, por exemplo, o comitê de gestão de um determinado projeto não souber qual a função dentro do projeto, jamais saberá o que é esperado dele. As pessoas têm o poder de mudar o rumo do projeto, e, nem sempre sabem disso. A conseqüência é uma contribuição deficiente, causada pela falta de informação.

“Atribuições e competências precisam ser claramente definidos e documentados. É a única maneira de evitar a confusão e de alcançar o nível de contribuição esperado de cada membro do projeto”, esclarece Ung.

5. Fluxo de trabalho transparente
“Fluxos claros de trabalho não deixam espaço para as pessoas duvidarem qual o espaço em que estão  exatamente alocadas dentro da dinâmica do processo; o que vem antes e para onde vai aquilo no que estão envolvidas no momento”, diz a presidente da empresa norte-americana ProjectExperts, Stacy Goff.

Clareza no fluxo dos processos é um componente essencial quando o objetivo é gerar economia e incrementar qualitativamente todo o projeto. “Nada se compara à segurança de saber que o trabalho está sendo feito por pessoas capacitadas, e que haverá poucas correções a serem feitas naquilo que chega na escrivaninha ou na caixa de entrada. Quando sabe-se que o próximo a receber aquilo no que estamos trabalhando é alguém dedicado e com olhos perfeccionistas, costumamos nos esmerar em nossa tarefas”, diz Goff.

6. Gerenciar alterações no escopo de projetos
É comum que usuários finais de sistemas em desenvolvimento queiram implementar mudanças e alterar algumas nuances nas soluções. Mal sabem que alterações, mesmo que pareçam mínimas, podem ocasionar em modificações brutais no esquema do projeto, influenciando tanto em custo quanto em prazo para a entrega.

Acontece que, nem sempre, o gerente de projetos consegue entender a profundidade da alteração que três botõezinhos a mais na interface do sistema ocasiona no trabalho. “Essa falta de noção é especialmente acentuada nos casos de consultorias externas”, afirma o fundador da empresa de consultoria e de gerência de projetos Spivey & Co., Chris Spivey. Na tentativa de agradar a gregos e a troianos, a gerência de projetos, muitas vezes, aceita a inlcusão dos três botões no sistema. Quando são informados pelo departamento de design técnico que essa implementação vai custar ao projeto alguns preciosos meses de trabalho extra, a casa, literalmente, cai.

É essencial dispor de um processo para gerir mudanças em projetos que estejam em andamento. Nesse gerenciamento devem ser integrados os recursos de aprovação e veto às mudanças, avaliação do prazo exigido pelas alterações e definição de custos dos incidentes. De posse de rotinas dessa natureza, um gerente de projetos pode definir a profundidade do impacto de algumas mudanças caso a caso.

Também oferece ao cliente a oportunidade de reavaliar a necessidade da implementação dos três botões na interface.

Menos surpresa, mais eficiência.

7. Gerenciamento de risco
“A gestão de riscos é, sem a menor sombra de dúvidas, parte essencial de qualquer projeto, independentemente do tamanho”, afirma Goff, da ProjectExperts. De acordo com o profissional, o gerenciamento deve estar integrado em todas as etapas, de concepção a início até o dia do lançamento.

O que torna o gerenciamento de riscos vantajoso é o fato de oferecer ao gestor do projeto uma perspectiva do que pode dar errado. Também vale para deixar a equipe de desenvolvimento, o cliente e os demais envolvidos, esclarecidos acerca dos detalhes e do ritmo a ser adotado para a execução dos trabalhos.

 8. Documentação apropriada
Sem a documentação, as equipes podem não entender de maneira adequada quais funcionalidades e requerimentos técnicos estão atrelados aos recursos planejados para a configuração da solução em desenvolvimento. A ausência da documentação detalhada também implica em um desperdicio de tempo e de recursos na tentativa de acomodar as expectativas do cliente.
É um riso enorme para a equipe, dar andamento em projetos sem embasamento documentado e as metas esclarecidas.

A habilidade de evitar confusão é, para Ung, um dos fatores que justificam a implementação de documentos referentes à execução dos projetos.

9. Controle de qualidade eficiente
Esforços para aferir a qualidade são aplicáveis nas instâncias de integração, de funcionalidade e em ensaios de stress. Não recebem a atenção devida, pelo fato da gerência de projetos não estar familiarizada com esse recurso, nem com suas diferentes vertentes. Em outros casos, à análise de qualidade é dedicado menos tempo  do que o necessário em função do ganho de tempo. A despeito do motivo, o resultado é sempre o mesmo: um software ou um hardware defeituosos – mais trabalho – menos satisfação.

“Ter um acompanhamento de qualidade eficiente é essencial”, diz Ung. “É a única maneira de garantir a entrega de uma solução de acordo com o encomendado”, afirma.

O CTO da Richard Ivey School of Business, Peter Scheyen, recomenda execução de análises de qualidade em todas etapas, e o envio de versões de teste para os clientes. “Obter deles (usuários finais) um feedback sobre o programa é algo muito precioso, é uma das maneiras mais eficientes de reduzir o eventual risco do projeto não estar saindo de acordo com o esperado na outra ponta”, finaliza o profissional da escola londrina.

10. Governança
Segundo Ung, a governança será responsável pela definição dos moldes dentro dos quais um projeto ou um programa devem ser gerenciados. “Ela também define a “linguagem” usada no desenvolvimento das soluções”, adiciona Ung. “Com uma boa governança, o trabalho flui de maneira mais harmoniosa, mais eficiente”, diz.

Ausente, a governança dá ao projeto um ar de inconsistente, pouco confiável. A equipe de desenvolvimento, por exemplo, poderá trabalhar de acordo com um molde, enquanto os analistas de negócios trabalham com outras referências, levando o projeto inteiro de encontro ao fracasso.

CEO da Red Hat: empresas não exploram potencial da tecnologia

Jim Whitehurst alerta os CIOs para as armadilhas embutidas nas promessas da computação em nuvem e questiona a postura da indústria de software proprietário.

Por Network World/EUA
29 de junho de 2010 - 14h18

As melhores experiências oferecidas pelo avanço de TI ainda são experimentadas no ambiente doméstico. Pelo menos, na visão do CEO da empresa de sistemas operacionais Linux Red Hat, Jim Whitehurst.

“Em uma conversa com um CIO, ouvi que 'o Google é o meu maior concorrente' ”, afirmou Whitehurst. Ainda de acordo com ele, esse executivo com o qual falou - e que prefere se manter anônimo - trabalha para uma empresa de logística.

Há alguns meses, o tal CIO foi abordado pelo CMO (Chief Marketing Officer) da sua companhia. Ele queria que a TI criasse um sistema para que os departamentos de marketing de vários países compartilhassem documentos e executassem tarefas de maneira colaborativa.

Depois de consultar os integrantes do departamento de TI da companhia, o CIO voltou a conversar com o executivo de marketing e lhe propôs a realização da tarefa ao custo de 14 milhões de dólares, em um prazo de nove meses.

“Do que você está falando?!” foi a resposta do CMO ao ouvir a proposta do CIO. O executivo do marketing emendou: “Eu estava ajudando minha filha no projeto de escola dela e percebi que fazia tudo usando o Google Docs; se não me engano, o custo era zero”.

O CEO da Red Hat cita essa conversa para ilustrar uma questão mais profunda: o modelo de negócios usado por empresas que adotam plataformas proprietárias está “condenado”.

Os softwares ficam cada vez mais lerdos, mesmo com o avanço na performance do hardware. O motivo disso é que fornecedores de sistemas, como a Microsoft e a Oracle, passam o tempo todo incrementando os pacotes de software com recursos que só são vantajosos para um pequeno grupo de usuários finais.

“Quantas vezes o usuário já foi obrigado a realizar a atualização do sistema, mesmo não tendo qualquer utilidade para os novos recursos implementados? E tudo isso porque, se não comprar a atualização, não pode mais contar com o suporte oferecido pela empresa”, relata Whitehurst.

Para o executivo, isso demonstra um modelo de negócios falido. "Se o produto principal de um fornecedor são os recursos para as plataformas, por que eles não vendem somente os recursos e deixam a cargo dos clientes a aquisição ou não dos complementos?”, justifica.

Nuvens particulares
Isso não quer dizer que a Red Hat não desenvolva os recursos mencionados. Durante um evento nos Estados Unidos, a empresa anunciou a disponibilidade do pacote Cloud Foundations; o nome já revela do que se trata. O produto oferece suporte à formação de nuvens particulares com base na integração de vários serviços do sistema Red Hat Linux.

A organização também aproveitou o evento para anunciar o lançamento do Enterprise Virtualization para Desktops e a versão 2.2 do software de virtualização para servidores.

Mas, de acordo com Whitehurst, a empresa não reajusta o valor do suporte para a versão Server do Red Hat Linux há oito anos. “E nós não inchamos o nosso software, só para fazer mais dinheiro com uma versão nova. Se o cliente é um consumidor, tem garantia de suporte. Ponto.”, diz.

O CEO dá a entender que poderia gerar receita maior, se espremesse os usuários. De acordo com Whitehurst, outras empresas do segmento Linux têm feito mais dinheiro com o sistema que eles. “Temos dez vezes mais sistemas instalados nos servidores que licenças compradas”, diz.

Iate e as nuvensEm um slide seguinte, Whitehurst mostrou um iate enorme, supostamente de propriedade de Larry Ellison (Oracle) e disse “Esse é o iate de um CEO de uma grande empresa de software e, uma dica, não é meu”, disse.

A arquitetura típica de TI em uma empresa costuma ser confusa, intimidadora e conduz muitos CIOs em direção à estratosfera. “A nuvem por si só”, argumenta Whitehurst, “é uma saída 'estratégica pela direita', quando muitos dos problemas internos poderiam ser resolvidos com a disponibilidade das ferramentas apropriadas”.

Os clientes querem arquitetura modular e padrões abertos que possibilitem a portabilidade dos arquivos e dos dados. Se, por um lado, a nuvem oferece essas soluções, ela também pode ser considerada a “maior armadilha de todas”, ao atrair as empresas para o ambiente e, se decidir, não permitir a migração desses serviços de volta para a terra.

A Red Hat é uma das muitas empresas atuantes no segmento de software aberto e proprietário, e afirma fornecer tecnologia com ampla escolha para o consumidor. O cliente pode decidir livremente entre as opções de recursos de hardware ou de software que julgar melhor para a empresa e para os negócios.

Whitehurst afirma que a diferença entre a Red Hat e as outras empresas é que eles trazem junto uma variedade de parcerias com outras companhias.

Apesar de estar envolvida em uma solução de virtualização própria, a Red Hat trabalha em conjunto com a Microsoft e com a VMware para garantir uma integração entre as plataformas e possibilitar que os sistemas operacionais Linux rodem eficientemente em bases ESX e Hyper-v. Nada fora do comum, se admitirmos que é comum vermos sistemas Windows rodando em cima de VMware.
Ao mesmo tempo que o CEO da Red Hat tenta, de certa forma, diminuir o impacto da nuvem, ele lança os softwares de código aberto como solução ideal para esse ambiente. Em resumo, Whitehurst disse que “o software de código fonte aberto é imprescindível para as tendências como o SaaS, a Web 2.0, para a nuvem e a computação em geral; sem a economia gerada pelo uso de software livre essas tendências jamais seriam viáveis”.

terça-feira, 29 de junho de 2010

Outsourcing: sete formas de aumentar as chances de sucesso

Acadêmicos desenvolvem lista de passos necessários para melhorar a relação entre clientes e fornecedores nos contratos de terceirização.

Por CIO/EUA
28 de junho de 2010 - 12h42

No mercado de TI, o nome de Oliver Wiliamson, que recebeu o Prêmio Nobel de Economia em 2009, ainda não é famoso. Mas, se depender de um grupo de acadêmicos especializados em outsourcing, a situação deve mudar em pouco tempo.

Professor emérito nos cursos de negócios, de economia e de direito na universidade californiana de Berkeley, Williamson recebeu o Nobel por um estudo sobre governança econômica. E uma das teses defendidas pelo especialista no documento é que existe a necessidade de contabilizar todos os custos de um contrato - tanto os óbvios quanto os escondidos - para ter sucesso em qualquer iniciativa de terceirização.

Com base na tese do especialista, alguns acadêmicos, liderados pela professora do centro de educação executiva da Universidade do Tennessee (Estados Unidos) Kate Vitased, autora do livro “Vested Outsourcing: Five Rules That Will Transform Outsourcing” (Outsourcing de resultados: Cinco regras que mudarão o outsourcing, em português), transformaram os ensinamentos de Williamson em nove regras que precisam ser seguidas para aumentar as chances de sucesso de um acordo para terceirização de TI:

1. O contrato deve ser de cooperação
Em um artigo sobre o gerenciamento de contratos de outsourcing e sobre a economia de custos contratual, Williamson escreveu que “a eficiência nas relações de troca tem origem no escambo que nossos antepassados realizavam ao trocar nozes por frutos na beira da floresta. Nessa relação as trocas eram simples e transparentes”.

As modernas relações de outsourcing, por outro lado, são bem mais complexas. Mas Williamson ressalta que ganhos adicionais podem ser realizados com base na criação de processos voltados a assegurar a cooperação entre as partes durante a vigência do contrato. De maneira prática isso significa substituir a frase “O que tenho a ganhar com isso?” por “O que nós temos a ganhar com isso?”. Quando um negócio é bom para as duas partes ele deve ser realmente bom para as duas partes.

2. Custos contratuais escondidos
Não há contrato que termine custando exatamente o que está descrito no campo “Custo total”. Na verdade, a diferença entre o custo nominal e o efetivo pode ser abissal. Determinar qual é essa discrepância é trabalhoso, mas também crucial.

De acordo com Kate, “qualquer relação contratual bem estruturada, que possa ser considerada colaborativa, deve levar em consideração alguns fatores de risco, considerar falta de estoques, calcular frequência e determinar os ajustes a serem feitos para assumir a relação cliente-fornecedor. Se não for assim, não pode ser chamado de contrato.”

Em longo prazo, condições contratuais que relegam a uma parte apenas todos os riscos vão acarretar cutos adicionais.

3. O contrato é uma matriz e não uma arma
Clientes de outsourcing com experiências negativas, muitas vezes, criam contratos blindados, que preveem a maioria das circunstâncias possíveis. De acordo com a interpretação que Vitasek faz do estudo de Williamson, isso é um erro grave, algo praticamente impossível.

“Formar contratos dessa natureza tolhe a criatividade e estimula a caça às bruxas quando algo dá errado”, diz Kate. Ela sugere que, em de tentar adivinhar o futuro é mais eficiente estabelecer as linhas gerais para serem seguidas no trabalho conjunto e prover um recurso para casos excepcionais. “Questões a serem resolvidas exigem um planejamento do processo e das ferramentas, não das questões em si”, diz.

4. Esteja preparado para o fim
Parcerias de subcontratação não duram para sempre. Portanto é bastante razoável planejar o encerramento da relação com antecedência. Em um artigo publicado no Journal of Supply Chain Management, Williamson escreveu que “de maneira consciente e com vistas para o futuro, um cliente de outsourcing pode mitigar os efeitos de uma relação contratual com o fornecedor”.

Sobre esse assunto, a professora da Universidade do Tenessee diz: “é importante reconhecer que as relações comerciais podem mudar com o tempo e em função de alterações no mercado. Baseado nisso, os contratos demandam planos de desligamento bem gerenciados. As partes devem identificar claramente os custos ligados ao encerramento dos contratos e criar dispositivos nos instrumentos que garantam integridade e preservem as partes no caso de uma quebra prematura de acordo."

5. Faça uma declaração de objetivos comuns
Sempre que possível, identifique fatores que caracterizam o alinhamento entre os seu negócio e o conhecimento do fornecedor de TI contratado. O objetivo dessa comparação é permitir a redução de custos finais. Kate sugere que uma declaração de objetivos comuns seja integrada ao contrato, para servir de matriz nos procedimentos futuros. Ela também sugere que um plano de prêmios por metas atingidas seja implementado.

6. Seja bom, mas não bonzinho
Faz sentido impor os interesses da organização na mesa de negociação, ou deixar que o outro imponha os próprios. De uma maneira ou de outra, no final das contas o cliente pagará pela escolha que fizer. Companhias que seguem o que Williamson chama de 'braço de ferro' na mesa de negociação merecem o nome de oblíquas e só enxergam as vantagens em curto prazo.

“O resultado desse modelo de negociação é deparar-se com preços de mercado mais elevados na hora de contratar outros fornecedores. É esperado que os provedores que tiverem de atender a condições impostas por clientes, tendam a incrementar os custos dos serviços com taxas de todas as naturezas”, diz Kate. A estudiosa cita Williamson e afirma que “deve-se ficar atento para não formar contratações idealísticas e românticas, em que se parte do princípio de que a outra parte vá cumprir exatamente o que promete”.

Condecorado pelo Prêmio Nobel, Williamson recomenda que os contratos sejam estabelecidos com base no que denomina de “contratação de confiança”, baseada em uma mistura de intuição e tino comercial, e não nas alternativas extremas. Esse tipo de contratação é “flexível suficiente para reconhecer que contratos extremamente complexos são incompletos por natureza e requerem cooperação por ambas as partes”, diz Kate.

7. Deixe que fiquem com o troco
A vasta maioria dos fornecedores de outsourcing de TI e de clientes desse segmento acredita que deixar que a outra parte “fique com o troco” é um sinal de burrice - e que representa um desperdício de dinheiro. Negociar implacavelmente na busca pelo menor preço vai, inevitavelmente, conduzir as partes para um gasto maior em longo prazo.

“Manobras e contra-manobras desse tipo vão prejudicar as engrenagens do sistema de cooperação e os lucros embutidos para as partes”, escreve Williamson. “Deixar o troco na mesa pode ser interpretado como sinal de intenção para um trabalho em conjunto profícuo e saudável e ameniza as preocupações referentes ao comportamento estrategicamente selvagem por parte do outro player”.
É claro que a eficiência desse comportamento varia de acordo com o nível de confiança existente entre as partes.

segunda-feira, 19 de abril de 2010

Sete conceitos tecnológicos para observar em 2010

Consultoria lista temas que devem causar impactos no dia-a-dia das corporações com abordagem voltada à finalidade de uso das tecnologias.

Por Redação da Computerworld
16 de abril de 2010 - 19h01

Na onda de previsões sobre os temas e conceitos tecnológicos que vão causar impacto no dia-a-dia das corporações, o TechLab, laboratório de pesquisas e análise de tecnologias da consultoria E-Consulting, divulgou uma lista com sete tendências para serem observadas em 2010.

Segundo o sócio-fundador da E-consulting, Daniel Domeneghetti, todas as tendências têm um fio condutor: a abordagem tecnológica não com foco na entrega, mas na finalidade de uso. “As listas tradicionais falam de CRM, BI, mas os departamentos têm muitos projetos dessas tecnologias que não entregam nada. O momento é de focar na finalidade das tecnologias”.

Confira as sete tendências apontadas pelo laboratório:

Empresa 2.0 – Cada vez mais conectadas às ferramentas sociais, as empresas terão de integrar todos os seus aplicativos internos com redes colaborativas, causando impacto em toda a arquitetura corporativa, influenciando fluxos, processos, rotinas e informação. “Essa mudança está acontecendo à revelia das corporações. Para lidar com essas transformações, o líder deve ser uma mistura do CIO com o CEO, que trate processos e informações de forma integrada”, explica Domeneghetti.

Integração multicanal – O paradigma tradicional de comunicação está mudando para um modelo nos quais vídeos, áudio, escrita, imagem, interatividade e mobilidade transformou os papeis de cada envolvido nesse processo. O desafio será gerenciar e integrar canais, mídias e ambientes de relacionamento, maximizando a finalidade de cada canal.

Contra-governança de TI – Grupos que não aceitam os ideais estabelecidos pelo departamento de TI fazem movimentos para derrubar os padrões e criam suas regras, escolhendo suas próprias ferramentas de trabalho. Smartphones, por exemplo, permitem que o usuário baixe seus próprios aplicativos e redefina sua forma de trabalho, sem contar outras ferramentas gratuitas disponíveis.

Para gerenciar esse movimento, a governança de TI deverá rever seu papel e objetivos: não será mais a que impõe regras, mas a que fornece nortes em prol da agilidade, velocidade e uso das opções tecnológicas disponíveis. “O primeiro passo é dominar o problema. O segundo é ter atitudes proativas para estimular boas práticas”, diz.

CRM 2.0 – Se as ferramentas de gestão de relacionamento com o cliente nasceram como meio de registro e análise das integrações empresa-cliente, hoje elas precisam estar atentas às atividades do cliente que digam respeito a empresa nos ambientes colaborativos. Para atender a esse novo consumidor, o CRM deverá se adaptar a essa realidade.

Usabilidade – As informações estão nos diversos dispositivos móveis, mas elas vão vencer ou perder a guerra nas corporações em função da experiência do usuário e não de decisões unilaterais. Esse efeito já pode ser sentido por aparelhos como o iPhone, que foi levado às corporações pelos usuários. O mesmo aconteceu, no passado, com as ferramentas da Google.

Informação na nuvem – A informação e o conhecimento estão disponíveis nas redes como módulos consumíveis, uma vez que a colaboração acelera o democratiza o fluxo de trocas e aprendizado. Entender esse cenário é essencial, uma vez que as tomadas de decisão devem ser imediatas.

Empresas Digitalmente Responsáveis (EDRs) – “É uma resposta à contra-governança corporativa. Impor regras e práticas não é mais produtivo, então os departamentos de TI devem normatizar conceitos e estabelecer instruções claras sobre as possibilidades que elas têm no mundo digital”, detalha Domeneghetti. Para se tornar uma EDR, a companhia pode abordar temas e práticas como consumo consciente, segurança digital, TI Verde, fomento à inclusão digital, transparência nos processos de transação online, entre outros.

Smartphones exigem política de gestão

Avanço de celulares nas empresas torna crítica a criação de estratégia para gerenciar o uso crescente desses dispositivos pelos funcionários

Por Redação da Computerworld
19 de abril de 2010 - 07h05

Como vice-presidente de TI da Windor Foors, em Houston, Texas (EUA), Stephan Henze, precisa estar um passo à frente das últimas tendências tecnológicas. Por isso, vem dedicando tempo a refletir sobre a segurança de smartphones corporativos. Há pouco tempo, a companhia tinha apenas uma dúzia desses dispositivos, mas agora a área de TI gerencia uma centena de aparelhos, número que continuará crescendo. A tarefa de proteger smartphones está ficando cada vez mais complexa, diz Henze, à medida que as necessidades de mobilidade da companhia ganham força. A constatação do vice-presidente da empresa norte-americana vale para todos os gestores da área de tecnologia da informação. A disseminação do uso de smartphones e a dependência da mobilidade tornam o gerenciamento de dispositivos móveis tão crítico quanto é a gestão de computadores.

Mas, na avaliação do diretor de novas tecnologias aplicadas da IBM Brasil, Cezar Taurion, o mercado corporativo ainda carece de políticas de gerenciamento de dispositivos móveis, já que poucas empresas contam com práticas deste tipo efetivamente implementadas. Para ele, o mercado está passando por um momento semelhante ao início da popularização dos desktops no ambiente corporativo, quando também faltava criar uma estratégia para gerenciar esses equipamentos.“Apesar de todos os riscos de segurança, duas em cada três organizações ainda estão se esforçando para definir e implementar políticas de TI ligadas à mobilidade”, concorda o analista da consultoria Strategy Analytics, Philippe Winthrop.

A quantidade de informações que os smartphones levam em si e a facilidade de perder de vista esses aparelhos são os dois fatores que têm despertado a atenção, ainda que tímida, do setor corporativo quanto à necessidade de gerenciar esses dispositivos. O smartphone miniatuariza o ambiente do PC, fazendo com que informações confidenciais e o acesso ao ambiente corporativo circulem de um lado para o outro, literalmente no bolso dos funcionários.

Essa mobilidade já era oferecida por notebooks e desktops, mas ganha novas dimensões com o celular. “A gestão desses dispositivos é imperativa. Eles vêm ocupando um espaço cada vez maior dentro do conceito de mobilidade, porque quanto menor, melhor”, sentencia o diretor de estratégia e arquitetura de TI do grupo químico Rhodia, Fernando Birman.

Padronizar ou não padronizar
Muitas companhias tentam estabelecer este tipo de controle comprando telefones padronizados para o uso dos funcionários. A opção da Rhodia foi pela padronização, usando os modelos da família BlackBerry, da Research in Motion (RIM). “A empresa distribui, dá suporte e tem regras para pagamento da conta e reembolso. A empresa gerencia os dispositivos”, conta Birman. Mas escolher ou não um padrão depende da estratégia e da cultura de cada companhia, observa o executivo. Para ele, o mais importante é que a empresa decida se adotará ou não a padronização.

O grupo alimentício Doux, dono da marca Frangosul, entre outras, por exemplo, ainda não padronizou os dispositivos usados por seus funcionários. Hoje a companhia utiliza o sistema Palm, por conta de um aplicativo de força de vendas, e terminais Blackberry, exclusivamente para executivos da área administrativa. São 120 Palms e 50 dispositivos da RIM. A empresa está em fase de análise das plataformas, que poderá culminar com um processo de mudança, conta o CIO da companhia, Rafael Nicolela. “O próprio mercado ainda não possui um modelo que tenha se firmado como dominante”, pondera o executivo, referindo-se à decisão de adotar ou não uma plataforma única.

Na Mondial Assistance, os membros do conselho de administração utilizam iPhones. Executivos da área comercial usam o modelo E71, da Nokia. Os modelos foram escolhidos em função de usabilidade e, no caso do iPhone, porque a empresa oferece serviços para seus clientes que são acessados apenas por meio do celular da Apple. “O iPhone é mais caro, por isso entra só no conselho executivo. O aparelho da Apple também consome mais por conta da facilidade de se trafegar dados”, explica o CIO da companhia, Marcelo Tort. Ao todo, a Mondial conta com 30 aparelhos para gerenciar, número que deve crescer nos próximos meses, de acordo com Tort. A empresa ainda não definiu se optará ou não pela padronização de smartphones, mas o CIO ressalta que está acompanhando o movimento e as ofertas no mercado. “O sistema Android vem ganhando destaque no mercado e será observado de perto pela companhia”, diz.

Na dúvida sobre homogeneizar ou não o parque de smartphones, o gerente de engenharia de sistemas da fornecedora de soluções McAfee, José Antunes, orienta CIOs a optarem pela primeira alternativa. “ Tudo o que você padroniza leva a um nível de segurança maior”, ressalta. A opção da General Motors (GM) foi oferecer o celular como benefício para todos os 6 mil funcionários da companhia. A vantagem é que os empregados contam com tarifas de uso de planos corporativos oferecidos pelas operadoras Vivo e TIM para suas ligações pessoais. As chamadas corporativas são pagas pela companhia, por meio de um relatório de ligações preparado pelo funcionário e aprovado pelo gestor. As operadoras oferecem uma gama de aparelhos que podem ser escolhidos pelos empregados. No caso dos cerca de 600 smartphones que oferecem acesso à e-mail, a GM padronizou o leque de opções entre dois modelos, um com Windows Mobile e outro com Symbian. "O sistema de e-mail vai direcionar você para alguma plataforma. Se você abrir muito o número de opções, isso causa dificuldades", diz o CIO da companhia, Cláudio Martins.

Segure as rédeas
Uma pesquisa realizada com 300 empresas nos Estados Unidos e na Europa indica que 80% dos participantes informaram ter crescido, nos últimos seis meses a 12 meses, o número de funcionários que querem usar seus próprios aparelhos no ambiente de trabalho. Além disso, 28% deles registraram vazamento de dados devido ao uso não autorizado desses equipamentos. O estudo foi feito pelo fornecedor de ferramentas de gerenciamento e segurança para mobilidade Good Technology.

“Os funcionários não pensam ou perguntam sobre qual laptop vão utilizar. Mas não há dúvidas de que eles vão questionar por que não receberam um BlackBerry, ou por que não podem usar o iPhone ou o Palm Pre. Mesmo que as empresas decidam atender ao desejo de cada usuário, elas precisam levar em conta que têm de gerenciar esses aparelhos e a informação que passa por eles ou é armazenada neles”, afirma Winthrop.

Na verdade, os smartphones devem ser vistos não como telefones, mas como computadores que também fazem ligações. “Antigamente, havia a Internet, a intranet e a rede corporativa da empresa”, diz Henze. Agora, com dispositivos cada vez menores e mais poderosos levando dados para qualquer lugar onde uma pessoa possa ir, esses conceitos se misturaram.

Envolva o usuário
Realmente, um aspecto complicador ligado à gestão de smartphones é que os usuários veem esses dispositivos como aparelhos pessoais e não como equipamentos que devem estar sob o controle do departamento de TI. “O usuário tende a ver o smartphone como algo que é azul e toca música, não como um recurso que deve ser assegurado”, afirma o analista da consultoria Gartner, John Girard. Por isso, o gerente de engenharia de sistemas da McAfee destaca a importância de envolver o usuário para que a política de segurança atinja os resultados esperados. “É preciso mostrar o risco que a informação apresenta para que ele entenda o transtorno que a perda ou o uso indevido do aparelho pode causar à empresa”, orienta Antunes. “Se o usuário não estiver envolvido e apoiando o processo, ele vai anotar a senha na bateria do telefone, vai comprar outro telefone para não ter de usar o que está assegurado, vai driblar a política”, ressalta.

Existem diversas alternativas de soluções para o gerenciamento e o incremento da segurança de smartphones. Alguns dos principais recursos incluem controle centralizado de gerenciamento de senhas; autenticação; encriptação; bloqueio por inatividade e destruição remota de dados. “Uma política de gerenciamento de dispositivos móveis deve ter como objetivo proteger os principais bens da companhia e estar em concordância com a cultura interna da organização”, afirma o gerente de segurança para América Latina da RIM, Pablo Kulevicius. Algumas das medidas de segurança incluem bloqueios por inatividade após de 10 minutos sem que o aparelho seja usado, além de destruição remota de dados se houver suspeita de comprometimento de informações após perda ou roubo, ou se a senha for digitada incorretamente mais de dez vezes.

Girard, do Gartner, afirma ser importante configurar os equipamentos para desconectarem depois de períodos de inatividade. Ele recomenda o prazo variável entre um e cinco minutos para aparelhos com informações de grande valor, e não mais que dez minutos para aqueles que têm dados de valor médio, e 15 minutos para os que têm informações menos sensíveis. Para voltar a usar o dispositivo, os usuários devem informar a senha novamente. A recomendação é que essa senha seja robusta, com entre sete e 12 caracteres. “Porque é móvel, as pessoas acham que deve ser fácil e resistem a adotar senhas mais fortes. Mas você não pode ter uma senha de quatro dígitos, porque realmente existe uma grande chance de alguém estar observando você digitar”, alerta Girard. Essa preocupação, no entanto, deve estar alinhada à usabilidade, para não afastar o usuário, destaca o especialista. “Pode ser complicado forçar os usuários a colocar senhas de 32 caracteres com quatro símbolos e digitá-la a cada dois minutos”, pondera Kulevicius.

Brasil terá certificação ambiental para data center

As diretrizes Leed buscam economizar energia e reduzir a emissão de gases de efeito estufa, a partir de parâmetros como a disposição física dos servidores, disposição do ar condicionado e tecnologias alternativas.

Por Verônica Couto, especial para CIO Brasil
16 de abril de 2010 - 11h46

Um grupo de especialistas brasileiros está traduzindo e adaptando à realidade local as especificações da Certificação Leed (Leadership in Energy and Environmental Design), destinada a orientar a construção de edifícios e data centers sustentáveis do ponto de vista ambiental.

O documento cobre vários parâmetros, entre eles: a disposição física dos servidores - a distância entre eles e a metragem dos corredores; os materiais das paredes capazes de assegurar isolamento térmico (e menor necessidade de resfriamento); a distribuição dos aparelhos de ar-condicionado em áreas ou salas de menores dimensões; além de relacionar tecnologias alternativas como captação de energia solar, entre outras.

Segundo o gerente sênior da PriceWaterhouseCoopers no Brasil e especialista em eficiência em TI, Norberto Tomasini, a certificação Leed pode ser obtida nas categorias Golden ou Silver, de acordo com o nível de aderência do projeto. Depois de traduzida e adaptada, será oferecida a consultores e auditores no País, para que eles possam no futuro conferir os projetos de data center elegíveis ao selo.

Fazem parte do grupo de tradução da certificação, além da PriceWaterhouseCoopers, representantes do Ministério do Meio Ambiente, técnicos da Associação Brasileira de Normas Técnicas (ABNT), entre outros.

O trabalho já está sendo desenvolvido há um ano e Tomasini estima que sejam necessários outros 12 meses para sua conclusão. Entre as mudanças, o Brasil trabalha com uma taxa de conversão do total de watts consumido em carbono equivalente muito mais favorável do que a dos Estados Unidos, por ter uma matriz energética mais limpa, baseada em hidrelétricas, e não em termoelétricas (carvão). Ou seja, o mesmo watt consumido no País representa menos CO² do que no território norte-americano.

Apesar do tempo que ainda falta para o encerramento do trabalho de tradução, já há empresas brasileiras, segundo Tomasini, adotando parâmetros da certificação nos projetos de construção dos CPDs. Mais do que isso, ele acredita que muitos CPDs no País estariam atingindo a fase de esgotamento, na idade de 30 anos, em média,  quando começaria um novo ciclo de reconstrução nos grandes usuários. “Não é preciso erguer um datacenter novo. Hoje, há muito bons fornecedores terceirizados com tecnologias novas, mais sustentáveis. E os novos padrões ambientais e de redução de energia podem estar previstos e definidos nos acordos de nível de serviço (SLA)”, diz.

quarta-feira, 14 de abril de 2010

Quatro passos para começar uma estratégia de cloud computing

Empresas ainda têm muitas dúvidas sobre como dar início à adoção da computação em nuvem. Confira as dicas do vice-presidente de pesquisas do Gartner.

Por Rodrigo Afonso, da Computerworld
13 de abril de 2010 - 11h35

O conceito de computação em nuvem já passou por muitas rodadas de discussão, mas executivos de TI ainda têm dúvidas quanto à tecnologia e sua implantação. Uma pesquisa realizada pela auditoria norte-americana Information Systems Audit and Control Association (ISACA), metade dos líderes de TI nos EUA desconfia da cloud computing.

Segundo o vice-presidente de pesquisas do Gartner, Daryl Plummer, é possível começar a estratégia com algumas ações simples que darão aos gestores de TI uma ideia mais clara sobre o caminho a ser seguido nas nuvens.

Em palestra realizada nesta terça-feira (13/4) na IX Conferência Anual de Tecnologias Empresariais, em São Paulo, Plummer deixou claro que não há uma receita a ser seguida quanto à estratégia de cloud. Cada caso é um caso. “As empresas precisam encontrar o melhor meio termo entre a eficiência de custos, a flexibilidade da nuvem e a confiança que conseguem depositar nos provedores de serviços. Se não há confiança, não há como migrar”, observa.

É aí que entra a segunda discussão: nuvens públicas ou privadas? Para Plummer, essa não deve ser a principal preocupação dos gestores de TI. O mais importante, avalia o vice-presidente de pesquisas do Gartner, é garantir o controle sobre o gerenciamento da infraestrutura contratada, sob o ponto de vista de  gestão, segurança e latência de dados. Confira as quatro passos iniciais para as empresas aderirem à nuvem, segundo o especialista.

1 – Compare os custos atuais aos custos reais que sua empresa terá com um fornecedor de cloud. Isso implica em analisar os diferentes tipos de contrato e os riscos que eles envolvem. É possível fazer um paralelo com o consumo de dados no celular: o cliente usa à vontade até atingir o limite do plano contratado. Caso o ultrapasse, o megabyte adicional começa a ficar muito caro. Com a cloud, um preço inicial muito barato pode sair caro ou significar indisponibilidade de serviço.

2 – Eleja cargas de trabalho que podem ser colocadas na nuvem e coloque-as em diferentes provedores de serviço. Esse passo é fundamental para testar fornecedores e avaliar níveis de serviço e grau de confiabilidade.

3 – Empacote algumas aplicações não-críticas e coloque-as na nuvem. Mas é importante fazer um trabalho cuidadoso de avaliação e não parar nas primeiras aplicações, elaborando um planejamento estratégico para avançar paulatinamente.

4 – Teste uma plataforma de nuvem gratuita. Assim, a empresa pode fazer testes em uma nuvem interna, obtendo imediatamente informações sobre impacto, além de feedback interno na corporação.

Empresas nos EUA recebem incentivos para adotar TI Verde

Setor de utilities oferece benefícios para corporações que adotam virtualização ou cloud computing, por exemplo.

Por Kevin Fogarty, da Infoworld
13 de abril de 2010 - 13h00

O interesse em TI verde caiu junto com a economia durante os últimos dois anos, dizem os analistas. No entanto, virtualização e iniciativas de computação em nuvem também ajudam a reduzir o consumo e a economizar dinheiro. E algumas empresas do segmento de utilities oferecem benefícios fiscais para companhias com iniciativas de eficiência energética.

Isso é bom para a TI, uma vez que os projetos de virtualização e cloud computing podem reduzir a necessidade de compra de novo hardware, bem como aproveitar melhor equipamentos antigos, de acordo com o especialista em TI verde da IDC, Song Ian.

Um estudo de 2009 da Beacon Consultants Network encontrou empresas de utilities dispostas a pagar cerca de 6 dólares por computador para obterem de volta 100% do custo dos sistemas de gestão de energia. Mesmo projetos apenas perifericamente ligados ao gerenciamento de energia poderiam trazer um retorno inesperado.

Nos Estados Unidos, 55 empresas do setor de utilities oferecem algum tipo de retorno específico para projetos de virtualização, de acordo com a VMware/EMC. A Pacific Gas & Electric (PG & E), por exemplo, oferece uma gama de incentivos para a economia de energia em projetos de TI, como fazem outras companhias de energia da Califórnia, como a Sempra Energy, em San Diego. O Departamento de Energia dos EUA também ajuda a financiar e promover as conversões para a TI verde.

As empresas de energia têm boas razões para oferecer incentivos para os departamentos de TI corporativos. Tecnologias de todos os tipos geram pelo menos 2% do dióxido de carbono global a cada ano, de acordo com o Gartner.

O gerenciamento de energia pode economizar 40 mil dólares por ano para uma companhia com 2.500 PCs, reduzindo o consumo de energia para quase a metade, aponta o Gartner em relatório.

Incentivos para a virtualização
Muitas empresas estão se beneficiando desses incentivos. A NetApp obteve 1,4 milhão de dólares, em descontos no final de 2008 depois de substituir o seu data center por um mais eficiente. O provedor de hospedagem Fortune Data Centers obteve 900 mil dólares no ano passado para realizar melhorias em seu data center, com a expectativa de que esse investimento pouparia cerca de 4 milhões de dólares, ano ano, em custos com eletricidade.

Existem métodos muito mais simples de gerenciamento de energia, como desligar todos os PCs à noite, quando ninguém está usando. Esse tipo de processo está fazendo com que a Ford economize 1,2 milhão de dólares por ano.

Menos de 10% dos computadores nos EUA são configurados para se desligarem durante a noite, um recurso que poderia gerar economias com 50 dólares por computador ao longo de um ano, de acordo com estudo da Beacon Consultants Network.

A empresa Littler Mendelson recebeu um cheque inesperado de 10 mil dólares a partir de um programa da PG&E. "Nós não sabíamos", conta o engenheiro de redes sênior da empresa de São Francisco, David Park. De acordo com o executivo, a companhia foi orientada a utilizar a virtualização como forma de aliviar a pressão em uma sala de servidores que, embora muito bem localizada - um prédio de 20 andares, com vista sobre a Praia do Norte -, não estava preparada para manter os servidores em uma temperatura adequada.

Em 2008 a companhia virtualizou aproximadamente 10% de seus servidores, principalmente porque não queria comprar novos hardwares para uma sala já lotada. O mais recente salto de virtualização da Littler Mendelson, consolidou 86 servidores em quatro anos, ou seja, uma redução no consumo de TI em São Francisco, e 169.506 kWh anuais para 7.884 kW.

Park aprendeu sobre a PG&E a partir do programa da VMware que tem ajudado a coordenar os incentivos de 55 empresas, desde 2006. Segundo o gerente de alianças da VMware, Daniel Mudimbe, os clientes da empresa que participam de um dos programas têm em média de 10% a 18 % de redução de custos.

terça-feira, 13 de abril de 2010

Uso da TI pode reduzir em 27% emissões de CO² do Brasil

No relatório da IDC, o País ocupa o terceiro lugar no ranking dos territórios que têm mais capacidade de transformar a tecnologia em aliada para diminuir a emissão de gases de efeito estufa.

Por Redação CIO Brasil
12 de abril de 2010 - 14h18

O uso da tecnologia da informação e comunicação pelas empresas pode permitir que o Brasil reduza em aproximadamente 27% a quantidade de emissões de CO² (gás carbônico) no meio ambiente até 2020 – se comparado a 2006. A constatação faz parte de um relatório da consultoria IDC, intitulado ICT Sustainability Index (Índice de Sustentabilidade de TIC).

Para elaborar o documento, a IDC analisou o potencial de 17 tecnologias para reduzir as emissões de gases que contribuem para o efeito estufa nas nações do G20 (grupo que reúne as 20 maiores economias do mundo), em quatro verticais da economia: geração e distribuição de energia, transportes, indústria e construção.

O Brasil aparece no terceiro lugar do ranking dos países que devem obter maior redução de emissões anuais de CO² graças ao uso de TI. Em primeiro e segundo lugar, respectivamente, aparecem Japão e Estados Unidos e o País divide o terceiro posto com França, Alemanha e Reino Unido.

Para o diretor da consultoria IDC Brasil, Roberto Gutierrez, o bom desempenho do mercado brasileiro no ranking deve-se ao fato de que o País deve atrair uma série de investimentos nos próximos anos, dos quais, boa parte deve ser relacionada a iniciativas sustentáveis. O que, segundo o especialista, tende a envolver tecnologias que otimizem o uso de energia.

Destaque para transporte e indústria
No Brasil, o setor de transporte é apontado como um dos com mais potencial para redução na emissão de gases estufa. O relatório aponta que a melhoria da logística e da cadeia de suprimento podem contribuir com uma diminuição de 37%.

Além da área de transportes, a IDC aponta que a indústria destaca-se como outro segmento com alto potencial de redução das emissões de CO². Entre as soluções que mais devem contribuir com o índice, a consultoria afirma que o emprego de controladores inteligentes de motor pode representar uma redução de 14%, seguido por melhorias na automação dos processos industriais (6%) e impressão digital comercial (2%).

sexta-feira, 9 de abril de 2010

Dispositivos para transações eletrônicas ganham padrão

Pin Transaction Security DSS será apresentado pelo PCI Security Standards Council no fim do mês e pode ter laboratório de testes no Brasil.

Por Daniela Braun, para a Computerworld
07 de abril de 2010 - 16h07

No dia 30 de abril, dispositivos de hardware usados em transações financeiras com cartões, como teclados para digitação de senhas e leitores de cartões com chip em caixas eletrônicos, passam a contar com um padrão mundial de segurança, informou o gerente geral do PCI Security Standards Council, Bob Russo, nesta quarta-feira (7/4), durante uma apresentação em São Paulo (SP).

De acordo com Russo, o novo Transaction Security Pin (PTS) DSS ajudará a evitar fraudes em leitores cartões de ATMs - prática mais conhecida no Brasil como 'chupa-cabras' - ou em teclados de terminais portáteis para transações.

A partir da apresentação do PTS DSS, fabricantes, bancos e administradores de cartões de crédito têm um ano para se adaptar ao novo padrão. "Já estamos em contato com fabricantes de dispositivos como Verifone, Micros e Gemalto", informa Russo.

O Brasil também foi um dos países escolhidos pelo PCI Security Standards Council para sediar um dos dois novos laboratórios de análise de fraudes em dispositivos financeiros, que a entidade pretende certificar até o final de 2010, ao lado da China. Atualmente, oito laboratórios no mundo recebem denúncias do setor financeiro sobre golpes em dispositivos.

No final de outubro, o Conselho também se prepara para aprovar a evolução do padrão de segurança para transações financeiras, o PCI DSS 1.3. De acordo com Russo, a versão atual (PCI DSS 1.2) já contempla regras para transações móveis por radiofrequencia (RFID), mas o novo padrão ainda não tem previsão de contemplar pagamentos usando mensagens de texto (SMS), por exemplo.

Quanto aos pagamentos via web, Russo informa que o conselho prepara um guia de boas práticas com orientações para e-commerce ainda este ano.

Brasil na mira
Bob Russo conta que o principal motivo de sua segunda visita ao Brasil é conscientização. "O Brasil já está em nosso alvo há dois anos", afirma. Segundo ele, 50% das empresas que atuam no País e são classificadas como Nível 1 - que registram 6 milhões de transações com uma única bandeira de cartão por ano - já estão bem avançada na adoção do PCI DSS.

O ponto mais crítico para a adoção do PCI DSS é a questão financeira, afirma Russo. "As empresas enxergam a segurança como um custo, ou como uma apólice de seguros", afirma. "mas se há uma brecha, o custo de perder informações e clientes é 20 vezes maior. E aí isso muda", explica.

Além de reavaliar o retorno sobre o investimento (ROI), Russo destaca que as empresas precisam diferenciar conformidade (compliance) de segurança antes de adotar o padrão. "Se você se tornar seguro, a conformidade vem como um subproduto da segurança".

Entre as 21 empresas que integram o grupo de conselheiros do PCI Council, no mundo, o Brasil está representado pelo banco Banrisul. "Eles investem muito em segurança e já estão conscientizados a respeito". O executivo também destaca o avanço de empresas multinacionais como Wal-Mart e Carrefour, no Brasil, bem como da rede Casas Pernambucanas, na adoção de padrões seguros para transações financeiras.

quarta-feira, 7 de abril de 2010

Seis mitos sobre Macs no ambiente corporativo

As tão faladas barreiras que os Macs enfrentam no ambiente empresarial vão de custos dos computadores da Apple ao pouco preparo da equipe de TI e à falta de hábitos do usuário.

Por Tom Kaneshige, CIO (EUA)
07 de abril de 2010 - 07h05

Você quer um Mac para usar no trabalho? Com certeza. Macs são poderosos, elegantes e fáceis de usar. E, provavelmente, os principais executivos da sua empresa usam um computador da Apple, embora pesquisas de mercado não indiquem uma grande aceitação da empresa de Steve Jobs no ambiente corporativo. “A participação da Apple no mercado de PCs tem sido inferior a 1% nos últimos anos e não tem sofrido mudanças”, afirma o analista da consultoria Gartner Mikako Kitagawa.

Empresas e departamentos de TI  têm diversas teorias sobre porque os Macs não devem ser permitidos em ambientes corporativos, especialmente seu uso em massa. E alguns deles têm argumentos válidos, embora outros sejam mais mitos que realidade. As tão faladas barreiras que os Macs enfrentam no ambiente empresarial vão de custos dos computadores da Apple ao pouco preparo da equipe de TI  e à falta de hábitos do usuário. Aqui vão seis questões que dificultam a adoção de Macs no mundo corporativo.

1- Macs custam caro?
Muitos Chief Information Officers (CIO) dizem que o menor custo de suporte compensa o preço dos Macs. De fato, o CIO e Chief Financial Officer (CFO) da Healthcare IP Partners, Tom Kelly, levou, há alguns anos, o computador da Apple para a empresa, cuja cultura era o Windows. Segundo Kelly, a decisão foi baseada no potencial dos Macs de reduzir a dor-de-cabeça para gerenciamento de suporte, bem como diminuir custos.

Uma pesquisa da Enterprise Desktop Alliance indica que Macs são mais baratos em seis ou sete categorias de gerenciamento de computadores: resolução de problemas, ligações para help desk, configuração de sistema, treinamento de usuários e infraestrutura de suporte (sevidores, rede e impressora). Por outro lado, os oponentes do Mac citam os altos custos dos computadores da Apple para suportarem dois sistemas operacionais. Um dos leitores de Macworld escreve: “As economias com suporte são perdidas com o custo de transição: backup, gerenciamento de sistemas, antivírus, gerenciamento de direitos, Excel/Word/PPT macros. Tudo o que é necessário mudar ou ser implementado de forma redundante”.

2- A verdade está em algum lugar
O vice-presidente de tecnologia da informação no AAA Allied Group, Robert Pickering, diz que o custo inicial do Mac é significativo. O preço de um notebook HP padrão gira em torno de 1 mil dólares, enquanto um Macbook Pro começa em 2,5 mil dólares, além de custos adicionais de periféricos. "Em geral, as pessoas olham apenas para o que ultrapassa o orçamento inicial”, afirma Pickering, um fã de Macs desde 1984. “Eles não estão olhando para a depreciação ou valor residual porque essas questões estão três ou quatro anos à frente”. No entanto, os Macs retornam essa diferença de custo ao longo desses anos, afirma Pickering. O AAA Allied Group realiza um ciclo de atualização de hardware a cada três anos e, neste período, um laptop padrão não tem mais utilidade. Já um Mackbook Pro com a mesma idade pode ser vendido no eBay ou para os empregados, por 1 mil dólares. Ou pode ser usado por mais um ano.

3- A virtualização poderá devorar as economias?
Sob uma perspectiva de software, Pickering economiza dólares com licenciamento com os Macs, porque não compra antivírus e antispyware para eles. Com PCs Windows, no entanto, esses softwares são mandatórios. Além disso, questões de suporte quase não existem. “Gostaria de ter um percentual maior de Macs no ambiente, porque os usuários ficariam mais felizes, assim como minha equipe de help desk, que não receberia chamadas”, afirma Pickering. (O AAA Allied Group deu início a suporte a Macs no departamento de marketing em 2009 e o número de computadores da Apple cresceu para 8% dos cerca de 1 mil computadores).

O problema é que o Mac geralmente precisa de virtualização de desktops para rodar aplicativos críticos do Windows, como o Office e o Outlook – e isso consome muito da economia trazida pelos Macs. Não faz sentido dar um Mac para um funcionário quando a maior parte dos aplicativos rodará em uma máquina virtual. Mas Pickering prevê que este problema será solucionado rapidamente. Os funcionários são "convertidos" facilmente para aplicativos nativos do Mac após alguns meses, com a exceção do Outlook. Usuários Mac não querem lidar com as peculiaridades do Entourage, então, o mais recente aplicativo do Windows virtualizado é o Outlook. “Mas o advento do Office 2010, incluindo Outlook nativo no Mac, trará uma mudança no jogo”, aposta Pickering. “Você não precisará mais de virtualização de desktops”.

4- Você realmente precisa de Mac?
Uma das respostas mais comuns sobre pedidos de Macs nas empresas é: "Por que você precisa de um?”, o que desencoraja muitos funcionários a fazerem a solicitação. Alguns empregados realmente precisam de Macs para que seus trabalhos sejam bem-feitos. Departamentos gráficos precisam de Macs porque aplicativos críticos como a Suite Creative, da Adobe, simplesmente não funcionam bem no Windows. Desenvolvedores Web precisam de Macs para testar códigos em diversos browsers. Você não pode rodar Safari ou Firefox em uma máquina Windows porque o MacOS não pode ser virtualizado – pelo menos não legalmente.

No AAA Allied Group, executivos-chave têm Macs: o vice-presidente de marketing, o vice-presidente de parcerias e o vice-presidente executivo de viagens, que está na estrada constantemente, carrega consigo um Macbook Air. “Executivos cuidam dos orçamentos, então eles se autoaprovam”, brinca Pickering. E quanto a um Mac para o resto de nós? Para Pickering, executivos com Macs podem auxiliar que funcionários também usem o computador da Apple. Isso porque eles reconhecem o impacto dos Macs na produtividade e são mais propensos a aprovar a aquisição dessas máquinas.

As empresas também podem usar os Macs como incentivo para os funcionários. Um escritório de advocacia do Sillicon Valley adotou Macs há dois anos porque muitos advogados queriam uma alternativa ao PC. Hoje, metade dos advogados usa Mac. “Há um burburinho entre os advogados de que quem começa a trabalhar para nós ganha um Mac”, observa o CIO, falando sob condição de anonimato. Pickering acrescenta que funcionários podem usar o ciclo de renovação do parque de máquinas como forma de justificar o pedido do Mac. “Se você quer aumentar o ciclo de renovação em um ano, pode escolher um Mac. Haverá retorno sobre os custos de hardware”.

5- A TI pode suportar Macs?
Outra barreira que o Mac enfrenta é o despreparo da equipe de TI para lidar com esse equipamento. Quando Pickering decidiu suportar os computadores da Apple na empresa, primeiro precisou encontrar alguém entre seus 20 funcionários da equipe de TI disposto a acompanhar a velocidade do Mac. Um administrador de redes em Connecticut aceitou o desafio e Pickering deu-lhe um Mac. O administrador prometeu aprender tanto quanto pudesse sobre Macs, trouxe o computador para o Active Directory e respondeu a todas as chamadas de suporte para o computador da Apple.

Hoje, a equipe de help desk do Pickering tomou aulas de Mac e pode oferecer suporte. À medida que o número de Macs continua a crescer, ele planeja contratar outro especialista em Mac para aumentar sua equipe de suporte de primeira linha. Talvez essa pessoa seja aproveitada dentro do próprio time.

Aprender os truques de outro sistema operacional não é tarefa fácil. Por exemplo, um administrador de sistemas e técnico de Macs para uma empresa com 40 funcionários, falando sob anonimato, diz que mudar de um ambiente exclusivamente com Macs para um misto exige muita leitura. “Agora tenho o Mac OS Z 10.6 e o Windows 7 rodando em duas máquians e dois manuais de 800 páginas cada para que eu leia o máximo possível. E existem as diferenças entre o Office 2007 para Windows e o Office 2008 para Mac”.

6- Os aplicativos do Mac estão prontos para as empresas?
Assim como os funcionários de TI, os aplicativos para Mac também precisam encarar uma curva de aprendizado. Considere o administrador dos sistemas, que diz que o rápido crescimento da sua companhia ao longo de cinco anos exigiu uma migração para o Windows. “A mudança foi necessária para migrar para uma solução de e-mail de escala corporativa”, disse. “Os Macs, naquela época, não tinham nada bem preparado para grandes empresas, como DNS, Exchange e Active Directory”, diz.

“É muito difícil rodar um ambiente que seja exclusivamente formado por Macs”, concorda Pickering, a respeito de questões de compatibilidade. “Qual é sua plataforma de e-mail? Calendário de grupo?”, questiona. Além disso, os fornecedores de software para gerenciamento de desktops Windows podem oferecer uma versão para Mac, mas muitos não funcionam bem, de acordo com engenheiros de Mac. Eles alegam que conseguir um bom suporte de classe empresarial para Mac de desenvolvedores especializados em Windows pode ser problemático.

As ferramentas da Cisco, como de conferência de colaboração WebEx, são exemplos de aplicativos hostis para Mac. Kelly relata que decidiu migrar para o WebEx no que parecia ser um grande negócio, mas quando colocou em produção, se viu várias vezes sem conexão enquanto era o host da conferência. O consultor certificado da Apple, Avi Learner, teve experiências semelhantes. “Os produtos da Cisco, incluindo a ferramenta de discagem VPN, são notoriamente problemáticas”, diz. “Eu nunca soube exatamente o porquê, mas senti o problema na pele". O administrador de sistemas anônimo, no entanto, vem usando o VPN da Cisco em três Macs por três anos com desempenho excelente. Alguns CIOs, como Pickering, se arriscam a dizer que muitos dos aplicativos Windows rodam melhor no ambiente virtual do Mac do que em um PC.

Quando Pickering pediu um Mac como condição para trabalhar no local atual, quatro anos atrás, o CFO concordou com uma condição: a de que ele não poderia converter todo o ambiente para Macs. É um medo que muitos executivos compartilham. Se o colega de trabalho tem um Mac, o outro questionará porque não pode ter também. Pickering, no entanto, não está preocupado se os Macs vão, um dia, triunfar sobre o Windows nas corporações. “Na sua maioria, os meus usuários finais realmente não se importam sobre o que estão usando”, finaliza.

Conheça 3 maneiras de analisar projetos que envolvam mudanças

Para especialista em estratégias de TI, cada ação precisa ser analisada a partir do que ela pode representar para a corporação, sem levar em conta os custos

Por CIO/EUA
06 de abril de 2010 - 18h30

O princípio fundamental da gestão do portfólio de projetos é que primeiro deve-se eleger os objetivos para depois selecionar as ferramentas e os investimentos necessários para alcançá-los. No caso de atividades que envolvam algum tipo de mudança na organização, a tarefa de definir os resultados pretendidos nem sempre representa uma atividade fácil para a área de TI, já que depende de questões que vão além das metas palpáveis.

Para Chris Potts, especialista em estratégias de TI da consultoria Dominic Barrow e autor do livro "fruITion - Creating the Ultimate Corporate Strategy for Information Technology" (ainda sem tradução para o português), existem três caminhos que podem ajudar o CIO a gerenciar melhor os investimentos em iniciativas que impactem em mudanças:

1. Cenário – o gestor de TI precisa analisar como os objetivos de negócio da corporação têm se transformado. Por exemplo, se antes da crise a empresa estava focada em reduzir custos e agora está orientada a retomar o crescimento, deve priorizar os projetos nesse sentido.

2. Visão do todo – os projetos precisam ser avaliados sob o ponto de vista da contribuição que eles trarão para o portfólio de TI, não apenas por seus méritos individuais. Isso significa que muitas vezes o CIO precisará abrir mão de iniciativas que tenham um excelente ROI (retorno sobre investimento), mas que não se encaixam com o resto das iniciativas.

3. Além do custo – cada ação deve ser analisada a partir do que ela pode representar para a corporação, mas sem levar em conta apenas os custos. Em outras palavras, o CIO vai muitas vezes ser obrigado a investir em projetos que apresentam baixo ou nenhum retorno, mas que são fundamentais para o futuro da organização.

Ainda de acordo com Potts, é comum que as empresas tratem os custos de um projeto como o principal fator para tomar decisões de investimento. “Mas essa abordagem pode esconder outros fatores, possivelmente mais significativos, para garantir o sucesso das iniciativas”, afirma. Segundo o especialista, cabe ao gestor de TI comprovar como as iniciativas podem tornar a empresa mais produtiva e contribuir para resultados em longo prazo.

Rede sem fio ajuda Tesouro a aumentar produtividade de equipes

Graças à adoção de uma nova WLAN, o órgão conseguiu reduzir ocorrências que consumiam, em média, 300 horas por dia dos colaboradores

Por Rodrigo Afonso, da Computerworld Brasil
06 de abril de 2010 - 13h02

A Secretaria do Tesouro Nacional (STN), órgão responsável pela gestão financeira e contabilidade do governo federal, conseguiu economizar cerca de 300 minutos de trabalho diário de seus colaboradores ao investir 117 mil reais em uma nova WLAN, rede local sem fio.

O projeto nasceu depois da entidade detectar que na infraestrutura anterior, os colaboradores da STN que precisavam transitar pela entidade tinham dificuldades para conectar os seus notebooks à rede. Mais do que isso, todas as vezes em que ele precisavam da conexão sem fio tinham de entrar em contato com a equipe de TI para que ela fizesse as configurações necessárias.

O desperdício de tempo era significativo. A Secretaria registrava, em média, cerca de dez ocorrências diárias, as quais demoravam aproximadamente 30 minutos cada. Com isso, o Tesouro chegava a desperdiçar um total de 5 horas de trabalho da equipe de colaboradores da STN e mais 5 horas dos profissionais de TI por dia.

A solução encontrada foi elaborar e colocar em execução um projeto de uma nova rede local wireless, usando certificação digital, criptografia do tráfego de informações, em parceria com o Serviço Federal de Processamento de Dados (Serpro) e com a Coordenação-Geral de Sistemas e Tecnologia da Informação (COSIS/STN). A D-Link foi a companhia escolhida para fornecer os equipamentos de rede.

“Conseguimos implementar uma rede sem fio segura, integrada com o Active Directory da rede convencional, utilizando criptografia e padrões de segurança avançados e exatamente as mesmas políticas da rede cabeada”, afirma o analista de finanças e controles da STN, Fábio Coelho. “Com isso, a equipe de TI ganhou tempo para se ocupar com tarefas mais estratégias”, complementa.

A rede serve também como contingência à infraestrutura tradicional utilizada pela Secretaria do Tesouro, protegendo as atividades críticas. “A rede sem fio está sob um circuito estabilizado que funciona com geradores em caso de interrupção de eletricidade, permitindo a continuidade das operações”, completa Coelho.

quinta-feira, 1 de abril de 2010

Microsoft: suporte para Windows 2000 e XP SP2 termina em 13/7

Empresa avisa que não há rota direta de migração das versões Professional e Server do Windows 2000 para o Windows 7; suporte ao Vista RTM termina em 13/4

Por MIS Asia
30 de março de 2010 - 20h34

A Microsoft anunciou nesta terça-feira (30/3) que vai interromper o suporte para os sistemas Windows XP Service Pack 2 (SP2), Windows 2000 Professional e Windows Server 2000 em 13 de julho de 2010.

Dois meses antes, em 13 de abril de 2010, a empresa também não irá fornecer mais suporte para o Windows Vista Release to Manufacturing (RTM).

A medida deverá causar impacto a muitos usuários de PC já que, de acordo com a empresa de pesquisas Forrester, uma década depois de seu lançamento, o XP ainda comanda 80% de todos os PCs corporativos com Windows.

A partir de meados de abril, a Microsoft não irá mais oferecer opções de serviços de suporte a clientes que usam versões não suportadas do Windows ou de algum de seus Service Packs. A empresa afirmou que irá rever as atualizações para depois construí-las apenas para as versões e os Service Packs suportados.

Essas atualizações incluem os pacotes de segurança liberados com os boletins do Centro de Resposta de Segurança da Microsoft, informou a empresa. Os usuários têm a opção de escolher a maioria dos Service Packs atuais, que podem ser baixados via Windows Update, Windows Server Update Services/Microsoft System Center, e Microsoft Download Center.

A Microsoft afirmou também que não haverá qualquer rota suportada para migração do Windows 2000 para o Windows 7. Quem ainda usa o 2000 terá que atualizar para o Windows XP e depois migrar para o Windows 7 usando o Windows User State Migration Tool (USMT) 4.0.

Os clientes da empresa podem visitar o Centro de Soluções para Fim de Suporte do Windows 2000, para obter mais informações sobre o Windows 2000 e o Windows 2000 Server. PCs e servidores com Windows XP, Windows Vista, Windows 2000 e Windows Server 2000 continuarão a receber atualizações de segurança apenas se eles forem atualizados antes do das datas de término de suporte.

terça-feira, 30 de março de 2010

Marítima Seguros centraliza contratos e reduz custos em 25%

Seguradora assina acordo de outsourcing de TI com a Tivit. Contrato inclui serviços de data center, service desk e gerenciamento da rede de telecomunicações da empresa, além de site de disaster recovery.

Por Fabiana Monte, para a Computerworld
30 de março de 2010 - 07h05

A Marítima Seguros assinou contrato de outsourcing de TI com a Tivit, com duração de seis anos. O valor do negócio não foi revelado, mas, com a parceria, toda a infraestrutura tecnológica da seguradora será gerenciada pela prestadora de serviços. O acordo inclui serviço de data center, service desk e gerenciamento da rede de telecomunicações para os 51 escritórios da companhia, explica o diretor-adjunto de TI da Marítima, Marcelo Bartilotti.

"Houve preocupação em reduzir o número de fornecedores, porque, se você fragmenta em fornecedores distintos, o gerenciamento fica complicado. Consolidamos serviços de data center; suporte local e remoto; e gestão da rede de dados com a Tivit", diz o executivo. Ao concentrar todos os serviços em um único fornecedor, a companhia obteve redução de custos da ordem de 25%, estima Bartilotti, ressaltando, no entanto, que este não foi o aspecto preponderante para a decisão.

A seguradora precisava evoluir processos e controles de gestão para suportar o crescimento previsto. Era necessário aumentar o nível de governança corporativa da companhia que, em julho de 2009, teve 50% de suas ações compradas pelo 3º maior grupo de seguros do Japão, Sompo Japan, por 328,5 milhões de reais. "O cliente tinha muito clara sua estratégia e conseguiu orientar a TI em linha com os negócios", comenta o vice-presidente de terceirização de infraestrutura de TI da Tivit, Carlos Eduardo Mazon. "Estamos usando ferramentas de gerenciamento de processos, o que causou um impacto muito grande em relação a práticas de governança", acrescenta Bartilotti.

Um relatório do conselho de administração da Marítima datado de agosto do ano passado indica que a companhia pretendia investir 21 milhões de reais em seu plano estratégico, valor 30% superior ao verificado em 2008. De acordo com o texto, as ações de crescimento exigiriam "predominantemente investimentos em processos, sistemas de computação e tecnologia".

Os recursos aplicados pela empresa no primeiro semestre do ano passado superaram os 10,1 milhões de reais, indica o documento, e foram usados em diversas iniciativas, entre elas "redução de custos operacionais, atualização tecnológica e adequação da capacidade de processamento da infraestrutura para suportar o crescimento da empresa; destacando-se os projetos de migração para a plataforma de rede e correio eletrônico da Microsoft, aquisição de servidores e migração para o datacenter da Tivit, em sintonia com o Plano de Continuidade de Negócios (PCN)".

Centralização levou quatro meses
Após a assinatura do contrato com a Tivit, em janeiro de 2009, o processo de centralização da gestão e de migração de três fornecedores levou quatro meses, com a realização de diversas ações simultâneas, como migração de servidores e dados da Marítima para o data center da Tivit, implantação de catálogo de serviços e de service desk, por exemplo.

Ao migrar servidores e dados, a Marítima optou também por consolidar servidores em ambiente virtual, usando a solução da VMware. Com a iniciativa, a empresa passou de 113 servidores físicos para 90 máquinas físicas e 50 virtuais. A virtualização também levou à atualização de alguns ambientes da seguradora, gerando melhorias de performance, pois os antigos sistemas estavam no limite.

"Sistemas de Business Intelligence e autuários - segmento forte em seguradoras - foram bastante beneficiados, com ganhos de performance e estabilidade", exemplifica Bartilotti. O ERP da empresa, bem como sistemas de emissão de apólices, também estão rodando no ambiente virtual.

O próximo passo será a criação de um site de disaster recovery para a Marítima Seguros, que deverá estar funcionando no segundo semestre, como parte do projeto de gestão de riscos da companhia. De acordo com Bartilotti, haverá dois data centers equivalentes, com alta disponibilidade - o de produção em São Paulo e o de disaster recovery no Rio de Janeiro. "Temos alguns sistemas para algum tipo de contingência hoje, mas não é para toda a companhia. Com o site de backup implantado, no caso de qualquer incidente a gente restabelece a operação rapidamente", prevê.

Entre as aplicações hoje cobertas, Bartilotti aponta as da área financeira e de saúde, consideradas críticas para a operação da companhia. A autorização de um atendimento de saúde, por exemplo, pode ser feita no ambiente de contingência, bem como o recebimento de propostas de seguro. Mas a emissão de uma apólice, cujo prazo de legal é de até 15 dias, ficaria indisponível, conta o executivo. "Outras aplicações têm tempo de recuperação que depende da implementação do backup".

A Marítima utiliza dois tipos de ambientes - em plataforma alta e baixa. No caso de mainframe, a solução é contratada como serviço da Tivit, já os ativos de plataforma baixa são um mix de equipamentos da seguradora e contratados da fornecedora.

A seguradora se relaciona com mais de 1 milhão de clientes, entre empresas e pessoas físicas, de seus produtos de saúde, automóvel, vida e riscos especiais (residencial, condomínio, empresarial). O data center da empresa armazena 22 terabytes de informação. Antes da consolidação do data center, eram 13 TB.