domingo, 27 de dezembro de 2009
Virtualização eleva desempenho e reduz custos de universidade
Univille investe 200 mil reais em projeto de virtualização, custo que deve ser amortizado em 2 anos somente com economia de energia.
Por Rodrigo Afonso, da Computerworld
28 de dezembro de 2009 - 08h00
A Universidade Regional de Joinville (Univille), instituição de 13 mil alunos com dois campi e uma unidade em Santa Catarina, lançou mão da virtualização de servidores para resolver um de seus grandes problemas relacionados à tecnologia: a sobrecarga nos servidores.
A instituição cresceu muito por meio de aquisições, o que aumentou bastante a demanda dos seus sistemas de gestão. A carga de trabalho começou a ocupar 70% dos servidores em média - percentual muito alto para um sistema que precisa estar sempre disponível. Para piorar, não havia redundância para a infraestrutura.
O gargalo nos servidores provocava queda de desempenho, afetando diretamente o atendimento ao aluno. Além disso, o backup era quase todo manual, com uma estrutura que não estava à altura do porte da universidade. “O custo para fazer a atualização da infraestrutura seria muito alto. Após estudos, identificamos que a melhor maneira de mudar seria renovar os servidores com a implantação de virtualização”, afirma o analista de sistemas sênior da Univille, Rodrigo Ramos Deronel.
Para resolver o problema, foram investidos 200 mil reais, valor que inclui servidores e licenças de software. Com integração da Domo Soluções, a Univille optou por migrar do Microsoft SQL Server 2008 para o Windows Server 2008, com sistemas apoiados em servidores blade HP.
O projeto, que levou cerca de três meses para ser formulado, foi implantado em dois finais de semana. Após sua conclusão, os resultados no dia-a-dia do trabalho foram nítidos, de acordo com Dornel. A carga do servidor começou a ficar em torno dos 20%, dando fôlego para que a instituição cresça. “Logo no primeiro dia, processos cotidianos que costumavam levar um dia inteiro eram realizados em 15 minutos”, diz Dornel.
Além disso, a instituição registra números de economia. A previsão orçamentária para ampliação do data center antigo, que passou a ser desnecessária, era de 30 mil reais. A virtualização proporcionou, também, redução de 6,5% na conta de energia elétrica da universidade e de 23% na dissipação de calor no data center. Gastos com força de trabalho também caíram, já que agora são necessários três funcionários a menos para cuidar da infraestrutura.
A instituição computa também redução de consumo de processador de 80% em relação aos servidores no ambiente anterior. “Considerando apenas o custo de energia elétrica, o investimento realizado na nova infraestrutura será amortizado em 24 meses”, calcula Dornel.
Por Rodrigo Afonso, da Computerworld
28 de dezembro de 2009 - 08h00
A Universidade Regional de Joinville (Univille), instituição de 13 mil alunos com dois campi e uma unidade em Santa Catarina, lançou mão da virtualização de servidores para resolver um de seus grandes problemas relacionados à tecnologia: a sobrecarga nos servidores.
A instituição cresceu muito por meio de aquisições, o que aumentou bastante a demanda dos seus sistemas de gestão. A carga de trabalho começou a ocupar 70% dos servidores em média - percentual muito alto para um sistema que precisa estar sempre disponível. Para piorar, não havia redundância para a infraestrutura.
O gargalo nos servidores provocava queda de desempenho, afetando diretamente o atendimento ao aluno. Além disso, o backup era quase todo manual, com uma estrutura que não estava à altura do porte da universidade. “O custo para fazer a atualização da infraestrutura seria muito alto. Após estudos, identificamos que a melhor maneira de mudar seria renovar os servidores com a implantação de virtualização”, afirma o analista de sistemas sênior da Univille, Rodrigo Ramos Deronel.
Para resolver o problema, foram investidos 200 mil reais, valor que inclui servidores e licenças de software. Com integração da Domo Soluções, a Univille optou por migrar do Microsoft SQL Server 2008 para o Windows Server 2008, com sistemas apoiados em servidores blade HP.
O projeto, que levou cerca de três meses para ser formulado, foi implantado em dois finais de semana. Após sua conclusão, os resultados no dia-a-dia do trabalho foram nítidos, de acordo com Dornel. A carga do servidor começou a ficar em torno dos 20%, dando fôlego para que a instituição cresça. “Logo no primeiro dia, processos cotidianos que costumavam levar um dia inteiro eram realizados em 15 minutos”, diz Dornel.
Além disso, a instituição registra números de economia. A previsão orçamentária para ampliação do data center antigo, que passou a ser desnecessária, era de 30 mil reais. A virtualização proporcionou, também, redução de 6,5% na conta de energia elétrica da universidade e de 23% na dissipação de calor no data center. Gastos com força de trabalho também caíram, já que agora são necessários três funcionários a menos para cuidar da infraestrutura.
A instituição computa também redução de consumo de processador de 80% em relação aos servidores no ambiente anterior. “Considerando apenas o custo de energia elétrica, o investimento realizado na nova infraestrutura será amortizado em 24 meses”, calcula Dornel.
segunda-feira, 21 de dezembro de 2009
20 tendências que não vão acontecer em 2010
Relatório da consultoria ABI Research aponta as tecnologias que, na contramão das previsões, não vão deslanchar no próximo ano.
Por Redação da Computerworld
18 de dezembro de 2009 - 18h53
A consultoria ABI Research divulgou nesta sexta-feira (18/12) seu relatório anual sobre o que não vai acontecer no mercado de tecnologia em 2010. Sim, isso mesmo. Ao contrário das tradicionais listas que apontam o que é mais provável, a consultoria norte-americana decidiu preparar um documento sobre o que não vai acontecer em 2010. Veja a seguir a avaliação dos especialistas e dê sua opinião, participando da nossa enquete.
1- Leitores eletrônicos não terão apelo de massa
Apesar dos fornecedores dizerem que livros eletrônicos seriam o maior hit tecnológico do fim de 2009, esses equipamentos ainda não têm valor para o mecado de massa. Os "early adopters" desses aparelhos são, comumente, pessoas que viajam a trabalho e leitores vorazes que encontram conveniência em carregar apenas um aparelho, no lugar de diversos livros. Mas qual é o mercado total de pessoas que leem com frequência? Os livros eletrônicos não devem ganhar apelo de massa em 2010 até que ganhem novos modelos de negócios e categorias.
2- Não haverá um “iPhone Killer”, mas vários aparehos que “querem ser um iPhone”
A corrida para copiar o conceito do celular da Apple continua, com praticamente todo o mercado de smartphones lançando aparelhos com tela sensível ao toque e cantos arrendodados. Mas quase nenhum dos atuais modelos tem o apelo que o celular da Apple trouxe para o mercado. Mais: eles terão um trabalho duro para provar que são mais que uma cópia e realmente são bons produtos.
3- Telefones chineses não vão destruir o mercado de aparelhos
Reportagens recentes alertam para o fato de que os celulares produzidos na China vão destruir mercados em desenvolvimento e as vendas de fornecedores como Nokia e Samsung. Embora seja importante ter conhecimento da existência e do avanço desses aparelhos, eles dificilmente vão causar danos à já estabelecida indústria de celulares.
Primeiro porque marca é importante. Muita gente não entende muito como consumidores valorizam e confiam em uma marca. Mas é esssa é a razão da popularidade de Nokia e Samsung em regiões em desenvolvimento, bem como de suas participações de mercado. Eles projetaram aparelhos de baixo custo com especificações voltadas para determinados países, o que inclui recursos, localização de idioma e serviços. Assim, é difícil que um aparelho "fake" consiga competir com as duas empresas devido a suas marcas e cadeias de distribuição.
Em segundo lugar, celulares não são descartáveis. Modelos chineses de baixíssimo custo e falsificações destruíram mercados emergentes no passado no que tange a mercadorias cujo uso era absolutamente descatável, porque a qualidade não importava. No entanto, nesses mesmos mercados, a troca de aparelhos leva anos, o que significa que um produto durável e de qualidade faz a diferença.
Em terceiro lugar, é fácil implementar contramedidas para bloquear o acesso de telefones falsos ao mercado. Quando esses aparelhos se tornaram um problema de segurança na Índia, o governo pediu a operadoras que cortassem a conectividade de qualquer aparelho que não pudesse ser registrado na rede por meio de um código chamado IMEI. Isso foi feito porque terroristas estavam usando aparelhos que não podiam ser rastreados. Não há impedimento para que a indústria não faça lobby para medidas semelhantes em outras regiões.
Em quarto lugar, o preço de aparelhos continua a cair. O último lançamento da Nokia de um modelo ultrabarato custa 20 euros, sem subsídio. O próximo ano verá quedas de preços maiores, acabando com a única vantagem de um aparelho falso.
4- Modems PCMCIA não vão voltar com força
Apenas 2,3% de todos os celulares, roteadores e modems de banda larga móvel vendidos em 2010 usarão PCMCIA, CardBus ou ExpressCard (chamados coletivamente de PC Card). Essa tecnologia que, por anos, foi usada, perdeu terreno com a chegada de modems USB, que devem responder por 74% de toda a conectividade do mundo em 2010. Em 2008, PCMCIA respondia por 27% da produção de modems da fabricante Sierra Wireless e por 34% da Huawei e da ZTE.
A flexibilidade do USB é o principal fator que fez com que esse padrão ganhasse força tão rapidamente. PC Cards funcionam apenas em laptops, já que netbooks e outros devices de acesso à internet são produzidos nos menores dimensões. Outra razão é a conveniência que o USB oferece à indústria no que diz respeito à padronização. Com menos variações, os custos permanecem baixos.
5- Femtocells não vão sumir
O mercado de femtocells, que parecia tão promissor não cumpriu o que prometia. A ABI Research reduziu suas previsões, mas isso não quer dizer que vemos um futuro sombrio para este mercado. No entanto, alguns recentes anúncios que ocorreram na França podem nos dar sinais do que o futuro reserva para mercados desenvolvidos. Para quem não sabe, femtocells são pequenas estações radiobase usadas para coberturas dentro de residências e que possibilitam a cobrança de chamadas ou conexões de dados, com preços de telefonia fixa quando o usuário está em casa.
A França é um microcosmo do futuro da convergência do tráfego fixo-móvel. Lá, a penetração de celular é alta, bem como há boas ofertas para consumidores de banda larga com velocidades superiores a 200Mb. Além disso, existe um vibrante ambiente competitivo, com o produto Unik, da France Telecom (baseado em Wi-Fi) e o recente anúncio de um serviço baseado em femtocells da SFR.
Este é um indicador de como mercados competitivos serão inevitavelmente obrigados a usar essa tecnologia, ao encarar a necessidade de solucionar questões ligadas a tráfego e tendências de receita por usuário. Haverá um embate entre um "femto" ambiente, controlado, e um ambiente W-Fi, menos controlado.
6- Mas aplicações femtocell ainda não vão decolar
Espera-se que as operadoras de femtocell deixem de oferecer cobertura básica de voz e mudem para um segundo estágio, oferecendo velocidades de dados para cobertura indoor. No entanto, a pergunta é: quando o terceiro e mais excitante estágio - "zonas de aplicações de femtocell" - verá a luz do dia? Esse conceito nada mais é do que serviços e aplicações que podem ser oferecidos por meio de femtocell, usando informações críticas sobre o usuário, como localização, por exemplo.
O ano de 2009 foi um banho de água fria em relação a volumes para os fornecedores de femtocell, mas há esperança para 2010. A ABI prevê que nos Estados Unidos cerca de 25% dos consumidores teriam interesse na proposta básica da femtocell: cobertura de voz em casa. Mas para que femtocells realmente se tornem algo de massa, as operadoras têm de oferecer incentivos adicionais.
Identificar a presença e a localização do morador em sua casa é um aspecto muito poderoso que pode ser utilizado pelas operadoras em conjunto com anunciantes ou outros provedores de serviços para realmente dar início a uma ervolução no mundo das aplicações e serviços femtocell. Um exemplo de aplicação femtocell com bom apelo comercial é uma assinatura de revista/jornal que é entregue no aparelho móvel todos os dias ou na frequência escolhida, quando o usuário chega em casa ou está em casa.
Em novembro de 2009, a NTT DoCoMo, no Japão, se tornou uma das primeiras operações do mundo a oferecer aplicações do tipo, começando com alertas via SMS. A expectativa é que operadoras na América do Norte e na Europa comecem a oferecer soluções do tipo em 2010, no entanto, o próximo ano deverá ser mais a respeito serviços de dados e ofertas conjuntas do que aplicações.
As operadoras parecem estar dispostas a se mover em relação a femtocell na sua própria velocidade e a controlar o crescimento da femtocell para garantir que seus sistemas de back-end e redes possam se ajustar a equipamentos que se configuram e ajustam sozinhos, como os baseados nesta tecnologia. As zonas de aplicações femtocell, por outro lado, exigirão tempo e custo adicionais para serem desenvolvidas, testadas e integradas a sistemas de cobrança e gerenciamento.
Apesar desses fatores, os fabricantes de equipamentos femtocell estão fazendo pressão sobre aplicações, com a criação de um grupo chamado Special Interest Group (SIG) do Femto Forum para padronizar o desenvolvimento de aplicações. Embora este seja o caminho certo para desenvolver o futuro das aplicações femtocell, ainda estamos vivendo os primeiros estágios para identificar modelos de negócio e de comercialização de aplicações femtocell.
7- Pagamentos entre pessoas por meio de dispositivos móveis não serão aplicações de massa
Durante o mês de novembro, alguns anúncios a respeito de soluções de pagamento entre pessoas (P2P) foram feitos nos Estados Unidos. Mas este tipo de solução não será uma realidade, porque é um mercado de nicho. A ABI Research sempre foi cética em relação a P2P em países desenvolvidos, onde a possibilidade de pagar pessoas com dinheiro ou cheque é relativamente conveniente.
Além disso, basta analisar o histórico de pagamentos P2P. A PayPal oferece pagamentos P2P desde 1999 e cresceu para mais de 160 milhões de usuários em todo o mundo - embora a companhia admita que a vasta maioria deles está amarrada ao eBay. Sua rival Obopay, comprada pela Nokia este ano, originalmente tinha foco em P2P nos EUA, mas mudou sua estratégia para países em desenvolvimento. Certamente, os dois casos refletem o mercado norte-americano de pagamentos móvel P2P, ou a falta dele.
O P2P é uma forma potencial dos bancos atingirem pessoas que ainda não são clientes bancários, mas têm telefones celulares. Por hora, esta é apenas uma cartada para bancos conseguirem novos clientes.
8- Vídeo na internet não vai provocar um êxodo de assinantes de TV paga
Nos últimos anos, analistas, marketeiros e outros especialistas da indústria vêm falando sobre o fim da TV paga como ela é conhecida. A expectativa era de que o vídeo na internet se tornasse tão popular e difundido que os consumidores abandonassem a televisão por assinatura via cabo, satélite e IPTV para assistir a seus programas favoritos na internet. Apesar de ser atraente, muitos fatores fazem com que essa possibilidade seja improvável, pelo menos no curto prazo.
Primeiro, vídeo na internet é muito mais difícil de navegar em comparação ao seviço tradicional de TV. Em segundo lugar, o modelo de negócios de vídeo na web ainda não está pronto para fazer sentido para um ecossistema totalmente baseado em publicidade. A ideia de gratuidade pode checar ao fim para aqueles a favor do vídeo na internet. À medida que o vídeo na internet amadurece e se torna mais parecido com serviços de TV paga, o apelo de deixar de pagar a TV por assinatura perderá força.
9- Por outro lado, a maioria dos vídeos online não será oferecida no modelo "pay-per-play"
Mais do que forçar modelos "pay-per-play", serviços e provedores de conteúdo para vídeo na internet devem encontrar formas criativas para gerar receita por meio de publicidade interativa e focada. À medida que equipamentos conectatos à banda larga criam pontos adicionais de contato a conteúdo online, a necessidade de estabelecer um modelo torna-se mais vital, porque consumidores vão encontrar formas para acessar o conteúdo.
10- Redes sociais não vão escapar ilesas a brechas de segurança
Os gerentes de TI vão encarar um crescente número de ataques associados a ferramentas e sites de redes sociais. E telefones celulares não vão escapar desses ataques.
11- Universidades não vão deixar de liderar a adoção de redes 802.11n
As universidades vão continuar a desenvolver a maior parte das implementações de 802,11n em 2010. Elas continuarão a ter as maiores necessidades de fazer isso devido ao crescimento do uso de vídeos nos campi, bem como da demanda por largura de banda em grandes salas de leitura e dormitórios.
Mesmo com o desenvolvimento do 3G e o início do 4G, o WiFi não vem desacelerando. Os chips WiFi estão presentes em cada vez mais dispositivos e essa tecnologia é crucial para operadoras móveis (a menos que a femtocell ganhe força) para desviar o tráfego da rede WWAN e prover a melhor experiência possível para consumidores que utilizam dispositivos móveis cada vez mais potentes.
12- Telepresença não será uma grande tendência
O anúncio da Cisco há alguns meses sobre a aquisição da Tandberg foi suprimido pelas dúvidas que cercam a aquisição. O mercado de telepresença foi impulsionado pelos altos preços de viagens, mas existem lacunas sérias de interoperabilidade de hardware e software de fornecedores, bem como custo de equipamento, que continuam a impedir o avanço desse crescimento.
13- Softwares de navegação rua-a-rua não serão gratuitos
A comoção causada pelo anúncio do Google de navegação rua-a-rua gratuita em celulares com o Android nos Estados Unidos, ainda existe um mercado que valoriza alta qualidade e serviços premium em celulares. De forma semelhante, ainda haverá mercado para os tradicionais GPS. Além disso, a existência de alternativas gratuitas continuará a pressionar preços e aumentar as expectativas dos usuários em relação à qualidade da rota, dos mapas e da usabilidade da interface de serviços pagos.
14- Operadoras não ficarão de fora do mercado de LBS
Apesar do grande sucesso de serviços de localização (LBS, Location Based Services) de terceiros no iPhone, as operadoras não ficarão de fora desse mercado por conta das plataformas independentes. As operadoras, principalmente as norte-americanas, ainda são os fornecedores de LBS que têm a preferência dos consumidores.
Elas contam com a confiança e, na percepção dos consumidores, garantem a privacidade e o nível de suporte que não pode ser igualado pelos outros participantes do mercado. O grosso das receitas de LBS em 2010 ainda será gerado por operadoras e não pelas plataformas de terceiros. Estas continuam presas no desafio de encontrar o modelo certo de monetização.
15- Telemática não ganhará o status de aplicação de massa
Em relação à telemática, a expectativa de desenvolvimento há muito tempo anunciada não ocorrerá. Apesar da mudança de atitude, a implementação - e a execução - da legislação levará mais tempo do que o esperado e, ao mesmo tempo, a indústria automobilística continua presa ao velho paradigma de tecnologia proprietária e de longos ciclos de desenvolvimento.
16- HP não engolirá a 3Com tão suavemente
A aquisição da 3Com pela HP não ocorrerá de forma tão suave quanto algumas pessoas pensam. As culturas das duas empresas não são sequer parecidas - pense no Vale do Silício encontrando Pequim. Igualmente problemática é a duplicação de equipamentos de comutação para pequenas e médias empresas.
17- O GSM não morrerá
Embora a tendência de longo prazo seja a desaceleração para o mercado de equipamentos GSM/GPRS/EDGE, boa parte do terceiro mundo ainda está desenrolando infraestrutura e aparelhos com essas tecnologias. Embora a maioria das modernas estações radiobase possam passar por um upgrade para WCDMA e LTE, as necessidades de comunicação de países de terceiro mundo serão satisfeitas pelas tecnologias GSM/GPRS/EDGE, mais básicas, ainda por algum tempo.
18- Estações radiobase "verdes" não terão um grande desenvolvimento
Estações radiobase de energia renovável são oferecidas pela maior parte das principais empresas de infraestrutura de telecomunicações como Alcatel Lucent, Nokia Siemens, Huawei e Ericsson. No entanto, muitos destes fornecedores estão direcionando suas soluções alternativas para países em desenvolvimento como África, Índia e localidades do Extremo Oriente.
Em 2010, 24 mil estações de energia renovável devem ser adicionadas, sendo quase todas em locais que não possuem rede elétrica. Este foco também se reflete no posicionamento de uma das maiores associações da indústria de mobilidade, a GSMA, que lançou o programa ‘Green Power for Mobile’, em 2008. O projeto visa a colaborar com a criação de 118 mil novos e atuais centros de geração de energia em regiões remotas e rurais da África e da Índia até 2012.
O nível de maturidade das tecnologias para geração de energia solar e eólica, entretanto, não é suficiente para ganhar escala, afirma a ABI Research. O retorno sobre o investimento nestas operações varia de três a seis anos. Além disso, na avaliação da ABI, a indústria de mobilidade ainda não atentou para outro fato importante: há localidades com fornecimento parcial de energia elétrica, em países como Índia e China, nas quais muitas estações radiobase são movidas a diesel por um período de 12 horas a 14 horas por dia.
Os movimentos em relação a estações de energia renovável precisam ir além do foco em locais sem rede elétrica, em áreas rurais e remotas. Sem iniciativas da indústria de mobilidade para expandir o alcance das estações de energia renovável, é pouco provável vermos inovações em tecnologias movidas à luz solar ou ao vento que cheguem ao mercado de massa.
19- LTE não será lançado em todo o mundo
Com a maioria das operadoras destinando investimentos a aumentar as capacidades de suas redes 3G, os investimentos em LTE devem começar em alguns anos - apesar dos recentes anúncios de redes com essa tecnologia.
20 - Mas o RFID continua fazendo barulho...
De acordo com uma pesquisa da ABI sobre RFID feita com usuários, os investimentos em tecnologias de identificação por radiofreqüência não devem cair em 2010. Entre os participantes da pesquisa, um terço pretende manter o mesmo nível de investimento nesta área, 11% citaram que pretendem reduzir os investimentos em RFID e 8% responderam que não planejam investir na tecnologia em 2010.
A tendência de gastos está sendo direcionada pela contínua expansão de segmentos de alta frequência como pagamentos por contato e ticketing, além de avanços nos segmentos de varejo de moda, gerenciamento de ativos e de logística da cadeia de suprimentos. A pesquisa indica que os atuais usuários de RFID elevarão os investimentos em seus atuais sistemas e programas de RFID. A informação sinaliza que a tecnologia deve receber aportes significativos em 2010, acompanhando o ritmo de recuperação econômica.
Por Redação da Computerworld
18 de dezembro de 2009 - 18h53
A consultoria ABI Research divulgou nesta sexta-feira (18/12) seu relatório anual sobre o que não vai acontecer no mercado de tecnologia em 2010. Sim, isso mesmo. Ao contrário das tradicionais listas que apontam o que é mais provável, a consultoria norte-americana decidiu preparar um documento sobre o que não vai acontecer em 2010. Veja a seguir a avaliação dos especialistas e dê sua opinião, participando da nossa enquete.
1- Leitores eletrônicos não terão apelo de massa
Apesar dos fornecedores dizerem que livros eletrônicos seriam o maior hit tecnológico do fim de 2009, esses equipamentos ainda não têm valor para o mecado de massa. Os "early adopters" desses aparelhos são, comumente, pessoas que viajam a trabalho e leitores vorazes que encontram conveniência em carregar apenas um aparelho, no lugar de diversos livros. Mas qual é o mercado total de pessoas que leem com frequência? Os livros eletrônicos não devem ganhar apelo de massa em 2010 até que ganhem novos modelos de negócios e categorias.
2- Não haverá um “iPhone Killer”, mas vários aparehos que “querem ser um iPhone”
A corrida para copiar o conceito do celular da Apple continua, com praticamente todo o mercado de smartphones lançando aparelhos com tela sensível ao toque e cantos arrendodados. Mas quase nenhum dos atuais modelos tem o apelo que o celular da Apple trouxe para o mercado. Mais: eles terão um trabalho duro para provar que são mais que uma cópia e realmente são bons produtos.
3- Telefones chineses não vão destruir o mercado de aparelhos
Reportagens recentes alertam para o fato de que os celulares produzidos na China vão destruir mercados em desenvolvimento e as vendas de fornecedores como Nokia e Samsung. Embora seja importante ter conhecimento da existência e do avanço desses aparelhos, eles dificilmente vão causar danos à já estabelecida indústria de celulares.
Primeiro porque marca é importante. Muita gente não entende muito como consumidores valorizam e confiam em uma marca. Mas é esssa é a razão da popularidade de Nokia e Samsung em regiões em desenvolvimento, bem como de suas participações de mercado. Eles projetaram aparelhos de baixo custo com especificações voltadas para determinados países, o que inclui recursos, localização de idioma e serviços. Assim, é difícil que um aparelho "fake" consiga competir com as duas empresas devido a suas marcas e cadeias de distribuição.
Em segundo lugar, celulares não são descartáveis. Modelos chineses de baixíssimo custo e falsificações destruíram mercados emergentes no passado no que tange a mercadorias cujo uso era absolutamente descatável, porque a qualidade não importava. No entanto, nesses mesmos mercados, a troca de aparelhos leva anos, o que significa que um produto durável e de qualidade faz a diferença.
Em terceiro lugar, é fácil implementar contramedidas para bloquear o acesso de telefones falsos ao mercado. Quando esses aparelhos se tornaram um problema de segurança na Índia, o governo pediu a operadoras que cortassem a conectividade de qualquer aparelho que não pudesse ser registrado na rede por meio de um código chamado IMEI. Isso foi feito porque terroristas estavam usando aparelhos que não podiam ser rastreados. Não há impedimento para que a indústria não faça lobby para medidas semelhantes em outras regiões.
Em quarto lugar, o preço de aparelhos continua a cair. O último lançamento da Nokia de um modelo ultrabarato custa 20 euros, sem subsídio. O próximo ano verá quedas de preços maiores, acabando com a única vantagem de um aparelho falso.
4- Modems PCMCIA não vão voltar com força
Apenas 2,3% de todos os celulares, roteadores e modems de banda larga móvel vendidos em 2010 usarão PCMCIA, CardBus ou ExpressCard (chamados coletivamente de PC Card). Essa tecnologia que, por anos, foi usada, perdeu terreno com a chegada de modems USB, que devem responder por 74% de toda a conectividade do mundo em 2010. Em 2008, PCMCIA respondia por 27% da produção de modems da fabricante Sierra Wireless e por 34% da Huawei e da ZTE.
A flexibilidade do USB é o principal fator que fez com que esse padrão ganhasse força tão rapidamente. PC Cards funcionam apenas em laptops, já que netbooks e outros devices de acesso à internet são produzidos nos menores dimensões. Outra razão é a conveniência que o USB oferece à indústria no que diz respeito à padronização. Com menos variações, os custos permanecem baixos.
5- Femtocells não vão sumir
O mercado de femtocells, que parecia tão promissor não cumpriu o que prometia. A ABI Research reduziu suas previsões, mas isso não quer dizer que vemos um futuro sombrio para este mercado. No entanto, alguns recentes anúncios que ocorreram na França podem nos dar sinais do que o futuro reserva para mercados desenvolvidos. Para quem não sabe, femtocells são pequenas estações radiobase usadas para coberturas dentro de residências e que possibilitam a cobrança de chamadas ou conexões de dados, com preços de telefonia fixa quando o usuário está em casa.
A França é um microcosmo do futuro da convergência do tráfego fixo-móvel. Lá, a penetração de celular é alta, bem como há boas ofertas para consumidores de banda larga com velocidades superiores a 200Mb. Além disso, existe um vibrante ambiente competitivo, com o produto Unik, da France Telecom (baseado em Wi-Fi) e o recente anúncio de um serviço baseado em femtocells da SFR.
Este é um indicador de como mercados competitivos serão inevitavelmente obrigados a usar essa tecnologia, ao encarar a necessidade de solucionar questões ligadas a tráfego e tendências de receita por usuário. Haverá um embate entre um "femto" ambiente, controlado, e um ambiente W-Fi, menos controlado.
6- Mas aplicações femtocell ainda não vão decolar
Espera-se que as operadoras de femtocell deixem de oferecer cobertura básica de voz e mudem para um segundo estágio, oferecendo velocidades de dados para cobertura indoor. No entanto, a pergunta é: quando o terceiro e mais excitante estágio - "zonas de aplicações de femtocell" - verá a luz do dia? Esse conceito nada mais é do que serviços e aplicações que podem ser oferecidos por meio de femtocell, usando informações críticas sobre o usuário, como localização, por exemplo.
O ano de 2009 foi um banho de água fria em relação a volumes para os fornecedores de femtocell, mas há esperança para 2010. A ABI prevê que nos Estados Unidos cerca de 25% dos consumidores teriam interesse na proposta básica da femtocell: cobertura de voz em casa. Mas para que femtocells realmente se tornem algo de massa, as operadoras têm de oferecer incentivos adicionais.
Identificar a presença e a localização do morador em sua casa é um aspecto muito poderoso que pode ser utilizado pelas operadoras em conjunto com anunciantes ou outros provedores de serviços para realmente dar início a uma ervolução no mundo das aplicações e serviços femtocell. Um exemplo de aplicação femtocell com bom apelo comercial é uma assinatura de revista/jornal que é entregue no aparelho móvel todos os dias ou na frequência escolhida, quando o usuário chega em casa ou está em casa.
Em novembro de 2009, a NTT DoCoMo, no Japão, se tornou uma das primeiras operações do mundo a oferecer aplicações do tipo, começando com alertas via SMS. A expectativa é que operadoras na América do Norte e na Europa comecem a oferecer soluções do tipo em 2010, no entanto, o próximo ano deverá ser mais a respeito serviços de dados e ofertas conjuntas do que aplicações.
As operadoras parecem estar dispostas a se mover em relação a femtocell na sua própria velocidade e a controlar o crescimento da femtocell para garantir que seus sistemas de back-end e redes possam se ajustar a equipamentos que se configuram e ajustam sozinhos, como os baseados nesta tecnologia. As zonas de aplicações femtocell, por outro lado, exigirão tempo e custo adicionais para serem desenvolvidas, testadas e integradas a sistemas de cobrança e gerenciamento.
Apesar desses fatores, os fabricantes de equipamentos femtocell estão fazendo pressão sobre aplicações, com a criação de um grupo chamado Special Interest Group (SIG) do Femto Forum para padronizar o desenvolvimento de aplicações. Embora este seja o caminho certo para desenvolver o futuro das aplicações femtocell, ainda estamos vivendo os primeiros estágios para identificar modelos de negócio e de comercialização de aplicações femtocell.
7- Pagamentos entre pessoas por meio de dispositivos móveis não serão aplicações de massa
Durante o mês de novembro, alguns anúncios a respeito de soluções de pagamento entre pessoas (P2P) foram feitos nos Estados Unidos. Mas este tipo de solução não será uma realidade, porque é um mercado de nicho. A ABI Research sempre foi cética em relação a P2P em países desenvolvidos, onde a possibilidade de pagar pessoas com dinheiro ou cheque é relativamente conveniente.
Além disso, basta analisar o histórico de pagamentos P2P. A PayPal oferece pagamentos P2P desde 1999 e cresceu para mais de 160 milhões de usuários em todo o mundo - embora a companhia admita que a vasta maioria deles está amarrada ao eBay. Sua rival Obopay, comprada pela Nokia este ano, originalmente tinha foco em P2P nos EUA, mas mudou sua estratégia para países em desenvolvimento. Certamente, os dois casos refletem o mercado norte-americano de pagamentos móvel P2P, ou a falta dele.
O P2P é uma forma potencial dos bancos atingirem pessoas que ainda não são clientes bancários, mas têm telefones celulares. Por hora, esta é apenas uma cartada para bancos conseguirem novos clientes.
8- Vídeo na internet não vai provocar um êxodo de assinantes de TV paga
Nos últimos anos, analistas, marketeiros e outros especialistas da indústria vêm falando sobre o fim da TV paga como ela é conhecida. A expectativa era de que o vídeo na internet se tornasse tão popular e difundido que os consumidores abandonassem a televisão por assinatura via cabo, satélite e IPTV para assistir a seus programas favoritos na internet. Apesar de ser atraente, muitos fatores fazem com que essa possibilidade seja improvável, pelo menos no curto prazo.
Primeiro, vídeo na internet é muito mais difícil de navegar em comparação ao seviço tradicional de TV. Em segundo lugar, o modelo de negócios de vídeo na web ainda não está pronto para fazer sentido para um ecossistema totalmente baseado em publicidade. A ideia de gratuidade pode checar ao fim para aqueles a favor do vídeo na internet. À medida que o vídeo na internet amadurece e se torna mais parecido com serviços de TV paga, o apelo de deixar de pagar a TV por assinatura perderá força.
9- Por outro lado, a maioria dos vídeos online não será oferecida no modelo "pay-per-play"
Mais do que forçar modelos "pay-per-play", serviços e provedores de conteúdo para vídeo na internet devem encontrar formas criativas para gerar receita por meio de publicidade interativa e focada. À medida que equipamentos conectatos à banda larga criam pontos adicionais de contato a conteúdo online, a necessidade de estabelecer um modelo torna-se mais vital, porque consumidores vão encontrar formas para acessar o conteúdo.
10- Redes sociais não vão escapar ilesas a brechas de segurança
Os gerentes de TI vão encarar um crescente número de ataques associados a ferramentas e sites de redes sociais. E telefones celulares não vão escapar desses ataques.
11- Universidades não vão deixar de liderar a adoção de redes 802.11n
As universidades vão continuar a desenvolver a maior parte das implementações de 802,11n em 2010. Elas continuarão a ter as maiores necessidades de fazer isso devido ao crescimento do uso de vídeos nos campi, bem como da demanda por largura de banda em grandes salas de leitura e dormitórios.
Mesmo com o desenvolvimento do 3G e o início do 4G, o WiFi não vem desacelerando. Os chips WiFi estão presentes em cada vez mais dispositivos e essa tecnologia é crucial para operadoras móveis (a menos que a femtocell ganhe força) para desviar o tráfego da rede WWAN e prover a melhor experiência possível para consumidores que utilizam dispositivos móveis cada vez mais potentes.
12- Telepresença não será uma grande tendência
O anúncio da Cisco há alguns meses sobre a aquisição da Tandberg foi suprimido pelas dúvidas que cercam a aquisição. O mercado de telepresença foi impulsionado pelos altos preços de viagens, mas existem lacunas sérias de interoperabilidade de hardware e software de fornecedores, bem como custo de equipamento, que continuam a impedir o avanço desse crescimento.
13- Softwares de navegação rua-a-rua não serão gratuitos
A comoção causada pelo anúncio do Google de navegação rua-a-rua gratuita em celulares com o Android nos Estados Unidos, ainda existe um mercado que valoriza alta qualidade e serviços premium em celulares. De forma semelhante, ainda haverá mercado para os tradicionais GPS. Além disso, a existência de alternativas gratuitas continuará a pressionar preços e aumentar as expectativas dos usuários em relação à qualidade da rota, dos mapas e da usabilidade da interface de serviços pagos.
14- Operadoras não ficarão de fora do mercado de LBS
Apesar do grande sucesso de serviços de localização (LBS, Location Based Services) de terceiros no iPhone, as operadoras não ficarão de fora desse mercado por conta das plataformas independentes. As operadoras, principalmente as norte-americanas, ainda são os fornecedores de LBS que têm a preferência dos consumidores.
Elas contam com a confiança e, na percepção dos consumidores, garantem a privacidade e o nível de suporte que não pode ser igualado pelos outros participantes do mercado. O grosso das receitas de LBS em 2010 ainda será gerado por operadoras e não pelas plataformas de terceiros. Estas continuam presas no desafio de encontrar o modelo certo de monetização.
15- Telemática não ganhará o status de aplicação de massa
Em relação à telemática, a expectativa de desenvolvimento há muito tempo anunciada não ocorrerá. Apesar da mudança de atitude, a implementação - e a execução - da legislação levará mais tempo do que o esperado e, ao mesmo tempo, a indústria automobilística continua presa ao velho paradigma de tecnologia proprietária e de longos ciclos de desenvolvimento.
16- HP não engolirá a 3Com tão suavemente
A aquisição da 3Com pela HP não ocorrerá de forma tão suave quanto algumas pessoas pensam. As culturas das duas empresas não são sequer parecidas - pense no Vale do Silício encontrando Pequim. Igualmente problemática é a duplicação de equipamentos de comutação para pequenas e médias empresas.
17- O GSM não morrerá
Embora a tendência de longo prazo seja a desaceleração para o mercado de equipamentos GSM/GPRS/EDGE, boa parte do terceiro mundo ainda está desenrolando infraestrutura e aparelhos com essas tecnologias. Embora a maioria das modernas estações radiobase possam passar por um upgrade para WCDMA e LTE, as necessidades de comunicação de países de terceiro mundo serão satisfeitas pelas tecnologias GSM/GPRS/EDGE, mais básicas, ainda por algum tempo.
18- Estações radiobase "verdes" não terão um grande desenvolvimento
Estações radiobase de energia renovável são oferecidas pela maior parte das principais empresas de infraestrutura de telecomunicações como Alcatel Lucent, Nokia Siemens, Huawei e Ericsson. No entanto, muitos destes fornecedores estão direcionando suas soluções alternativas para países em desenvolvimento como África, Índia e localidades do Extremo Oriente.
Em 2010, 24 mil estações de energia renovável devem ser adicionadas, sendo quase todas em locais que não possuem rede elétrica. Este foco também se reflete no posicionamento de uma das maiores associações da indústria de mobilidade, a GSMA, que lançou o programa ‘Green Power for Mobile’, em 2008. O projeto visa a colaborar com a criação de 118 mil novos e atuais centros de geração de energia em regiões remotas e rurais da África e da Índia até 2012.
O nível de maturidade das tecnologias para geração de energia solar e eólica, entretanto, não é suficiente para ganhar escala, afirma a ABI Research. O retorno sobre o investimento nestas operações varia de três a seis anos. Além disso, na avaliação da ABI, a indústria de mobilidade ainda não atentou para outro fato importante: há localidades com fornecimento parcial de energia elétrica, em países como Índia e China, nas quais muitas estações radiobase são movidas a diesel por um período de 12 horas a 14 horas por dia.
Os movimentos em relação a estações de energia renovável precisam ir além do foco em locais sem rede elétrica, em áreas rurais e remotas. Sem iniciativas da indústria de mobilidade para expandir o alcance das estações de energia renovável, é pouco provável vermos inovações em tecnologias movidas à luz solar ou ao vento que cheguem ao mercado de massa.
19- LTE não será lançado em todo o mundo
Com a maioria das operadoras destinando investimentos a aumentar as capacidades de suas redes 3G, os investimentos em LTE devem começar em alguns anos - apesar dos recentes anúncios de redes com essa tecnologia.
20 - Mas o RFID continua fazendo barulho...
De acordo com uma pesquisa da ABI sobre RFID feita com usuários, os investimentos em tecnologias de identificação por radiofreqüência não devem cair em 2010. Entre os participantes da pesquisa, um terço pretende manter o mesmo nível de investimento nesta área, 11% citaram que pretendem reduzir os investimentos em RFID e 8% responderam que não planejam investir na tecnologia em 2010.
A tendência de gastos está sendo direcionada pela contínua expansão de segmentos de alta frequência como pagamentos por contato e ticketing, além de avanços nos segmentos de varejo de moda, gerenciamento de ativos e de logística da cadeia de suprimentos. A pesquisa indica que os atuais usuários de RFID elevarão os investimentos em seus atuais sistemas e programas de RFID. A informação sinaliza que a tecnologia deve receber aportes significativos em 2010, acompanhando o ritmo de recuperação econômica.
sexta-feira, 18 de dezembro de 2009
Google busca revendas fortes para crescer no setor corporativo
Empresa estimula integradoras a migrarem base de clientes para suas tecnologias e aponta oportunidades de negócios para o trabalho dos parceiros.
Por Rodrigo Afonso, da Computerworld
17 de dezembro de 2009 - 18h20
A Google percebeu que, para ganhar força no mercado corporativo brasileiro, precisa contar com revendedores fortes, que ofereçam suporte local, adequado às necessidades do País. Por isso, a companhia quer aumentar o número de revendas de seus produtos corporativos no País. A Google Enterprise está há mais de dois anos no Brasil, mas só agora as operações no setor começam a ensaiar uma decolagem por aqui.
Uma das estratégias evidentes, confirmada pelo diretor da divisão Enterprise da Google no Brasil, José Nilo, é estimular a migração da base de clientes dos integradores para os serviços da Google e acompanhar de perto o trabalho dessas empresas, apontando novas oportunidades de negócios. “A aposta é em parceiros que já tiveram sucesso no passado com a introdução de novas tecnologias”, diz.
Uma das 20 revendas brasileiras de Google Apps, pacote que abarca quase todos os produtos da linha corporativa da empresa, é a Dedalus. A companhia, que começou agora a fechar os primeiros clientes do pacote, quer migrar 25% dos contratos atuais de e-mail para a plataforma da Google. Em 2010, a meta é que 45% do faturamento seja associado ao Google Apps.
“Por enquanto, temos oito clientes fechados, mas com base nos contatos que recebemos, a expectativa é de que esse número cresça muito rapidamente. Estamos respirando Google e apostando muito em suas ferramentas”, afirma o presidente da Dedalus, Maurício Fernandes.
A IP Connection, integradora que prevê faturamento de 15 milhões de reais para o próximo ano, já está em fase avançada de negócios com Apps. Sem revelar o nome do cliente, o CEO da companhia, Alexandre Otto, conta que está fechando um contrato de quatro mil licenças. A empresa, que fica em São Paulo, atua na área de saúde, e está migrando de soluções Microsoft. Sem contar esse cliente, a expectativa é fechar 2009 fornecendo o pacote para dois mil usuários (somando todos os contratos).
Outra empresa que fechou com a IP Connection foi a Contact Nvocc, da área de logística. Foram 110 contas implantadas pelo valor de 16 mil reais para o período de um ano e a expectativa é de que o número de usuários migrados chegue a 500. Segundo Otto, em 2010 o Apps responderá por 10% a 15% do faturamento da empresa. Pela expectativa de faturamento, significa que entre 1,5 milhão e 2,25 milhões de reais serão gerados com negócios relacionados à Google.
Em um dos poucos negócios diretos, a Google vendeu 3,5 mil licenças de Google Apps para as Lojas Renner, em uma situação ímpar, na qual e-mail não era a prioridade número um do cliente. A solução que a empresa mais utiliza é o Google Sites, ferramenta de portal corporativo que ajuda a equipe a trabalhar de maneira colaborativa. “Os grandes benefícios foram a agilidade e a velocidade de implantação que obtivemos. O novo ambiente colaborativo foi bem recebido e substituiu ferramenta da Oracle”, relata o CIO da Renner, Leandro Balbinot.
Para se ter uma ideia do que os números significam, a Google gosta de destacar que o grande marco do Google Apps nos EUA foi o contrato fechado com a farmacêutica Genentech, com 17 mil usuários. Se levar em consideração a diferença de porte entre empresas dos EUA e do Brasil, contratos de 4 mil usuários podem realmente indicar uma forte tendência de crescimento da ferramenta.
Apesar disso, a Google não revela números sobre a participação do Enterprise no faturamento da companhia. Em evento recente, a empresa disse somente que a América Latina responde por 10% de todos os negócios da Google e que o Brasil gera 40% do faturamento da América Latina. O preço da licença do Google Apps no Brasil é mais alto do que nos Estados Unidos por uma questão tributária. Segundo Nilo, o preço previsto para 2010 deve ficar na casa dos 75 dólares por usuário por ano, ou 135 reais pelo câmbio desta quinta-feira (17/12).
Google Search Appliance
Outra parte da estratégia de ter uma atuação mais agressiva no mercado corporativo está no Google Search Appliance (GSA), equipamento que é conectado à rede de uma empresa para indexar todo o conteúdo e criar para os usuários corporativos um portal de buscas interno com o conteúdo. A Google não revela valores ou percentuais de negócios relacionados ao equipamento, mas já há integradoras interessadas em basear seu crescimento com o produto.
A Just Digital é uma delas. A integradora deve fechar o faturamento de 2008 com 1,5 milhão de reais, sendo 35% em negócios relacionados à Google. Para 2010, a meta é dobrar o faturamento e fazer com que as soluções Google respondam por 70% do faturamento. Os clientes da companhia são representativos: Claro, Rede Record, Magazine Luiza, Pernambucanas, FIESP, CIESP, Grupo Pão de Açúcar e Videolar.
Além do GSA, a empresa aposta no desenvolvimento de aplicações para a plataforma Google Apps para crescer. “Já temos produtos homologados que vão entrar no marketplace da Google, mas planejamos também desenvolver produtos que resolvam algumas questões específicas de clientes”, detalha o diretor de operações da Just Digital, Rafael Cichini.
Segundo José Nilo, da Google, implantar GSA em uma empresa pode custar a partir de 85 mil reais, valor que pode subir bastante dependendo do volume de dados e necessidade de serviços especializados. O Google Mini, versão mais leve para pequenas empresas, tem preço inicial de 8 mil dólares.
Por Rodrigo Afonso, da Computerworld
17 de dezembro de 2009 - 18h20
A Google percebeu que, para ganhar força no mercado corporativo brasileiro, precisa contar com revendedores fortes, que ofereçam suporte local, adequado às necessidades do País. Por isso, a companhia quer aumentar o número de revendas de seus produtos corporativos no País. A Google Enterprise está há mais de dois anos no Brasil, mas só agora as operações no setor começam a ensaiar uma decolagem por aqui.
Uma das estratégias evidentes, confirmada pelo diretor da divisão Enterprise da Google no Brasil, José Nilo, é estimular a migração da base de clientes dos integradores para os serviços da Google e acompanhar de perto o trabalho dessas empresas, apontando novas oportunidades de negócios. “A aposta é em parceiros que já tiveram sucesso no passado com a introdução de novas tecnologias”, diz.
Uma das 20 revendas brasileiras de Google Apps, pacote que abarca quase todos os produtos da linha corporativa da empresa, é a Dedalus. A companhia, que começou agora a fechar os primeiros clientes do pacote, quer migrar 25% dos contratos atuais de e-mail para a plataforma da Google. Em 2010, a meta é que 45% do faturamento seja associado ao Google Apps.
“Por enquanto, temos oito clientes fechados, mas com base nos contatos que recebemos, a expectativa é de que esse número cresça muito rapidamente. Estamos respirando Google e apostando muito em suas ferramentas”, afirma o presidente da Dedalus, Maurício Fernandes.
A IP Connection, integradora que prevê faturamento de 15 milhões de reais para o próximo ano, já está em fase avançada de negócios com Apps. Sem revelar o nome do cliente, o CEO da companhia, Alexandre Otto, conta que está fechando um contrato de quatro mil licenças. A empresa, que fica em São Paulo, atua na área de saúde, e está migrando de soluções Microsoft. Sem contar esse cliente, a expectativa é fechar 2009 fornecendo o pacote para dois mil usuários (somando todos os contratos).
Outra empresa que fechou com a IP Connection foi a Contact Nvocc, da área de logística. Foram 110 contas implantadas pelo valor de 16 mil reais para o período de um ano e a expectativa é de que o número de usuários migrados chegue a 500. Segundo Otto, em 2010 o Apps responderá por 10% a 15% do faturamento da empresa. Pela expectativa de faturamento, significa que entre 1,5 milhão e 2,25 milhões de reais serão gerados com negócios relacionados à Google.
Em um dos poucos negócios diretos, a Google vendeu 3,5 mil licenças de Google Apps para as Lojas Renner, em uma situação ímpar, na qual e-mail não era a prioridade número um do cliente. A solução que a empresa mais utiliza é o Google Sites, ferramenta de portal corporativo que ajuda a equipe a trabalhar de maneira colaborativa. “Os grandes benefícios foram a agilidade e a velocidade de implantação que obtivemos. O novo ambiente colaborativo foi bem recebido e substituiu ferramenta da Oracle”, relata o CIO da Renner, Leandro Balbinot.
Para se ter uma ideia do que os números significam, a Google gosta de destacar que o grande marco do Google Apps nos EUA foi o contrato fechado com a farmacêutica Genentech, com 17 mil usuários. Se levar em consideração a diferença de porte entre empresas dos EUA e do Brasil, contratos de 4 mil usuários podem realmente indicar uma forte tendência de crescimento da ferramenta.
Apesar disso, a Google não revela números sobre a participação do Enterprise no faturamento da companhia. Em evento recente, a empresa disse somente que a América Latina responde por 10% de todos os negócios da Google e que o Brasil gera 40% do faturamento da América Latina. O preço da licença do Google Apps no Brasil é mais alto do que nos Estados Unidos por uma questão tributária. Segundo Nilo, o preço previsto para 2010 deve ficar na casa dos 75 dólares por usuário por ano, ou 135 reais pelo câmbio desta quinta-feira (17/12).
Google Search Appliance
Outra parte da estratégia de ter uma atuação mais agressiva no mercado corporativo está no Google Search Appliance (GSA), equipamento que é conectado à rede de uma empresa para indexar todo o conteúdo e criar para os usuários corporativos um portal de buscas interno com o conteúdo. A Google não revela valores ou percentuais de negócios relacionados ao equipamento, mas já há integradoras interessadas em basear seu crescimento com o produto.
A Just Digital é uma delas. A integradora deve fechar o faturamento de 2008 com 1,5 milhão de reais, sendo 35% em negócios relacionados à Google. Para 2010, a meta é dobrar o faturamento e fazer com que as soluções Google respondam por 70% do faturamento. Os clientes da companhia são representativos: Claro, Rede Record, Magazine Luiza, Pernambucanas, FIESP, CIESP, Grupo Pão de Açúcar e Videolar.
Além do GSA, a empresa aposta no desenvolvimento de aplicações para a plataforma Google Apps para crescer. “Já temos produtos homologados que vão entrar no marketplace da Google, mas planejamos também desenvolver produtos que resolvam algumas questões específicas de clientes”, detalha o diretor de operações da Just Digital, Rafael Cichini.
Segundo José Nilo, da Google, implantar GSA em uma empresa pode custar a partir de 85 mil reais, valor que pode subir bastante dependendo do volume de dados e necessidade de serviços especializados. O Google Mini, versão mais leve para pequenas empresas, tem preço inicial de 8 mil dólares.
Veja o 'hall da fama' das falhas de segurança de 2009
Confira cinco casos de empresas ou órgãos de governo que não tomaram medidas básicas de segurança para proteger informações próprias ou de seus clientes.
Por Computerworld/EUA
17 de dezembro de 2009 - 13h28
Se houvesse algum consolo sobre os vazamentos de dados que ocorreram este ano, seria que a maioria deles se deu por conta de falhas de segurança muito familiares. Poucos foram realmente resultado da engenhosidade dos hackers.
As companhias ou órgãos do governo continuam a errar nas questões mais comuns: laptops perdidos, software sem correções e mal codificados, trapalhadas quanto à revelação de informações, entre outras questões relacionadas à mã gestão de segurança. Confira o "hall da fama" das falhas de segurança de 2009:
Procedimentos de segurança de aeroportos dos EUA vão parar na web
Uma das maioires gafes do ano foi da Transportation Security Administration (TSA), orgão do governo federal norte-americano que postou em seu web site público, acidentalmente, um manual contendo detalhes completos de sobre procedimentos de segurança de aeroportos norte-americanos. O vazamento ocorreu quando um manual padrão de operações da TSA foi postado em um web site federal como parte de um processo de licitação.
O documento incluia detalhes sobre checagem de aparelhos explosivos, regras especiais para lidar com a CIA, diplomatas e autoridades, além de definições técnicas e tolerâncias usadas para metais e detectores de explosivos usados em aeroportos. Pessoas da área de direito classificaram a falha como chocante e uma ameaça à segurança nacional os EUA.
130 milhões de dados de cartões são roubados
A empresa Heartland, especializada em sistemas de pagamento, entra na lista pelo tamanho e escopo de sua falha, ocorrida em janeiro. O problema ocorreu a partir de SQL injections (códigos inseridos em campos que lidam com bancos de dados SQL) que permitiu a hackers roubar dados de pagamento de aproximadamente 130 milhões de cartões de crédito e débito. Foi o maior vazamento de dados de pagamento da história.
Empresa perde HD com 1,5 milhão de dados e esconde fato
A empresa de saúde Health Net já teria se prejudicado o suficiente ao perder um HD sem criptografia com dados referentes a 7 anos de informações pessoais, financeiras e médicas de cerca de 1,5 milhão de clientes. Mas a história foi pior ainda: a companhia escondeu o fato por seis meses. Além das fichas médicas, o HD continha nomes, endereços e números do seguro sócial (equivalente ao CPF no Brasil) de cliente quatro estados norte-americanos. O caso acabou gerando uma lei que obriga as empresas de saúde a revelar casos de vazamento de dados.
Estados Unidos compartilham informações nucleares com o mundo
Um documento com informações sensíveis sobre instalações nucleares civis foi publicado no website do governo norte-americano. O arquivo estava marcado pelo presidente dos Estados Unidos como "altamente confidencial".
O documento continua informações detalhadas sobre centenas de instalações nucleares civis em todo o país, incluindo aquelas que armazenam urânio enriquecido. O arquivo listava detalhes de programas de armas nucleares de laboratórios de pesquisa em Los Alamos, Livermore e Sandia. Suspeita-se que o texto tenha sido publicado devido às diferentes formas de classificação e manuseio de documentos das agências governamentais.
32 milhões de senhas armazenados em uma planilha de texto
A RockYou Inc, que fornece soluções de redes sociais, entrou para esta lista durante esta semana, depois de uma falha de segurança que expôs nomes de usuário e senhas de 32 milhões de participantes registrados. Só por isso, o número dá notoriedade à falha, mas o que torna a situação ainda pior é que a RockYou mantinha todas as senhas em uma planinha de texto.
Como a empresa exige que os usuários registrem-se informando seus endereços de e-mail, o hacker responsável por descobrir a brecha de segurança agora tem acesso a milhões de contas de correio eletrônico (a menos que os usuários mudem seus endereços). Com o cresente número de tentativas de roubo de credenciais legítimas para quebrar todos os tipos de contas online, a falha da RockYou em não tomar precauções básicas pode ser considerada, no mínimo, notável.
Por Computerworld/EUA
17 de dezembro de 2009 - 13h28
Se houvesse algum consolo sobre os vazamentos de dados que ocorreram este ano, seria que a maioria deles se deu por conta de falhas de segurança muito familiares. Poucos foram realmente resultado da engenhosidade dos hackers.
As companhias ou órgãos do governo continuam a errar nas questões mais comuns: laptops perdidos, software sem correções e mal codificados, trapalhadas quanto à revelação de informações, entre outras questões relacionadas à mã gestão de segurança. Confira o "hall da fama" das falhas de segurança de 2009:
Procedimentos de segurança de aeroportos dos EUA vão parar na web
Uma das maioires gafes do ano foi da Transportation Security Administration (TSA), orgão do governo federal norte-americano que postou em seu web site público, acidentalmente, um manual contendo detalhes completos de sobre procedimentos de segurança de aeroportos norte-americanos. O vazamento ocorreu quando um manual padrão de operações da TSA foi postado em um web site federal como parte de um processo de licitação.
O documento incluia detalhes sobre checagem de aparelhos explosivos, regras especiais para lidar com a CIA, diplomatas e autoridades, além de definições técnicas e tolerâncias usadas para metais e detectores de explosivos usados em aeroportos. Pessoas da área de direito classificaram a falha como chocante e uma ameaça à segurança nacional os EUA.
130 milhões de dados de cartões são roubados
A empresa Heartland, especializada em sistemas de pagamento, entra na lista pelo tamanho e escopo de sua falha, ocorrida em janeiro. O problema ocorreu a partir de SQL injections (códigos inseridos em campos que lidam com bancos de dados SQL) que permitiu a hackers roubar dados de pagamento de aproximadamente 130 milhões de cartões de crédito e débito. Foi o maior vazamento de dados de pagamento da história.
Empresa perde HD com 1,5 milhão de dados e esconde fato
A empresa de saúde Health Net já teria se prejudicado o suficiente ao perder um HD sem criptografia com dados referentes a 7 anos de informações pessoais, financeiras e médicas de cerca de 1,5 milhão de clientes. Mas a história foi pior ainda: a companhia escondeu o fato por seis meses. Além das fichas médicas, o HD continha nomes, endereços e números do seguro sócial (equivalente ao CPF no Brasil) de cliente quatro estados norte-americanos. O caso acabou gerando uma lei que obriga as empresas de saúde a revelar casos de vazamento de dados.
Estados Unidos compartilham informações nucleares com o mundo
Um documento com informações sensíveis sobre instalações nucleares civis foi publicado no website do governo norte-americano. O arquivo estava marcado pelo presidente dos Estados Unidos como "altamente confidencial".
O documento continua informações detalhadas sobre centenas de instalações nucleares civis em todo o país, incluindo aquelas que armazenam urânio enriquecido. O arquivo listava detalhes de programas de armas nucleares de laboratórios de pesquisa em Los Alamos, Livermore e Sandia. Suspeita-se que o texto tenha sido publicado devido às diferentes formas de classificação e manuseio de documentos das agências governamentais.
32 milhões de senhas armazenados em uma planilha de texto
A RockYou Inc, que fornece soluções de redes sociais, entrou para esta lista durante esta semana, depois de uma falha de segurança que expôs nomes de usuário e senhas de 32 milhões de participantes registrados. Só por isso, o número dá notoriedade à falha, mas o que torna a situação ainda pior é que a RockYou mantinha todas as senhas em uma planinha de texto.
Como a empresa exige que os usuários registrem-se informando seus endereços de e-mail, o hacker responsável por descobrir a brecha de segurança agora tem acesso a milhões de contas de correio eletrônico (a menos que os usuários mudem seus endereços). Com o cresente número de tentativas de roubo de credenciais legítimas para quebrar todos os tipos de contas online, a falha da RockYou em não tomar precauções básicas pode ser considerada, no mínimo, notável.
quinta-feira, 17 de dezembro de 2009
Como escolher o fornecedor ideal de service desk
Empresas diferentes têm necessidades diferentes de TI. Logo, não existe um fornecedor capaz de atender a todos da mesma maneira.
Por Rodrigo Afonso, da COMPUTERWORLD
16 de dezembro de 2009 - 18h15
Quando se leva em conta as necessidades por tecnologia da informação, as empresas são muito diferentes. E uma das dúvidas é como fazer a escolha de um serviço de service desk. “Trata-se, muitas vezes, de um contrato estratégico, que deve ser fechado com cautela”, afirma o diretor da consultoria Essence, Gabriel Rodrigues.
O executivo indica cinco passos fundamentais para passar por esse processo, começando pelo planejamento e transitando pela qualificação de fornecedores, níveis de serviço do contrato (SLAs, do inglês, service level agreement), análise da evolução do serviço e estudo dos indicadores de desempenho, com escolha acertada dos indicadores ideais.
O consultor da TGT Consult, Ronei Silva, acredita que o primeiro passo é determinar o nível de agilidade e quais são os processos e o tipo de serviço que se deseja. “Só assim será possível pensar em SLAs, que devem ser a base de qualquer contrato do gênero”.
Nessa primeira etapa, alguns fornecedores podem querer vincular contratos a indicadores técnicos, mas atualmente isso não tem muito valor para as empresas, que precisam de indicadores relacionados a negócios. “O grande desafio é alinhar SLAs e indicadores de processos de negócios. O mercado ainda não está maduro o suficiente, mas avança e os fornecedores que não souberem lidar com isso vão ficar para trás”, afirma Silva.
Para o analista, outro ponto fundamental, a escolha do fornecedor, deve estar associada também à habilidade de colocar, no contrato, uma cláusula de benchmarking, ou seja, um órgão externo independente avalia anualmente os serviços realizados em relação ao que existe no mercado. Segundo Ronei Silva, as empresas e os clientes precisam entender que essa cláusula é muito saudável, pois traz ganhos para quem consome e eleva os padrões de serviço para quem fornece.
Todo esse processo também auxilia a empresa a contratar mais do que precisa. Tem companhia que contrata service desk 24 x 7 sendo que, no fim de semana, ninguém trabalha. "É bom tomar o cuidado de escolher um fornecedor que saiba fazer diferenciação de preço e os exponha de forma muito clara”, aconselha o líder da oferta de serviços avançados da PromonLogicalis, Carlos Alves.
Evolução
Ao avaliar um fornecedor, é importante levar em conta também o plano de evolução. Não somente nas promessas, mas no embasamento e no quão realista ele se mostra dentro do contexto em que se insere.
Segundo o vice-presidente de operações da América Latina da Asyst International, Jorge Perlas, a evolução deve ser vista como um processo de aprendizado contínuo, que ajude também a reduzir as demandas do cliente. “O chamado atendido com mais eficiência é aquele que sequer precisa ser realizado”, afirma.
Mesmo com a evolução, crises podem ocorrer, gerando aumento repentino na demanda. O diretor da consultoria Essence, Gabriel Rodrigues, afirma que é preciso checar se o contrato possibilita acúmulo e antecipação de horas.
Se o documento acorda 1000 horas, mas a empresa só usa 500, as outras 500 poderá acumular para um momento de necessidade? “Essa variante pode significar um acréscimo no preço do serviço, mas não é nada comparado ao pagamento de serviços extras”, destaca. Empresas muito expostas a risco podem se beneficiar dessa cláusula.
Help desk e service desk: qual é a diferença?
O serviço conhecido como service desk surgiu como evolução do help desk e trata-se de um atendimento mais sofisticado, com profissionais mais preparados para a resolução dos problemas e com visão geral dos chamados abertos pelos usuários. A figura do help desk pode até continuar existindo no primeiro contato, no qual se segue o famoso script dos atendentes para o encaminhamento dos problemas, mas num serviço de qualidade essa primeira etapa precisa ser bastante ágil.
O conceito do ponto único de contato, conhecido pela sigla SPOC (do inglês, single point of contact) é outra grande evolução dessa área. Em vez de ter diferentes centrais de contato para tipos de problemas distintos, esse conceito facilitou a vida do usuário ao consolidar todos os chamados. E é aí que o help desk continua sendo importante, pois é o agente que vai encaminhar a solicitação para quem possa resolvê-la.
No entanto, é bom tomar cuidado para não contratar service desk e levar só help desk. “Em termos gerais, o service desk tem visibilidade sobre processos ITIL, algo que os outros não teriam”, afirma Carlos Alves, da PromonLogicalis. Eles também têm visão dos resultados, da evolução dos serviços e trabalham com conhecimento de metas e níveis de serviços exigidos.
Por Rodrigo Afonso, da COMPUTERWORLD
16 de dezembro de 2009 - 18h15
Quando se leva em conta as necessidades por tecnologia da informação, as empresas são muito diferentes. E uma das dúvidas é como fazer a escolha de um serviço de service desk. “Trata-se, muitas vezes, de um contrato estratégico, que deve ser fechado com cautela”, afirma o diretor da consultoria Essence, Gabriel Rodrigues.
O executivo indica cinco passos fundamentais para passar por esse processo, começando pelo planejamento e transitando pela qualificação de fornecedores, níveis de serviço do contrato (SLAs, do inglês, service level agreement), análise da evolução do serviço e estudo dos indicadores de desempenho, com escolha acertada dos indicadores ideais.
O consultor da TGT Consult, Ronei Silva, acredita que o primeiro passo é determinar o nível de agilidade e quais são os processos e o tipo de serviço que se deseja. “Só assim será possível pensar em SLAs, que devem ser a base de qualquer contrato do gênero”.
Nessa primeira etapa, alguns fornecedores podem querer vincular contratos a indicadores técnicos, mas atualmente isso não tem muito valor para as empresas, que precisam de indicadores relacionados a negócios. “O grande desafio é alinhar SLAs e indicadores de processos de negócios. O mercado ainda não está maduro o suficiente, mas avança e os fornecedores que não souberem lidar com isso vão ficar para trás”, afirma Silva.
Para o analista, outro ponto fundamental, a escolha do fornecedor, deve estar associada também à habilidade de colocar, no contrato, uma cláusula de benchmarking, ou seja, um órgão externo independente avalia anualmente os serviços realizados em relação ao que existe no mercado. Segundo Ronei Silva, as empresas e os clientes precisam entender que essa cláusula é muito saudável, pois traz ganhos para quem consome e eleva os padrões de serviço para quem fornece.
Todo esse processo também auxilia a empresa a contratar mais do que precisa. Tem companhia que contrata service desk 24 x 7 sendo que, no fim de semana, ninguém trabalha. "É bom tomar o cuidado de escolher um fornecedor que saiba fazer diferenciação de preço e os exponha de forma muito clara”, aconselha o líder da oferta de serviços avançados da PromonLogicalis, Carlos Alves.
Evolução
Ao avaliar um fornecedor, é importante levar em conta também o plano de evolução. Não somente nas promessas, mas no embasamento e no quão realista ele se mostra dentro do contexto em que se insere.
Segundo o vice-presidente de operações da América Latina da Asyst International, Jorge Perlas, a evolução deve ser vista como um processo de aprendizado contínuo, que ajude também a reduzir as demandas do cliente. “O chamado atendido com mais eficiência é aquele que sequer precisa ser realizado”, afirma.
Mesmo com a evolução, crises podem ocorrer, gerando aumento repentino na demanda. O diretor da consultoria Essence, Gabriel Rodrigues, afirma que é preciso checar se o contrato possibilita acúmulo e antecipação de horas.
Se o documento acorda 1000 horas, mas a empresa só usa 500, as outras 500 poderá acumular para um momento de necessidade? “Essa variante pode significar um acréscimo no preço do serviço, mas não é nada comparado ao pagamento de serviços extras”, destaca. Empresas muito expostas a risco podem se beneficiar dessa cláusula.
Help desk e service desk: qual é a diferença?
O serviço conhecido como service desk surgiu como evolução do help desk e trata-se de um atendimento mais sofisticado, com profissionais mais preparados para a resolução dos problemas e com visão geral dos chamados abertos pelos usuários. A figura do help desk pode até continuar existindo no primeiro contato, no qual se segue o famoso script dos atendentes para o encaminhamento dos problemas, mas num serviço de qualidade essa primeira etapa precisa ser bastante ágil.
O conceito do ponto único de contato, conhecido pela sigla SPOC (do inglês, single point of contact) é outra grande evolução dessa área. Em vez de ter diferentes centrais de contato para tipos de problemas distintos, esse conceito facilitou a vida do usuário ao consolidar todos os chamados. E é aí que o help desk continua sendo importante, pois é o agente que vai encaminhar a solicitação para quem possa resolvê-la.
No entanto, é bom tomar cuidado para não contratar service desk e levar só help desk. “Em termos gerais, o service desk tem visibilidade sobre processos ITIL, algo que os outros não teriam”, afirma Carlos Alves, da PromonLogicalis. Eles também têm visão dos resultados, da evolução dos serviços e trabalham com conhecimento de metas e níveis de serviços exigidos.
quarta-feira, 16 de dezembro de 2009
Escritório de patentes da Austrália testa aplicação Web 2.0
Voluntários em empresas e universidades foram convocados para colaborar em site, onde poderão ajudar os examinadores com opiniões sobre os pedidos de registro.
Por Computerworld/Austrália
09 de dezembro de 2009 - 16h47
O processo de exame e concessão de patentes da Austrália está prestes ganhar novo ritmo com o anúncio de um novo teste que se apoia na tecnologia Web 2.0 para melhorar a qualidade das patentes emitidas.
A IP Australia, em parceria com Faculdade de Direito da Universidade de Tecnologia de Queensland, tem convocado profissionais qualificados da indústria, do governo e de universidades para participar como voluntários na iniciativa, chamada de Peer-to-Patent (P2P).
O teste tentará se beneficiar da experiência dos membros do público, que poderão compartilhar seu conhecimento em um site interativo construído para apoiar os examinadores do escritório de patentes australiano.
Direitos fortalecidos
O Secretário do Parlamento para Inovação e Indústria, Richard Marles, declarou que a iniciativa servirá para fortalecer os direitos das patentes concedidas aos inovadores.
"Esta experiência de 12 meses com o P2P demonstra como o governo australiano é aberto às inovações e tira proveito da Web 2.0", disse.
"Faz sentido usar a tecnologia para agregar uma camada de checagem e de conferência em nosso sistema de propriedade intelectual. Dessa forma poderemos enfrentar os desafios do futuro", ressaltou o secretário. "O P2P será utilizado em métodos de negócio e aplicações correlatas."
Em um relatório preliminar sobre o uso de tecnologias Web 2.0 divulgado previamente, a força-tarefa do Governo 2.0 australiano avaliou que suas agências federais "devem fazer melhor" para atingir os objetivos do Governo 2.0, e que elas não abraçaram o "Governo 2.0 de modo coordenado e que refletisse a posição do governo sobre o assunto."
Por Computerworld/Austrália
09 de dezembro de 2009 - 16h47
O processo de exame e concessão de patentes da Austrália está prestes ganhar novo ritmo com o anúncio de um novo teste que se apoia na tecnologia Web 2.0 para melhorar a qualidade das patentes emitidas.
A IP Australia, em parceria com Faculdade de Direito da Universidade de Tecnologia de Queensland, tem convocado profissionais qualificados da indústria, do governo e de universidades para participar como voluntários na iniciativa, chamada de Peer-to-Patent (P2P).
O teste tentará se beneficiar da experiência dos membros do público, que poderão compartilhar seu conhecimento em um site interativo construído para apoiar os examinadores do escritório de patentes australiano.
Direitos fortalecidos
O Secretário do Parlamento para Inovação e Indústria, Richard Marles, declarou que a iniciativa servirá para fortalecer os direitos das patentes concedidas aos inovadores.
"Esta experiência de 12 meses com o P2P demonstra como o governo australiano é aberto às inovações e tira proveito da Web 2.0", disse.
"Faz sentido usar a tecnologia para agregar uma camada de checagem e de conferência em nosso sistema de propriedade intelectual. Dessa forma poderemos enfrentar os desafios do futuro", ressaltou o secretário. "O P2P será utilizado em métodos de negócio e aplicações correlatas."
Em um relatório preliminar sobre o uso de tecnologias Web 2.0 divulgado previamente, a força-tarefa do Governo 2.0 australiano avaliou que suas agências federais "devem fazer melhor" para atingir os objetivos do Governo 2.0, e que elas não abraçaram o "Governo 2.0 de modo coordenado e que refletisse a posição do governo sobre o assunto."
Trabalho remoto também é para pequenas empresas
Vantagens e desvantagens da tecnologia ainda são desconhecidas por grande parte das companhias do segmento. Principais usuários ainda são fornecedores de soluções.
Por Rodrigo Afonso, da COMPUTERWORLD
11 de dezembro de 2009 - 07h00
A BabelTeam, empresa de pequeno porte que atua no segmento de marketing de busca, possui um escritório físico com apenas duas pessoas e um grupo de outros 17 funcionários espalhados por todo o Brasil e também fora do País. Todos precisam estabelecer comunicação instantânea, realizar trabalhos de colaboração e apresentações de forma remota.
A empresa usa solução da Cisco de trabalho remoto e utiliza recursos de videoconferência para colaborar, comercializar, treinar e realizar reuniões. Além disso, compartilham documentos em ambiente de colaboração, discutem estratégias e mostram propostas aos clientes. “Tudo isso sem custos de manutenção de uma infraestrutura de escritório ou mesmo de deslocamento”, diz o diretor da companhia, Jorge Aldrovandi.
O exemplo da BabelTeam ainda não é muito seguido pelas empresas, como mostra reportagem de Computerworld. Além de questões relacionadas a RH, falta conhecimento, por parte do mercado, sobre o que a tecnologia oferece, em termos de colaboração e uso de infraestrutura.
As empresas de maior porte que lideram a adoção dessas tecnologias são os próprios fornecedores. Na Orange, por exemplo, cerca de 15% dos funcionários trabalham remotamente. E para alcançar a complexa rede da empresa e manter contato com seus pares, basta que os funcionários contem com uma conexão internet em casa ou em hotspots de acesso à internet.
A conexão à rede é feita por meio de uma conexão privada, graças a um concentrador instalado na infraestrutura da empresa. O acesso é atualizado por dispositivos de segurança chamados tokens e, uma vez dentro da rede, os funcionários acessam qualquer dispositivo interno, de acordo com suas permissões no diretório de usuários.
“Desde 2005 a rede tem essa política de trabalho remoto no Brasil, que é global, e os resultados são muito bons no que diz respeito à qualidade da produção”, afirma Wagner Bernardes, gerente de consultoria e integração da companhia.
A Cisco, também fornecedora e usuária de soluções de trabalho remoto, é reconhecida por contar com funcionários espalhados geograficamente. Na empresa, os funcionários possuem ramais que funcionam diretamente no computador ou que são desviados para um telefone celular. Na mesma interface de software, os funcionários têm acesso à rede, a arquivos de colaboração, videoconferência, e-mail e mensageria. O software utilizado é o WebEx, também oferecido como serviço para o mercado.
Segundo o diretor de novas tecnologias Cisco, Marcelo Leite, as soluções são bastante acessíveis às pequenas empresas e podem custar a partir de 100 reais por usuário. “É um valor interessante se levar em consideração os gastos que as companhias têm para manter um posto de trabalho”, argumenta.
E a conta não leva em consideração os impactos ambientais: o simples fato de se deslocar para trabalhar em escritórios distantes de casa ou realizar reuniões causam impacto no meio ambiente. O site www.seegreennow.com, mantido pela Tandberg, oferece uma calculadora para que se calcule quanto cada viagem gera em emissões de carbono. Além disso, em uma cidade como São Paulo, com trânsito intenso, o trabalho remoto pode se mostrar uma boa opção para ganhar tempo.
O que a empresa precisa ter para manter estrutura remota?
- Servidor de autenticação do usuário;
- Concentrador para receber solicitações de conexões privadas (VPN);
- Prover uma forma de que o usuário forneça credenciais eletrônicas, como senhas de tokens;
- O custo da solução é variável.
Cuidados
Embora seja o sonho de muitos profissionais, o trabalho remoto traz suas desvantagens. Uma delas é que nunca é possível saber ao certo se as informações da empresa estão 100% seguras. Apesar de possuir diversos meios para autenticação, o simples fato de trabalhar em local público pode colocar informações em risco.
O outro, mais relacionado a recursos humanos, é a falta de contato com colegas, o que pode prejudicar o desenvolvimento de habilidades pessoais ou deixar profissionais descontentes. "Mesmo que haja política de trabalho remoto, é importante criar condições de contatos pessoais, mantendo um escritório físico", alerta Bernardes.
Por Rodrigo Afonso, da COMPUTERWORLD
11 de dezembro de 2009 - 07h00
A BabelTeam, empresa de pequeno porte que atua no segmento de marketing de busca, possui um escritório físico com apenas duas pessoas e um grupo de outros 17 funcionários espalhados por todo o Brasil e também fora do País. Todos precisam estabelecer comunicação instantânea, realizar trabalhos de colaboração e apresentações de forma remota.
A empresa usa solução da Cisco de trabalho remoto e utiliza recursos de videoconferência para colaborar, comercializar, treinar e realizar reuniões. Além disso, compartilham documentos em ambiente de colaboração, discutem estratégias e mostram propostas aos clientes. “Tudo isso sem custos de manutenção de uma infraestrutura de escritório ou mesmo de deslocamento”, diz o diretor da companhia, Jorge Aldrovandi.
O exemplo da BabelTeam ainda não é muito seguido pelas empresas, como mostra reportagem de Computerworld. Além de questões relacionadas a RH, falta conhecimento, por parte do mercado, sobre o que a tecnologia oferece, em termos de colaboração e uso de infraestrutura.
As empresas de maior porte que lideram a adoção dessas tecnologias são os próprios fornecedores. Na Orange, por exemplo, cerca de 15% dos funcionários trabalham remotamente. E para alcançar a complexa rede da empresa e manter contato com seus pares, basta que os funcionários contem com uma conexão internet em casa ou em hotspots de acesso à internet.
A conexão à rede é feita por meio de uma conexão privada, graças a um concentrador instalado na infraestrutura da empresa. O acesso é atualizado por dispositivos de segurança chamados tokens e, uma vez dentro da rede, os funcionários acessam qualquer dispositivo interno, de acordo com suas permissões no diretório de usuários.
“Desde 2005 a rede tem essa política de trabalho remoto no Brasil, que é global, e os resultados são muito bons no que diz respeito à qualidade da produção”, afirma Wagner Bernardes, gerente de consultoria e integração da companhia.
A Cisco, também fornecedora e usuária de soluções de trabalho remoto, é reconhecida por contar com funcionários espalhados geograficamente. Na empresa, os funcionários possuem ramais que funcionam diretamente no computador ou que são desviados para um telefone celular. Na mesma interface de software, os funcionários têm acesso à rede, a arquivos de colaboração, videoconferência, e-mail e mensageria. O software utilizado é o WebEx, também oferecido como serviço para o mercado.
Segundo o diretor de novas tecnologias Cisco, Marcelo Leite, as soluções são bastante acessíveis às pequenas empresas e podem custar a partir de 100 reais por usuário. “É um valor interessante se levar em consideração os gastos que as companhias têm para manter um posto de trabalho”, argumenta.
E a conta não leva em consideração os impactos ambientais: o simples fato de se deslocar para trabalhar em escritórios distantes de casa ou realizar reuniões causam impacto no meio ambiente. O site www.seegreennow.com, mantido pela Tandberg, oferece uma calculadora para que se calcule quanto cada viagem gera em emissões de carbono. Além disso, em uma cidade como São Paulo, com trânsito intenso, o trabalho remoto pode se mostrar uma boa opção para ganhar tempo.
O que a empresa precisa ter para manter estrutura remota?
- Servidor de autenticação do usuário;
- Concentrador para receber solicitações de conexões privadas (VPN);
- Prover uma forma de que o usuário forneça credenciais eletrônicas, como senhas de tokens;
- O custo da solução é variável.
Cuidados
Embora seja o sonho de muitos profissionais, o trabalho remoto traz suas desvantagens. Uma delas é que nunca é possível saber ao certo se as informações da empresa estão 100% seguras. Apesar de possuir diversos meios para autenticação, o simples fato de trabalhar em local público pode colocar informações em risco.
O outro, mais relacionado a recursos humanos, é a falta de contato com colegas, o que pode prejudicar o desenvolvimento de habilidades pessoais ou deixar profissionais descontentes. "Mesmo que haja política de trabalho remoto, é importante criar condições de contatos pessoais, mantendo um escritório físico", alerta Bernardes.
Análise: preços de outsourcing de TI devem cair em 2010
A previsão é de os preços continuem instáveis, em meio a questões econômicas como offshoring, pressão de consumidores e redução nos serviços de vendedores.
Por CIO/EUA
12 de dezembro de 2009 - 07h00
Em geral, os preços do setor de outsourcing caíram em 2009 e os analistas da indústria estimam que a essa tendência continue no próximo ano.
Além da recessão econômica global, outros fatores que derrubaram os preços dos serviços de Tecnologia da Informação (TI) incluem a realocação de processos de negócio de um país para outro (offshoring), pressão dos consumidores e redução dos serviços de vendedores.
“Vemos cada vez mais companhias adotando a terceirização offshore para aproveitar a vantagem global das oportunidades de trabalho do que no passado”, diz o chefe executivo de outsourcing da consultora Alsbridge, Bem Trowbridge. “Um dos problemas que vemos é que a redução de preços também pode ser causada pela desagregação de serviços”.
O chefe executivo da consultoria de outsourcing EquaTerra, Mark Ton, afirma que os compradores de serviços de terceirização têm focado em reduções de custos e investimentos em 2009. Toon acredita que os consumidores de serviços de TI continuarão a dar importância a preço em 2010. “Além dessa questão, haverá a necessidade de garantir que todos os termos do acordo não comprometam o sucesso”, completa o líder de pesquisas globais da empresa, Stan Lepeak.
Caso a economia ganhe força no próximo ano, há quem diga que o mercado não será dos consumidores. “Muito depende se os sinais de recuperação vão indicar uma situação real”, avalia o diretor de análises financeiras da consultoria de outsourcing TPI, Chris Kalnik. “Se a economia ganhar força, a TPI acredita que os provedores de serviço tentarão recuperar parte das reduções de preços feitas durante o último ano", completa.
O efeito RIM nos preços
No lado da infraestrutura do setor de outsourcing de TI, as ações de mercado continuarão a mudar para a entrega remota de serviços onde for possível, e as empresas de offshoring reduzirão ainda mais os preços de serviços para desktops e redes.
Mas essas economias podem durar pouco. Os serviços da Research in Motion (RIM) não estão disponíveis para todos. “A experiência nesse mercado já permitiu às organizações identificar quais processos são melhores distribuídos localmente”, afirma o diretor de tecnologia da informação da EquaTerra, Paul Cornelisse.
Em geral, a maioria dos serviços de infraestrutura terá redução em pequenas porcentagens no próximo ano, segundo a Compass America. Isso exclui os custos de armazenamento, que continuarão a cair - outros 25% em 2010.
Preços de outsourcing de TI e a mania de fusões
A maior novidade na indústria de outsourcing em 2009 foi a consolidação de fornecedores. A HP completou a integração da EDS, e novas fusões foram anunciadas entre a Dell e a Perot Systems e a Xerox e a ACS, entre outras. “As consolidações recentes podem manter a pressão ascendente dos preços, especialmente se os outros fornecedores seguirem o exemplo”, afirma Trowbridge.
A redução da concorrência raramente reduz os preços. Mas, segundo ele, a participação continua dos vendedores offshore no mercado pode ajudar a manter os preços sob controle: “Nós antecipamos que essa previsão de elevação será mais do que compensada pela capacidade de distribuição global no mercado. Há uma área que exigirá uma reavaliação, conforme as mudanças de 2010".
Novos modelos de preços
Em meio à continuação das incertezas econômicas, os clientes de outsourcing vão procurar flexibilidade nos preços em 2010. “Vemos uma ênfase maior nos preços baseados na demanda principalmente porque as companhias não conseguem prever qual será a repercussão”, afirma o chefe de práticas financeiras da EquaTerra, Bob Cecil. “Também prevemos isso para preços baseados no aumento”.
A computação em nuvem também vai atrair mais clientes. O chefe de práticas de arquiteturas financeiras da EquaTerra, Dave Brown, diz que os provedores e clientes de serviços de nuvem começarão a entender melhor os preços do setor como serviço em 2010, e isso levará as organizações a adotar o novo modelo de distribuição.
“O lado ruim é que essas são ofertas imaturas para as transações de outsourcing e ainda passarão por várias mudanças antes da estrutura de preços certa surgir”, completa Brown.
Por CIO/EUA
12 de dezembro de 2009 - 07h00
Em geral, os preços do setor de outsourcing caíram em 2009 e os analistas da indústria estimam que a essa tendência continue no próximo ano.
Além da recessão econômica global, outros fatores que derrubaram os preços dos serviços de Tecnologia da Informação (TI) incluem a realocação de processos de negócio de um país para outro (offshoring), pressão dos consumidores e redução dos serviços de vendedores.
“Vemos cada vez mais companhias adotando a terceirização offshore para aproveitar a vantagem global das oportunidades de trabalho do que no passado”, diz o chefe executivo de outsourcing da consultora Alsbridge, Bem Trowbridge. “Um dos problemas que vemos é que a redução de preços também pode ser causada pela desagregação de serviços”.
O chefe executivo da consultoria de outsourcing EquaTerra, Mark Ton, afirma que os compradores de serviços de terceirização têm focado em reduções de custos e investimentos em 2009. Toon acredita que os consumidores de serviços de TI continuarão a dar importância a preço em 2010. “Além dessa questão, haverá a necessidade de garantir que todos os termos do acordo não comprometam o sucesso”, completa o líder de pesquisas globais da empresa, Stan Lepeak.
Caso a economia ganhe força no próximo ano, há quem diga que o mercado não será dos consumidores. “Muito depende se os sinais de recuperação vão indicar uma situação real”, avalia o diretor de análises financeiras da consultoria de outsourcing TPI, Chris Kalnik. “Se a economia ganhar força, a TPI acredita que os provedores de serviço tentarão recuperar parte das reduções de preços feitas durante o último ano", completa.
O efeito RIM nos preços
No lado da infraestrutura do setor de outsourcing de TI, as ações de mercado continuarão a mudar para a entrega remota de serviços onde for possível, e as empresas de offshoring reduzirão ainda mais os preços de serviços para desktops e redes.
Mas essas economias podem durar pouco. Os serviços da Research in Motion (RIM) não estão disponíveis para todos. “A experiência nesse mercado já permitiu às organizações identificar quais processos são melhores distribuídos localmente”, afirma o diretor de tecnologia da informação da EquaTerra, Paul Cornelisse.
Em geral, a maioria dos serviços de infraestrutura terá redução em pequenas porcentagens no próximo ano, segundo a Compass America. Isso exclui os custos de armazenamento, que continuarão a cair - outros 25% em 2010.
Preços de outsourcing de TI e a mania de fusões
A maior novidade na indústria de outsourcing em 2009 foi a consolidação de fornecedores. A HP completou a integração da EDS, e novas fusões foram anunciadas entre a Dell e a Perot Systems e a Xerox e a ACS, entre outras. “As consolidações recentes podem manter a pressão ascendente dos preços, especialmente se os outros fornecedores seguirem o exemplo”, afirma Trowbridge.
A redução da concorrência raramente reduz os preços. Mas, segundo ele, a participação continua dos vendedores offshore no mercado pode ajudar a manter os preços sob controle: “Nós antecipamos que essa previsão de elevação será mais do que compensada pela capacidade de distribuição global no mercado. Há uma área que exigirá uma reavaliação, conforme as mudanças de 2010".
Novos modelos de preços
Em meio à continuação das incertezas econômicas, os clientes de outsourcing vão procurar flexibilidade nos preços em 2010. “Vemos uma ênfase maior nos preços baseados na demanda principalmente porque as companhias não conseguem prever qual será a repercussão”, afirma o chefe de práticas financeiras da EquaTerra, Bob Cecil. “Também prevemos isso para preços baseados no aumento”.
A computação em nuvem também vai atrair mais clientes. O chefe de práticas de arquiteturas financeiras da EquaTerra, Dave Brown, diz que os provedores e clientes de serviços de nuvem começarão a entender melhor os preços do setor como serviço em 2010, e isso levará as organizações a adotar o novo modelo de distribuição.
“O lado ruim é que essas são ofertas imaturas para as transações de outsourcing e ainda passarão por várias mudanças antes da estrutura de preços certa surgir”, completa Brown.
terça-feira, 15 de dezembro de 2009
Estudo revela que gestão de TI está mais complexa
Levantamento aponta que os profissionais atribuem às barreiras a falhas na condução do departamento, à proliferação de tecnologias no mercado e à criação de dinâmicas burocráticas de aprovação de projetos.
Por CIO/EUA
10 de dezembro de 2009 - 18h16
Ninguém disse que gerenciar os sistemas corporativos de TI é uma tarefa fácil. No entanto, com base nos últimos dez anos, quando muitas tecnologias surgiram, seria razoável afirmar que a gestão tecnológica das empresas tenderia a tornar-se menos árdua e complexa. Aí que as pessoas se enganam.
Conforme 2010 se aproxima e o mercado de tecnologia contabiliza milhares de lançamentos durante a década que passou, a verdade aparece: o gerenciamento dos ambientes de TI está infinitamente mais complicado do que há alguns anos, quando os CIOs estavam preocupados com o bug do milênio.
Os resultados de uma pesquisa realizada com 353 decisores de TI pela Technology Services Industry Association - entidade norte-americana que reúne os fornecedores de serviços - confirma essa perspectiva.
Dois terços dos profissionais ouvidos para o estudo afirmam que, na medida em que o ambiente corporativo de TI está mais complexo do que há cinco anos, é mais difícil implementar projetos de software de forma ágil e eficiente. Eles atribuem esse cenário à proliferação de tecnologias no mercado e à criação de dinâmicas burocráticas de aprovação de projetos nas empresas.
Cerca de 53% dos participantes também assumiram que menos da metade dos usuários que deveria acessar o software consegue fazer isso de forma adequada. Isso faz com que as empresas não consigam atingir todos os benefícios como redução de custos, aumento de receita, diferenciação competitiva, entre outros, que são os principais motivos pelos quais os investimentos em software acontecem.
Quase 60% dos compradores de software que responderam à pesquisa disseram que o CEO ainda responsabiliza o departamento de tecnologia por toda falha relacionada aos sistemas ou dados corporativos. Isso porque a maioria das companhias quer poder contar com um fluxo de dados sempre disponível e ágil sem investir o necesário. Gerenciar informações é uma tarefa extremamente complexa e que implica no investimento em software.
Entretanto, os membros do C-level não entendem que, por mais complexa que seja, a TI é um elemento estratégico das empresas atualmente e, para gerar resultados positivos, necessita de um orçamento à altura de suas responsabilidades. Ainda mais se levado em conta previsão da consultoria Gartner que indica que o volume de dados corporativos deve aumentar 650% nos próximos cinco anos.
Por CIO/EUA
10 de dezembro de 2009 - 18h16
Ninguém disse que gerenciar os sistemas corporativos de TI é uma tarefa fácil. No entanto, com base nos últimos dez anos, quando muitas tecnologias surgiram, seria razoável afirmar que a gestão tecnológica das empresas tenderia a tornar-se menos árdua e complexa. Aí que as pessoas se enganam.
Conforme 2010 se aproxima e o mercado de tecnologia contabiliza milhares de lançamentos durante a década que passou, a verdade aparece: o gerenciamento dos ambientes de TI está infinitamente mais complicado do que há alguns anos, quando os CIOs estavam preocupados com o bug do milênio.
Os resultados de uma pesquisa realizada com 353 decisores de TI pela Technology Services Industry Association - entidade norte-americana que reúne os fornecedores de serviços - confirma essa perspectiva.
Dois terços dos profissionais ouvidos para o estudo afirmam que, na medida em que o ambiente corporativo de TI está mais complexo do que há cinco anos, é mais difícil implementar projetos de software de forma ágil e eficiente. Eles atribuem esse cenário à proliferação de tecnologias no mercado e à criação de dinâmicas burocráticas de aprovação de projetos nas empresas.
Cerca de 53% dos participantes também assumiram que menos da metade dos usuários que deveria acessar o software consegue fazer isso de forma adequada. Isso faz com que as empresas não consigam atingir todos os benefícios como redução de custos, aumento de receita, diferenciação competitiva, entre outros, que são os principais motivos pelos quais os investimentos em software acontecem.
Quase 60% dos compradores de software que responderam à pesquisa disseram que o CEO ainda responsabiliza o departamento de tecnologia por toda falha relacionada aos sistemas ou dados corporativos. Isso porque a maioria das companhias quer poder contar com um fluxo de dados sempre disponível e ágil sem investir o necesário. Gerenciar informações é uma tarefa extremamente complexa e que implica no investimento em software.
Entretanto, os membros do C-level não entendem que, por mais complexa que seja, a TI é um elemento estratégico das empresas atualmente e, para gerar resultados positivos, necessita de um orçamento à altura de suas responsabilidades. Ainda mais se levado em conta previsão da consultoria Gartner que indica que o volume de dados corporativos deve aumentar 650% nos próximos cinco anos.
Tribunais brasileiros terão de investir em TI
Determinação do Conselho Nacional de Justiça estabelece que Judiciário tem até 31/3/10 para aprovar planejamentos de seus sistemas de informática.
Por Redação da Computerworld
14 de dezembro de 2009 - 11h44
Tribunais de todo o País terão de investir na melhoria de seus sistemas de informática. O objetivo é reduzir custos e diminuir o tempo de tramitação dos processos. A determinação é do Conselho Nacional de Justiça (CNJ) que aprovou, em 24/11, a Resolução 99 que institui o Planejamento Estratégico de Tecnologia da Informação e Comunicação, no âmbito do Poder Judiciário. O documento fixa a data de 31/3/10 para que os tribunais aprovem os planejamentos de seus sistemas de informática.
Na análise do conselheiro Felipe Locke Cavalcanti, relator da resolução, o CNJ está dizendo aos tribunais por meio do documento que eles devem pensar em informática e isso resultará na redução de custos logísticos e, principalmente, na redução da demora dos processos no judiciário. A pesquisa "Justiça em números", do CNJ, divulgada em julho, revela que o Judiciário gastou 2,5 bilhões de reais com TI entre 2004 e 2008. Apesar do montante, o CNJ defendia a necessidade de ser desenvolvido um planejamento sobre o uso de TI por tribunais.
A norma determina que os planejamentos tenham pelo menos um indicador de resultados para cada objetivo fixado, apresentem metas de curto, médio e longo prazos associadas aos indicadores de resultado e projetos e ações que sejam considerados necessários para que sejam atingidas as metas fixadas.
O conselheiro destacou que o CNJ, além de cobrar melhorias, tem ajudado os tribunais a investir em informática por meio da oferta de softwares como o Projudi (Processo Judicial Digital). O programa já está sendo usado em vários Estados brasileiros e é utilizado no gerenciamento e controle dos processos judiciais nos tribunais de forma eletrônica, reduzindo tempo e custo.
Por Redação da Computerworld
14 de dezembro de 2009 - 11h44
Tribunais de todo o País terão de investir na melhoria de seus sistemas de informática. O objetivo é reduzir custos e diminuir o tempo de tramitação dos processos. A determinação é do Conselho Nacional de Justiça (CNJ) que aprovou, em 24/11, a Resolução 99 que institui o Planejamento Estratégico de Tecnologia da Informação e Comunicação, no âmbito do Poder Judiciário. O documento fixa a data de 31/3/10 para que os tribunais aprovem os planejamentos de seus sistemas de informática.
Na análise do conselheiro Felipe Locke Cavalcanti, relator da resolução, o CNJ está dizendo aos tribunais por meio do documento que eles devem pensar em informática e isso resultará na redução de custos logísticos e, principalmente, na redução da demora dos processos no judiciário. A pesquisa "Justiça em números", do CNJ, divulgada em julho, revela que o Judiciário gastou 2,5 bilhões de reais com TI entre 2004 e 2008. Apesar do montante, o CNJ defendia a necessidade de ser desenvolvido um planejamento sobre o uso de TI por tribunais.
A norma determina que os planejamentos tenham pelo menos um indicador de resultados para cada objetivo fixado, apresentem metas de curto, médio e longo prazos associadas aos indicadores de resultado e projetos e ações que sejam considerados necessários para que sejam atingidas as metas fixadas.
O conselheiro destacou que o CNJ, além de cobrar melhorias, tem ajudado os tribunais a investir em informática por meio da oferta de softwares como o Projudi (Processo Judicial Digital). O programa já está sendo usado em vários Estados brasileiros e é utilizado no gerenciamento e controle dos processos judiciais nos tribunais de forma eletrônica, reduzindo tempo e custo.
Criador do MySQL chama usuários para "salvar" software
Michael "Monty" Widenius vê ameaças ao banco de dados que criou e sugere que oponentes da compra da Sun pela Oracle enviem mensagens à União Europeia.
Por IDG News Service
14 de dezembro de 2009 - 17h59
O criador do MySQL Michael “Monty” Widenius lançou uma campanha na web para “salvar” o banco de dados de código aberto das “amarras” da Oracle, que tenta comprar seu atual proprietário, a Sun Microsystems.
A Oracle anunciou sua intenção de comprar a Sun em abril de 2009, por 7,4 bilhões de dólares. Mas o negócio está paralisado enquanto as autoridades européias não concluem suas avaliações sobre questões antitruste.
Uma das principais preocupações dos reguladores, e também dos defensores de iniciativas open source, é qual será o futuro do MySQL sob a Oracle que, com seu próprio sistema proprietário, detém uma fatia significativa do mercado de banco de dados.
Mas Widenius acredita que, se os usuários se manifestarem agora, as autoridades europeias poderiam bloquear a fusão, ou forçar a Oracle a oferecer certas concessões e garantias em relação ao MySQL, disse numa nota publicada em seu blog na sexta-feira (12/12).
Lobby de clientes
Ele argumenta que a Oracle contatou “centenas de seus grandes clientes”, pedindo a eles que façam lobby junto à União Europeia para apoiar o acordo. A Oracle tem dito a seus clientes que investirá mais dinheiro no desenvolvimento do MySQL e que mesmo se ela abandonasse o banco de dados, a liberação de uma ramificação do código-base “cuidaria das coisas”, cita Widenius.
Mas, para o desenvolvedor, tais esforços não são suficientes.
“Apenas colocar dinheiro no desenvolvimento não é prova de que qualquer coisa útil será entregue, ou que o MySQL continuará a ser uma força competitiva no mercado como é hoje”, disse.
E uma ramificação do código-base “não é suficiente para manter o MySQL vivo no futuro, caso a Oracle, como detentora dos direitos do MySQL, decida num dado momento matar o MySQL ou fechar partes do código do banco de dados”, acrescentou.
Dez anos atrás, o MySQL era usado principalmente para aplicações web, mas desde então se tornou “muito funcional, escalável e confiável” e é utilizado para uma diversidade de propósitos, ele adicionou.
“Isso não só assusta como realmente fere a Oracle todo dia”, ele diz. “É claro que o sistema da Oracle tem mais recursos, mas o MySQL já pode fazer uma variedade de coisas para as quais o Oracle é frequentemente utilizado e, assim, ajuda as pessoas a economizar um bocado de dinheiro. Dessa forma, eu simplesmente não acredito que a Oracle será um bom lar para o MySQL.”
Conversa com chefes
Widenius está pedindo aos usuários que pensam como ele tornar pública sua preocupação, enviando cartas à União Europeia, publicando blogs sobre o assunto e conversando com os executivos das empresas nas quais trabalham.
Os usuários tiveram reações iniciais mistas em relação ao apelo de Widenius.
“Vamos nos erguer hoje para enfrentar o mal”, disse um comentarista identificado como “Ryan Chan” na lista de discussão do MySQL.
Mas outros optaram por uma atitude liberal à fusão.
“Você vendeu o MySQL (e não há nada errado nisso)”, comentou uma pessoa em resposta ao post de Widenius. “A Oracle é livre para fazer o que quiser com ele, quero dizer, eles compraram, então é deles, ponto.”
Procurada, a Oracle não comentou o assunto.
A campanha de última hora de Widenius pode ser em vão, já que há indícios de que a União Europeia vai aprovar a fusão.
Nesta segunda-feira (14/12), a Oracle publicou uma declaração na qual apresenta dez compromissos a desenvolvedores e usuários do MySQL. As alegações, que seriam válidas por cinco anos a partir da aprovação do acordo, são um “importante novo elemento a ser levado em conta no processo”, disse a União Europeia em um comunicado.
A União Europeia também reiterou o recente comentário da comissária de competição Neelie Kroes, que disse estar otimista em relação a uma resolução satisfatória para o assunto.
Por IDG News Service
14 de dezembro de 2009 - 17h59
O criador do MySQL Michael “Monty” Widenius lançou uma campanha na web para “salvar” o banco de dados de código aberto das “amarras” da Oracle, que tenta comprar seu atual proprietário, a Sun Microsystems.
A Oracle anunciou sua intenção de comprar a Sun em abril de 2009, por 7,4 bilhões de dólares. Mas o negócio está paralisado enquanto as autoridades européias não concluem suas avaliações sobre questões antitruste.
Uma das principais preocupações dos reguladores, e também dos defensores de iniciativas open source, é qual será o futuro do MySQL sob a Oracle que, com seu próprio sistema proprietário, detém uma fatia significativa do mercado de banco de dados.
Mas Widenius acredita que, se os usuários se manifestarem agora, as autoridades europeias poderiam bloquear a fusão, ou forçar a Oracle a oferecer certas concessões e garantias em relação ao MySQL, disse numa nota publicada em seu blog na sexta-feira (12/12).
Lobby de clientes
Ele argumenta que a Oracle contatou “centenas de seus grandes clientes”, pedindo a eles que façam lobby junto à União Europeia para apoiar o acordo. A Oracle tem dito a seus clientes que investirá mais dinheiro no desenvolvimento do MySQL e que mesmo se ela abandonasse o banco de dados, a liberação de uma ramificação do código-base “cuidaria das coisas”, cita Widenius.
Mas, para o desenvolvedor, tais esforços não são suficientes.
“Apenas colocar dinheiro no desenvolvimento não é prova de que qualquer coisa útil será entregue, ou que o MySQL continuará a ser uma força competitiva no mercado como é hoje”, disse.
E uma ramificação do código-base “não é suficiente para manter o MySQL vivo no futuro, caso a Oracle, como detentora dos direitos do MySQL, decida num dado momento matar o MySQL ou fechar partes do código do banco de dados”, acrescentou.
Dez anos atrás, o MySQL era usado principalmente para aplicações web, mas desde então se tornou “muito funcional, escalável e confiável” e é utilizado para uma diversidade de propósitos, ele adicionou.
“Isso não só assusta como realmente fere a Oracle todo dia”, ele diz. “É claro que o sistema da Oracle tem mais recursos, mas o MySQL já pode fazer uma variedade de coisas para as quais o Oracle é frequentemente utilizado e, assim, ajuda as pessoas a economizar um bocado de dinheiro. Dessa forma, eu simplesmente não acredito que a Oracle será um bom lar para o MySQL.”
Conversa com chefes
Widenius está pedindo aos usuários que pensam como ele tornar pública sua preocupação, enviando cartas à União Europeia, publicando blogs sobre o assunto e conversando com os executivos das empresas nas quais trabalham.
Os usuários tiveram reações iniciais mistas em relação ao apelo de Widenius.
“Vamos nos erguer hoje para enfrentar o mal”, disse um comentarista identificado como “Ryan Chan” na lista de discussão do MySQL.
Mas outros optaram por uma atitude liberal à fusão.
“Você vendeu o MySQL (e não há nada errado nisso)”, comentou uma pessoa em resposta ao post de Widenius. “A Oracle é livre para fazer o que quiser com ele, quero dizer, eles compraram, então é deles, ponto.”
Procurada, a Oracle não comentou o assunto.
A campanha de última hora de Widenius pode ser em vão, já que há indícios de que a União Europeia vai aprovar a fusão.
Nesta segunda-feira (14/12), a Oracle publicou uma declaração na qual apresenta dez compromissos a desenvolvedores e usuários do MySQL. As alegações, que seriam válidas por cinco anos a partir da aprovação do acordo, são um “importante novo elemento a ser levado em conta no processo”, disse a União Europeia em um comunicado.
A União Europeia também reiterou o recente comentário da comissária de competição Neelie Kroes, que disse estar otimista em relação a uma resolução satisfatória para o assunto.
Hospital Albert Einstein integra sete unidades em rede única
Infraestrutura de rede da instituição passa por processo de modernização para ampliação da capacidade de atendimento aos pacientes e consolidação da gestão.
Por Rodrigo Afonso, da COMPUTERWORLD
15 de dezembro de 2009 - 07h00
Com planos de ampliar a capacidade de atendimento aos seus pacientes em cerca de 40% até 2011, o Hospital Albert Einstein se viu diante de um desafio: manter-se na ponta quanto à adoção de tecnologia, consolidar a gestão da infraestrutura e contar com uma rede inteligente, onde todos os serviços pudessem ser integrados, interligando sete unidades.
Após considerar as necessidades, a empresa optou pela tecnologia da Cisco para supri-la. A instituição instalou switches Cisco Catalyst para compor o núcleo da rede e permitir a execução de serviços de voz, dados, wireless e de arquivamento de imagens e sistemas de comunicação comunicação (PACS, do inglês Picture Archiving and Communications System) de forma integrada.
De acordo com o CIO do Albert Einstein, Sérgio Arai, antes da implantação as redes eram antigas e não dariam conta da expansão para a qual a organização esta se encaminhando. “Hoje estamos preparados para o Plano Diretor, que prevê as metas de expansão informadas”, afirma o executivo.
A nova infraestrutura permitiu ao hospital consolidar todos os servidores em um único datacenter (antes eles ficavam espalhados em cada unidade) e garantiu acesso às imagens arquivadas a partir de qualquer local da instituição.
O meio de comunicação entre os profissionais da equipe médica mudou. Hoje médicos e enfermeiros contam com ramais móveis, que são telefones IP wireless conectados à plataforma da Cisco, em substituição aos celulares que eram utilizados anteriormente, mais custosos.
Segundo Arai, tão importante quanto os benefícios já esperados foi a possibilidade que a nova rede abriu de implantar novos aplicativos de gerenciamento. “Das persianas das janelas à temperatura mantida pelo ar condicionado, tudo é controlado pela central localizada na unidade principal, no Morumbi”.
Outro grande benefício é a centralização do gerenciamento de ativos, que passou a ser feito com tecologia RFID. Equipamentos estratégicos contam com tags ativas que permitem que os gestores conheçam sua localização e sua disponibilidade, também de forma centralizada.
Segundo Arai, os benefícios podem ser traduzidos em melhoria de padrão de atendimento e em fôlego para manter o ritmo de expansão. Até 2011, estão previstas a construção de novas instalações, oferta de serviços ambulatoriais extras e a criação de uma clínica para intervenções cirúrgicas mais simples, tudo suportado pela infraestutura já implantada.
Por Rodrigo Afonso, da COMPUTERWORLD
15 de dezembro de 2009 - 07h00
Com planos de ampliar a capacidade de atendimento aos seus pacientes em cerca de 40% até 2011, o Hospital Albert Einstein se viu diante de um desafio: manter-se na ponta quanto à adoção de tecnologia, consolidar a gestão da infraestrutura e contar com uma rede inteligente, onde todos os serviços pudessem ser integrados, interligando sete unidades.
Após considerar as necessidades, a empresa optou pela tecnologia da Cisco para supri-la. A instituição instalou switches Cisco Catalyst para compor o núcleo da rede e permitir a execução de serviços de voz, dados, wireless e de arquivamento de imagens e sistemas de comunicação comunicação (PACS, do inglês Picture Archiving and Communications System) de forma integrada.
De acordo com o CIO do Albert Einstein, Sérgio Arai, antes da implantação as redes eram antigas e não dariam conta da expansão para a qual a organização esta se encaminhando. “Hoje estamos preparados para o Plano Diretor, que prevê as metas de expansão informadas”, afirma o executivo.
A nova infraestrutura permitiu ao hospital consolidar todos os servidores em um único datacenter (antes eles ficavam espalhados em cada unidade) e garantiu acesso às imagens arquivadas a partir de qualquer local da instituição.
O meio de comunicação entre os profissionais da equipe médica mudou. Hoje médicos e enfermeiros contam com ramais móveis, que são telefones IP wireless conectados à plataforma da Cisco, em substituição aos celulares que eram utilizados anteriormente, mais custosos.
Segundo Arai, tão importante quanto os benefícios já esperados foi a possibilidade que a nova rede abriu de implantar novos aplicativos de gerenciamento. “Das persianas das janelas à temperatura mantida pelo ar condicionado, tudo é controlado pela central localizada na unidade principal, no Morumbi”.
Outro grande benefício é a centralização do gerenciamento de ativos, que passou a ser feito com tecologia RFID. Equipamentos estratégicos contam com tags ativas que permitem que os gestores conheçam sua localização e sua disponibilidade, também de forma centralizada.
Segundo Arai, os benefícios podem ser traduzidos em melhoria de padrão de atendimento e em fôlego para manter o ritmo de expansão. Até 2011, estão previstas a construção de novas instalações, oferta de serviços ambulatoriais extras e a criação de uma clínica para intervenções cirúrgicas mais simples, tudo suportado pela infraestutura já implantada.
quarta-feira, 9 de dezembro de 2009
Novell apresenta recursos para gestão de identidades virtuais
Pioneira no setor, a empresa está desenvolvendo oito novos produtos e atualizações para aplicativos de virtualizações ou de computação em nuvem.
Por IDG News Service
07 de dezembro de 2009 - 15h32
As tecnologias de virtualização e computação em nuvem foram amplamente adotadas pelas corporações, apesar das preocupações sobre segurança e gestão desses aplicativos e dos dados.
A Novell Inc. afirma que pode ajudar as companhias nos dois setores, acelerando a criação de virtualizações e aplicativos em nuvem com segurança integrada.
Em 2010, a empresa planeja lançar oito produtos ou atualizações para auxiliar no que ela chama de “gestão de trabalho inteligente”.
O lançamento do Novell Identity Manager 4 adicionará um recurso para administradores de Tecnologia da Informação (TI), que permite administrar identidades digitais e outras funções de segurança em aplicativos hospedados na web e virtualizados, segundo o principal executivo da companhia, Ron Hovsepian.
O produto chegará ao mercado na metade de 2010. Ele funcionará em conjunto com o Novell Cloud Security Service, também previsto para o próximo ano, para estender as políticas de segurança e identidade nos aplicativos e dados hospedados na nuvem.
Além disso, ambos os programas trabalharão com o Novell’s Suse Appliance Toolkit, que será lançado no primeiro trimestre de 2010. Essa ferramenta auxilia estudantes voluntários internacionais (ISV, em inglês) e grandes empresas a construir e distribuir rapidamente aplicações virtualizadas, que podem ser transferidas de um servidor normal para um servidor baseado em nuvem sem travamentos ou conflitos.
Hovsepian disse que os consumidores já estão começando a usar a geração atual de ferramentas para construção de aplicações virtuais da Novell em grande escala.
“Nos últimos meses, tivemos 40 mil novos registros de usuários no nosso sistema e construímos 100 mil aplicações e cargas de trabalho diferentes”, completou Hovsepian. A mais popular é uma versão “faça-você-mesmo” do Chrome OS, construído com o navegador do Google, rodando no OpenSUSE Linux da Novell. A aplicação já foi baixada 750 mil vezes.
A Novell também está atualizando seu produto de gestão virtual Platespin, para que usuários possam usar um único terminal para administrar todas essas cargas de trabalho, sejam elas virtuais ou hospedadas na nuvem.
Por IDG News Service
07 de dezembro de 2009 - 15h32
As tecnologias de virtualização e computação em nuvem foram amplamente adotadas pelas corporações, apesar das preocupações sobre segurança e gestão desses aplicativos e dos dados.
A Novell Inc. afirma que pode ajudar as companhias nos dois setores, acelerando a criação de virtualizações e aplicativos em nuvem com segurança integrada.
Em 2010, a empresa planeja lançar oito produtos ou atualizações para auxiliar no que ela chama de “gestão de trabalho inteligente”.
O lançamento do Novell Identity Manager 4 adicionará um recurso para administradores de Tecnologia da Informação (TI), que permite administrar identidades digitais e outras funções de segurança em aplicativos hospedados na web e virtualizados, segundo o principal executivo da companhia, Ron Hovsepian.
O produto chegará ao mercado na metade de 2010. Ele funcionará em conjunto com o Novell Cloud Security Service, também previsto para o próximo ano, para estender as políticas de segurança e identidade nos aplicativos e dados hospedados na nuvem.
Além disso, ambos os programas trabalharão com o Novell’s Suse Appliance Toolkit, que será lançado no primeiro trimestre de 2010. Essa ferramenta auxilia estudantes voluntários internacionais (ISV, em inglês) e grandes empresas a construir e distribuir rapidamente aplicações virtualizadas, que podem ser transferidas de um servidor normal para um servidor baseado em nuvem sem travamentos ou conflitos.
Hovsepian disse que os consumidores já estão começando a usar a geração atual de ferramentas para construção de aplicações virtuais da Novell em grande escala.
“Nos últimos meses, tivemos 40 mil novos registros de usuários no nosso sistema e construímos 100 mil aplicações e cargas de trabalho diferentes”, completou Hovsepian. A mais popular é uma versão “faça-você-mesmo” do Chrome OS, construído com o navegador do Google, rodando no OpenSUSE Linux da Novell. A aplicação já foi baixada 750 mil vezes.
A Novell também está atualizando seu produto de gestão virtual Platespin, para que usuários possam usar um único terminal para administrar todas essas cargas de trabalho, sejam elas virtuais ou hospedadas na nuvem.
terça-feira, 8 de dezembro de 2009
Setor de TI e governo defendem integração em torno da marca Brasil IT+
Lançamento da marca única é o primeiro passo para segmento de software e serviços nacional ganhar fôlego no exterior.
Por Edileuza Soares e Fabiana Monte, da Computerworld
07 de dezembro de 2009 - 19h31
O setor brasileiro de software e serviços de TI e o governo defenderam nesta segunda-feira (7/12) a criação de grandes grupos na área como forma de fortalecer a presença do segmento no exterior.
"Com empresas maiores, fica mais fácil chegar aos 5 bilhões de dólares", afirma o presidente da Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação (Brasscom), Antônio Rego Gil. Este valor refere-se ao montante que a associação espera que o Brasil alcance, em 2011, com exportação de software e serviços.
Em 2008, o Brasil obteve receita de 2,2 bilhões de dólares com exportação de software e serviços. Este montante foi gerado por 42 empresas associadas à Brasscom que são companhias de grande porte. "Neste volume não está incluída a receita gerada por pequenos exportadores", diz Gil. Pelas contas do executivo, há cerca de 5 mil empresas do setor no Brasil, a maioria de pequeno porte.
"Temos apoiado empresas no que diz respeito à consolidação. Uma das metas da Política de Desenvolvimento Produtivo (PPD) era chegar a 2010 com duas empresas do setor de TI com faturamento superior a 1 bilhão de reais. Já temos duas", afirma o superintendente da área industrial do Banco Nacional de Desenvolvimento Econômico e Social (BNDES), Julio Raimundo, em alusão à Tovts e à Tivt.
A Associação para a Promoção da Excelência do Software Brasileiro (Softex) deu início, no fim de 2008, a um programa, chamado Associativismo, cujo objetivo é qualificar e educar pequenos e médios empresários sobre assuntos ligados a fusões, aquisições e associações entre empresas.
"As pequenas empresas têm que se encorpar. Esse programa vai ajudar a diminuir o número de pequenas e a formar grandes grupos", defende o vice-presidente da Softex, Arnaldo Bacha.
No próximo ano, o programa entrará na fase de chamadas públicas, quando os agentes Softex darão início à convocação de empresas que se interessaram pela iniciativa.
Marca brasileira
O primeiro passo para dar mais visibilidade aos produtos de TI brasileiros foi a criação de uma marca única (Brasil IT+) para representar o setor no exterior. A estratégia apoia-se em quatro pilares: a origem brasileira, o porte do setor no País, a habilidade em construir parcerias e a capacidade de ser um player estratégico de TI.
O objetivo da criação de uma nova marca faz parte do esforço de empresas do setor para melhorar a competitividade e tornar o Brasil mais conhecido no mercado externo com a vendas de serviços de TI.
Segundo o presidente da Agência Brasileira de Promoção de Exportações e Investimentos (Apex), Alessandro Teixeira, a mudança de estratégia acontece num momento muito propício, pois o Brasil está com imagem positiva no exterior até por conta de ter sido escolhido para sediar dois megaeventos: Copa do Mundo e Jogos Olímpicos. O superintendente do BNDES completa que a situação macroeconômica também está mais favorável para dar mais certeza aos compradores dos serviços da indústria brasileira.
Por Edileuza Soares e Fabiana Monte, da Computerworld
07 de dezembro de 2009 - 19h31
O setor brasileiro de software e serviços de TI e o governo defenderam nesta segunda-feira (7/12) a criação de grandes grupos na área como forma de fortalecer a presença do segmento no exterior.
"Com empresas maiores, fica mais fácil chegar aos 5 bilhões de dólares", afirma o presidente da Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação (Brasscom), Antônio Rego Gil. Este valor refere-se ao montante que a associação espera que o Brasil alcance, em 2011, com exportação de software e serviços.
Em 2008, o Brasil obteve receita de 2,2 bilhões de dólares com exportação de software e serviços. Este montante foi gerado por 42 empresas associadas à Brasscom que são companhias de grande porte. "Neste volume não está incluída a receita gerada por pequenos exportadores", diz Gil. Pelas contas do executivo, há cerca de 5 mil empresas do setor no Brasil, a maioria de pequeno porte.
"Temos apoiado empresas no que diz respeito à consolidação. Uma das metas da Política de Desenvolvimento Produtivo (PPD) era chegar a 2010 com duas empresas do setor de TI com faturamento superior a 1 bilhão de reais. Já temos duas", afirma o superintendente da área industrial do Banco Nacional de Desenvolvimento Econômico e Social (BNDES), Julio Raimundo, em alusão à Tovts e à Tivt.
A Associação para a Promoção da Excelência do Software Brasileiro (Softex) deu início, no fim de 2008, a um programa, chamado Associativismo, cujo objetivo é qualificar e educar pequenos e médios empresários sobre assuntos ligados a fusões, aquisições e associações entre empresas.
"As pequenas empresas têm que se encorpar. Esse programa vai ajudar a diminuir o número de pequenas e a formar grandes grupos", defende o vice-presidente da Softex, Arnaldo Bacha.
No próximo ano, o programa entrará na fase de chamadas públicas, quando os agentes Softex darão início à convocação de empresas que se interessaram pela iniciativa.
Marca brasileira
O primeiro passo para dar mais visibilidade aos produtos de TI brasileiros foi a criação de uma marca única (Brasil IT+) para representar o setor no exterior. A estratégia apoia-se em quatro pilares: a origem brasileira, o porte do setor no País, a habilidade em construir parcerias e a capacidade de ser um player estratégico de TI.
O objetivo da criação de uma nova marca faz parte do esforço de empresas do setor para melhorar a competitividade e tornar o Brasil mais conhecido no mercado externo com a vendas de serviços de TI.
Segundo o presidente da Agência Brasileira de Promoção de Exportações e Investimentos (Apex), Alessandro Teixeira, a mudança de estratégia acontece num momento muito propício, pois o Brasil está com imagem positiva no exterior até por conta de ter sido escolhido para sediar dois megaeventos: Copa do Mundo e Jogos Olímpicos. O superintendente do BNDES completa que a situação macroeconômica também está mais favorável para dar mais certeza aos compradores dos serviços da indústria brasileira.
segunda-feira, 7 de dezembro de 2009
As 5 melhores tecnologias corporativas da década
Confira as principais tecnologias que mudaram o setor de Tecnologia da Informação durante um dos períodos mais incertos da evolução tecnológica.
Por IDG News Service
05 de dezembro de 2009 - 07h00
Em termos de evolução das tecnologias corporativas, a década de 2000 não foi tão bem quanto as anteriores. Ainda assim, a mudança dos clientes-servidores para a web, dos proprietários e caros para abertos e comodatários foram transições incríveis.
Observando o impacto do desenvolvimento da Tecnologia da Informação nessa década, não é muito difícil escolher cinco melhores tecnologias corporativas. É importante lembrar que elas não foram inventadas durante a década, mas todas só ganharam espaço no mercado durante esse período.
Por IDG News Service
05 de dezembro de 2009 - 07h00
Em termos de evolução das tecnologias corporativas, a década de 2000 não foi tão bem quanto as anteriores. Ainda assim, a mudança dos clientes-servidores para a web, dos proprietários e caros para abertos e comodatários foram transições incríveis.
Observando o impacto do desenvolvimento da Tecnologia da Informação nessa década, não é muito difícil escolher cinco melhores tecnologias corporativas. É importante lembrar que elas não foram inventadas durante a década, mas todas só ganharam espaço no mercado durante esse período.
- Linux
- XML
- Virtualização de servidores
- Aplicações ricas para a internet
- Área de armazenamento em rede
quinta-feira, 3 de dezembro de 2009
10 dicas para a TI conduzir o processo de terceirização
Veja as vantagens de não contratar consultoria externa para apoiar a elaboração de acordos de outsourcing.
Por CIO/EUA
19 de novembro de 2009 - 09h34
No momento de iniciar um processo para buscar um provedor de serviços terceirizados, o caminho mais óbvio é contratar uma consultoria especializada e que cobra custos relativamente altos por esse tipo de projeto. Mas nem toda organização está disposta ou tem condições de pagar 300 dólares ou mais por hora para um especialista que ajude a definir processos e questões contratuais.
A boa notícia é que a área de TI das empresas está capacitada a realizar, por conta própria, boa parte do trabalho que seria realizado por uma consultoria. O que, além de reduzir custos, pode tornar os contatos mais flexíveis e, ainda, permitir um relacionamento mais próximo com os provedores de serviços.
Confira dez dicas para os departamentos de TI que querem conduzir, por conta própria, todo o processo de contratação de serviços terceirizados:
1. Cuidado com os conselhos – Assim que os profissionais começam a analisar acordos de terceirização, eles tendem a buscar o opinião de terceiros. Mas não se deve acreditar em tudo que as pessoas falam, na opinião do consultor Adam Strichman, especializado em análise de outsourcing.
“A indústria está cheia de táticas para apavorar os usuários”, afirma Strichman. “Não se deve pagar para ouvir esse tipo de coisa”, acrescenta o especialista.
O consultor admite, porém, que alguns dos cuidados orientados pelos fornecedores até têm um fundo de verdade. “Só que a equipe de TI não pode se sentir pressionada e existem informações que dá para buscar em outros lugares”, conclui.
2. Foque no business case (caso de negócio) – Se existe uma peça fundamental ao sucesso do outsourcing ela é uma análise racional para o negócio dos benefícios da terceirização.
“Muitas vezes, há uma conclusão equivocada de que o outsourcing representa a melhor alternativa, quando a decisão mais apropriada seria realizar as funções internamente, desenvolver um modelo de serviços compartilhados ou implementar novas tecnologias”, diz o co-fundador e responsável pela prática de terceirização na consultoria Silvan, Paul Pinto.
Ainda segundo o executivo, a contratação de uma consultoria terceirizada não evita equívocos. O melhor caminho para acertar na decisão é que a equipe de tecnologia faça uma análise apurada do que estaria em jogo se ela optasse pelo outsourcing, a partir das demandas e das particularidades do negócio.
3. Use consultorias de forma seletiva – Quando as empresas percebem a necessidade de um conselho externo – s eja para elaborar os SLAs ou buscar casos de sucesso –devem buscar o apoio de consultores apenas para questões específicas ou para revisão de parte do trabalho. O que tende a reduzir os custos exorbitantes que esses profissionais cobrariam se fossem realizar uma análise de todas as etapas.
O CIO do banco Rabobank para Europa, Michel Hofman, conta que durante sua experiência para avaliar a terceirização, ele descobriu que o mais importante é avaliar quais as pessoas da equipe têm os requisitos necessários para conduzir esse tipo de projeto. E, a partir desse mapeamento, o gestor pode visualizar em quais momentos ele precisa de uma consultoria externa.
4. Tire vantagem de novas ferramentas – Assim como cresce o número de lojas de departamento que oferecem todo o tipo de solução para que as pessoas façam, elas mesmas, reformas domésticas, na área de tecnologia existem soluções prontas que ajudam a companhia na hora de analisar um acordo de terceirização.
As médias empresas, em particular, podem tirar proveito de ferramentas específicas para outsourcing, analisa Pinto, ao citar que existem templates (modelos prontos) de RFPs (requisitos de uma proposta) e de contratos em diversos sites.
5. Adeque a equipe – Se algum profissional do time de TI já atuou em um provedor de serviços no passado, ele pode ser aproveitado no processo de outsourcing.
“De forma geral, as pessoas que têm mais experiência em terceirização tendem a ter uma carreira ascendente na companhia ou mudam para outras áreas”, pontua Strichman. E, de acordo com ele, mesmo que esse profissional já tenha deixado a TI há algum tempo, ele vai ficar feliz em compartilhar sua visão.
6. Aproveite a crise – No caso das companhias que não têm profissionais experientes em terceirização na equipe de TI, elas podem buscar uma outra alternativa: aproveitar pessoas capacitadas e que foram dispensadas pelos provedores durante a crise internacional. Esses profissionais podem ser contratados como consultores autônomos.
7. Cuidado com os contratos – Tente aproveitar os conhecimentos legais do departamento jurídico da companhia para preparar o contrato e, principalmente, cuide para que o documento seja o mais curto possível. “Os acordos são apenas uma pequena parte para o sucesso da terceirização. Na realidade, o que se vê é o contrário”, pondera Strichman, ao afirmar que o exagero de regras acaba virando um problema no dia-a-dia do relacionamento com os provedores.
8. Explore o fornecedor – Os provedores de serviços estão abertos a participar de todo o processo de outsourcing e não vão se negar a fornecer dados para criar o business case. Óbvio que, no final das contas, eles fazem isso esperando que a empresa se transforme em um cliente.
9. Pesquise muito – “Existe uma gigantesca quantidade de pesquisas, estudos e análises disponíveis na internet e que podem fornecer um maravilhoso cenário dos processos de terceirização”, avalia Pinto.
10. Seja seletivo – Não dá para imaginar que o acordo de terceirização vai resolver todos os problemas da companhia. Para não errar nas expectativas, o ideal é começar por pequenos acordos.
Por CIO/EUA
19 de novembro de 2009 - 09h34
No momento de iniciar um processo para buscar um provedor de serviços terceirizados, o caminho mais óbvio é contratar uma consultoria especializada e que cobra custos relativamente altos por esse tipo de projeto. Mas nem toda organização está disposta ou tem condições de pagar 300 dólares ou mais por hora para um especialista que ajude a definir processos e questões contratuais.
A boa notícia é que a área de TI das empresas está capacitada a realizar, por conta própria, boa parte do trabalho que seria realizado por uma consultoria. O que, além de reduzir custos, pode tornar os contatos mais flexíveis e, ainda, permitir um relacionamento mais próximo com os provedores de serviços.
Confira dez dicas para os departamentos de TI que querem conduzir, por conta própria, todo o processo de contratação de serviços terceirizados:
1. Cuidado com os conselhos – Assim que os profissionais começam a analisar acordos de terceirização, eles tendem a buscar o opinião de terceiros. Mas não se deve acreditar em tudo que as pessoas falam, na opinião do consultor Adam Strichman, especializado em análise de outsourcing.
“A indústria está cheia de táticas para apavorar os usuários”, afirma Strichman. “Não se deve pagar para ouvir esse tipo de coisa”, acrescenta o especialista.
O consultor admite, porém, que alguns dos cuidados orientados pelos fornecedores até têm um fundo de verdade. “Só que a equipe de TI não pode se sentir pressionada e existem informações que dá para buscar em outros lugares”, conclui.
2. Foque no business case (caso de negócio) – Se existe uma peça fundamental ao sucesso do outsourcing ela é uma análise racional para o negócio dos benefícios da terceirização.
“Muitas vezes, há uma conclusão equivocada de que o outsourcing representa a melhor alternativa, quando a decisão mais apropriada seria realizar as funções internamente, desenvolver um modelo de serviços compartilhados ou implementar novas tecnologias”, diz o co-fundador e responsável pela prática de terceirização na consultoria Silvan, Paul Pinto.
Ainda segundo o executivo, a contratação de uma consultoria terceirizada não evita equívocos. O melhor caminho para acertar na decisão é que a equipe de tecnologia faça uma análise apurada do que estaria em jogo se ela optasse pelo outsourcing, a partir das demandas e das particularidades do negócio.
3. Use consultorias de forma seletiva – Quando as empresas percebem a necessidade de um conselho externo – s eja para elaborar os SLAs ou buscar casos de sucesso –devem buscar o apoio de consultores apenas para questões específicas ou para revisão de parte do trabalho. O que tende a reduzir os custos exorbitantes que esses profissionais cobrariam se fossem realizar uma análise de todas as etapas.
O CIO do banco Rabobank para Europa, Michel Hofman, conta que durante sua experiência para avaliar a terceirização, ele descobriu que o mais importante é avaliar quais as pessoas da equipe têm os requisitos necessários para conduzir esse tipo de projeto. E, a partir desse mapeamento, o gestor pode visualizar em quais momentos ele precisa de uma consultoria externa.
4. Tire vantagem de novas ferramentas – Assim como cresce o número de lojas de departamento que oferecem todo o tipo de solução para que as pessoas façam, elas mesmas, reformas domésticas, na área de tecnologia existem soluções prontas que ajudam a companhia na hora de analisar um acordo de terceirização.
As médias empresas, em particular, podem tirar proveito de ferramentas específicas para outsourcing, analisa Pinto, ao citar que existem templates (modelos prontos) de RFPs (requisitos de uma proposta) e de contratos em diversos sites.
5. Adeque a equipe – Se algum profissional do time de TI já atuou em um provedor de serviços no passado, ele pode ser aproveitado no processo de outsourcing.
“De forma geral, as pessoas que têm mais experiência em terceirização tendem a ter uma carreira ascendente na companhia ou mudam para outras áreas”, pontua Strichman. E, de acordo com ele, mesmo que esse profissional já tenha deixado a TI há algum tempo, ele vai ficar feliz em compartilhar sua visão.
6. Aproveite a crise – No caso das companhias que não têm profissionais experientes em terceirização na equipe de TI, elas podem buscar uma outra alternativa: aproveitar pessoas capacitadas e que foram dispensadas pelos provedores durante a crise internacional. Esses profissionais podem ser contratados como consultores autônomos.
7. Cuidado com os contratos – Tente aproveitar os conhecimentos legais do departamento jurídico da companhia para preparar o contrato e, principalmente, cuide para que o documento seja o mais curto possível. “Os acordos são apenas uma pequena parte para o sucesso da terceirização. Na realidade, o que se vê é o contrário”, pondera Strichman, ao afirmar que o exagero de regras acaba virando um problema no dia-a-dia do relacionamento com os provedores.
8. Explore o fornecedor – Os provedores de serviços estão abertos a participar de todo o processo de outsourcing e não vão se negar a fornecer dados para criar o business case. Óbvio que, no final das contas, eles fazem isso esperando que a empresa se transforme em um cliente.
9. Pesquise muito – “Existe uma gigantesca quantidade de pesquisas, estudos e análises disponíveis na internet e que podem fornecer um maravilhoso cenário dos processos de terceirização”, avalia Pinto.
10. Seja seletivo – Não dá para imaginar que o acordo de terceirização vai resolver todos os problemas da companhia. Para não errar nas expectativas, o ideal é começar por pequenos acordos.
Google lança oferta de segurança de e-mail fora do Google Apps
Postini Message Security, antes exclusivo para quem tinha o pacote de produtividade do Google, agora é oferecido individualmente, como serviço
Por Rodrigo Afonso, da COMPUTERWORLD
02 de dezembro de 2009 - 18h49
O Google lançará nesta quinta-feira (03/12), em São Paulo, o aplicativo de segurança para e-mails Postini no formato stand alone.
Trata-se do Postini Message Security, que já era oferecido junto com o pacote do Google Apps e agora pode ser contratado individualmente para ser utilizado com os sistemas de e-mail que as empresas já possuem. O lançamento será realizado durante uma apresentação do Google para empresas.
A tecnologia, oferecida na modalidade de serviço, permite que os administradores controlem o ambiente de e-mail por meio do estabelecimento de políticas, regras e parâmetros. A administração é feita online, sem instalação de software ou hardware na infraestrutura da companhia.
A tecnologia foi incorporada pelo Google após a aquisição da empresa Postini por 625 milhões de dólares em 2007. Na época, o Google declarou que o objetivo era aumentar a segurança de seu pacote de produtividade Google Apps e entrar em conformidade com regras corporativas.
Por Rodrigo Afonso, da COMPUTERWORLD
02 de dezembro de 2009 - 18h49
O Google lançará nesta quinta-feira (03/12), em São Paulo, o aplicativo de segurança para e-mails Postini no formato stand alone.
Trata-se do Postini Message Security, que já era oferecido junto com o pacote do Google Apps e agora pode ser contratado individualmente para ser utilizado com os sistemas de e-mail que as empresas já possuem. O lançamento será realizado durante uma apresentação do Google para empresas.
A tecnologia, oferecida na modalidade de serviço, permite que os administradores controlem o ambiente de e-mail por meio do estabelecimento de políticas, regras e parâmetros. A administração é feita online, sem instalação de software ou hardware na infraestrutura da companhia.
A tecnologia foi incorporada pelo Google após a aquisição da empresa Postini por 625 milhões de dólares em 2007. Na época, o Google declarou que o objetivo era aumentar a segurança de seu pacote de produtividade Google Apps e entrar em conformidade com regras corporativas.
Redecard reduz em 11% custos de desenvolvimento de software
Processadora de operações de cartões de crédito implementa projeto de governança de TI e melhores práticas.
Por Andrea Giardino, da Computerworld
03 de dezembro de 2009 - 07h00
Com o objetivo de levar maior transparência aos processos de negócios, a processadora de transações de cartão de crédito Redecard deu início, em 2007, ao projeto de governança de TI. Hoje, o programa está em uma nova etapa, com foco em investimentos na adoção de metodologias que tornem ainda mais ágil a criação de soluções na área de tecnologia da informação.
O projeto, com três pilares, pretende focar na nova versão do padrão ITIL, conjunto de melhores práticas de gestão de TI. O primeiro pilar abrange as áreas de auditoria, riscos, controles e transparência. O segundo trata do gerenciamento dos serviços e da gestão de processos de TI em sintonia com as melhores práticas (Cobit, ITIL, CMM e ISO). O terceiro aborda a gestão financeira dos ativos de TI.
“Já conseguimos até agora uma redução de 11% nos custos de desenvolvimento de software”, afirma o diretor executivo de operações e TI da Redecard, Alessandro Raposo. Outro benefício destacado pelo executivo é um maior controle de custos, que impacta diretamente no orçamento de TI. “Conseguimos fazer um gerenciamento integrado dos projetos da organização, além de reduzir os gastos com desenvolvimento de softwares de 2008 para 2009”, acrescenta.
Para Raposo, o maior ganho foi mudar o escopo da área de TI que deixou de ser uma simples processadora de demandas para participar de forma ativa na solução de problemas pertinentes ao modelo de negócio da Redecard. O projeto contou com um total de 230 funcionários e o envolvimento de todas as áreas da diretoria executiva, assim como as fábricas de software e data centers, dos quais 140 estão na área de diretoria executiva de operações e TI.
Melhorias
Na primeira fase do projeto foi realizado um mapeamento dos 34 processos de gestão de TI, com a adoção da metodologia Cobit 4.1. A partir daí, a TI estabeleceu um plano estratégico de governança para melhorar o nível de maturidade dos processos e controles críticos da área. Na primeira avaliação de maturidade, foi aferido o nível 2,57. “Este ano, já atingimos o índice 3,12 e nossa meta é alcançar 3,20 até o final de 2009”, conta Raposo.
“O risco da TI caiu”, diz. Além disso, com o projeto de governança, a empresa conseguiu aumentar os níveis de maturidade em vários processos de TI, concentrando, inclusive, em um ponto único todos os chamados no service desk.
Por Andrea Giardino, da Computerworld
03 de dezembro de 2009 - 07h00
Com o objetivo de levar maior transparência aos processos de negócios, a processadora de transações de cartão de crédito Redecard deu início, em 2007, ao projeto de governança de TI. Hoje, o programa está em uma nova etapa, com foco em investimentos na adoção de metodologias que tornem ainda mais ágil a criação de soluções na área de tecnologia da informação.
O projeto, com três pilares, pretende focar na nova versão do padrão ITIL, conjunto de melhores práticas de gestão de TI. O primeiro pilar abrange as áreas de auditoria, riscos, controles e transparência. O segundo trata do gerenciamento dos serviços e da gestão de processos de TI em sintonia com as melhores práticas (Cobit, ITIL, CMM e ISO). O terceiro aborda a gestão financeira dos ativos de TI.
“Já conseguimos até agora uma redução de 11% nos custos de desenvolvimento de software”, afirma o diretor executivo de operações e TI da Redecard, Alessandro Raposo. Outro benefício destacado pelo executivo é um maior controle de custos, que impacta diretamente no orçamento de TI. “Conseguimos fazer um gerenciamento integrado dos projetos da organização, além de reduzir os gastos com desenvolvimento de softwares de 2008 para 2009”, acrescenta.
Para Raposo, o maior ganho foi mudar o escopo da área de TI que deixou de ser uma simples processadora de demandas para participar de forma ativa na solução de problemas pertinentes ao modelo de negócio da Redecard. O projeto contou com um total de 230 funcionários e o envolvimento de todas as áreas da diretoria executiva, assim como as fábricas de software e data centers, dos quais 140 estão na área de diretoria executiva de operações e TI.
Melhorias
Na primeira fase do projeto foi realizado um mapeamento dos 34 processos de gestão de TI, com a adoção da metodologia Cobit 4.1. A partir daí, a TI estabeleceu um plano estratégico de governança para melhorar o nível de maturidade dos processos e controles críticos da área. Na primeira avaliação de maturidade, foi aferido o nível 2,57. “Este ano, já atingimos o índice 3,12 e nossa meta é alcançar 3,20 até o final de 2009”, conta Raposo.
“O risco da TI caiu”, diz. Além disso, com o projeto de governança, a empresa conseguiu aumentar os níveis de maturidade em vários processos de TI, concentrando, inclusive, em um ponto único todos os chamados no service desk.
terça-feira, 1 de dezembro de 2009
Certificado digital será subsidiado para pequenas empresas
Novo 'Selo Internet Segura', da camara-e.net, vai oferecer certificado SSL ICP-Brasil por cerca de 500 reais ao ano, com parcelamento, em fevereiro de 2010.
Por Daniela Braun, do IDG Now!
30 de novembro de 2009 - 09h21
O valor da anuidade de um certificado digital para servidor web, SSL, da Infra-estrutura de Chaves Públicas Brasileira (ICP-Brasil), que costuma custar 3 mil reais, pode ficar até seis vezes menor para empresas que fazem negócios na internet brasileira.
O subsídio deve entrar em prática em fevereiro de 2010, com o lançamento do Selo Internet Segura, uma iniciativa da camara-e.net em parceria com a Associação Comercial de São Paulo (ACSP) para validar empresas que operam no e-commerce brasileiro, por meio de auditorias, em todo o País.
"Desta forma poderemos incluir as micro e pequenas empresas no certificado SSL de servidor", afirma Gerson Rolim, diretor executivo da camara-e.net, que teve a ideia de incluir o subsidio da certificação digital no selo.
Com um certificado de servidor próprio, não somente o fornecido por empresas de hospedagem e de pagamentos eletrônicos, a empresa garante sua identidade e seu 'CNPJ online' dando mais segurança ao consumidor, explica o diretor executivo da associação.
Em parceria com a Certisign, emissoras de certificados digitais associada à camara-e.net, Rolim calcula que o valor do certificado chegue a cerca de 500 reais. "Estamos estudando o parcelamento em até 12 vezes", informa.
Por Daniela Braun, do IDG Now!
30 de novembro de 2009 - 09h21
O valor da anuidade de um certificado digital para servidor web, SSL, da Infra-estrutura de Chaves Públicas Brasileira (ICP-Brasil), que costuma custar 3 mil reais, pode ficar até seis vezes menor para empresas que fazem negócios na internet brasileira.
O subsídio deve entrar em prática em fevereiro de 2010, com o lançamento do Selo Internet Segura, uma iniciativa da camara-e.net em parceria com a Associação Comercial de São Paulo (ACSP) para validar empresas que operam no e-commerce brasileiro, por meio de auditorias, em todo o País.
"Desta forma poderemos incluir as micro e pequenas empresas no certificado SSL de servidor", afirma Gerson Rolim, diretor executivo da camara-e.net, que teve a ideia de incluir o subsidio da certificação digital no selo.
Com um certificado de servidor próprio, não somente o fornecido por empresas de hospedagem e de pagamentos eletrônicos, a empresa garante sua identidade e seu 'CNPJ online' dando mais segurança ao consumidor, explica o diretor executivo da associação.
Em parceria com a Certisign, emissoras de certificados digitais associada à camara-e.net, Rolim calcula que o valor do certificado chegue a cerca de 500 reais. "Estamos estudando o parcelamento em até 12 vezes", informa.
42% das grandes e médias empresas do Brasil usam virtualização
Pesquisa da consultoria IDC realizada entre outubro e novembro indica também que os 48% que não têm soluções do tipo conhecem e sabem como funciona a tecnologia.
Por Fabiana Monte, da Computerworld
30 de novembro de 2009 - 12h55
A virtualização de servidores é usada por 42% das empresas de médio e grande porte no Brasil. A conclusão é da consultoria IDC, que realizou um estudo, no mês de outubro e no início de novembro, com 155 companhias no País.
Segundo a análise, mesmo os 48% de respondentes que não utilizam soluções de virtualização de servidores conhecem a tecnologia e como ela funciona. De acordo com o gerente de Enterprise Solutions da IDC, Reinaldo Roveri, fornecedores de soluções de virtualização ainda têm uma grande oportunidade de negócios no Brasil, porque as empresas estão em busca de ofertas do tipo.
"O Brasil está consolidando sua base tecnológica para a próxima geração dos ambientes de tecnologia da informação, mais flexível, que é a cloud computing (computação em nuvem)", afirma Roveri.
Um dos setores que investirá nesta tecnologia em 2010 é o bancário. Segundo estudo da IDC divulgado no fim de outubro, os bancos aumentarão os recursos destinados à TI no próximo ano. A virtualização aparece como um dos focos, junto com consolidação de servidores e convergência TI/Telecom.
Por Fabiana Monte, da Computerworld
30 de novembro de 2009 - 12h55
A virtualização de servidores é usada por 42% das empresas de médio e grande porte no Brasil. A conclusão é da consultoria IDC, que realizou um estudo, no mês de outubro e no início de novembro, com 155 companhias no País.
Segundo a análise, mesmo os 48% de respondentes que não utilizam soluções de virtualização de servidores conhecem a tecnologia e como ela funciona. De acordo com o gerente de Enterprise Solutions da IDC, Reinaldo Roveri, fornecedores de soluções de virtualização ainda têm uma grande oportunidade de negócios no Brasil, porque as empresas estão em busca de ofertas do tipo.
"O Brasil está consolidando sua base tecnológica para a próxima geração dos ambientes de tecnologia da informação, mais flexível, que é a cloud computing (computação em nuvem)", afirma Roveri.
Um dos setores que investirá nesta tecnologia em 2010 é o bancário. Segundo estudo da IDC divulgado no fim de outubro, os bancos aumentarão os recursos destinados à TI no próximo ano. A virtualização aparece como um dos focos, junto com consolidação de servidores e convergência TI/Telecom.
Análise: o Google Apps tem potencial para dominar o mercado?
Saiba quais são as promessas do pacote de aplicativos de produtividade para escritórios e o que ele oferece de fato, com base em opiniões de clientes.
Por Redação da Computerworld/EUA
01 de dezembro de 2009 - 06h30
Depois de dominar o mercado de buscas e de publicidade online, o Google está trabalhando para se tornar um grande provedor de softwares para negócios, com aplicativos de colaboração, por meio do Google Apps.
O apelo principal da ferramenta é a integração entre as diversas ferramentas: editor de textos, planilhas de cálculos, calendário, Google Talk, Google Vídeo, Gmail, entre outras. O pacote é vendido por 50 dólares anuais, para cada usuário.
Uma pesquisa recente da consultoria International Data Corporation (IDC) indica que a ferramenta já é utilizada amplamente por 20% das companhias. Um dos principais clientes é a administração da cidade de Los Angeles, que contratou o pacoteem sua versão corporativa para 30 mil usuários.
Fica bastante claro que o Google trabalha intensamente para oferecer substitutos à altura para o Windows e o Office, impondo sua cadeia de valor ao mercado. Mas o Google Apps estaria pronto para o mercado corporativo?
E-mail conta pontos a favor
Em se tratando de correio eletrônico, o Google oferece vantagens. E-mails representam um grande investimento para as empresas, portanto não surpreende que o Gmail seja uma opção popular.
Atualizar o Microsoft Exchange 2003 e 2007 requer custos adicionais de servidores, levando as empresas a consideraram o sistema de e-mail em nuvem. Por estas razões, o analista da Forrester Research, Ted Schadler, afirma que um e-mail baseado em nuvem (seja do Google ou de concorrentes) é quase sempre mais barato para companhias com menos de 15 mil usuários.
Embora seu tempo de funcionamento online não seja perfeito, o Google afirma que o sistema alcance 99,9% de disponibilidade. A empresa também cita um estudo do grupo Radicati Group, que classificou o Gmail como quatro vezes mais confiável do que o Microsoft Exchange em interrupções não planejadas, e dez vezes mais confiável em termos de desligamento planejado para manutenções.
Segurança de dados ainda levanta questionamentos
A segurança de dados na nuvem é um problema “que as empresas deverão conhecer”, admite o chefe de estratégias do site AlertSite, Ken Godskind. Um exemplo básico: ao migrar para o Google Apps, a cidade de Los Angeles insistiu na ameaça de punição à empresa caso houvesse perdas de dados.
O Google afirma que possui muitos consumidores em indústrias altamente reguladas, como o setor de saúde, que preza muito pela segurança. A empresa também diz que sua propriedade de codificação de dados e dispersão entre arquivos físicos e lógicos ajudam a manter as informações do cliente seguras. Quanto aos dados normatizados, a empresa recomenda que as companhias sigam suas regulamentações, mas reitera que não fornece orientação específica sobre como fazê-lo.
Concorrentes, por sua vez, indicam que a arquitetura de armazenamento do Google, na qual informações de diferentes clientes podem estar no mesmo setor, é uma ameaça à segurança. A questão de onde os dados ficam também é importante para organizações que precisam seguir regulamentações geográficas específicas, impedindo assim a adoção da ferramenta.
Contras: suporte técnico, capacidades limitadas, integração com o legado
Segundo alguns clientes, os aspectos negativos estão na qualidade do suporte técnico, dores de cabeça com migração de dados, falhas em funções e desempenho e a dor da mudança de hábitos familiares.
“Não há ninguém para ligar se você tiver um problema”, afirma o diretor de e-mails da companhia de vendas Sonian, Greg Arnette, que é um usuário do Google Apps e competidor do serviço Google Postini. Apesar do suporte por telefone estar incluído no Google Apps Premier Edition, “eles fazem tudo o que podem para redirecionar o cliente aos fóruns”, afirma Arnette. “Você nunca encontra uma pessoa. Ou eles estão cheios de serviço ou não conseguem lidar com as necessidades de suporte”, critica.
O blogueiro do site Geekzone, Mauricio Freitas, trocou o Google Apps pelo Microsoft Business Productivity Online Suite, depois da demora de 48 horas do Google para lhe informar sobre problemas com o Google Sync for Mobile.
A empresa afirma que redireciona seus clientes ao suporte online quando acredita que pode oferecer uma resposta melhor e mais rápida. A companhia também diz que o serviço de suporte 24/7 via telefone oferecido na versão paga é voltada a administradores, e que cabe aos revendedores oferecer esse suporte para usuários e ajudar as companhias com grandes desafios no uso da plataforma.
Há também os problemas com recursos e desempenho. O chefe executivo da empresa de marketing Sprinklr, Ragy Thomas, é um usuário entusiasta dos aplicativos do Google, como o Google Sites, mas admite que suas ferramentas de produtividade para escritório “não são para todas as companhias atualmente”.
No sistema, faltam algumas funções no editor de textos e no de planilhas, presentes nos produtos da concorrência, e algumas vezes parece lento rodando na web. Ragy está confiante que o Google resolverá esses problemas: a empresa promete solucionar o atraso em relação ao Office em 2010.
Outro desafio é a integração entre o Google Apps e aplicativos de legado que estão por toda parte em grandes companhias. O diretor sênior de produtos do Google Apps, Rajen Sheth, afirma que o Google e seus parceiros estão “avançando” nesta questão, com o desenvolvimento de novas interfaces de programação de aplicativos (API).
Com estratégia agressiva, o Google pode prevalecer
Para manter a ascensão, o Google continua inundando o mercado de novas ofertas, o que ajuda a manter a empresa como notícia, serve de propaganda para sua visão do futuro da computação e gera prestígio no meio tecnológico. Segundo Godskind, muita gente já está disposta a aceitar os novos paradigmas graças à estratégia agressiva da companhia.
Thomas, no entanto, ressalta que a aceitação não é fácil para grandes empresas, acostumadas às antigas estruturas e desconfiadas com as novas tecnologias. No entanto, ele acredita que no médio prazo as ferramentas e tecnologias podem evoluir e gerar casos de sucesso, levando até mesmo as maiores empresas a abandonarem suas estruturas antigas para se juntarem à nuvem. Essa é a aposta do Google.
Por Redação da Computerworld/EUA
01 de dezembro de 2009 - 06h30
Depois de dominar o mercado de buscas e de publicidade online, o Google está trabalhando para se tornar um grande provedor de softwares para negócios, com aplicativos de colaboração, por meio do Google Apps.
O apelo principal da ferramenta é a integração entre as diversas ferramentas: editor de textos, planilhas de cálculos, calendário, Google Talk, Google Vídeo, Gmail, entre outras. O pacote é vendido por 50 dólares anuais, para cada usuário.
Uma pesquisa recente da consultoria International Data Corporation (IDC) indica que a ferramenta já é utilizada amplamente por 20% das companhias. Um dos principais clientes é a administração da cidade de Los Angeles, que contratou o pacoteem sua versão corporativa para 30 mil usuários.
Fica bastante claro que o Google trabalha intensamente para oferecer substitutos à altura para o Windows e o Office, impondo sua cadeia de valor ao mercado. Mas o Google Apps estaria pronto para o mercado corporativo?
E-mail conta pontos a favor
Em se tratando de correio eletrônico, o Google oferece vantagens. E-mails representam um grande investimento para as empresas, portanto não surpreende que o Gmail seja uma opção popular.
Atualizar o Microsoft Exchange 2003 e 2007 requer custos adicionais de servidores, levando as empresas a consideraram o sistema de e-mail em nuvem. Por estas razões, o analista da Forrester Research, Ted Schadler, afirma que um e-mail baseado em nuvem (seja do Google ou de concorrentes) é quase sempre mais barato para companhias com menos de 15 mil usuários.
Embora seu tempo de funcionamento online não seja perfeito, o Google afirma que o sistema alcance 99,9% de disponibilidade. A empresa também cita um estudo do grupo Radicati Group, que classificou o Gmail como quatro vezes mais confiável do que o Microsoft Exchange em interrupções não planejadas, e dez vezes mais confiável em termos de desligamento planejado para manutenções.
Segurança de dados ainda levanta questionamentos
A segurança de dados na nuvem é um problema “que as empresas deverão conhecer”, admite o chefe de estratégias do site AlertSite, Ken Godskind. Um exemplo básico: ao migrar para o Google Apps, a cidade de Los Angeles insistiu na ameaça de punição à empresa caso houvesse perdas de dados.
O Google afirma que possui muitos consumidores em indústrias altamente reguladas, como o setor de saúde, que preza muito pela segurança. A empresa também diz que sua propriedade de codificação de dados e dispersão entre arquivos físicos e lógicos ajudam a manter as informações do cliente seguras. Quanto aos dados normatizados, a empresa recomenda que as companhias sigam suas regulamentações, mas reitera que não fornece orientação específica sobre como fazê-lo.
Concorrentes, por sua vez, indicam que a arquitetura de armazenamento do Google, na qual informações de diferentes clientes podem estar no mesmo setor, é uma ameaça à segurança. A questão de onde os dados ficam também é importante para organizações que precisam seguir regulamentações geográficas específicas, impedindo assim a adoção da ferramenta.
Contras: suporte técnico, capacidades limitadas, integração com o legado
Segundo alguns clientes, os aspectos negativos estão na qualidade do suporte técnico, dores de cabeça com migração de dados, falhas em funções e desempenho e a dor da mudança de hábitos familiares.
“Não há ninguém para ligar se você tiver um problema”, afirma o diretor de e-mails da companhia de vendas Sonian, Greg Arnette, que é um usuário do Google Apps e competidor do serviço Google Postini. Apesar do suporte por telefone estar incluído no Google Apps Premier Edition, “eles fazem tudo o que podem para redirecionar o cliente aos fóruns”, afirma Arnette. “Você nunca encontra uma pessoa. Ou eles estão cheios de serviço ou não conseguem lidar com as necessidades de suporte”, critica.
O blogueiro do site Geekzone, Mauricio Freitas, trocou o Google Apps pelo Microsoft Business Productivity Online Suite, depois da demora de 48 horas do Google para lhe informar sobre problemas com o Google Sync for Mobile.
A empresa afirma que redireciona seus clientes ao suporte online quando acredita que pode oferecer uma resposta melhor e mais rápida. A companhia também diz que o serviço de suporte 24/7 via telefone oferecido na versão paga é voltada a administradores, e que cabe aos revendedores oferecer esse suporte para usuários e ajudar as companhias com grandes desafios no uso da plataforma.
Há também os problemas com recursos e desempenho. O chefe executivo da empresa de marketing Sprinklr, Ragy Thomas, é um usuário entusiasta dos aplicativos do Google, como o Google Sites, mas admite que suas ferramentas de produtividade para escritório “não são para todas as companhias atualmente”.
No sistema, faltam algumas funções no editor de textos e no de planilhas, presentes nos produtos da concorrência, e algumas vezes parece lento rodando na web. Ragy está confiante que o Google resolverá esses problemas: a empresa promete solucionar o atraso em relação ao Office em 2010.
Outro desafio é a integração entre o Google Apps e aplicativos de legado que estão por toda parte em grandes companhias. O diretor sênior de produtos do Google Apps, Rajen Sheth, afirma que o Google e seus parceiros estão “avançando” nesta questão, com o desenvolvimento de novas interfaces de programação de aplicativos (API).
Com estratégia agressiva, o Google pode prevalecer
Para manter a ascensão, o Google continua inundando o mercado de novas ofertas, o que ajuda a manter a empresa como notícia, serve de propaganda para sua visão do futuro da computação e gera prestígio no meio tecnológico. Segundo Godskind, muita gente já está disposta a aceitar os novos paradigmas graças à estratégia agressiva da companhia.
Thomas, no entanto, ressalta que a aceitação não é fácil para grandes empresas, acostumadas às antigas estruturas e desconfiadas com as novas tecnologias. No entanto, ele acredita que no médio prazo as ferramentas e tecnologias podem evoluir e gerar casos de sucesso, levando até mesmo as maiores empresas a abandonarem suas estruturas antigas para se juntarem à nuvem. Essa é a aposta do Google.
Assinar:
Postagens (Atom)