sexta-feira, 2 de outubro de 2009
Virtualização: dicas para evitar servidores sobrecarregados
Empresas devem estudar demandas de suas aplicações e realizar testes antes de colocar a tecnologia em ambiente de produção.
Por Computerworld/EUA
02 de outubro de 2009 - 07h41
A virtualização está cada vez mais abrangente nas corporações, incluindo serviços de missões críticas e uso intensivo de aplicações. Com isso, os executivos de tecnologia da informação (TI) estão aprendendo que a divisão de servidores em poucas máquinas virtuais é coisa do passado.
Hoje, fornecedores de virtualização já tentam mostrar aos clientes o potencial que a tecnologia tem de colocar 20, 50 ou até 100 máquinas virtuais em apenas uma máquina física, mas os líderes de TI e os especialistas da indústria dizem que tais números oferecem riscos ao ambiente de produção, causando problemas de desempenho ou, pior ainda, indisponibilidade.
“Em ambientes de teste e desenvolvimento, as companhias já conseguiram atingir 50 máquinas virtuais em um host. Mas em se tratando de missões críticas e aplicações que utilizam recursos intensivos, o número tende a se limitar a 15”, afirma o vice-presidente de pesquisa da consultoria americana Enterprise Management Associates (EMA), Andi Mann.
Na média, o número é ainda menor. Segundo estudo conduzido pela EMA em janeiro de 2009 com 153 organizações com mais de 500 usuários, a média de máquinas virtuais por servidor é de 6, consolidando aplicações como ERP, CRM, e-mail e banco de dados.
A grande variação entre a realidade e as expectativas, seja por conta da publicidade do fornecedor ou por questões de retorno sobre investimento (ROI, da sigla em inglês return over investment), pode se traduzir em problemas para a equipe de tecnologia. Isso porque quanto maior o número de serviços consolidados em um servidor, maiores serão as supostas vantagens da tecnologia. “Se a equipe entra em um projeto de virtualização com falsas expectativas, a estrutura da empresa fica ameaçada", diz Mann.
Assim, o efeito pode ser contrário: a confiança exagerada na possibilidade de usar uma alta taxa de virtualização (número de máquinas virtuais por dispositivo físico), afeta consumo de energia, sistema de refrigeração, entre outros. “Se uma empresa pensa que precisa de apenas 10 servidores para implantar projeto de virtualização, mas na realidade necessita de 15, pode ter um custo final de consolidação maior ainda. Não é uma boa idéia, principalmente na economia de hoje", diz o presidente e analista da consultoria norte-americana Pund-IT, Charles King. Confira as dicas para evitar problemas:
Leve em conta que aplicativos chave lutarão por seu espaço
Por que existe essa falta de conexão entre a realidade da virtualização e as expectativas? King diz que, até agora, companhias focaram em virtualização nas camadas mais baixas: aplicações com pouca demanda de desempenho, como ambientes de desenvolvimento, armazenamento de arquivos e serviços de impressão. “Aplicações não-críticas e atividades dos extremos da rede não necessitam alta disponibilidade, a equipe pode amontoar dezenas deles em uma única máquina", afirma.
A opinião é corroborada pelo diretor da pesquisas sobre servidores da consultoria norte-americana TheInfoPro, Bob Gill. "No começo, as pessoas estavam virtualizando sistemas que usavam menos de 5% da capacidade que tinham disponível. Além disso, eram os serviços que não causariam grande impacto se ficassem indisponíveis por uma hora ou duas", diz Gill.
Uma vez que existe a necessidade de instalar aplicações de missão crítica, com utilização mais intensa dos sistemas, o risco de segurança aumenta e a demanda por desempenho e disponibilidade cai consideravelmente. “Essas aplicações vão competir por largura de banda, memória, armazenamento e processamento", diz King. Mesmo máquinas com processadores topo de linha vão apresentar gargalos se tantos recursos recorrerem ao mesmo servidor.
Comece com uma análise de capacidade
O começo de qualquer projeto é a educação dos usuários. As equipes de TI devem mudar o pensamento de quem acha que tudo será possível com poucos servidores. Para começar, uma análise de capacidade pode ser uma boa idéia, segundo o especialista em sistemas de segurança da informação Dris Jmaeff, que trabalha em uma das maiores empresas canadenses de saúde, a Interior Health.
Quatro anos atrás, o data center da Interior Health estava crescendo rapidamente. Havia muita demanda para virtualizar o ambiente de produção, com 500 servidores, para dar conta de uma gama de serviços hospedados, incluindo DNS, ActiveDirectory, servidores web, FTP e muitas outras aplicações e servidores de dados.
Antes de começar, Jmaeff usou uma ferramenta da Vmware para conduzir uma análise intradepartamental de capacidade que monitorou a utilização de hardware dos servidores. A ferramenta, que também é fornecida por empresas como HP e Microsoft, permitiu fazer um estudo mais aprofundado sobre os recursos exigidos dos servidores”
Com isso, sua equipe conseguiu consolidar 250 servidores, ou 50% do parque, em apenas 12 hóspedes físicos. E, embora o data center de Jmaeff tenha uma média de 20 máquinas virtuais por hóspede, as máquinas físicas que demandam mais aplicações trabalham a taxas de virtualização mais baixa. As que trabalham com aplicações de menor desempenho têm mais máquinas virtuais e compensam para compor a boa média.
O profissional combina Vmware vCenter e IBM Director para monitorar as máquinas virtuais e identificar eventuais sinais de desbalanço nas taxas de virtualização, como picos no uso de memória ou de processamento e degradação do desempenho. “Se necessário, é fácil clonar servidores e rapidamente fazer um balanceamento das cargas de aplicativos”, diz Jmaeff.
Acompanhamento contínuo é fundamental
Na empresa Network Data Center Host, um provedor de serviços Web da California (EUA), a equipe de TI aprendeu rapidamente que, em se tratando de virtualização de aplicações de missão crítica, é necessário muito mais do que RAM para garantir o desempenho. “Originalmente, imaginávamos que poderíamos manter 40 consumidores de menor porte em um servidor baseado somente na memória RAM disponível. Mas percebemos que, com aplicações mais pesadas, náo é a RAM que importa, mas sim as operações de entrada e saída de dados (I/O)", diz o CTO da companhia, Shaun Retain.
Levando isso em conta, a taxa de virtualização teve de ser reduzida para uma razão de 20/1. Para ajudar no controle, a empresa escreveu um painel de controle que permite aos consumidores verificarem como a máquina virtual lida com leituras, escritas, uso de espaço em disco e outros dados que afetam desempenho. Além disso, as máquinas hospedeiras da empresa contam com ferramentas de monitoramento para garantir que o desempenho de todas as máquinas virtuais não sejam prejudicadas por conta de tráfego de uma única máquina.
O consultor da Pund-IT, Charles King, diz que as companhias também deveriam conduzir testes rigorosos nas suas aplicações de missão crítica virtualizadas antes e depois da implementação. “A equipe deve ter certeza que cada aplicação se mantenha estável em termos de largura de banda na rede e memória. Se a equipe tem o conhecimento de que determinada aplicação exige mais em algum período específico do ano, deve levar esse dado em consideração no planejamento", diz.
Os testes também ajudam a determinar qual carga virtual de trabalho deve coexistir em um servidor físico de forma que a distribuição não comprometa a disponibilidade. É um estudo exaustivo por um período, mas que vai economizar muitas horas de trabalho corretivo no futuro.
Mais dicas
O fundador da empresa norte-americana Resolutions Enterprise Consultancy e autor de livros sobre virtualização, Nelson Ruest, alerta que as equipes de TI não podem esquecer de que as empresas precisam manter recursos na manga como contingência. “Se a equipe roda todos os servidores usando 80% da capacidade, não há espaço para redundância", diz o especialista.
O vice-presidente da EMA Andi Mann aconselha que a equipe procure pares com ambientes de aplicações similares em eventos e conferências técnicas ou mesmo em grupos de usuários locais. “A maioria dos presentes nessas ocasiões estão bem dispostos a compartilhar suas informações e experiências", diz. Bem melhor do que confiar nas palavras dos fornecedores é obter exemplos reais de empresas com o mesmo perfil.
Por Computerworld/EUA
02 de outubro de 2009 - 07h41
A virtualização está cada vez mais abrangente nas corporações, incluindo serviços de missões críticas e uso intensivo de aplicações. Com isso, os executivos de tecnologia da informação (TI) estão aprendendo que a divisão de servidores em poucas máquinas virtuais é coisa do passado.
Hoje, fornecedores de virtualização já tentam mostrar aos clientes o potencial que a tecnologia tem de colocar 20, 50 ou até 100 máquinas virtuais em apenas uma máquina física, mas os líderes de TI e os especialistas da indústria dizem que tais números oferecem riscos ao ambiente de produção, causando problemas de desempenho ou, pior ainda, indisponibilidade.
“Em ambientes de teste e desenvolvimento, as companhias já conseguiram atingir 50 máquinas virtuais em um host. Mas em se tratando de missões críticas e aplicações que utilizam recursos intensivos, o número tende a se limitar a 15”, afirma o vice-presidente de pesquisa da consultoria americana Enterprise Management Associates (EMA), Andi Mann.
Na média, o número é ainda menor. Segundo estudo conduzido pela EMA em janeiro de 2009 com 153 organizações com mais de 500 usuários, a média de máquinas virtuais por servidor é de 6, consolidando aplicações como ERP, CRM, e-mail e banco de dados.
A grande variação entre a realidade e as expectativas, seja por conta da publicidade do fornecedor ou por questões de retorno sobre investimento (ROI, da sigla em inglês return over investment), pode se traduzir em problemas para a equipe de tecnologia. Isso porque quanto maior o número de serviços consolidados em um servidor, maiores serão as supostas vantagens da tecnologia. “Se a equipe entra em um projeto de virtualização com falsas expectativas, a estrutura da empresa fica ameaçada", diz Mann.
Assim, o efeito pode ser contrário: a confiança exagerada na possibilidade de usar uma alta taxa de virtualização (número de máquinas virtuais por dispositivo físico), afeta consumo de energia, sistema de refrigeração, entre outros. “Se uma empresa pensa que precisa de apenas 10 servidores para implantar projeto de virtualização, mas na realidade necessita de 15, pode ter um custo final de consolidação maior ainda. Não é uma boa idéia, principalmente na economia de hoje", diz o presidente e analista da consultoria norte-americana Pund-IT, Charles King. Confira as dicas para evitar problemas:
Leve em conta que aplicativos chave lutarão por seu espaço
Por que existe essa falta de conexão entre a realidade da virtualização e as expectativas? King diz que, até agora, companhias focaram em virtualização nas camadas mais baixas: aplicações com pouca demanda de desempenho, como ambientes de desenvolvimento, armazenamento de arquivos e serviços de impressão. “Aplicações não-críticas e atividades dos extremos da rede não necessitam alta disponibilidade, a equipe pode amontoar dezenas deles em uma única máquina", afirma.
A opinião é corroborada pelo diretor da pesquisas sobre servidores da consultoria norte-americana TheInfoPro, Bob Gill. "No começo, as pessoas estavam virtualizando sistemas que usavam menos de 5% da capacidade que tinham disponível. Além disso, eram os serviços que não causariam grande impacto se ficassem indisponíveis por uma hora ou duas", diz Gill.
Uma vez que existe a necessidade de instalar aplicações de missão crítica, com utilização mais intensa dos sistemas, o risco de segurança aumenta e a demanda por desempenho e disponibilidade cai consideravelmente. “Essas aplicações vão competir por largura de banda, memória, armazenamento e processamento", diz King. Mesmo máquinas com processadores topo de linha vão apresentar gargalos se tantos recursos recorrerem ao mesmo servidor.
Comece com uma análise de capacidade
O começo de qualquer projeto é a educação dos usuários. As equipes de TI devem mudar o pensamento de quem acha que tudo será possível com poucos servidores. Para começar, uma análise de capacidade pode ser uma boa idéia, segundo o especialista em sistemas de segurança da informação Dris Jmaeff, que trabalha em uma das maiores empresas canadenses de saúde, a Interior Health.
Quatro anos atrás, o data center da Interior Health estava crescendo rapidamente. Havia muita demanda para virtualizar o ambiente de produção, com 500 servidores, para dar conta de uma gama de serviços hospedados, incluindo DNS, ActiveDirectory, servidores web, FTP e muitas outras aplicações e servidores de dados.
Antes de começar, Jmaeff usou uma ferramenta da Vmware para conduzir uma análise intradepartamental de capacidade que monitorou a utilização de hardware dos servidores. A ferramenta, que também é fornecida por empresas como HP e Microsoft, permitiu fazer um estudo mais aprofundado sobre os recursos exigidos dos servidores”
Com isso, sua equipe conseguiu consolidar 250 servidores, ou 50% do parque, em apenas 12 hóspedes físicos. E, embora o data center de Jmaeff tenha uma média de 20 máquinas virtuais por hóspede, as máquinas físicas que demandam mais aplicações trabalham a taxas de virtualização mais baixa. As que trabalham com aplicações de menor desempenho têm mais máquinas virtuais e compensam para compor a boa média.
O profissional combina Vmware vCenter e IBM Director para monitorar as máquinas virtuais e identificar eventuais sinais de desbalanço nas taxas de virtualização, como picos no uso de memória ou de processamento e degradação do desempenho. “Se necessário, é fácil clonar servidores e rapidamente fazer um balanceamento das cargas de aplicativos”, diz Jmaeff.
Acompanhamento contínuo é fundamental
Na empresa Network Data Center Host, um provedor de serviços Web da California (EUA), a equipe de TI aprendeu rapidamente que, em se tratando de virtualização de aplicações de missão crítica, é necessário muito mais do que RAM para garantir o desempenho. “Originalmente, imaginávamos que poderíamos manter 40 consumidores de menor porte em um servidor baseado somente na memória RAM disponível. Mas percebemos que, com aplicações mais pesadas, náo é a RAM que importa, mas sim as operações de entrada e saída de dados (I/O)", diz o CTO da companhia, Shaun Retain.
Levando isso em conta, a taxa de virtualização teve de ser reduzida para uma razão de 20/1. Para ajudar no controle, a empresa escreveu um painel de controle que permite aos consumidores verificarem como a máquina virtual lida com leituras, escritas, uso de espaço em disco e outros dados que afetam desempenho. Além disso, as máquinas hospedeiras da empresa contam com ferramentas de monitoramento para garantir que o desempenho de todas as máquinas virtuais não sejam prejudicadas por conta de tráfego de uma única máquina.
O consultor da Pund-IT, Charles King, diz que as companhias também deveriam conduzir testes rigorosos nas suas aplicações de missão crítica virtualizadas antes e depois da implementação. “A equipe deve ter certeza que cada aplicação se mantenha estável em termos de largura de banda na rede e memória. Se a equipe tem o conhecimento de que determinada aplicação exige mais em algum período específico do ano, deve levar esse dado em consideração no planejamento", diz.
Os testes também ajudam a determinar qual carga virtual de trabalho deve coexistir em um servidor físico de forma que a distribuição não comprometa a disponibilidade. É um estudo exaustivo por um período, mas que vai economizar muitas horas de trabalho corretivo no futuro.
Mais dicas
O fundador da empresa norte-americana Resolutions Enterprise Consultancy e autor de livros sobre virtualização, Nelson Ruest, alerta que as equipes de TI não podem esquecer de que as empresas precisam manter recursos na manga como contingência. “Se a equipe roda todos os servidores usando 80% da capacidade, não há espaço para redundância", diz o especialista.
O vice-presidente da EMA Andi Mann aconselha que a equipe procure pares com ambientes de aplicações similares em eventos e conferências técnicas ou mesmo em grupos de usuários locais. “A maioria dos presentes nessas ocasiões estão bem dispostos a compartilhar suas informações e experiências", diz. Bem melhor do que confiar nas palavras dos fornecedores é obter exemplos reais de empresas com o mesmo perfil.
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário