sexta-feira, 19 de junho de 2009

5 pesquisas sobre computação em nuvem

Framingham - Estudos mostram como cloud computing pode evoluir para tornar-se uma plataforma mais confiável e com menores custos.

Por Network World, EUA

18 de junho de 2009 - 08h30

Cloud Computing é um conceito, não uma solução pronta. Prova disso são as milhares de pesquisa para o desenvolvimento de modelos que potencializem a possibilidade que a computação em nuvem oferece de reduzir custos e aprimorar a infraestrutura dos clientes. Confira cinco pesquisas que podem ditar novos rumos para a plataforma.

Nebulas
Pesquisadores da Universidade de Minessota investigam um modelo de fornecimento de cloud computing cuja principal característica é a distribuição de recursos ociosos para a formação de nébulas, ou seja, conjunto de nuvens. Ainda está no papel, mas promete ser uma solução ideal para empresas como Amazon, IBM e Google, que possuem grande número de servidores.

De acordo com pesquisadores, a oferta de nuvens neste formato poderia atender mais eficientemente o leque de necessidades das empresas, garantir escalabilidade geográfica de nós e reduzir o custo do serviço para o usuário.

Implantar um modelo como esse depende de muitos estudos e desenvolvimento de soluções que automatizem o gerenciamento, mas, segundo os pesquisadores, o conceito seria o ideal para complementar a oferta de nuvens e poderia até mesmo servir como caminho de transição para muitos outros modelos de serviços.

CloudViews

Com todas as questões que envolvem cloud computing, o assunto segurança é frequentemente levantado, principalmente quando se leva em conta que diversos consumidores de dados e aplicações compartilham os mesmos recursos de nuvens. Mas os pesquisadores da Universidade de Washington veem uma série de oportunidades no fato de serviços web e aplicações estarem tão próximas.

CloudViews é um sistema desenvolvido pelos pesquisadores da instituição, que facilita a colaboração por meio de compartilhamento de dados entre serviços devidamente protegidos.

Os pesquisadores descrevem, na pesquisa, que os fornecedores de nuvens públicas precisam facilitar esse tipo de colaboração para garantir o crescimento do mercado do desenvolvimento de novos serviços web.


Plataforma de Cloud Computing criptografada
O laboratório Max Planck Institute for Software Systems, também preocupado com a questão da segurança, desenvolveu um modelo que possibilita aos fornecedores de infraestrutura como serviço, como a Amazon, oferecer ambientes em caixa fechada, garantindo que máquinas virtuais possam realizar execuções confidenciais no ambiente.

A plataforma proposta seria uma forma de assegurar aos consumidores que seus dados não estariam acessíveis ao fornecedor e possibilitaria que as empresas assegurassem a troca segura de dados, mesmo entre diferentes máquinas virtuais.


Infraestrutura virtual privada
Ainda na questão da segurança, John Krautheim, pesquisador da Universidade de Maryland no condado de Baltimore (EUA), propõe que consumidor e fornecedor dividam o gerenciamento dos riscos de segurança da infraestrutura em nuvens.

Segundo o pesquisador, isso é possível graças a um método que combina requerimentos do usuário e do fornecedor para permitir com que os clientes controlem a segurança de sua aplicação e das máquinas virtuais, enquanto deixa que o fornecedor preocupe-se com a segurança da parte física.

Krautheim diz que a abordagem proporciona uma sinergia de administração de segurança que pode ser muito eficiente se bem gerenciada nos dois lados. O sistema proposto inclui recursos que garantem confiança dos dois lados, incluindo uma plataforma com criptografia e métodos para desligar máquinas virtuais na ponta de usuário, em caso de extrema necessidade.


Trocando armazenamento por “recomputação”
Uma das formas de fazer com que cloud computing seja mais eficiente na performance e nos custos é repensar a forma que os dados são armazenados. Pesquisadores da Universidade da Califórnia em Santa Cruz se reuniram com a NetApp, empresa de armazenamento, e a Pergamum Systems, e estudam formas de aumentar a eficiência considerando a frequência de acesso aos dados, entre outras métricas.

Na prática, os dados gerados não seriam armazenados no sistemas, economizando espaço e energia no processo de gravação. Caso os dados sejam necessários, seriam recomputados para retornar o resultado desejado ao usuário. Embora haja um retrabalho, o que seria economizado com espaço e energia na gravação dos dados computados pela primeira vez compensaria a atividade.

É uma abordagem ainda longe da realidade e que depende de muitos estudos, mas abre um novo conceito dentro os milhares que compõe essa nova forma de ver a computação.

Nenhum comentário: