Página Inicial
PORTAL MÍDIA KIT BOLETIM TV FATOR BRASIL PageRank
Busca: OK
CANAIS

19/08/2008 - 13:08

Virtualização: o capitalismo chega aos data centers


Depois de décadas e décadas de desperdício e relativa imobilidade, tudo indica que a lógica do capitalismo começa a chegar aos data centers. O sistema, segundo seus defensores, é o meio mais eficiente e eficaz de prosperidade e desenvolvimento, por depender basicamente do seu próprio esforço, acumula e desfruta dos produtos gerados por ele mesmo.

Isto significa que, se até algum tempo atrás, estas centrais de processamento cresciam com as demandas de dados, mas com baixa taxa de evolução em termos de custo/performance, agora a competitividade dos sistemas – maior geração de riquezas pelo menor custo agregado – coloca-se como valor indispensável.

Sem querer levar o debate para a sociologia, o que pretendo enfatizar é que, de fato, os data centers deixam de ser associados a custo crescente e improdutivo, para começar a serem vistos como meio de produção estratégico.

Devido à banalização e ao custo cada vez mais baixo do dado (Bit Cost), esta chamada nova “era da otimização” foca em um crescimento ainda mais massivo e rápido da demanda de TI. Este crescimento impulsiona novas exigências e quesitos, como a do acesso as informações rápidas e 100% disponíveis. Hoje, a alta-disponibilidade, com “zero downtime”, não é mais um ponto acessório, mas sim mandatório. Vem de linha junto com a aplicação, e já é uma necessidade prevista.

Lembro-me, não faz muito tempo, da dificuldade de explicar às empresas a necessidade de monitorar sistemas e aplicações como: ERPs, Banco de Dados, Internet e Correio Eletrônico. Na verdade, inicia-se pela explicação de “missão-crítica” e o custo atrelado do downtime - custos tangíveis (operacional e faturamento) e intangíveis (imagem). Hoje, não importa o custo de downtime, ele simplesmente não é mais aceito. E o conceito de aplicações de “missão crítica” também foi massificado, como internet, correio eletrônico, sistema de telefonia, diretório, sistema de catraca, filtro de email, filtros de internet, proxies, anti-virus, e por aí segue uma lista enorme...

E é justamente por essa busca incessante de melhorar a eficácia e produtividade operacional dos data centers, que coloca na ordem do dia o tema da consolidação e virtualização, tecnologias que se apresentam hoje como “a bola da vez”, desta nova era.

Institutos de pesquisas respeitáveis apontam que até o fim de 2009 serão mais de 4 milhões de máquinas virtualizadas. E que estamos apenas em 10% do potencial. São números tão expressivos, que alguns destes institutos comentam que a virtualização será a tendência de maior impacto nos próximos anos. Serão 40 milhões de máquinas virtuais em 2012.

Definir este movimento, apenas, como a volta do mainframe aplicado ao mundo distribuído, é simplicíssimo. O mesmo pode-se dizer da tentativa de se justificá-lo pela via da redução de custos (até porque, em um primeiro momento, existe o investimento inicial alto de atualização tecnológica).

Falo, na verdade da quebra de um novo paradigma, que há muito cerca o ambiente distribuído: A Otimização de Recursos.

Existe um entendimento incoerente com o processo de otimização, conceituado como caro e que produz rupturas. Apesar de ser complexa (até em função dos sabores de plataformas existentes), a otimização está longe de ser um processo caro e abrupto. O grande problema, porém, e que muitas vezes acaba onerando os custos, é a falta de conhecimento ou “awareness” do data center. E este é justamente o primeiro passo para tornar a otimização um processo controlável ou um modelo: Conhecimento!

E o que é o conhecimento? Este, na verdade, passa pelo inventário do ambiente (comumente chamado de asset management), mas envolve, principalmente, o mapeamento das cargas de processamento, também chamada de Workload.

O Workload, não é apenas um servidor, um sistema operacional ou uma aplicação, mas sim uma métrica que representa as operações dos data centers e o conjunto de itens identificados no tempo para uma determinada função e representados no tempo e espaço (servidor físico ou virtual).

Este conceito traz consigo a sua principal vantagem: A portabilidade. Os workloads podem ser movidos, demovidos, construídos, mantidos, destruídos, aposentados, replicados, contigenciados, e até medidos. Todos estes termos novamente, totalmente aderente a nossa nova era da otimização, e conceitos atrelados, como Virtual Machine Lifecycle Management, Disaster Recovery, Chargeback, entre outros.

Workload, ainda, representa todo o ciclo de entrada e adoção de uma nova aplicação nos data centers, desde a fase inicial de ‘rolout’ (onde as cargas são cíclicas), passando pela fase produtiva (cargas sazonais e ocorrem picos) e por fim, a fase de aposentaria ou ‘sunset’ (as cargas são randômicas).

Por isto, a bola da vez, ou virtualização, aliada a ferramentas do mercado de análise e conversão de workload (Físico/Virtual para Físico/Virtual) causam e causarão um grande impacto. Pois, com esta combinação,tornou-se possível flexibilizar ainda mais a movimentação de cargas/workloads, dentro de um data center, conforme o comportamento, fase e recursos disponíveis para aplicações Além de trazer consigo benefícios e técnicas de Disaster Recovery (mais eficicientes, baratas e uso massivo) & Chargeback (bilhetagem ou análise de custo por: Transação, Processamento, Número Usuários, Máquinas Virtuais/Físicas, Recursos Alocados ou Usados)

Ao alavancar o uso do servidor por meio da virtualização, aumentou-se a produtividade das máquinas e diminuiu-se a ociosidade das mesmas. Como conseqüência, temos a diminuição de custos ao longo do tempo. Por isto, esta é a era da otimização e do Capitalismo em TI, onde a exuberância irracional de recursos está totalmente fora de cogitação e a execução das tarefas (cargas) está dentro.

A NetBR é pioneira em plataformas de gestão integrada de TI, com amplo domínio de ferramentas para a gestão de performance, segurança, alta disponibilidade e conformidade com normas e marcos regulatórios. Suas equipes de projeto, atendimento e suporte concentram grande experiência em serviços de alto valor agregado para complexos ambientes de missão crítica.

Suas ferramentas de gestão cobrem todas as necessidades da governança de TI, incluindo-se aí a produtividade dos ambientes de software e hardware. Além de sua forte e pioneira inserção na base de usuários NetIQ no Brasil, a NetBR mantém estreita parceria com empresas como Novell, Fortisphere e Sirana. | www.netbr.com.br

. Por: Por André Facciolli, diretor da NetBR

Enviar Imprimir


© Copyright 2006 - 2024 Fator Brasil. Todos os direitos reservados.
Desenvolvido por Tribeira