Blog da EVEO

Como fazer virtualização de servidores

Escrito por Redação EVEO | 1/4/24 12:00 PM

Virtualizar servidor não é mais decisão. É operação. O que separa um projeto que vira plataforma de um que vira gargalo é o método: dimensionamento honesto, escolha de hypervisor adequada à stack atual, migração planejada e governança contínua. Cada uma dessas etapas tem armadilha conhecida — e maioria dos projetos que falham repetem as mesmas três ou quatro.

Este artigo é direcionado a equipes de TI que vão executar a virtualização de servidores na prática. Não é sobre o que é virtualização (esse tema está em o que é virtualização) nem sobre quando virtualizar em empresa (esse está em virtualização de servidores para empresas). Aqui é o passo a passo técnico de como executar.

Pré-requisitos antes de começar a virtualização

Antes da primeira VM ser criada, três coisas precisam estar resolvidas. Pular qualquer uma é o atalho mais comum para retrabalho caro.

  • Inventário com 30 dias de telemetria: CPU médio e pico, memória usada, IO de disco, tráfego de rede, dependências entre sistemas. Sem esse retrato, o cluster nasce mal dimensionado.
  • Definição clara de SLA por workload: nem toda aplicação exige alta disponibilidade. Marcar o que precisa de failover automático e o que pode tolerar janela de manutenção evita superdimensionamento.
  • Hardware com capacidade adequada: CPU com extensões de virtualização habilitadas (Intel VT-x ou AMD-V), memória ECC, storage compartilhado ou replicado, rede com throughput compatível com o volume previsto.

Times que tentam virtualizar em hardware antigo, sem inventário, descobrem o limite no primeiro pico de produção. A virtualização concentra cargas. Concentração sobre base frágil amplifica o problema, não resolve.

Etapa 1: Dimensionamento do ambiente virtualizado

Dimensionar é traduzir o inventário em capacidade necessária no cluster virtualizado, com folga para crescimento e tolerância a falha. A fórmula prática que costuma funcionar:

  • vCPU total: soma da CPU média usada pelas cargas atuais, com fator de overcommit conservador (1,5x a 2x para workloads não críticos, 1x para críticos).
  • Memória total: soma do consumo médio de memória, com 25% de folga e zero overcommit em produção crítica.
  • Storage: soma do disco usado, com 30% de folga, IOPS dimensionado pela carga mais exigente (geralmente bancos de dados).
  • Hosts físicos: mínimo de dois para alta disponibilidade real. Em clusters com VMs críticas, três ou mais para tolerar falha sem entrar em modo degradado.
  • Rede: NICs separadas para gerenciamento, tráfego de produção, storage (quando aplicável) e migração ao vivo. Misturar tudo na mesma interface é receita para gargalo invisível.

O erro clássico aqui é dimensionar para a média e esquecer do pico. Se a carga média é 40% mas o pico chega a 90%, o cluster precisa caber o pico, não a média. Caso contrário, o ambiente sobrevive em dias normais e desaba em horário comercial.

Etapa 2: Escolha do hypervisor

O hypervisor é a peça que define operação, custo e flexibilidade do ambiente. As quatro opções dominantes em 2026 atendem perfis diferentes:

Hypervisor Tipo de licença Ponto forte Cenário ideal
VMware vSphere / ESXi Proprietária (Broadcom) Maturidade, ecossistema, alta disponibilidade nativa Operações já consolidadas em VMware com SLA agressivo
Microsoft Hyper-V Proprietária (incluso no Windows Server) Integração com Active Directory e stack Microsoft Ambientes majoritariamente Windows com licença já paga
KVM Open source Performance, custo zero de licença, base de cloud pública Times com expertise Linux focados em flexibilidade
Proxmox VE Open source com suporte pago opcional Interface gerencial pronta sobre KVM, baixo custo total PMEs e times que querem virtualização sem ticket VMware

O movimento mais relevante dos últimos 18 meses foi o reposicionamento da VMware após a aquisição pela Broadcom. Mudanças de licenciamento empurraram parte do mercado corporativo para alternativas open source. Operações que dependiam exclusivamente de vSphere passaram a avaliar KVM e Proxmox como rota de saída ou redução de exposição. Quem decide hoje precisa colocar esse fator na conta.

Etapa 3: Instalação e configuração inicial

Com hypervisor escolhido e hardware pronto, a instalação segue ordem que reduz retrabalho:

3.1. Instalação do hypervisor nos hosts

Cada host físico recebe a instalação do hypervisor escolhido, em modo bare metal (não como aplicação sobre sistema operacional convencional, exceto em caso de Hyper-V no Windows Server). A configuração mínima inicial cobre rede de gerenciamento, NTP sincronizado em todos os hosts e acesso administrativo via console e via interface web ou CLI.

3.2. Configuração de armazenamento

Storage compartilhado é pré-requisito para alta disponibilidade. As opções mais comuns são SAN em fibra ou iSCSI, NFS para ambientes mais simples, ou storage definido por software (Ceph, vSAN, Storage Spaces Direct). A configuração correta inclui múltiplos caminhos (multipath), redundância de controladoras e teste de failover antes de subir produção.

3.3. Configuração de rede virtual

Cada host precisa ter switches virtuais configurados, com VLANs separadas para gerenciamento, produção, storage e migração ao vivo. Em ambientes que exigem isolamento entre tenants ou departamentos, a recomendação é usar redes definidas por software (NSX no VMware, Open vSwitch no KVM) em vez de depender só de VLAN tradicional.

3.4. Configuração do cluster

Os hosts são agrupados em cluster, com políticas de alta disponibilidade ativadas (HA), balanceamento automático de carga (DRS no VMware, dynamic resource scheduling em outras plataformas) e regras de afinidade ou antiafinidade entre VMs. A configuração de quorum e fencing impede situações de split-brain em caso de falha de rede entre hosts.

3.5. Políticas de segurança e acesso

Senha forte e única para conta administrativa, autenticação integrada ao Active Directory ou LDAP, controle de acesso baseado em papel (RBAC) com mínimo privilégio, log de auditoria habilitado e exportado para sistema central. Senha padrão e acesso compartilhado são erros que aparecem em qualquer auditoria de segurança.

Etapa 4: Criação e migração das máquinas virtuais

Com cluster pronto, a fase de povoamento começa. Aqui se decide entre duas rotas:

  • Criação de VMs novas: instalação limpa de sistema operacional, ideal para aplicações que serão modernizadas ou para ambientes de homologação e desenvolvimento.
  • Migração de servidor físico para virtual (P2V): conversão de servidor físico existente em VM, mantendo o sistema operacional e as aplicações como estão. Útil quando a migração precisa preservar configuração legada.
  • Migração entre plataformas (V2V): conversão de VM existente em outra plataforma para o novo hypervisor. Cenário comum em saída de VMware para KVM ou Proxmox.

A regra prática para migração: começar por ambientes de homologação, validar comportamento por uma semana, mover produção em lotes, sempre com rollback testado. Migrar tudo de uma vez é receita para incidente em escala.

Etapa 5: Operação contínua e governança

Depois da virada, o trabalho real começa. Virtualização sem governança vira ambiente bagunçado em 18 meses, com VMs órfãs consumindo recurso e ninguém lembrando para que servem. Os pontos que precisam de operação contínua:

  • Monitoramento de capacidade: alertas em CPU, memória, IO e rede com thresholds claros, não thresholds genéricos do fabricante.
  • Controle de overcommit: revisão periódica da relação entre vCPU/memória alocadas e capacidade real do host.
  • Patches e atualizações: janela planejada de manutenção do hypervisor, testes em homologação antes de produção, rollback documentado.
  • Backup verificado: teste de restore em frequência regular. Backup que nunca foi restaurado é só esperança organizada.
  • Inventário vivo: cada VM com dono, propósito, classificação por criticidade e data de revisão.
  • Política de descarte: VM ociosa por 90 dias entra em fila de validação. Sem dono identificado, é desligada. Sem reclamação por 30 dias, é apagada.

Erros mais comuns na virtualização (e como evitar)

Os padrões de falha em projetos de virtualização se repetem em empresas de tamanhos diferentes. Conhecer os principais já reduz metade do risco:

  • Overcommit irresponsável: alocar mais vCPU e memória do que o host suporta. Funciona até o dia em que todas as VMs trabalham ao mesmo tempo.
  • Storage subdimensionado: CPU e memória recebem atenção; IO de disco quase sempre vira gargalo invisível em horário de pico.
  • Single point of failure: rodar virtualização sobre um único host físico ou um único storage entrega todas as cargas para o primeiro defeito de hardware.
  • Mistura de redes: gerenciamento, produção, storage e migração ao vivo na mesma NIC física disputam banda em momentos críticos.
  • VM sprawl: facilidade de criar VM cria também excesso de VM. Sem governança, ambiente vira coleção de máquinas órfãs.
  • Backup decorativo: backup configurado mas nunca testado é mais perigoso que nenhum, porque cria falsa segurança.
  • Licenciamento mal calibrado: alguns softwares cobram por core físico do host inteiro, não pelo da VM. Migrar sem checar isso pode multiplicar o custo de licença.

Onde a EVEO entra na sua virtualização

Para empresas que querem os benefícios da virtualização sem absorver toda a operação física do cluster, a saída é contratar virtualização gerenciada em provedor que já roda a plataforma em produção. A EVEO opera ambientes virtualizados sobre OpenStack, VMware e outras plataformas, em data centers brasileiros com previsibilidade de fatura e suporte técnico em português. Para operações que combinam nuvem privada, servidores dedicados e cargas que precisam de hardware reservado, o modelo é montado sob medida.

Casos como o documentado em histórias de sucesso mostram o impacto real da virtualização bem operada: redução de janelas de indisponibilidade, controle de custo e capacidade de crescer sem reescrever toda a estratégia. No fim, virtualização de servidores é metade tecnologia e metade processo. Quem opera bem nas duas frentes colhe o benefício. Quem trata como projeto pontual herda o problema.

Perguntas frequentes sobre virtualização de servidores

Quanto tempo leva para virtualizar uma empresa de médio porte?

De 2 a 6 meses do inventário inicial à operação plena, dependendo da quantidade de servidores físicos a migrar e da complexidade das aplicações. Pilotos focados em ambiente de homologação ficam prontos em 4 a 6 semanas. O fator que mais comprime ou estica esse prazo é a qualidade do inventário inicial e o nível de dependência das aplicações em hardware específico.

Quantos hosts físicos preciso para uma virtualização com alta disponibilidade?

O mínimo absoluto para alta disponibilidade real é dois hosts em cluster, com storage compartilhado ou replicado entre eles. Em ambientes com VMs críticas, três ou mais hosts permitem tolerar falha de um deles sem entrar em modo degradado. Cluster com host único não entrega alta disponibilidade — entrega virtualização vulnerável.

Posso virtualizar bancos de dados em produção?

Sim, e a maioria dos bancos corporativos roda virtualizado hoje. Mas exige cuidado com IO de disco (storage de alta performance), alocação dedicada de vCPU em cargas pesadas e atenção ao licenciamento de SGBDs proprietários (alguns cobram por core físico do host inteiro, não apenas pelo da VM). Para bancos extremamente sensíveis a latência ou com licenciamento agressivo por núcleo, manter em servidor dedicado pode sair mais barato no longo prazo.

O que é P2V e quando usar?

P2V (Physical to Virtual) é o processo de converter um servidor físico em máquina virtual, preservando sistema operacional, configurações e aplicações. Faz sentido quando há servidores físicos legados que precisam continuar funcionando como estão, mas em hardware moderno e centralizado. Ferramentas como VMware vCenter Converter, Microsoft Disk2VHD e Clonezilla cobrem essa conversão.

Virtualização funciona com hardware antigo?

Tecnicamente sim, em servidores com CPU que suporte extensões de virtualização (Intel VT-x ou AMD-V, presentes na maioria dos servidores fabricados a partir de 2007). Na prática, hardware antigo limita performance, capacidade de memória e features avançadas (como migração ao vivo). Para virtualização séria em produção, vale investir em hardware com pelo menos 5 anos de vida útil pela frente, com memória ECC, controladora de storage moderna e NICs múltiplas.