Exame 70-669–Microsoft Desktop Virtualization

Hoje passei no exame 70-669 que abrange as tecnologias de virtualização de desktops da Microsoft. Ele é o segundo de três exames necessários para o MCITP em Virtualização.

image

Vou detalhar as 4 principais tecnologias que são abordadas e alguns exemplos de perguntas. Obviamente que meu exame teve uma parte das perguntas possiveis e não vou passar exatamente os cenários nem as opções.

Seguem materiais de estudos obrigatórios para este exame:

APP-V (Application Virtualization)

Este é a tecnologia que a Microsoft adquiriu a alguns anos e se chamava SoftGrid. O conceito deste tipo de tecnologia é muito interessante, mas apesar de levar o nome de virtualização é bem diferente dos modelos que conhecemos no Hyper-V e MED-V. É formado pelo App-V Manager e o App-V Sequencer.

O trabalho começa ao “sequenciar” uma aplicação e criar um pacote. Este processo nada mais é do que um monitor que ao ser iniciado passa a copiar tudo o que acontecer em um desktop. Após iniciá-lo fazemos a instalação de um software e ao final temos o pacote (package) pronto com todos os arquivos, chaves de registro e atalhos.

Exemplos de perguntas sobre o App-V:

  • Um pacote ficou corrompido, qual a melhor forma de resolver?
  • Como você faria para distribuir um pacote sem ter o App-V Manager no ambiente?
  • Qual a ferramenta para garantir atualizações no pacote sem redistribui-lo?

Portal TechNet: http://technet.microsoft.com/en-us/appvirtualization/bb508934 e http://technet.microsoft.com/en-us/appvirtualization/cc843994

MED-D (Enterprise Desktop Virtualization)

O MED-V nada mais é do que um automatizador e gerenciador de imagens para o Windows Virtual PC do Windows 7, e é formado pelo gerenciador e pelo MED-V Workspace que fica no desktop.

Esta ferramenta irá permitir que as imagens de Windows XP criadas com aplicativos sejam distribuidas entre os usuarios. Por exemplo, imagine que duas determinadas aplicações não executem no Windows 7 e seja necessário usar o XP Mode. O MED-V ajudará a distribuir, atualizar e controlar estas VMs.

Exemplos de perguntas sobre o MED-V:

  • Como fazer para converter o MED-V já existente para Cluster?
  • Como otimizar a distribuição de imagens do MED-V pela rede?
  • Como evitar que o MED-V consuma muito espaço em disco no servidor?

Portal TechNet: http://technet.microsoft.com/en-us/windows/bb899442 e http://technet.microsoft.com/pt-br/windows/gg276319.aspx

RDS (Remote Desktop Services)

O RDS é o Terminal Services do Windows 2008 e dispensa grandes explicações. Porem, é importante lembrar que ele é formado por vários componentes: RD Gateway para garantir acesso pela internet, RD Web Access para criar o portal de aplicações pelo browser, RD Broker para distribuir e gerenciar afinidade entre o farm, RD Session para manter os perfis dos usuários.

É importante lembrar muito bem os papeis e como cada um deles se relaciona com outro e qual a melhor forma de trabalhar com estes papeis em uma empresa.

Exemplos de perguntas sobre RDS:

  • Dado um quadro de servidores com várias funções, qual deles seria colocado no Conexão da Area de Trabalho?
  • Como garantir que uma impressora do usuário não seja redirecionada para a sessão remota?
  • Como impedir que um pendrive seja mapeado na sessão remota?
  • Quais portas e serviços adicionais precisam estar habilitados entre os papeis do RDS?

Portal TechNet: http://technet.microsoft.com/en-us/library/cc770412.aspx e http://technet.microsoft.com/en-us/edge/ff945046

VDI (Virtual Desktop Infrastructure)

Esta tecnologia pode ser facilmente explicada como uma junção do RDS com o Hyper-V para criar ambientes virtuais de desktop. Você pode criar várias VMs de Windows 7 no Hyper-V e pelo AD Users and Computers vincular os usuários as VMs quando eles acessarem pelo RDS.

Esta foi a parte do exame que teve menos perguntas, já que o processo de VDI da Microsoft é extremamente simples de ser criado e configurado. Também não é facil encontrar documentação sobre isso, porem no Edge existem muitos vídeos.

Exemplos de perguntas sobre VDI:

  • Como fazer o licenciamento “per-user” e “per-device”, revogar de um ou outro e implementar?
  • Qual a melhor forma de transferir dados de uma VM para outra?
  • Como fazer com que um atalho apareça para todos os usuários?

Portal TechNet: http://technet.microsoft.com/en-us/edge/ff945049

É isso ai, bom exame e me conte se passou!!!

Gerenciamento de Storage com o System Center Virtual Machine 2012

Seguindo a série de posts sobre recursos do SCVMM 2012 integrados com VMWare ESX e Xen Server agora abordaremos outro recurso que é o gerenciamento de storages. Post anteriores: Integração com live migration http://bit.ly/pf0v9M e Dynamic e Power Optimization http://bit.ly/pJ6KLf.

Com o VMM 2012 você poderá classificar storages pela performance, definir o storage a ser utilizado e criar as LUNs sem a necessidade de conhecer o software de cada fabricante. Ou seja, você poderá utilizar o conceito de virtualização de storage com as interfaces do VMM 2012.

API SMI-S

Uma nova funcionalidade que está sendo discutida com os fabricantes de storages é a criação de um protocolo de comunicação muito similar ao SNMP mas que permita detalhes das especificações de um storage, chamado de Storage Management Initiative Specification (SMI-S).

Este protocolo é um API baseada nos modelos CIM/WBEM, que muitos já conhecem por ser também a especificação básica do WMI presente nos sistemas operacionais Windows. Utilizar este procolo não é tão simples, e é necessário ter um CIMOM que nada mais é que um proxy para “traduzir” as APIs nativas do storage para o protocolo SMI-S.

Porem, os fabricantes de storages já tem estes padrões bem estabelecidos e com upgrades de firmware podem incluir o CIMOM, um deles é o OpenPegasus, no storage já existente.

SMI-S no VMM 2012

Agora entra em cena o VMM 2012 que possui a interface de comunicação SMI-S para se comunicar com os storages e obter informações, e com base nestas pode classificar os storages conforme a sua performance, como a tabela abaixo retirada do TechNet (referencia ao final do documento):

Storage

Automação de Storage no VMM 2012

Agora podemos colocar em prática esta funcionalidade por criar arrays de storage e vincular aos hosts.

Imagine que em sua empresa haja storages com disco SAS e SATA, onde a classificação automática é SILVER e BRONZE respectivamente e tanto o grupo de servidores quanto uma VM pode ter especificado não a LUN, mas sim a classificação.

VMM2012

Essa automação inclui a criação das LUNs, ou seja, não será mais necessário ter conhecimento do software do fabricante para criar as LUNs individualmente já que a API SMI-S implementa os comandos necessário para gerenciar.

Storage Groups

Figura 1 – Tela principal do gerenciador de storages

Storage Pool

Figura 2 – Pool default e criação de um novo pool

Storage Add

Figura 3 – Inclusão de um storage ao pool

Storage

Figura 4 – Vinculando um storage pool a um grupo de hosts hypervisors

Com este recurso o gerenciamento de um datacenter será mais fácil, e quando temos diversos storages independentemente do fabricante poderemos utilizá-lo de forma simples com as APIs SMI-S.

Referencia TechNet http://technet.microsoft.com/en-us/library/gg610600.aspx e http://blogs.technet.com/b/server-cloud/archive/2011/10/14/windows-server-8-standards-based-storage-management.aspx

Dynamic e Power Optimization do VMM 2012-Hyper-V + XenServer + VMWare

No post anterior sobre VMM 2012 abordei a capacidade de utilizar as 3 tecnologias de migração das VMs entre os host XenServer, VMWare e Hyper-V. Todos podem estar no mesmo grupo e utilizando o PRO Tips. Detalhes em http://bit.ly/pf0v9M

Mas agora vamos falar de duas novas features e como funcionam:

  1. Dynamic Optimization – Gerencia a agressividade com que as VMs são movidas entre os nós no modo “quente”
  2. Power Optimization – Desliga e religa nós do cluster conforme a utilização dos recursos
Dynamic Optimization

Esta feature irá gerenciar com qual nível de agressividade iremos fazer o balanceamento de carga nos hosts. É compativel com XenServer e VMWare desde que o BMC esteja instalado nos hosts. Note porem que o processo de migração das VMs ocorrerá entre os hosts do mesmo SO.

Note na tela abaixo que é possivel definir manualmente a frequencia em que este processo será executado. Tempos muito altos ocasionaram moves excessivos de VMs entre os hosts, tempos longos podem gerar lentidão em um host até que as VMs sejam movidas. O ideal é de 10 a 30 minutos para detecção e solução.

Abaixo vemos a configuração considerada ideal para que o VMM detecte a necessidade de move de VMs. No exemplo temos 30% de CPU, 512 MB de memória livre e não levamos em conta IOPS e Network pois esses dois itens comulmente são compartilhados entre os nós de um cluster e não são otimizados com moves entre os nós.

image

NOTA: Lembrando mais uma vez que esta configuração é feita nos grupos que podem contem Hyper-V, Xen Server e VMWare e que os moves irão acontecer entre estes servidores com o mesmo SO e não entre os diferentes SOs. Alem disso é necessário no caso do VMWare e do Xen Server que estejam em cluster.

Power Optimization

Este novo recurso é muito interessante, levando em conta que muitos cluster tem o dobro da necessidade média levando em conta os picos. O Dynamic Optimization ajuda no momento em que o pico ocorre a distribuir as VMs, mas e quando há sobra de recursos?

O Power Optimization irá desligar os nós que não sejam necessários quando a utilização dos hosts reduzindo nós terá umca determinada capacidade e no horário escolhido.

No exemplo abaixo iremos desligar o host desde que a utilização dos outros nós com os moves de VM não fiquem acima de 40% e 1GB de RAM, e desde que esteja em horário noturno ou final de semana.

O processo de desligamento é um shutdown  sendo que o religamento é realizado por pacotes WOL (Wake On Lan) que precisa estar habilitado na BIOS do host. Alem disso nos hosts ESX e Xen Server é necessário ter o BMC, assim como no Dynamic Optimization.

Alem disso, existe uma proporção para esse recurso:

  • Cluster de 4 ou 5 nós – 1 nó será desligado
  • Cluster de 6 ou 8 nós – 2 nós serão desligados
  • Cluster de 9 ou 10 nós – 3 nós serão desligados
  • Acima de 10 nós – 1 nó adicional pode ser desligado a cada 2

image

NOTA: O recurso Power Optimization só funcionar entre nós do cluster e não host-to-host.

Referencia: http://technet.microsoft.com/en-us/library/gg675109.aspx