MVP: System Center Cloud and Datacenter Management, MCT, MCSE, MCITP, MCPD, MCDBA
MVP Logo

Últimos posts

Categorias

Arquivo

Tags

Disco Externo eSATA Desaparece ou Lento Após Conectado

Um problema que já me aconteceu algumas vezes e já precisei resolver para alguns amigos é o uso do disco externo eSATA desaparecer após conectado, ou mesmo apresentar lentidão extrema ao ser inserido demorando muito para ser detectado como letra.

SINTOMA

Ao olhar o Event Viewer você provavelmente encontrará um dos eventos abaixo:

Evento 51: An error was detected on device \Device\Harddisk?\DR? during a paging operation.

Evento 9: The device, \Device\Ide\iaStor0, did not respond within the timeout period

O evento 9 é consequencia do evento 51 que indica erro ao criar paginação para o disco que foi inserido.

CAUSA

Diferente de um disco USB que tem acesso limitado a recursos, os discos eSATA entram no mesmo barramento do disco fixo da maquina, o que faz com que ele apareça como unidade de paginação, como mostra a figura abaixo.

Configurado em modo automático, o Windows tentará criar no disco removível um arquivo de paginação, o que gera o erro.

image

SOLUÇÃO

Altere o gerenciamento de memória virtual desligando o modo automático em TODOS OS DISCOS e deixe apenas no disco C: ou outro fixo desejado e o problema não ocorrerá mais.

image

Posted: ago 08 2011, 10:31 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: Hardware | Windows

Resolvendo Problemas de Backup com o DPM

Recebo muitas perguntas sobre o funcionando do DPM após ter publicado os videos do produto (http://bit.ly/rh35b6).

Muitas questões estão relacionadas ao uso de fitas e robôs, por isso editei os post sobre uso de fitas no mes passado (http://bit.ly/nZY96w) e agora vou abordar outros erros muito comuns e como solucioná-los.

Erro com Volume Shadow Services (VSS)

O processo do DPM não é realizado diretamente nos dados e sim a partir dos dados de snapshot utilizando o VSS, que é conhecido pelo Shadow Copy.

image

Sendo assim, a maioria dos problemas com backups são relacionados ao VSS que não consegue gerar os dados necessários para o DPM.

A primeira e mais facil forma de resolver é criar manualmente um ponto de restauração full, o que cria o snapshot novamente no servidor origem do backup, e em geral resolve o problema quando o VSS está com a base corrompida.

A segunda forma de resolver o problema é executar um CHKDSK no disco de origem do backup, pois o VSS grava os dados em um espaço não alocado no disco e o checkdisk faz a verificação de problemas em áreas não alocadas (free space).

A terceira forma de resolver o problema é ir nas propriedades do Shadow Copy do disco (abrir o Explorer como administrador e clicar com o botão direito) e verificar se as propriedades estão corretas. Verifique se o Shadow está ocorrendo nos discos pelo tamanho alocado e entre nas propriedades e verifique se há espaço disponivel. Note que o Shadow Copy não precisa estar Enabled, pois trata-se de outra feature.

A quarta forma de resolver o problema é utilizando a ferramenta VSADMIN e utilizar os comandos de lista dos recursos. Se alguma das listas ocorrer erro o ideal é deletar todos os shadows com os parametros VSSADMIN DELETE. Com esta ação será reinicializado o VSS em todos os discos no próximo backup. Porem é importante que na primeira tentativa ocorra erro, pois os shadow serão reinicializados. Se isso ocorrer espere alguns minutos e tente novamente.

A quinta e ultima forma de resolver os problemas é verificar pelos hotfix e updates disponiveis para o servidor origem dos dados e também do próprio DPM que está no QFE 2 (http://www.microsoft.com/download/en/details.aspx?id=20953).

Problemas Especificos com Proteção do Hyper-V

Uma das grandes vantagens do DPM é fazer backup de maquinas virtuais (VMs) diretamente do serviço de Hyper-V, o que é muito mais rápido ao copiar e restaurar por incluir o VHD inteiro no backup.

Porem, neste caso é necessário tomar várias precauções.

A primeira delas tem a ver com DAS (Direct Attach SCSI), seja em um sotrage ou em discos locais se o DPM estiver no host do Hyper-V, o que eu nunca recomendaria por sinal.

Neste caso, o DPM irá ocupar toda a banda do storage para realizar o backup e o Hyper-V irá derrubar o serviço por entender que o VHD ficou indisponivel. Se você possuir cluster o serviço de cluster irá cair por indicar acesso simultâneo no mesmo disco. Portanto, não utilize o DPM conectado fisicamente na mesma controladora que está o Hyper-V.

Outro problema é o Hyper-V entender que houve acesso simultaneo ao mesmo dado (VHD) e neste caso aplique o KB 2545685 (http://support.microsoft.com/default.aspx?scid=kb;en-US;2545685) que costuma resolver o problema.

Se o seu ambiente Hyper-V for baseado em cluster também pode ser necessário caso o KB acima não resolva executar as tarefas descritas no documento http://technet.microsoft.com/en-us/library/ff634192.aspx que serve para influenciar a forma como os snapshots são gerados quando seu hardware não dá suporte a esta operação.

Por fim, siga os passos do documento http://technet.microsoft.com/en-us/library/ff634205.aspx desabilitando o protocolo chimney ou ativando a auto montagem dos volumes para o VSS.

Conclusão

Sistemas de backup são fáceis de serem implementados, mas exigem alto conhecimento do ambiente para serem gerenciados, já que a dependencia de recursos locais como o VSS e CSV no caso do Hyper-V em cluster não são tão simples de serem controlados.

Porem, com as dicas acima consegui resolver os problemas que tive em diversos clientes com sucesso!!!

Recuperando um disco dinâmico, convertendo para básico a força

Ao trocar o meu HD externo pelo que já possuía no note, tive o seguinte problema: “Invalid disk” tanto no Server Management quando no DiskPart.

O disco em questão era o de boot no meu antigo notebook que estava formatado como Dynamic e com 3 partições (System, SO e Dados).

Encontrei no Fórum TechNet referencia ao mesmo problema, mas não se aplicavam ou não adiantavam no meu caso e foi quando comentaram da ferramenta HxD (http://cnet.co/qe5H4H), que eu já havia utilizado mas para editar arquivos e não para editar setores de disco.

Então ai está a solução, usando o HxD edite o disco e altere o hexa 42 (dinâmico) para 07 (básico) e o disco passa a ser enxergado com todas as partições, mas com o sintoma de aparecem algumas partições “fantasmas”.

Na figura 1 veja a abertura do disco pelo menu “Extras –> Open Disk”

HxD-1

Na figura 2 encontramos a definição dos tipos de partição, que iniciam na posição 0000001C0 em diante e note o terceiro octeto com o DWORD 42 e altere para 07.

HxD-2

Na figura 3 veja que o disco foi visto como básico, as partições voltaram, inclusive a de 200MB utilizado como System e uma “fantasma” com a letra H que não tinha dono e que segundo referencias era a partição de controle do disco dinâmico.

HxD-3

Assim, após realocar os 200 MB para o disco G:, apagar o disco H: e reformatar a partição 1 que era boot fiquei com o meu disco recuperado e estou utilizando normalmente como uma única partição sem ter perdido dados que estavam na partição 2:

image

image

Importante: Não utilize este recurso em dados sem levar em conta o risco de perder partições, principalmente levando em conta que certos recursos não são suportados (Extend, Expand, RAIDs) em discos básicos. Este recurso é interessante e essencial caso deseje recuperar dados de discos que estejam nas especificações dos discos básicos, ou seja, até 4 partições sem recursos de RAID.

Posted: ago 03 2011, 13:14 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: Hardware | Windows

MSTechDay Adamantina, São Paulo e Barra Bonita

Este final de semana irá iniciar o ciclo de eventos da equipe MSTechDay:

image

06/08 São Paulo http://www.mstechday.com/saopaulo/inscricao.aspx

13/08 Barra Bonita https://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032490826&Culture=pt-BR

27/08 Adamantina https://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032487894&Culture=pt-BR

A agenda de cada evento é eclética e visa agradar tanto a desenvolvedores quanto profissionais de TI.

Os eventos em Barra Bonita e Adamantina são gratuito e o de São Paulo tem uma taxa de R$ 30,00 para as despesas do evento.

Nos dois eventos fora de São Paulo serão 5 MVPs palestrando em cada um deles, alem do Daniel Donda que recentemente lançou um livro sobre o Windows Server Core e estará falando sobre este assunto.

Nos eventos de Adamantina e Barra bonita fui convidado para palestrar sobre “Green IT” e será um prazer poder conhecer pela primeira vez estas duas cidades.

Se você está em São Paulo ou mora próximo a uma dessas outras duas cidades, não deixe de comparecer!!!

Posted: jul 31 2011, 20:10 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: Eventos

Utilizando Fitas (Tape Drives) no DPM 2010–Parte III

Neste terceiro post iremos tratar de como trabalhar com as politicas de backup “long-term” para ajudar a escolher a mais apropriada para sua necessidade.

Como abordado no primeiro post é necessário escolher algumas opções ao criar o grupo de proteção e utilizar a opção “Long-term”.

Backup Tape

A primeira opção Retention range indica qual o tempo de retenção ou expiração do backup. Esta opção é importante ao ser planejada pois se este tempo for alto indica o numero de fitas que precisam ser utilizadas, já que como abordado na parte II a fita só pode ser reutilizada quando este periodo terminar.

A opção Frequency of backup e Backup schedule obviamente indicam quando o backup será executado na janela de retenção.

Quantas fitas (tapes) são necessárias?

Utilizando o backup acima como exemplo, precisariamos de 6 fitas. O motivo é que o backup é diario realizado de segunda a sexta (sabado e domingo está como excluido) o que formaria um conjunto de 5 fitas. A 6ª fita é a de arquivamento, já que o rodizio das fitas só seria possivel ao completar uma semana.

Ou seja, sempre serão necessárias uma fita a mais do que o periodo indicado para ser possivel realizar o rodizio.

Utilizando o Co-location não diminuo o numero de fitas?

Sim e muito, principalmente se os grupos de proteção forem menores que 400/800GB da fita LTO-3, por exemplo, já que diversos backups poderão estar contidos em uma unica fita.

O problema do co-location é o fato do gerenciamento ser manual. No exemplo da pergunta anterior poderá existir uma rotina de backup onde o operador em um horário determinado irá trocar a fita.

Quanto o co-location está ligado é necessário ficar manualmente olhando o quanto da fita está livre para fazer a troca, alem do co-location acabar misturando backups de grupos de proteção diferentes na mesma fita, o que torna mais complexo o arquivamente em cofre ou outra forma persistente.

Exemplos com politica de renteção em cofre

Vamos fazer um exemplo de uma empresa com 3 grupos de proteção, o que é comum. Levaremos em conta que o arquivamento mensal será permanente:

  • Grupo 1 – File Server com backup diário (seg-sex), retenção semanal e arquivamento mensal
  • Grupo 2 – Exchange com backup diário (todos os dias), retenção semanal e arquivamento semanal/mensal
  • Grupo 3 – SQL Server com backup diário (todos os dias), retenção semanal e arquivamento semanal/mensal

Para o grupo 1 precisariamos anualmente de 12 fitas permanentes mais 6 rotativas:

  • 5 fitas para os backups diários
  • 1 fita para fechar o ciclo semanal
  • 12 fitas para os backups mensais que são o ultimo semanal do mês, que será arquivada

Como o grupo 2 e 3 são similares seriam necessárias anualmente 56 fitas permanentes e 7 rotativas que ao longo do

  • 7 fitas para os backups diários
  • A ultima fita de backup diário na semana será a fita semanal, portanto 4 fitas por mês que serão arquivadas
  • A fita de backup mensal é a última fita do semanal, que será será arquivada

Se o mesmo grupo 2 e 3 não exijam que o backup das semanas anteriores sejam guardados ao terminar o mensal teriamos a redução de 3 fitas ao mes o que somaria 12 fitas permanentes, 3 rotativas semanais e 7 rotativas diárias:

  • 7 fitas para os backups diários
  • A ultima fita de backup diário na semana será a fita semanal, portanto 4 fitas por mês que serão arquivadas
  • A fita de backup mensal é a última fita do semanal, que será será arquivada dispensando as 3 anteriores para rodizio

Conclusão

Espero ter esclarecido as principais dúvidas sobre backup em fitas com o DPM e fiquem a vontade para comentar ou enviar perguntas e sugestões.

 

Parte I – Criando grupos de proteção incluindo tapes Utilizando Fitas (Tape Drive) no DPM 2010–Parte I

Parte II – Gerenciando tapes http://www.marcelosincic.com.br/blog/post/Utilizando-Fitas-(Tape-Drives)-no-DPM-2010e28093Parte-II.aspx

Posted: jul 21 2011, 04:42 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Login
Marcelo de Moraes Sincic | All posts tagged 'private cloud'
MVP: System Center Cloud and Datacenter Management, MCT, MCSE, MCITP, MCPD, MCDBA
MVP Logo

Últimos posts

Categorias

Arquivo

Tags

Microsoft Azure Stack - Porque Necessitará de Hardware Homologado

Como já é esperado por todos os profissionais de TI MIcrosoft, o lançamento do Azure Stack é aguardado com grande expectativa. O lançamento estava sendo esperado junto com o Windows 2016, mas agora foi adiado para o meio do próximo ano.

Basicamente, o Azure Stack é a mesma estrutura do Azure, mas para ambientes on-premisse com o novo portal.

A Microsoft já teve esse produto no passado como CPS by Dell (Cloud Platform System) que era um rack de servidores já com System Center e o Windows Azure Pack configurados para fornecer soluções de cloud "dentro de casa".
https://www.microsoft.com/en-us/cloud-platform/cloud-platform-system

A evolução do produto foi evidente, o novo portal do Azure comparado ao portal anterior com seus novos recursos e features foi o que nos fez esperar tão ansiosamente o Azure Stack.

O que mudou agora?

Assim como no CPS, o Azure Stack irá integrar updates de software e hardware e capacidades avançadas de biling, monitoração e balanceamento de recursos.

Adicionalmente, os potenciais usuários desse tipo de produto são empresas que precisam de modelos cloud e Datacenters comerciais.

Sendo assim, não é possível rodar o Azure Stack em qualquer hardware e garantir a criticidade do ambiente com SLA de 99,95% que é o desejado para este tipo de ambiente.

Uma vantagem do Azure Stack sobre o CPS é que o CPS era um produto Microsoft By Dell e o Azure Stack permitirá que qualquer fabricante homologue o hardware!

Essa não é uma mudança de rumo

Apesar do Azure Stack ter sido publicamente liberado, sempre se soube que ele exigiria um hardware mais "pesado" e que este tipo de solução necessita o uso de hardwares homologados.

Todos que já trabalham com soluções de Datacenter sabem que modelos como o CPS da Microsoft e o VCE da VMWare+Citrix+EMS são essenciais para garantir que todos os recursos de servidores, storages e networking interajam entre si sem queda de performance, perda de recurso ou incompatibilidades.

 

Enfim, o Azure Stack será um grande lançamento e uma enorme evolução no modelo de nuvem privada da Microsoft, mas não espere executá-lo naquele servidor que você tem em casa  ;-)

http://www.computerworld.com/article/3106743/cloud-computing/heres-why-azure-stack-will-only-run-on-certain-hardware.html
http://windowsitpro.com/hybrid-cloud/microsoft-s-azure-pack-delayed-allow-partners-time-certify-hardware

Evento Online sobre Infraestrutura com Microsoft Azure (Exame 70-533)

A Microsoft anunciou um evento ao vivo sobre IaaS com Azure com grandes nomes da companhia.

image

Este evento será um preparatório para o exame Exam 70-533: Implementing Microsoft Azure Infrastructure Solutions para Microsoft Azure Specialist Certification, alem de garantir um desconto de 50% no exame!!!!

  • Day 1:  Establish the Foundation: Core IaaS Infrastructure Technical Fundamentals

    • View from the CTO: Mark Russinovich, Chief Technology Officer - Azure
    • Azure IaaS Virtual Machines Inside Out
    • Optimize Your Windows Server Workloads on Azure
    • Inside IaaS Architecture Best Practices and Management
  • Day 2:  Dive Deep into Networking, Storage and Disaster Recovery Scenarios

    • Designing Networking and Hybrid Connectivity Infrastructure
    • Deep Dive Into Storage Using Azure Backup, Data Protection Manager, StorSimple, and InMage
    • Planning Disaster Recovery, Migration and More
    • Learn the Ins and Outs of Azure Automation, PowerShell and Desired State Configurator
  • Day 3:  Embrace Open Source Technologies (Chef and Puppet Configurations, Containerization with Docker, and Linux) to Accelerate and Scale Solutions

    • How to Deploy Linux and OSS on Azure
    • Leverage Existing Chef / Puppet toolsets for management 
    • How to Implement Containerization with Docker to Increase Density and Performance of Virtual Machines
    • Lift and Shift Your Linux Solutions to Azure
  • Day 4:  Optimize Windows Workload Architecture and Administration Capabilities Within Azure

    • Identity Solutions: Leveraging Azure Active Directory / Active Directory Premium
    • Azure Websites: Manage Your Websites not Your VMs
    • Leveraging SQL Azure for Your Solutions to Increase Scale
    • Architecting SharePoint for the Cloud

Link: http://channel9.msdn.com/Events/Microsoft-Azure/Level-Up-Azure-IaaS-for-IT-Pros?WT.mc_id=11100-iaas-for-it-pros-event-

Posted: nov 19 2014, 19:29 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5

Gravação da Palestra Gerenciando Private Cloud com System Center 2012 no MVP IT ShowCast na PUC

Na palestra de sábado, focamos o System Center de forma diferente. Ao invés de abordar todos os produtos e o cada um deles faz, o foco foi centralizado nas capacidades que são utilizadas em gerenciamento de Private Clouds, por exemplo, no SCCM cobrimos as funcionalidades de DCM e Software Update, já que as outras não são utilizadas em escala significativa para Private Cloud.

 

Private Cloud com System Center 2012 no MVP ITShowCast
Login