CloudCast010 – Lifecycle Amazon S3 – Movendo objetos do Amazon S3 para o Glacier

aws

Grande Leitores do CooperaTI!!!

Vamos para mais um CloudCast sobre nuvem da Amazon, e hoje vamos falar sobre uma funcionalidade extremamente útil do Amazon S3, o Lifecycle, com essa funcionalidade podemos configura para migrar nossos objetos automaticamente para o Amazon Glacier, um serviço de arquivamento sob-demanda de baixo custo, ou ainda configurar para deletar os objetos depois de uma determinada data ou período.

Nesse CloudCast vamos aprender:

1) Criar regra para mover objetos para o Glacier;
2) Criar regra para expiração de objetos;
3) Modificar uma regra de Lifecycle;
4) Restaurar um arquivo do Amazon Glaicer.

Não deixe de assistir os CloudCasts anteriores:

CloudCast CooperaTI – Série AWS

Atenção: É importante você desligar os recursos que usou para seguir esse CloudCast, ou irá gerar custo desnecessário para sua conta. Não nos responsabilizamos por serviços não desligados.

  • Vander Galvão

    Parabéns Pelo artigo… gostaria de saber se o s3 tem algum limite de tamanho por aquivo gravado?

    • Ola Vander, Obrigado!!

      O Amazon S3 permite que voce grave, leia e exclua objetos que contenham entre 1 byte e 5 terabytes de dados cada um. O número de objetos que você pode armazenar é ilimitado.

      • Vander Galvão

        Obrigado Rodrigo pela resposta… Estou começando com a Amazon e se puder responder mais 2 dúvida, agradeço.
        1) Assisti o vídeo que mostra como criar uma partição S2 em uma EC2 linux… pois bem gostaria de saber se posso ir gravando um backup tar simples… (uma vez que na execução o arquivo vai crescendo aos poucos) ou tenho que fazer o tar antes em ebs e depois jogar na partição s3

        2)Com relação a cobrança, por exemplo… tenho 3 instâncias (2 ec2 e 1 RDS) é possível ter um relatórios do custo de cada uma delas separadamente (valor, transferência, armazenamento) ?

        Desde já agradeço muito seu apoio.

        • Com certeza.. vamos lá

          1) Com relação ao S3FS esse sim tem limitação de tamanho, que é de 64GB por arquivo, mas se você estiver trabalhando com uma solução de backup, pode criar volumes com no máximo 64 GB que não vai ter problemas, agora no seu caso so mesmo um teste, pois pelo que entendi, você cria um arquivo tar e depois esse arquivo vai sendo implementado, talvez funcione. quanto ao gerar o tar no EBS ou no S3, bom tanto faz, já que você usando o S3FS vai enxergar o S3 como uma partição qualquer.

          2) Separado ate onde sei não, você tem um detalhamento de tudo em “Atividade de Conta”, mas realmente isso eu não tenho 100% de certeza se ha alguma forma de dar um detalhamento separado