Lucas Vieira

Neoassist

A NEOASSIST (NEO) é uma empresa pioneira no desenvolvimento de soluções tecnológicas voltadas para o atendimento Omnichannel ao cliente.

EBS Snapshot

EBS Snapshot O pai ta on!! No ecossistema da Amazon Web Services (AWS), o Amazon Elastic Block Store (EBS) desempenha um papel fundamental no armazenamento persistente de dados para instâncias do Amazon EC2.  Uma das ferramentas poderosas oferecidas pelo EBS é o EBS Snapshot, que permite criar cópias incrementais de volumes do EBS, fornecendo uma camada adicional de proteção e permitindo a rápida recuperação de dados.  Neste artigo, exploraremos o conceito de EBS e EBS Snapshots, discutiremos os problemas que essa ferramenta resolve e forneceremos um passo a passo sobre como criar um snapshot.  Além disso, demonstraremos como realizar snapshots de todas as instâncias EC2 por meio de código Python utilizando a biblioteca boto3 e como executar o mesmo processo usando a AWS CLI. EBS O Amazon Elastic Block Store (EBS) é um serviço de armazenamento de blocos persistentes fornecido pela AWS. Ele oferece volumes de armazenamento altamente disponíveis e duráveis que podem ser anexados a instâncias do EC2.  O EBS permite que você crie, anexe, restaure e faça backup de volumes facilmente, fornecendo armazenamento persistente e confiável para suas cargas de trabalho na nuvem. EBS Snapshot O EBS Snapshot é uma funcionalidade do EBS que permite criar cópias pontuais de volumes do EBS.  Esses snapshots são armazenados no Amazon S3 de forma incremental, capturando apenas as alterações nos dados desde o último snapshot. Essa abordagem de captura incremental economiza espaço de armazenamento e torna os snapshots extremamente eficientes.  Os EBS Snapshots são consistentes e podem ser usados para criar novos volumes EBS, permitindo a rápida recuperação de dados em caso de falhas ou necessidades de restauração. Fonte: Backup Diferencial VS Backup Incremental – EaseUS Todo Backup Problemas resolvidos pelo EBS Snapshot O EBS Snapshot resolve vários problemas relacionados à proteção de dados e recuperação de desastres. Aqui estão algumas das principais maneiras pelas quais essa ferramenta é útil: 1.Backup e restauração: Com o EBS Snapshot, você pode criar cópias de segurança de volumes do EBS e restaurá-las rapidamente em caso de falhas do sistema, erros operacionais ou exclusão acidental de dados. 2.Retenção de dados: Os snapshots fornecem uma maneira fácil de reter dados importantes. Você pode criar snapshots periódicos para manter pontos de recuperação históricos e estabelecer uma política de retenção de acordo com suas necessidades de negócios. 3.Clonagem de volumes: Os EBS Snapshots permitem criar novos volumes a partir de snapshots existentes. Isso é útil para criar clones de volumes para testes, desenvolvimento ou outras finalidades, sem afetar os dados originais. 4.Migração de dados: Os snapshots podem ser usados para migrar dados entre regiões da AWS. Você pode criar um snapshot em uma região e restaurá-lo em outra região, facilitando a transferência de dados de maneira segura e eficiente. Utilizando scripts Abaixo um exemplo utilizando python, onde o script roda todas as instancias de uma conta e executa o snapshot do volume root das instancias. import boto3   def create_snapshots():     ec2_client = boto3.client(‘ec2’)     ec2_list = ec2_client.describe_instances()         for instances in ec2_list [‘Reservations’]:         for instance in instances[‘Instances’]:             instance_id = instance[‘InstanceId’]             snapshot_description = f”Snapshot for instance {instance_id}”                         response = ec2_client.create_snapshot(                 Description = snapshot_description,                 VolumeId = instance[‘BlockDeviceMappings’][0][‘Ebs’][‘VolumeId’]             )                         print(f”Created snapshot {response[‘SnapshotId’]} for instance {instance_id}”)   # Executando a função para criar os snapshots create_snapshots() Caso queria executar pontualmente o snapshot via AWS CLI: aws ec2 create-snapshot –volume-id <volume-id> –description “Snapshot by AWS CLI” Conclusão Os EBS Snapshots oferecem uma maneira fácil de criar cópias pontuais de volumes, permitindo backup, recuperação de desastres, clonagem e migração de dados.  Neste artigo, discutimos o conceito de EBS e EBS Snapshots, destacamos os problemas que essa ferramenta resolve e fornecemos um passo a passo de como criar um snapshot usando a biblioteca boto3 em Python e a AWS CLI.  Xero no suvaco!!  Be Happy!!! Thiago Marques Technical Account Manager thiago.marques@darede.com.br Technical Account Manager da Darede, formato em Rede de Computadores, e pós graduado em Segurança da Informação. Possui ampla experiência em Datacenters e Service Providers, além de ser um entusiasta em DevOps e mercado financeiro.

Dados em tempo real na AWS

Entenda o que são esses tipos de dados e como a AWS nos ajuda a usá-los da melhor forma. Diariamente nós geramos dados de diferentes maneiras e quando o assunto é tecnologia acontece o mesmo. Por conta disso, a AWS fornece o necessário para analisá-los e processá-los em tempo real. Vamos entender um pouco sobre esses tipos de dados ao longo do artigo. O que são dados em tempo real? Quando falamos sobre esses tipos de dados estamos nos referindo àqueles que são obtidos de forma simultânea. Eles costumam ser resultantes de fluxos, tecnologias IoT (Internet das Coisas – em inglês) e aplicações que possuem eventos como guia. Assim como dados são usados para a procura de uma informação ou a busca pela solução de um obstáculo, os em tempo real tem o mesmo propósito, com a diferença de auxiliar na tomada de decisões urgentes e que precisam de rápida resposta. Por conta disso, a AWS fornece diversos serviços, gerenciados ou não, que possuem como objetivo auxiliar na coleta, análise e processamento do fluxo de dados em tempo real.  Abaixo veremos alguns exemplos desses serviços e como eles podem nos ajudar: Amazon Kinesis Data Streams O Data Streams é um serviço Serverless (não possui servidores para gerenciar)  de consumo, processamento e armazenamento de transmissão de dados com alta escalabilidade otimizado para dados de streaming (transmissão contínua de dados). Por meio da coleta de diferentes tipos, é possível abastecer painéis instantâneos, gerar métricas  e entregar dados a repositórios que o armazenam. Além disso, graças a aplicações ativadas por eventos é possível reagir ou se ajustar a ocorrências imediatas. Amazon Kinesis Firehouse O Firehouse é um serviço para extração, transformação e entrega de dados de um modo confiável para armazenamento e serviços de análise. Com ele, é possível monitorar a segurança em tempo real e criar diferentes alertas com ferramentas compatíveis quando possíveis perigos aparecerem. Além disso, por meio do uso de modelos de Machine Learning é possível melhorar os fluxos de dados para análise e previsão. Amazon Kinesis Data Analytics O Data Anaytics tem como objetivo a simples transformação e análise de dados de transmissão em tempo real por meio do uso do Apache Flink (ferramenta de fluxo de dados de streaming). Por meio deste serviço é possível executar a procura e estudo dos mesmos de uma forma interativa em tempo real. Além disso, é possível efetuar a detecção de anomalias segundo as tendências de dados históricos.  Amazon MSK O MSK é utilizado com o objetivo de simplificar o tratamento e a obtenção de dados de streaming em tempo real por meio do uso de Apache Kafka totalmente gerenciado. Este serviço permite que os desenvolvedores possam se concentrar no desenvolvimento de aplicativos e menos no gerenciamento da infraestrutura. Além disso, ajuda a implantar de forma fácil aplicações compatíveis, seguras e prontas para produção. Amazon OpenSearch Service O Amazon OpenSearch Service libera de maneira segura o monitoramento, a procura e a análise de dados de operação em tempo real. Este também é um serviço gerenciado com o objetivo de aumentar a excelência operacional. Além disso, por conta de sua alta observabilidade, é possível detectar possíveis perigos e reagir ao estado de um sistema por meio de uma solução de código aberto. Caso deseje saber mais sobre esses e outros serviços da AWS que possam ajudar na análise e processamento de dados em tempo real, acesse o site: https://aws.amazon.com/pt/big-data/datalakes-and-analytics/ Acompanhe mais sobre esse e outros assuntos no Blog da Darede! “O que é perigoso é não evoluir”. –      Jeff Bezos Mateus Passos Assistente de Projetos mateus.passos@darede.com.br Matheus tem um vasto conhecimento na área de tecnologia e hoje atua no setor de projetos na Darede. Ele possui diversas certificações, sendo a última Scrum Fundamentals Certified.

Como obter minha primeira certificação em cloud ?

As certificações nas diversas áreas da TI são essenciais. No mercado de trabalho são muito valorizadas, principalmente porque demonstram o nível de suas habilidades em determinado assunto. 08/09/2023 Por Giovana Costa  O que são as certificações? Elas são documentos recebidos após você realizar um exame de certificação de uma determinada empresa. Ao passar neste exame, a mesma disponibiliza um certificado  que comprova que o indivíduo aprovado sabe de fato como utilizar suas tecnologias e serviços. Quando o assunto é Cloud Computing temos três grandes provedores, sendo: Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP). Esses que fornecem seus próprios exames de certificação para cada nível de usuário.  Quais certificações existem no mercado de Cloud Computing? O mercado tem uma gama relativamente grande de certificações, por isso, neste artigo irei focar apenas nas certificações dos provedores citados acima.  AWS Certified Cloud Practitioner (CLF-C02) Esta certificação de nível básico possui 65 questões variando de múltipla escolha ou múltiplas respostas. Ela requer que o indivíduo tenha um conhecimento geral da nuvem AWS. A prova exige que o participante saiba descrever e posicionar os serviços da AWS de acordo com os seguintes domínios: Computação Rede Banco de dados Armazenamento Microsoft Certified: Azure Fundamentals Já a certificação da nuvem da Azure possui em média 40 a 60 questões e também varia entre perguntas de múltipla escolha e perguntas com múltiplas respostas. Ela exige que seus participantes tenham domínio sobre os seguintes temas:  Descrever conceitos de nuvem Descrever a arquitetura e os serviços do Azure Descrever a gestão e governação do Azure Cloud Digital Leader  O exame de certificação do GCP conta com uma média de 50 a 60 questões, sendo elas de múltipla escolha e também de seleção múltipla. Para esta certificação é necessário que o participante tenha os seguintes conhecimentos: Conhecimento geral em Cloud Computing Conhecer os principais produtos e serviços do GCP Uma observação sobre este exame é que ele é o único dessa lista que não é oferecido em português, apenas em inglês e japonês. Como eu consigo uma certificação? Antes de comentar sobre como conseguir uma certificação, devemos entender que a maioria delas são pagas. Porém algumas empresas como a Microsoft e Amazon, oferecem programas e treinamentos que podem gerar cupons de desconto de até 100%. Bastando a pessoa interessada se inscrever nos mesmos!  Além das empresas, existem também organizações que oferecem treinamentos gratuitos para que você se prepare não só para o exame, mas também para o mercado! Dentre elas podemos mencionar a “Escola da Nuvem”, que oferece aulas gratuitas com laboratórios e professores disponíveis para tirar dúvidas. Como se preparar para a minha prova? Estude os conteúdos corretos! Para fazer isso, sempre que for realizar um exame de certificação faça a leitura do guia do exame. Nele você encontrará o objetivo do exame, a divisão da pontuação que deverá ser alcançada para aprovação e também os conteúdos que serão abordados. O guia do exame, na maioria das vezes, é oferecido na página para realizar o agendamento do exame.  Pratique! A experiência fará com que você conheça não só a parte teórica mas também a prática, então explore. Se você preferir estudar sobre esse mundo por conta própria, os provedores como AWS, Microsoft e Google, oferecem períodos de teste gratuitos em suas plataformaspor até 12 meses.  Além disso, faça conexões com pessoas que obtiveram a aprovação no exame, elas irão te auxiliar e poderão tirar suas dúvidas sobre a prova.  Live Cloudelas – Certificações: Por onde começar Giovana Costa Analista de Infraestrutura Cloud giovana.costa@darede.com.br Analista de Infraestrutura Cloud da Darede, Formada no Curso Técnico de Redes de Computadores na Escola SENAI de Informática. Buscando sempre aprimorar meus conhecimentos em Infraestrutura, AWS Cloud e Linux.

O que é o AWS DMS?

O que é AWS Database Migration Service (DMS)?  O AWS Database Migration Service (AWS DMS) é um serviço gerenciado da Amazon Web Services (AWS) que permite a replicação e migração de bancos de dados de forma fácil, segura e sem perda de dados. O DMS é compatível com migrações homogêneas, como de Oracle para o Amazon RDS for Oracle, e migrações heterogêneas (entre diferentes plataformas de banco de dados) como de Oracle ou Microsoft SQL Server para o Amazon Aurora.  Como o serviço funciona? Com o AWS DMS é possível optar por instâncias sob demanda ou utilizar a tecnologia sem servidor. O AWS Database Migration Service Serverless provisiona e gerencia a capacidade automaticamente.  Durante a migração as alterações realizadas no banco de dados de origem são replicadas continuamente no destino. Sendo assim,  o banco de dados de origem permanece operacional durante a migração, minimizando o tempo de inatividade de aplicações que dependem do banco de dados.   Após a conclusão da migração o banco de dados de destino permanece sincronizado com o de origem pelo tempo que for determinado, permitindo que a transição para o banco de dados ocorra no momento adequado.   O suporte é oferecido para diversos cenários, como: Do Oracle para o Amazon Aurora (compatível com MySQL), do MySQL para o Amazon Relational Database (RDS) para MySQL, do Microsoft SQL Server para o Amazon Aurora (compatível com PostgreSQL), do MongoDB para o Amazon DocumentDB (compatível com MongoDB), do Oracle para o Amazon Redshift e Amazon Simple Storage Service (S3). Principais componentes do AWS DMS  Instâncias de replicação: São máquinas virtuais EC2 que executam o software de replicação do DMS para extrair, transformar e carregar dados entre as origens e os destinos.   Endpoints: Representam as origens e destinos dos dados a serem migrados. Podem ser endpoints de banco de dados, como o Amazon RDS ou o Amazon Aurora; endpoints de armazenamento, como o Amazon S3; ou endpoints de mensagens, como o Amazon Kinesis.   Tarefas: São as configurações que definem a migração dos dados entre os endpoints. As tarefas especificam as tabelas a serem migradas, as transformações a serem aplicadas e outras opções de configuração.   Eventos: Permitem o monitoramento das tarefas e a captura de eventos relacionados à migração, como erros, conclusões, atualizações de status, entre outros.  Além disso, o AWS DMS inclui recursos como:   – AWS DMS Schema Conversion: Para converter esquemas e códigos-fonte;  – AWS DMS Serverless: Para provisionar, monitorar e ajustar automaticamente a escala de recursos de capacidade para uma migração com pouca intervenção humana.  Melhores práticas com o AWS DMS  É fundamental realizar uma análise detalhada das características do ambiente e das cargas de trabalho para definir a estratégia de migração mais adequada. Também é necessário um planejamento cuidadoso, incluindo a escolha dos endpoints corretos, a configuração das tarefas de migração e a definição de transformações de dados, se necessário.   Testes de migração em um ambiente propício são atividades relevantes antes de realizar a migração em produção. Assim, pode-se validar a funcionalidade dos dados e ajustar as configurações, caso se aplique.   Já durante a migração, monitorar as tarefas de migração e os eventos relacionados são fatores essenciais para a identificação de possíveis ocorrências e garantia no sucesso da migração. Billing e Free Tier  O AWS Database Migration Service (DMS) possui um modelo de pagamento baseado no uso. Os custos são calculados com base em fatores como o tipo e o tamanho das instâncias de replicação utilizadas, a quantidade de dados transferidos e a região da AWS selecionada para a migração.   Atualmente, o nível gratuito inclui até 750 horas de uso da instância Mono-AZ dms.t2.micro por mês durante um ano.   Na modalidade de instâncias sob demanda há um custo para as instâncias de replicação e por qualquer armazenamento de log adicional.   Thiago Marques Technical Account Manager thiago.marques@darede.com.br Technical Account Manager da Darede, formato em Rede de Computadores, e pós graduado em Segurança da Informação. Possui ampla experiência em Datacenters e Service Providers, além de ser um entusiasta em DevOps e mercado financeiro.

Banco Master – SOC( Security Operation Center)

Desde a sua fundação, em 1984, o Grupo Master tem assumido uma posição de pioneirismo no lançamento de produtos e antecipação de tendências, mantendo-se na vanguarda do mercado de capitais com marcantes participações nos segmentos em que atua. A Darede, empresa parceira Advanced AWS, conta com uma série de profissionais altamente capacitados, e por isso foi convidada para participardesse projeto. A experiência em migração e sustentação em InstituiçõesFinanceiras também foi um fator preponderante para o convite.  O Desafio: Devido a criticidade e constante crescimento do negócio, o Banco Master entendeu a necessidade de ter um time de especialistas dedicado ao atendimento de eventos notáveis de segurança, com monitoramento proativo, resposta e remediação a incidentes de segurança, além de atividades de correção. Desafios e pontos de atenção deste cenário:  Necessidade de atendimento 24×7; Gestão de eventos notáveis e resposta a incidentes de segurança; Implementação e gestão de uma Solução de SIEM para SOC; Monitoramento de todos os recursos AWS em todas as regiões; Custo elevado com mão de obra especializada em segurança nos cenários de tecnologia; Arquitetura e Implantação Baseando-se nos elementos apontados acima, a Darede planejou e arquitetou o ambiente para implementação da Solução de SIEM para SOC, com centralização de logs e análise inteligente de eventos de segurança. Abaixo estão as definições e funcionalidades da solução proposta para o Banco Master, em execução na AWS: Implementação e gestão da Solução de SIEM para SOC; Time especializado para resposta a eventos notáveis de segurança; Atendimento 24×7 com escalonamento e plantão; Gestão de logs centralizada e políticas de lifecycle para o consumo dos logs, incluindo CloudTrail logs e VPC Flowlogs; Melhoria contínua com AWS SecurityHub;  A figura 1 é um diagrama macro da solução proposta para o Banco Master,que busca descrever o ambiente final: Resultado Ao término do projeto, o Banco Master passou a contar com um ambiente seguro, estável e escalável. Abaixo uma listagem dos benefícios e resultados desta implementação: Solução disponível 24/7 Alta disponibilidade da solução implementada na AWS; Escalabilidade dos recursos na AWS provisionados; Facilidade de integração de serviços com AWS: S3, VPC FlowLogs etc; Múltiplas regiões atendidas; Monitoramento e atendimento 24/7 Redução de 60% de eventos notáveis de segurança ajuste constantes de regras e automação de remediações; Escalabilidade dos recursos na AWS provisionados; Notificação de eventos críticos de segurança por SMS;

Nós usamos cookies para garantir e oferecer a melhor experiência de navegação em nosso site! Mais informações