Veja a resposta de algumas questões apontadas na aplicabilidade do pilar de sustentabilidade do well architected da AWS!

O pai ta on!!
Em nosso último post falamos sobre o novo pilar do WA: Sustentabilidade, passando pelos princípios do pilar, e o porquê ele foi criado. Agora vamos focar em 3 (três) das 6 (seis) questões que existem no pilar, e quais as boas práticas para cada uma.


Fonte

Documentação

Primeiramente, preciso compartilhar que a AWS tem um ótimo site onde armazena a explicação detalhada de todos os pilares, e descreve o significado de cada questão e subitem, cito-o:

Pilar de Sustentabilidade

Dito isso, vamos agora passar pelas 3 primeiras questões do pilar:

Questão 01: Como você escolhe as regiões para apoiar suas metas de sustentabilidade

Essa questão possui apenas um subitem (é a questão mais curta de todo o framework) e o objetivo é justamente avaliar se a escolha da região para hospedar o workload tem como base a sustentabilidade.
Como garantir:

A escolha pode ser baseada nas próprias informações da AWS, note que a região de São Paulo, por exemplo (sa-east-1) não possui projeto de energia renovável próximo, o que a desqualificaria como região sustentável.


Fonte

Questão 02: Como você aproveita os padrões de comportamento do usuário para apoiar as metas de sustentabilidade?

A validação nessa questão é a forma com que seu workload consegue se adaptar ao consumo pelos usuários, e como os recursos são posicionados (logica e geograficamente) para atendê-los. Isso ocorre, pois é totalmente possível colocar o workload em Norte Virginia sob o ponto de vista de custos, contudo do ponto de vista de sustentabilidade, a quantidade de energia que o cliente na Tanzânia vai gastar para consumir o dado vai causar impacto.

Como garantir:
Escale a infra com a necessidade do usuário:
1. Escale a infra com a necessidade do usuário: Utilizar serviços serverless, ou mesmo o combo de elasticidade (cloudwatch metrics + elb + asg) é uma ótima forma de garantir.
2. Alinhe os SLAs com as metas de sustentabilidade: Criar as métricas de sustentabilidade são o ponto inicial, com elas é possível avaliar as emissões pelo CUR, e fazer a análise se as metas estão atendendo os requisitos de sustentabilidade criados. Esse item também, provoca o cliente a garantir o último princípio do pilar, ou seja, cobrar terceiros quando ao lifecycle dos dados e ativos. Assim solicitar e/ou ter processos que validem isso é uma forma de atender o item.
3. Pare de utilizar/criar recursos não utilizados: Analisar as métricas de recursos em idle, ou mesmo recursos que podem ser compartilhados (ao invés de ter 12 ALBs, junte em grupos, e segmente via route-path nas rules). É aconselhável também a não processar dados de forma redundante, como armazenar logs no cloudwatch log e em um syslog, ou mesmo ter snapshots manuais e uma política de backup ativa.
4. Otimize a localização geográfica do workload: Resposta mais rápida para isso: CDN. Contudo serviços como ElastiCache, Route53 + geolocalização ou latência também são alternativas interessantes. Obs: No que se tratando de Brasil, talvez esse ponto acabe conflitando com a questão01 do pilar.
5. Otimize os recursos para a equipe: Esse é um item bem interessante, onde basicamente é coberto por utilização de desktops virtuais como o workspaces ou até mesmo o appstream (existe um ótimo artigo comparando os dois aqui no blog). Contudo possuir aluguéis de máquinas físicas também pode ser um ponto a ser considerado, desde que se cobre do fornecedor o mesmo zelo e metas de sustentabilidade.

Questão 03: como você aproveita os padrões de arquitetura para apoiar suas metas de sustentabilidade?

Ao passo que a questão 02 cobra dos padrões de comportamento, a questão03 cobra dos padrões de arquitetura, e sim, nesse ponto é onde temos cross-overs entre os pilares de performance, confiabilidade e custos. A questão no que tange a sustentabilidade, analisa como funcionam a análise de performance e componentes ociosos, assim como a retro compatibilidade dos dispositivos para consumir o seu workload.

Como garantir:
Escale a infra com a necessidade do usuário:
1. Otimize o software e a arquitetura para trabalhos assíncronos: Utilizar microsserviços que vão desde segmentá-los no ECS (note que não é só criar containers, e sim segmentar o serviço) até o EKS é uma forma de garantir, contudo é possível também descomissionar as solicitações em filas com o SQS + Lambdas, até mesmo o combo ELB + ASG + Cloudwatch metrics. Outro ponto bem interessante nesse item é pensar no timestamp do workload, e segmentá-lo ao ponto de ter um processamento constante ao invés de picos.
2. Remova ou refatore recursos com uso baixo: Mais uma vez temos pontos que provocam a utilização da escalabilidade da nuvem. O ponto adicional nesse item é que ele prova também a análise constante da utilização completa dos recursos, e isso pode ser atendido com um processo de ferramentas como o compute optimizer, o trust advisor, e até mesmo o cost explorer. Note que para todos esses itens é possível criar métricas no cloudwatch, com alarmes via SNS.
3. Otimize códigos que consomem mais tempo ou recursos: Manter a monitoração com o cloudwatch é um bom início, contudo o item cobra inclusive análise de código backend, que pode ser garantido com ferramentas como o CodeGuru ou o SonarCube. Além disso é cobrado que se mantenha atualizado as versões das linguagens utilizadas tanto nos lambdas quando no backend da aplicação.
4. Otimize o impacto sobre dispositivos do cliente: um dos pontos mais interessantes do pilar, aqui a recomendação é que você garanta a retro compatibilidade da aplicação com dispositivos antigos, isso pode ser feito desde utilizar o device farm da AWS, até mesmo utilizar otimizar as atividades mais pesadas da aplicação no servidor ao invés do equipamento dos usuários, o que de certa forma poderia ser garantido com o appstream 2.0.
5. Use arquiteturas que comportem de melhor os padrões de armazenamento e acesso a dados: Inicialmente analisar os comportamentos de acesso e utilização de dados com ferramentas como o performance insights vai ajudar a entender o padrão de utilização, contudo o principal ponto nesse item é como gerenciar o lifecycle do dado em si, o que vai desde utilizar arquivos em formatos mais eficientes como o Parquet a até mesmo utilizar datalakes para otimização de acesso.

That’s all folks! Be Happy!!!

foto-thiago-marques

Thiago Marques
Technical Account Manager
thiago.marques@darede.com.br

Technical Account Manager da Darede, formato em Rede de Computadores, e pós graduado em Segurança da Informação. Possui ampla experiência em Datacenters e Service Providers, além de ser um entusiasta em DevOps e mercado financeiro.

OUTRAS PUBLICAÇÕES

Novidades da Semana 16 a 20 de agosto

Por Anderson Santos Todos os dias a AWS lança uma série novidades e atualizações em seus produtos que visam melhorar a vida de seus usuários. Reunimos algumas delas que fazem mais sentido para nosso mercado e que certamente aplicaremos em nosso dia a dia. Confira as novidades das últimas semanas. Compute Amazon API Gateway – Suporte a TLS mútuo com certificados de CAs de terceiros e CA privada ACM O Amazon API Gateway agora permite a autenticação usando TLS mútuo baseado em certificado, onde os certificados digitais são trocados entre o cliente e o API Gateway antes que uma conexão segura seja estabelecida. AWS Lambda – Suporte a Python 3.9 O AWS Lambda agora oferece suporte ao Python 3. Assim permitindo criar funções do AWS Lambda no Python 3.9 e usar seus novos recursos, como suporte para TLS 1.3, novas operações de string e dicionário, além do suporte aprimorado de fuso horário. Amazon EC2 – Novas instancias M6i AWS anunciou as instâncias M6i, expandindo o portfólio de instâncias EC2 de 6ª geração para incluir opções de computação baseadas em x86. A M6i possui Intel Xeon de 3ª geração (codinome Ice Lake) com uma frequência turbo all-core de 3,5 GHz, que oferece desempenho de preço de computação até 15% melhor em relação às instâncias M5 e criptografia de memória sempre ativa usando Intel Total Criptografia de memória (TME). AWS Neuron – Instâncias Inf1 compatíveis com TensorFlow 2 O AWS Neuron , o SDK para executar a inferência de machine learning nas instâncias do Amazon EC2 Inf1 baseadas no AWS Inferentia, agora oferece suporte ao TensorFlow 2. Amazon EC2 – Suporte a chaves ED25519 para autenticação A AWS anunciou que agora é possível utilizar as chaves ED25519 para provar sua identidade ao se conectar a instâncias EC2. ED25519 é um sistema de chave pública baseado em curva elíptica comumente usado para autenticação SSH. Anteriormente, os clientes EC2 só podiam usar chaves baseadas em RSA para se autenticar em instâncias EC2. Amazon WorkSpaces – Novos pacotes com Windows Server 2019 e Microsoft Office 2019 de 64 bits O Amazon WorkSpaces agora oferece novos pacotes com o Windows Server 2019, proporcionando uma experiência de desktop do Windows 10 junto com uma opção de pacote do Microsoft Office 2019 Professional Plus de 64 bits. AWS Elastic Beanstalk – Suporte ao reequilíbrio de capacidade para instâncias spot do Amazon EC2 O AWS Elastic Beanstalk agora oferece suporte ao reequilíbrio de capacidade para grupos do Amazon EC2 Auto Scaling (ASG) . Este recurso reduz as interrupções da Instância Spot para os aplicativos dos clientes. Database Amazon Redshift – Novo recurso de compartilhamento de contas O compartilhamento de dados do Amazon Redshift permite que você compartilhe dados transacionais consistentes em diferentes clusters Redshift sem a complexidade e os atrasos associados às cópias e movimentação de dados. Amazon RDS para SQL Server – Suporte a atualizações automáticas de minor versions O Amazon RDS para SQL Server agora inclui aprimoramentos para o recurso de atualização automática de minor version para instâncias de banco de dados do Amazon RDS para SQL Server. A atualização automática de versão secundária é um recurso que pode ser habilitado para que seu banco de dados seja atualizado automaticamente quando uma nova versão secundária do mecanismo de banco de dados estiver disponível. Security & Governance AWS Systems Manager – Fleet Manager com recurso de geração de relatórios para instâncias gerenciadas O AWS Systems Manager Fleet Manager, um recurso do AWS Systems Manager (SSM) que ajuda a otimizar e dimensionar seus processos de gerenciamento de servidor remoto, agora oferece a capacidade de gerar relatórios instantâneos sobre suas instâncias gerenciadas SSM. O novo recurso permite que você personalize o painel de informações do Fleet Manager, no qual você pode visualizar alertas, status e detalhes de instâncias gerenciadas e fazer o download para visualização e análise local. AWS Transfer Family – Expansão de compatibilidade para clientes FTPS / FTP e aumento do limite para o número de servidores O AWS Transfer Family agora oferece suporte à configuração de um endereço IP acessível para clientes em um servidor FTPS / FTP, permitindo que eles se conectem ao servidor. Além disso, os clientes agora podem escalar facilmente suas cargas de trabalho criando até 50 servidores dentro do AWS Transfer Family em uma única conta e região da AWS, um aumento de cinco vezes no limite anteriormente suportado de 10 servidores. AWS Security Hub – 18 novos controles ao seu padrão de práticas recomendadas O AWS Security Hub lançou 18 novos controles para seu padrão de práticas recomendadas de segurança básica para aprimorar o monitoramento da postura de segurança na nuvem dos clientes. O Security Hub também adicionou 5 parceiros de integração e 3 parceiros de consultoria, o que traz o Security Hub para um total de 71 parceiros. Analytics & Machine Learning Amazon CodeGuru Profiler – Extensão da capacidade de visualizações com uma nova opção de comparação para perfil de aplicativo O Amazon Code Guru Profiler estendeu a capacidade de visualizações com uma nova opção de comparação entre dois intervalos de tempo diferentes do mesmo grupo de criação de perfil. A opção CodeGuru Profiler Compare ajuda a diagnosticar problemas em seu aplicativo para um intervalo de tempo específico de dados de criação de perfil e pode ser usada para identificar melhorias de desempenho em potencial para seu aplicativo. AWS Glue DataBrew – Suporte à gravação de dados preparados em tabelas do AWS Glue Data Catalog S3 baseadas na AWS Lake Formation O AWS Glue DataBrew agora oferece suporte à gravação de dados preparados de tarefas de receita em tabelas AWS Glue Data Catalog S3 baseadas na AWS Lake Formation. Com esse recurso, o DataBrew adota automaticamente as permissões de acesso existentes e a segurança definidas na tabela Glue Data Catalog baseada na AWS Lake Formation e sua localização no Amazon S3 associada. AWS Glue DataBrew – Suporte a transformações de formato numérico O AWS Glue DataBrew agora oferece suporte a transformações de formato numérico, incluindo configuração de precisão decimal, personalização

FRRouting com Docker

Em mais um artigo sobre container, nosso #cloudspecialist Thiago Marques agora traz um overview sobre FRRouting com Docker. Confere aí!

Novidades da Semana 24 a 28 de maio

Por Alan Xavier Todos os dias a AWS lança uma série novidades e atualizações em seus produtos que visam melhorar a vida de seus usuários. Reunimos algumas delas que fazem mais sentido para nosso mercado e que certamente aplicaremos em nosso dia a dia. Confira as novidades das últimas semanas. Networking & Machine Learning AWS X-Ray – Suporte a VPC endpoints O AWS X-Ray agora oferece suporte a endpoints VPC. Com esse recurso, você pode se comunicar com o serviço X-Ray a partir de sua VPC sem expor esse tráfego à Internet pública. Amazon Rekognition – Recurso que detecta até 100 palavras em uma imagem O Amazon Rekognition é um serviço de análise de imagem e vídeo baseado em aprendizado de máquina que pode identificar objetos e conceitos, pessoas, rostos, conteúdo impróprio, além de textos. Agora o Rekognition pode detectar até 100 palavras em uma imagem, o limite anterior era de 50 palavras. Além disso, você obtém maior precisão, especialmente para casos com texto ilegível, que foram rejeitados. Por último, a latência média para cada chamada de API de detecção de texto é reduzida em até 70%. AWS Transfer Family – Suporte a Microsoft Active Directory O AWS Transfer Family adicionou o suporte ao recurso de autenticação com o Microsoft AD. Compute AWS App2Container – Suporte à implantação de aplicativos do AWS App Runner O AWS App2Container (A2C) adicionou o suporte à implantação de aplicativos da web Java e Springboot em contêineres para o AWS App Runner. Com esse recurso, os usuários agora podem direcionar o App Runner como runtime de implantação, além de ECS e EKS que eram compatíveis anteriormente. AWS Compute Optimizer – Novas atualizações O AWS Compute Optimizer lançou novas atualizações para suas recomendações de tipo de instância EC2. Por meio delas, o Compute Optimizer melhorou a qualidade das recomendações, dobrou o número de tipos de instâncias EC2 com suporte, ofereceu insights mais profundos e forneceu aos clientes uma maneira de identificar as alterações de configuração do sistema operacional necessárias para aplicar as recomendações. Amazon Elastic Container Service – Recurso Anywhere disponível A AWS anunciou a disponibilidade do Amazon ECS Anywhere, uma ferramenta que fornece um serviço de orquestração de contêiner totalmente gerenciado que permite aos clientes executar e gerenciar aplicativos em contêineres localmente usando as mesmas APIs, gerenciamento de cluster, monitoramento e pipelines de implantação que eles usam com o Amazon ECS atualmente. Os clientes podem usar o Amazon ECS Anywhere em sua própria infraestrutura, conectando seus servidores ou instâncias ao control plane gerenciado do Amazon ECS. Database & Storage Amazon MSK – Suporte a Apache Kafka versão 2.7.1 O Amazon Managed Streaming para Apache Kafka (Amazon MSK) agora oferece suporte ao Apache Kafka versão 2.7.1 para clusters novos e existentes. AWS Database Migration Service – Suporte a versão 13 do PostgreSQL em preview O AWS DMS anunciou suporte ao PostgreSQL versão 13 no modo preview. Amazon Aurora MySQL – Maio disponibilidade das réplicas de leitura O Amazon Aurora MySQL Compatible Edition agora mantém a disponibilidade de leitura mesmo se o master reiniciar. Anteriormente, quando o master era reiniciado, todos os nós em um cluster Aurora MySQL também eram reiniciados também. Com o lançamento, os nós de leitura continuarão a atender às solicitações durante a reinicialização do master. Amazon Aurora with MySQL – Compatibilidade com instâncias do tipo T3.large O Amazon Aurora MySQL agora é compatível com instâncias do tipo t3.large. Anteriormente as instâncias suportadas eram apenas: t3.medium, t3.small e instancias r5. Amazon FSx for Lustre – Suporte a compactação de dados O Amazon FSx for Lustre agora oferece suporte à compactação de dados, permitindo que você reduza o custo de armazenamento para aprendizado de máquina e computação de alto desempenho. Security AWS Security Hub – Suporte à integração bidirecional com Atlassian Jira Service Management O AWS Security Hub agora oferece suporte a uma integração bidirecional com Atlassian Jira Service Management (JSM). Essa atualização possibilita a criação e atualização de problemas de modo automático no Jira, tudo isso a partir das descobertas do AWS Security Hub. Essa integração está disponível por meio do AWS Service Management Connector para o aplicativo JSM. AWS Wavelength – Compliance com System and Organization Controls (SOC) O AWS Wavelength agora está compliance com o SOC 1, 2 e 3. Quer saber as novidades da AWS das últimas semanas? Leia nosso blog! E acompanhe toda sexta-feira em nosso canal do Youtube nossa live sobre as Novidades da Semana.

Cloud Computing: Tendências

Nos últimos anos, a cloud foi uma das áreas que mais cresceram, e a expectativa futura é ainda mais animadora. Confira o artigo sobre suas tendências.

Nós usamos cookies para garantir e oferecer a melhor experiência de navegação em nosso site! Mais informações