+55 11 3995-6919 / +55 11 3900-1010

DevOps

Por Cassius Oliveira
Muitos pensam que essa é uma das maiores novidades no mundo da TI, outros já afirmam que é algo que sempre aconteceu em empresas de estruturas menores. Mas atualmente a cultura DevOps é algo imprescindível no mundo da tecnologia. Até 2007, o desenvolvimento de software sempre foi um processo bem definido. Em que os desenvolvedores e os profissionais de infraestrutura tinham funções totalmente independentes. Um era responsável pelo desenvolvimento e o outro já se preocupava com a manutenção e o bom funcionamento da estrutura. Só que a partir desse ano, um novo movimento começou a surgir e se transformou em uma cultura agora difundida em empresas de todos os setores, que envolve a adoção de uma comunicação aberta, transparência e um trabalho em equipe contínuo.

A Cultura DevOps

A cultura DevOps envolve uma colaboração mútua e uma responsabilidade compartilhada entre as equipes de desenvolvimento e infraestrutura na criação e manutenção de aplicações. Isto ajuda as empresas a alinhar seus colaboradores, processos e ferramentas em direção a um foco mais unificado no cliente. Diferentemente do passado onde os processos eram feitos de forma totalmente separados, as equipes assumem a responsabilidade por todo o ciclo de vida de um produto ou serviço. A cultura DevOps preza na ideia de que os desenvolvedores não apenas atuam na parte de construção, mas também no momento de execução, trazendo para dentro da equipe um maior entendimento dos requisitos e necessidades do usuário e as implementando no processo de desenvolvimento da aplicação, para assim ser possível criar um produto mais assertivo.

DevOps é na verdade uma mudança de cultura organizacional que enfatiza o aprendizado e a melhoria contínua, especialmente através da autonomia da equipe, feedback rápido, alta empatia e confiança, e colaboração entre as equipes. De acordo com relatório da Atlassian, mais de 90% das empresas tiveram um impacto direto em seus negócios ao implementar a cultura DevOps em seus processos, o que prova o poder da transformação desse movimento.

Veja nossa Live que abordou sobre o conceito de DevOps!

Benefícios da cultura DevOps

  1. Comunicação Contínua
  2. Um dos grandes problemas que eram encontrados no passado é o ruido de comunicação entre as equipes de desenvolvimento e operações, e a cultura DevOps veio para mudar esse paradigma proporcionando uma comunicação contínua durante a criação, desenvolvimento e manutenção da aplicação. Assim aumentando a qualidade do produto final.

  3. Processo otimizados
  4. A cultura DevOps preza pela automação de processos e metodologias, com o auxílio de ferramentas do mercado de tecnologia é possível implementar processos de integração contínua (CI) e Entrega Contínua (CD), capazes de realizar entregas mais rápidas e de qualidade.

  5. Segurança
  6. Com os benefícios já mencionados acima, a implementação da cultura DevOps nas empresas reduz consideravelmente o risco de falhas, além de diminuir o tempo de resposta a incidentes que possam comprometer o desenvolvimento do projeto.

  7. Redução de custos
  8. Com a integração de equipes por meio da cultura DevOps na realização de um projeto é capaz de diminuir o tempo na execução das tarefas e consequentemente o custo de cada etapa, uma economia que faz bastante diferença no projeto como um todo.

Educação 4.0

Educação 4.0

Por Cassius Oliveira
Graças a uma cultura de inovação contínua presente em diversas empresas mundo afora, às necessidades da indústria 4.0 e de tecnologias como o Big Data e a Inteligência Artificial (IA), as instituições de ensino precisaram se reinventar. Velhos métodos de aprendizagem que englobam basicamente a sala de aula com lousa, giz e papel já não são suficientes para atender as demandas das novas gerações de alunos que certamente ocuparão cargos que ainda nem existem. Ao mesmo tempo, encaramos um momento singular em que escolas do mundo inteiro tiveram suas portas fechadas e se viram forçadas a implementar o ensino a distância de uma hora para outra.

Mas o que é Educação 4.0?

A Educação 4.0 é um novo modelo de aprendizagem que busca se alinhar as demandas da quarta revolução industrial que se concentra na tecnologia inteligente, na inteligência artificial e na robótica dentro dos processos de empresas de todos os setores. Uma modelagem que deve ser aplicada desde os estágios da educação de base, onde os alunos podem desenvolver habilidades de inovação e criatividade até as universidades onde os estudantes podem colocar em prática tecnologias como o Cloud Computing, por exemplo, para assim diminuir a distância, que hoje é clara, entre essas novas profissões e alunos recém formados.

Cloud e Educação

A tecnologia em Cloud pode ser uma grande facilitadora para implementar a Educação 4.0 nos processos de uma instituição de ensino. Ela pode trazer uma moderna abordagem de ensino e aprendizagem, a utilização de softwares como o Moodle, um serviço open-source projetado para ajudar profissionais da educação a criar um método de aprendizagem de forma totalmente eficaz, e o Amazon AppStream 2.0, um serviço de streaming de aplicativos totalmente gerenciado, que facilita a virtualização de espaços de laboratório de informática, além de oferecer um suporte integral ao ensino online.

Uma tecnologia, facilmente utilizada a partir da cloud computing, que pode auxiliar de forma clara setores da educação é a Machine Learning, pois ela pode ser utilizada tanto em sala de aula no processo de desenvolvimento de alunos, como para detectar estudante em dificuldades de forma preventiva e agir de forma mais assertiva, além de auxiliar na retenção de alunos.

Assim como outras empresas, as instituições de ensino pretendem investir na tecnologia em cloud nos próximos anos, a expectativa é que, de acordo com a VexxHost, o mercado de cloud na educação deva girar em torno de US$ 54 milhões. A partir desse cenário, a Amazon Web Services (AWS) investe constantemente neste setor além de oferecer um grande portfólio voltada para empresas de educação, como o Amazon Workspaces, um serviço gerenciado que ajuda a provisionar desktops Windows ou Linux, para assim auxiliar aulas remotas, além do AWS Educate, um portal completo tanto para instituições quanto para estudantes.

Benefícios da Educação 4.0

A Educação 4.0 traz diversos benefícios tanto para as instituições de ensino quanto para os alunos. Assim como para as demais empresas, a tecnologia em cloud proporciona entregas mais rápidas, um melhor desempenho no ambiente de TI da instituição, mais segurança nas informações tratadas na estrutura além da otimização de custos, que aparece como uma grande vantagem, uma vez que o modelo pay-as-you-go, bastante utilizado nas plataformas, pode auxiliar as instituições de ensino no período de férias, em que a demanda é baixa.

Veja nosso artigo sobre Cloud e Educação! E veja tudo sobre tecnologia no Blog da Darede!

O que é API?

Por Cassius Oliveira
No artigo sobre o conceito de Open Banking, apresentamos a API como uma forma de padronizar a forma de operar e tornar acessível o largo volume de dados a serem compartilhados entre instituições do setor financeiro. Mas você sabe qual é a real função da API? Para muitos leigos, esse é um termo que talvez precise de uma pesquisa mais profunda para entender sua função e importância no mundo da TI, mas acredite, você convive com ela diariamente mesmo sem saber de sua existência. Já para programadores, independentemente de sua experiência, esse recurso com toda certeza é bem conhecido.

Mas afinal, o que é API?

Imagine um aplicativo de transporte, como o Uber, por exemplo. Para que ele funcione de forma eficiente, o motorista da plataforma necessita saber com exatidão onde o passageiro está localizado por isso a aplicação necessita utilizar uma API de geolocalização como a do Google Maps, por exemplo. Outro bom exemplo bem comum na rotina dos usuários, seria a autenticação de login de um site qualquer através do Facebook.

API (Application Programming Interface) basicamente é um conjunto de definições e processos que auxilia no desenvolvimento e integração de aplicações. Ela facilita a incorporação de funcionalidades de uma solução para um serviço, assim podendo compartilhar ferramentas, padronizações, protocolos, entre outros recursos tecnológicos. A API permite essa comunicação mesmo sem ter o conhecimento da forma que o sistema foi desenvolvido, o que torna o processo de desenvolvimento mais flexível e desacoplado. Apesar disso, essa troca de informações é extremamente segura, isso porque existem mecanismos de autenticação e autorização que tornam o acesso às informações seguro e segmentado, tornando possível restringir ou liberar o acesso a um usuário ou um grupo de usuários, por exemplo. Ferramentas como o Amazon API Gateway, auxiliam na criação, gerenciamento e segurança de APIs, tornando muito mais simples para o desenvolvedor tarefas como a administração de tráfego, autorização e controle de acesso, monitoramento, entre outros recursos que buscam otimizar o uso de suas APIs.

Entenda mais sobre o conceito de API Gateway em nosso canal do YouTube.

Existem dois tipos de API:

Privadas: usadas apenas internamente, entre aplicações da empresa ou de parceiros, assim oferecendo um maior controle sobre as informações compartilhadas. Ex: Siri, assistente virtual da Apple, usa um API privado voltado apenas para usuários de produtos da empresa;
Públicas: podem ser utilizadas livremente para desenvolver aplicações utilizando recursos e dados entre usuários e empresas. Ex: O uso de APIs do Google Maps em aplicativos de transporte, a autenticação de logins com o Gmail e Facebook são exemplos de APIs públicas.

Quer mergulhar de forma mais detalhada sobre o conceito de APIs e outros temas do mundo da Cloud Computing? Veja nossas vídeos no Youtube e acompanhe nossos artigos no Blog da Darede!

*Revisado por Leandro Damascena

Cloud Security: a segurança na nuvem

A segurança é um dos principais benefícios da tecnologia em cloud. Mas muitas pessoas ainda possuem grande desconfiança de como suas informações podem estar protegidas em um ambiente em cloud, algo justificável, uma vez que apesar de sua popularização, o uso de cloud computing ainda é relativamente novo. No entanto, não há nada o que se preocupar. Muito pelo contrário, uma infraestrutura em cloud possui uma segurança similar aos de servidores físicos, e de muitas outras estruturas. Além da vantagem de que em cloud não são necessários alguns gastos com manutenção e determinados serviços e soluções.

O que é segurança em cloud?

Muitos pensam que a segurança em cloud se baseia em dados criptografados, ou na simples proteção de informações trabalhadas em um ambiente. Mas é muito mais do que isso. Esse conceito consiste em um completo pacote de métodos, práticas e ações que buscam manter a confidencialidade, integridade e disponibilidade de sua estrutura. Aspectos muito similares a uma arquitetura física, aliada com os diversos benefícios econômicos, número de serviços e funcionalidades e de desempenho que a cloud computing pode oferecer.

Veja no canal da Darede nossas lives sobre segurança em cloud e compliance!

Provedores de serviços em cloud, como a Amazon Web Services, oferecem diversas ferramentas, como o AWS IAM, que tem a capacidade de gerenciar o acesso de usuários, o AWS Security Hub, que disponibiliza um centro unificado de conformidade e segurança, o Amazon GuardDuty que oferece um serviço de detecção de ameaças, além do Inspector que extrai relatórios de conformidade de segurança em sistemas operacionais Windows e Linux, entre outros.

Acesse o site da AWS e entenda todos os serviços de segurança da plataforma!

Matriz de Responsabilidades Compartilhadas

Mas apesar disso, o trabalho de manter um ambiente totalmente seguro não é apenas das plataformas. Os usuários também possuem responsabilidades através de um modelo de responsabilidade compartilhada em que as obrigações de se manter uma infraestrutura em cloud segura é dividida entre todos os envolvidos. O diagrama abaixo (matriz de responsabilidades compartilhadas) ilustra de formas gerais, como são divididas as responsabilidades da AWS e de quem usa AWS.

É importante ressaltar que essa matriz muda para diferentes tipos de serviço, por exemplo, quando se fala de um bancos de dados relacional gerenciado, para o RDS da AWS a responsabilidade sobre o Sistema Operacional é da AWS e não do cliente. Acompanhe mais detalhes sobre aqui.

Quais as principais vulnerabilidades de um ambiente em cloud?

Assim como qualquer sistema, um ambiente em cloud pode apresentar alguns problemas. O que reforça a necessidade de ferramentas como o Amazon GuardDuty, que permite a investigação de possíveis falhas e vulnerabilidades em sua infraestrutura. Mas existem alguns riscos que são capazes de proporcionar uma experiência ruim no uso da tecnologia em cloud. Práticas como a má configuração dos serviços, problemas no controle de acesso de dados, a criação ou o uso de APIs inseguras e a falta de uma estratégia de Disaster Recovery (confira o artigo no blog da Darede sobre esse conceito) podem deixar seu ambiente em cloud exposto a falhas e ameaças. Assim podendo gerar violação dos dados, sequestro de contas, falhas na estrutura, entre outras vulnerabilidades.

O que preciso observar antes de mudar para cloud?

Para tomar as melhores decisões no processo de migração para cloud, é preciso observar algumas questões. A principal delas, é a definição dos objetivos de sua empresa. Reduzir custos? Aumentar a produtividade? Aumentar a segurança? Após essa definição, é preciso entender as limitações de sua estrutura, empresas de consultoria, como a Darede, realizam uma análise completa de seu ambiente, apontando o melhor caminho para mirar para cloud. E por fim, entender como a tecnologia em cloud pode ajudar sua empresa atingir seus objetivos.

Conheça a campanha Assessment Darede!

Quer saber como deixar seu ambiente de TI mais seguro? Os profissionais da Darede estão prontos para analisar e implementar um ambiente seguro, econômico e otimizado. Conte conosco!

Microsserviços

Conforme o uso de cloud computing começa a se popularizar, obtemos arquiteturas cada vez mais complexas, gerando a necessidade de atualizações frequentes e ágeis, por isso o conceito de microsserviços se tornam uma boa opção para se construir um ambiente em cloud. E essa abordagem tem se consolidado como o preferido entre as empresas de tecnologia, uma vez que de acordo com pesquisa da Kong, 84% das organizações entendem que arquiteturas em microsserviços representam um novo paradigma ao desenvolver aplicações e as utilizam em seus ambientes em cloud.

Mas, o que são microsserviços?

Imagine um quebra-cabeças. E cada peça é construída por pequenas equipes e de forma independente. Mas que juntas elas formam um conjunto unificado. Os microsserviços funcionam praticamente dessa forma. Eles são uma abordagem de arquitetura em que são realizados pequenos serviços de forma autônoma, mas que se comunicam entre si através de APIs ou outras tecnologias. A arquitetura baseada em microsserviços, podem trazer escalabilidade para o ambiente, entregas contínuas, resiliência, além oferecer a capacidade de desenvolver aplicações com maior velocidade, e tirar proveito dos constantes avanços tecnológicos.

Confira nossos especialistas falando sobre o conceito de microsserviços

Microsserviços X Monolito

A arquitetura monolítica é uma forma mais tradicional de desenvolver aplicações, pois ela trabalha em apenas um monolítico executável, ou seja, ao contrário da arquitetura em microsserviços, a equipe de TI trabalha em um processo único em que diversos módulos do sistema são executados em uma mesma máquina, assim compartilhando recursos de processamento, memória, bancos de dados e arquivos. Essa característica não anula a capacidade de se obter um ambiente totalmente escalável, porém neste caso toda a arquitetura será escalada. Mas as dependências de processos comprometem a disponibilidade de arquiteturas monolíticas, bem como um maior impacto no sistema em casos de falhas.

Com uma arquitetura em microsserviços é construída em blocos independentes podendo ser executados de forma autônoma. Fazendo com que possam ser corrigidos em casos de falhas de forma isolada e escalados do mesmo jeito em picos de demanda, assim trazendo flexibilidade de redução de custos para o ambiente. A partir da comunicação via APIs ou desacoplamento, a arquitetura de microsserviços também pode ser reaproveitada em múltiplas aplicações.
Como pode ser visto na imagem a seguir:

Assim como apresentada na imagem acima enquanto a arquitetura monolítica trabalha com todos os serviços em um único processo, os microsserviços podem ser divididos em diversos serviços e pequenas equipes de forma que facilite o desenvolvimento de uma aplicação em cloud.

Também é importante ressaltar que após anos de uso de arquiteturas com microsserviços, foram desenvolvidas uma série de boas práticas sobre como devemos implementá-las, por isso é imprescindível buscar um parceiro como a Darede que pode lhe guiar nesse universo.

Acompanhe outros artigos sobre o mundo da TI no blog da Darede!

O que é Open Banking?

2020 foi um ano muito importante para o setor bancário brasileiro. Dois sistemas que prometem mudar a forma de como nos relacionamos com os serviços bancários foram oferecidos. O primeiro é o PIX, a tecnologia de pagamentos instantâneos, que entrou em vigor no mês de novembro. E o Open Banking em que suas regras de funcionamento foram aprovadas pelo Conselho Monetário Nacional (CMN) e o Banco Central (Bacen) e será implementado gradualmente ao longo de 2021. Esse sistema tem como objetivo trazer mais opções de produtos, com o menor custo, além de mais transparência para dar mais autonomia para a vida financeira para os usuários finais.

O que é Open Banking?

Imagine o momento em que você irá se cadastrar em algum site qualquer. Nele tem a opção de utilizar seus dados do Google ou de alguma rede social para realizar a ação, podendo ser seu nome, e-mail ou qualquer outra informação necessária. Assim podendo compartilhá-las para atingir o objetivo de acessar aquele site. O Open Banking funciona de maneira similar a esse processo. Esse conceito se baseia em um conjunto de regras e tecnologias que permitem o compartilhamento de serviços e dados de clientes entre instituições financeiras, tudo isso a partir do consentimento das pessoas.

Por exemplo, caso você tenha o interesse de contratar algum serviço bancário, como um empréstimo, é possível utilizar seu histórico em outros serviços utilizados em outra instituição para que você possa conseguir maiores limites e melhores taxas. Mesmo que o requerente não seja necessariamente correntista do banco. Assim deixando esse processo menos burocrático e mais simples para o usuário comum.

Confira a atuação da Darede no Banco Máxima!

Mas como cloud computing influencia no Open Banking?

O Open Banking irá trabalhar com uma enorme quantidade de dados. Para se ter uma ideia, as informações que serão compartilhadas são as mesmas que usam para abrir a conta em um banco. A tecnologia em cloud auxilia as instituições financeiras a operar e armazenar um grande volume de dados, bem como garantir a segurança e transparência nesse processo de compartilhamento de dados. Esse procedimento será feito de forma padronizada, por isso ele será feito através de APIs. Assim as instituições financeiras vão poder realizar essa troca de informações de forma rápida e segura.

A AWS possui serviços capazes de proporcionar um ambiente em cloud escalável e estável em que seja possível garantir que esse compartilhamento de dados sejam realizados de forma totalmente segura. Ferramentas que estão em conformidade com as principais regulações mundiais, como GDPR, FIPS 140–2 e FedRAMP, por exemplo. Cloud Computing também pode ajudar as instituições financeiras na adaptação da Lei Geral de Proteção de Dados, recém regulamentada pelo Governo Federal.

O conceito de Open Banking já é uma realidade em diversos países mundo afora, uma vez que o Reino Unido já trabalha com esse sistema desde 2018, a Índia vem dando seus primeiros passos. Enquanto países como os Estados Unidos, Canadá e Rússia ainda analisam formas de implementá-lo em seus sistemas bancários, já que o Open Banking não possui um formato específico. O Open Banking busca trazer autonomia para as instituições financeiras e liberdade para os clientes escolherem a melhor forma de se relacionar com elas.

Confira mais artigos de tecnologia em nosso blog!

Microsoft Azure passa a faturar em Reais

A Microsoft anunciou nesta quinta-feira, 28, que, a partir do dia 1.º de março, irá adequar o valor dos serviços da plataforma Azure para o real. Com isso, o custo das ferramentas do Azure serão reajustadas em 21% para que seja possível alinhá-las aos preços praticados em dólar. Entretanto, a Microsoft garante que, mesmo com esse reajuste, os usuários do Azure que optarem pelo faturamento em real, o valor desses serviços continuará competitivos.

Com uma avaliação periódica do valor de seus produtos, a Microsoft busca garantir um alinhamento entre regiões e suas moedas, de forma que uma valorização ou desvalorização cambial não prejudique os usuários da plataforma, e esse reajuste é a prova disso.

Veja como as mudanças do faturamento do Azure afetam cada modalidade de contrato:

Contratos Enterprise

As empresas que possuem assinaturas do Contrato Enterprise, terão a proteção dos valores dos serviços já contratados. E ao adquirir novos recursos terão a vantagem de obter um preço base menor ou de um preço de mercado, dependendo da ferramenta. O que garante que se o preço de mercado for superior ao preço base, sua empresa não tenha um aumento expressivo nos custos dos serviços contratados.

Clientes no modelo Pay-as-You-Go

Os clientes do modelo Pay-as-you-go não possuem requisitos mínimos de compra e possuem custos altamente flexíveis. E para esses usuários, o valor dos serviços contratados serão reajustados de forma que se aliem aos preços praticados na moeda americana.

Azure in Cloud Solution Program (CSP)

Os preços dos serviços contratados pelos clientes do CSP no Brasil não serão faturados em real, por isso não serão afetados por essa mudança.

Programa Open Licensing

Assim como os usuários que adquirem os serviços do Azure através do modelo Pay-as-you-go, os clientes que integram o programa Open Licensing também terão um reajuste nas taxas de consumo, que a partir de 1.º de março, serão ajustados para se alinhar ao dólar.

Em caso de dúvidas entre em contato com a Darede! Nossos profissionais, especialistas em Microsoft, estarão prontos para sanar todas suas questões!
Mande um e-mail para: contato@darede.com.br

Confira os melhores artigos de tecnologia em nosso blog!

Containers: o velho novo recurso de cloud

O conceito de container não é novo, mas com a escalada da tecnologia em cloud nas empresas, esse recurso acabou se popularizando. A causa disso pode se dar na capacidade de aumentar a agilidade e produtividade do time de desenvolvimento, através da possibilidade de executar aplicações em qualquer sistema operacional, trazendo um ar de inovação para a ferramenta.

Mas o que é um container?

Imagine uma caixa que contém todos os comandos, dependências e ferramentas necessárias para você criar e/ou implementar aplicações isoladamente. Tudo isso em um ambiente totalmente virtualizado e compartilhado com o kernel do servidor. Sem preocupações com sua infraestrutura e sistema operacional. Esse é o conceito básico de cloud containers. Esse recurso se baseia em um método padrão que é capaz de unir o código, as configurações e dependências de um aplicativo num único objeto. Assim permitindo realizar implantações de forma rápida e consistente.

Veja nossos especialistas explicando o conceito de containers

Benefícios de containers

Redução de custos — Essa é uma vantagem amplamente citada, mas ao utilizar cloud containers, auxilia sua empresa a manter uma infraestrutura enxuta, bem como elimina a necessidade de instalar e configurar sistemas operacionais evitando a necessidade de possuir profissionais apenas para essa tarefa e resultando em uma economia na mão de obra.
Disponibilidade — Conforme abordado anteriormente, ao utilizar cloud containers em seu ambiente, você não possui preocupações com seu sistema operacional, ou seja, ele elimina o problema de ‘isso não roda na minha máquina, pois ele permite a portabilidade entre sistemas operacionais e até em diferentes tipos de nuvem. Podendo ser implantado em qualquer lugar.
Processos otimizados — Esse outro benefício de cloud computing que é bastante propagado. Mas com a vantagem de não instalar e configurar o sistema operacional do seu sistema, a aplicação ganha o protagonismo, podendo ser trabalhada de forma isolada. Assim otimizando o tempo de sua equipe de TI.

Containers X Virtual Machines

Ao iniciar na nuvem, muitas pessoas podem confundir o conceito de containers com o de virtual machines. De fato, ambos possuem objetivos similares: criar e implementar aplicações e suas dependências de forma isolada para que possam ser executadas em qualquer sistema. Mas elas possuem diferenças práticas nos aspectos de suas arquiteturas, conforme pode ser visto na imagem a seguir:

Como é possível compreender, através da imagem acima, o uso de containers é uma forma ágil, leve e dinâmica, para construir e implantar aplicações de forma isolada, o que permite manter a estabilidade de seu ambiente, garantindo produtividade e excelência operacional.

Confira mais artigos sobre cloud computing no blog da Darede

O que é EC2 Auto Scaling?

Um dos grandes benefícios da cloud computing é a confiabilidade. A possibilidade de aumentar e diminuir seu ambiente de TI, é ideal tanto para a estabilidade, uma vez que caso uma instância venha apresentar problemas, seu negócio terá outro servidor disponível em outra zona de disponibilidade. Quanto para reduzir os custos com a infraestrutura, já que em momentos de baixa demanda, é possível diminuir o número das instâncias, assim evitando gastos desnecessários com aquelas que estão ociosas.
Um bom exemplo de como a escalabilidade auxiliaria diretamente no desempenho de um serviço em uma empresa é o caso de uma livraria online que prometeu 10% de desconto para cada gol tomado pela seleção brasileira contra a Alemanha, em jogo da Copa do Mundo de 2014. O Brasil concedeu 7 gols e a loja virtual teve de oferecer 70% de desconto em todo o site. A promoção foi um sucesso, mas devido à demanda de acessos e negociações, a loja não aguentou e saiu do ar. Causando frustração dos consumidores e prejuízo para o negócio.

Mas, o que é EC2 Auto Scaling?

É aí que entra o conceito de EC2 Auto Scaling, que consiste em um serviço que garante o volume necessário de instâncias de forma automática com objetivo de manter o alto desempenho das aplicações hospedadas em cloud com o menor custo. Utilizando o EC2 Auto Scaling, seu negócio terá à disposição o número exato de instâncias, evitando ociosidade em tempos de baixa demanda e garantindo a estabilidade em picos de alto consumo. Voltando ao caso abordado anteriormente, essa ferramenta certamente faria com que a loja virtual suportasse a quantidade de acessos e negociações advindas da promoção do site. Além disso, é possível provisionar o número de instâncias a partir de uma política de estabilidade, indicando a capacidade máxima e mínima que seu ambiente trabalhará. O EC2 Auto Scaling irá ativar ou desativar as instâncias conforme a demanda da aplicação.

Veja nossa live sobre EC2 Auto Scaling!

Benefícios

Estabilidade e Alta disponibilidade – Havendo a possibilidade de utilizar o EC2 Auto Scaling em diversas zonas de disponibilidade da AWS, é possível ter mais estabilidade em no ambiente, assim caso uma zona fique indisponível pode-se ativar instâncias em outras zonas. Além disso, com esse serviço, há a possibilidade de substituir instâncias que não estejam em pleno funcionamento, assim encerrando aquela que apresenta alguma falha que poderia gerar instabilidade na aplicação.

Menos custos – Em todos os artigos sobre os benefícios de cloud computing nos negócios, a redução de gastos é apontada. Mas vamos trazer um exemplo prático de como essa vantagem pode ser apresentada. Imagine que sua empresa possui um servidor físico, caso sua demanda aumente em um curto espaço de tempo, talvez você tenha que adquirir outro servidor para garantir a estabilidade, assim trazendo mais custos. Mas caso haja uma grande redução na demanda, você terá servidores ociosos e custosos. Assim como os serviços de nuvem, o EC2 Auto Scaling trabalha no modelo on demand , ou seja, você pagará apenas pelas instâncias que utilizar, conseguindo assim, ter maior gerenciamento e planejamento nos gastos.

Confira um diagrama que explica melhor sobre esse conceito:

Leia mais artigos em nosso blog!

O que é Disaster Recovery?

Ao longo do desenvolvimento de um negócio, muitos osbstáculos precisam ser ultrapassados. Mas por mais que existam estratégias de crescimento bem definidas, que possam trazer alguma previsibilidade para o futuro, fatores tanto externos quanto internos podem prejudicar o andamento do projeto. Principalmente no setor da tecnologia que em muitas ocasiões pode sofrer com falhas e vulnerabilidades. Resultando em problemas na infraestrutura e podendo causar grandes prejuízos nas empresas. De acordo com a pesquisa Global Data Protection Index – Cloud Environments 2020 promovida pela Dell Technologies 47% das empresas que tiveram algum problema em seu ambiente de TI. Como perda de dados ou ataques cibernéticos, por exemplo, tiveram complicações no desempenho de suas equipes. O que reforça a necessidade de possuir, além de um plano de contingência e redundância, uma estratégia de Disaster Recovery. Ideal para manter seu negócio online em caso de imprevistos.

O conceito de Disaster Recovery

Disaster Recovery (DR) consiste em uma série de ações que tem como objetivo recuperar dados e restaurar processos em caso de problemas eventuais. Podendo ser oriundos de crimes virtuais, falha humana ou até desastres naturais. Buscando sempre reestabelecer a normalidade com impacto mínimo e de forma ágil, tentando ao máximo preservar a produtividade da empresa.
Para que esse conceito seja eficaz em sua empresa será necessário traçar um plano de recuperação de desastres, ou Plano de Recuperação de Negócio (PCN), no qual mapeia todos os recursos de sua infraestrutura, analisa riscos, falhas ou vulnerabilidades que possam afetar o ambiente de TI de seu negócio. Além de criar uma estratégia definida que direcionará as medidas de recuperação de desastres a serem seguidas.

Veja nossa live sobre Disaster Recovery!

Após uma completa análise de riscos, são definidas duas métricas dentro da estratégia de Disaster Recovery. Sempre com o objetivo de diminuir o prejuízo de sua empresa em caso de imprevistos. O Recovery Time Objective (RTO), que se baseia na identificação do máximo período em que todo ambiente ou apenas alguma aplicação pode ficar indisponível, dependendo do tamanho da falha, por exemplo, 15 minutos ou 1 dia. E o Recovery Point Objective (RPO), que define uma quantidade mínima de informações que precisam ser recuperadas de modo a diminuir o impacto do incidente em seu negócio. Ou o quanto de informação o negócio aceita que seja perdida. Com essas definições, será possível saber com maior precisão de quanto tempo sua empresa necessitará para corrigir o problema.
Baseado nessas métricas, que são definidas em conjunto com a equipe de Tecnologia, adicionamos ao plano ações como ter servidores de backup. Além de ter um plano de backup para recuperar o ambiente em determinado tempo.

É importante ressaltar que o Disaster Recovery precisa ser visto como uma medida preventiva e recuperativa. Por isso é importante possuir uma estratégia bem detalhada para a recuperação de desastres. Devendo conter ferramentas que tem o objetivo de garantir a segurança dos dados de sua empresa. Bem como medidas que irão minimizar os riscos de falha humana que podem trazer vulnerabilidades em suas informações.

O advento do uso de Cloud Computing facilita muito a criação e eficiência de seu plano de Disaster Recovery. Pois além da facilidade de distribuição geográfica, é possível manter sua contingência desligada para alguns cenários, o que leva o custo com a infraestrutura redundante, próximo de zero. Uma vez que você paga apenas pelo que utilizar.

Assim será possível diminuir o perigo de ameaças contra seu ambiente de TI e por consequência evitar prejuízos.

Veja mais artigos técnicos em nosso blog!