Olá, meu nome é Gabrielle Ribeiro, sou instrutora aqui na Alura.
Audiodescrição: Gabrielle se identifica como uma mulher parda. Tem olhos castanhos e cabelos lisos com franja tingido de laranja. Usa óculos de grau de armação redonda e piercing na sobrancelha, no septo e no lábio. Está com uma blusa laranja sem mangas e sentada em uma cadeira gamer preta nos estúdios da Alura. Ao fundo, uma estante decorada à direita, iluminada em tons de azul e roxo.
Boas-vindas a este curso!
Se você é uma pessoa desenvolvedora ou atua na área de DevOps e deseja aprofundar seus conhecimentos sobre escalabilidade e monitoramento de aplicações, está no lugar certo.
Criaremos balanceadores de carga utilizando o Elastic Load Balancer e configurar a escalabilidade da nossa aplicação com o Auto Scaling. Também iremos monitorar métricas importantes por meio do CloudWatch, criando dashboards e configurando alarmes. Por último, realizaremos o processamento de logs com o CloudWatch Logs e funções Lambda.
Aprenderemos tudo isso utilizando o back-end do Adopet, um portal de adoção de animais. De forma prática, vamos escalonar e monitorar essa aplicação na nuvem.
Para aproveitar melhor este conteúdo, é interessante que você tenha concluído os cursos anteriores da formação "Começando em Cloud Computing".
Aproveite os recursos da nossa plataforma! Além dos vídeos, temos atividades, nosso fórum para dúvidas e também a comunidade no Discord.
Até os próximos vídeos!
Já temos nossa instância que executa o back-end da aplicação Adopet na EC2.
As instruções para configurar essa instância estão disponíveis na atividade de preparação do ambiente desta aula.
No momento, para manter a aplicação em funcionamento, é preciso manter o terminal da instância aberto, executando o comando que inicia a aplicação.
No entanto, no contexto deste curso, onde trabalhamos com escalabilidade e monitoramento, precisamos que a aplicação esteja rodando 100% do tempo. Para ajustar esse detalhe, faremos uma configuração na aplicação.
Com o console da AWS aberto na página que lista todas as instâncias, localizamos a instância do adopet-backend
, que está em execução na coluna "Estado da instância".
Selecionamos essa instância, clicamos em "Conectar" na parte superior esquerda e, em seguida, clicamos novamente em "Conectar" para acessar o terminal da instância. Isso nos permitirá realizar as configurações necessárias para manter a aplicação ativa o tempo todo.
Para isso, configuraremos a aplicação como um serviço do Ubuntu. Dessa forma, mesmo que a página do terminal seja fechada, a aplicação continuará sendo executada. Configuraremos a aplicação como serviço.
Para tal, precisamos adicionar um arquivo de serviço em uma pasta específica do Ubuntu. Criamos o arquivo com o comando:
sudo vim /etc/systemd/system/adopet-backend.service
/etc/systemd/system/
: pasta onde são armazenados os serviços do Ubuntu.adopet-backend.service
: nome do serviço..service
: indica que as configurações feitas dentro desse arquivo correspondem a um serviço.Rodamos o comando e, com isso, entramos no Vim.
No Vim, habilitamos a edição pressionando a tecla "A" e colamos o código da configuração:
[Unit]
Description=Adopet backend como serviço
After=network.target
[Service]
ExecStart=/usr/bin/npm run start:prod
StandardOutput=file:/var/log/adopet-backend.log
StandardError=file:/var/log/adopet-backend-error.log
WorkingDirectory=/home/ubuntu/adopet-backend
Restart=always
User-ubuntu
Group-ubuntu
Environment PATH=/usr/bin:/usr/local/bin
Environment-NODE_ENV=production
[Install]
WantedBy=multi-user.target
Vamos entender os pontos principais.
No trecho de "Unit
", descrevemos o serviço, especificando que adopet-backend
é um serviço. Na seção "Service
", configuramos os detalhes do serviço. Na linha ExecStart
, indicamos o comando para executar a aplicação, especificando o caminho do npm
.
Dica: Para encontrar o caminho do npm na instância, digitamos "
which npm
" no terminal. Em seguida, acessamos o caminho indicado e executamospwd
para copiá-lo.
Provavelmente, será o mesmo caminho que estamos usando. Logo após o caminho, especificamos o comando run start:prod
para iniciar a aplicação no modo produção.
Definimos o StandardOutput
e StandardError
, indicando onde serão salvos os logs normais (execução da aplicação) e de erro da aplicação. Em WorkingDirectory
, especificamos o diretório da aplicação, especificando o caminho com /home/ubuntu/
e o nome da pasta do projeto (adopet-backend
).
No caso, corrigimos para -cloud
, que é o nome da pasta onde está o back-end do Adopet.
(código omitido)
WorkingDirectory=/home/ubuntu/adopet-backend-cloud
(código omitido)
O Restart
está configurado como always
, garantindo que a aplicação continue rodando mesmo após reiniciar a máquina.
Especificamos o User
e Group
como ubuntu
. Log após, definimos algumas variáveis de ambiente e questões do ambiente. Após entender a configuração, salvamos as modificações com "ESC
", digitando ":X
" e teclando "Enter".
Precisamos recarregar o Systemd para reconhecer o novo serviço com o comando:
sudo systemctl daemon-reload
Não há retorno para o comando acima.
Agora, inicializamos o novo serviço com:
sudo systemctl start adopet-backend.service
Teclamos "Enter".
Não há retorno para o comando acima.
Por fim, configuramos para que o serviço reinicie a aplicação sempre que houver um boot do sistema, usando:
sudo systemctl enable adopet-backend.service
Created symlink /etc/systemd/system/multi-user.target.wants/adopet-backend.service /etc/systemd/system/adopet-backend.service.
O sistema confirma a criação do link para o serviço.
Para verificar se o serviço está rodando, usamos:
sudo systemctl status adopet-backend.service
adopet-backend.service Adopet backend como serviço
Loaded: loaded (/etc/systemd/system/adopet-backend.service; enabled; preset: enabled)
Main PID: 4771 (npm run start:p)
Active: active (running) since Wed 2024-08-14 17:19:28 UTC; 1min 9s ago
Tasks: 31 (limit: 1130)
Memory:161.3M (peak: 178.1M)
CPU: 3.507s
CGroup: /system.slice/adopet-backend.service
- 4771 "npm run start:prod"
- 4786 sh -c "node dist/main"
- 4787 node dist/main
O estado deve aparecer como ativo, mostrando os comandos utilizados e, na linha de Loaded
, marcado como enabled
, indicando que o serviço reinicializa automaticamente após o boot. Saímos da página pressionando "Q".
Para verificar se tudo funcionou, acessamos a página com o IP da aplicação na EC2. Com a instância adopet-backend
selecionada na lista, copiamos o endereço IPv4 público na parte inferior sobre o resumo da instância, abrimos uma nova guia, colamos o endereço, adicionamos :3000
(porta da aplicação) e /adotante
.
3.86.182.153:3000/adotante
Mesmo com o terminal da EC2 fechado, conseguimos acessar a API.
API parcialmente transcrita:
{
"message": "Todos os adotantes",
"adopters": [
{
"id": "27477e80-d300-4de4-b655-3c580cf64a85",
"nome": "João Silva"
},
…
Com tudo configurado e o back-end rodando como um serviço, na sequência, entenderemos como utilizar load balancers para distribuir a carga do tráfego de entrada na aplicação.
Configuramos nossa instância da EC2 para rodar a aplicação do back-end do Adopet como um serviço.
Agora, enfrentamos a seguinte situação: conforme o site e aplicação recebem mais acessos, haverá um aumento na demanda e na carga de acessos. Atualmente, temos uma única instância rodando a aplicação, e essa infraestrutura não está preparada para lidar com picos de carga.
Precisamos solucionar isso para garantir que, mesmo com diversos acessos, a aplicação continue funcionando bem e as pessoas usuárias tenham uma boa experiência.
Para isso, a AWS oferece um recurso que nos ajudará!
No console da AWS, no painel da EC2, à esquerda acessamos a seção de "Balanceamento de carga" e selecionamos a opção de "Load balancers".
Os load balancers são balanceadores de carga que permitem configurar a distribuição do tráfego de entrada na aplicação, melhorando a disponibilidade do sistema.
Assim, podemos ter diversas instâncias rodando a mesma aplicação, e o balanceador de carga será responsável por direcionar e balancear o tráfego entre essas instâncias, permitindo lidar com o aumento da demanda.
Embora atualmente tenhamos apenas uma instância em execução, a configuração que faremos agora já servirá para lidar futuramente com diversas instâncias da mesma aplicação.
No console da AWS, na seção de "Load balancers", clicaremos no botão "Criar load balancer" do lado superior direito para iniciar a configuração do balanceador de carga.
Existem alguns tipos de balanceadores de carga disponíveis: "Application Load Balancer", "Network Load Balancer" e "Gateway Load Balancer".
Para nossa situação, utilizaremos o "Application Load Balancer", ideal para aplicações que lidam com requisições HTTP e HTTPS, permitindo lidar com cabeçalhos, URLs e distribuir as requisições.
Clicamos no botão de "Criar" para o "Application Load Balancer", também chamado de ALB, e iniciar a configuração básica.
Somos direcionados para uma página intitulada "Criar Application Load Balancer". Primeiro, definiremos um nome exclusivo para o load balancer na nossa conta, que não poderá ser alterado após a criação. Nomearemos como adopet-backend-alb
.
Em seguida, escolheremos o "Esquema", que também não pode ser alterado após a criação. Temos duas opções: "Voltado para a internet" e "Interno". A opção "Voltado para a internet" é selecionada quando desejamos que a aplicação receba solicitações de fora da VPC, ou seja, de toda a internet.
A opção "Interno" limita o roteamento das solicitações apenas dentro da VPC e sub-rede, sem acesso externo à internet. No nosso caso, deixaremos selecionado "Voltado para a internet", pois desejamos acessar a API diretamente, chamando as URLs dos endpoints.
Depois, definiremos o "Tipo de endereço IP do balanceador de carga". Temos três opções: "IPv4", "DualStack" e "DualStack sem IPv4 público". A opção "IPv4" inclui solicitações de endereços IPv4, sendo a escolha mais comum, já que a maioria dos endereços IP atualmente são do tipo IPv4.
A opção dual stack lida tanto com IPv4 quanto com IPv6, que está em crescimento. Para nossa aplicação, deixaremos selecionado "IPv4".
Se tivéssemos muitas pessoas usuárias em uma região com muitos endereços IPv4, seria interessante usar a opção dual stack. No entanto, essa opção requer configurações adicionais relacionadas à VPC e sub-redes para adicionar endereços IPv4 na AWS.
O dual stack sem IPv4 público é semelhante ao dual stack, mas lida apenas com IPv4 privado, enquanto o IPv6 é aberto para toda a internet.
Na sequência, configuraremos o "Mapeamento de rede", onde definimos a VPC e as zonas de disponibilidade para o balanceador de carga. A VPC selecionada deve ser a mesma da aplicação.
No nosso caso, temos apenas uma VPC configurada na AWS, que é a mesma da instância EC2.
Para verificar essa informação, basta abrir a seção das instâncias da EC2 e confirmar se a VPC da instância coincide com a selecionada.
Em seguida, mapearemos as "Zonas de disponibilidade", onde as instâncias estarão disponíveis para acesso. Precisamos selecionar pelo menos duas zonas de disponibilidade, sendo uma delas a zona onde a instância EC2 está rodando.
Para conferir, abriremos o menu lateral, acessaremos as instâncias em uma nova guia, selecionaremos a instância do adopet-backend
e verificaremos a zona de disponibilidade, que é a us-east-1d
.
Voltaremos à criação do load balancer, selecionaremos a zona de disponibilidade us-east-1d(use1-az2)
, e a AWS já trará a configuração de uma sub-rede para essa zona.
Podemos selecionar outras zonas, como us-east-1a(use1-az4)
, us-east-1b(use1-az6)
, us-east-1c(use1-az1)
e us-east-1d(use1-az2)
, lembrando de incluir a zona onde a instância está rodando.
us-east-1d(use1-az2)
, us-east-1a(use1-az4)
, us-east-1b(use1-az6)
, us-east-1c(use1-az1)
e us-east-1d(use1-az2)
.Na sequência, configuraremos o "Grupo de segurança". Criaremos um novo grupo de segurança para especificar que o tráfego dentro do ALB será feito através da porta 80
, usada para receber solicitações HTTP. Clicaremos em "Crie um grupo de segurança", abriremos uma nova guia e criaremos um novo grupo.
Somos direcionados para uma página intitulada "Criar grupo de segurança" e abaixo a seção "Detalhes básicos" com alguns campos a serem preenchidos.
Daremos um nome, como alb-adopet-backend-grupo-seguranca
, e uma descrição, como "Permite acesso na porta 80 do ALB". A VPC será a padrão.
alb-adopet-backend-grupo-seguranca
Adicionaremos uma nova regra de entrada clicando no botão "Adicionar regra" na seção "Regras de entrada". Selecionaremos o "Tipo" como HTTP, protocolo TCP e porta 80.
O "Tipo de origem" será "Personalizado", com origem 0.0.0.0/0
. Se necessário, poderíamos adicionar outra regra, mas apenas essa será suficiente.
0.0.0.0/0
Clicaremos em "Criar grupo de segurança" na parte inferior direita.
Com o grupo de segurança criado, voltaremos à configuração do ALB. Atualizaremos os grupos de segurança no botão com um ícone de seta girando à direita do campo "Grupo de segurança" e selecionaremos o grupo recém-criado, alb-adopet-backend-grupo-seguranca
.
alb-adopet-backend-grupo-seguranca
Na sequência, configuraremos os Listeners e os Target Groups do ALB.
O curso Cloud: aplicando escalabilidade e monitorando recursos na AWS possui 155 minutos de vídeos, em um total de 50 atividades. Gostou? Conheça nossos outros cursos de AWS em DevOps, ou leia nossos artigos de DevOps.
Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:
Impulsione a sua carreira com os melhores cursos e faça parte da maior comunidade tech.
1 ano de Alura
Assine o PLUS e garanta:
Formações com mais de 1500 cursos atualizados e novos lançamentos semanais, em Programação, Inteligência Artificial, Front-end, UX & Design, Data Science, Mobile, DevOps e Inovação & Gestão.
A cada curso ou formação concluído, um novo certificado para turbinar seu currículo e LinkedIn.
No Discord, você tem acesso a eventos exclusivos, grupos de estudos e mentorias com especialistas de diferentes áreas.
Faça parte da maior comunidade Dev do país e crie conexões com mais de 120 mil pessoas no Discord.
Acesso ilimitado ao catálogo de Imersões da Alura para praticar conhecimentos em diferentes áreas.
Explore um universo de possibilidades na palma da sua mão. Baixe as aulas para assistir offline, onde e quando quiser.
Acelere o seu aprendizado com a IA da Alura e prepare-se para o mercado internacional.
1 ano de Alura
Todos os benefícios do PLUS e mais vantagens exclusivas:
Luri é nossa inteligência artificial que tira dúvidas, dá exemplos práticos, corrige exercícios e ajuda a mergulhar ainda mais durante as aulas. Você pode conversar com a Luri até 100 mensagens por semana.
Aprenda um novo idioma e expanda seus horizontes profissionais. Cursos de Inglês, Espanhol e Inglês para Devs, 100% focado em tecnologia.
Transforme a sua jornada com benefícios exclusivos e evolua ainda mais na sua carreira.
1 ano de Alura
Todos os benefícios do PRO e mais vantagens exclusivas:
Mensagens ilimitadas para estudar com a Luri, a IA da Alura, disponível 24hs para tirar suas dúvidas, dar exemplos práticos, corrigir exercícios e impulsionar seus estudos.
Envie imagens para a Luri e ela te ajuda a solucionar problemas, identificar erros, esclarecer gráficos, analisar design e muito mais.
Escolha os ebooks da Casa do Código, a editora da Alura, que apoiarão a sua jornada de aprendizado para sempre.