Ir para o conteúdo

Documento de Analytics

Objetivo

Este documento mostra por meio de análise de dados do sonarcloud e com auxílio do notebook da matéria, como está o andamento do time em relação ao padrão de qualidade do qRapids.

Repositório Controle

Abaixo podemos observar na cor laranja a reta que indica a confiabilidade do código, onde se manteve fixo no valor mais alto possível. E na cor azul, podemos observar a manutenibilidade do código que teve seu aprimoramento e depois seu decremento, pelo fato da métrica m2, onde houve a retirada de muitos comentários do código-fonte. De verde podemos ver a soma das duas medidas de qualidade.

controle

Repositório Front-end

Na imagem podemos observar na cor laranja a reta que indica a confiabilidade do código, tendo discrepâncias ao passar do tempo, sendo que seu valor mais baixo, deve-se ao problema relacionado as falhas de testes inesperadas, porém foram corrigidas aumentando então seu valor. E na cor azul, podemos observar a manutenibilidade do código que teve um aumento no começo devido à métrica m2, e depois ficou fixo no valor de 0,33. De verde podemos ver a soma das duas medidas de qualidade.

fronend

Qualidade agregada

Abaixo, exibe-se os valores do indicador característico de qualidade agregada. Sendo que o repositório que obteve mais números de versões foi o Front-end. E em comparação com o outro repositório, podemos analisar pouca discrepância nos valores de manutenibilidade. Já na confiabilidade, observa-se uma grande discrepância dos valores, com o desvio padrão alcançando valores mais altos do que esperado, devido à oscilação dessa qualidade.

agregado

Valores obtidos na planilha

Avaliação Notebook

1) Qual é o microsserviço de backend que apresenta o pior indicador de manutenabilidade e o que foi feito pela equipe do Visualeasy para melhorá-lo?

O projeto do Visualeasy foi planejado e desenvolvido com apenas 1 microsserviço de backend, o microsserviço chamado de Controle. Consequentemente, é ele que apresenta o pior indicador de manutenabilidade.

A equipe identificou e se propôs a tentar melhorar o indicador dessa métrica após a entrega da release 5. Porém, houve um erro de interpretação da equipe sobre qual o número ideal que deveria estar nessa métrica.

A equipe aplicou algumas refatorações retirando os comentários presentes no código, o que levou a métrica ao valor 0, onde acreditávamos ser o ideal. Entretanto, apenas após a entrega, foi compreendido pela equipe que o ideal seria entre manter 10% a 30% de comentários no código.

2) No microsserviço que apresentar o pior indicador de confiabilidade, mostre qual(is) o(s) módulos/arquivos mais críticos e explique como a equipe do Visualeasy tratou esse problema.

O microsserviço do nosso projeto que apresentou o pior indicador de confiabilidade, foi o Frontend. E dentro desse microsserviço, o diretório /src/pages/components/FormGraph contém o arquivo mais crítico do nosso projeto.

Esse arquivo contém a funcionalidade principal do nosso produto, portanto, aconteceram muitas modificações, importações de outros arquivos menores, geração de bugs e erros, e por falta de conhecimento da equipe sobre como renderizar os testes, os testes ficaram reduzidos para esse arquivo.

Por fim, a equipe tentou melhorar e aumentar a cobertura de testes para esse arquivo, porém não gerou tanto resultado.

3) Explique o comportamento da qualidade do produto observada ao longo do tempo de desenvolvimento do projeto.

Analisando a qualidade do produto podemos dizer que, em relação ao microsserviço Controle, houve uma estabilidade nas métricas durante o todo o projeto, com um desvio padrão pequeno, onde o mínimo foi 0,75 e o máximo 0,88. Isso foi resultado da utilização de TDD durante o desenvolvimento do projeto.

Porém, em relação ao microsserviço Frontend, esse desvio padrão foi bem mais alarmante durante o projeto. Houve uma queda drástica da métrica relacionada a confiabilidade do produto, principalmente entre a versão 0.4 e 0.5, alarmando a equipe sobre a qualidade do produto. Após a análise da razão dessa queda, foi constatado que o motivo foi uma atualização de uma ferramenta utilizada para desenvolvimento do produto, gerando uma queda na porcentagem de cobertura de testes do microsserviço. Então a equipe dedicou esforços para refatorar o código e aumentar a cobertura de testes, tendo esse objetivo concluído na geração da última versão do produto.

Por fim, pode-se concluir que a qualidade do produto se manteve em um intervalo aceitável durante boa parte do projeto, saindo apenas durante um curto período, mas logo após o problema foi resolvido pela equipe, resultando em um produto final com uma qualidade satisfatória.

Versionamento

Data Versão Descrição Autor(es)
19/09/2022 1.0 Adiciona documento de analytics Bruno Nunes
19/09/2022 1.1 Revisão e Correção ortográfica Marcos Vinícius
19/09/2022 1.2 Ajuste de visualização Damarcones Porto
31/10/2022 1.3 Adição da avaliação do analytics Bruno Nunes