Zur Kurzanzeige

dc.contributor.advisorLima, Maria de Fátima Webber do Prado
dc.contributor.authorDalmas, Samuel Henrique
dc.contributor.otherMartinotto, André Luis
dc.contributor.otherWebber, Carine Geltrudes
dc.date.accessioned2023-05-17T17:56:46Z
dc.date.available2023-05-17T17:56:46Z
dc.date.issued2022-07-08
dc.date.submitted2022-06-27
dc.identifier.urihttps://repositorio.ucs.br/11338/11979
dc.descriptionEste trabalho possui como objetivo analisar e avaliar softwares de monitoramento e gerenciamento de redes em uma arquitetura de computação em Névoa com o intuito de identificar qual mais se adequa aos requisitos desse ambiente computacional. Para embasar esta avaliação, foram estudados conceitos de computação em Névoa, softwares de monitoramento e normas ISO/IEC de avaliação de software. Para gerar o entendimento dos requisitos a serem monitorados e gerenciados, foi realizada uma pesquisa na forma de Revisão Sistemática, na qual foram levantados diversos dos requisitos necessários para gerenciar o controle de Quality of Service (QoS) nos ambientes de Névoa, além das ferramentas a serem testadas com base no trabalho de diversos autores. Foi utilizada a base da CAPES com as palavras chave: "Fog Computing", "Requirements", "QoS" e "Management". Os requisitos elencados foram dividos em categorias com base em semelhança, por fim, foram selecionadas as categorias com maior quantidade de menções que se adequam ao cenário disponível para teste. Esses requisitos elencados foram separados entre agentes, rede e servidor. A seleção das ferramentas foi baseada na quantidade de repetições encontradas na revisão bibliográfica, compatibilidade com sistema operacional Linux e possuir código livre ou com versão de teste disponível, além de contar com documentação para auxiliar no seu uso. Dessa maneira, foram selecionadas as ferramentas: Ganglia, Nagios e Zabbix. A partir desses estudos, foram definidos métricas, critérios e casos de testes para a avaliação. O ambiente de teste contou com um servidor local de Névoa, dois nodos de Névoa, um ponto de acesso e um servidor de Nuvem. O servidor da Névoa foi virtualizado através da ferramenta VirtualBox, para o servidor de Nuvem, foi utilizada uma máquina virtual no Google Cloud, enquanto que para os agentes, não foi utilizada virtualização. As ferramentas para teste foram instaladas no servidor local. Para simular um ambiente de Névoa e simular o tráfego de um ambiente característico, com alto fluxo de dados, foi desenvolvida uma aplicação em Python dividida em três módulos, o módulo agente coleta dados de uso de CPU e envia para o servidor de Névoa que por sua vez, calcula a média aritmética de cada máquina agente durante o período de um minuto e após, envia essas médias ao servidor de Nuvem, que armazena as informações em um banco de dados. Após realizados os testes, foi conduzida a avaliação das ferramentas através da norma ISO/IEC 25010 que define as características de qualidade para um produto de software. Foi escolhida a característica de funcionalidade com o intuito de avaliar se as ferramentas se adequam à arquitetura de Névoa. Dentro dessa característica, foram selecionadas duas subcaracterísticas: adequação e interoperabilidade. Para avaliar esses itens, foram adotadas métricas externas, que preveem executar as ferramentas e coletar dados no ambiente de execução. Os resultados alcançados permitiram constatar que nenhuma das ferramentas é adequada a um ambiente de Névoa. A ferramenta que obteve melhor resultado foi o Zabbix, seguida pelo Nagios e pelo Ganglia, que obteve a última colocação. [resumo fornecido pelo autor]pt_BR
dc.description.abstractThis work aims to analyze and evaluate network monitoring and management software in a Fog computing architecture in order to identify which one best suits the requirements of this computing environment. To support this evaluation, concepts of Fog computing, monitoring software and ISO/IEC standards for software evaluation were studied. To generate an understanding of the requirements to be monitored and managed, a survey was carried out in the form of a Systematic Review, in which several of the requirements necessary to manage the control of QoS in Fog environments were raised, as well as the tools to be tested, based on the work of several authors. The CAPES database was used with the keywords: "Fog Computing", "Requirements", "QoS" and "Management". The listed requirements were divided into categories based on similarity, finally, the categories with the highest number of mentions that fit the scenario available for testing were selected. These listed requirements were separated between agents, network and server. The selection of the tools was based on the number of repetitions found in the literature review, compatibility with the Linux operating system and having free code or a trial version available, in addition to having documentation to assist in its use. In this way, the tools were selected: Ganglia, Nagios and Zabbix. Based on these studies, metrics, criteria and test cases were defined for the evaluation. The test environment had a local Fog server, two Fog nodes, an access point and a Cloud server. The Fog server was virtualized through the VirtualBox tool, for the Cloud server, a virtual machine was used on Google Cloud, while for the agents, virtualization was not used. Testing tools were installed on the local server. To simulate a Fog environment and simulate the traffic of a characteristic environment, with high data flow, a Python application was developed divided into three modules, the agent module collects CPU usage data and sends it to the Fog server, which by in turn, calculates the arithmetic average of each agent machine during a period of one minute and then sends these averages to the Cloud server, which stores the information in a database. After the tests were carried out, the tools were evaluated using the ISO/IEC 25010 standard that defines the quality characteristics for a software product. The feature of functionality was chosen in order to assess whether the tools are suitable for the Fog architecture.Within this characteristic, two sub-characteristics were selected: adequacy and interoperability. To evaluate these items, external metrics were adopted, which provide to run the tools and collect data in the execution environment. The results achieved showed that none of the tools is suitable for a Fog environment. The tool that got the best result was Zabbix, followed by Nagios and Ganglia, which got the last place. [resumo fornecido pelo autor]pt_BR
dc.language.isoptpt_BR
dc.subjectRedes de computadores - Gerênciapt_BR
dc.titleGerenciamento de redes em um ambiente de computação em névoapt_BR
dc.typeMonografiapt_BR
mtd2-br.advisor.instituationUniversidade de Caxias do Sulpt_BR
mtd2-br.program.nameBacharelado em Ciência da Computaçãopt_BR
mtd2-br.campusCampus Universitário de Caxias do Sulpt_BR
local.data.embargo2022-07-07


Dateien zu dieser Ressource

Thumbnail

Das Dokument erscheint in:

Zur Kurzanzeige