|
Dissertações |
|
1
|
-
PEDRO HENRIQUE BATISTA DIAMANTINO
-
Visual Analytics no Apoio à Exploração Visual de Dívidas Técnicas em Repositórios de Softwares
-
Orientador : DANILO BARBOSA COIMBRA
-
MEMBROS DA BANCA :
-
DANILO BARBOSA COIMBRA
-
MANOEL GOMES DE MENDONCA NETO
-
DANIEL GARCIA FEITOSA
-
Data: 26/01/2023
-
-
Mostrar Resumo
-
O uso crescente de tecnologias digitais ocasionam uma produção e consumo de dados em larga escala em todo o mundo. Consequentimente, há uma grande demanda por técnicas de análise computacional que auxiliem os usuários a obter uma melhor compreensão dos dados. Um desafio inerente a esse contexto é analisar grande volume de dados complexos e heterogêneos, como os concebidos por repositórios de software. Áreas como Visualização de Software e Visual Software Analytics têm se tornado cada vez mais usadas para apoiar os desenvolvedores na compreensão do software, fornecendo um panorama visual de todo o processo de desenvolvimento. Essas representações gráficas fornecem extração de informações úteis, especialmente para manutenção do sistema ao analisar dívidas técnicas. Embora os repositórios sejam compostos em sua maioria por conjuntos de dados multidimensionais, faltam trabalhos que apliquem visualizações multidimensionais para identificar e rastrear tipos distintos de dívidas técnicas. Nesse sentido, a proposta apresenta a ferramenta Visual Debts Analytics, uma abordagem baseada em Visual Analytics composta por múltiplas visualizações multidimensionais coordenadas para a análise de diferentes grupos de dívidas técnicas em repositórios de software. Em particular, a técnica proposta visa identificar e rastrear a correlação, estrutura, evolução e semelhanças de dívidas técnicas em repositórios de software de código aberto. Para avaliar nossa abordagem, apresentamos estudos de caso em dois repositórios que demonstram uma melhor compreensão do ciclo de vida do projeto, permitindo extrair novos insights e informações.
-
Mostrar Abstract
-
The increasing access to digital technologies leads to a large-scale data production and consumption worldwide. Consequently, there is a high demand for computing analysis techniques that help users to obtain a better understanding of data. An inherent challenge in this context is to analyze large volume of complex and heterogeneous datasets, such as conceived by software repositories. Areas such as Software Visualization and Visual Software Analytics have become increasingly used to support developers in software comprehension by providing a visual panorama of the entire software development process. Those graphical representations enable useful information extraction, especially for system maintenance when analyzing technical debts. Although repositories are mostly composed of multidimensional datasets, there is a lack of works that apply multidimensional visualizations to identify and track distinct groups of technical debts. In this sense, the proposal presents the Visual Debts Analytics tool, an approach based on Visual Analytics consisting of multiple coordinated multidimensional visualizations for the analysis of different groups of technical debts in software repositories. In particular, the proposed technique aims to identify and track the correlation, structure, evolution and similarities of technical debts in open-source software repositories. To evaluate our approach we presented case studies in two different repositories that demonstrate the a better comprehension in the project life cycle, enabling insights into the project quality.
|
|
2
|
-
ERINALDO SANTOS OLIVEIRA
-
Um Modelo para Avaliar a Eficácia do Uso de Projetos FLOSS no Ensino de Engenharia de Software: Uma Proposta baseada em Análise de Conteúdo
-
Orientador : CHRISTINA VON FLACH GARCIA CHAVEZ
-
MEMBROS DA BANCA :
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
LAIS DO NASCIMENTO SALVADOR
-
ROBERTO ALMEIDA BITTENCOURT
-
Data: 31/03/2023
-
-
Mostrar Resumo
-
Contexto: A demanda crescente da indústria de software por profissionais qualificados coloca em evidência a importância e necessidade de valorização da Educação em Engenharia de Software (EES) na formação de egressos dos cursos superiores da área de Computação. Educadores são desafiados continuamente a acompanhar as tendências emergentes na área, a identificar técnicas adequadas e incorporá-las em suas disciplinas de engenharia de software, de modo a promover o desenvolvimento de habilidades e competências que garantam aos egressos dos cursos da área de Computação uma formação que concilie o aprendizado de conceitos, processos, técnicas e ferramentas proporcionado no ambiente acadêmico com as necessidades e melhores práticas da indústria de software. Projetos de Software Livre/Código Aberto (FLOSS) trazem uma oportunidade para que estudantes e professores de cursos de graduação possam trabalhar o conteúdo da disciplina de engenharia de software em projetos realistas, que trazem uma experiência de mundo real próxima das exigências do mundo do trabalho. Problema: Um dos desafios associados ao uso de FLOSS na EES é como o educador pode avaliar o projeto escolhido como recurso de ensino e aprendizagem, bem como sua eficácia para o objetivo pedagógico proposto pela atividade ou disciplina. Torna-se relevante o uso de métodos ou modelos de avaliação que permitam ao docente mensurar e avaliar os resultados provenientes da sua escolha, de acordo com as exigências de aprendizagem necessárias após a conclusão da atividade ou disciplina. Objetivo: Este trabalho propõe a criação de um modelo para avaliar a eficácia do uso de projetos FLOSS no ensino da disciplina de Engenharia de Software. O modelo proposto será baseado no mapeamento de critérios de avaliação que serão estruturados de forma a facilitar a análise sobre o alcance dos objetivos pedagógicos planejados para o componente curricular. Método de Pesquisa: Por meio da Análise de Conteúdo, pretende-se identificar competências e habilidades técnicas e sociotécnicas mais relevantes para a disciplina de Engenharia de Software, segundo as principais diretrizes curriculares do Brasil e do exterior, e investigar aspectos de interferência tanto técnicas quanto pedagógicas, do uso de projetos FLOSS no ensino da disciplina de engenharia de software. Com base nestas informações, pretende-se definir os critérios de avaliação e, por meio de um diálogo teórico, identificar suas relações para propor um modelo de avaliação da eficácia do uso de projetos FLOSS no ensino de Engenharia de Software. Contribuições Esperadas: O uso de métodos para avaliar projetos FLOSS na EES mostra-se uma solução viável para o desenvolvimento real de competências e habilidades associadas a aspectos teóricos e práticos da engenharia de software, importantes na formação de profissionais das diversas vertentes da área de Computação. O uso de métodos para avaliar projetos FLOSS na EES pode estimular a inserção dos educadores no ecossistema de FLOSS, além de oferecer novas formas de avaliação aos que reconhecem e adotam tais projetos em sala de aula.
-
Mostrar Abstract
-
Context: The software industry's growing demand for qualified professionals highlights the importance and need for valuing Education in Software Engineering in the training of graduates from higher education courses in the area of Computing. Educators are continually challenged to keep up with emerging trends in the area, to identify appropriate techniques and incorporate them into their software engineering disciplines, in order to promote the development of skills and competences that guarantee graduates of courses in the area of Computing an education that reconciles the learning of concepts, processes, techniques and tools provided in the academic environment with the needs and best practices of the software industry. Free, Libre and Open Source software projects provide an opportunity for students and professors of undergraduate courses to work on the content of the software engineering discipline in realistic projects, which bring a real-world experience close to the demands of the world of work. Problem: One of the challenges associated with the use of FLOSS in the EES is how the educator can evaluate the chosen project as a teaching and learning resource, as well as its effectiveness for the pedagogical objective proposed by the activity or discipline. It is relevant to use evaluation methods or models that allow the professor to measure and evaluate the results from his choice, according to the learning requirements necessary after the conclusion of the activity or discipline. Objective: This work proposes the creation of a model to evaluate the effectiveness of using FLOSS projects in the teaching of Software Engineering. The proposed model will be based on the mapping of evaluation criteria that will be structured in order to facilitate the analysis of the scope of the pedagogical objectives planned for the curricular component. Research Methods: Through Content Analysis, the aim is to identify the most relevant technical and sociotechnical skills and abilities for the Software Engineering discipline, according to the main curricular guidelines in Brazil and abroad, and to investigate aspects of interference, both technical and pedagogical, of the use of FLOSS projects in teaching the discipline of software engineering. Based on this information, it is intended to define the evaluation criteria and, through a theoretical dialogue, identify their relationships to propose a Model for evaluating the effectiveness of the use of FLOSS projects in the teaching of Software Engineering. Expected Contributions: The use of methods to evaluate FLOSS projects in the EES can stimulate the insertion of educators in the FLOSS ecosystem, in addition to offering new forms of evaluation to those who recognize and adopt such projects in the classroom, a solution to the real development of skills and abilities associated with theoretical and practical aspects of software engineering, important in the training of professionals from the various areas of the Computing area.
|
|
3
|
-
Levy Marlon Souza Santiago
-
Gifflar: um Framework para Geração de Contratos Inteligentes em Tempo de Execução
-
Orientador : FABIOLA GONCALVES PEREIRA GREVE
-
MEMBROS DA BANCA :
-
FABIOLA GONCALVES PEREIRA GREVE
-
RODRIGO ROCHA GOMES E SOUZA
-
ALEX BORGES VIEIRA
-
Data: 18/04/2023
-
-
Mostrar Resumo
-
Blockchain é uma tecnologia disruptiva que permite transações diretas entre entidades distribuídas sem a necessidade de uma terceira parte confiável, oferecendo uma rede descentralizada segura. Contratos inteligentes (SmCs) são códigos executáveis hospedados na blockchain e permitem a implementação de aplicações descentralizadas, em diferentes domínios. Devido à complexidade de construção dos SmCs, é necessário buscar formas de facilitar e tornar robusto esse processo de desenvolvimento inovador. Muitos projetos da literatura propuseram soluções baseadas em geração automática de código a partir de uma modelagem de alto nível, como diagramas. Porém, esta abordagem traz consigo uma constante necessidade de uma pessoa para modelar os contratos e realizar o processo de compilação e implantação. Esta dissertação de mestrado apresenta o Gifflar, um framework para geração automática de código de SmC em tempo de execução, que permite a um sistema escrever, compilar e implantar SmCs numa rede blockchain com uma aplicação ainda em execução, o que reduz a frequente precisão do desenvolvedor de SmC e possibilita automatizar ainda mais o processo de desenvolvimento de SmC. Uma das suas principais ferramentas é uma biblioteca estruturada em componentes que implementam padrões de projeto para melhor definir a responsabilidade de cada uma dessas partes. A biblioteca Gifflar oferece uma API que permite ao desenvolvedor modelar, gerar códigos e gerenciar os SmCs através de métodos que abstraem até certo nível o código do SmC utilizando o JSON como modelo para a geração de código. Em complemento, foram realizadas duas avaliações para validar o projeto: (i) uma avaliação de usabilidade da biblioteca do Gifflar e (ii) uma avaliação conceitual de aplicação do Gifflar em outros projetos. Até onde se sabe, este framework é um dos primeiros a permitir gerar SmCs dinamicamente em tempo de execução, assim contribuindo para o estado da arte ao abordar um novo paradigma, onde os sistemas podem atuar como desenvolvedores de contratos inteligentes.
-
Mostrar Abstract
-
Blockchain is a disruptive technology that offers a secure decentralized network, and allows for direct transactions between distributed entities, without the need for a trusted third party. Smart contracts (SmC) are executable codes hosted on the blockchain and enable the implementation of several decentralized applications, in different domains. However, due to the complexity of SmC construction, it is necessary to seek ways to facilitate and make this innovative development process robust. Many projects in the literature proposed solutions based on automatic code generation from high-level modeling, such as diagrams. However, this approach brings with it a constant need for a person to model the contracts. This paper presents Gifflar, a framework for generating SmC code on the fly, in such a way that it allows a system to write, compile and implement blockchain SmCs with an application still running, which reduces the frequent precision of the SmC developer and allows to further automate the SmC development process. One of the main tools is a component-structured library that implements design patterns to better define the responsibility of each of these parts. The Gifflar library offers an API that allows the developer to model, generate code and manage SmCs through methods that abstract to a certain level the SmC code using the JSON as a model to the code generation. In addition, project evaluations were carried out to validate the project: (i) a usability evaluation of the Gifflar library and (ii) a conceptual evaluation of Gifflar's application in other projects. As far as we know, this framework is one of the first to allow dynamically generating SmCs on the fly, thus contributing to the state of the art by approaching a new paradigm, where systems can act as smart contract developers.
|
|
4
|
-
Ibirisol Fontes Ferreira
-
Algoritmos de Roteamento Multicast Orientados a Justiça para Aplicações Distribuidas Interativas Usando COmputação na Borda
-
Orientador : GUSTAVO BITTENCOURT FIGUEIREDO
-
MEMBROS DA BANCA :
-
GUSTAVO BITTENCOURT FIGUEIREDO
-
TIAGO DE OLIVEIRA JANUARIO
-
MAYCON LEONE MACIEL PEIXOTO
-
JOSE AUGUSTO SURUAGY MONTEIRO
-
Data: 27/04/2023
-
-
Mostrar Resumo
-
Enfrentar os desafios dos serviços de rede na borda, como o roteamento considerando a Qualidade de Serviço, é uma questão crucial para os atuais esforços de pesquisa na área de redes. O roteamento multicast é uma técnica essencial para entregar serviços de roteamento com alto nível de otimização sob a perspectiva das operadoras e provedores de aplicações quando há grupos de usuários. Além disso, o roteamento considerando restrições de latência tem obstáculos para mesclar diferentes condições na solução, principalmente quando há uma perspectiva de equidade a ser realizada na comunicação dos usuários. Este trabalho visa lidar com este requisito de justiça no multicasting, apresentando soluções eficientes para aumentar o equilíbrio no roteamento através da escolha de melhores opções de caminhos para interação justa do grupo.
-
Mostrar Abstract
-
Facing the challenges of network services on the edge, such as routing considering quality of service, is a crucial issue for the current research efforts in the area of network. Multicast routing is an essential technique for delivering routing services with a high level of optimization from the perspective of operators and application providers when there are user groups. Furthermore, the routing that considers latency constraints has obstacles to merging different conditions in the solution, mainly when there is a fairness perspective to be accomplished in the users' communication. This work aims to deal with this fairness requirement in multicasting, showing efficient solutions to increase the equilibrium in the routing by choosing better path options for fair group interaction.
|
|
5
|
-
Caiza Almeida Fortunato
-
ATAM-4SAS: Um método para avaliar atributos de qualidade em sistemas autoadaptativos
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
LUCIANA LOURDES SILVA
-
CARLA ILANE MOREIRA BEZERRA
-
IVAN DO CARMO MACHADO
-
Data: 04/05/2023
-
-
Mostrar Resumo
-
Sistemas autoadaptativos podem monitorar a si mesmos e ao seu contexto. Eles podem detectar mudanças e reagir à condições inesperadas com o mínimo de supervisão humana durante a sua execução. Um dos desafios por trás do desenvolvimento de sistemas autoadaptativos é lidar com o processo de tomada de decisão durante a análise dos pontos de \textit{tradeoff} dentre os múltiplos atributos de qualidade (QA). Em Engenharia de Software, um método amplamente aceito de avaliação das metas de QA em projetos de software é o Método de Análise de \textit{Tradeoffs} Arquiteturais, amplamente conhecido como ATAM. Entretanto, apesar de sua importância e ampla aceitação, há poucos relatos de estudos empíricos sobre a análise de \textit{tradeoffs} de QA em sistemas autoadaptativos. Neste sentido, a presente investigação propõe uma versão adaptada do ATAM chamada ATAM-4SAS para lidar com as particularidades de sistemas de software autoadaptativos. Para alcançar o objetivo da pesquisa, empregamos o UPPAAL SMC (modelo de verificação estatística) para analisar um conjunto de QA. Para avaliar a viabilidade do método proposto, realizamos um estudo empírico sobre a execução do ATAM-4SAS em um sistema autoadaptativo desenvolvido conforme o modelo MAPE-K. Este modelo engloba as fases de Monitoramento, Análise, Planejamento e Execução. Tais etapas compartilham uma base de conhecimento (K), fundamental no apoio à tomada de decisões. A avaliação empírica foi complementada com a realização de um grupo focal, que buscou avaliar a facilidade de uso percebida e a utilidade percebida do ATAM-4SAS para apoiar a escolha estratégica de QA em um sistema autoadaptativo. Como resultado, obervamos que maioria dos participantes concordou que o ATAM-4SAS provê o devido suporte para a escolha estratégica dos QA em sistemas autoadaptativos.
-
Mostrar Abstract
-
Self-adaptive Systems (SAS) can monitor themselves and their context. They can detect changes and react to unexpected conditions with minimal human supervision during their execution. One of the challenges behind developing SAS is dealing with the decision-making process while analyzing the tradeoff points among the multiple quality attributes (QA). In Software Engineering, a widely accepted method of evaluating QA goals in software projects is the Architecture Tradeoff Analysis Method (ATAM). However, despite its importance and wide acceptance, there are few reports of empirical studies on analyzing QA tradeoffs in SAS. In this sense, the present investigation proposes an adapted version of ATAM called ATAM-4SAS to deal with the particularities of SAS. To achieve the research goal, we employed the UPPAAL SMC (statistical verification model) to analyze a set of QA. To evaluate the feasibility of the proposed method, we performed an empirical study on the execution of the ATAM-4SAS in a SAS developed according to the MAPE-K model. This model encompasses the Monitoring, Analysis, Planning, and Execution phases. Such steps share a knowledge base (K), which is fundamental in supporting decision-making. We complemented the empirical evaluation by conducting a focus group, which sought to assess the perceived ease of use and the perceived usefulness of the ATAM-4SAS to support the strategic choice of QA in a SAS. As a result, we observed that most participants agreed that ATAM-4SAS provides adequate support for the strategic choice of QA in SAS.
|
|
6
|
-
RENATA DE SOUSA SANTOS
-
Process Smell 2.0: Um catálogo de Bad Smells para processo de software utilizando BPMN
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
ANA PATRICIA FONTES MAGALHÃES MASCARENHAS
-
CLAUDIO NOGUEIRA SANT ANNA
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 04/05/2023
-
-
Mostrar Resumo
-
Um processo de software explicitamente especificado aprimora a qualidade do produto gerado, pois a especifica ̧c ̃ao direciona o caminho e passos a serem seguidos para que o software desenvolvido alcance a qualidade almejada pelo projeto. O processo de software
evolui juntamente `as necessidades da organiza ̧c ̃ao e dos profissionais que o utilizam,e pre- cisa ser continuamente monitorado e avaliado para manter sua qualidade. Para avaliar
um processo de software utiliza-se, comumente de simula ̧c ̃oes ou dados obtidos ap ́os uma
execu ̧c ̃ao. Entretanto, em ambos os casos ́e dif ́ıcil prever problemas no processo de soft- ware em um determinado projeto de desenvolvimento antes de uma ou mais execu ̧c ̃oes.
Diante disso,Process Smells foram propostos para possibilitar que problemas no design de processos de software pudessem ser identificados antes destes serem executados. A presen ̧ca de um Process Smell poder ́a ter um impacto negativo na qualidade do processo afetando assim a qualidade do produto de software. Inicialmente Process Smells foram especificados utilizando-se a nota ̧c ̃ao Software Process Specification Metamodel (SPEM).
Apesar do SPEM ser uma linguagem para o dom ́ınio da modelagem de processos, Busi- ness Process Model and Notation (BPMN) tem sido utilizada largamente para processos
de forma geral, com alta popularidade tanto no mercado e academia, neste sentido a espe- cifica ̧c ̃ao de um novo cat ́alogo pode permitir que process smells sejam compreendidos de
forma independente de dom ́ınio de linguagem. Ainda no contexto de melhoria de processo, da mesma forma que o SPEM, embora o BPMN seja usado para melhorar o entendimento
de um processo, a especifica ̧c ̃ao de um processo pode ser feita de forma inadequada, fe- rindo os fatores necess ́arios para a qualidade de um processo de software. Neste contexto,
esta pesquisa teve como objetivo especificar um cat ́alogo de Process Smells para apoiar a identifica ̧c ̃ao de anomalias em processos de software especificado com BPMN a partir da proposta de (SANTOS; MACIEL; SANT’ANNA, 2018). Inicialmente, os Process Smells foram especificados em BPMN, originando assim um novo cat ́alogo com 8 Process Smells, o Process Smells 2.0. A especifica ̧c ̃ao foi avaliada por trinta e dois profissionais atrav ́es de um estudo de entrevista, que indicou que o novo cat ́alogo proposto de Process Smells foi aceito por estes profissionais. Atrav ́es dos resultados obtidos neste estudo foi poss ́ıvel verificar que a proposta de identificar smells independente do dom ́ınio de linguagem faz sentido, bem como a segunda etapa do estudo se mostrou mais convergente em rela ̧c ̃ao ao SPEM. Espera-se que a especifica ̧c ̃ao do cat ́alogo possa apoiar a identifica ̧c ̃ao de Process Smells em processo de software modelados usando BPMN, de forma a indicar os pontos onde o processo pode ser melhorado, antes mesmo da sua primeira execu ̧c ̃ao, evitando
problemas que afetam negativamente os atributos de qualidade do processo. Adicional- mente, espera-se que o novo cat ́alogo possa ampliar a possibilidade de uso dos Process
Smells.
-
Mostrar Abstract
-
An explicitly specified software process improves the quality of the generated product. The specification directs the path and steps to be followed so that the developed software reaches the quality desired by the project. The software process evolves along with the needs of the organization and the professionals who use it. It needs to be continuously
monitored and evaluated to maintain its quality. To evaluate a software process, simula- tions or data obtained after execution are commonly used. However, in both cases, it is
difficult to predict problems in the software process in a given development project before one or more executions. Therefore, Process Smells were proposed to enable problems in the design of software processes to be identified before they were executed. The presence of a Process Smell can negatively impact the quality of the Process, thus affecting the
quality of the software product. Initially, Process Smells were specified using the Soft- ware Process Specification Metamodel (SPEM) notation. Although SPEM is a language
for the domain of process modeling, Business Process Model and Notation (BPMN) has been widely used for processes in general, with high popularity both in the market and academia. In this sense, the specification of a new catalog can allow Process smells to
be understood independently of the language domain. Still, in the context of process im- provement, just like SPEM, although BPMN is used to improve the understanding of a
process, the specification of a process can be done inappropriately, injuring the necessary factors for the quality of a process of software. In this context, this research aimed to specify a Process Smells catalog to support the identification of anomalies in software processes specified with BPMN based on the (SANTOS; MACIEL; SANT’ANNA, 2018)
proposal. Initially, Process Smells were specified in BPMN, thus originating a new ca- talog with 8 Process Smells, Process Smells 2.0. Thirty-two professionals evaluated the
specification through an interview study, which indicated that these professionals accep- ted the proposed new Process Smells catalog. The results obtained in this study made it
possible to verify that the proposal to identify smells regardless of the language domain makes sense. The second stage of the study proved to be more concurrent with SPEM. The catalog specification is expected to support the identification of Process Smells in software processes modeled using BPMN to indicate the points where the Process can be improved, even before its first execution, avoiding problems that negatively affect process quality attributes. Additionally, the new catalog is expected to expand the possibility of using Process Smells.
|
|
7
|
-
Jamile de Barros Vasconcelos
-
AVALIAÇÃO EXPERIMENTAL DO USO DE ESTATÍSTICA DOS VALORES EXTREMOS NA DETERMINAÇÃO DE LIMITES DE TEMPOS DE EXECUÇÃO PARA PROJETO DE SISTEMAS DE TEMPO REAL
-
Orientador : GEORGE MARCONI DE ARAUJO LIMA
-
MEMBROS DA BANCA :
-
GEORGE MARCONI DE ARAUJO LIMA
-
TATIANE NOGUEIRA RIOS
-
VERONICA MARIA CADENA LIMA
-
Data: 30/05/2023
-
-
Mostrar Resumo
-
Sistemas de tempo real (RTS) são aqueles cujas ações estão sujeitas a restrições tempo- rais, definidas em termos de prazos de execução (deadlines). Um RTS crítico é usualmente projetado para nunca deixar de cumprir seus deadlines, como é o caso dos sistemas aviônicos e espaciais. Para que isso aconteça, é fundamental que se saiba qual o tempo máximo que cada tarefa leva para executar nestes ambientes, parâmetro conhecido como Tempo de Execução no Pior Caso (WCET). Estimar o WCET de uma tarefa não é simples e, no caso das arquiteturas modernas, o mesmo está sujeito a imprevisíveis influências de diferentes elementos de hardware e software, que impedem a identificação de um valor absoluto de WCET. Uma das técnicas mais empregadas, nestes casos, é a Análise Temporal Probabilística Baseada em Medições (MBPTA), fundamentada em um ramo da estatística conhecido como Teoria dos Valores Extremos (EVT). Por meio da MBPTA-EVT pode-se inferir distribuições de probabilidade de pior caso e estimar WCET Probabilísticos (Probabilistic Worst Case Execution Time - pWCET). O presente trabalho visa realizar uma análise experimental do uso da EVT via MBPTA para inferência de pWCET, apresentando o processo de aplicação da técnica em um ambiente real RPi e expondo os desafios e falhas encontrados durante este processo; ponto raramente exposto pela literatura. Os resultados parciais apontam que EVT é robusta, mas que apresenta fragilidades pois nem sempre produz modelos adequados e resultados pWCET coerentes. O trabalho está inserido no contexto do projeto Kepler, uma cooperação entre a UFBA e o INRIA-Paris.
-
Mostrar Abstract
-
Real-time systems (RTS) are those whose actions are subject to time constraints, defined in terms of execution time deadlines. A hard RTS is usually designed to never miss a deadline, as in the case of avionics and space systems. To guarantee this it is essential to know the maximum time that each task takes to execute, a parameter known as Worst Case Execution Time (WCET). Estimating the WCET of a task is not simple and, in the case of modern architectures, it is subject to unpredictable influences caused by different hardware and software elements, which prevent the derivation of an absolute WCET value. One of the most used techniques in these cases is the Measurement-Based Probabilistic Timing Analysis (MBPTA) method based on the Extreme Values Theory (EVT) statistical area, for estimating worst-case probability distributions, called Probabilistic WCET (pWCET) . The present work aims to carry out an experimental analysis of the use of EVT via MBPTA for pWCET inference, presenting the process of applying the technique in a real RPi environment and exposing the challenges and flaws encountered during this process; a point rarely demonstrated in the literature. The partial results indicate that EVT is robust, but that has weaknesses because it does not always produce adequate models and coherent pWCET results. This work is part of the Kepler project, a cooperation between UFBA and INRIA-Paris.
|
|
8
|
-
TIAGO DA CONCEICAO OLIVEIRA
-
Uma metaheurística iterated local search baseada em simulação para o escalonamento de bombas hidráulicas em redes de distribuição de água
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
CELSO DA CRUZ CARNEIRO RIBEIRO
-
ISLAME FELIPE DA COSTA FERNANDES
-
RAFAEL AUGUSTO DE MELO
-
Data: 17/07/2023
-
-
Mostrar Resumo
-
Em uma rede de distribuição de água, a utilização de energia elétrica para o funcionamento das bombas pode alcançar 90% do total consumido nesta. Uma vez que o valor cobrado pelo consumo de energia elétrica pode variar com o horário, o escalonamento das bombas em horários oportunos pode diminuir o custo com energia. Escalonamentos de bombas ótimos ou quase ótimos não são triviais dadas as restrições não lineares da WDN, as quais inserem o problema de escalonamento de bombas na classe de problemas NP-hard. Assim, o problema de escalonamento de bombas consiste em obter o menor custo monetário operacional, garantindo que a água seja entregue a todos os pontos de demanda, respeitando as restrições físicas da rede de distribuição. Este trabalho tem por finalidade propor métodos heurísticos baseados em simulações, combinando-os em uma metaheurística Iterated Local Search (ILS). Por fim, experimentos computacionais realizados mostraram que a proposta apresentada é bastante promissora, obtendo os melhores resultados utilizando a representação binária com as restrições apresentadas e quando comparado a outras representações de escalonamento os valores obtidos para a instância Vanzyl chegou a soluções que desviam em apenas 0,73% do melhor valor conhecido e em apenas 2,02% do melhor valor conhecido para a Richmond.
-
Mostrar Abstract
-
In a water distribution network, the electricity amount to operate the pumps can achieve 90% of the total electricity consumed. The amount charged for electricity consumption can differ at each time of the day. Therefore, scheduling the pump’s operation at opportune times can reduce energy costs. Optimal or near-optimal pump scheduling is not trivial given the nonlinear constraints of the WDN, which include the pump scheduling problem in the NP-hard class. The pump scheduling problem consists of obtaining the lowest operating monetary cost, guaranteeing that water is delivered to all demand points, and without violating the physical constraints of the water distribution network. This work proposes heuristic methods based on simulations, combining them in a metaheuristic Iterated Local Search (ILS). Computational experiments show that the proposed approach is promissory, obtaining the best results using the binary representation with the restrictions presented in this work, and when compared to other pump scheduling representations, the values obtained for the Vanzyl instance reached solutions that deviate by only 0.73% of the best-known value and at only 2.02% value for Richmond.
|
|
9
|
-
Edmilson dos Santos de Jesus
-
MODELOS DE APRENDIZAGEM DE MÁQUINA PARA PREVISÃO DA DEMANDA DE ÁGUA DA REGIÃO METROPOLITANA DE SALVADOR, BAHIA
-
Orientador : GECYNALDA SOARES DA SILVA GOMES
-
MEMBROS DA BANCA :
-
ANDERSON LUIZ ARA SOUZA
-
GECYNALDA SOARES DA SILVA GOMES
-
PAULO HENRIQUE FERREIRA DA SILVA
-
Data: 31/07/2023
-
-
Mostrar Resumo
-
O objetivo deste trabalho é propor um novo modelo híbrido SVR-ANN para previsão de demanda de água. Onde uma adaptação da metodologia proposta por Zhang (2003) é utilizada para decompor as séries temporais de 10 reservatórios que abastecem a Região Metropolitana de Salvador (RMS). Os dados utilizados são do consumo histórico de janeiro/2017 a fevereiro/2022, obtidos junto à empresa de abastecimento local, Empresa Baiana de Águas e Saneamento (EMBASA), e dados meteorológicos obtidos junto ao Instituto Nacional de Meteorologia do Brasil (INMET). Os resultados demonstraram a viabilidade do uso do modelo proposto, comparado a outros modelos tradicionais como o Multilayer Perceptron (MLP), Support Vector Regression (SVR), Short Long Term Memory (LSTM) e Autoregressive and Integrated Moving Average (ARIMA).
-
Mostrar Abstract
-
The objective of this work is to proposes a new hybrid SVR-ANN model for water demand forecasting. Where an adaptation of the methodology proposed by Zhang (2003) is used to decompose the time series of 10 reservoirs that supply the Metropolitan Region of Salvador (RMS). The data used are from the historical consumption from January/2017 to February/2022, obtained from the local supply company, Empresa Baiana de Águas e Saneamento, and meteorological data obtained from the National Institute of Meteorology of Brazil. The results demonstrated the feasibility of using the proposed model, compared to other traditional models such as the Multilayer Perceptron (MLP), Support Vector Regression (SVR), Short Long Term Memory (LSTM) and Autoregressive and Integrated Moving Average (ARIMA).
|
|
10
|
-
Dárcio Santos Rocha
-
IDENTIFICAÇÃO DE TIPOS DE RELAÇÕES TEMPORAIS EVENT-TIME EM PORTUGUÊS: UMA ABORDAGEM BASEADA EM REGRAS COM CLASSIFICAÇÃO ASSOCIATIVA
-
Orientador : MARLO VIEIRA DOS SANTOS E SOUZA
-
MEMBROS DA BANCA :
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
RERISSON CAVALCANTE DE ARAUJO
-
ROBESPIERRE DANTAS DA ROCHA PITA
-
Data: 14/08/2023
-
-
Mostrar Resumo
-
Este trabalho tem como objetivo desenvolver um método computacional para identificar tipos de relações temporais entre eventos e expressões temporais em textos escritos em língua portuguesa. A fim de alcançar esse objetivo, serão empregadas técnicas de aprendizado de regras para descobrir as melhores combinações de informações linguísticas disponíveis, formulando regras de decisão que possam identificar eficientemente os tipos de relações temporais entre eventos e expressões temporais. A maioria dos trabalhos relacionados adotou uma abordagem baseada em aprendizagem de máquina, enquanto apenas um utilizou uma abordagem híbrida, combinando regras manuais. A metodologia proposta neste trabalho consiste em uma abordagem baseada em regras, que incorpora informações lexicais, morfossintáticas e contextuais, tempos verbais de Reichenbach, sinais temporais e conhecimento sobre o mundo, além das anotações TimeML no corpus. Ao contrário de uma abordagem puramente baseada em aprendizagem de máquina, os conjuntos de regras gerados pelo nosso método permitem a combinação de regras geradas pelos diferentes algoritmos, ou a combinação de conjuntos completos, o que pode resultar em melhor desempenho. Em resumo, o método recebe pares de evento/expressão temporal como entrada e utiliza uma estratégia de filtragem para selecionar os pares com maior probabilidade de terem sido anotados no corpus. Em seguida, aplica conjuntos de regras em cada par para identificar o tipo da relação temporal existente e uma estratégia de aumento de dados para calcular o fechamento temporal de todos os pares e suas respectivas relações identificadas. Em experimentos preliminares, propusemos um conjunto inicial de regras manuais para o idioma português. No entanto, os resultados obtidos demonstraram que esse conjunto era limitado, resultando em baixa cobertura e consequentemente baixa acurácia. O valor máximo alcançado foi de 45,1% de acurácia e 34,1% de cobertura nos dados de teste. Para melhorar esses resultados, propomos incorporar técnicas de aprendizagem de regras ao método, visando aumentar o conjunto de regras. Essas técnicas são capazes de lidar bem com dados contendo ruídos, funcionar bem em dados não vistos e gerar regras mais eficientes, além de oferecer desempenho competitivo e funcionar de forma eficiente. Com essa incorporação, esperamos que os experimentos propostos produzam um conjunto de regras capaz de identificar tipos de relações temporais event-time com eficiência e alcance resultados superiores. Isso contribuirá para o avanço do estado da arte na área, além de disseminar a pesquisa realizada e contribuir com a comunidade científica.
-
Mostrar Abstract
-
This work aims to develop a computational method to identify types of temporal relations between events and temporal expressions in texts written in Portuguese. In order to achieve this goal, rule learning techniques will be employed to discover the best combinations of available linguistic information, formulating decision rules that can efficiently identify the types of temporal relations between events and temporal expressions. Most related works adopted a machine learning-based approach, while only one used a hybrid approach, combining manual rules. The methodology proposed in this work consists of a rule-based approach, which incorporates lexical, morphosyntactic and contextual information, Reichenbach tenses, temporal signals and knowledge about the world, in addition to TimeML annotations in the corpus. Unlike a purely machine learning approach, the rule sets generated by our method allow the combination of rules generated by different algorithms, or the combination of complete sets, which can result in better performance. In short, the method takes event/time expression pairs as input and uses a filtering strategy to select the pairs most likely to have been annotated in the corpus. It then applies sets of rules to each pair to identify the type of existing temporal relationship and a data augmentation strategy to calculate the temporal closure of all pairs and their respective identified relationships. In preliminary experiments, we proposed an initial set of manual rules for the Portuguese language. However, the results obtained showed that this set was limited, resulting in low coverage and consequently low accuracy. The maximum value achieved was 45.1% accuracy and 34.1% coverage in the test data. To improve these results, we propose to incorporate rule learning techniques to the method, aiming to increase the set of rules. These techniques are able to handle noisy data well, work well on unseen data and generate more efficient rules, in addition to offering competitive performance and working efficiently. With this incorporation, we hope that the proposed experiments will produce a set of rules capable of identifying types of event-time temporal relations efficiently and achieving superior results. This will contribute to the advancement of the state of the art in the area, in addition to disseminating the research carried out and contributing to the scientific community.
|
|
11
|
-
Davi Lima Alves
-
UMA PLATAFORMA SIDECHAIN PARA TRANSAÇÕES DE E-COMMERCE EM RESTAURANTES
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
ALLAN EDGARD SILVA FREITAS
-
CASSIO VINICIUS SERAFIM PRAZERES
-
LEOBINO NASCIMENTO SAMPAIO
-
MANOEL GOMES DE MENDONCA NETO
-
ROBESPIERRE DANTAS DA ROCHA PITA
-
Data: 22/08/2023
-
-
Mostrar Resumo
-
Pedir comida online está presente diariamente na vida das pessoas, entretanto, este procedimento exige o envio de dados de clientes para diferentes sistemas de restaurantes, e muitas vezes esses restaurantes compartilham informações sensíveis com seus parceiros sem autorização, criando um risco à segurança ao compartilhar tais dados. Ainda, em muitos casos quando uma pessoa viaja para um país diferente de sua origem e deseja pedir comida é exigida a transação de câmbio para moeda local que tem custo elevado. As blockchains revolucionaram o modo de fazer pagamentos online e intrinsecamente de forma segura eliminando a entidade centralizadora e autorizativa, a exemplo da Bitcoin, primeira blockchain utilizada em larga escala. Entretanto, a literatura científica registra a dificuldade diante da alta frequência de transações na Bitcoin, alto tempo de transações, e, também, seu alto custo por transação além da limitação da linguagem Script para desenvolvimento de aplicações. Nesse passo a blockchain Ethereum surge como alternativa a Bitcoin, num ambiente de aplicações mais complexas com maior frequência de aplicações e número de transações por segundo, mas, ainda distante da performance de soluções como cartão de crédito, o que desfavorece esta “cadeia de blocos” ante soluções tradicionais de pagamento como o cartão de crédito, além disso teve por um grande período altas taxas de custo por transação. Do estudo deste contexto nós propomos o modelo de pagamento de transações para o varejo por meio da blockchain a partir de Prova de Conceito (POC) voltada para restaurantes utilizando o Software Development Kit (SDK) da blockchain Lisk. A POC Lisk Restaurante representa uma integração da Lisk blockchain na indústria de alimentos permitindo clientes comprarem comida de forma rápida e segura através de sidechains - blockchains exclusivas para transações especiais tipo-restaurantes, sem intermediação e com menores taxas ao utilizar um único cripto ativo no mundo: o LSK. Realizamos estudo empírico da solução proposta no qual é avaliada o desempenho de transações em bloco, taxas de transação, auditabilidade, escala de solução, privacidade e segurança no envio de mensagens em transações. Os resultados foram utilizados na comparação com dados da literatura das blockchains Bitcoin, Ethereum, e Multichain. Os resultados apontam que, as transações especiais utilizadas na Lisk Restaurante permitem garantir privacidade de dados para seus clientes, pois, apenas ao recipiente de uma transação é possível acessar dados sensíveis de remetente. Assim, através de pesquisa, revisão da literatura e experimentos de avaliação de desempenho foi observado que a solução de sidechain para restaurantes demonstrou eficiência da tecnologia blockchain em prover serviços globais de forma menos custosa do que meios de pagamentos comuns; também, quando comparadas suas taxas de transações com outras blockchains como Bitcoin ou Ethereum, pois, seus valores são menores e mantida a privacidade de seus clientes. Ainda, a nossa solução demonstrou aumento na capacidade de transações Food em um único bloco e melhor escalabilidade por meio de sidechains, as quais, aceitam transações específicas ao negócio envolvido o que difere de blockchains únicas como Bitcoin ou Ethereum que executam transações de diversas finalidades, superando também à primeira versão da Prova de Conceito (PoC) Lisk Restaurante, ultrapassando em duas vezes a capacidade de número de transações ou frequência, em um bloco. Finalmente, ainda foi realizado experimentos com a Lightning network, tecnologia off-chain que funciona sobre a Bitcoin sendo uma solução de escalabilidade para a Bitcoin. A avaliação de resultados de experimentos da solução sidechain Lisk e da Lightning network demonstraram as diferenças de cada tecnologia e foi enaltecida as vantagens e desvantagens de cada uma. Assim, foi observado que a tecnologia Lightning network também pode ser utilizada na indústria de varejo, mas sem a possibilidade de personalizar custos de transação.
-
Mostrar Abstract
-
Ordering food online is present in people's lives every day, however, this procedure requires sending customer data to different restaurant systems, and often these restaurants share sensitive information with their partners without authorization, creating a security risk when sharing such information. data. Also, in many cases, when a person travels to a country other than their origin and wants to order food, an exchange transaction for local currency is required, which is expensive. Blockchains have revolutionized the way of making payments online and intrinsically secure, eliminating the centralizing and authorizing entity, such as Bitcoin, the first blockchain used on a large scale. However, the scientific literature records the difficulty in view of the high frequency of transactions in Bitcoin, the high transaction time, and also its high cost per transaction, in addition to the limitation of the Script language for application development. In this step, the Ethereum blockchain emerges as an alternative to Bitcoin, in an environment of more complex applications with a higher frequency of applications and number of transactions per second, but still far from the performance of solutions such as credit cards, which disadvantages this “chain of blocks”. ” compared to traditional payment solutions such as credit cards, which also had high transaction cost rates for a long time. From the study of this context, we propose a payment model for retail transactions through the blockchain based on a Proof of Concept (POC) aimed at restaurants using the Software Development Kit (SDK) of the Lisk blockchain. POC Lisk Restaurante represents an integration of Lisk blockchain in the food industry allowing customers to buy food quickly and securely through sidechains - exclusive blockchains for special restaurant-type transactions, without intermediation and with lower fees when using a single crypto asset in the world : the LSK. We performed an empirical study of the proposed solution in which the performance of block transactions, transaction fees, auditability, solution scale, privacy and security in sending messages in transactions is evaluated. The results were used in comparison with data from the literature of Bitcoin, Ethereum, and Multichain blockchains. The results indicate that the special transactions used at Lisk Restaurante allow guaranteeing data privacy for its customers, since only the recipient of a transaction can access sensitive sender data. Thus, through research, literature review and performance evaluation experiments, it was observed that the sidechain solution for restaurants demonstrated the efficiency of blockchain technology in providing global services at a lower cost than common means of payment; also, when compared to their transaction fees with other blockchains like Bitcoin or Ethereum, their values are lower and the privacy of their customers is maintained. Also, our solution has shown an increase in the capacity of Food transactions in a single block and better scalability through sidechains, which accept transactions specific to the business involved, which differs from single blockchains such as Bitcoin or Ethereum that execute transactions for different purposes, also surpassing the first version of the Proof of Concept (PoC) Lisk Restaurante, exceeding twice the capacity of number of transactions or frequency, in a block. Finally, experiments were carried out with the Lightning network, an off-chain technology that works on top of Bitcoin, being a scalability solution for Bitcoin. The evaluation of experimental results of the Lisk sidechain solution and the Lightning network demonstrated the differences of each technology and the advantages and disadvantages of each one were praised. Thus, it was observed that the Lightning network technology can also be used in the retail industry, but without the possibility of customizing transaction costs.
|
|
12
|
-
João Medrado Gondim
-
AMPLIANDO MODELOS DE IMAGE CAPTIONING EM PORTUGUES ATRAVÉS DAS INFORMAÇÕES LINGUÍSTICAS
-
Orientador : DANIELA BARREIRO CLARO
-
MEMBROS DA BANCA :
-
SANDRA ELIZA FONTES DE AVILA
-
DANIELA BARREIRO CLARO
-
TATIANE NOGUEIRA RIOS
-
Data: 23/08/2023
-
-
Mostrar Resumo
-
O aumento no número de aplicações que demandam acessibilidade, recuperação de informação e interação humano-computador vem culminando com uma crescente necessidade de geração automatizada da descrição de uma imagem. Essa descrição automatizada requer uma identificação do cenário, dos personagens e dos objetos presentes e de como esses elementos se relacionam entre si. A partir destes elementos torna-se possível gerar uma sentença em linguagem natural descrevendo o conteúdo da imagem. O desenvolvimento de métodos capazes de gerar de uma maneira automática as sentenças que descrevem a imagem permeia uma área de pesquisa denominada Image Captioning. A maioria das pesquisas e datasets da área de Image Captioning se concentram na língua inglesa, desenvolvendo modelos e construindo recursos eficientes no estado da arte. Línguas com poucos recursos para desenvolvimento, tais como o Português, demandam maior pesquisa para alcançarem uma sentença descritiva e compreensível. Porém, somente a aglomeração de vários objetos da imagem não geram uma sentença na língua Portuguesa. Diante deste contexto, este trabalho propõe a análise e incorporação de recursos linguísticos que possam guiar o modelo de linguagem na geração de uma descrição que seja mais representativa da imagem e da sentença em Português. Experimentos foram realizados com a tradução de datasets para a geração da descrição em Português. Os resultados obtidos dão indícios que a análise morfológica das saídas de um modelo de Image Captioning, bem como a incorporação de classes gramaticais durante o treinamento, contribuirão para uma melhor descrição da imagem em língua Portuguesa.
-
Mostrar Abstract
-
The increase in the number of applications that require accessibility, information retrieval and human-computer interaction has culminated in a growing need for automated generation of the description of an image. This automated description requires an identification of the scenario, characters and objects present and how these elements relate to each other. From these elements it becomes possible to generate a sentence in natural language describing the content of the image. The development of methods capable of automatically generating the sentences describing the image permeates a research area called textit{Image Captioning}. Most researches and datasets in the area of Image Captioning focus on the English language, developing models and building efficient state-of-the-art resources. Languages with few resources for development, such as Portuguese, require more research to achieve a descriptive and understandable sentence. However, only the agglomeration of several objects in the image does not generate a sentence in the Portuguese language. In this context, this work proposes the analysis and incorporation of linguistic resources that can guide the language model in generating a description that is more representative of the image and the sentence in Portuguese. Experiments were performed with the translation of datasets to generate the description in Portuguese. The results indicate that the morphological analysis of the outputs of an Image Captioning model, as well as the incorporation of grammatical classes during the training, will contribute to a better description of the image in Portuguese.
|
|
13
|
-
Cleber Brito Santos
-
Determinação de vizinhança em rede veiculares ad hoc: uma análise dos tempos limite para entrega de mensagens
-
Orientador : ALINE MARIA SANTOS ANDRADE
-
MEMBROS DA BANCA :
-
LEOBINO NASCIMENTO SAMPAIO
-
ALINE MARIA SANTOS ANDRADE
-
ALIRIO SANTOS DE SA
-
ALLAN EDGARD SILVA FREITAS
-
Data: 05/09/2023
-
-
Mostrar Resumo
-
A detecção de vizinhança em redes veiculares ad hoc envolve a determinação de veículos vizinhos para uma organização colaborativa. Esse problema apresenta desafios em relação à comunicação entre veículos em redes veiculares devido à natureza dinâmica da rede, que provoca variações imprevisíveis na qualidade do canal de comunicação devido a fatores como condições ambientais, interferências e congestionamentos. Nesta dissertação, abordamos a detecção de vizinhança entre pelotões em redes dinâmicas, enfrentando desafios como a movimentação variada dos veículos e as interferências de edificações. A organização em pelotões representa um cenário relevante para o estudo em redes veiculares, uma vez que traz benefícios na qualidade do trânsito, como a redução do consumo de combustível, a melhoria do fluxo de tráfego e o aumento da segurança. Desenvolvemos um protocolo básico de comunicação, projetado para a comunicação entre líderes de pelotões, que garante o conhecimento mútuo entre eles, possibilitando a troca de informações essenciais para a detecção de vizinhança e o funcionamento colaborativo dos pelotões. Verificamos o protocolo utilizando o verificador de modelos PRISM. Utilizando este protocolo, realizamos experimentos para determinar os tempos necessários que ocorrem entre o envio e o recebimento de mensagens trocadas entre líderes de pelotões para a determinação de vizinhança. Realizamos experimentos em canais confiáveis e não confiáveis e determinamos tempos limite de progresso por meio de simulações utilizando o framework VEINS, que integra SUMO e OMNET++. Os resultados dos experimentos forneceram informações sobre os tempos limite de progresso em vários cenários que podem servir de referência para o desenvolvimento de aplicações relacionadas à comunicação em VANETs.
-
Mostrar Abstract
-
Neighborhood detection in ad hoc vehicular networks involves determining neighboring vehicles for collaborative organization. This problem presents challenges to communication between vehicles in vehicular networks due to the dynamic nature of the network, which leads to unpredictable variations in the quality of the communication channel due to factors such as environmental conditions, interferences, and congestion. In this dissertation, we address the neighborhood detection between platoons in dynamic networks, facing challenges such as varied vehicle movements and building interferences. The platooning organization represents a relevant scenario for studying vehicular networks, as it brings benefits to traffic quality, such as fuel consumption reduction, traffic flow improvement, and increased safety. We have developed a basic communication protocol designed for communication between platoon leaders, which ensures mutual knowledge between them, enabling the exchange of essential information for neighborhood detection and collaborative operation of the platoons. We have verified the protocol using the PRISM model checker. Using this protocol, we conducted experiments to determine the required times that occur between the sending and receiving of messages exchanged between platoon leaders for neighborhood determination. We performed experiments on both reliable and unreliable channels and determined progress time bound through simulations using the VEINS framework, which integrates SUMO and OMNET++. The results of the experiments provided information about the progress time bound in various scenarios that can serve as a reference for the development of applications related to communication in VANETs
|
|
14
|
-
Iury Gomes de Oliveira
-
CycleVis - Uma abordagem de visualização esportiva para análise de desempenho de ciclistas
-
Orientador : DANILO BARBOSA COIMBRA
-
MEMBROS DA BANCA :
-
DANILO BARBOSA COIMBRA
-
FREDERICO ARAUJO DURAO
-
RENATO LIMA NOVAIS
-
Data: 14/09/2023
-
-
Mostrar Resumo
-
A evolução tecnológica em conjunto com a crescente produção massiva de dados demandam a criação de novos mecanismos para processamento e análise nos mais diferentes domínios de informação. O mesmo ocorre para o domínio de esportes, que possui um grande apelo popular ao redor do mundo e vem conquistando cada vez mais interesse da comunidade científica. Dentre os diferentes gêneros esportivos, o ciclismo vem ganhando atenção especial na comunidade de visualização de informação e Visual Analytics ao longo dos anos. De modo geral, o foco destes trabalhos está na descoberta de padrões para traçar estratégias, exibir informações estatísticas, ou analisar desempenho de grupos de ciclistas. Contudo, há uma lacuna de estudos que foquem em percursos não relacionados a competições profissionais ou ainda que considerem atributos de clima e intensidade em suas análises. Nesse contexto, esse trabalho apresenta o CycleVis, uma abordagem de visualização de dados para ciclismo que permite melhor compreensão do desempenho esportivo de ciclistas. Para tal, utilizou-se características de intensidade, como velocidade, frequência cardíaca e elevação, além da geolocalização das corridas/pedaladas. Para validar a abordagem, foi desenvolvido um caso de uso e o mesmo foi avaliado por meio de estudo com usuários, que resultou em uma avaliação muito positiva para eficácia e usabilidade.
-
Mostrar Abstract
-
The technological evolution together with the growing mass production of data demand the creation of new mechanisms for processing and analysis in the most different areas of information. The same goes for the field of sports, which has a great popular appeal around the world and has been gaining more and more interest from the scientific community. Among the different sports genres, cycling has been gaining special attention in the community of information visualization and Visual Analytics over the years. In general, the focus of these works is on finding patterns to draw strategies, display statistical information, or analyze performance of groups of cyclists. However, there is a gap of studies that focus on paths not related to professional competitions or that consider attributes of climate and intensity in their analysis. In this context, this work presents CycleVis, a data visualization approach for cycling that allows a better understanding of the sports performance of cyclists. For this, intensity characteristics such as speed, heart rate and elevation were used, in addition to the geolocation of the runs/pedals. To validate the approach, a use case was developed and it was evaluated through a study with users, which resulted in a very positive evaluation for effectiveness and usability.
|
|
15
|
-
JOSÉ AUGUSTO DUARTE GOMES
-
MultiVisD3: uma abordagem Visual Analytics para Análise da Qualidade de Projeções Multidimensionais Utilizando Múltiplas Visões Coordenadas
-
Orientador : DANILO BARBOSA COIMBRA
-
MEMBROS DA BANCA :
-
RAFAEL MESSIAS MARTINS
-
BRUNO PEREIRA DOS SANTOS
-
DANILO BARBOSA COIMBRA
-
Data: 29/09/2023
-
-
Mostrar Resumo
-
Visualizações multidimensionais são representações gráficas que atuam na apresentação de conjuntos de dados multidimensionais ou multivariados. Entretanto, muitas dessas técnicas apresentam pouca escalabilidade visual à medida que as dimensões aumentam, exigindo um espaço visual cada vez maior para acomodar todo o conjunto de dados. Uma forma de contornar esse problema é utilizar técnicas de Projeções Multidimensionais que realizam redução de dimensionalidade e buscam preservar os padrões dos dados originais no espaço projetado. Durante esse processo, é altamente provável que erros e distorções estejam presentes nos layouts de projeção. Um desafio na pesquisa desse tema é mensurar e visualizar os erros e distorções incorporados nos mapeamentos das projeções. Nesse sentido, este trabalho desenvolveu o MultiVisD3, uma abordagem de Visual Analytics para analisar a qualidade de Projeções Multidimensionais. Esta abordagem compreende um dashboard como um painel visual interativo contendo múltiplas visualizações coordenadas para facilitar a compreensão e comparação de métricas de erro entre duas projeções. Outras técnicas de visualização como Treemap e visão tabular apoiam a extração de informações sobre a qualidade das projeções. Por fim, a abordagem proposta foi submetida a uma avaliação com usuário utilizando conjuntos de dados conhecidos para analisar aspectos de funcionalidade e usabilidade. Os resultados mostraram que os usuários avaliaram positivamente a abordagem proposta neste trabalho. Mais de 90% dos participantes executaram corretamente oito das nove tarefas que lhes foram solicitadas e mais de 90% deles aprovaram os aspectos de usabilidade relacionados às interações e disposição das visualizações.
-
Mostrar Abstract
-
Multidimensional visualizations are graphical representations that assist in presenting multidimensional datasets. However, many of these techniques exhibit limited visual scalability as the number of dimensions increases, requiring ever-expanding visual space to accommodate the entire dataset. One way to address this problem is by utilizing Multidimensional Projection techniques, which perform dimensionality reduction while aiming to preserve the patterns of the original data in the projected space. However, it is highly likely that errors and distortions may be present in the projection layouts. A challenge in researching this topic is to measure and visualize the errors and distortions embedded in the projection mappings. In this regard, this article introduces MultiVisD3, a Visual Analytics approach to analyzing the quality of Multidimensional Projections. This approach comprises an interactive visual dashboard containing multiple coordinated views to facilitate understanding and comparison of error metrics between two projections. Other visualization techniques such as Treemap and tabular views support the extraction of information regarding projection quality. Finally, the proposed approach underwent user evaluation using well-known datasets to analyze functionality and usability aspects. The results demonstrated that users positively evaluated the proposed approach. More than 90% of the participants correctly completed eight out of nine tasks assigned to them, and over 90% of them approved of usability aspects related to interactions and the arrangement of visualizations.
|
|
16
|
-
Leonardo Rodrigues Ribeiro
-
MetaLProjection: Uma Abordagem para Recomendação de Algoritmos de Redução de Dimensionalidade Utilizando Meta-Aprendizagem
-
Orientador : DANILO BARBOSA COIMBRA
-
MEMBROS DA BANCA :
-
THIAGO FERREIRA COVÕES
-
DANILO BARBOSA COIMBRA
-
RICARDO ARAUJO RIOS
-
Data: 06/10/2023
-
-
Mostrar Resumo
-
As técnicas de visualização de dados possuem um enorme potencial para análise, sumarização, compreensão a fim de facilitar a extração de informação. Áreas recentes como Visual Analytics e Ciência de Dados evidenciam a sua importância, principalmente para analisar complexos conjuntos de dados. Nesse sentido, as técnicas de Projeção Multidimensional são particularmente utilizadas para realizar análise visual de conjuntos de dados de alta dimensionalidade, em razão de realizarem redução de dimensionalidade e, por consequência, possuírem melhor escalabilidade no tocante a quantidade de atributos/dimensões. Todavia, há uma grande variedade destas técnicas de projeção e definir qual a mais adequada para encontrar padrões visuais de informação em um, ou vários, conjuntos de dados não é uma tarefa trivial. Ainda que os trabalhos na literatura testem e comparem diferentes técnicas em conjuntos de dados com características distintas, não o fazem de modo sistematizado para facilitar uma escolha para o usuário. Nesse contexto, esta pesquisa utiliza a meta-aprendizagem para classificar e recomendar as projeções multidimensionais considerando determinadas métricas de avaliação em uma base de conhecimento com mais de 500 conjuntos de dados distintos. Para avaliar a abordagem foi observado i) a relação entre os meta-atributos de todos os conjuntos de dados, ii) geração de um ranking contendo o desempenho das técnicas de projeção escolhidas e, iii) acurácia da recomendação dessas técnicas. Por fim, os resultados obtidos mostram que a abordagem desenvolvida contribui de modo eficiente para a escolha e recomendação de técnicas de projeção multidimensional.
-
Mostrar Abstract
-
Data visualization techniques have significant potential for analysis, summarization, and comprehension to facilitate information extraction. Recent areas such as Visual Analytics and Data Science underscore their importance, especially in analyzing complex datasets. In this sense, Multidimensional Projection techniques are particularly used for visual analysis of high-dimensional datasets because they perform dimensionality reduction and, consequently, exhibit better scalability in terms of the number of attributes/dimensions. However, there is a wide variety of these projection techniques, and determining the most suitable one for discovering visual patterns of information in one or multiple datasets is not a trivial task. While works in the literature test and compare different techniques on datasets with distinct characteristics, they do not do so systematically to assist user decision-making. In this context, this research leverages meta-learning to classify and recommend multidimensional projections, considering specific evaluation metrics from a knowledge base comprising over 500 distinct datasets. To evaluate the approach, we observed i) the relationship between the meta-attributes of all datasets, ii) the generation of a ranking containing the performance of the selected projection techniques, and iii) the accuracy of the recommendation of these techniques. Finally, the results obtained demonstrate that the developed approach effectively contributes to the selection and recommendation of multidimensional projection techniques.
|
|
17
|
-
FELIPE REBOUCAS FERREIRA ABREU
-
Um Sistema de Recomendação Inteligente e Autoconfigurável como Serviço
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
FREDERICO ARAUJO DURAO
-
CLAUDIO NOGUEIRA SANT ANNA
-
ROSALVO FERREIRA DE OLIVEIRA NETO
-
Data: 28/11/2023
-
-
Mostrar Resumo
-
No mundo digital dinâmico de hoje, a infinidade de serviços de listagem, que vão desde plataformas de música até recomendações de produtos e sugestões de conteúdo de mídia social, muitas vezes deixa os usuários em busca de itens que realmente se alinhem com seus gostos. Abordando esta complexidade, a ascensão dos Sistemas de Recomendação provou ser inestimável. Esses sistemas filtram com eficiência vastos dados para alinhar itens com preferências individuais, melhorando as escolhas do usuário. Este trabalho centra-se na criação de uma API avançada de Sistemas de Recomendação. Criada de forma distinta, esta API possui acessibilidade universal e um procedimento de implantação descomplicado. Como base para vários serviços da Web, a API se fortalece na robusta arquitetura REST. Ele foi projetado com um compromisso com a modularidade, defendendo a adaptabilidade e a flexibilidade. A API processa dados e consultas do usuário para fornecer recomendações personalizadas rapidamente. As avaliações de desempenho destacaram a louvável precisão da API. Ele brilhou particularmente com conjuntos de dados menores, exibindo impressionantes tempos de processamento de dados e execução de algoritmos. A API manifestou eficiência e resiliência excepcionais sob condições de teste específicas, incluindo ambientes de nuvem, especialmente notáveis em cenários extensos de conjuntos de dados de 16.000 itens. A API é mais que uma ferramenta; ele abre caminho para experiências digitais personalizadas, mostrando sua habilidade em operações CRUD e recomendações personalizadas. A fase de avaliação do usuário abrangeu um grupo demográfico variado: desenvolvedores iniciantes a experientes. Mais da metade tinha experiência considerável em desenvolvimento de software e uma porcentagem significativa tinha envolvimentos anteriores com sistemas de recomendação de codificação. Com conhecimento diversificado de bibliotecas de recomendação, a maioria dos comentários elogiou a eficácia da API. 81% valorizaram as recomendações e muitos se sentiram confiantes nas técnicas de filtragem. O destaque deste trabalho é a versatilidade da API do Sistema de Recomendação. Apesar do feedback positivo, os usuários sugeriram melhorias na documentação, segurança de dados e recursos. Esses insights moldarão futuros refinamentos de API e experiência do usuário. O envolvimento entusiástico e o feedback dos participantes sublinham o potencial da API para melhorar aplicações que requerem um sistema de recomendação, especialmente para desenvolvedores que talvez sejam menos versados nas nuances teóricas. A sólida base de pesquisa e a dedicação dos participantes destacam o potencial da API para uma adoção mais ampla pelos desenvolvedores.
-
Mostrar Abstract
-
In today's dynamic digital realm, the plethora of listing services, spanning from music platforms to product recommenders and social media content suggestions, often leaves users searching for items that truly align with their tastes. Addressing this intricacy, the rise of Recommender Systems has proven invaluable. These systems efficiently filter vast data to align items with individual preferences, enhancing user choices. This work centers on the creation of an advanced Recommender Systems API. Distinctively crafted, this API boasts universal accessibility and an uncomplicated deployment procedure. As the foundation for various Web Services, the API draws strength from the stalwart REST architecture. It is designed with a commitment to modularity, championing adaptability and flexibility. The API processes user data and queries to provide tailor-made recommendations quickly. Performance evaluations illuminated the API's commendable accuracy. It particularly shone with smaller datasets, displaying impressive data processing and algorithm execution times. The API manifested exceptional efficiency and resilience under specific test conditions, including cloud environments, especially notable in extensive 16,000-item dataset scenarios. The API is more than a tool; it paves the way for personalized digital experiences, showcasing its prowess in CRUD operations and tailored recommendations. The user evaluation phase encompassed a varied demographic: novice to experienced developers. Over half had considerable software development experience, and a significant percentage had prior engagements with coding recommender systems. With diverse knowledge of recommender libraries, most feedback praised the API's effectiveness. 81% valued the recommendations, and many felt confident in its filtering techniques. The highlight of this work is the Recommender System API's versatility. Despite positive feedback, users suggested improvements in documentation, data security, and features. These insights will shape future API refinements and user experience. Participants' enthusiastic engagement and feedback underscore the API's potential to enhance applications requiring a recommendation system, especially for developers who are perhaps less versed in the theoretical nuances. The solid research foundation and participant dedication highlight the API's potential for broader adoption by developers.
|
|
18
|
-
GENICLEITO CARVALHO BELTRAO GONCALVES
-
GEnI-FR: Um método para assegurar a interpretabilidade de regras fuzzy por meio de granularidade
-
Orientador : TATIANE NOGUEIRA RIOS
-
MEMBROS DA BANCA :
-
MARCOS EVANDRO CINTRA
-
HELOISA DE ARRUDA CAMARGO
-
TATIANE NOGUEIRA RIOS
-
Data: 30/11/2023
-
-
Mostrar Resumo
-
A representação computacional do conhecimento humano, quando composto por dados imprecisos, é uma tarefa facilitada pela utilização de sistemas que utilizam recursos da teoria de conjuntos e lógica fuzzy. Tais sistemas usam regras que permitem mapear o conhecimento obtido a partir dos dados em uma representação linguística de fácil entendimento. A base de regras fuzzy que constitui esse tipo de sistema pode ser gerada por um especialista ou por meio de métodos que consideram as características dos próprios dados, diminuindo a necessidade de um especialista neste processo de criação. Com os devidos ajustes e utilização de métodos automatizados é possível aumentar a interpretabilidade dessas regras sem reduzir a precisão do sistema. Neste sentido, a base de regras de um sistema fuzzy pode ser melhorada por meio do princípio da granularidade justificável para ajustar os conjuntos fuzzy representativos dos dados. Sendo assim, nesta dissertação de mestrado é apresentado o método denominado GEnI-FR (Granularity to Ensure Interpretability of the Fuzzy Rules), o qual realiza ajustes e refinamentos no processo de geração de regras fuzzy, obtendo o equilíbrio entre interpretabilidade e precisão, ajustando conjuntos fuzzy baseando-se nas características dos próprios dados. GEnI-FR apresenta-se como um método promissor visto que proporciona uma redução da quantidade de regras fuzzy mantendo os mesmos níveis de acurácia quando comparado com outros métodos do estado da arte.
-
Mostrar Abstract
-
The computational representation of human knowledge, when composed of imprecise data, is a task facilitated by the use of systems that use resources from set theory and fuzzy logic. Such systems use rules that allow mapping the knowledge obtained from data into an easy-to-understand linguistic representation. The fuzzy rule base that constitutes this type of system can be generated by a specialist or through methods that consider the characteristics of the data itself, reducing the need for a specialist in this creation process. With the appropriate adjustments and use of automated methods, it is possible to increase the interpretability of these rules without reducing the system's accuracy. In this sense, the rule base of a fuzzy system can be improved through the principle of justifiable granularity to adjust the fuzzy sets representative of the data. Therefore, in this master's thesis, the method called GEnI-FR (Granularity to Ensure Interpretability of the Fuzzy Rules) is presented, which makes adjustments and refinements in the process of generating fuzzy rules, achieving a balance between interpretability and precision, adjusting sets fuzzy based on the characteristics of the data itself. GEnI-FR presents itself as a promising method as it provides a reduction in the number of fuzzy rules while maintaining the same levels of accuracy when compared to other state-of-the-art methods.
|
|
19
|
-
Jalisson dos Santos Henrique
-
MOTIVAÇÕES PARA APLICAÇÃO DA REFATORAÇÃO EXTRACT METHOD: UM ESTUDO BASEADO EM MENSAGENS DE COMMIT
-
Orientador : CLAUDIO NOGUEIRA SANT ANNA
-
MEMBROS DA BANCA :
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
CLAUDIO NOGUEIRA SANT ANNA
-
RAPHAEL PEREIRA DE OLIVEIRA
-
Data: 11/12/2023
Ata de defesa assinada:
-
-
Mostrar Resumo
-
Refatorações são operações realizadas no código fonte que visam melhorar a capacidade de manutenção de um sistema de software. Apesar da literatura conter diversos estudos sobre refatorações, são poucos os trabalhos que investigam as motivações reportadas pelos desenvolvedores para realizar refatorações. Portanto, esta pesquisa tem o objetivo de investigar as motivações por trás das refatorações de extract method em sistemas reais. Para isso, foram conduzidos dois estudos experimentais, um preliminar envolvendo um único sistema de software, e um outro estudo onde foram considerados diversos sistemas. Os estudos foram baseados em mineração de commits onde ocorreram refatorações do tipo extract method. Basicamente, buscou-se analisar as mensagens desses commits visando capturar as motivações dos desenvolvedores para realizar tais refatorações. Os resultados apontaram 16 motivações diferentes para a aplicação do extract method. Além disso, observou-se que apenas 16% das refatorações tiveram intenção explícita de melhorar a qualidade do código. Também foi identificado que as refatorações com intenção de melhorar a qualidade do código ocorreram com maior frequência em métodos com tamanho acima de 61 linhas de código e com menor frequência em métodos abaixo de 20 linhas de código.
-
Mostrar Abstract
-
Refactorings are operations performed on source code aimed at improving the maintainability of a software system. Although literature contains a high number of studies on refactorings, there are only few works that investigate the motivations reported by developers to perform refactorings. Therefore, this research aims to investigate the motivations behind extract method refactorings in real systems. To achieve this, we conducted two empirical studies: a preliminary study involving a single software system, and another study considering multiple real systems. The studies were based on mining software repository commits in which extract method refactorings occurred. Essentially, the goal was to analyze commit messages in order to capture developers' motivations for performing such refactorings. The results identified 16 different motivations for applying extract method. Additionally, it was observed that only 16% of the refactorings had an explicit intention of improving code quality. It was also identified that refactorings with the intention of improving code quality occurred more frequently in methods with size higher than 61 lines of code and less frequently in methods smaller than 20 lines of code.
|
|
20
|
-
Mateus Carvalho da Silva
-
Aplicações de algoritmos genéticos de chaves aleatórias enviesadas e formulações para o problema da coloração de Grundy e o problema da coloração conexa de Grundy
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
PEDRO HENRIQUE GONZÁLEZ SILVA
-
MAURICIO GUILHERME DE CARVALHO RESENDE
-
FREDERICO ARAUJO DURAO
-
RAFAEL AUGUSTO DE MELO
-
Data: 13/12/2023
-
-
Mostrar Resumo
-
Dado um grafo G, seu número de Grundy $\Gamma(G)$ define o comportamento de pior caso para a conhecida e amplamente utilizada heurística de coloração gulosa \textit{first-fit}. Mais especificamente, $\Gamma(G)$ é o maior $k$ para o qual uma $k$-coloração pode ser obtida com a heurística \textit{first-fit}. O número de Grundy conexo $\Gamma_c(G)$ fornece o comportamento do pior caso para a heurística de coloração \textit{first-fit} conexa, ou seja, aquela em que cada vértice a ser colorido, exceto o primeiro, é adicionado adjacente a um vértice já colorido. Ambos os problemas são NP-difíceis. Nesta dissertação, apresentamos abordagens heurísticas e exatas para o problema da coloração de Grundy e o problema de coloração de Grundy conexo, que são problemas de otimização consistindo na obtenção do número de Grundy e do número de Grundy conexo, respectivamente. Nesse estudo é proposto o uso do algoritmo genético de chaves aleatórias viesado (\textit{Biased random-key genetic algorithm} - BRKGA) e do uso de formulações de programação inteira usando uma abordagem mais tradicional (padrão) e uma por representativos. Também é proposto um novo limite superior combinatório que é válido para ambos os problemas e um algoritmo usando programação dinâmica para o seu cálculo. Os experimentos computacionais mostram que o novo limite superior pode melhorar o limite para vários casos em relação a um limite combinatório bem estabelecido disponível na literatura. Os resultados também evidenciam que a formulação por representativos tem um desempenho geral superior que a formulação padrão, alcançando melhores resultados para as instâncias mais densas, enquanto esta última tem melhor desempenho para as mais esparsas para o problema dos números de Grundy. Contudo mostramos que este tipo de formulações com programação inteira são computacionalmente impraticáveis para a versão conexa. Além disso, o BRKGA pode encontrar soluções de alta qualidade para ambos os problemas e pode ser usado com confiança em grandes instâncias onde as formulações falham para o problema da coloração de Grundy.
-
Mostrar Abstract
-
Given a graph G, its Grundy number $\Gamma(G)$ defines the worst-case behavior for the well-known and widely used first-fit greedy coloring heuristic. Specifically, $\Gamma(G)$ is the largest $k$ for which a $k$-coloring can be obtained with the first-fit heuristic. The connected Grundy number $\Gamma_c(G)$ gives the worst-case behavior for the connected first-fit coloring heuristic, that is, one in which each vertex to be colored, except the first, is added adjacent to an already colored vertex. Both problems are NP-hard. In this master's thesis, we present heuristic and exact approaches to the Grundy coloring problem and the connected Grundy coloring problem, which are optimization problems consisting of obtaining the Grundy number and the connected Grundy number, respectively. This study proposes the use of a algorithm Biased Random-Key Genetic Algorithm (BRKGA) and the use of integer programming formulations using a more traditional (standard) approach and a representative one. A new combinatorial upper bound is also proposed that is valid for both problems and an algorithm using dynamic programming for its calculation. The computational experiments show that the new upper bound can improve over a well-established combinatorial bound available in the literature for several instances. The results also evidence that the formulation by representatives has an overall superior performance than the standard formulation, achieving better results for the denser instances, while the latter performs better for the sparser ones to the Grundy coloring problem. However, we show that these types of integer programming formulations are computationally impractical for the connected version. Furthermore, the BRKGA can find high-quality solutions for both problems and can be used with confidence in large instances where the formulations fail for the Grundy coloring problem.
|
|
21
|
-
JUVENAL CONSTANTINO DE MACÊDO JÚNIOR
-
Investigando a associação entre Rajadas de Mudanças e o Status da Build
-
Orientador : RODRIGO ROCHA GOMES E SOUZA
-
MEMBROS DA BANCA :
-
RODRIGO ROCHA GOMES E SOUZA
-
IVAN DO CARMO MACHADO
-
JOSÉ AMÂNCIO MACEDO SANTOS
-
TIAGO OLIVEIRA MOTTA
-
Data: 18/12/2023
-
-
Mostrar Resumo
-
Rajadas de commits são sequências de modificações realizadas por desenvolvedores, que ocorrem no código dentro de um curto período de tempo. Em projetos que adotam a prática de Integração Contínua (IC), toda vez que uma modificação é finalizada, cria-se uma nova versão do código, gerando uma nova build. Nessa nova versão, as mudanças realizadas são verificadas automaticamente, executando testes de unidade e relatando o resultado de falha ou sucesso da build para os desenvolvedores. Nesse sentido, o objetivo desta pesquisa é realizar um estudo empírico para verificar a associação entre rajadas de commits e falhas na build. O primeiro passo foi a realização de um estudo empírico a partir da mineração de repositórios, por meio do qual se identificou a relação das rajadas de commits e falha na build. Após esse estudo, foi conduzido um survey, para se avaliar os resultados obtidos, considerando as opiniões de desenvolvedores que trabalham com IC. Dentre as descobertas realizadas, os resultados do primeiro estudo mostram que em alguns projetos a taxa de sucesso de builds após rajadas de mudanças tendem a diminuir. No entanto, não podemos generalizar os resultados para todos os projetos visto que, na maioria dos projetos estudados a diferença não foi estatisticamente significativa. No segundo estudo, a maioria dos participantes da pesquisa concordam que a proximidade da data de entrega de um projeto é um fator responsável pela rajada de commits e falha na build. No entanto, não podemos generalizar os resultados, visto que alguns desenvolvedores apresentaram pequenas discordâncias quanto aos responsáveis pela falha na build. Desse modo, os resultados deste trabalho pretendem contribuir com a comunidade de desenvolvedores que utilizam IC, ajudando-os a reduzir falhas na build, podendo orientar trabalhos futuros sobre boas práticas de desenvolvimento.
-
Mostrar Abstract
-
Commit bursts are sequences of changes made by developers that occur in code within a short period of time. In projects that adopt the practice of Continuous Integration (CI), every time a modification is completed, a new version of the code is created, generating a new build. In this new version, the changes made are verified automatically, running unit tests and reporting the result of failure or success of build to the developers. In this sense, the objective of this research is to carry out an empirical study to verify the association between bursts of commits and failures in build. The first step was to carry out an empirical study based on the mining of deposits, through which the relationship between bursts of commits and construction failure was identified. After this study, a survey was followed to evaluate the results obtained, considering the opinions of developers who work with CI. Among the discoveries made, the results of the first study show that in some projects the success rate of builds after bursts of changes tends to decrease. However, we cannot generalize the results to all projects since, in most of the studied projects, the difference was not statistically significant. In the second study, most survey participants agree that the proximity of a project's delivery data is a factor responsible for bursts of commits and build failure. However, we cannot generalize the results, since some developers had small disagreements about who was responsible for the construction failure. Thus, the results of this work intend to contribute to the community of developers who use CI, helping them to reduce failures in build, facilitating future work on good development practices.
|
|
22
|
-
ANGELA PEIXOTO SANTANA
-
Um Estudo de Caracterização da Dívida Técnica em Software na Indústria
-
Orientador : CHRISTINA VON FLACH GARCIA CHAVEZ
-
MEMBROS DA BANCA :
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
IVAN DO CARMO MACHADO
-
CRESCENCIO RODRIGUES LIMA NETO
-
TIAGO OLIVEIRA MOTTA
-
Data: 20/12/2023
-
-
Mostrar Resumo
-
Contexto. O termo Dívida Técnica (DT) denota resultados e consequências da decisão de priorizar a entrega rápida de software, com foco na eficácia de curto prazo, em detrimento de sua qualidade. Dívidas de natureza técnica contraídas durante o desenvolvimento e manutenção de um software devem ser identificadas, caracterizadas e pagas no futuro, para não comprometer sua qualidade e a facilidade de evolução. Em projetos de software desenvolvidos na indústria, reconhece-se a necessidade de identificar e caracterizar a DT no ciclo de vida de um software, buscando gerenciá-la e mitigar ameaças ao sucesso de longo prazo de um software. Estudos na indústria permitem explorar diferentes aspectos da DT na prática e sob diferentes perspectivas, por exemplo, de desenvolvedores e gerentes, enriquecendo a caracterização da DT. Objetivos. O objetivo principal deste trabalho foi investigar, no contexto de uma empresa de TI, as percepções dos profissionais de equipes de desenvolvimento sobre o conceito de DT e sobre como a DT se manifesta em um dos sistemas de software desenvolvidos. Métodos. Realizou-se um estudo no contexto da filial de uma empresa de desenvolvimento de software, incluindo: (i) um estudo de levantamento (survey) com funcionários que atuavam no desenvolvimento de software na filial; (ii) uma caracterização preliminar da DT de um sistema de software a partir da identificação da DT com o apoio da ferramenta de análise estática adotada pela empresa, SonarQube; (iii) entrevistas semi-estruturadas com a equipe de desenvolvimento do software analisado sobre a DT identificada pelo SonarQube. Resultados. O estudo de levantamento recebeu 32 respostas válidas. Observou-se que o conceito de DT era conhecido pela maioria dos profissionais que participaram do estudo, entretanto, com pouca familiaridade com as consequências de longo prazo da DT. A caracterização do sistema de software com base na identificação automática da DT foi realizada e usada como suporte para seis entrevistas. Segundo os desenvolvedores entrevistados, os prazos definidos para a implementação dos requisitos são notadamente curtos. As documentações, ao não serem atualizadas, tornam-se insuficientes no longo prazo, enquanto os testes são relegados a segundo plano em favor de entregas mais rápidas. Conclusões. A caracterização da Dívida Técnica em uma empresa, sob diferentes perspectivas, revelou que os prazos estabelecidos são o fator preponderante para as equipes de desenvolvimento decidirem incorrer em dívida técnica. A equipe entrevistada frequentemente opta por essa abordagem para atender aos prazos de entrega. Apesar de ser um tema conhecido, ainda há a necessidade de explorar e caracterizar as consequências a longo prazo da Dívida Técnica. Embora haja um aumento nas pesquisas sobre dívida técnica, o campo carece de consenso em suas definições e nos impactos a longo prazo na indústria.
-
Mostrar Abstract
-
Context. The term Technical Debt (TD) denotes the results and consequences of the decision to prioritize the rapid delivery of software, focusing on short-term effectiveness at the expense of its quality. Technical debts incurred during the development and maintenance of software must be identified, characterized, and repaid in the future to avoid compromising its quality and the ease of its evolution. In software projects developed in the industry, there is a recognized need to identify and characterize TD throughout the software lifecycle, aiming to manage it and mitigate threats to the long-term success of software. Industry studies allow exploring different aspects of TD in practice and from various perspectives, such as those of developers and managers, enriching the characterization of TD.
Objectives. The main objective of this work is to investigate, in the context of an IT company, the perceptions of development team professionals regarding the concept of Technical Debt (TD) and how TD manifests in one of the developed software systems.
Methods. We conducted a study in the context of a software development company branch, comprising:
(i) a survey with employees engaged in software development at the branch; (ii) a preliminary characterization of the Technical Debt (TD) in a software system based on the identification of TD using the static analysis tool adopted by the company, SonarQube; (iii) semi-structured interviews with the development team of the analyzed software regarding the TD identified by SonarQube.
Results. The survey study received 32 valid responses. It was observed that the concept of Technical Debt (TD) was known to the majority of professionals who participated in the study; however, they exhibited little familiarity with the long-term consequences of TD. The characterization of the software system based on the automatic identification of TD was conducted and used as support for the interviews. The deadlines set for the implementation of requirements are notably short. The documentation, when not updated, becomes insufficient in the long term, while testing is relegated to the background in favor of faster deliveries.
Conclusions. A characterization of Technical Debt in the industry revealed that established deadlines are the predominant factor for development teams to decide to incur technical debt. The team often chooses this approach to meet delivery deadlines. Despite being a known topic, there is still a need to disseminate the long-term consequences of Technical Debt. However, despite the increasing research on technical debt, the field lacks consensus on its definitions and long-term impacts on the industry.
|
|
23
|
-
ADRIANO HUMBERTO DE OLIVEIRA MAIA
-
Um Framework baseado em Fog Computing para redução de dados em um sistema de detecção de tráfego para VANETs
-
Orientador : MAYCON LEONE MACIEL PEIXOTO
-
MEMBROS DA BANCA :
-
RODRIGO AUGUSTO CARDOSO DA SILVA
-
ROBERTO RODRIGUES FILHO
-
MAYCON LEONE MACIEL PEIXOTO
-
Data: 20/12/2023
-
-
Mostrar Resumo
-
Com o crescimento da quantidade de veículos no mundo nos últimos anos, se tornou necessária a adoção de tecnologias para lidar com as consequências que esse volume veicular pode gerar para as grandes cidades, como o aumento dos congestionamento nas rodovias. As redes veiculares Ad-Hoc (VANETs) se apresentam como uma tecnologia promissora nesse cenário, auxiliando na formação de redes veiculares capazes de interconectar veículos e infraestrutura para entender e lidar com congestionamento de veículos. Considerando isso, a quantidade de dados gerados por esse ambiente aumenta na proporção que o número de veículos nas vias cresce. Consequentemente, o envio dos dados do ambiente veicular para a estrutura que identifica o congestionamento, pode ser cada vez mais oneroso no ponto de vista de utilização de rede, podendo gerar sobrecargas e aumento da latência e dificultando a tomada de decisão rápida. Dessa forma, propomos nesse trabalho, a construção de um Framework que visa identificar congestionamento de veículos, com uma abordagem para reduzir na camada de névoa, os dados gerados por uma VANET e depois enviar para a nuvem somente os dados mais relevantes para tomada de decisão. Além da detecção de congestionamento, com os dados históricos em formato de séries temporais realizamos a previsão de congestionamento utilizando ARIMA. Para trabalhar com a redução dos dados, o Framework utiliza algoritmos de amostragem simples e técnicas de agrupamento (DBSCAN e XMEANS). Os resultados mostraram que, a utilização de algoritmos de agrupamento nesse Framework pode alcançar um nível significativo de acurácia na detecção de congestionamento de tráfego em conjunto com uma redução acentuada do uso de rede.
-
Mostrar Abstract
-
With the growth in the number of vehicles in the world in recent years, it has become necessary to adopt technologies to deal with the consequences that this vehicle volume can generate for large cities, such as increased congestion on highways. Vehicular Ad-Hoc Networks (VANETs) present themselves as a promising technology in this scenario, helping to form vehicular networks capable of interconnecting vehicles and infrastructure to understand and deal with vehicle congestion. Considering this, the amount of data generated by this environment increases as the number of vehicles on the roads increases. Consequently, sending data from the vehicular environment to the structure that identifies congestion can be increasingly costly from the point of view of network use, potentially generating overloads and increased latency, making quick decision-making difficult. Therefore, in this work, we propose the construction of a Framework that aims to identify vehicle congestion, with an approach to reduce the data generated by a VANET in the fog layer and then send only the most relevant data to the cloud. for decision making. In addition to congestion detection, with historical data in time series format we perform congestion prediction using ARIMA. To work with data reduction, \textit{Framework} uses simple sampling algorithms and clustering techniques (DBSCAN and XMEANS). The results showed that the use of clustering algorithms in this Framework can achieve a significant level of accuracy in detecting traffic congestion together with a marked reduction in network usage.
|
|
24
|
-
IURY MAIA DE ALMEIDA
-
Predição da Evasão de Jogadores em Jogo Grátis-Para-Jogar Utilizando Game Analytics
-
Orientador : RODRIGO ROCHA GOMES E SOUZA
-
MEMBROS DA BANCA :
-
LYNN ROSALINA GAMA ALVES
-
RODRIGO ROCHA GOMES E SOUZA
-
TIAGO OLIVEIRA MOTTA
-
Data: 21/12/2023
-
-
Mostrar Resumo
-
A problemática da evasão de jogadores em jogos grátis-para-jogar representa um desafio significativo na indústria de jogos eletrônicos. A crescente popularidade desses modelos de negócios, nos quais os jogadores podem acessar o jogo gratuitamente, coloca uma ênfase crucial na retenção desses usuários para garantir o sucesso financeiro e a sustentabilidade do jogo. Nesse cenário, a análise preditiva emerge como uma ferramenta essencial para antecipar e compreender os padrões de evasão.
O trabalho começou com um mapeamento sistemático de literatura no campo de modelos preditivos em game analytics, visando responder à principal questão de pesquisa, Como modelos preditivos estão sendo aplicados em game analytics?. A pesquisa foi conduzida com base em um protocolo que definiu os objetivos, questões de pesquisa e critérios de inclusão e exclusão.
Os principais resultados indicam que a pesquisa sobre modelos preditivos em game analytics tem crescido significativamente desde 2010, com uma variedade de técnicas de aprendizado de máquina sendo aplicadas. Além disso os objetos de predição mais investigados incluem a probabilidade de vitória, a predição de evasão e a perícia do jogador. Quanto às técnicas de pré-processamento, foram identificadas várias abordagens, como análise de componentes principais (PCA) e técnicas de raspagem da web (web scraping).
Focamos nossa pesquisa em predição de evasão, inicialmente pela definição de evasão e estabelecimento de datas de corte, com a consideração de múltiplas janelas de tempo para classificação dos jogadores como evadidos ou recorrentes. A análise abordou as ameaças à validade do trabalho, incluindo questões de definição de evasão, desequilíbrio de classes e o uso de técnicas como o SMOTE para balancear os dados.
Foram avaliados seis modelos de aprendizado de máquina, com ênfase em métricas como acurácia, precisão, recall e AUC (Area Under the Curve). A técnica de 10-fold cross validation foi aplicada para validar os modelos, proporcionando uma visão mais abrangente de seu desempenho. A análise da importância das features revelou quais características dos jogadores eram mais relevantes para a previsão da evasão, embora a interpretação dessas features tenha sido destacada como dependente do contexto do jogo.
Em última análise, o trabalho ofereceu insights promissores para a previsão de evasão de jogadores em jogos grátis-para-jogar, mas ressaltou a necessidade de abordagens cuidadosas e considerações contextuais para mitigar ameaças à validade e garantir a generalização dos modelos para diferentes conjuntos de dados e períodos no tempo.
-
Mostrar Abstract
-
The issue of player churn in free-to-play games poses a significant challenge in the electronic gaming industry. The growing popularity of these business models, where players can access the game for free, places a crucial emphasis on retaining these users to ensure the financial success and sustainability of the game. In this scenario, predictive analysis emerges as an essential tool to anticipate and understand the patterns of player churn.
This study began with a systematic literature review in the field of predictive models in game analytics, aiming to answer the main research question: How are predictive models applied in game analytics? The research was conducted based on a protocol that defined the objectives, research questions, and inclusion and exclusion criteria.
The main findings indicate that research on predictive models in game analytics has grown significantly since 2010, with a variety of machine learning techniques being applied. Furthermore, the most investigated prediction targets include the probability of winning, churn prediction, and player expertise. Regarding preprocessing techniques, several approaches were identified, such as Principal Component Analysis (PCA) and web scraping techniques.
We focused our research on churn prediction, initially by defining churn and establishing cutoff dates, considering multiple time windows for classifying players as churned or recurrent. The analysis addressed the validity threats of the work, including churn definition issues, class imbalance, and the use of techniques like SMOTE to balance the data.
Six machine learning models were evaluated, with an emphasis on metrics like accuracy, precision, recall, and AUC (Area Under the Curve). The 10-fold cross-validation technique was applied to validate the models, providing a more comprehensive view of their performance. The analysis of feature importance revealed which player characteristics were most relevant for churn prediction, although the interpretation of these features was highlighted as context-dependent.
Ultimately, the work offered promising insights into the prediction of player churn in free-to-play games but emphasized the need for careful approaches and contextual considerations to mitigate validity threats and ensure the generalization of models to different datasets and time periods.
|
|
|
Teses |
|
1
|
-
EMMANUEL SÁVIO SILVA FREIRE
-
Organizando o Estado da Prática em Prevenção, Monitoramento e Pagamento de Dívidas Técnicas em Projetos de Software
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
DANIELA SOARES CRUZES
-
MANOEL GOMES DE MENDONCA NETO
-
RENATO LIMA NOVAIS
-
THIAGO SOUTO MENDES
-
UIRÁ KULESZA
-
Data: 30/01/2023
-
-
Mostrar Resumo
-
Contexto: Dívida Técnica (DT) descreve os efeitos de artefatos imaturos no desenvolvimento de software que podem trazer benefícios a curto prazo, mas que poderão ter que ser pagos com juros a longo prazo. O gerenciamento da DT equilibra os objetivos de curto e longo prazo, auxiliando as equipes de desenvolvimento a decidir sobre a necessidade e o melhor momento para eliminar a dívida. Dentre as atividades de gerenciamento da DT, tem-se a prevenção, o monitoramento e o pagamento. Por meio da prevenção, é possível evitar que equipes incorram em DT, enquanto o monitoramento as auxilia a acompanhar a evolução dos itens da DT em relação ao custo-benefício de eliminá-los ou não, ou seja, pagar os itens da dívida. Conhecer as práticas utilizadas para prevenir, monitorar e pagar os itens da DT pode auxiliar equipes de desenvolvimento na escolha da melhor prática a ser utilizada nos seus projetos. Identificar as razões que levam à não prevenção, ao não monitoramento e ao não pagamento da DT pode ajudar equipes a entenderem quais aspectos precisam ser melhorados para possibilitar o gerenciamento da DT. Embora a literatura técnica tenha investigado a prevenção, o monitoramento e o pagamento da DT, os resultados atuais refletem apenas o ponto de vista de um pequeno número de profissionais e organizações. Para alcançar os benefícios da gestão da DT, é necessário investigar mais profundamente as práticas e as razões associados a essas atividades da DT.
Objetivo: Esta tese tem como objetivo investigar, por meio da replicação contínua e independente de uma família de surveys conduzidos globalmente, o estado da prática sobre a prevenção, o monitoramento e o pagamento de itens da DT em projetos de software.
Método: Inicialmente, foi realizada uma revisão da literatura sobre o estado atual da pesquisa sobre DT e sua prevenção, monitoramento e pagamento. Em seguida, foram analisados os dados coletados por seis equipes de replicação do projeto InsighTD, uma família de surveys globalmente distribuída sobre causas, efeitos e gerenciamento da DT. A partir do corpo de conhecimento resultante das análises dos dados de InsighTD, foram definidos três artefatos: uma versão atualizada do modelo conceitual de DT, um conjunto de mapas conceituais e os diagramas IDEA (Impediments, Decision factors, Enabling practices, and Actions). Por fim, os três artefatos foram avaliados por meio de estudos de casos na academia e na indústria.
Resultados: Esta tese apresenta as principais práticas utilizadas para prevenir, monitorar e pagar itens da DT e as razões que justificam a não aplicação dessas práticas. Em relação à prevenção da DT, requisitos bem definidos, adoção de boas práticas de programação e melhor gerenciamento do projeto estão entre as cinco práticas relacionadas à prevenção mais citadas, enquanto prazo curto, gerenciamento ineficiente e falta de previsibilidade no desenvolvimento de software estão entre as cinco razões mais citadas para justificar a não prevenção da dívida. Sobre o monitoramento da DT, backlog composto por itens da DT, utilização de ferramentas e reuniões da equipe estão entre as cinco práticas relacionadas ao monitoramento mais citadas, enquanto falta de interesse, foco em metas de curto prazo e falta de tempo estão entre as cinco razões utilizadas para explicar o não monitoramento de itens da DT. Em relação ao pagamento da DT, refatoração de código, investindo esforço nas atividades de pagamento da DT e refatoração de design estão entre as cinco práticas relacionadas ao pagamento mais citadas, enquanto foco em metas de curto prazo, falta de interesse organizacional e falta de tempo estão entre as cinco razões mais citadas para explicar o não pagamento da DT. O modelo conceitual da DT foi atualizado por meio da inclusão do conhecimento oriundo do estado da prática e todas as práticas e razões, juntamente com seus tipos, natureza e categorias, foram organizadas em mapas conceituais e diagramas IDEA. Por meio da avaliação do modelo conceitual e do mapa de pagamento da DT, foi encontrado que eles são bem-organizados e fornecem informações valiosas para definir estratégias de gerenciamento da DT. A avaliação dos diagramas IDEA forneceu evidências positivas de que eles são fáceis de ler e seguir e podem influenciar as decisões sobre como gerenciar itens de TD. Conclusão: Utilizando dados de InsighTD, esta tese explora o estado da prática da prevenção, monitoramento e pagamento da DT, revelando as principais práticas utilizadas para realizar essas atividades e as razões que evitam sua execução. Todo o corpo de conhecimento foi organizado em três artefatos que podem guiar novas investigações sobre a DT e apoiar os profissionais de software a aumentar suas capacidades e reduzir seus problemas no gerenciamento de itens de dívida.
-
Mostrar Abstract
-
Context: Technical debt (TD) describes the effects of immature artifacts on software development that can bring benefits in the short term but may have to be paid with interest in the long term. TD management balances short-term and long-term goals, supporting development teams to decide on the need and the best time to eliminate the debt. TD management activities include prevention, monitoring, and payment. Through prevention, it is possible to prevent teams from incurring TD, while monitoring helps them follow the evolution of TD items concerning the cost-benefit of eliminating them or not, that is, paying the debt items. Knowing the practices used to prevent, monitor, and pay TD items can help development teams to choose the best practice to be used in their projects. Identifying the practice avoidance reasons (PARs) that lead to nonprevention, non-monitoring, and non-payment of TD can help teams understand which aspects need to be improved to enable TD management. Although the technical literature has investigated the prevention, monitoring, and payment of TD, current results only reflect the viewpoint of a small number of professionals and organizations. To achieve the benefits of TD management, it is necessary to investigate more deeply the practices and PARs associated with these TD activities.
Aims: This Ph.D. dissertation aims to investigate, through the continuous and independent replication of a family of surveys conducted globally, the state of practice on the prevention, monitoring, and payment of TD items in software projects.
Method: Initially, we conducted a literature review on the current state of research on TD and its prevention, monitoring, and payment. Then, we analyzed data collected by six replication teams from the InsighTD project, which is a family of globally distributed surveys on the causes, effects, and management of TD. From the body of knowledge resulting from the analysis of InsighTD data, we defined three artifacts: an updated version of the conceptual model for TD, a set of conceptual maps, and IDEA (Impediments, Decision factors, Enabling practices, and Actions) diagrams. Finally, we assessed these artifacts through case studies in academic and industrial settings.
Results: This Ph.D. dissertation presents the leading practices used to prevent, monitor, and pay off TD items and the PARs that justify the non-application of these practices. Regarding the prevention of TD, well-defined requirements, adopting good programming practices, and better project management are among the five most cited practices related to prevention, while short deadlines, ineffective management, and lack of predictability in the software development are among the five most cited PARs to justify the non-prevention of debt. About TD monitoring, TD item backlog, use of tools, and team meetings are among the five most cited practices related to monitoring, while lack of interest, focus on short-term goals, and lack of time are among the five PARs used to explain the non-monitoring of TD items. Regarding TD payment, code refactoring, investing effort in TD payment activities, and design refactoring are among the top five payment-related practices, while focusing on short-term goals, lack of organizational interest, and lack of time are among the five most cited PARs to explain the non-payment of TD. We update the conceptual model for TD by including the knowledge we learn from the state of practice and organize all practices and PARs along with their types, natures, and categories into maps and IDEA diagrams. From the conceptual model and TD payment map assessment, we found that they are well organized and provide valuable information to define strategies for TD management. The IDEA diagrams assessment provided positive evidence that the diagrams are easy to read and follow and can influence decisions on how to manage TD items.
Conclusion: Using the InsighTD data, this Ph.D. dissertation explores the state of practice on TD prevention, monitoring, and payment, revealing the primary practices used to perform these activities and the PARs that avoid their execution. All body of knowledge was organized into three artifacts that can drive new investigations on TD and support software practitioners in increasing their capabilities and reducing their issues in managing debt items.
|
|
2
|
-
Edson Mota da Cruz
-
DaRkaM: Um Framework de Redução de Dados Baseado na Névoa Aplicado ao Contexto da Computação Urbana
-
Orientador : MAYCON LEONE MACIEL PEIXOTO
-
MEMBROS DA BANCA :
-
ADEMAR TAKEO AKABANE
-
DIONISIO MACHADO LEITE FILHO
-
GERALDO PEREIRA ROCHA FILHO
-
LOURENÇO ALVES PEREIRA JUNIOR
-
MAYCON LEONE MACIEL PEIXOTO
-
Data: 01/02/2023
-
-
Mostrar Resumo
-
Os Sistemas de Transporte Inteligente (ITS) são projetados para analisar o fluxo de veículos nas rodovias com o objetivo de identificar eventuais anomalias de tráfego, garantindo maior eficiência na tomada de decisão. Estes sistemas podem ser estruturados no contexto das redes veiculares Ad-Hoc (VANET), na qual realizam a tarefa de integrar os elementos do espaço urbano por meio de um sistema de comunicação distribuída. Analogamente, aplicações ITS requerem um monitoramento constante das rodovias e tal monitoramento visa analisar, entre outros aspectos, a variação da densidade de veículos ao longo do tempo. Em geral, este processo ocorre por meio do envio periódico de dados situacionais do ambiente de mobilidade para a nuvem. Como consequência, os conjuntos de dados enviados em alta frequência para nuvem formam um fluxo contínuo de dados a serem processados e essa dinâmica resulta no aumento progressivo do custo de comunicação. Esse fenômeno ocorre em função do volume de dados transferidos no enlace entre a névoa e a nuvem, elevando os riscos de sobrecarga no canal de comunicação, além de aumentar a latência durante as requisições de serviços disponibilizados na nuvem. Diante disso, propõe-se neste trabalho, a elaboração de uma arquitetura multicamada para redução de dados baseada em Fog Computing denominada DaRkaM, acrônimo em inglês para (Data Reduction Framework for Traffic Management). A estratégia consiste na utilização de uma estratégia de monitoramento capaz de realizar processos de redução de dados diretamente na borda da rede veicular. Na camada da nuvem, DaRkaM atua como um controlador central, analisando as posições geográficas dos veículos que são recebidas a partir de um fluxo de dados contínuo, os quais são utilizados nos processos de monitoramento e gestão do tráfego. %sobre os quais são realizadas as ações de monitoramento. Na borda da rede, um módulo de redução de dados implementado no framework DaRkaM foi projetado para hospedar diferentes estratégias de monitoramento de tráfego. Esta arquitetura permite a realização de análises comparativas envolvendo tanto a utilização de algoritmos baseados em amostragem simples, como o uso de algoritmos de agrupamento, nos quais os processos de redução de dados são estruturados com base na similaridade dos objetos analisados. Os resultados preliminares demonstraram que a utilização de algoritmos baseados em agrupamento, hospedados no núcleo de redução de dados do framework DaRkaM, podem alcançar uma significativa redução no custo de comunicação, especialmente em cenários sobrecarregados, além de manterem alta precisão no monitoramento e detecção de congestionamento de tráfego.
-
Mostrar Abstract
-
The Intelligent Transport Systems (ITS) has a function to analyze the flow of vehicles on highways in order to identify any traffic anomalies, ensuring greater efficiency during the decision-making process. These systems can be based on an Ad-Hoc vehicular network (VANETs) able to integrate the elements of urban space through a distributed communication system. Similarly, ITS applications require constant monitoring of roads, and such monitoring aims to analyze, among other aspects, the variation of the vehicle density over time. In general, this process occurs by means of the periodic sending of situational data from the mobility environment to the cloud. Consequently, the data sets sent at high frequency to the cloud form a continuous data flow that should be processed in a real-time context. However, this dynamic implies in a progressive increase of the communication cost, in function of the volume of data transferred in the link between the fog and the cloud, increasing the risks of overload beyond increasing the latency during requests for services made available in the cloud. Therefore, this work proposes the development of a multilayer architecture for data reduction based on Fog Computing called DaRkaM, acronym in English for (Data Reduction Framework for Traffic Management). The strategy consists of using a monitoring model able to perform data reduction processes directly at the edge of the vehicular network. At the cloud layer, DaRkaM acts as a central controller, analyzing the geographic positions of vehicles that are received from a continuous data flow. These data are used to monitor and perform the traffic management processes addressed in this proposal. At the edge network, a data reduction module was designed to host different traffic monitoring strategies. This architecture favors the comparative analysis among different approaches, ranging from the use of algorithms based on simple sampling until clustering algorithms, in which the data reduction processes are structured based on the number of clusters. The results showed that the use of cluster-based algorithms, hosted in the data reduction core of the DaRkaM framework, are able to achieve high accuracy in monitoring and detecting traffic congestion, in addition, they are able to reach a significant reduction in communication cost, especially in overloaded scenarios.
|
|
3
|
-
DIEGO BRAGA MONTEIRO DE MOURA
-
Heterogeneous Memory Management for Graph Applications
-
Orientador : VINICIUS TAVARES PETRUCCI
-
MEMBROS DA BANCA :
-
PAUL M. CARPENTER
-
LUIS FILIPE NUNES QUARESMA DE OLIVEIRA
-
DANIEL MOSSÉ
-
ESBEL TOMÁS VALERO ORELLANA
-
GEORGE MARCONI DE ARAUJO LIMA
-
VINICIUS TAVARES PETRUCCI
-
Data: 09/03/2023
-
-
Mostrar Resumo
-
A demanda por memória aumentou devido ao surgimento de várias aplicações, como big data, aprendizado de máquina, redes sociais, análise de grafos entre outros. A tecnologia DRAM está enfrentando problemas com escalabilidade, energia e custos, apesar de sua vantagem de baixa latência. A memória não volátil (NVM) é uma alternativa aos problemas de escalabilidade da DRAM. Embora o NVM tenha alta densidade, baixo custo e baixo consumo de energia, sua alta latência o impede de substituir a DRAM. Memórias heterogêneas como DRAM+NVM provavelmente se tornarão comuns, e o posicionamento eficiente de dados é uma importante questão de pesquisa. Esta dissertação de doutorado se concentra no gerenciamento de posicionamento de dados para aplicações de análise de grafos. Ele estuda modelos de aprendizado de máquina para prever o desempenho de aplicativos em um contexto com várias aplicações e explora opções de mapeamento de dados no nível de objeto ou bloco para uma única aplicação. A dissertação contribui para a identificação off-line de atributos de objetos que influenciam o desempenho, a implementação de um escalonador off-line no nível do chunk e a implementação de um escalonador on-line no nível do chunk.
-
Mostrar Abstract
-
The demand for memory has increased due to various applications such as big data, machine learning, social networks, and streaming analytics. DRAM technology is facing issues with scalability, energy, and costs, despite its low latency advantage. Non-Volatile Memory (NVM) is an alternative to DRAM scalability issues. Although NVM has high density, low cost, and low energy, its high latency prevents it from replacing DRAM. Heterogeneous memories like DRAM+NVM are likely to become common, and efficient data placement is an important research question. This PhD dissertation focuses on managing data placement for graph analytics applications. It studies machine learning models to predict application performance in a context with multiple applications and explores data mapping choices at the object or chunk level for a single application. The dissertation contributes to offline identification of performance-influencing object attributes, implementation of an offline scheduler at the chunk level, and implementation of an online scheduler at the chunk level.
|
|
4
|
-
Valéria Argôlo Rosa de Queiroz
-
Design de Interação Semioparticipativo por pessoas Idosas: empatia e engajamento na produção de tecnologia
-
Orientador : ECIVALDO DE SOUZA MATOS
-
MEMBROS DA BANCA :
-
SIMONE BACELLAR LEAL FERREIRA
-
KAMILA RIOS DA HORA RODRIGUES
-
FAUSTO ORSI MEDOLA
-
ECIVALDO DE SOUZA MATOS
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
Data: 27/03/2023
-
-
Mostrar Resumo
-
O número de pessoas idosas tem aumentado consideravelmente em todo o mundo. Assim, a ciência tem desenvolvido estratégias para ajudar as pessoas a envelhecer com saúde e manter a vida ativa. As tecnologias digitais podem contribuir para isso. No entanto, essas tecnologias nem sempre são projetadas de acordo com as reais necessidades e expectativas dos idosos. Estimular idosos a projetar tecnologias computacionais por meio de perspectivas abertas e participativas de design de interação tem-se mostrado uma solução possível. Contudo, engajar o sujeito idoso nesse processo e torná-lo parceiro de design ainda é desafiador. A maioria dos estudos baseados em práticas participativas encontrados não estabelece o engajamento de potenciais usuários, principalmente em relação aos sujeitos idosos. Desse modo, esta pesquisa teve o objetivo de investigar e desenvolver técnicas de engajamento do sujeito idoso na concepção de tecnologias digitais por meio de um processo semioparticipativo de (co)design de interação, estabelecendo a empatia como elemento fundamental de engajamento. Para isso, inicialmente foi elaborado um modelo de engajamento para integrar os elementos e variáveis desse modelo em um processo semioparticipativo. Sob essa perspectiva, realizou-se dois estudos de casos, o primeiro no formato presencial e o segundo no formato remoto, em uma abordagem qualitativa com mulheres idosas. Os resultados analisados por meio do método de análise de conteúdo confirmaram a potencialidade dos elementos e variáveis para melhorar o engajamento do sujeito idoso. Espera-se que esses resultados possam contribuir para a ampliação dos processos semioparticipativos de codesign de interação na perspectiva do sujeito idoso, além de oferecer elementos epistemológicos para desenvolvimento de métodos e processos de design de interação inclusivos.
-
Mostrar Abstract
-
The number of elderly people has increased considerably around the world. Thus, science has developed strategies to help people age healthily and maintain an active life. Digital technologies can contribute to this. However, these technologies are not always designed according to the real needs and expectations of the elderly. Encouraging the elderly to design computational technologies through open and participatory perspectives of interaction design has been shown to be a possible solution. However, engaging older people in this process and making them a design partner is still challenging. Most studies based on participatory practices found do not establish the engagement of potential users, especially in relation to elderly people. Therefore, this research aimed to investigate and develop techniques to engage the elderly in designing digital technologies through a semi-participatory interaction (co)design process, establishing empathy as a fundamental engagement element. To this end, an engagement model was initially developed to integrate the elements and variables of this model in a semi-participatory process. From this perspective, two case studies were carried out, the first in a face-to-face format and the second in a remote format, in a qualitative approach with elderly women. The results analyzed using the content analysis method confirmed the potentiality of the elements and variables to improve the engagement of the elderly person and, thus, provided the conception of an informative educational document in Guide format, highlighting the main techniques, activities and strategies with the purpose of making the conduction of a semi-participatory Interaction co-design process more practical and accessible. It is expected that these results may contribute to the expansion of semi-participatory interaction co-design processes from the perspective of the elderly person, besides offering epistemological elements for developing inclusive interaction design methods and processes.
|
|
5
|
-
Djan Almeida Santos
-
Compreensibilidade de Código Fonte com Dependência entre Features em Sistemas Configuráveis
-
Orientador : CLAUDIO NOGUEIRA SANT ANNA
-
MEMBROS DA BANCA :
-
ROHIT GHEYI
-
FLÁVIO MOTA MEDEIROS
-
CLAUDIO NOGUEIRA SANT ANNA
-
EDUARDO SANTANA DE ALMEIDA
-
IVAN DO CARMO MACHADO
-
Data: 28/03/2023
-
-
Mostrar Resumo
-
Compilação condicional é frequentemente utilizada para implementar variabilidade em código fonte de sistemas configuráveis. Compilação condicional utiliza #ifdefs para delimitar o código de uma funcionalidade (feature). Estudos anteriores mostraram que #ifdefs podem dificultar a compreensão do código. No entanto, esses estudos não levaram explicitamente em conta as dependências entre features. A dependência entre feature ocorre quando diferentes features se referem ao mesmo elemento de programa, como por exemplo, uma variável. A compreensibilidade de código fonte de sistemas configuráveis pode ser ainda mais afetada na presença de dependência entre features, pois o desenvolvedor deve raciocinar sobre diferentes cenários que afetam a mesma variável. Nosso objetivo é, portanto, entender como a dependência entre features afeta a compreensibilidade do código fonte de sistemas configuráveis. Para isso, realizamos quatro estudos experimentais complementares. No Estudo 1, quarenta e seis desenvolvedores responderam a uma pesquisa online. Eles executaram tarefas nas quais tiveram que analisar programas contendo #ifdefs com e sem dependências entre features. No entanto, as dependências entre features podem ser de tipos diferentes, dependendo do escopo da variável compartilhada. No Estudo 1, não nos preocupamos com diferentes tipos de dependência. Assim, no Estudo 2, realizamos um experimento no qual 30 desenvolvedores depuraram programas com diferentes tipos de dependência entre features. Cada programa incluiu um tipo diferente de dependência entre features: global, intraprocedural ou interprocedural. Usamos um dispositivo de rastreamento ocular para registrar os movimentos do olhar dos desenvolvedores enquanto depuravam os programas. No entanto, as dependências entre features não diferem umas das outras apenas em termos de tipos. Eles também podem apresentar diferenças em termos de número de variáveis dependentes e grau de variabilidade, entre outros. Para atender a essas características, complementamos os Estudos 1 e 2 por meio dos Estudos 3 e 4. No Estudo 3, realizamos um experimento controlado com 12 participantes que analisaram programas com diferentes números de variáveis dependentes. No Estudo 4, realizamos um experimento no qual 12 desenvolvedores analisaram programas com diferentes graus de variabilidade. Nossos resultados mostram que: (i) analisar programas contendo #ifdefs e dependência entre features exigiu mais tempo do que programas contendo #ifdefs, mas sem dependência entre features, (ii) depurar programas com #ifdefs e dependência global ou interprocedural exigiu mais tempo e maior esforço visual do que programas com dependência intraprocedural, (iii) quanto maior o número de variáveis dependentes, mais difícil foi para entender programas com dependência entre features e (iv) o grau de variabilidade não afetou a compreensibilidade de programas com dependência entre features. Em resumo, nossos estudos mostraram que #ifdefs afetaram a compreensibilidade de sistemas configuráveis em diferentes graus, dependendo da presença ou não de dependência entre features, do tipo de dependência entre features e do número de variáveis dependentes.
-
Mostrar Abstract
-
Conditional compilation is often used to implement variability in configurable systems. This technique relies on #ifdefs to delimit feature code. Previous studies have shown that #ifdefs may hinder code comprehensibility. However, those studies did not explicitly take feature dependencies into account. Feature dependency occurs when different features refer to the same program element, such as a variable. Comprehensibility may be even more affected in the presence of feature dependency, as the developer must reason about different scenarios affecting the same variable. Our goal is to understand how feature dependency affects the comprehensibility of configurable system source code. We conducted four complementary empirical studies. In Study 1, forty-six developers responded an online survey. They executed tasks in which they had to analyze programs containing #ifdefs with and without feature dependency. However, feature dependencies may be of different types depending on the scope of the shared variable. In Study 1, we were not concerned with different types of dependency. Thus, in Study 2, we carried out an experiment in which 30 developers debugged programs with different types of feature dependency. Each program included a different type of feature dependency: global, intraprocedural or interprocedural. We used an eye-tracking device to record developers' gaze movements while they debugged programs. However, feature dependencies do not differ from each other only in terms of types. They can also present differences in terms of number of dependent variables and degree of variability, among others. To address those characteristics, we complemented Study 1 and 2 by means of Studies 3 and 4. In Study 3, we executed a controlled experiment with 12 participants who analyzed programs with different numbers of dependent variables and number of uses of dependent variables. In Study 4, we carried out an experiment in which 12 developers analyzed programs with different degrees of variability. Our results show that: (i) analyzing programs containing #ifdefs and feature dependency required more time than programs containing #ifdefs but without feature dependency, (ii) debugging programs with #ifdefs and global or interprocedural dependency required more time and higher visual effort than programs with intraprocedural dependency, (iii) the higher the number of dependent variables the more difficult it was to understand programs with feature dependency, and (iv) the degree of variability did not affect the comprehensibility of programs with feature dependency. In summary, our studies showed that #ifdefs affected comprehensibility of configurable systems in different degrees depending on the presence or not of feature dependency, on the type of feature dependency, and on the number of dependent variables.
|
|
6
|
-
LEANDRO OLIVEIRA DE SOUZA
-
Although Software Product Lines (SPL) offer the potential for order-of-magnitude improvements in software engineering performance, the up-front cost, level of effort, assumed risk, and latency required to make the transition to SPL are prohibitive adoption barriers for many organizations that could otherwise benefit from reusing of their existing systems. The SPL adoption from an extractive model based on a reengineering process of existing systems into SPL is an active research topic with tangible benefits in practice. It allows software development companies to preserve their investment and aggregate knowledge obtained while developing their individually developed systems portfolio.
Despite these benefits, adopting an extractive product line approach still requires a considerable upfront investment and is more complex to evolve than one-off systems. Because of these drawbacks, software companies refrain from adopting SPL, resorting to an ad-hoc practice of clone-and-own. To speed the conversion to and maintenance of SPL, we present FOUNDRY, a Software Transplantation (ST) approach that guides transplanting and merging features in a product line from existing systems. It is the first approach for SPL that automates all stages of product line construction using the ST technique. We realized Foundry in a software transplantation tool for SPL that automates identifying, adapting, and transferring features from existing systems to a standard product base. Its code transfer mechanism between different systems allows it to be used not only for generating product lines but also as an alternative to the clone-and-own technique for system specialization. We compared our proposal with the existing reengineering solutions to demonstrate evidence that the ST is an alternative with the potential for application in reengineering existing systems to SPL. In the search for more concrete evidence, we evaluated two case studies where two products were generated by transplanting features from three real-world systems.
Moreover, we experimented with comparing Foundry’s feature migration with manual effort. We show that Foundry automatically migrated features across codebases 4.8 times faster, on average, than the average time a group of SPL experts took to accomplish the task. Although preliminary, our evaluation provides evidence to support the claim that ST for Software Product Line Engineering (SPLE) is a feasible and promising new research direction.
-
Orientador : EDUARDO SANTANA DE ALMEIDA
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
EDUARDO SANTANA DE ALMEIDA
-
GUSTAVO HENRIQUE LIMA PINTO
-
LEOPOLDO MOTTA TEIXEIRA
-
RODRIGO ROCHA GOMES E SOUZA
-
Data: 30/06/2023
-
-
Mostrar Resumo
-
Although Software Product Lines (SPL) offer the potential for order-of-magnitude improvements in software engineering performance, the up-front cost, level of effort, assumed risk, and latency required to make the transition to SPL are prohibitive adoption barriers for many organizations that could otherwise benefit from reusing of their existing systems. The SPL adoption from an extractive model based on a reengineering process of existing systems into SPL is an active research topic with tangible benefits in practice. It allows software development companies to preserve their investment and aggregate knowledge obtained while developing their individually developed systems portfolio.
Despite these benefits, adopting an extractive product line approach still requires a considerable upfront investment and is more complex to evolve than one-off systems. Because of these drawbacks, software companies refrain from adopting SPL, resorting to an ad-hoc practice of clone-and-own. To speed the conversion to and maintenance of SPL, we present FOUNDRY, a Software Transplantation (ST) approach that guides transplanting and merging features in a product line from existing systems. It is the first approach for SPL that automates all stages of product line construction using the ST technique. We realized Foundry in a software transplantation tool for SPL that automates identifying, adapting, and transferring features from existing systems to a standard product base. Its code transfer mechanism between different systems allows it to be used not only for generating product lines but also as an alternative to the clone-and-own technique for system specialization. We compared our proposal with the existing reengineering solutions to demonstrate evidence that the ST is an alternative with the potential for application in reengineering existing systems to SPL. In the search for more concrete evidence, we evaluated two case studies where two products were generated by transplanting features from three real-world systems.
Moreover, we experimented with comparing Foundry’s feature migration with manual effort. We show that Foundry automatically migrated features across codebases 4.8 times faster, on average, than the average time a group of SPL experts took to accomplish the task. Although preliminary, our evaluation provides evidence to support the claim that ST for Software Product Line Engineering (SPLE) is a feasible and promising new research direction.
-
Mostrar Abstract
-
Although Software Product Lines (SPL) offer the potential for order-of-magnitude improvements in software engineering performance, the up-front cost, level of effort, assumed risk, and latency required to make the transition to SPL are prohibitive adoption barriers for many organizations that could otherwise benefit from reusing of their existing systems. The SPL adoption from an extractive model based on a reengineering process of existing systems into SPL is an active research topic with tangible benefits in practice. It allows software development companies to preserve their investment and aggregate knowledge obtained while developing their individually developed systems portfolio.
Despite these benefits, adopting an extractive product line approach still requires a considerable upfront investment and is more complex to evolve than one-off systems. Because of these drawbacks, software companies refrain from adopting SPL, resorting to an ad-hoc practice of clone-and-own. To speed the conversion to and maintenance of SPL, we present FOUNDRY, a Software Transplantation (ST) approach that guides transplanting and merging features in a product line from existing systems. It is the first approach for SPL that automates all stages of product line construction using the ST technique. We realized Foundry in a software transplantation tool for SPL that automates identifying, adapting, and transferring features from existing systems to a standard product base. Its code transfer mechanism between different systems allows it to be used not only for generating product lines but also as an alternative to the clone-and-own technique for system specialization. We compared our proposal with the existing reengineering solutions to demonstrate evidence that the ST is an alternative with the potential for application in reengineering existing systems to SPL. In the search for more concrete evidence, we evaluated two case studies where two products were generated by transplanting features from three real-world systems.
Moreover, we experimented with comparing Foundry’s feature migration with manual effort. We show that Foundry automatically migrated features across codebases 4.8 times faster, on average, than the average time a group of SPL experts took to accomplish the task. Although preliminary, our evaluation provides evidence to support the claim that ST for Software Product Line Engineering (SPLE) is a feasible and promising new research direction.
|
|
7
|
-
Silvio Luiz Bragatto Boss
-
Avaliação automática de mapas conceituais para identificar indícios de aprendizagem significativa
-
Orientador : ALINE MARIA SANTOS ANDRADE
-
MEMBROS DA BANCA :
-
DAVIDSON CURY
-
ALINE MARIA SANTOS ANDRADE
-
CREDINE SILVA DE MENEZES
-
ECIVALDO DE SOUZA MATOS
-
LYNN ROSALINA GAMA ALVES
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
Data: 01/09/2023
-
-
Mostrar Resumo
-
Mapas Conceituais são ferramentas pedagógicas amplamente utilizadas para facilitar o processo de aprendizagem. De forma geral, podem ser definidos como diagramas com organização hierárquica que apresentam relações entre conceitos. São um importante instrumento para o ensino e avaliação do conhecimento por representarem, entre outras características, a estrutura cognitiva do aprendiz. Os mapas conceituais estão fundamentados na Teoria da Aprendizagem Significativa de Ausubel, assim, é possível avaliar os mapas com base em aspectos dessa Teoria, como as categorias-chave da diferenciação progressiva e reconciliação integrativa. Estas representam informações sobre o processo de construção do conhecimento sendo, portanto, fundamentais para uma avaliação de aprendizagem significativa. As categorias-chave podem ser identificadas no processo de elaboração dos mapas, no entanto, este processo não vem sendo muito explorado na literatura. A maioria dos trabalhos focam na análise comparativa entre o mapa do aprendiz e um mapa de referência para verificar se os conceitos e relações estão representados corretamente. A análise comparativa entre mapas é importante, mas não suficiente para uma avaliação da aprendizagem significativa, visto que as categorias-chave bem como outras informações da estrutura cognitiva do aprendiz, ou seja, como ele constrói e reconstrói seu conhecimento no decurso do seu processo de aprendizagem, são essenciais para identificar indícios de aprendizagem. Na literatura, há trabalhos que analisam a estrutura do mapa conceitual para classificar a qualidade da aprendizagem em aprendizagem mecânica, significativa ou não- aprendizagem, mas não analisa o processo de construção do mapa e nenhuma discussão é feita sobre a automatização da avaliação. Pesquisas no campo da Informática na Educação têm investigado o problema de se avaliar a aprendizagem, comparando mapas conceituais de aprendizes com um mapa de referência, por meio de ferramentas computacionais. Há diversas soluções que envolvem análise estrutural utilizando padrões de comparação e análise semântica por meio de ontologias de domínio. Esta tese de doutorado apresenta um modelo e um método para avaliação de mapas conceituais que considera avaliação sintática e semântica bem como o processo de construção de mapas, propondo critérios para identificar indícios de aprendizagem mecânica, significativa e não-aprendizagem. São consideradas avaliação qualitativa e quantitativa. Um framework conceitual é especificado fornecendo um arcabouço sobre a organização e estruturação de avaliação de mapas conceituais para apoiar a construção de sistemas computacionais para a sua automatização. Foram desenvolvidos estudos de caso, que serviram como uma primeira avaliação do método proposto.
-
Mostrar Abstract
-
Mapas Conceituais são ferramentas pedagógicas amplamente utilizadas para facilitar o processo de aprendizagem. De forma geral, podem ser definidos como diagramas com organização hierárquica que apresentam relações entre conceitos. São um importante instrumento para o ensino e avaliação do conhecimento por representarem, entre outras características, a estrutura cognitiva do aprendiz. Os mapas conceituais estão fundamentados na Teoria da Aprendizagem Significativa de Ausubel, assim, é possível avaliar os mapas com base em aspectos dessa Teoria, como as categorias-chave da diferenciação progressiva e reconciliação integrativa. Estas representam informações sobre o processo de construção do conhecimento sendo, portanto, fundamentais para uma avaliação de aprendizagem significativa. As categorias-chave podem ser identificadas no processo de elaboração dos mapas, no entanto, este processo não vem sendo muito explorado na literatura. A maioria dos trabalhos focam na análise comparativa entre o mapa do aprendiz e um mapa de referência para verificar se os conceitos e relações estão representados corretamente. A análise comparativa entre mapas é importante, mas não suficiente para uma avaliação da aprendizagem significativa, visto que as categorias-chave bem como outras informações da estrutura cognitiva do aprendiz, ou seja, como ele constrói e reconstrói seu conhecimento no decurso do seu processo de aprendizagem, são essenciais para identificar indícios de aprendizagem. Na literatura, há trabalhos que analisam a estrutura do mapa conceitual para classificar a qualidade da aprendizagem em aprendizagem mecânica, significativa ou não- aprendizagem, mas não analisa o processo de construção do mapa e nenhuma discussão é feita sobre a automatização da avaliação. Pesquisas no campo da Informática na Educação têm investigado o problema de se avaliar a aprendizagem, comparando mapas conceituais de aprendizes com um mapa de referência, por meio de ferramentas computacionais. Há diversas soluções que envolvem análise estrutural utilizando padrões de comparação e análise semântica por meio de ontologias de domínio. Esta tese de doutorado apresenta um modelo e um método para avaliação de mapas conceituais que considera avaliação sintática e semântica bem como o processo de construção de mapas, propondo critérios para identificar indícios de aprendizagem mecânica, significativa e não-aprendizagem. São consideradas avaliação qualitativa e quantitativa. Um framework conceitual é especificado fornecendo um arcabouço sobre a organização e estruturação de avaliação de mapas conceituais para apoiar a construção de sistemas computacionais para a sua automatização. Foram desenvolvidos estudos de caso, que serviram como uma primeira avaliação do método proposto.
|
|
8
|
-
Gabriela Oliveira Mota da Silva
-
Explorando estratégias de personalização de similaridade baseadas em Lod para sistemas de recomendação
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
DANIELA BARREIRO CLARO
-
FREDERICO ARAUJO DURAO
-
LAIS DO NASCIMENTO SALVADOR
-
NATASHA CORREIA QUEIROZ LINO
-
ROSALVO FERREIRA DE OLIVEIRA NETO
-
Data: 28/09/2023
-
-
Mostrar Resumo
-
Linked Open Data (LOD) é uma nuvem de conjuntos de dados livremente acessíveis e interconectados abranger dados legíveis por máquina. Esses dados estão disponíveis em Web Semântica aberta padrões, como Resource Description Framework (RDF) e protocolo SPARQL e Linguagem de Consulta RDF (SPARQL). Um exemplo notável de um conjunto de LOD é o DBpedia, um esforço comunitário de crowdsourcing para extrair informações estruturadas da Wikipedia e tornar esta informação disponível abertamente na Web. O conteúdo semântico de LOD e os recursos avançados do SPARQL abriram oportunidades sem precedentes para habilitar aplicações semânticas. Sistemas de recomendação baseados em LOD Sistemas de recomendação geralmente aproveitam os dados disponíveis nos conjuntos de dados LOD, como DBpedia, para recomendar itens como filmes, lugares, livros e música para usuários finais. Esses sistemas usam uma semântica algoritmo de similaridade que calcula o grau de correspondência entre pares de recursos contando o número de links diretos e indiretos entre eles, o comprimento do caminho entre eles, ou a hierarquia de classes. Por outro lado, calcular a similaridade em Gráficos RDF podem ser difíceis porque cada recurso pode ter centenas de links para outros nós. Nem todos eles são semanticamente relevantes ou podem ser aplicados a todos os recursos em o gráfico. Isso pode levar ao conhecido problema de esparsidade da matriz. No entanto, alguns esforço foi feito para selecionar subconjuntos de recursos, ou seja, links, que são mais úteis para calcular a similaridade entre os itens de um conjunto de dados do gráfico, reduzindo a dimensão da matriz. Apesar de vários estudos nesta área, ainda faltam soluções aplicadas à personalização de tarefas de seleção de recursos. Neste contexto, propomos estratégias personalizadas para melhorar a precisão da similaridade semântica em sistemas de recomendação baseados em LOD, incluindo i) aplicar uma abordagem de seleção de recursos para filtrar os melhores recursos para um determinado usuário; ii) personalizar o grafo RDF adicionando pesos às arestas, de acordo com o desejo do usuário preferências anteriores; e iii) explorar a semelhança de propriedades literais, bem como a links do modelo de usuário. Os experimentos de avaliação usaram dados combinados da DBpedia e conjuntos de dados MovieLens e DBpedia e LastFM. Os resultados indicam significativa aumentos nas principais tarefas de recomendação em Precision@K (K=5, 10), Map e NDCG sobre métodos de semelhanças de linha de base não personalizados, como distância semântica de dados vinculados (LDSD) e Similaridade de Recursos (ReSim). Os resultados mostram que o LOD baseado estratégias de personalização do modelo do usuário e seleção de recursos exploradas neste trabalho são eficiente para melhorar sistemas de recomendação baseados em conteúdo em diversos contextos.
-
Mostrar Abstract
-
Linked Open Data (LOD) is a cloud of freely accessible and interconnected datasets that encompass machine-readable data. These data are available under open Semantic Web standards, such as Resource Description Framework (RDF), SPARQL Protocol, and RDF Query Language (SPARQL). One notable example of a LOD set is DBpedia, a crowd-sourced community effort to extract structured information from Wikipedia and make this information openly available on the Web. The semantic content of LOD and the advanced features of SPARQL has opened unprecedented opportunities for enabling semantic-aware applications. LOD-based Recommender Systems Recommender Systems usually leverage the data available within LOD datasets such as DBpedia to recommend items such as movies, places, books, and music to end-users. These systems use a semantic similarity algorithm that calculates the degree of matching between pairs of resources by counting the number of direct and indirect links between them, the length of the path between them, or the hierarchy of classes. Conversely, calculating similarity in RDF graphs could be difficult because each resource can have hundreds of links to other nodes. Not all of them are semantically relevant or can be applied to all resources in the graph. This can lead to the well-known matrix sparsity problem. Nevertheless, some effort has been made to select subsets of features, i.e., links, which are more helpful to computing similarity between items of a graph dataset, reducing the matrix dimension. Despite several studies in this field, there is still a lack of solutions applied to the personalization of feature selection tasks. In this context, we propose personalized strategies to improve semantic similarity precision in LOD-based Recommender Systems, including i) applying a feature selection approach to filter the best features for a particular user, ii) personalizing the RDF graph by adding weights to the edges, according to the user’s previous preferences; and iii) exploiting the similarity of literal properties as well as the links from the user model. The evaluation experiments used combined data from DBpedia and MovieLens and DBpedia and LastFM datasets. Results indicate significant increases in top-n recommendation tasks in Precision@K (K=5, 10), Map, and NDCG over non-personalized baseline similarities methods such as Linked Data Semantic Distance (LDSD) and Resource Similarity (ReSim). The results show that the LOD-based strategies of user model personalization.
|
|
9
|
-
SAULO ANTONIO DE LIMA MATOS
-
Invariantes e estruturas de vizinhanças para 1-fatorações de grafos completos
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
RAFAEL AUGUSTO DE MELO
-
TIAGO DE OLIVEIRA JANUARIO
-
CELSO DA CRUZ CARNEIRO RIBEIRO
-
MARCIO COSTA SANTOS
-
VINICIUS FERNANDES DOS SANTOS
-
SEBASTIÁN ALBERTO URRUTIA
-
Data: 03/10/2023
-
-
Mostrar Resumo
-
Uma 1-fatoração é uma partição do conjunto de arestas de um grafo em emparelhamentos perfeitos. O conceito de 1-fatoração é de grande interesse devido às suas aplicações na modelagem de torneios esportivos. Duas 1-fatorações são ditas isomorfas (pertencem a mesma classe de isomorfismo) se existir uma bijeção entre seus conjuntos de vértices que transforme uma na outra. O espaço de busca de 1-fatorações não isomorfas é um grafo em que cada classe de isomorfismo é representada por um vértice e cada aresta que conecta os vértices $\mathcal{F}_a$ e $\mathcal{F}_b$ corresponde a um movimento em uma estrutura de vizinhança, que a partir de uma 1-fatoração isomorfa a $\mathcal{F}_a$ gera uma 1-fatoração isomorfa a $\mathcal{F}_b$. Uma invariante de uma 1-fatoração é uma propriedade que depende apenas de sua estrutura, de modo que 1-fatorações isomorfas possuem valores de invariantes iguais. Uma invariante é completa quando quaisquer duas 1-fatorações não isomorfas têm valores invariantes distintos. Essa tese analisa sete invariantes utilizadas para distinguir 1-fatorações não isomorfas de $K_{2n}$ (grafos completos com quantidade par de vértices). Considerando que as invariantes disponíveis na literatura não são completas, propomos duas novas invariantes, denominadas \textit{lantern profiles} e \textit{even-size bichromatic chains}. As invariantes são comparadas quanto aos seus tamanhos e complexidade computacional do seu cálculo. Além disso, realizamos experimentos computacionais para avaliar suas capacidades de distinguir 1-fatorações não isomorfas. Para tal, utilizamos os conjuntos de 1-fatorações não isomorfas de $K_{10}$ e $K_{12}$, bem como os conjuntos de 1-fatorações perfeitas não isomorfas de $K_{14}$ e $K_{16}$. Também consideramos aspectos algorítmicos e computacionais para explorar a vizinhança \textit{generalized partial team swap} (GPTS), uma estrutura de vizinhança para problemas de planejamento de tabelas de torneios \textit{round-robin} recentemente proposta na literatura. Nesse sentido, apresentamos um arcabouço para explorar a vizinhança GPTS. Além disso, é apresentada uma discussão sobre como esta estrutura de vizinhança aumenta a conectividade do espaço de busca definido por 1-fatorações não isomorfas de $K_{2n}$ (para $8 \le 2n \le 12$) quando comparada a outras estruturas de vizinhança.
-
Mostrar Abstract
-
A 1-factorization is a partition of the edge set of a graph into perfect matchings. The concept of 1-factorization is of great interest due to its applications in modeling sports tournaments. Two 1-factorizations are said to be isomorphic (belong to the same isomorphism class) if there exists a bijection between their sets of vertices that transforms one into the other. The non-isomorphic 1-factorization search space is a graph in which each isomorphism class is represented by a vertex and each edge that connects the vertices $\mathcal{F}_a$ and $\mathcal{F}_b$ corresponds to a move in a neighborhood structure, which from a 1-factorization isomorphic to $\mathcal{F}_a$ generates a 1-factorization isomorphic to $\mathcal{F}_b$. An invariant of a 1-factorization is a property that depends only on its structure such that isomorphic 1-factorizations are guaranteed to have equal invariant values. An invariant is complete when any two non-isomorphic 1-factorizations have distinct invariant values. This thesis reviews seven invariants used to distinguish non-isomorphic 1-factorizations of $K_{2n}$ (complete graph with an even number of vertices). Additionally, considering that the invariants available in the literature are not complete, we propose two new ones, denoted lantern profiles and even-size bichromatic chains. The invariants are compared regarding their sizes and calculation time complexity. Furthermore, we conduct computational experiments to assess their ability to distinguish non-isomorphic 1-factorizations. To accomplish that we use the sets of non-isomorphic 1-factorizations of $K_{10}$ and $K_{12}$, as well as the sets of non-isomorphic perfect 1-factorizations of $K_{14}$ and $K_{16}$. We also consider algorithmic and computational aspects for exploring the generalized partial team swap (GPTS) neighborhood, a neighborhood structure for round-robin sports scheduling problems recently proposed in the literature. In this regard, we present a framework to explore the GPTS neighborhood. Furthermore, a discussion is presented on how this neighborhood structure increases the connectivity of the search space defined by non-isomorphic 1-factorizations of $K_{2n}$ (for $8 \le 2n \le 12$) when compared to other neighborhood structures.
|
|
10
|
-
RENATA MARIA DE SOUZA SANTOS
-
Um Estudo de Múltiplos Casos sobre Práticas de Engenharia de Software em Startups em Estágio Inicial
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
GLEISON DOS SANTOS SOUZA
-
KIEV SANTOS DA GAMA
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
IVAN DO CARMO MACHADO
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 14/11/2023
-
-
Mostrar Resumo
-
Startups em estágios iniciais, frequentemente fundadas por equipes pequenas com ideias inovadoras, porém não comprovadas, enfrentam o desafio de validar seus conceitos no mercado. Essas ideias tomam forma por meio de um modelo de negócios flexível, adaptando-se até que uma abordagem repetível e escalável seja estabelecida. As startups precisam lidar com a pressão de fornecer rapidamente um produto ou serviço mínimo viável. Para as startups de software, isso frequentemente gira em torno de ofertas de software ou tecnologia, operando em um cenário altamente competitivo ao lado de empresas de vários tamanhos. Pesquisas recentes exploraram o contexto, objetivos, desafios e práticas de startups de software. Embora pesquisas extensivas tenham investigado como as startups de software se envolvem no desenvolvimento de software, ainda existe uma lacuna na compreensão de como elas selecionam e implementam práticas de desenvolvimento específicas. Descobrir seus processos e metodologias de desenvolvimento de software é igualmente essencial, pois isso impacta diretamente sua capacidade de superar os desafios do desenvolvimento de software. Perguntas-chave incluem: O que caracteriza o desenvolvimento de software em ambientes de startup? Como as startups priorizam os atributos de qualidade do produto em seus processos de desenvolvimento? Quais práticas de engenharia de software apoiam seus esforços de desenvolvimento e quais ferramentas auxiliam seu progresso? Esta tese busca obter insights sobre como as startups de software em estágios iniciais navegam na jornada de desenvolvimento de software, lançando luz sobre suas prioridades, processos e as ferramentas que utilizam. Nossa pesquisa adota uma abordagem qualitativa na forma de um estudo de caso múltiplo envolvendo 14 organizações. Analisamos os dados usando técnicas da Teoria Fundamentada, incluindo codificação aberta, axial e seletiva. As descobertas destacam a relevância crítica de fatores humanos, processos de desenvolvimento de software, práticas de engenharia de software e influências externas na jornada de desenvolvimento de software. A compreensão desses fatores levou à formulação de recomendações práticas para fortalecer o desenvolvimento de software em estágios iniciais nas startups. Este trabalho identifica fatores cruciais que influenciam o desenvolvimento de software nas startups e oferece recomendações práticas para suas iniciativas de desenvolvimento de software em estágios iniciais.
-
Mostrar Abstract
-
Early-stage startups, often founded by small teams with innovative yet unproven ideas, face the challenge of validating their concepts in the market. These ideas take shape through a fluid business model, adapting until a repeatable and scalable approach is established. Startups must grapple with the pressure to deliver a minimum viable product or service swiftly. For software startups, this often centers around software or technology-mediated offerings, operating within a competitive landscape alongside companies of various sizes. Recent research has explored software startups' context, objectives, challenges, and practices. While extensive research has delved into how software startups engage in software development, there remains a gap in understanding how they select and implement specific development practices. Uncovering their software development processes and methodologies is equally essential, as it directly impacts their ability to overcome software development challenges. Key questions include: What characterizes software development in startup environments? How do startups prioritize product quality attributes in their development processes? What software engineering practices support their development endeavors, and which tools aid their progress? This thesis seeks to gain insights into how early-stage software startups navigate the software development journey, shedding light on their priorities, processes, and the tools they leverage. Our research adopts a qualitative approach in the form of a multiple case study involving 14 organizations. We analyze the data employing Grounded Theory techniques, including open, axial, and selective coding. The findings underscore the critical relevance of human factors, software development processes, software engineering practices, and external influences in the software development journey. Understanding these factors has led to the formulation of practical recommendations to bolster early-stage software development within startups. This work identifies pivotal factors influencing software development within startups and offers practical recommendations for their early-stage software development endeavors.
|
|
11
|
-
RENATA MARIA DE SOUZA SANTOS
-
Um Estudo de Múltiplos Casos sobre Práticas de Engenharia de Software em Startups em Estágio Inicial
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
GLEISON DOS SANTOS SOUZA
-
IVAN DO CARMO MACHADO
-
KIEV SANTOS DA GAMA
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 14/11/2023
-
-
Mostrar Resumo
-
Startups em estágios iniciais, frequentemente fundadas por equipes pequenas com ideias inovadoras, porém não comprovadas, enfrentam o desafio de validar seus conceitos no mercado. Essas ideias tomam forma por meio de um modelo de negócios flexível, adaptando-se até que uma abordagem repetível e escalável seja estabelecida. As startups precisam lidar com a pressão de fornecer rapidamente um produto ou serviço mínimo viável. Para as startups de software, isso frequentemente gira em torno de ofertas de software ou tecnologia, operando em um cenário altamente competitivo ao lado de empresas de vários tamanhos. Pesquisas recentes exploraram o contexto, objetivos, desafios e práticas de startups de software. Embora pesquisas extensivas tenham investigado como as startups de software se envolvem no desenvolvimento de software, ainda existe uma lacuna na compreensão de como elas selecionam e implementam práticas de desenvolvimento específicas. Descobrir seus processos e metodologias de desenvolvimento de software é igualmente essencial, pois isso impacta diretamente sua capacidade de superar os desafios do desenvolvimento de software. Perguntas-chave incluem: O que caracteriza o desenvolvimento de software em ambientes de startup? Como as startups priorizam os atributos de qualidade do produto em seus processos de desenvolvimento? Quais práticas de engenharia de software apoiam seus esforços de desenvolvimento e quais ferramentas auxiliam seu progresso? Esta tese busca obter insights sobre como as startups de software em estágios iniciais navegam na jornada de desenvolvimento de software, lançando luz sobre suas prioridades, processos e as ferramentas que utilizam. Nossa pesquisa adota uma abordagem qualitativa na forma de um estudo de caso múltiplo envolvendo 14 organizações. Analisamos os dados usando técnicas da Teoria Fundamentada, incluindo codificação aberta, axial e seletiva. As descobertas destacam a relevância crítica de fatores humanos, processos de desenvolvimento de software, práticas de engenharia de software e influências externas na jornada de desenvolvimento de software. A compreensão desses fatores levou à formulação de recomendações práticas para fortalecer o desenvolvimento de software em estágios iniciais nas startups. Este trabalho identifica fatores cruciais que influenciam o desenvolvimento de software nas startups e oferece recomendações práticas para suas iniciativas de desenvolvimento de software em estágios iniciais.
-
Mostrar Abstract
-
Early-stage startups, often founded by small teams with innovative yet unproven ideas, face the challenge of validating their concepts in the market. These ideas take shape through a fluid business model, adapting until a repeatable and scalable approach is established. Startups must grapple with the pressure to deliver a minimum viable product or service swiftly. For software startups, this often centers around software or technology-mediated offerings, operating within a competitive landscape alongside companies of various sizes. Recent research has explored software startups' context, objectives, challenges, and practices. While extensive research has delved into how software startups engage in software development, there remains a gap in understanding how they select and implement specific development practices. Uncovering their software development processes and methodologies is equally essential, as it directly impacts their ability to overcome software development challenges. Key questions include: What characterizes software development in startup environments? How do startups prioritize product quality attributes in their development processes? What software engineering practices support their development endeavors, and which tools aid their progress? This thesis seeks to gain insights into how early-stage software startups navigate the software development journey, shedding light on their priorities, processes, and the tools they leverage. Our research adopts a qualitative approach in the form of a multiple case study involving 14 organizations. We analyze the data employing Grounded Theory techniques, including open, axial, and selective coding. The findings underscore the critical relevance of human factors, software development processes, software engineering practices, and external influences in the software development journey. Understanding these factors has led to the formulation of practical recommendations to bolster early-stage software development within startups. This work identifies pivotal factors influencing software development within startups and offers practical recommendations for their early-stage software development endeavors.
|
|