|
Dissertações |
|
|
1
|
-
Mayki dos Santos Oliveira
-
Um Sistema de Recomendação para Casas Inteligentes baseado em Grupos
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
FREDERICO ARAUJO DURAO
-
RAFAEL AUGUSTO DE MELO
-
ROSALVO FERREIRA DE OLIVEIRA NETO
-
Data: 24/02/2025
-
-
Mostrar Resumo
-
As casas inteligentes, ou Smart Homes, são ambientes que utilizam dispositivos conectados via IoT para coletar dados e automatizar tarefas, promovendo praticidade e conforto. Propostas existentes buscam analisar o comportamento dos moradores para melhorar a experiência e reduzir a necessidade de interação direta com os dispositivos. No entanto, cenários com múltiplos residentes e dispositivos mais complexos apresentam desafios, como conflitos de preferências devido à diversidade de necessidades e comportamentos. Em famílias, onde os indivíduos possuem diferentes níveis de autoridade e preferências, essas discordâncias podem ser frequentes. Uma solução viável é o uso de Sistemas de Recomendação (SRs) voltados para grupos em Casas Inteligentes (CIs), que modelam preferências coletivas, priorizando o conforto do grupo em vez de escolhas individuais. Este trabalho propõe o desenvolvimento de um modelo de recomendação baseado em aprendizado de máquina, capaz de identificar padrões de comportamento e gerar sugestões personalizadas, considerando dados históricos. O objetivo é minimizar conflitos e otimizar o uso dos dispositivos, promovendo um ambiente mais harmônico e eficiente. A avaliação do modelo foi realizada em três cenários simulados, obtendo uma precisão média de 74% nas recomendações de ações para os dispositivos.
-
Mostrar Abstract
-
Smart homes, or Smart Homes, are environments that use devices connected via IoT to collect data and automate tasks, promoting practicality and comfort. Existing proposals seek to analyze residents' behavior to improve the experience and reduce the need for direct interaction with devices. However, scenarios with multiple residents and more complex devices present challenges, such as conflicting preferences due to diverse needs and behaviors. These disagreements can be frequent in families, where individuals have different levels of authority and preferences. A viable solution is group-oriented Recommender Systems (SRs) in Smart Homes (CIs), which model collective preferences, prioritizing group comfort over individual choices. This work proposes developing a recommendation model based on machine learning to identify behavior patterns and generate personalized suggestions considering historical data. The objective is to minimize conflicts and optimize the use of devices, promoting a more harmonious and efficient environment. The model was evaluated in three simulated scenarios, obtaining an average accuracy of 74% in recommending actions for the devices.
|
|
|
2
|
-
Andressa Mirella Filgueiras da Silva
-
ENSINO DE PROGRAMAÇÃO POR MEIO DA ROBÓTICA EDUCACIONAL: CONTEXTO DOS ESTUDANTES DO CURSO TÉCNICO DE INFORMÁTICA DO CETEP/LNAB
-
Orientador : MARLO VIEIRA DOS SANTOS E SOUZA
-
MEMBROS DA BANCA :
-
KARINA MOREIRA MENEZES
-
LUMA DA ROCHA SEIXAS
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
Data: 26/03/2025
-
-
Mostrar Resumo
-
A Robótica Educacional destaca-se como uma abordagem pedagógica capaz de potencializar o aprendizado em programação de computadores e fomentar o engajamento estudantil na Educação Profissional e Tecnológica (EPT). Esta dissertação tem como objetivo investigar o impacto da Robótica Educacional no contexto dos cursos técnicos integrados ao Ensino Médio, utilizando uma pesquisa participante realizada por meio de um Clube de Robótica em um Centro Territorial de Educação Profissional. A metodologia adotada incluiu avaliação inicial dos níveis de engajamento e conhecimento prévio dos estudantes, seguida de atividades práticas semanais com a aplicação de conceitos de programação mediada pela robótica. Na etapa final, avaliou-se quantitativa e qualitativamente a evolução do engajamento e do conhecimento técnico dos participantes. Os resultados demonstram um aumento expressivo do engajamento emocional, cognitivo e comportamental dos estudantes, bem como uma melhoria consistente no domínio de habilidades técnicas em programação. Conclui-se que a utilização da Robótica Educacional é eficaz para reduzir barreiras cognitivas e promover um ambiente de aprendizado mais interativo e acessível aos estudantes da modalidade técnica integrada ao Ensino Médio.
-
Mostrar Abstract
-
Educational Robotics stands out as a pedagogical approach capable of enhancing learning in computer programming and fostering student engagement in Vocational and Technological Education (EPT, in Portuguese). This dissertation aims to investigate the impact of Educational Robotics in the context of integrated technical secondary education, using a participatory research carried out through a Robotics Club in a Territorial Center for Vocational Education. The adopted methodology included an initial assessment of the students' levels of engagement and prior knowledge, followed by weekly practical activities with the application of programming concepts mediated by robotics. In the final stage, the evolution of the participants' engagement and technical knowledge was quantitatively and qualitatively evaluated. The results demonstrate a significant increase in the students' emotional, cognitive and behavioral engagement, as well as a consistent improvement in the mastery of technical skills in programming. It is concluded that the use of Educational Robotics is effective in reducing cognitive barriers and promoting a more interactive and accessible learning environment for students in the technical modality integrated with High School.
|
|
|
3
|
-
JULIANA CONCEIÇÃO SANTOS
-
Process Checklist: Checklist Orientado à Transparência para Inspeção de Processos BPMN
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
HENRIQUE PRADO DE SÁ SOUSA
-
CLAUDIO NOGUEIRA SANT ANNA
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 05/06/2025
-
-
Mostrar Resumo
-
Nos últimos anos tem-se observado um interesse em processos de garantia da qualidade dos modelos de Processos em BPMN. Isso pode ser alcançado por meio da inspeção, uma técnica de análise estática que demonstra potencial para identificar problemas em artefatos de software. A inspeção de modelos de processos com checklists, apesar de ainda pouco explorada na literatura de processos, é um importante instrumento para apoiar o processo de inspeção na detecção de defeitos, visando à qualidade dos artefatos. A complexidade dos modelos de processos, a carência de estudos sobre inspeção realizada por humanos e a busca pela qualidade dos modelos impulsionaram essa pesquisa, focando na qualidade Transparência. A transparência dos modelos BPMN contribui para a descrição dos modelos de processos, melhorando o entendimento e a compreensão, beneficiando não apenas a eficiência interna como a gestão e a comunicação, mas também resultando em benefícios estratégicos, como boa reputação, credibilidade e o compartilhamento de informações de qualidade. Assim, ao avaliar os itens do checklist que dá suporte à avaliação da qualidade dos modelos, de forma sistemática e agregando o conhecimento do Catálogo de Transparência, no checklist de uma organização do segmento da justiça, identificou-se oportunidades de evoluir as práticas de verificação de modelos de processos em BPMN. Esta dissertação de mestrado tem como objetivo propor um Checklist ( Process Checklist), um instrumento de inspeção focado na transparência, para potencializar a qualidade dos modelos de processos em BPMN, identificando problemas de qualidade no modelo. Para esse propósito foi, inicialmente, realizada uma revisão da literatura para identificar estudos sobre inspeção de modelos de processos BPMN. O checklist, desenvolvido para uso humano, foi avaliado anonimamente por especialistas em modelagem de processos. A partir dos resultados da primeira avaliação da usabilidade, eficiência e eficácia do Process Checklist, realizada por cinco especialistas, identificou-se oportunidades de melhoria que foram implementadas para garantir modelos de processos transparentes, objetivos, confiáveis e de qualidade. Na segunda avaliação de desempenho, o Process Checklist obteve maior eficácia na garantia da qualidade do modelo em comparação com o BPCheck
-
Mostrar Abstract
-
In recent years there has been an interest in quality assurance processes for Process models in \acf{BPMN}. This can be achieved through inspection, a static analysis technique that demonstrates potential for identifying problems in software artifacts. Inspection of process models with checklists, although still little explored in the process literature, is an important instrument to support the inspection process in detecting defects, aiming at the quality of the artifacts. The complexity of process models, the lack of studies on inspection performed by humans and the search for quality of the models have driven this research, focusing on quality Transparency. The transparency of BPMN models contributes to the description of process models, improving understanding and comprehension, benefiting not only internal efficiency such as management and communication, but also resulting in strategic benefits, such as good reputation, credibility and the sharing of quality information. Thus, by evaluating the items of the checklist that supports the assessment of the quality of the models, systematically and adding the knowledge of the Transparency Catalog, in the checklist of an organization in the justice sector, opportunities were identified to evolve the practices of verification of process models in BPMN. This master's dissertation aims to propose a Checklist (Process Checklist), an inspection tool focused on transparency, to enhance the quality of process models in BPMN, identifying quality problems in the model. For this purpose, a literature review was initially carried out to identify studies on inspection of BPMN process models. The checklist, developed for human use, was evaluated anonymously by process modeling experts. Based on the results of the first evaluation of the usability, efficiency and effectiveness of the Process Checklist, carried out by five experts, opportunities for improvement were identified that were implemented to ensure transparent, objective, reliable and quality process models. In the second performance evaluation, the Process Checklist was more effective in ensuring model quality compared to BPCheck.
|
|
|
4
|
-
Cleiton Otavio da Exaltação Rocha
-
Detecção de empresas potencialmente não confiáveis por meio de extratos de compras governamentais: uma aplicação com modelos de linguagem natural
-
Orientador : GECYNALDA SOARES DA SILVA GOMES
-
MEMBROS DA BANCA :
-
GECYNALDA SOARES DA SILVA GOMES
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
RICARDO FERREIRA DA ROCHA
-
Data: 05/06/2025
-
-
Mostrar Resumo
-
No contexto das compras governamentais no Brasil, a eficiência e o monitoramento contínuo dos gastos representam desafios significativos para a gestão pública. O Governo Federal do Brasil, em 2023, emitiu um total de 1.761.910 de notas fiscais para diversos tipos de aquisições, resultando em um montante de R$ 76,62 bilhões em negociações com entidades privadas (TRANSPARÊNCIA, 2024). Essas aquisições governamentais abrangem um amplo espectro da máquina pública, incluindo aquisições para compras de materiais utilizados em construção de rodovias, manutenção de escolas e hospitais, utilização de bens pelo funcionalismo público, dentre outros fins. A aquisição desses insumos são distribuídas em diversos locais do território nacional, gerando um volume crescente e diversificado de informações, presentes em contratos e notas fiscais de produtos e serviços. No entanto, essas compras governamentais são frequentemente um campo fértil para a ocorrência de conluios e fraudes (OECD, 2007), como superfaturamento nos preços dos produtos, monopólios dos fornecedores, propina para agentes públicos, etc. O objetivo deste trabalho é comparar o desempenho de modelos de Processamento de Linguagem Natural (PLN) na tarefa de detecção - com base no extrato das compras governamentais - de empresas que já foram punidas por órgãos governamentais, como a Controladoria-Geral da União (CGU). Os dados utilizados são públicos e periodicamente atualizados através do portal de Dados Abertos do Governo Federal. Os resultados deste trabalho mostram que é possível utilizar modelos de linguagem natural como uma pré-etapa de investigação de compras suspeitas, fornecendo uma classificação de compras potencialmente problemáticas e que posteriormente podem ser avaliadas por um especialista, dessa forma, reduzindo a carga de trabalho humana ao reduzir a lista de compras para uma quantidade menor e mais focalizada.
-
Mostrar Abstract
-
In the context of government procurement in Brazil, efficiency and continuous monitoring of spending represent significant challenges to public management. Brazil’s government, in 2023, issued the amount of 1.761.910 invoices to different types of purchases, resulting in an amount of R$ 76,62 billions in negotiations with private entities (Transparˆencia 2024). The acquisition of these supplies is distributed in various locations throughout the country, generating a growing and diverse volume of information, found in contracts and invoices of products and services. However, these government purchases are frequently a fertile soil to the occurrence of colluding and fraud (OECD 2007), as overbilling on the price of products, suppliers monopoly, bribes to public officials, etc. The goal of this paper is to compare the performance of Natural Language Processing (NLP) models in the task of detection - based on the extract of government purchasing - of companies that were already punished by government agencies, such as the Office of the Comptroller General (CGU). The used data is public and periodically updated through Federal Government Open Data’s page. The results of this paper show that it is possible to use the natural language models as an early step to investigate suspicious purchases, providing a classification of potentially problematic purchases and afterwards it can be.
|
|
|
5
|
-
Jéssica de Souza Santana
-
Processo de Especificação de Competências Educacionais com Representação no Padrão de Metadados LOMc
-
Orientador : LAIS DO NASCIMENTO SALVADOR
-
MEMBROS DA BANCA :
-
ANA CONCEIÇÃO ALVES SANTIAGO
-
LAIS DO NASCIMENTO SALVADOR
-
VANINHA VIEIRA DOS SANTOS
-
Data: 16/06/2025
-
-
Mostrar Resumo
-
A crescente adoção de currículos orientados por competências, como o Computing Curricula 2020 (CC2020) da ACM/IEEE, tem ressaltado a importância de descrever competências de forma estruturada em recursos educacionais. Essa demanda se intensifica diante da necessidade de alinhar práticas pedagógicas a referenciais curriculares que integram conhecimentos, habilidades e atitudes. Nesse contexto, esta dissertação propõe o Competency Specification Process (CSP), um processo metodológico sistemático voltado à especificação e anotação de competências em tarefas educacionais na área de Computação. O objetivo central é promover maior clareza, reuso e interoperabilidade dos dados educacionais, contribuindo para o planejamento pedagógico e a personalização da aprendizagem. A pesquisa adota a abordagem da Design Science Research (DSR), estruturada em três ciclos interdependentes: o ciclo de relevância, voltado à identificação do problema no contexto educacional; o ciclo de rigor, responsável pela fundamentação teórica e definição dos requisitos do processo; e o ciclo de design, dedicado ao desenvolvimento e à avaliação da solução proposta. O CSP foi concebido com base nos princípios do CC2020 e na Taxonomia de Bloom, sendo aplicado em tarefas elaboradas segundo a metodologia de Aprendizagem Baseada em Problemas (ABP), previamente utilizadas em disciplinas de Teoria da Computação. Para fins de representação semântica das competências anotadas, foi também proposta uma extensão ao padrão Learning Object Metadata (LOM), denominada LOMc (LOM-Competence), formalizada em RDF. Essa modelagem contribuiu para garantir a interoperabilidade e a reutilização dos dados em ambientes digitais. A avaliação do processo foi realizada por meio de entrevistas com docentes da área de Teoria da Computação, que analisaram um conjunto de tarefas anotadas com base em critérios como clareza, relevância e potencial de reuso das competências descritas. Os resultados demonstram que o CSP favorece a formulação precisa e contextualizada de competências, melhora a articulação entre tarefas e objetivos formativos e contribui para práticas mais eficazes de curadoria e recomendação de recursos educacionais. A pesquisa também aponta desafios, como a necessidade de revisão manual das anotações, sugerindo como perspectiva futura a integração com ontologias educacionais para apoiar a automação e a escalabilidade do processo.
-
Mostrar Abstract
-
The increasing adoption of competency-based curricula, such as the ACM/IEEE Computing Curricula 2020 (CC2020), has highlighted the need for structured competency descriptions in educational resources. This demand grows as pedagogical practices must align with curricular frameworks integrating knowledge, skills, and attitudes. In this context, this dissertation proposes the Competency Specification Process (CSP), a systematic methodological approach for specifying and annotating competencies in computing education tasks. The primary goal is to enhance clarity, reusability, and interoperability of educational data, supporting pedagogical planning and personalized learning. The research follows Design Science Research (DSR), structured in three interdependent cycles: the relevance cycle, identifying educational challenges; the rigor cycle, grounding the process in theory and defining requirements; and the design cycle, developing and evaluating the proposed solution. CSP builds on CC2020 principles and Bloom’s Taxonomy, applied to Problem-Based Learning (PBL) tasks previously used in Theory of Computation courses. For semantic representation of competencies, an extension to the Learning Object Metadata (LOM) standard—LOMc (LOM-Competence)—was proposed, formalized in RDF to ensure interoperability and reuse in digital environments. Evaluation involved interviews with Theory of Computation instructors, who assessed annotated tasks based on clarity, relevance, and reusability. Results indicate that CSP enables precise, contextualized competency formulation, improves alignment between tasks and learning objectives, and enhances educational resource curation and recommendation. Challenges include the need for manual annotation review, suggesting future integration with educational ontologies to automate and scale the process.
|
|
|
6
|
-
Vítor Alves Barbosa
-
Abordagens exatas e heurísticas para o problema de coleta e entrega com janelas de tempo e escalonamento nas bordas e para o problema de escalonamento de tarefas acopladas a uma única máquina com atrasos exatos
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
RAFAEL AUGUSTO DE MELO
-
THIAGO FERREIRA DE NORONHA
-
CELSO DA CRUZ CARNEIRO RIBEIRO
-
Data: 21/07/2025
-
-
Mostrar Resumo
-
Neste trabalho, são estudados dois problemas de otimização relacionados ao roteamento e escalonamento. O primeiro estudo envolve o problema de coleta e entrega com janelas de tempo e escalonamento nas arestas (pickup and delivery problem with time windows and scheduling on the edges — PDPTW-SE). O desafio consiste em determinar rotas para uma frota heterogênea de veículos, a fim de transportar pedidos com locais específicos de coleta e entrega, considerando que algumas travessias exigem uma atuação sincronizada com máquinas. Como o número de máquinas é limitado, seu uso deve ser devidamente escalonado. O objetivo é minimizar o tempo total de conclusão, respeitando restrições de capacidade, janelas de tempo e precedência. Para esse fim, são desenvolvidas uma formulação de programação inteira mista (mixed integer programming — MIP) e uma heurística multistart com um procedimento de melhoria baseado em programação linear. Também é proposto um conjunto de instâncias de teste composto por duas famílias de instâncias, representando diferentes aplicações do problema. Nos experimentos computacionais, a formulação MIP resolve instâncias com até doze pedidos e encontra soluções viáveis para 93.40% das instâncias. A heurística, por sua vez, obtém soluções viáveis para todas as instâncias, com qualidade equivalente ou superior à da formulação MIP. O segundo estudo envolve o problema de escalonamento de tarefas acopladas em uma única máquina (single-machine coupled-task scheduling problem — SMCTSP). Esse é um problema de escalonamento de trabalhos, no qual cada trabalho é composto por duas tarefas acopladas, não preemptivas, e separadas por um atraso exato. O objetivo é minimizar o tempo de conclusão da última tarefa escalonada. Para tal, o problema é modelado utilizando programação por restrições (constraint programming — CP). Adicionalmente, um algoritmo genético de chaves aleatórias enviesadas (biased random-key genetic algorithm — BRKGA) é desenvolvido incorporando um gerador de soluções iniciais (warm-start), reinicializações periódicas com diferentes intensidades, e um algoritmo de busca local. Os experimentos computacionais indicam que o BRKGA proposto fornece soluções de alta qualidade com tempos computacionais reduzidos em comparação ao modelo CP. Por outro lado, o modelo CP supera significativamente as soluções obtidas pelo BRKGA quando executado por uma hora e com execução paralela em múltiplos núcleos. Por fim, as abordagens propostas em conjunto obtém novas soluções melhores para 93.33% das instâncias ainda não resolvidas até a otimalidade pelas abordagens anteriores na literatura.
-
Mostrar Abstract
-
In this work, two optimization problems related to routing and scheduling are studied. The first study addresses the PDPTW-SE. The challenge lies in determining routes for a heterogeneous fleet of vehicles to transport requests with specific pickup and delivery locations, considering that some traversals require synchronized operations with machines. Since the number of machines is limited, their usage must be properly scheduled. The objective is to minimize the total completion time while respecting capacity, time window, and precedence constraints. To this end, a MIP formulation and a multistart heuristic with a linear programming-based improvement procedure are developed. A benchmark set of instances is also proposed, consisting of two families of instances representing different applications of the problem. In the computational experiments, the MIP formulation solves instances with up to twelve requests and finds feasible solutions for 93.40% of the cases. The heuristic, in turn, obtains feasible solutions for all instances, with quality equivalent to or better than that of the MIP formulation. The second study addresses the SMCTSP. This is a job scheduling problem in which each job consists of two coupled, non-preemptive tasks separated by an exact delay. The objective is to minimize the completion time of the last scheduled task. The problem was modeled using CP, and a BRKGA was developed, incorporating a warm-start solution generator, periodic restarts with varying intensities, and a local search algorithm. Computational experiments showed that the proposed BRKGA provides high-quality solutions with reduced computational times compared to the CP model. On the other hand, the CP model significantly outperformed the BRKGA solutions when run for one hour with multiple threads. Finally, the proposed approaches combined obtained new best solutions for 93.33% of the instances that had not yet been solved to optimality by previous approaches in the literature.
|
|
|
7
|
-
Victor Soares Cardel
-
Uma Revisão Sistemática e Projeto de Funções de Escalonamento Baseado em Q-Learning para Redes 6TiSCH.
-
Orientador : BRUNO PEREIRA DOS SANTOS
-
MEMBROS DA BANCA :
-
PAULO HENRIQUE LOPES RETTORE
-
ALLAN EDGARD SILVA FREITAS
-
TATIANE NOGUEIRA RIOS
-
Data: 24/07/2025
Ata de defesa assinada:
-
-
Mostrar Resumo
-
A tecnologia IPv6 over the TSCH mode of IEEE 802.15.4e (6TiSCH) permite a operação de redes IPv6 em enlaces IEEE 802.15.4, as quais são gerenciadas pelo protocolo Time Slotted Channel Hopping (TSCH). O TSCH é um protocolo de acesso ao meio para redes sem fio de baixa potência, oferecendo baixo consumo, latência determinística e alta confiabilidade por meio de multiplexação tempo-frequência. Para tanto, o 6TiSCH usa Scheduling Functions (SFs) para definir os melhores momentos de comunicação dos dispositivos. A implementação das SFs, dependente do contexto da comunicação, é um tópico de estudo na literatura. Diversos trabalhos propuseram esquemas de escalonamento com vantagens e desvantagens. A Inteligência Artificial (IA), especialmente o aprendizado de máquina, surge como ferramenta promissora para adaptação e flexibilidade. Apesar de diversos estudos compararem estratégias de escalonamento, a sistematização de algoritmos de IA para 6TiSCH ainda carece de exploração. Este trabalho se propõe a realizar essa revisão, apresentando uma análise da atual conjuntura da utilização de IA na elaboração de SFs para 6TiSCH. Este trabalho avança ao apresentar, avaliar e comparar dois novos métodos de escalonamento baseado em Q-learning com o estado da arte em escalonamento 6TiSCH. Os resultados experimentais demonstram o potencial promissor da abordagem proposta.
-
Mostrar Abstract
-
An IPv6 over the TSCH mode of IEEE 802.15.4e (6TiSCH) network provides IPv6 connectivity through IEEE 802.15.4 links governed by Time Slotted Channel Hopping (TSCH). TSCH is a medium access control for low-power and lossy networks, providing low energy consumption, high reliability, and deterministic latency through time-division multiplexing. To achieve this goal, 6TiSCH defines a component responsible for determining the best communication scheduling of devices, called an Scheduling Function (SF). The design and implementation of SFs, being context-dependent, is a current topic of study in the literature. Thus, many different scheduling functions were proposed, each with its particular trade-offs. Additionally, Artificial Intelligence (AI), in particular machine learning, emerges as a prominent tool for its capacity to promote adaptability and flexibility. Although previous works have proposed comparisons of different scheduling strategies, the systematization of AI algorithms for 6TiSCH has not been explored in detail. This work proposes such a review, presenting an analysis of the current state of AI-based scheduling methods. Additionally, this work advances the state of the art by presenting, evaluating, and comparing two new Q-learning SFs with the current state of the art of SFs for 6TiSCH. The experimental results show the promising potential of the proposed approaches.
|
|
|
8
|
-
Ricardo Gomes de Oliveira
-
AVALIAÇÃO DE PADRÕES GRAMATICAIS EM TRANSFORMERS NA LÍNGUA PORTUGUESA: UM ESTUDO SOBRE CABEÇAS DE ATENÇÃO
-
Orientador : DANIELA BARREIRO CLARO
-
MEMBROS DA BANCA :
-
Aline Marins Paes Carvalho
-
DANIELA BARREIRO CLARO
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
Data: 30/07/2025
-
-
Mostrar Resumo
-
O avanço dos modelos de linguagem natural foi marcado pela transição de abordagens baseadas em regras e métodos estatísticos para arquiteturas neurais profundas, como o
Transformer, que permitem modelar dependências contextuais em textos de forma dis- tribuída. Este trabalho investiga a capacidade de um modelo monolíngue baseado no
BERT, treinado com dados em português brasileiro, de representar relações sintáticas do
tipo governante→dependente, conforme descritas no arcabouço do Universal Dependen- cies (UD).
Para conduzir a análise, utilizou-se o corpus anotado UD Portuguese-Bosque, a partir do qual foram extraídas sentenças que contêm padrões gramaticais diversos, incluindo transitividade verbal, voz passiva, pronomes reflexivos, predicativos do sujeito e orações subordinadas. As sentenças foram processadas pelo modelo, e os valores de atenção foram extraídos por camada e cabeça, com o objetivo de identificar alinhamentos entre os pesos atencionais e as dependências sintáticas registradas no corpus. O tokenizador do modelo foi utilizado em conjunto com mecanismos de rastreamento lexical que permitem associar subtokens às respectivas posições nos textos originais, viabilizando a análise interpretável dos pares sintáticos. A avaliação baseou-se em métricas como acurácia por padrão gramatical, entropia da distribuição de atenção e Undirected Unlabeled Attachment Score (UUAS). Também foi aplicada uma métrica composta que integra seletividade e aderência estrutural. Os
resultados revelam que certas cabeças de atenção exibem padrões sistemáticos de ati- vação em relação a dependências específicas. Destaca-se, nesse contexto, a cabeça 3 da
camada 2, que apresentou alinhamento consistente com relações entre núcleos verbais e
seus argumentos, sendo um exemplo de especialização funcional emergente. Essas evidên- cias contribuem para a compreensão dos mecanismos internos de atenção em modelos do
tipo Transformer aplicados ao português brasileiro e fornecem subsídios para abordagens futuras de compressão supervisionada e análise linguística automatizada.
-
Mostrar Abstract
-
The advancement of natural language models has been marked by the transition from rule-based approaches and statistical methods to deep neural architectures, such as the
Transformer, which enable the modeling of contextual dependencies in texts in a distri- buted manner. This study investigates the capacity of a monolingual BERT-based model,
trained on Brazilian Portuguese data, to represent syntactic governor→dependent relati- ons, as described within the Universal Dependencies (UD) framework.
To conduct the analysis, we used the annotated UD Portuguese-Bosque corpus, from which we extracted sentences containing diverse grammatical patterns, including verbal
transitivity, passive voice, reflexive pronouns, subject predicatives, and subordinate clau- ses. The sentences were processed by the model, and attention values were extracted per
layer and head, aiming to identify alignments between attention weights and the syntactic dependencies recorded in the corpus. The model’s tokenizer was used alongside lexical tracing mechanisms that allow associating subtokens with their respective positions in the original texts, enabling an interpretable analysis of syntactic pairs. The evaluation relied on metrics such as grammatical pattern-wise accuracy, attention
distribution entropy, and the Undirected Unlabeled Attachment Score (UUAS). A compo- site metric combining selectivity and structural adherence was also applied. The results
reveal that certain attention heads exhibit systematic activation patterns concerning spe- cific dependencies. Notably, head 3 in layer 2 consistently aligned with relations between
verbal nuclei and their arguments, representing an example of emerging functional speci- alization. These findings contribute to the understanding of the internal attention mecha- nisms of Transformer-based models applied to Brazilian Portuguese and provide insights
for future approaches in supervised compression and automated linguistic analysis.
|
|
|
9
|
-
LUCAS MASCARENHAS ALMEIDA
-
Tetris: uma estratégia de alocação de aplicações consciente de SLA no continuum Edge-Cloud
-
Orientador : MAYCON LEONE MACIEL PEIXOTO
-
MEMBROS DA BANCA :
-
CARLOS HENRIQUE GOMES FERREIRA
-
GERALDO PEREIRA ROCHA FILHO
-
MAYCON LEONE MACIEL PEIXOTO
-
Data: 09/09/2025
-
-
Mostrar Resumo
-
Uma infraestrutura Edge-Cloud Continuum integra recursos de borda e nuvem para fornecer flexibilidade e escalabilidade. Embora esse paradigma reduza a latência e aumente a escalabilidade, a natureza heterogênea desses ambientes introduz desafios como fragmentação de recursos e alocação ineficiente. Muitas abordagens existentes assumem alta disponibilidade de recursos e infraestruturas homogêneas, ignorando a fragmentação, os descartes de aplicações e a interação entre métricas de desempenho. Este trabalho apresenta o Tetris, uma estratégia de alocação de aplicações em Edge-Cloud Continuum inspirada no icônico jogo de quebra-cabeça, projetada para operar em cenários heterogêneos e complexos. A estratégia prioriza tarefas com base na urgência, diversidade de carga de trabalho e disponibilidade de recursos. Em comparação com o estado da arte, o Tetris reduz em aproximadamente 75% as violações de SLA de latência, evitando a ocorrência de descartes de aplicações. Diferentemente de métodos baseados em proximidade, que focam apenas em alocar tarefas próximas aos usuários, a principal força do Tetris está em evitar a fragmentação de recursos, simplificando o problema de alocação e melhorando a resiliência do sistema. Além disso, a análise de agrupamento revelou fortes correlações entre fragmentação e degradação do serviço, reforçando a importância de uma alocação equilibrada. Esses resultados contribuem para o desenvolvimento de sistemas edge-cloud mais resilientes, eficientes e explicáveis, com melhorias na QoS e na QoE para os usuários finais.
-
Mostrar Abstract
-
An Edge-Cloud Continuum integrates edge and cloud resources to deliver a flexible and scalable infrastructure. While this paradigm reduces latency and enhances scalability, the heterogeneous nature of these environments introduces challenges such as resource fragmentation and inefficient placement. Many existing approaches assume high resource availability and homogeneous infrastructures, overlooking fragmentation, application drops, and the interplay between performance metrics. This work introduces Tetris, an edge-cloud continuum application placement strategy inspired by the iconic puzzle game, designed to operate in a heterogeneous and complex edge–cloud continuum environment. It prioritizes tasks based on urgency, workload diversity, and resource availability. Compared to state-of-the-art approaches, Tetris reduces latency SLA violations by approximately 75%, while maintaining zero drop occurrences. Unlike proximity-based methods that focus on placing tasks near users, Tetris’s key strength lies in avoiding resource fragmentation, simplifying the placement problem, and improving overall system resilience. Additionally, clustering analysis reveals strong correlations between fragmentation and service degradation, reinforcing the importance of balanced resource allocation. These findings contribute to the development of more resilient, efficient, and explainable edge–cloud systems, with improved QoS and QoE for end-users.
|
|
|
10
|
-
MARCELO PEREIRA BARBOSA
-
Engenharia da confiança: requisitos de software para fortalecer as conexões entre os alunos em ambientes de aprendizagem virtuais
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
SEAN SIQUEIRA
-
LAIS DO NASCIMENTO SALVADOR
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 15/09/2025
-
-
Mostrar Resumo
-
A confiança interpessoal entre os alunos é essencial para o sucesso das atividades colaborativas em Ambientes Virtuais de Aprendizagem (AVAs), mas estabelecê-la é um desafio devido à ausência de presença física e às limitações da comunicação mediada por computador. A falta de confiança pode comprometer o compartilhamento de conhecimento, a motivação, o envolvimento e a retenção dos alunos nos cursos. A fim de apoiar o desenvolvimento da confiança interpessoal entre os alunos em AVAs, esta pesquisa teve como objetivo identificar os requisitos de software para recursos que promovam a confiança. Para isso, foi realizado um Estudo de Mapeamento Sistemático (SMS) para compreender como a confiança tem sido conceituada na literatura, bem como os aspectos intrínsecos desse fenômeno. Em seguida, foram analisados os atributos e características que influenciam a confiança entre os alunos em quatro fases evolutivas: adquirir, manter, perder e restaurar a confiança. Como resultado, foram identificados 37 atributos, a maioria dos quais originários de outros domínios, mas que podem influenciar a dinâmica da confiança entre os alunos em VLEs.
No entanto, as evidências analisadas concentraram-se principalmente na fase de aquisição da confiança, enquanto a fase de perda foi pouco explorada. O SMS revelou lacunas significativas no campo da confiança entre os alunos, destacando, em particular, a ausência de características associadas à manutenção e restauração da confiança. Nesse sentido, ficou claro que havia a necessidade de explorar novas características com base nas próprias percepções dos alunos sobre as fases de aquisição e perda de confiança, bem como compreender, a partir da perspectiva deles, os fatores que influenciam a manutenção e a restauração da confiança. Com base nas lacunas identificadas, foi realizado um estudo exploratório por meio de uma pesquisa online com 170 alunos, que teve como objetivo principal compreender quais características pessoais e comportamentais podem influenciar a confiança nas quatro fases evolutivas. Foram identificadas 248 características que podem influenciar a confiança, sendo 96 na fase de aquisição, 78 na fase de perda e 37 características em cada uma das fases de manutenção e restauração. Com base nesses resultados, foram identificados 26 requisitos de software para os seguintes recursos: perfil de confiança do aluno, grupos de trabalho colaborativo, sistemas de recomendação de pares confiáveis, avaliação de pares e rede de amigos. Além disso, foi desenvolvido um modelo conceitual independente de plataforma que ilustra como os recursos podem ser integrados durante o processo de desenvolvimento de VLEs que visam promover a confiança. Por fim, os requisitos de software foram validados com as partes interessadas usando uma maquete de alta fidelidade que ilustrava os requisitos de software nos recursos pretendidos. Os principais artefatos gerados a partir desta pesquisa foram: um mapa conceitual baseado em definições da literatura, um modelo conceitual com atributos por fase evolutiva, catalogação de características identificadas na literatura e pelos alunos, requisitos de software e um modelo conceitual com recursos e requisitos destinados a promover a confiança.
-
Mostrar Abstract
-
Interpersonal trust among students is essential for the success of collaborative activities in Virtual Learning Environments (VLEs), but establishing it is challenging due to the absence of physical presence and the limitations of computer-mediated communication. Lack of trust can compromise knowledge sharing, motivation, engagement, and student retention in courses. In order to support the development of interpersonal trust among students in VLEs, this research aimed to identify software requirements for features that promote trust. To this end, a Systematic Mapping Study (SMS) was conducted to understand how trust has been conceptualized in the literature, as well as the intrinsic aspects of this phenomenon. Next, attributes and characteristics that influence trust among students were analyzed across four evolutionary phases: acquire, maintain, loose, and restore trust. As a result, 37 attributes were identified, most of which originated from other domains but can influence the dynamics of trust among students in VLEs. However, the evidence analyzed focused mainly on the trust acquire phase, while the loose phase was little explored. The SMS revealed significant gaps in the field of trust among students, highlighting, in particular, the absence of characteristics associated with maintain and restore trust. In this sense, it became clear that there was a need to explore new characteristics based on the students' own perceptions of the phases of acquire and lose trust, as well as to understand, from their perspective, the factors that influence the maintain and restore of trust. Based on the gaps identified, an exploratory study was conducted through an online survey with 170 students, which aimed primarily to understand which personal and behavioral characteristics can influence trust in the four evolutionary phases. A total of 248 characteristics were identified that can influence trust, with 96 in the acquire phase, 78 in the loose phase, and 37 characteristics in each of the maintain and restore phases. Based on these results, 26 software requirements were identified for the following features: student trust profile, collaborative work groups, trusted peer recommendation systems, peer evaluation, and friend network. In addition, a platform-independent conceptual model was developed that illustrates how the features can be integrated during the development process of VLEs that aim to promote trust. Finally, the software requirements were validated with stakeholders using a high-fidelity mockup that illustrated the software requirements in the intended features. The main artifacts generated from this research were: a conceptual map based on definitions from the literature, a conceptual model with attributes by evolutionary phase, cataloging of characteristics identified in the literature and by students, software requirements, and a conceptual model with features and requirements aimed at promoting trust.
|
|
|
11
|
-
FABIO SANTOS DOS SANTOS
-
Explorando Estruturas de Dados Probabilålisticas na Otimização de Rotas de Múltiplos Caminhos em Redes de Dados Nomeados
-
Orientador : LEOBINO NASCIMENTO SAMPAIO
-
MEMBROS DA BANCA :
-
Antonio Augusto de Aragão Rocha
-
BRUNO PEREIRA DOS SANTOS
-
LEOBINO NASCIMENTO SAMPAIO
-
Data: 15/09/2025
-
-
Mostrar Resumo
-
Os protocolos de roteamento são essenciais para a descoberta de informações de alcançabilidade com acurácia em redes de dados nomeados (NDN). No entanto, a escolha do protocolo de roteamento mais adequado deve considerar a topologia da rede, uma vez que diferentes protocolos apresentam características de desempenho distintas para cada topologia. Em cenários disruptivos, redes com múltiplos caminhos usando protocolos baseados em Estado de Enlace, como o NLSR (Named Data Link State Routing Protocol), enfrentam sérias limitações devido à necessidade de ter sincronização de estado entre todos os nós e o cálculo de todas as rotas em cada nó, exigidos para manter as informações topológicas consistentes. Protocolos baseados em Vetor de Distância, por sua vez, oferecem um processo de sincronização mais simples devido à sua natureza distribuída e assíncrona. Contudo, seu mecanismo de descoberta simplificado não consegue lidar de forma eficaz com a combinação entre múltiplos caminhos e ambientes com topologias em anel, resultando em rotas inconsistentes e consequentemente na perda de satisfação de interesses e uso da vazão. Neste trabalho, propomos o uso do mecanismo de descoberta simplificado dos protocolos de vetor de distância associando-o a estruturas de dados probabilísticas. Em nossa abordagem, usamos estas estruturas para a criação de um vetor de caminhos probabilístico que permite a detecção de rotas inconsistentes, permitindo o descarte destas e o uso dos melhores caminhos. Desta forma, desenvolvemos um protocolo distribuído e assíncrono, que mantém o controle da eficácia das rotas em múltiplos caminhos. Avaliamos nossa proposta comparando o novo protocolo com outros protocolos de vetor de distância e estado de enlace usando diversas topologias, com diferentes números de nós, incluindo emulação em topologias reais usando diversos cenários de falhas. Os resultados obtidos em ambiente de emulação demonstram que a solução proposta proporciona uma maior taxa de entrega de pacotes NDN e uma redução significativa na quantidade de interesses não satisfeitos, mostrando-se mais eficaz.
-
Mostrar Abstract
-
Routing protocols are essential for the accurate discovery of reachability information in Named Data Networks (NDN). However, selecting the most suitable routing protocol must take into account the network topology, as different protocols exhibit distinct performance characteristics depending on the topology. In disruptive scenarios, networks with multiple paths that rely on Link-State-based protocols, such as the Named Data Link State Routing Protocol (NLSR), face serious limitations. These limitations stem from the need to synchronize state information across all nodes and compute all routes at each node to maintain consistent topological information. On the other hand, Distance Vector-based protocols offer a simpler synchronization process due to their distributed and asynchronous nature. Nevertheless, their simplified discovery mechanism struggles to efficiently handle the combination of multipath routing and ring-shaped topologies, which leads to inconsistent routes, resulting in unsatisfied interests and reduced throughput. In this work, we propose enhancing the simplified discovery mechanism of distance vector protocols by incorporating probabilistic data structures. Our approach uses these structures to create a probabilistic path vector that enables the detection of inconsistent routes, allowing their elimination and the selection of optimal paths. As a result, we develop a distributed and asynchronous protocol that maintains control over the effectiveness of multipath routing. We evaluate our proposal by comparing the new protocol with other distance vector and link-state protocols across various topologies with different numbers of nodes, including emulation in real-world topologies under multiple failure scenarios. The emulation results demonstrate that the proposed solution achieves a higher NDN packet delivery rate and a significant reduction in unsatisfied interests, proving to be a more effective approach.
|
|
|
12
|
-
TANIA MARIA FEITOSA
-
HIBRIDIZAÇÃO NO DESENVOLVIMENTO DE SOFTWARE COM SCRUM: UM ESTUDO QUALITATIVO COM RECOMENDAÇÕES
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
DAVI VIANA DOS SANTOS
-
IVAN DO CARMO MACHADO
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 18/09/2025
-
-
Mostrar Resumo
-
A indústria de software tem enfrentado constantes desafios para adaptar-se às rápidas mudanças do mercado, atender às crescentes exigências dos clientes e manter a produtividade das equipes de desenvolvimento. Nesse contexto, cresce o interesse por abordagens híbridas de desenvolvimento de software, que combinam métodos ágeis, com abordagens orientadas a planos. O Scrum, por sua natureza iterativa, incremental e altamente adaptável, tem sido uma das principais bases para a construção de processos híbridos. No entanto, mesmo diante de seu potencial, ainda existem dificuldades por parte dos profissionais e das organizações em formular e adotar processos híbridos de forma eficaz, o que pode comprometer a produtividade, a qualidade do produto final e a satisfação das partes envolvidas. Diante disso, esta dissertação teve como objetivo investigar, caracterizar e analisar o uso de processos híbridos na indústria de software, especialmente aqueles que envolvem o Scrum, a partir da perspectiva dos profissionais que atuam diretamente no desenvolvimento. Para tanto, foi realizada uma pesquisa empírica com 158 profissionais de Tecnologia da Informação distribuídos globalmente, sendo 143 participantes de um survey e 15 entrevistas semiestruturadas. A análise dos dados permitiu a identificação de práticas, combinações metodológicas, o que motivou a adoção, desafios enfrentados e estratégias utilizadas para superá-los. Os resultados revelam que a hibridização é, em muitos casos, motivada pela busca por flexibilidade, redução de prazos, aumento da qualidade, mitigação de riscos e maior controle dos projetos. As combinações mais recorrentes observadas foram ScrumBan e Water-Scrum-Fall. Contudo, também foram relatadas dificuldades relacionadas à definição clara das práticas a serem combinadas, à adaptação das equipes, à resistência a mudanças e à ausência de diretrizes consolidadas que orientem a adoção de abordagens híbridas. As percepções dos profissionais evidenciaram que os conceitos de hibridização aplicados na prática nem sempre correspondem às definições encontradas na literatura acadêmica, demonstrando um distanciamento entre teoria e prática. A partir dos achados, foram formuladas 69 recomendações direcionadas a aspectos humanos, técnicos e organizacionais, com o intuito de apoiar os profissionais da indústria na adequação e na melhoria dos seus processos de desenvolvimento de software. Espera-se que essas recomendações contribuem para a construção de processos mais eficazes, personalizados às necessidades de cada projeto, além de auxiliar na superação de obstáculos comuns à adoção de métodos híbridos. Ao compartilhar essas descobertas, esta dissertação busca colaborar para o avanço do conhecimento sobre a hibridização de processos de software, promovendo um entendimento mais claro sobre seus benefícios e desafios, e fomentando práticas mais eficientes na indústria, com impactos positivos na produtividade e na qualidade dos projetos desenvolvidos.
-
Mostrar Abstract
-
The software industry faces constant challenges in adapting to rapid market changes,
meeting the growing demands of customers, and maintaining the productivity of development
teams. In this context, there is increasing interest in hybrid development approaches
that combine agile methods with plan-driven approaches. Due to its iterative,
incremental, and adaptable nature, Scrum stands out as a frequent foundation for building
hybrid processes. However, difficulties persist in formulating and effectively adopting
these approaches, which can compromise productivity, product quality, and stakeholder
satisfaction.
This dissertation aimed to investigate, characterize, and analyze the use of hybrid
processes in the software industry, particularly those involving Scrum, from the perspective
of professionals working in development. An empirical study was conducted with 158
Information Technology professionals worldwide, including 143 survey participants and
15 respondents in semi-structured interviews. Data analysis enabled the identification of
practices, methodological combinations, motivations for adoption, challenges faced, and
strategies used to overcome them.
The results indicate that hybridization is largely driven by the pursuit of flexibility,
shorter delivery times, higher quality, risk mitigation, and greater project control. The
most recurrent combinations were ScrumBan and Water-Scrum-Fall. Reported challenges
included defining which practices to combine, adapting teams, resistance to change,
and the lack of consolidated guidelines to guide adoption. Professionals’ perceptions reveal
that the practical application of hybridization does not always align with academic
definitions, highlighting a gap between theory and practice.
Based on these findings, 34 recommendations were formulated and organized into
human, technical, and organizational categories, aiming to support the adjustment and
improvement of software development processes. These recommendations are expected
to contribute to building more effective processes tailored to the needs of each project,
helping to overcome common obstacles to the adoption of hybrid methods.
By sharing these findings, this dissertation seeks to expand knowledge about software
process hybridization, promote a clearer understanding of its benefits and challenges,
and encourage more efficient practices in the industry, with positive impacts on project
productivity and quality.
|
|
|
13
|
-
SANDRO DE CARVALHO FRANCO
-
ONTOVID II: Uma solução baseada em Grafos de Conhecimento Semântico para Integração de Dados de Saúde Pública
-
Orientador : LAIS DO NASCIMENTO SALVADOR
-
MEMBROS DA BANCA :
-
RENATA WASSERMANN
-
LAIS DO NASCIMENTO SALVADOR
-
ROBESPIERRE DANTAS DA ROCHA PITA
-
Data: 05/11/2025
-
-
Mostrar Resumo
-
A complexidade dos sistemas de informação do Sistema Único de Saúde (SUS), que são caracterizados por bases de dados diversas e desconectadas, é um grande desafio para gestores de Saúde Pública no Brasil. Observa-se a necessidade de soluções que disponibilizam acesso integrado a bases distintas com consultas especializadas. Esta dissertação apresenta o desenvolvimento da Ontovid II, uma solução baseada em Grafos de Conhecimento Semântico (GCS) para integração de dados de Saúde Pública. A Ontovid II utiliza ontologias organizadas em três camadas - fonte, integração e domínio - para permitir inferências e consultas unificadas sobre os dados do Sistema de Informações de Nascidos Vivos (SINASC), Sistema de Informações de Mortalidade (SIM) e Sistema de Notificação do Ministério da Saúde (e-SUS Notifica), com notificações relacionadas à COVID-19. Um dos objetivos da solução é apoiar os gestores de saúde na análise de indicadores essenciais como mortalidade, imunização, hospitalizações e notificações. A abordagem foi validada por gestores da Secretaria Municipal de Saúde de Camaçari-BA, demonstrando sua eficácia na extração de informações relevantes para apoio à tomada de decisão.
-
Mostrar Abstract
-
The complexity of the information systems within Brazil’s Unified Health System (SUS), characterized by diverse and disconnected databases, poses a major challenge for public health managers. There is a clear need for solutions that provide integrated access to distinct data sources through specialized queries. This dissertation presents the development of Ontovid II, a solution based on Semantic Knowledge Graphs (SKG) for the integration of public health data. Ontovid II employs ontologies organized into three layers—source, integration, and domain—to enable inferences and unified queries over data from the Live Birth Information System (SINASC), the Mortality Information System (SIM), and the Ministry of Health’s Notification System (e-SUS Notifica), including notifications related to COVID-19. One of the solution’s objectives is to support health managers in analyzing essential indicators such as mortality, immunization, hospitalizations, and notifications. The approach was validated by managers from the Municipal Health Department of Cama¸cari, Bahia (Brazil), demonstrating its effectiveness in extracting relevant information to support decision-making.
|
|
|
14
|
-
DHYEGO TAVARES MOREIRA DA CRUZ
-
Effects of Music on Brain Activity and Performance of Software Testing Professionals: An Experimental Study with EEG
-
Orientador : EDUARDO SANTANA DE ALMEIDA
-
MEMBROS DA BANCA :
-
EDUARDO SANTANA DE ALMEIDA
-
FERNANDA MADEIRAL DELFIM
-
PIERRE YVES FRANCOIS MARIE JOSEPH SCHOBBENS
-
Data: 07/11/2025
-
-
Mostrar Resumo
-
A prática de ouvir música é amplamente adotada por profissionais de engenharia de software para melhorar a concentração e atenuar o ruído ambiental. No entanto, o impacto neurofisiológico e comportamental dessa prática em testadores de software, um grupo com demandas cognitivas distintas, permanece largamente inexplorado. Esta dissertação investiga a influência da música no desempenho (acurácia) e na atividade neurofisiológica de testadores de software profissionais durante a execução de tarefas de teste. Conduzimos um experimento controlado com 14 profissionais , divididos em um grupo experimental (exposto à música Lo-Fi) e um grupo de controle (em silêncio). Os participantes realizaram quatro blocos de tarefas distintas: compreensão de código de teste, identificação de erros de sintaxe, identificação de erros de lógica e criação de casos de teste. A atividade cerebral foi analisada usando Eletroencefalografia (EEG) , com foco em métricas como Densidade Espectral de Potência (PSD) e Dessincronização/Sincronização Relacionada a Eventos (ERD/ERS). Os resultados indicam que o grupo exposto à música alcançou maior acurácia nas tarefas analíticas de compreensão, detecção de sintaxe e detecção de lógica. Contudo, o grupo experimental apresentou desempenho ligeiramente inferior na tarefa generativa de criação de casos de teste. O grupo com música também exibiu atividade EEG mais estável, notavelmente nas bandas Beta e Delta, associadas à atenção e processamento cognitivo interno. Além disso, apresentaram uma dessincronização Alfa (ERD) mais pronunciada durante as tarefas analíticas, sugerindo maior concentração. Inversamente, na tarefa criativa, o grupo com música demonstrou sincronização Alfa (ERS), indicando um estado mais relaxado e menor foco. Este estudo, pioneiro na aplicação de EEG em testadores de software profissionais, fornece evidências objetivas de que o impacto da música no desempenho é dependente da tarefa. A música instrumental parece atuar como um otimizador cognitivo para tarefas analíticas, mas pode não ser benéfica para atividades generativas. As contribuições incluem uma nova base metodológica para a área e um conjunto de dados público para replicação e futuras investigações.
-
Mostrar Abstract
-
The practice of listening to music is widely adopted by software engineering professionals to improve concentration and attenuate environmental noise. However, the neurophysiological and behavioral impact of this practice on software testers, a group with distinct cognitive demands, remains largely unexplored. This dissertation investigates the influence of music on the performance (accuracy) and neurophysiological activity of professional software testers during the execution of testing tasks. We conducted a controlled experiment with 14 professionals, divided into an experimental group (exposed to Lo-Fi music) and a control group (in silence). The participants performed four blocks of distinct tasks: test code comprehension, syntax error identification, logic error identification, and test case creation. Brain activity was analyzed using Electroencephalography (EEG), focusing on metrics such as Power Spectral Density (PSD) and Event-Related Desynchronization/Synchronization (ERD/ERS). The results indicate that the musicexposed group achieved higher accuracy in the analytical tasks of comprehension, syntax detection, and logic detection. However, the experimental group exhibited slightly lower performance on the generative task of test case creation. The music group also exhibited more stable EEG activity, notably in the Beta and Delta bands, associated with attention and internal cognitive processing. Furthermore, they exhibited a more pronounced Alpha desynchronization (ERD) during the analytical tasks, suggesting greater concentration. Conversely, in the generative task, the music group demonstrated Alpha synchronization (ERS), indicating a more relaxed state and lower focus. This study, pioneering the application of EEG to professional software testers, provides objective evidence that the impact of music on performance is task-dependent. Instrumental music seems to act as a cognitive enhancer for analytical tasks but may not be beneficial for generative tasks. The contributions include a new methodological foundation for the field and a public dataset for replication and future investigations.
|
|
|
15
|
-
MARCOS VINÍCIUS QUEIROZ DE SANT'ANA FILHO
-
Paperman - Um Sistema de Recomendação de Artigos Científicos
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
DANILO BARBOSA COIMBRA
-
FREDERICO ARAUJO DURAO
-
RENATO LIMA NOVAIS
-
Data: 27/11/2025
-
-
Mostrar Resumo
-
A busca por referências e trabalhos relacionados na pesquisa científica pode ser um processo exaustivo, consumindo, em média, 4 horas semanais dos pesquisadores. A abundância de fontes e repositórios torna ainda mais complexo o desafio de validação da veracidade e confiabilidade desses trabalhos, de modo a selecionar pesquisas de alta qualidade e relevância, ocasionando o descarte de metade das amostras coletadas e impactando negativamente a produtividade. Utilizando este cenário como base, o objetivo deste estudo é planejar e desenvolver uma plataforma para facilitar as etapas iniciais de pesquisa, através de sistemas de recomendação, modelos baseados no perfil do pesquisador e pós-processamento de dados. O sistema proposto, denominado Paperman, utiliza técnicas de processamento de linguagem natural e aprendizado de máquina para analisar o histórico de publicações dos pesquisadores e gerar recomendações personalizadas de artigos científicos. A arquitetura do sistema inclui uma API para coleta e processamento de dados, integrações com serviços externos como ORCID e DBLP e uma extensão para navegadores que apresenta as recomendações de forma intuitiva. Os resultados experimentais demonstram a eficácia do sistema, com métricas como MRR de 0,8 e nDCG@5 de 0,9407, indicando alta relevância das recomendações geradas. O estudo contribui para o campo dos sistemas de recomendação educacional, oferecendo uma solução prática para otimizar o processo de revisão de literatura e descoberta de trabalhos relacionados na pesquisa científica.
-
Mostrar Abstract
-
The search for references and related work in scientific research can be exhausting, consuming an average of 4 hours per week for researchers. The abundance of sources and repositories makes it even more challenging to validate the veracity and reliability of these works, resulting in the disposal of half of the collected samples and negatively impacting productivity. Considering this scenario, this study aims to develop a platform that facilitates the initial stages of research through recommendation systems, models based on the researcher's profile, and data post-processing. The proposed system, Paperman, employs natural language processing and machine learning techniques to analyze researchers' publication histories and generate personalized recommendations for scientific articles. The system architecture includes an API for data collection and processing, as well as integrations with external services such as ORCID and DBLP, and a browser extension that presents recommendations in an intuitive manner. Experimental results demonstrate the system's effectiveness, with metrics such as an MRR of 0.8 and an nDCG@5 of 0.9407, indicating the high relevance of the generated recommendations. The study contributes to the field of educational recommendation systems, offering a practical solution to optimize the literature review process and discovery of related works in scientific research. The Paperman system addresses common challenges in academic research, such as information overload and the need for efficient discovery of relevant publications, by leveraging the researcher's profile and history to provide tailored recommendations.
|
|
|
16
|
-
SILVIO JOSÉ DE QUEIROZ PEREIRA
-
ChainID: Plataforma Para Gestão de Identidades Descentralizadas Baseada em Blockchain
-
Orientador : LEOBINO NASCIMENTO SAMPAIO
-
MEMBROS DA BANCA :
-
GLAUBER DIAS GONCALVES
-
ALLAN EDGARD SILVA FREITAS
-
LEOBINO NASCIMENTO SAMPAIO
-
Data: 10/12/2025
-
-
Mostrar Resumo
-
A identidade é fundamental para o reconhecimento das entidades (indivíduos, coisas e organizações) e das suas diversas relações no contexto em que estão inseridas. A Gestão de Identidades (GId) envolve processos como autenticação, autorização, responsabilização e auditoria, tradicionalmente realizados por sistemas centralizados ou federados. Contudo, esses modelos limitam a privacidade, a interoperabilidade e o controle do usuário sobre seus próprios dados. Nesse contexto, emergem as Identidades Digitais Descentralizadas (IDD), nas quais o próprio indivíduo detém e administra sua identidade, agora única, portável e compartilhável de forma segura. Este trabalho apresenta a ChainID, uma plataforma para gestão de identidades descentralizadas baseada em blockchain, desenvolvida no âmbito do Grupo de Trabalho GT-ChainID da RNP (Rede Nacional de Ensino e Pesquisa). A plataforma adota uma abordagem orientada a serviços para viabilizar a criação, emissão, verificação e revogação de identificadores descentralizados (DIDs) e credenciais verificáveis (VCs), abstraindo a complexidade dos padrões, protocolos e infraestrutura distribuída envolvidos nesse novo paradigma de identidade digital. Inicialmente, a ChainID foi construída sobre a blockchain Hyperledger Indy, voltada à privacidade e à gestão de credenciais. Com a evolução dos requisitos e da arquitetura da solução, a plataforma passou a utilizar a blockchain Hyperledger Besu, compatível com a Ethereum Virtual Machine (EVM), o que permitiu a compatibilidade com o ambiente de experimentação do Testbed RNP, melhorias operacionais e possibilidade de futura integração com a Rede Brasil Blockchain (RBB). A solução disponibiliza uma API RESTful, suporte a eventos assíncronos, integração com protocolos como autenticação SAML2, CAS, além de oferecer interfaces específicas como o ChainID Console, para configuração e gestão administrativa, e a ChainID Wallet, para controle individual de DIDs e VCs pelos usuários. Como provas de conceito da plataforma, foram implementados dois casos: (1) o componente de autenticação federada da ChainID, demonstrando sua aplicação em cenários educacionais com Moodle e a viabilidade de substituir infraestruturas centralizadas por soluções baseadas em IDD, sem comprometer segurança, privacidade ou interoperabilidade; e (2) o projeto CarbonID, que explora a emissão, validação e rastreabilidade de certificados de sustentabilidade com base em IDDs e contratos inteligentes, demonstrando o potencial da plataforma para uso em outras aplicações e domínios, com ambientais, sociais e corporativas.
-
Mostrar Abstract
-
Identity is essential for recognizing entities (individuals, things, and organizations) and their various relationships within their contextual environment. Identity Management (IdM) involves processes such as authentication, authorization, accountability, and auditing, traditionally carried out by centralized or federated systems. However, these models limit privacy, interoperability, and user control over personal data. In this context, Decentralized Digital Identities (DDIs) emerge, in which individuals themselves hold and manage their own identity—now unique, portable, and securely shareable. This work presents ChainID, a platform for decentralized identity management based on blockchain, developed within the RNP (Brazilian National Education and Research Network) Working Group GT-ChainID. The platform adopts a service-oriented approach to enable the creation, issuance, verification, and revocation of decentralized identifiers (DIDs) and verifiable credentials (VCs), abstracting the complexity of the standards, protocols, and distributed infrastructure involved in this new digital identity paradigm. ChainID was initially built on the Hyperledger Indy blockchain, which is oriented toward privacy and credential management. As the solution’s requirements and architecture evolved, the platform migrated to the Hyperledger Besu blockchain, compatible with the Ethereum Virtual Machine (EVM). This transition allowed compatibility with the RNP Testbed experimentation environment, improved operational capabilities, and opened possibilities for future integration with the Brazil Blockchain Network (RBB). The solution provides a RESTful API, support for asynchronous events, integration with protocols such as SAML2 and CAS authentication, as well as dedicated interfaces, including the ChainID Console for configuration and administrative management, and the ChainID Wallet for individual control of user DIDs and VCs. As proofs of concept, two use cases were implemented: (1) the ChainID federated authentication component, demonstrating its applicability in educational scenarios using Moodle and the feasibility of replacing centralized infrastructures with DDI-based solutions without compromising security, privacy, or interoperability; and (2) the CarbonID project, which explores the issuance, validation, and traceability of sustainability certificates using DIDs and smart contracts, showcasing the platform’s potential for adoption in other applications and domains, including environmental, social, and corporate contexts.
|
|
|
17
|
-
EDLANE CRISTINE DOS SANTOS PROENCIA
-
Interoperabilidade Organizacional no Contexto dos Sistemas de Sistemas de Informação: Uma
Abordagem Colaborativa
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
CELIA GHEDINI RALHA
-
RITA SUZANA PITANGUEIRA MACIEL
-
VALDEMAR GRACIANO NETO
-
Data: 15/12/2025
-
-
Mostrar Resumo
-
A interação entre sistemas independentes, heterogêneos e dinâmicos em Sistemas de Siste- mas de Informação (Systems of Information Systems) (SoIS) impõe desafios significativos, especialmente no nível da Interoperabilidade Organizacional. Para que esta interopera- bilidade seja alcançada, esse alinhamento dos processos de negócio entre as organizações é fundamental. As abordagens de Gerenciamento de Processos de Negócio (Business Process Management) (BPM) são ferramentas essenciais para esse alinhamento, mas as soluções existentes falham em contextos colaborativos onde os participantes podem entrar e sair a qualquer momento, sem gerenciamento central. Diante dessa lacuna, o objetivo deste trabalho foi desenvolver uma solução baseada em BPM para apoiar a Interoperabi- lidade Organizacional em SoIS colaborativos. A principal contribuição foi a especificação de um metamodelo que provê uma estrutura de gerenciamento. Este metamodelo permite a modelagem dos processos de negócio colaborativos e endereça a dinâmica de entrada e saída de participantes ao formalizar a separação explícita entre Papel (a função abstrata responsável pelo processo) e Participante (a instância organizacional concreta e dinâmica que o executa). Adicionalmente, a solução permite a definição dos Links de Interope- rabilidade (técnicos e sociotécnicos) necessários para as interações e comunicações entre os papéis, garantindo que os requisitos de colaboração sejam explícitos. A aplicabilidade da solução foi avaliada através da sua implementação em um ambiente de simulação se- miautomatizado, instanciado em três domínios (e-commerce, plano de saúde e segurança pública). Os resultados validaram a abordagem, demonstrando a adaptabilidade na en- trada de novos participantes e a resiliência na saída, através do rerroteamento baseado em Papel. Conclui-se que a solução oferece um modelo viável para gerenciar a dinâmica de participantes, fornecendo a transparência e os mecanismos de resiliência necessários para a Interoperabilidade Organizacional em SoIS colaborativos.
-
Mostrar Abstract
-
The interaction among independent, heterogeneous, and dynamic systems in Systems of Information Systems (SoIS) imposes significant challenges, especially at the level of Or- ganizational Interoperability. To achieve this interoperability, aligning business processes across organizations is fundamental. Business Process Management (BPM) approaches are essential tools for this alignment, but existing solutions fail in collaborative contexts where participants can join and leave at any time, without central management. Given this gap, the main objective of this work was to develop a BPM-based solution to sup- port Organizational Interoperability in collaborative SoIS. The main contribution was the specification of a metamodel that provides a management structure. This metamo- del enables modeling collaborative business processes and addresses the entry and exit dynamics of participants by formalizing the explicit separation between Role (the abs- tract function responsible for the process) and Participant (the concrete and dynamic organizational instance that executes it). Additionally, the solution allows the definition of the Interoperability Links (technical and sociotechnical) required for interactions and communications between roles, ensuring that collaboration requirements are explicit. The solution’s applicability was evaluated through its implementation in a semi-automated si- mulation environment instantiated in three domains (e-commerce, health plan, and public security). The results validated the approach, demonstrating adaptability upon the entry of new participants and resilience upon exit, through Role-based rerouting. It is conclu- ded that the solution offers a viable model to manage participant dynamics, providing the transparency and resilience mechanisms necessary for Organizational Interoperability in collaborative SoIS.
|
|
|
18
|
-
JUVENAL BRUNO ANDRADE DA SILVA
-
MoTSPPP: Multi-objective Traveling Salesman Problem with Profits and Passengers
-
Orientador : ISLAME FELIPE DA COSTA FERNANDES
-
MEMBROS DA BANCA :
-
GUSTAVO DE ARAUJO SABRY
-
ISLAME FELIPE DA COSTA FERNANDES
-
RAFAEL AUGUSTO DE MELO
-
Data: 17/12/2025
-
-
Mostrar Resumo
-
Ridesharing systems have emerged as a potential solution to urban mobility challenges, promoting collaborative vehicle usage and route optimization. These systems require efficient routing algorithms to balance conflicting objective functions such as travel cost, travel time, and driver bonuses. Previous studies have modeled such systems using the Traveling Salesman Problem with Profits (TSPP), where the driver shares the vehicle with passengers and minimizes travel cost. The Bi-objective Traveling Salesman Problem (BiTSP) has also been investigated in prior work, but it ignores passenger and bonus collection. Consequently, the literature lacks a multi-objective formulation that captures the real-world trade-offs among such objective functions. This work introduces the Multi-objective Traveling Salesman Problem with Profits and Passengers (MoTSPPP), an NP-hard optimization problem that minimizes travel cost and time while maximizing bonus collection. A mathematical formulation and a proof of NP-hardness are provided. Eight algorithms are investigated: an exact solver, three naïve heuristics, and four evolutionary metaheuristics (NSGA-II, MOEA/D, IBEA, and SPEA2). A comprehensive experimental study is conducted on 252 benchmark instances, comprising symmetric and asymmetric graphs with varying edge-weight correlations. Supported by statistical tests, performance evaluation concerns processing time, solution quality, and solution diversity. Results demonstrate that the MoTSPPP is computationally more challenging than the TSPP and BiTSP, and that metaheuristic approaches yield significantly better results than naïve heuristics.
-
Mostrar Abstract
-
Ridesharing systems have emerged as a potential solution to urban mobility challenges, promoting collaborative vehicle usage and route optimization. These systems require efficient routing algorithms to balance conflicting objective functions such as travel cost, travel time, and driver bonuses. Previous studies have modeled such systems using the Traveling Salesman Problem with Profits (TSPP), where the driver shares the vehicle with passengers and minimizes travel cost. The Bi-objective Traveling Salesman Problem (BiTSP) has also been investigated in prior work, but it ignores passenger and bonus collection. Consequently, the literature lacks a multi-objective formulation that captures the real-world trade-offs among such objective functions. This work introduces the Multi-objective Traveling Salesman Problem with Profits and Passengers (MoTSPPP), an NP-hard optimization problem that minimizes travel cost and time while maximizing bonus collection. A mathematical formulation and a proof of NP-hardness are provided. Eight algorithms are investigated: an exact solver, three naïve heuristics, and four evolutionary metaheuristics (NSGA-II, MOEA/D, IBEA, and SPEA2). A comprehensive experimental study is conducted on 252 benchmark instances, comprising symmetric and asymmetric graphs with varying edge-weight correlations. Supported by statistical tests, performance evaluation concerns processing time, solution quality, and solution diversity. Results demonstrate that the MoTSPPP is computationally more challenging than the TSPP and BiTSP, and that metaheuristic approaches yield significantly better results than naïve heuristics.
|
|
|
19
|
-
MATHEUS AUGUSTO OLIVEIRA DOS SANTOS
-
Prototypical Linear Mapping from Vision Foundation Models for Histopathology Image Retrieval
-
Orientador : LUCIANO REBOUCAS DE OLIVEIRA
-
MEMBROS DA BANCA :
-
ANGELO AMANCIO DUARTE
-
JEFFERSON FONTINELE DA SILVA
-
LUCIANO REBOUCAS DE OLIVEIRA
-
Data: 18/12/2025
-
-
Mostrar Resumo
-
A digitalização em larga escala de lâminas histológicas em alta resolução consolidou a patologia digital como um campo baseado em dados, mas também introduziu desafios substanciais de armazenamento, anotação e recuperação eficiente de imagens em escala gigapixel. Sistemas de Recuperação de Imagens Médicas Baseada em Conteúdo (CBMIR) oferecem uma solução para esse cenário ao recuperar amostras visual ou semanticamente semelhantes diretamente a partir do conteúdo morfológico, sem dependência exclusiva de metadados. Apesar dos avanços recentes em aprendizado contrastivo, métodos atuais de CBMIR ainda demandam grandes volumes de dados rotulados e permanecem sensíveis a variações de domínio, incluindo diferenças de coloração, preparação e morfologia. Modelos auto-supervisionados baseados em Transformers deram origem aos foundation models visuais (FMs), que aprendem representações transferíveis a partir de grandes coleções de imagens não rotuladas. No contexto da patologia digital, surgiram FMs especializados — UNI, Virchow, Phikon — treinados diretamente em coleções massivas de lâminas histológicas e capazes de capturar padrões morfológicos complexos de múltiplos tecidos. Entretanto, seu potencial para recuperação de imagens médicas permanece subexplorado, e seus embeddings não são explicitamente otimizados para representar continuidades morfológicas finas necessárias em CBMIR. Esta dissertação investiga o mapeamento linear de foundation models para recuperação de imagens histopatológicas, propondo um esquema leve de transferência baseado em few-shot learning e protótipos. O método projeta os embeddings pré-treinados em um subespaço latente orientado à recuperação, impondo um alinhamento métrico centrado em protótipos que aumenta a compacidade intra-classe e a separabilidade inter-classe, preservando a estrutura semântica global do FM. Avaliações em três conjuntos de dados biomédicos — glomérulos renais, histologia de câncer de ovário e lesões cutâneas dermatoscópicas — mostram ganhos superiores a 10 pontos percentuais em mean average precision at K (MAP@K) em relação aos FMs não adaptados. Testes de permutação confirmam a significância estatística das melhorias, enquanto análises qualitativas evidenciam embeddings mais estruturados, coerentes e compatíveis com a morfologia diagnóstica. A proposta aqui apresentada é aproximar foundation models visuais de uso geral das demandas específicas de CBMIR em patologia digital, oferecendo uma solução orientada a desempenho competitivo, recuperação eficiente e representações semanticamente coerentes.
-
Mostrar Abstract
-
The large-scale digitization of high-resolution histological slides has consolidated digital pathology as a data-driven field, but has also introduced substantial challenges related to storage, annotation, and efficient retrieval of gigapixel-scale images. Content-Based Medical Image Retrieval (CBMIR) systems offer a solution to this scenario by retrieving visually or semantically similar samples directly from morphological content, without exclusive reliance on metadata. Despite recent advances in contrastive learning, current CBMIR methods still require large volumes of labeled data and remain sensitive to domain variations, including differences in staining, tissue preparation, and morphology. Self-supervised Transformer-based models have led to the emergence of visual foundation models (FMs), which learn transferable representations from large collections of unlabeled images. In the context of digital pathology, specialized FMs such as UNI, Virchow, and Phikon have emerged, trained directly on massive collections of histological slides and capable of capturing complex morphological patterns across multiple tissues. However, their potential for medical image retrieval remains underexplored, and their embeddings are not explicitly optimized to represent the fine-grained morphological continuities required in CBMIR. This dissertation investigates the linear mapping of foundation models for histopathological image retrieval, proposing a lightweight transfer scheme based on few-shot learning and prototypes. The method projects pre-trained embeddings into a retrieval-oriented latent subspace, imposing a prototype-centered metric alignment that enhances intraclass compactness and inter-class separability, while preserving the global semantic structure of the FM. Evaluations on three biomedical datasets—renal glomeruli, ovarian cancer histology, and dermoscopic skin lesions — demonstrate improvements exceeding 10 percentage points in mean average precision at K (MAP@K) compared to non-adapted FMs. Permutation tests confirm the statistical significance of these gains, while qualitative analyses reveal more structured, coherent, and diagnostically consistent embeddings. The proposed approach aims to bring general-purpose visual foundation models closer to the specific demands of CBMIR in digital pathology, offering a solution focused on competitive performance, efficient retrieval, and semantically coherent representations.
|
|
|
Teses |
|
|
1
|
-
Tadeu Nogueira Costa de Andrade
-
Métodos Estatísticos e de Inteligência Computacional para Análise Temporal em Sistemas de Tempo Real
-
Orientador : GEORGE MARCONI DE ARAUJO LIMA
-
MEMBROS DA BANCA :
-
GIOVANI GRACIOLI
-
ALLAN EDGARD SILVA FREITAS
-
GEORGE MARCONI DE ARAUJO LIMA
-
KONSTANTINOS BLETSAS
-
MAYCON LEONE MACIEL PEIXOTO
-
Data: 27/03/2025
-
-
Mostrar Resumo
-
Sistemas em tempo real (RTS) são compostos por um conjunto de tarefas (trechos de código) sendo lançadas recorrentemente para serem executadas e devem cumprir prazos. Projetar um sistema desse tipo de forma comprovadamente correta requer informações sobre o tempo de execução no pior caso (WCET) para cada uma de suas tarefas. No entanto, estimar o WCET está se tornando cada vez mais difícil devido à alta complexidade de hardware e software presentes nas plataformas modernas atuais. Isso tem motivado o uso de técnicas para derivar o tempo de execução probabilístico no pior caso (pWCET). A maioria das abordagens existentes se baseia em medir o tempo de execução das tarefas do sistema na plataforma alvo. Como as medições são realizadas durante o tempo de projeto, as amostras coletadas podem levar a estimativas não confiáveis (devido a um possível viés de medição) ou não representativas (devido às dificuldades na reprodução das condições operacionais). A necessidade de tornar as amostras compatíveis com as suposições da modelagem estatística é uma fonte adicional de dificuldade. Dadas as complexidades apresentadas, foram desenvolvidos dois estudos com objetivos distintos. No primeiro estudo, uma representação do tempo de execução é realizada com base em eventos de hardware, considerando diferentes ferramentas de inteligência computacional. Mais especificamente, para um programa sob análise, é mostrado que o tempo de execução T(n) por número n de instruções executadas pode ser correlacionado com ocorrências de eventos relacionados ao hardware. No segundo estudo, uma nova abordagem para análise temporal probabilística baseada em medição (MBPTA) é apresentada. Ao contrário de MBPTA usual, que considera apenas T(n) como a variável de interesse, essa nova abordagem incorpora uma variável de interesse que considera tanto T(n) quanto n. Utilizar tuplas (n, T(n)) para diferentes valores de n possibilita explorar múltiplos caminhos de execução. Além disso, essa nova abordagem permite que o conjunto de medições seja avaliado e aprimorado. Para esse propósito, redes neurais profundas (DNN) são empregadas. Uma vez que as medições são consideradas representativas, é possível estimar limites probabilísticos do tempo de execução. Resultados experimentais indicam uma diferença de até 30% entre as estimativas obtidas com amostras aprimoradas pela abordagem proposta e as amostras não aprimoradas. As abordagens são avaliadas considerando diferentes modelos de arquiteturas e programas, e os resultados obtidos demonstram eficácia nos estudos propostos.
-
Mostrar Abstract
-
Real-time systems (RTS) are composed of a set of tasks (code segments) that are recurrently launched to be executed and must meet deadlines. Designing such a system in a provably correct manner requires information about the worst-case execution time (WCET) for each of its tasks. However, estimating the WCET is becoming increasingly challenging due to the high complexity of hardware and software in modern platforms. This has motivated the use of techniques to derive the probabilistic worst-case execution time (pWCET). Most existing approaches rely on measuring the execution time of system tasks on the target platform. As measurements are taken during the design time, collected samples may lead to unreliable estimates (due to possible measurement bias) or non-representative ones (due to difficulties in reproducing operational conditions). The need to make samples compatible with the assumptions of statistical modeling is an additional source of difficulty. Given the complexities presented, two studies with distinct objectives were developed. In the first study, a representation of execution time is performed based on hardware events, considering different computational intelligence tools. Specifically, for a program under analysis, it is shown that the execution time T(n) per number n of executed instructions can be correlated with occurrences of hardware-related events. In the second study, a new approach for Measurement-Based Probabilistic Timing Analysis (MBPTA) is presented. Unlike the usual MBPTA, which considers only T(n) as the variable of interest, this new approach incorporates a variable of interest that considers both T(n) and n. Using tuples (n, T(n)) for different values of n allows for exploring multiple execution paths. Additionally, this new approach allows the set of measurements to be evaluated and improved. For this purpose, deep neural networks (DNN) were employed. Since the measurements are considered representative, it is possible to estimate probabilistic bounds on the execution time. Experimental results indicate a difference of up to 30% between the estimates obtained using samples refined by the proposed approach and those obtained using non-refined samples. The approaches are evaluated considering different hardware and program models, and the results obtained demonstrate effectiveness in the proposed studies.
|
|
|
2
|
-
LARISSA BARBOSA LEONCIO PINHEIRO
-
ORGANIZAÇÃO DO CENÁRIO DE GERENCIAMENTO DE DÍVIDA TËCNICA PARA DÉBITO DE REQUISITOS: ASPECTOS TÉCNICOS E HUMANOS
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
JULIO CESAR SAMPAIO DO PRADO LEITE
-
MANOEL GOMES DE MENDONCA NETO
-
RITA SUZANA PITANGUEIRA MACIEL
-
UIRÁ KULESZA
-
Data: 16/05/2025
-
-
Mostrar Resumo
-
Contexto: A dívida técnica (DT) contextualiza o problema das tarefas pendentes de
desenvolvimento de software como um tipo de dívida que traz um benefício de curto prazo
para o projeto, frequentemente em termos de aumento da velocidade de desenvolvimento
ou redução do tempo de lançamento no mercado. Itens de DT podem afetar diferentes
artefatos e fases do desenvolvimento de software particularmente importante discutir
a gestão de DT no contexto das atividades de engenharia de requisitos (ER), pois elas s.o
inerentemente complexas, refletem um prop.sito do sistema que alinha diferentes pontos
de vista das partes interessadas do sistema e impactam diversas fases do desenvolvimento
de software. Existem dois tipos de dívida diretamente relacionados . ER: dívida de
requisitos e dívida de documentação. Embora diversos trabalhos tenham investigado o
estado da pr.tica em DT em relação as suas causas, efeitos e gest.o, a literatura atual n.o
abordou o tema sob a perspectiva de requisitos e dívida de documentação de requisitos
(R2DD).
Objetivo: Esta tese de doutorado visa organizar o cen.rio de gest.o de DT
para dívida de requisitos nos aspectos t.cnicos e humanos.
Método: Inicialmente, realizamos uma revisão bibliográfica sobre o estado atual da
pesquisa sobre R2DD e suas causas, efeitos e pr.ticas utilizadas para sua preven..o e
reembolsox. Em seguida, analisamos dados coletados por equipes de replica..o do projeto
InsighTD, que . uma fam.lia de pesquisas globalmente distribu.das sobre as causas,
efeitos e gest.o de DT. A partir do conjunto de conhecimentos resultante da an.lise dos
dados do InsighTD, percebemos que o fator humano . importante ao lidar com R2DD.
Consequentemente, investigamos os atributos positivos e negativos dos engenheiros de
requisitos e a relação entre eles. Com base nessas investigaçõeses, definimos quatro mapas
conceituais.
Resultado: Este trabalho apresenta o estado da pr.tica de R2DD, revelando suas
causas, efeitos e pr.ticas utilizadas para sua prevenção e reembolso. Em rela..o .s causas
de R2DD, prazo, gerenciamento de projeto ineficaz, mudan.a de requisitos, planejamento
inadequado e alta rotatividade da equipe est.o entre as cinco mais citadas para incorrer
em R2DD. Considerando os efeitos de R2DD, os cinco mais citados s.o: atraso na
entrega, retrabalho, perda financeira, baixa qualidade externa e baixa manutenibilidade.
Requisitos bem definidos, seguir o planejamento do projeto, seguir um processo de projeto
bem definido, declaração de escopo bem definida e boa alocação de recursos na equipe
s.o as cinco pr.ticas comumente citadas para prevenir o item R2DD, enquanto a falta
de profissionais qualificados, a documentação nãoo atualizada e o prazo curto s.o os
motivos para explicar a nãoo prevenção de R2DD. Sobre as práticas para reembolso de
itens R2DD, refatoração de código, monitoramento e controle de atividades do projeto,
refatoração de design, investimento de esforço em atividades de reembolso de TD
e altera..o do escopo do projeto est.o entre os cinco mais citados, enquanto o foco em
metas de curto prazo, falta de interesse organizacional, falta de recursos, custo e sobrecarga
da equipe s.o os motivos para explicar o n.o reembolso do R2DD. Considerando a
investigação dos atributos importantes e menos desej.veis dos engenheiros de requisitos,
os atributos capacidade investigativa para dialogar com as partes interessadas, sensatez,
compreens.o do neg.cio, boa capacidade de identificar requisitos ausentes e bom conhecimento
das pr.ticas de engenharia de requisitos s.o os cinco atributos mais citados para
excelentes engenheiros de requisitos, enquanto dificuldade de relacionamento, falta de
comunicação, falta de conhecimento do negócio, elaboração de especifica..es superficiais
(sem detalhes, com inconsist.ncias, ambiguidades - dificultando o trabalho da equipe) e
falta de organiza..o s.o os atributos menos desejáveis mais citados.
Conclusão: Utilizando os dados do InsightTD, inicialmente este trabalho explora o
estado da pr.tica do R2DD, sobre causas, efeitos e pr.ticas utilizadas para sua preven..o
e reembolso. Ap.s analisar esses dados, e considerando que o fator humano . importante
ao lidar com o R2DD, tamb.m s.o explorados os atributos importantes e menos desej.veis
dos engenheiros de requisitos e a rela..o entre eles. Todo o conhecimento foi organizado
em quatro artefatos que podem impulsionar novas investiga..es sobre R2DD e auxiliar
profissionais de software a aumentar suas capacidades.
-
Mostrar Abstract
-
Context: Technical debt (TD) contextualizes the problem of pending software development
tasks as a type of debt that brings a short-term benefit to the project, often in
terms of increased development speed or shortened time to market. TD items can affect
different artifacts and phases of the software development. It is particularly important
to discuss the management of TD in the context of requirements engineering (RE) activities
because they are inherently complex, reflect a system purpose aligning different
viewpoints of the system’s stakeholder, and impact several software development phases.
There are two types of debt directly related to RE: requirements and documentation debt.
Although several works have investigated the state-of-the-practice on TD concerning its
causes, effects, and management, the current literature has not approached the topic
under the perspective of requirements and requirements documentation debt (R2DD).
Aims: This Ph.D dissertation aims to organize the TD management landscape for
requirements debt in the technical and human aspects.
Method: Initially, we conducted a literature review on the current state of research
on R2DD and causes, effects, and practices used for its prevention and repayment. Then,
we analyzed data collected by replication teams from the InsighTD project, which is a
family of globally distributed surveys on the causes, effects and management of TD. From
the body of knowledge resulted from the analysis of InsighTD data, we perceived that
the human factor is important when dealing with R2DD, consequently, we investigated
the great and the less desirable attributes of requirements engineers and the relationship
between them. Based on this investigations, we defined four concept maps.
Results: This work presents the state of practice of R2DD, revealing its causes, effects,
and practices used for its prevention and repayment. Regarding causes of R2DD,
deadline, not effective project management, change of requirements, inappropriate planning,
and high turnover of the team are among the five most cited to incurr R2DD.
Considering effects of R2DD, the five most cited are: delivery delay, rework, financial
loss, low external quality, and low maintainability. well-defined requirements, following
the project planning, following well-defined project process, well-define scope statement,
and good allocation of resources in the team are the five commonly cited practices for preventing
R2DD item, while lack of qualified professionals, non-update documentation, and
short deadline are the reasons for explaining the non-prevention of R2DD. About practices
for repayment R2DD items, code refactoring, monitoring and controlling project
activities, design refactoring, investing effort on TD repayment activities, and changing
project scope are among the five most cited, while focusing on short term goals, lack of
organizational interest, lack of resources
resources, cost, and team overload are the reasons for explaining
the non-repayment of R2DD. Considering the investigation of the great and the
less desirable attributes of requirements engineers, the attributes investigative ability to
talk to stakeholders, judicious, understand the business, good ability to identify missing
requirements, and good knowledge of requirements engineering practices are the five most
cited attributes for great requirements engineers, while difficulty in relationships, lack
of communication, lack of business knowledge, make superficial specifications (without
details, with inconsistencies, ambiguities - making the team’s work difficult, and lack of
organization are the most cited less desirable attributes.
Conclusion: Using the InsighTD data, initially this work explores the state of
practice of R2DD, on causes, effects, and practices used for its prevention and repayment.
After analyzing these data, and given that the human factor is important when dealing
with R2DD, it also explores the great and the less desirable attributes of requirements
engineers and the relationship between them. All body of knowledge was organized
into four artifacts that can drive new investigations on R2DD and support software
practitioners in increasing their capabilities.
|
|
|
3
|
-
Diego Corrêa da Silva
-
Explorando a calibração como um sistema de recomendação multiobjetivo
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
ADRIANO CÉSAR MACHADO PEREIRA
-
BRUNO PEREIRA DOS SANTOS
-
FREDERICO ARAUJO DURAO
-
MARCELO GARCIA MANZATO
-
RODRIGO ROCHA GOMES E SOUZA
-
Data: 18/06/2025
-
-
Mostrar Resumo
-
Sistemas de Recomendação Colaborativa geram recomendações personalizadas ao analisar as interações passadas dos usuários. No entanto, abordagens tradicionais frequentemente priorizam a relevância, o que leva a problemas como superespecialização, viés de popularidade e desequilíbrio de classes. Essas limitações podem resultar em listas de recomendação que não representam de forma justa todo o espectro de interesses de um usuário. Nesse sentido, Recomendações Calibradas abordam esse problema ao equilibrar relevância com justiça (calibração), garantindo que a distribuição dos itens recomendados se alinhe mais de perto com a distribuição de preferências do usuário. Por exemplo, quando o perfil do usuário é composto por 80% de Aventura e 20% de Ficção Científica, a recomendação calibrada busca gerar uma lista seguindo essa distribuição. Relevância e calibração são objetivos distintos que o sistema deve alcançar. Esse problema de múltiplos objetivos é tratado por meio de uma abordagem de balanceamento de trade-off. Esta tese aborda as recomendações calibradas como um sistema de recomendação multiobjetivo, com o objetivo de medir e melhorar a calibração da lista de recomendações utilizando as preferências do usuário como referência. Assim, dividimos os objetivos desta tese em estudos, e dentro de cada estudo, foram levantadas e respondidas perguntas de pesquisa. No primeiro estudo, realizamos uma análise sistemática de 57 métricas de justiça, introduzindo métodos inovadores para extrair distribuições de preferência dos usuários e refinar a estimativa de relevância. Como resultado, quatro métricas atingiram os mesmos quatro melhores desempenhos. No segundo estudo, exploramos o impacto mais amplo da calibração em objetivos-chave da recomendação, incluindo novidade, cobertura, personalização, inesperado e serendipidade. Nossos achados indicam que a calibração melhora a cobertura dos itens e a personalização, mantendo uma alta utilidade nas recomendações. No terceiro estudo, investigamos as propriedades estruturais das distribuições utilizadas em recomendações calibradas. Diferentemente dos sistemas tradicionais de recomendação, que operam em um espaço unidimensional, as recomendações calibradas envolvem distribuições de preferência de usuários em espaços de alta dimensão. Nossa análise mostra que listas de recomendação calibradas formam naturalmente clusters distintos de usuários, fenômeno que pode ser melhor compreendido por meio de modelos de detecção de outliers. No quarto estudo, propomos duas abordagens inovadoras para modelar as preferências dos usuários com o intuito de aprimorar a precisão e adaptabilidade das técnicas de calibração. O primeiro método incorpora ponderações sensíveis ao tempo para descartar informações de preferência desatualizadas. O segundo método introduz uma abordagem baseada em entropia para capturar melhor as preferências dos usuários em domínios onde as características dos itens são representadas por conjuntos, como filmes com múltiplos gêneros. Avaliações experimentais confirmam que essas abordagens reduzem efetivamente a descalibração ao mesmo tempo em que mantêm a precisão das recomendações. De forma geral, esta tese avança no campo das recomendações calibradas ao fornecer uma avaliação abrangente de métricas de justiça, propor técnicas inovadoras de calibração e analisar as propriedades estruturais das distribuições de preferência dos usuários.
-
Mostrar Abstract
-
Collaborative Recommender Systems generate personalized recommendations by analyzing users' past interactions. However, traditional approaches often prioritize relevance, leading to issues such as super-specialization, popularity bias, and class imbalance. These limitations can result in recommendation lists that fail to represent the full spectrum of a user’s interests fairly. In this sense, Calibrated Recommendations address this problem by balancing relevance with fairness (calibration), ensuring that the distribution of recommended items aligns more closely with the user’s preference distribution. For example, when the user's profile comprises 80% Adventure and 20% Sci-fi, the calibrated recommendation seeks to generate a list following this distribution. Relevance and calibration are two distinct goals that the system should achieve. This multi-objective is reached through a trade-off balance approach. This thesis addresses calibrated recommendations as a multi-objective recommendation system, aiming to measure and improve the calibration of the recommendation list using the user's preferences as a target. Thus, we divide the goals of this thesis into studies, and inside each study, research questions were raised and answered. In the first study, we systematically benchmark 57 fairness measures, introducing novel methods for extracting user preference distributions and refining relevance estimation. As a result, four measures achieve the same four best performances. In the second study, we explored the broader impact of calibration on key recommendation objectives, including novelty, coverage, personalization, unexpectedness, and serendipity. Our findings indicate that calibration enhances item coverage and personalization while maintaining high recommendation utility. In the third study, we investigate the structural properties of the distributions used in calibrated recommendations. Unlike traditional recommender systems that operate in a one-dimensional space, calibrated recommendations involve high-dimensional user preference distributions. Our analysis shows that calibrated recommendation lists naturally form distinct user clusters, a phenomenon best understood through outlier detection models. In the fourth study, we propose two novel approaches for modeling user preferences to enhance the accuracy and adaptability of calibration techniques. The first method incorporates time-sensitive weighting to discount outdated preference information. The second method introduces an entropy-based approach to better capture user preferences in domains where item features are set-valued, such as movies with multiple genres. Experimental evaluations confirm that these approaches effectively reduce miscalibration while maintaining recommendation accuracy. Overall, this thesis advances the field of calibrated recommendations by providing a comprehensive evaluation of fairness measures, proposing novel calibration techniques, and analyzing the structural properties of user preference distributions.
|
|
|
4
|
-
DIEGO ZABOT
-
Game codesign como estratégia pedagógica para a Educação Infantil: uma proposta inspirada no design de interação semioparticipativo
-
Orientador : ECIVALDO DE SOUZA MATOS
-
MEMBROS DA BANCA :
-
ANDRE LUIS SOUSA SENA
-
DÉBORA NICE FERRARI BARBOSA
-
ECIVALDO DE SOUZA MATOS
-
RODRIGO ROCHA GOMES E SOUZA
-
TACIANA PONTUAL DA ROCHA FALCAO
-
Data: 15/07/2025
-
-
Mostrar Resumo
-
Diante dos desafios do mundo contemporâneo, cresce a demanda por práticas pedagógicas que estimulem habilidades contemporâneas como criatividade, criticidade, autonomia e colaboração desde os primeiros anos da escolarização, algo que pode ser potencializado pela Computação Aplicada. A Base Nacional Comum Curricular (BNCC) reforça esse compromisso ao propor, na Educação Infantil, experiências que favoreçam a construção de sentidos, a expressão pessoal e a interação social nos Campos de Experiência, por meio de elementos tangentes à Computação. Inserida nesse cenário, nesta pesquisa investigou-se a prática de game codesign, inspirada no Design de Interação, como estratégia pedagógica voltada à Educação Infantil, com foco no desenvolvimento de habilidades contemporâneas por meio dos Campos de Experiência da BNCC. A proposta fundamenta-se em uma abordagem de design de interação semioparticipava (SPIDe), que articula princípios da Engenharia Semiótica e do Design Participativo, promovendo envolvimento das crianças como coautoras na criação de jogos e brincadeiras, valorizando suas múltiplas linguagens e formas de expressão. A metodologia envolveu revisão narrativa da literatura, análises teóricas, etapas dedutivas (modelagem) de concepção e adaptação da estratégia para a Educação Infantil; além de avaliação por especialistas nas áreas de Interação Humano-Computador, Game Design e Educação Infantil. Esses procedimentos fundamentaram a construção interativa de uma proposta de game codesign estruturada em seis momentos, concebida como uma estratégia pedagógica alinhada aos Campos de Experiência da BNCC.
-
Mostrar Abstract
-
Faced with the challenges of the contemporary world, there is an increasing demand for pedagogical practices that foster contemporary skills such as creativity, critical thinking, autonomy, and collaboration from the earliest years of schooling — something that can be enhanced through Applied Computing. The Brazilian National Common Curricular Base (BNCC) reinforces this commitment by proposing, in Early Childhood Education, experiences that promote the construction of meaning, personal expression, and social interaction within the Fields of Experience (Campos de Experiência), through elements related to Computing. In this context, this research investigated the practice of Game Codesign, inspired by Interaction Design, as a pedagogical strategy aimed at Early Childhood Education, focusing on the development of contemporary skills through the BNCC's Fields of Experience. The proposal is based on a semioparticipatory interaction design approach (SPIDe), which articulates principles from Semiotic Engineering and Participatory Design, fostering the involvement of children as coauthors in the creation of games and play activities, valuing their multiple languages and forms of expression. The methodology included a narrative literature review, theoretical analyses, and deductive (modeling) stages for the conception and adaptation of the strategy to Early Childhood Education. In addition, the proposal was evaluated by experts in the fields of Human-Computer Interaction, Game Design, and Early Childhood Education. These procedures supported the interactive construction of a Game Codesign proposal structured into six stages, conceived as a pedagogical strategy aligned with the Fields of Experience of the BNCC.
|
|
|
5
|
-
Lidiany Cerqueira Santos
-
Desenvolvimento de software guiado por empatia: uma estrutura conceitual de empatia na engenharia de software
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
BIANCA TRINKENREICH
-
KIEV SANTOS DA GAMA
-
MANOEL GOMES DE MENDONCA NETO
-
RENATO LIMA NOVAIS
-
THIAGO SOUTO MENDES
-
Data: 21/07/2025
-
-
Mostrar Resumo
-
Contexto. Empatia é a capacidade de compreender e compartilhar as emoções dos outros, uma habilidade essencial para profissionais de software, pois contribui para a melhoria da qualidade do software, da comunicação, da colaboração e dos ambientes de trabalho. Apesar de sua importância, a empatia permanece um tópico pouco explorado na pesquisa em Engenharia de Software (ES).
Objetivos. Para abordar essa lacuna de conhecimento, esta dissertação visa aprofundar nossa compreensão da empatia em ES, investigando como ela é definida, praticada e vivenciada por profissionais de software, bem como identificando barreiras e efeitos relacionados ao comportamento empático em contextos de desenvolvimento.
Método. Adotamos uma abordagem de métodos mistos. Primeiramente, conduzimos uma análise qualitativa da literatura cinzenta de plataformas de profissionais (DEV e Medium). Em seguida, entrevistamos profissionais de software em uma grande organização de software para examinar quantitativa e qualitativamente as percepções e comportamentos relacionados à empatia. Também avaliamos nossa estrutura proposta com especialistas em empatia.
Resultados. O estudo revelou diferentes significados e um alto valor percebido da empatia, bem como barreiras que dificultam sua aplicação em equipes de software. Identificamos um conjunto de práticas empáticas e as categorizamos em dimensões de empatia com base na análise fatorial exploratória. Também constatamos que as práticas de empatia estão intimamente ligadas a resultados positivos, que vão desde produtividade e qualidade técnica até colaboração, bem-estar e crescimento profissional, reforçando a relevância prática da empatia em múltiplas dimensões da prática de software. Esses insights subsidiaram o desenvolvimento de uma estrutura conceitual de empatia em Engenharia de Software, que foi validada por meio do feedback de especialistas.
Conclusão. Esta pesquisa avança a compreensão da empatia na engenharia de software, oferecendo uma estrutura teórica e empiricamente fundamentada, um conjunto de dados com curadoria e implicações práticas para equipes e organizações. Ela estabelece as bases para trabalhos futuros sobre práticas, ferramentas e intervenções orientadas pela empatia no desenvolvimento de software.
-
Mostrar Abstract
-
Context. Empathy is the ability to understand and share the emotions of others, a critical skill for software practitioners as it contributes to improved software quality, communication, collaboration, and work environments. Despite its importance, empathy remains an underexplored topic in Software Engineering (SE) research.
Aims. To address this knowledge gap, this dissertation aims to deepen our understanding of empathy in SE by investigating how it is defined, practiced, and experienced by software practitioners, as well as identifying barriers and effects related to empathetic behavior in development contexts.
Method. We adopted a mixed-methods approach. First, we conducted a qualitative analysis of grey literature from practitioner platforms (DEV and Medium). Then, we surveyed software practitioners within a large software organization to quantitatively and qualitatively examine empathy-related perceptions and behaviors. We also evaluated our proposed framework with empathy experts.
Results. The study revealed different meanings and a high perceived value of empathy, as well as barriers that hinder its application in software teams. We identified a set of empathetic practices and categorized them into empathy dimensions based on exploratory factor analysis. We also found that empathy practices are closely linked to positive outcomes, ranging from productivity and technical quality to collaboration, well-being, and professional growth, reinforcing the practical relevance of empathy across multiple dimensions of software practice. These insights informed the development of a conceptual framework of empathy in SE, which was validated through experts' feedback.
Conclusion. This research advances the understanding of empathy in software engineering by offering a theoretically and empirically grounded framework, a curated dataset, and practical implications for teams and organizations. It lays the foundation for future work on empathy-driven practices, tools, and interventions in software development.
|
|
|
6
|
-
Bruno Souza Cabral
-
Evolving Open Information Extraction for Portuguese employing Language Models
-
Orientador : DANIELA BARREIRO CLARO
-
MEMBROS DA BANCA :
-
MARCOS GARCÍA GONZÁLEZ
-
Aline Marins Paes Carvalho
-
DANIELA BARREIRO CLARO
-
RENATA VIEIRA
-
VLÁDIA CÉLIA MONTEIRO PINHEIRO
-
Data: 15/09/2025
-
-
Mostrar Resumo
-
A Extração Aberta de Informação (OpenIE) é uma tarefa importante na Ciência da Computação, voltada para a extração de informações estruturadas a partir de textos, tipicamente na forma de triplas (argumento 1, relação, argumento 2), sem a necessidade de relações-alvo predefinidas. O objetivo do OpenIE é extrair informações valiosas para usos como o aprimoramento da compreensão de linguagem, a alimentação de bases de conhecimento e a compreensão textual. A extração de relações de OpenIE a partir de textos em português apresenta desafios substanciais, principalmente devido à sua rica morfologia, ao uso frequente de pronomes clíticos, à ordem flexível das palavras, à natureza flexionada da língua e a outras peculiaridades linguísticas. O Aprendizado Profundo (Deep Learning) avançou significativamente o OpenIE para a língua inglesa, sendo a sequence labeling uma abordagem comum. Recentemente, surgiu uma nova abordagem — a Extração Generativa de Informação — que se apoia, em particular, em Modelos de Linguagem Generativos de Grande Escala (LLMs), configurando-se como uma alternativa promissora. Técnicas generativas podem receber uma sentença como entrada e gerar representações semânticas estruturadas. Apesar do grande número de estudos de OpenIE voltados para o inglês, a pesquisa sobre OpenIE para a língua portuguesa, especialmente com o uso de métodos de Aprendizado Profundo, ainda é limitada. Muitos trabalhos existentes dependem de conjuntos de dados traduzidos automaticamente do inglês. Além disso, a maioria das abordagens de Aprendizado Profundo para OpenIE em português tem adotado uma perspectiva multilíngue, tratando-o apenas como mais um idioma entre muitos nos conjuntos de treinamento, o que frequentemente leva à negligência de suas características linguísticas particulares. Esta tese apresenta uma análise comparativa de duas metodologias, sequence labeling e abordagens gerativas — para a extração automatizada de relações de OpenIE em textos em português. Uma contribuição central é o desenvolvimento e a curadoria de diversos conjuntos de dados de OpenIE em português, de modo a enfrentar a escassez de dados e possibilitar uma avaliação robusta. Estes incluem tanto corpora anotados manualmente quanto novos corpora gerados com o uso de LLMs. O estudo envolve o desenvolvimento e a avaliação de um modelo baseado em rotulação de sequências e a análise do desempenho de LLMs generativos nesses conjuntos de dados em português. Realiza-se, assim, uma análise comparativa abrangente desses métodos, com foco em sua eficácia na extração de relações de OpenIE — incluindo relações abstrativas — a partir de textos em português. Esta pesquisa contribui de forma significativa para o crescente corpo de literatura sobre a aplicação de técnicas de Aprendizado Profundo para OpenIE na língua portuguesa, aborda lacunas críticas de recursos e estabelece as bases para avanços futuros nesse campo, em particular na exploração de capacidades generativas e abstrativas de extração.
-
Mostrar Abstract
-
Open Information Extraction (OpenIE) is an important task in Computer Science focused on extracting structured information from text, typically as (argument 1, relation, argument 2) triples, without requiring predefined target relations. OpenIE aims to extract valuable information for uses such as enhancing language understanding, populating knowledge bases, and text comprehension. The extraction of OpenIE relations from Portuguese text presents substantial challenges, primarily due to its rich morphology, frequent use of clitic pronouns, exible word order, inected nature, and other linguistic peculiarities. Deep Learning has signicantly advanced OpenIE for the English language, with sequence labeling being a common approach. Recently, a new approach, Generative Information Extraction, particularly leveraging generative Large Language Models (LLMs), has emerged as a fruitful alternative. Generative techniques can take a sentence as input and generate structured semantic representations. Despite numerous OpenIE studies focusing on English, research on OpenIE for the Portuguese language, particularly employing Deep Learning methods, remains limited. Existing work often relies on datasets automatically translated from English. Moreover, most Deep Learning approaches for OpenIE in Portuguese have adopted a multilingual perspective, treating it as just one language among many in training datasets, thereby often neglecting its unique linguistic characteristics. This thesis presents a comparative analysis of two methodologies, sequence labeling and generative approaches, for the automated extraction of OpenIE relations from Portuguese texts. A core contribution is the development and curation of diverse Portuguese OpenIE datasets to address data scarcity and enable robust evaluation. These include both manually annotated corpora and novel corpora generated using LLMs. The study involves developing and evaluating a sequence labeling model and assessing the performance of generative LLMs on these Portuguese datasets. A comprehensive comparative analysis of these methods is conducted, focusing on their ecacy in extracting OpenIE relations, including abstractive ones, from Portuguese text. This research signicantly contributes to the growing body of literature on the application of Deep Learning techniques for OpenIE in the Portuguese language, addresses critical resource gaps, and lays the foundation for further advancements in this field, particularly in exploring generative and abstractive extraction capabilities.
|
|
|
7
|
-
JAUBERTH WEYLL ABIJAUDE
-
Integrando a Blochain à Cadeia de Produção por meio de IoT: Caso de Uso da Indústria do Cacau
-
Orientador : GEORGE MARCONI DE ARAUJO LIMA
-
MEMBROS DA BANCA :
-
BILLY ANDERSON PINHEIRO
-
GUIDO LEMOS DE SOUZA FILHO
-
ALIRIO SANTOS DE SA
-
ALLAN EDGARD SILVA FREITAS
-
GEORGE MARCONI DE ARAUJO LIMA
-
LEOBINO NASCIMENTO SAMPAIO
-
Data: 30/09/2025
-
-
Mostrar Resumo
-
Esta tese apresenta o desenvolvimento de um artefato tecnológico inovador que integra dispositivos de Internet das Coisas, blockchain e um middleware orientado a serviços para viabilizar a rastreabilidade e o controle automatizado dos processos de fermentação e secagem do cacau fino. Inicialmente, realiza-se uma contextualização do tema, seguida de uma revisão conceitual e técnica sobre os fundamentos da IoT, dos protocolos de consenso utilizados em blockchains, e das arquiteturas que viabilizam a integração eficiente entre IoT e blockchain. Nesse contexto, são analisados os requisitos funcionais e não funcionais que permitem a adoção de blockchains em ambientes com restrições computacionais, típicos da IoT. Na etapa seguinte, descreve-se o desenvolvimento de um middleware orientado a serviços, com suporte à utilização de ontologias e com suporte semântico, projetado para assegurar interoperabilidade entre dispositivos heterogêneos. O middleware oferece APIs baseadas no estilo arquitetural REST, as quais foram modifi- cadas para emular o comportamento de mensagens SNMP (Simple Network Management Protocol). Essa abordagem resultou em uma redução significativa na troca de mensagens e no consumo de recursos computacionais Adicionalmente, são descritas as aplicações distribuídas desenvolvidas para configurar e operacionalizar o controle das ações de fer- mentação e secagem do cacau, com base em um hardware IoT customizado e projetado especificamente para esse fim. Os dados capturados pelos sensores são pré-processados e enviados para o middleware e, em seguida, registrados em contratos inteligentes (smart contracts) implantados na plataforma Ethereum, conferindo ao processo as garantias de imutabilidade, auditabilidade e confiabilidade proporcionadas pela blockchain. A tese também apresenta um panorama contextual da região cacaueira do Sul da Bahia, dis- cutindo os desafios e oportunidades relacionados à adoção de tecnologias da chamada Agricultura 4.0. Como parte da validação desta tese, foi desenvolvida uma prova de conceito que evidencia os principais resultados obtidos, incluindo a economia de recursos computacionais, a eficiência na troca de mensagens e a confiabilidade na rastreabilidade dos dados. Por fim, destaca-se que, para além da aplicabilidade no setor cacaueiro, o middleware desenvolvido possui potencial de extensão para outros domínios, tais como o controle patrimonial de inventário e o gerenciamento do uso de recursos hídricos, de- monstrando a versatilidade e a robustez da arquitetura desenvolvida.
-
Mostrar Abstract
-
This dissertation presents the development of an innovative technological artifact that integrates Internet of Things (IoT) devices, blockchain technology, and a service-oriented middleware to enable the traceability and automated control of the fermentation and drying processes of fine cocoa. The work begins with a contextualization of the subject, followed by a conceptual and technical review of the fundamentals of IoT, consensus pro- tocols used in blockchains, and architectural models that support the efficient integration of IoT and blockchain systems. Within this context, both functional and non-functional requirements are analyzed, particularly those enabling the adoption of blockchain solutions in computationally constrained environments, which are typical in IoT scenarios. Subsequently, the development of a service-oriented middleware is described. This mid- dleware supports semantic interoperability through the use of ontologies and is desig- ned to ensure compatibility among heterogeneous devices. It offers APIs based on the REST architectural style, which were adapted to emulate the behavior of SNMP (Simple Network Management Protocol) messages. This approach led to a significant reduction in message exchange and computational resource consumption. Additionally, the dis- sertation describes the distributed applications developed to configure and manage the control of fermentation and drying actions, supported by custom-designed IoT hardware specifically built for this purpose. The data captured by the sensors are pre-processed and forwarded to the middleware, which then records them in smart contracts deployed on the Ethereum blockchain, thus ensuring the process benefits from the inherent im- mutability, auditability, and reliability provided by blockchain technology. The thesis also presents a contextual overview of the cocoa-producing region of Southern Bahia, dis- cussing the challenges and opportunities associated with the adoption of Agriculture 4.0 technologies. As part of the evaluation of the proposed solution, a proof of concept was developed, demonstrating key results such as computational resource savings, messaging efficiency, and reliability in data traceability. Finally, it is worth noting that beyond its applicability in the cocoa sector, the developed middleware has the potential to be exten- ded to other domains, such as asset inventory control and water resource management, thus demonstrating the versatility and robustness of the proposed architecture.
|
|
|
8
|
-
GEORGE PACHECO PINTO
-
FoT-PDS: Um Paradigma Centrado no Usuário para IoT com Preservação de Privacidade
-
Orientador : CASSIO VINICIUS SERAFIM PRAZERES
-
MEMBROS DA BANCA :
-
MIRIAM AKEMI MANABE CAPRETZ
-
CASSIO VINICIUS SERAFIM PRAZERES
-
FREDERICO ARAUJO DURAO
-
GUSTAVO BITTENCOURT FIGUEIREDO
-
RENATO DE FREITAS BULCÃO NETO
-
Data: 18/11/2025
-
-
Mostrar Resumo
-
A Internet das Coisas (IoT) impõe desafios significativos à privacidade de dados pessoais ao viabilizar a coleta e o processamento de dados de forma pervasiva e ubíqua, muitas vezes sem o conhecimento ou consentimento do usuário. Esse cenário reforça o fenômeno conhecido como paradoxo da privacidade, que representa um equilíbrio delicado entre os benefícios advindos do uso das tecnologias e serviços e os riscos à privacidade a eles associados. Ao mesmo tempo, as percepções dos usuários sobre a coleta e o valor dos dados têm se transformado, aumentando sua preocupação com a troca de dados por serviços e impulsionando um movimento em direção a maior controle sobre eles, com foco na proteção da privacidade. Nesse contexto, esta tese apresenta o FoT-PDS, um paradigma original para enfrentar questões de privacidade no contexto da IoT, ao capacitar os usuários com controle sobre seus dados, assegurar transparência no processamento das informações, aumentar a conscientização sobre os riscos à privacidade e fomentar a confiança nos provedores de serviços. Trata-se de um paradigma centrado no usuário que integra a Névoa das Coisas e Armazenamento de Dados Pessoais, promovendo uma gestão descentralizada dos dados e permitindo que indivíduos exerçam controle granular sobre quem pode acessar seus dados e para quais finalidades. Adicionalmente, o paradigma inclui um mecanismo de consentimento assistido por IA, baseado em métodos de agrupamento, com o objetivo de antecipar riscos de perfilamento e apoiar os usuários na tomada de decisão informada. Os resultados do nosso estudo experimental demonstram que o FoT-PDS melhora a percepção dos usuários sobre o controle de seus dados, o que leva a um impacto positivo e direto na conscientização sobre privacidade e na transparência. Ademais, a conscientização sobre privacidade medeia o efeito indireto do controle de dados sobre a confiança. A avaliação técnica também comprova a viabilidade do mecanismo de consentimento e seu potencial para mitigar riscos de perfilamento. Esses achados fornecem evidências empíricas que sustentam a adoção de FoT-PDS como uma abordagem viável e eficaz para promover o controle de dados e mitigar riscos à privacidade no contexto da IoT.
-
Mostrar Abstract
-
The IoT poses significant challenges to personal data privacy, as it enables pervasive and ubiquitous data collection and processing, often occurring without the user's knowledge and consent. This situation reinforces the privacy paradox phenomenon, which poses a trade-off between the benefits of technologies and services and the associated privacy risks. At the same time, users' perceptions of data collection and value have been changing, increasing their concern about exchanging their data for services and driving a movement toward more control for privacy protection. In this scenario, this thesis introduces FoT-PDS, an original paradigm to address privacy issues in the IoT context by empowering users with data control, ensuring transparency in data processing, raising awareness of privacy risks, and fostering trust in service providers. It is a user-centric paradigm that integrates the Fog of Things and Personal Data Stores, promoting decentralized data management and granting individuals fine-grained control over who accesses their data and for which purposes. Additionally, the paradigm includes an AI-assisted consent mechanism based on clustering methods to anticipate profiling risks and support informed decision-making by users. Our experimental study results demonstrate that FoT-PDS enhances users' perception of data control, which has a positive and direct impact on privacy awareness and transparency. Moreover, privacy awareness mediates the indirect effect of data control on trust. Further, the technical evaluation demonstrates the feasibility of the consent mechanism and its potential to mitigate profiling risks. These insights provide empirical evidence supporting the adoption of FoT-PDS as a viable and effective approach for promoting data control and mitigating privacy risks in the IoT context.
|
|
|
9
|
-
MAYKA DE SOUZA LIMA
-
FRAMEWORK CONCEITUAL PARA O DESENHO INSTRUCCIONAL DE CURSOS EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
RITA SUZANA PITANGUEIRA MACIEL
-
IVAN DO CARMO MACHADO
-
LAIS DO NASCIMENTO SALVADOR
-
VICTOR STROELE
-
PEDRO HENRIQUE DIAS VALLE
-
Data: 02/12/2025
-
-
Mostrar Resumo
-
Com o avanço das tecnologias digitais, os Ambientes Virtuais de Aprendizagem (AVAs) evoluíram de simples repositórios de conteúdo para espaços interativos que apoiam metodologias ativas e promovem experiências significativas de ensino e aprendizagem. No entanto, muitos desses ambientes ainda precisam se alinhar aos princípios do Design Instrucional (DI), o que dificulta o desenvolvimento de práticas pedagógicas coerentes pelos professores. Diante desse cenário, esta pesquisa teve como objetivo propor, estruturar e avaliar um marco conceitual para apoiar os profissionais da educação no uso de estratégias pedagógicas em VLEs, com base no design instrucional. O trabalho foi conduzido de acordo com a abordagem da Pesquisa em Ciência do Design (DSR- Design Science Research) e seguiu um caminho metodológico composto por: um estudo de mapeamento sistemático, aplicação de uma pesquisa com 276 profissionais da educação, realização de entrevistas com 26 professores, triangulação dos dados, avaliação da estrutura conceitual em 03 ciclos de grupos focais e um estudo de caso com 10 professores de ciência da computação.
Com base na análise dos dados coletados na pesquisa e nas entrevistas, foram identificadas três metodologias ativas recorrentes e mais significativas na prática dos educadores: sala de aula invertida, aprendizagem baseada em problemas e aprendizagem baseada em projetos. Essas metodologias foram adotadas como eixos estruturantes da estrutura, devido à sua relevância na promoção da colaboração e da resolução de problemas em contextos educacionais mediados por Recursos Tecnológicos Digitais (RTDs). A estrutura conceitual resultante visa integrar elementos do design instrucional com as funcionalidades dos VLEs, fornecendo um guia teórico e prático que apoia a tomada de decisões informadas sobre a seleção de metodologias, estratégias e recursos digitais. Sua avaliação demonstrou aplicabilidade e relevância, especialmente como ferramenta de planejamento e reflexão para professores em contextos híbridos e remotos. Assim, esta tese representa a conclusão de um ciclo investigativo e contribui para o campo das tecnologias educacionais, oferecendo um modelo estruturado que fortalece o uso pedagógico dos VLEs.
-
Mostrar Abstract
-
With the advancement of digital technologies, Virtual Learning Environments (VLEs) have evolved from simple content repositories to interactive spaces that support active methodologies and promote meaningful teaching and learning experiences. However, many of these environments still need to align with the principles of Instructional Design (ID), which makes it difficult for teachers to develop coherent pedagogical practices. Given this scenario, this research aimed to propose, structure, and evaluate a conceptual framework to support education professionals in the use of pedagogical strategies in VLEs, based on instructional design. The work was conducted according to the Design Science Research (DSR) approach and followed a methodological path composed of: a systematic mapping study, application of a survey with 276 education professionals, conducting interviews with 26 teachers, triangulating the data, evaluating the conceptual structure in 03 cycles of focus groups, and a case study with 10 computer science teachers. Based on the analysis of data collected from the survey and interviews, three active methodologies that are recurrent and most significant in the practice of educators were identified: the flipped classroom, Problem-Based Learning, and Project-Based Learning. These methodologies were adopted as structuring axes of the framework, due to their relevance in promoting collaboration and problem-solving in educational contexts mediated by Digital Technological Resources (DTRs). The resulting conceptual framework aims to integrate elements of instructional design with the functionalities of VLEs, providing a theoretical and practical guide that supports informed decision-making regarding the selection of methodologies, strategies, and digital resources. Its evaluation demonstrated applicability and relevance, especially as a planning and reflection tool for teachers in hybrid and remote contexts. Thus, this thesis represents the conclusion of an investigative cycle and contributes to the field of educational technologies by offering a structured model that strengthens the pedagogical use of VLEs.
|
|
|
10
|
-
GUILHERME BRAGA ARAUJO
-
Alavando Redes de Dados Nomeados para Aplicações Veiculares e de Computação de Borda
-
Orientador : LEOBINO NASCIMENTO SAMPAIO
-
MEMBROS DA BANCA :
-
ANTONIO ALFREDO FERREIRA LOUREIRO
-
BRUNO PEREIRA DOS SANTOS
-
EDUARDO COELHO CERQUEIRA
-
LEOBINO NASCIMENTO SAMPAIO
-
MAYCON LEONE MACIEL PEIXOTO
-
Data: 12/12/2025
-
-
Mostrar Resumo
-
Atualmente, veículos modernos possuem capacidades avançadas de processamento, armazenamento e comunicação sem fio, tornando-os mais inteligentes e interconectados. Nesse contexto, as Redes Veiculares (VANETs) são cruciais para modelos de comunicação entre veículos, infraestruturas de sistemas distribuídos e dispositivos de monitoramento. Apesar desses benefícios, a integração de soluções em VANETs em Cidades Inteligentes para aplicações em cenários de Computação de Borda requer uma arquitetura de rede capaz de lidar com requisitos heterogêneos de comunicação entre aplicações distribuídas em ambientes multiacesso. A mobilidade veicular, a comunicação dinâmica e os aspectos de segurança representam desafios fundamentais para o desenvolvimento de aplicações escaláveis e confiáveis. As constantes mudanças na topologia da rede, causadas pela mobilidade dos veículos, levam a conexões intermitentes que tornam ainda mais complexo o desenvolvimento de aplicações. Nessas condições, a arquitetura TCP/IP apresenta limitações significativas. Em contraste, modelos emergentes de Redes Centradas na Informação—e, em particular, a arquitetura de Redes de Dados Nomeados (NDN)— surgem como alternativas promissoras, oferecendo uma comunicação mais otimizada, com serviços adicionais no nível de rede, entrega centrada no conteúdo, segurança como serviço de rede e independência da localização física dos dados. Esta tese investiga o desenvolvimento de novas classes de aplicações veiculares em cenários reais de Cidades Inteligentes e Computação de Borda com suporte completo da arquitetura NDN. Inicialmente, realiza-se um estudo sobre as redes veiculares, abordando suas principais características, aplicações e aspectos críticos. Em seguida, um estudo detalha o modelo de comunicação centrado nos dados, suas propriedades intrínsecas e vantagens sobre o modelo TCP/IP em VANETs. Além disso, são propostas e implementadas provas de conceito para distintos tipos de aplicações distribuídas, a fim de demonstrar, na prática, diferentes aspectos de projeto, utilizando a NDN como arquitetura de comunicação entre entidades na rede. As principais contribuições incluem: (i) desenvolvimento de um ambiente adequado para simulação de aplicações reais em Redes Veiculares de Dados Nomeados, i.e., o simulador NDN4IVC; (ii) projeto de um Sistema de Transporte Inteligente, denominado “NDN-Waze”, para monitorar e otimizar o tráfego veicular; (iii) criação de uma arquitetura orientada a serviços para descarregamento de dados em Computação de Borda Veicular, denominada iETR (intelligent Edge-Traffic Routing), para o transporte eficiente de grandes volumes de dados com suporte da arquitetura NDN e orquestração de agentes móveis (i.e., veículos)—data mule—integrados ao ambiente de computação de borda. As soluções propostas nesta tese foram avaliadas por meio de simulações e demonstraram que as propriedades da arquitetura NDN favorecem a criação de novas classes de serviços distribuídos em redes emergentes.
-
Mostrar Abstract
-
Modern vehicles are increasingly equipped with advanced processing, storage, and wireless communication capabilities, making them more intelligent and interconnected. In this context, Vehicular Ad Hoc Networks (VANETs) are crucial for enabling communication models among vehicles, distributed infrastructures, and monitoring devices. Despite these benefits, integrating VANET solutions into Smart Cities for Edge Computing scenarios requires a network architecture capable of handling heterogeneous communication requirements across distributed applications in multi-access environments. Vehicular mobility, dynamic communication models, and security aspects pose fundamental challenges to the development of scalable and reliable applications. Constant topology changes, caused by mobility, lead to intermittent connections that further complicate the design of distributed applications. Under these conditions, the TCP/IP architecture exhibits significant limitations. In contrast, emerging Information-Centric Networking models—and, in particular, the Named Data Networking (NDN) architecture—have arisen as promising alternatives, providing an optimized communication model with additional network-layer services like security support, content-centric delivery, and independence from the physical location of data. This thesis investigates the development of new classes of vehicular applications in realistic Smart City and Edge Computing scenarios, supported by the NDN architecture. First, it presents a study of vehicular networks, addressing their main characteristics, applications, and critical aspects. Then, it provides a detailed analysis of the data-centric communication model, highlighting its intrinsic properties and advantages over the TCP/IP model in VANETs. Finally, proof-of-concept implementations are proposed for different distributed applications, showcasing practical design aspects and employing NDN as the underlying communication architecture between network entities. The main contributions of this thesis are as follows: (i) the development of an environment for simulating realistic applications in Vehicular Named Data Networking, the NDN4IVC simulator; (ii) the design of an Intelligent Transportation System, named NDN-Waze, for monitoring and optimizing vehicular traffic; (iii) the creation of a service-oriented architecture for data offloading in Vehicular Edge Computing scenarios, called iETR (intelligent Edge-Traffic Routing), designed to efficiently transport large data volumes with the support of the NDN architecture and the orchestration of mobile agents (i.e., vehicles)—data mules—integrated into the edge computing environment. The proposed solutions were evaluated through simulations, which demonstrated that the intrinsic properties of the NDN architecture favor the development of new classes of services in emerging networks.
|
|
|
11
|
-
FRANCISCO RENATO CAVALCANTE ARAÚJO
-
Diferenciação de Serviços em Redes de Dados Nomeados: Novas Perspectivas através da Semântica de Nomeação, do Cache e da Manutenção de Estados
-
Orientador : LEOBINO NASCIMENTO SAMPAIO
-
MEMBROS DA BANCA :
-
PAULO MILHEIRO MENDES
-
RODRIGO BRANDÃO MANSILHA
-
BRUNO PEREIRA DOS SANTOS
-
JOSE AUGUSTO SURUAGY MONTEIRO
-
LEOBINO NASCIMENTO SAMPAIO
-
Data: 16/12/2025
-
-
Mostrar Resumo
-
O aumento exponencial de aplicações e serviços na Internet, com requisitos heterogêneos, exige mecanismos de diferenciação de serviços mais eficientes do que aqueles oferecidos pelas redes IP tradicionais. Nesse contexto, as Redes de Dados Nomeados (do inglês, Named Data Networking (NDN) surgem como uma alternativa promissora para atender o modelo de comunicação atual. A NDN propõe uma mudança de paradigma em relação ao modelo tradicional orientado a endereços IP, priorizando o acesso ao conteúdo pelo nome em vez da localização, e oferecendo características como cache na rede, encaminhamento com estado e segurança a nível de pacotes, capazes de suportar uma gestão de recursos mais sofisticada. Apesar de seus benefícios, a NDN, por padrão, não implementa mecanismos de diferenciação de serviços, tratando todo o tráfego de forma indistinta, o que limita o suporte a aplicações com diferentes demandas de Qualidade de Serviço (QoS). Além disso, a eficiência do cache, presente no caminho das requisições, e das estratégias de encaminhamento convencionais pode ser comprometida em cenários dinâmicos, com mobilidade de nós produtores de conteúdo e alta competição por recursos. Esta tese propõe um conjunto de mecanismos adaptativos para o provisionamento de QoS em NDN, baseado na integração entre semântica de nomeação, cache cooperativo e manutenção de estados de rede, com foco na diferenciação de serviços. Os trabalhos desenvolvidos incluem: estratégias de encaminhamento multicritério para mitigação de flooding de requisições em NDN sem fio; mecanismos de cache oportunístico e suporte a mobilidade de produtores de conteúdo, ampliando a reutilização de dados e reduzindo a latência de acesso em cenários dinâmicos; Balanceamento de carga distribuído e centrado no conteúdo, promovendo distribuição eficiente do tráfego e exploração cooperativa dos recursos de rede; Provisionamento de QoS e diferenciação de serviços, combinando política de cache e estratégia de encaminhamento para apoiar uma entrega diferenciada de conteúdo conforme os requisitos da classes de serviço. A tese propõe, implementa e avalia estes mecanismos por meio de simulações no ndnSIM, considerando diferentes topologias e cenários de rede, incluindo redes móveis e cabeadas. Os mecanismos propostos exploraram diversos componentes da pilha NDN, como nomeação, cache e encaminhamento. Por fim, a tese apresenta uma nova perspectiva para a diferenciação de serviços em NDN, demonstrando que a integração entre os diferentes componentes tem potencial para provisionar QoS de forma mais eficiente, oferecendo suporte a aplicações heterogêneas. O trabalho estabelece fundamentos conceituais e mecanismos práticos que podem guiar futuras pesquisas nessa temática.
-
Mostrar Abstract
-
The accelerated growth of applications and services on the Internet, with heterogeneous requirements, demands more efficient service differentiation mechanisms than those offered by traditional IP networks. In this context, Named Data Networking (NDN) emerges as a promising alternative to meet the needs of the current communication model. NDN introduces a paradigm shift from the traditional IP address–oriented architecture by prioritizing content access by name rather than by location, and by offering features such as in-network caching, stateful forwarding, and packet-level security—capabilities that enable more sophisticated resource management. Despite its benefits, NDN by default does not implement service differentiation mechanisms, treating all traffic uniformly, which limits support for applications with distinct Quality of Service (QoS) requirements. Furthermore, the efficiency of on-path caching and conventional forwarding strategies can be compromised in dynamic environments with high competition for resources. This thesis proposes a set of adaptive mechanisms for QoS provisioning in NDN, based on the integration of naming semantics, cache management, and forwarding state maintenance, focusing on service differentiation. The developed works include: a cooperative and adaptive forwarding mechanism for traffic control based on forwarding state to mitigate Interest flooding in wireless NDN; an opportunistic and cooperative caching mechanism to support producer mobility; a dynamic, content-centric load-balancing mechanism that promotes efficient traffic distribution and differentiated content delivery; and an integrated approach that combines naming semantics and cache management to enhance QoS provisioning and the performance of heterogeneous applications. The proposed mechanisms are designed, implemented, and evaluated through simulations using ndnSIM, considering different network topologies and scenarios, including both mobile and wired networks. These mechanisms explore several components of the NDN stack, such as naming, caching, and forwarding. In this way, the thesis presents new perspectives for service differentiation in NDN, demonstrating that the integration among different components has the potential to provide QoS more efficiently and to support heterogeneous applications. This work establishes conceptual foundations and practical mechanisms that can guide future research in this field.
|
|