|
Dissertações |
|
1
|
-
MATHEUS MAGALHÃES BATISTA DOS SANTOS
-
Autenticação Contínua de Indivíduos baseada em Algoritmos de Detecção de Anomalias
-
Orientador : MAURICIO PAMPLONA SEGUNDO
-
MEMBROS DA BANCA :
-
MAURICIO PAMPLONA SEGUNDO
-
RUBISLEY DE PAULA LEMES
-
FILLIPE DIAS MOREIRA DE SOUZA
-
Data: 22/01/2020
-
-
Mostrar Resumo
-
Métodos de autenticação como senhas e cartões de acesso se tornaram comuns no dia-a-dia da sociedade. Devido a uma preocupação cada vez maior com a segurança, a biometria passou a ser uma forma de controle de acesso comum. Porém, assim como outros métodos de controle de acesso, eles só realizam a verificação da identidade do usuário apenas uma vez. Nenhuma verificação adicional é realizada posteriormente e com isso, não há garantia que o usuário permitido é o mesmo a utilizar um sistema ou recurso durante toda a sua utilização. Para resolver esse problema, a autenticação contínua realiza a verificação constantemente, garantindo assim que o usuário autorizado seja o mesmo durante toda a utilização do sistema. Inúmeros esforços foram feitos para melhorar o desempenho da verificação na autenticação contínua, como o uso de biometrias cada vez mais seguras, mas não há muitos trabalhos que visam melhorar o método de autenticação contínua em si. Devido as similaridades entre os objetivos das técnicas de detecção de anomalias e da autenticação contínua, este trabalho se propõe a utilizar uma técnica de detecção de anomalias na autenticação contínua para torná-la segura independentemente do tipo de biometria utilizada. Após os experimentos com 4 características biométricas diferentes, o trabalho proposto se mostrou equivalente ao estado-da-arte em autenticação contínua com a vantagem de não precisar de treinamento.
-
Mostrar Abstract
-
Authentication methods such as passwords and access cards have become commonplace in society's day-to-day life. Because an increasing concern with security, biometrics has become a common form of access control. However, like other access control methods, they only verify the user's identity only once. No further verification is carried out at a later date and therefore there is no guarantee that the permitted user is the same as use a system or resource throughout its use. To solve this problem, continuous authentication performs the checking constantly, thus ensuring that the authorized user is the same during the entire use of the system. Numerous efforts have been made to improve the performance of verification in continuous authentication, such as the use of biometrics increasingly secure, but there are not many jobs that aim to improve the continuous authentication method itself. Because of similarities between the objectives of anomaly detection techniques and continuous authentication, this work proposes to use an anomaly detection technique in continuous authentication to make it secure regardless of the type of biometrics used. After the experiments with 4 different biometric characteristics, the proposed work proved to be equivalent state-of-the-art in continuous authentication with the advantage of not requiring training.
|
|
2
|
-
RICARDO BARROS DUARTE D'OLIVEIRA
-
Uma abordagem procedural para geração de terrenos planetários em multi-escala baseada em ruído fractal Browniano e tesselação
-
Orientador : ANTONIO LOPES APOLINARIO JUNIOR
-
MEMBROS DA BANCA :
-
ANTONIO LOPES APOLINARIO JUNIOR
-
RODRIGO LUIS DE SOUZA DA SILVA
-
VINICIUS MOREIRA MELLO
-
Data: 29/01/2020
-
-
Mostrar Resumo
-
A geração de terrenos planetários, no contexto de jogos eletronicos, apresenta diversos desafios. Dentre eles o principal é o gerenciamento dos dados em multi-escala. Um jogador pode estar orbitando o planeta em um instante e depois descer para batalhar na sua superfĩcie. Para lidar com este desafio, apresentamos um método de geração procedural de planetas com suporte a múltiplas escalas, fazendo uso de funções de ruído fractal Browniano com derivadas parciais analíticas. Através de várias iterações deste ruído fractal conseguimos simular diversos tipos de terreno. O modelo de terreno em multiescala é gerenciado por uma quadtree indexada com tabelas hash. Essa mesma estrutura da suporte ao processo de view-frustum culling, que otimiza o processo de renderização. Além disso, nossa abordagem é capaz de grenciar níveis de detalhe baseado no ponto de vista do observador e a introdução de detalhes em alta resolução através do uso do processo de tesselação na GPU. Os resultados mostram que nosso método é capaz de gerar corpos planetários realísticos, com coerência temporal e diversidade de composições geológicas em tempo real, e, portanto, sendo aplicavél ao domínio de jogos eletrônicos.
-
Mostrar Abstract
-
The generation of planetary terrains, in the context of electronic games, presents several challenges. Among them, the main one is the management of multi-scale data. A player may be orbiting the planet in an instant and then descend to battle on its surface. To deal with this challenge, we present a method of procedural generation of planets with support for multiple scales, making use of Brownian fractal noise functions with analytical partial derivatives. Through several iterations of this fractal noise we can simulate different types of terrain. The multiscale terrain model is managed by an indexed quadtree with hash tables. This same structure supports the view-frustum culling process, which optimizes the rendering process. In addition, our approach is able to manage levels of detail based on the observer's point of view and the introduction of high resolution details through the use of the GPU tessellation process. The results show that our method is capable of generating realistic planetary bodies, with temporal coherence and diversity of geological compositions in real time, and, therefore, being applicable to the domain of electronic games.
|
|
3
|
-
FABRICIO DE FREITAS CARDIM
-
Utilizando aprendizado de máquina e métricas de código fonte para identificação de dívida técnica
-
Orientador : CLAUDIO NOGUEIRA SANT ANNA
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
RODRIGO OLIVEIRA SPINOLA
-
TATIANE NOGUEIRA RIOS
-
Data: 04/02/2020
-
-
Mostrar Resumo
-
"Utilizar dívida técnica como instrumento para avaliar a manutenibilidade do software ainda é um desafio. Isso porque as ferramentas existentes para detecção de dívida técnica geram muitos falsos positivos por não levarem em consideração informações relacionadas ao contexto, ao domínio, ao tamanho e ao design do sistema analisado. Além disso, a maioria das ferramentas de detecção de dívidas detectam apenas code smells previamente catalogados na literatura. Embora a crença de que code smells afetam negativamente a manutenibilidade seja amplamente aceita, existem resultados experimentais que contradizem essa teoria. Indo mais além, desenvolvedores podem ter opiniões divergentes sobre o impacto de code smells na manutenção do software. Por outro lado, construir uma solução universal levando em consideração as características específicas de cada projeto pode ser humanamente inviável. Diante desse contexto, nós avaliamos a eficácia da utilização de algoritmos de aprendizado de máquina em conjunto com métricas de código para detectar dívidas técnicas que possam afetar negativamente a manutenibilidade do software, levando em consideração a opinião dos desenvolvedores. Para atingir este objetivo, nós realizamos três estudos experimentais, no contexto da indústria, com a participação de desenvolvedores. Os resultados mostraram que algoritmos de aprendizado de máquina, utilizados em conjunto com métricas de código, podem ser uma opção viável para avaliar a manutenibilidade do código. Como contribuição lateral, nós implementamos uma ferramenta para detecção automática de dívida técnica de código para a linguagem VB.NET, denominada CodeAnalyzerVB, e aplicamos essa ferramenta na Agência
de Fomento do Estado da Bahia (DESENBAHIA)."
-
Mostrar Abstract
-
"Using technical debt as an instrument to assess the maintainability of the software is still a challenge. This is because the existing tools for detecting technical debt generate many false positives because they do not take into account information related to the context, domain, size and design of the software. In addition, most debt detection tools only detect code smells previously cataloged in the literature. Although the belief that code smells negatively affect maintainability is widely accepted, there are experimental results that contradict this theory. developers may have differing opinions on the impact of code smells on software maintenance, on the other hand, building a universal solution taking into account the specific characteristics of each project may be humanly unviable. In this context, we evaluate the effectiveness of using algorithms machine learning in co together with code metrics to detect technical debts that may negatively affect the maintainability of the software, taking into account the opinion of the developers. To achieve this goal, we have carried out three experimental studies, in the context of the industry, with the participation of developers. The results showed that machine learning algorithms, used in conjunction with code metrics, can be a viable option to assess code maintainability. As a side contribution, we implemented a tool for automatic detection of technical code debt for the VB.NET language, called CodeAnalyzerVB, and applied this tool at the Agency
Promotion of the State of Bahia (DESENBAHIA). "
Utilizar dívida técnica como instrumento para avaliar a manutenibilidade do software ainda é um desafio. Isso porque as ferramentas existentes para detecção de dívida técnica geram muitos falsos positivos por não levarem em consideração informações relacionadas ao contexto, ao domínio, ao tamanho e ao design do sistema analisado. Além disso, a maioria das ferramentas de detecção de dívidas detectam apenas code smells previamente catalogados na literatura. Embora a crença de que code smells afetam negativamente a manutenibilidade seja amplamente aceita, existem resultados experimentais que contradizem essa teoria. Indo mais além, desenvolvedores podem ter opiniões divergentes sobre o impacto de code smells na manutenção do software. Por outro lado, construir uma solução universal levando em consideração as características específicas de cada projeto pode ser humanamente inviável. Diante desse contexto, nós avaliamos a eficácia da utilização de algoritmos de aprendizado de máquina em conjunto com métricas de código para detectar dívidas técnicas que possam afetar negativamente a manutenibilidade do software, levando em consideração a opinião dos desenvolvedores. Para atingir este objetivo, nós realizamos três estudos experimentais, no contexto da indústria, com a participação de desenvolvedores. Os resultados mostraram que algoritmos de aprendizado de máquina, utilizados em conjunto com métricas de código, podem ser uma opção viável para avaliar a manutenibilidade do código. Como contribuição lateral, nós implementamos uma ferramenta para detecção automática de dívida técnica de código para a linguagem VB.NET, denominada CodeAnalyzerVB, e aplicamos essa ferramenta na Agência de Fomento do Estado da Bahia (DESENBAHIA). |
|
|
4
|
-
ALINE MEIRA ROCHA
-
Anotações Semânticas em Repositórios Acadêmicos: um estudo de caso com o RI da UFBA
-
Orientador : LAIS DO NASCIMENTO SALVADOR
-
MEMBROS DA BANCA :
-
DANIELA BARREIRO CLARO
-
FLAVIA GOULART MOTA GARCIA ROSA
-
LAIS DO NASCIMENTO SALVADOR
-
Data: 03/03/2020
-
-
Mostrar Resumo
-
Repositórios Institucionais (RI) são repositórios acadêmicos que possibilitam o armazenamento e a divulgação das produções científicas de universidades e centros de pesquisa. Estes repositórios permitem o auto-arquivamento, onde o próprio pesquisador pode efetuar o depósito de sua publicação. As informações sobre cada item depositado são armazenadas em seus metadados, mas como usualmente isso é feito de maneira manual pelo próprio pesquisador nem sempre os termos escolhidos ajudam nessa descrição, o que leva à intervenção dos bibliotecários no processo. A sugestão de keywords durante a validação dos metadados certamente ajudaria os bibliotecários pois identificaria termos representativos de cada publicação e enriqueceria semanticamente esses metadados, favorecendo a recuperação dos itens em um RI. Já métodos de aprendizagem de máquina de classificação textual binária podem sugerir que uma publicação também seja associada a outra coleção caso seja identificado que se trata de trabalho multidisciplinar. Também é possível auxiliar na classificação de publicações ainda não depositadas no RI e que não estejam organizadas por coleção mas por outro critério, como por exemplo data de entrega ao colegiado ou data da defesa. Dessa forma baseado nos termos representativos de cada comunidade e sub-comunidade, é possível treinar um classificador multi-hierárquico para identificar a qual comunidade e sub-comunidade cada trabalho deve pertencer. Por outro lado, a anotação semântica de metadados referentes a coleções e keywords permite o enriquecimento das descrições de itens do RI, além de facilitar o processo de recuperação. Nesse contexto o objetivo deste trabalho é anotar semanticamente os itens de um repositório acadêmico no Dspace de maneira semi-automática utilizando o padrão RDF do Dublin Core a partir dos resultados obtidos na classificação textual e validação das sugestões de keywords. Adicionalmente foi realizado um estudo de caso no RI da UFBA, onde as keywords extraídas passaram pela validação de especialistas de domínio, no caso as bibliotecárias do SIBI (Sistema de Bibliotecas da UFBA). Com isso, foi realizada a anotação semântica dos resultados obtidos no experimento da classificação textual e no estudo de caso. As principais contribuições desse projeto dizem respeito ao estudo exploratório de métodos de validação e classificação de depósitos das publicações, além do método de descrição e enriquecimento semânticos dos itens de um RI.
-
Mostrar Abstract
-
Institutional Repositories (IR) are academic repositories that enable the storage and dissemination of scientific productions from universities and research centers. These repositories allow self-archiving, where the researcher himself can deposit his publication. The information about each deposited item is stored in its metadata, but as the researcher himself usually does this manually, the terms chosen do not always help in this description, which leads to the intervention of librarians in the process. Suggesting keywords during metadata validation would certainly help librarians as it would identify representative terms of each publication and semantically enrich these metadata, favoring the retrieval of items in an IR. Binary textual classification machine learning methods may suggest that a publication is also associated with another collection if it is identified that it is multidisciplinary work. You can also help classify publications not yet filed with IR that are not organized by collection but by other criteria, such as collegiate date or date of defense. Based on the representative terms of each community and sub-community, it is possible to train a multi-hierarchical classifier to identify which community and sub-community each job should belong to. On the other hand, semantic annotation of metadata referring to collections and keywords enables the enrichment of RI item descriptions and facilitates the retrieval process. In this context, the objective of this paper is to semantically annotate the items of an academic repository in Dspace semi-automatically using the Dublin Core RDF standard from the results obtained in the textual classification and validation of keyword suggestions. Additionally, a case study was conducted at the UFBA IR, where domain specialists validated the extracted keywords, in this case, the SIBI (UFBA Library System) librarians. Thus, the semantic annotation of the results obtained in the textual classification experiment and the case study were performed. The main contributions of this project relate to the exploratory study of publication deposit validation and classification methods, as well as the semantic description and enrichment method of an IR item.
|
|
5
|
-
TÁSSIO GUERREIRO ANTUNES VIRGÍNIO
-
Avaliação empírica da geração automatizada de testes de software sob a perspectiva de Test Smells
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
HEITOR AUGUSTUS XAVIER COSTA
-
IVAN DO CARMO MACHADO
-
Data: 13/03/2020
-
-
Mostrar Resumo
-
A constante busca pela qualidade sempre está em destaque na área de Engenharia de Software. Dentre as diversas disciplinas dedicadas a essa temática, o teste de software tem se estabelecido como uma das mais importantes, dado sua eficácia na identificação de defeitos, em momento prévio à liberação de sistemas de software para o mercado. O teste de software é atividade-chave para o desenvolvimento de software de qualidade. Entretanto, desenvolver testes é tão ou mais custoso do que desenvolver o código de produção. Uma alternativa para a redução dos custos associados ao teste de software se dá pelo uso intensivo de ferramentas de automação de testes. A proposta dessas ferramentas é reduzir o tempo de produção sem afetar a qualidade do código. Apesar dessa premissa, não é comum encontrar abordagens que incluam uma camada de verificação de qualidade dos testes gerados automaticamente, o que pode reduzir a confiabilidade da eficácia desses testes. Neste cenário, a proposta dessa dissertação é analisar empiricamente massas de dados de teste, sob a perspectiva de test smells, no sentido de avaliar a qualidade dos testes produzidos por ferramentas de geração automatizada de testes de software. Test smells são más escolhas no design dos testes e tem características sintomáticas e podem acarretar diminuição na qualidade dos sistemas. Considerando os test smells em código de teste, o estudo analisa os testes gerados por duas ferramentas amplamente aceitas pela comunidade de testes: Evosuite e Randoop. Um conjunto de vinte e um projetos de software de código aberto, disponíveis na plataforma Github foram considerados no estudo. A análise considerou a dispersão de test smells no código de teste desses projetos, bem como a existência de potenciais correlações entre test smells e as relações com as métricas estruturais. Como principais resultados, encontramos fortes correlações entre os test smells e as métricas de cobertura do código, diferenças significativas entre os dados encontrados nas suítes de testes geradas automaticamente e com os testes pré-existentes nos projetos avaliados.
-
Mostrar Abstract
-
The constant search for quality is always highlighted in the Software Engineering field. Among the various disciplines dedicated to this theme, software testing has been established as one of the most important, given its effectiveness in identifying defects, prior to the release of software systems to the market. Software testing is a key activity for the development of quality software. However, developing tests is just as or more expensive than developing the production code. An alternative for reducing the costs associated with software testing is the intensive use of test automation tools. The purpose of these tools is to reduce production time without affecting the quality of the code. Despite this premise, it is not common to find approaches that include a quality check layer of the automatically generated tests, which can reduce the reliability of the effectiveness of these tests. In this scenario, the purpose of this dissertation is to empirically analyze masses of test data, from the perspective of test smells, in order to assess the quality of the tests produced by automated software test generation tools. Test smells are poor choices in the design of tests and have symptomatic characteristics and can lead to a decrease in the quality of systems. Considering the test smells in test code, the study analyzes the tests generated by two widely accepted tools by the software testing community: Evosuite and Randoop. A set of twenty-one open source software projects, available on the Github platform, were considered in the study. The analysis considered the dispersion of test smells in the test code of these projects, as well as the existence of potential correlations between test smells and the relationships with structural metrics. As main results, we found strong correlations between the test smells and the code coverage metrics, significant differences between the data found in the test suites generated automatically and with the pre-existing tests in the evaluated projects.
|
|
6
|
-
LEILA KARITA DOS ANJOS DO ESPÍRITO SANTO
-
Caracterização de sustentabilidade na engenharia de software por meio de uma abordagem multi-método
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
IVAN DO CARMO MACHADO
-
RITA SUZANA PITANGUEIRA MACIEL
-
MONALESSA PERINI BARCELLOS
-
Data: 26/03/2020
-
-
Mostrar Resumo
-
O interesse da comunidade de Tecnologia da Informação e Comunicação (TIC) sobre sustentabilidade tem crescido consideravelmente nos últimos anos. Embora ainda em estágio inicial, a temática tornou-se de grande relevância uma vez que nos força a pensar sobre o que temos feito para garantir a continuidade do planeta e das gerações futuras. No contexto da Engenharia de Software (ES), quando pensamos no desenvolvimento de software sustentável nos deparamos com lacunas, uma vez que esse assunto ainda é nebuloso para os engenheiros de software e desenvolvedores, bem como para a comunidade de pesquisa em ES. Para que o software seja produzido de forma sustentável, os engenheiros de software precisam entender como os conceitos de sustentabilidade estão incorporados ao desenvolvimento de software, de forma que possam ter uma compreensão clara, comum e compartilhada desse conhecimento. No entanto, o desenvolvimento de um estudo recente sobre o estado-da-arte das abordagens de software que apoiam a ES sustentável mostrou que ainda há uma lacuna sobre o que, de fato, vem a ser o desenvolvimento de software sustentável. A falta de tal entendimento pode impedir a indústria de construir software com consciência sustentável. Dada a questão, esta pesquisa tem como objetivo caracterizar a Engenharia de Software Sustentável destacando as preocupações sustentáveis presentes no ciclo de vida de desenvolvimento do software. Para alcançar este objetivo, esta dissertação adotou uma abordagem multi-método e produziu uma série de estudos qualitativos. A abordagem multi-método é uma estratégia de pesquisa metodológica que combina dois ou mais métodos de pesquisa qualitativos ou dois ou mais métodos quantitativos de coleta e análise de dados. Foram elaborados: (1) um estudo de mapeamento sistemático na intenção de conhecer o domínio de ES sustentável; (2) um survey para obter uma percepção da indústria de software sobre a adoção de práticas sustentáveis; e (3) uma grounded theory, com o objetivo de gerar uma teoria para prover aos leitores um entendimento sobre o desenvolvimento de software sustentável. A teoria foi organizada em torno das dimensões da sustentabilidade. Esta dissertação concluiu que o desenvolvimento de software sustentável pode ser explicado através das seguintes proposições: (a) preocupações técnicas, ambientais e sociais estão presentes em todas as fases do desenvolvimento de software sustentável. Isso significa que os pesquisadores e os engenheiros de software estão preocupados em considerar a longevidade do software produzido, bem como os recursos ambientais, além do bemestar social; (b) a identificação de requisitos sustentáveis deve ocorrer na fase inicial do projeto (c) com o apoio de especialistas engajados com a sustentabilidade, os quais devem fazer parte do grupo de stakeholders; e (d) o uso de preocupações sustentáveis pode gerar trade-offs no projeto. Assim sendo, os resultados contribuem com uma maior compreensão à respeito do desenvolvimento de software sustentável, a partir das perspectivas da literatura e praticantes de software; e, consequentemente, com a evolução do estado da arte em ES Sustentável.
-
Mostrar Abstract
-
The interest of the Information and Communication Technology community on sustainability has grown considerably in recent years. Although still at an early stage, the theme has become of great relevance since it forces us to think about what we have done to ensure the planet and future generations' continuity. In the Software Engineering context, when we think about sustainable software development, we face gaps, since this subject is still nebulous for software engineers and developers, as well as for the research community in Software Engineering. For software to be produced in a sustainable way, software engineers need to understand how sustainability concepts are incorporated into software development, so that they can have a clear, common and shared understanding of that knowledge. However, the development of a recent study on the state-of-the-art about software approaches that support sustainable Software Engineering showed that there is still a gap about what is sustainable software development, in fact. The lack of such an understanding can prevent the industry from building software with sustainable awareness. Given the question, this research aims to characterize sustainable software engineering by highlighting the sustainable concerns present in the software development life-cycle. To achieve this goal, this dissertation adopted a multi-method approach and produced a series of qualitative studies. The multi-method approach is a methodological research strategy that combines two or more qualitative research methods or two or more quantitative data collection and analysis methods. We elaborated: (1) a systematic mapping study with the intention of knowing the Sustainable Software Engineering domain; (2) a survey to obtain the software industry perception on the adoption of sustainable practices; and (3) a grounded theory, with the aim of generating a theory to provide an understanding of sustainable software development to readers. The theory was organized around the sustainability dimensions. This dissertation concluded that sustainable software development is explained through the following propositions: (a) technical, environmental and social concerns are present in all phases of sustainable software development. This means that researchers and software engineers are concerned with considering the longevity of the software produced, as well as environmental resources, in addition to social welfare; (b) the sustainable requirements identification must occur in the project initial phase (c) with the support of experts engaged in sustainability, who must be part of the group of stakeholders; and (d) the use of sustainable concerns can generate trade-offs in the project. Therefore, the results contribute to a greater understanding of sustainable software development, from the literature and software practitioners' perspectives; and, consequently, with the evolution of the state-of-the-art in Sustainable Software Engineering.
|
|
7
|
-
PÉTALA GARDÊNIA DA SILVA ESTRELA TUY
-
Sobre o uso de agrupamento fuzzy para construção de sistemas baseado em regras fuzzy para lidar com Big Data.
-
Orientador : TATIANE NOGUEIRA RIOS
-
MEMBROS DA BANCA :
-
TATIANE NOGUEIRA RIOS
-
MARCOS ENNES BARRETO
-
MATHEUS GIOVANNI PIRES
-
Data: 15/04/2020
-
-
Mostrar Resumo
-
Big Data é um tópico de tendência que vem ganhando atenção em ambientes empresariais e acadêmicos. O termo se refere à enorme quantidade de dados gerados todos os dias em uma variedade de fontes e formatos. Uma parte expressiva do Big Data está no formato do texto que pode ser usado para resolver vários problemas da vida real, como detecção de spam, identificação de autoria, classificação de páginas da web e análise de sentimento. Os conjuntos de dados de texto são especialmente complicados, pois sua alta dimensionalidade pode se estender da alta dimensionalidade vertical (alto número de instâncias) à alta dimensionalidade horizontal (alto número de atributos). Para extrair valor de tais conjuntos de dados dimensionais elevados, as técnicas de análise de dados devem ser capazes de lidar com seus novos desafios: volume, velocidade, variedade e variabilidade. Os Sistemas de Classificação Baseados em Regras Fuzzy (FRBCS) demonstraram lidar efetivamente com a incerteza, a imprecisão e o ruído inerentes aos dados. No entanto, o desempenho dos FRBCSs é altamente afetado pelo número crescente de instâncias e atributos presentes no Big Data. Abordagens propostas anteriormente tentam adaptar FRBCSs para Big Data distribuindo o processamento de dados com o paradigma MapReduce, pelo qual os dados são processados em duas etapas: Mapear e Reduzir. No estágio de Mapa, os dados são divididos em vários blocos e distribuídos entre os nós de processamento que processam cada bloco de dados independentemente. No estágio Reduce, os resultados provenientes de cada nó no estágio Map são agregados e um resultado final é retornado. Esta metodologia aborda a alta dimensionalidade vertical, mas não aborda conjuntos de dados com alta dimensionalidade vertical e horizontal simultânea, como é o caso dos conjuntos de dados de texto. A redução horizontal de alta dimensionalidade pode ser feita usando técnicas de seleção de recursos comuns, como MI e Qui-quadrado. No entanto, usar essas técnicas de seleção de recursos pode não ser a melhor alternativa, uma vez que a precisão do modelo pode ser afetada pela perda de informações ao manter apenas um subconjunto de atributos. Neste trabalho, lidamos com as desvantagens mencionadas, propondo o Summarizer, uma abordagem para a construção de espaços de recursos reduzidos para dados de dimensões horizontais altas. Para tanto, realizamos um estudo empírico que compara um conhecido classificador proposto para conjuntos de dados verticais de alta dimensionalidade com e sem o processo de redução de dimensionalidade horizontal proposto por Summarizer. Nossos resultados mostram que os classificadores existentes que lidam com problemas verticais de Big Data podem ser melhorados adicionando a abordagem Summarizer ao processo de aprendizagem, o que sugere que um algoritmo de aprendizagem unificado para conjuntos de dados com um grande número de instâncias, bem como um grande número de atributos pode ser possível.
-
Mostrar Abstract
-
Big Data is a trending topic that has gained attention in the business and academic environments. The term refers to the huge amount of data being generated every day in a variety of sources and formats. An expressive part of Big Data is in the format of text that can be used to solve various real life problems, such as spam detection, author identification, web pages classification and sentiment analysis. Text datasets are specially complicated since its high dimensionality can extend from vertical high dimensionality (high number of instances) to horizontal high dimensionality (high number of attributes). In order to extract useful knowledge from such high dimensional datasets, data analysis techniques must be able to cope with its new challenges: volume, velocity, variety and variability. Fuzzy Rule-Based Classification Systems (FRBCS) have shown to effectively deal with the uncertainty, vagueness, and noise inherent to data. However, the performance of FRBCSs is highly affected by the increasing number of instances and attributes present in Big Data. Previously proposed approaches try to adapt FRBCSs to Big Data by distributing data processing with the MapReduce paradigm, by which the data is processed in two stages: Map and Reduce. In the Map stage, the data is divided into multiple blocks and distributed among processing nodes that process each block of data independently. In the Reduce stage, the results coming from every node in the Map stage are aggregated and a final result is returned. This methodology tackles vertical high dimensionality, but it does not approach datasets with simultaneous vertical and horizontal high dimensionality, as it is the case of text datasets. Horizontal high dimensionality reduction could be done by using common feature selection techniques, such as MI and Chi-squared. However, using such feature selection techniques may not be the best alternative since model accuracy might be affected by the loss of information when keeping only a subset of attributes. In this work, we deal with the aforementioned drawbacks by proposing Summarizer, an approach for building reduced feature spaces for horizontally high dimensional data. To this end, we carry out an empirical study that compares a well-known classifier proposed for vertical high dimensionality datasets with and without the horizontal dimensionality reduction process proposed by Summarizer. Our findings show that existing classifiers that tackles vertical Big Data problems can be improved by adding the Summarizer approach to the learning process, which suggests that an unified learning algorithm for datasets with a high number of instances as well as a high number of attributes might be possible.
|
|
8
|
-
FERNANDA SILVA EUSTÁQUIO
-
Sobre índices de validação de agrupamento fuzzy para agrupamento soft subspace de bases de dados de alta dimensionalidade.
-
Orientador : TATIANE NOGUEIRA RIOS
-
MEMBROS DA BANCA :
-
TATIANE NOGUEIRA RIOS
-
HELOISA DE ARRUDA CAMARGO
-
RICARDO MARCONDES MARCACINI
-
Data: 16/04/2020
-
-
Mostrar Resumo
-
A maioria dos algoritmos de clustering convencionais conhecidos e amplamente utilizados, como k-Means e Fuzzy c-Means (FCM), foram projetados assumindo que, na maioria dos casos, o número de objetos em um conjunto de dados será maior que o número de dimensões (recursos). No entanto, essa suposição falha quando um conjunto de dados consiste em documentos de texto ou microarranjos de DNA, nos quais o número de dimensões é muito maior que o número de objetos. A maioria dos estudos revelou que o FCM e os índices de validade de cluster difuso (CVIs) apresentam desempenho fraco quando usados com dados de alta dimensão, mesmo quando é usada uma medida de similaridade ou dissimilaridade adequada para esse tipo de dados. Os problemas enfrentados pela alta dimensionalidade são conhecidos como \ textit {maldição da dimensionalidade} e algumas abordagens como transformação de recursos, seleção de recursos, ponderação de recursos e agrupamento de subespaços foram definidas para lidar com milhares de dimensões. Para estar convencido de que o número de dimensões deve ser mantido para aprender o máximo possível de um objeto e saber que apenas um subconjunto de recursos pode não ser suficiente para todos os clusters, a técnica de agrupamento por subespaço flexível foi usada no trabalho proposto. Além do FCM, três algoritmos de subespaço suave, Clustering Simultâneo e Discriminação de Atributos (SCAD), c-Meios Fuzzy Ponderados com Regularidade Máxima com Entropia (EWFCM) e Clustering Subespacial Melhorado (ESSC) foram realizados para agrupar três tipos de dados de alta dimensão ( Mistura gaussiana, texto, microarray) e foram avaliados empregando CVIs nebulosas em vez de usar medidas externas como Clustering Accuracy, Rand Index, Normalized Mutual Information, que usam informações de rótulos de classe, como geralmente é feito na maioria dos estudos. A partir dos resultados experimentais, em uma avaliação geral, todos os algoritmos de agrupamento tiveram desempenhos semelhantes, destacando que o ESSC apresentou o melhor resultado e o FCM foi melhor que os demais algoritmos do subespaço suave. Além do uso da técnica de subespaço suave, na busca pela causa do baixo desempenho das técnicas convencionais para dados de alta dimensão, investigou-se qual medida de distância ou valor do expoente difuso de ponderação ($ m $) produzia o melhor agrupamento resultado. Além disso, o desempenho de dezenove CVIs nebulosas foi avaliado verificando se algumas tendências e problemas relacionados a pesquisas anteriores são mantidos ao validar os resultados do agrupamento suave do subespaço. A partir da análise feita neste trabalho, ficou claro que o tipo de dados era determinante para o desempenho dos algoritmos de cluster e CVIs difusos.
-
Mostrar Abstract
-
Most of the well-known and widely used conventional clustering algorithms, as k-Means and Fuzzy c-Means (FCM), were designed by assuming that, in most cases, the number of objects in a dataset will be greater than its number of dimensions (features). However, this assumption fails when a dataset consists of text documents or DNA microarrays, in which the number of dimensions is much bigger than the number of objects. Most studies have revealed that FCM and the fuzzy cluster validity indices (CVIs) perform poorly when they are used with high-dimensional data even when a similarity or dissimilarity measure suitable to this type of data is used. The problems faced by high dimensionality are known as the \textit{curse of dimensionality} and some approaches such as feature transformation, feature selection, feature weighting, and subspace clustering were defined to deal with thousands of dimensions. To be convinced that the number of dimensions should be maintained to learn as much as possible from an object and to know that just one subset of features might not be enough to all clusters, the soft subspace clustering technique was used in the proposed work. Besides FCM, three soft subspace algorithms, Simultaneous Clustering and Attribute Discrimination (SCAD), Maximum-entropy-regularized Weighted Fuzzy c-Means (EWFCM) and Enhanced Soft Subspace Clustering (ESSC) were performed to cluster three types of high-dimensional data (Gaussian mixture, text, microarray) and they were evaluated employing fuzzy CVIs instead of using external measures like Clustering Accuracy, Rand Index, Normalized Mutual Information, that use information from class labels, as usually done in most research studies. From the experimental results, in a general evaluation, all the clustering algorithms had similar performances highlighting that ESSC presented the best result and FCM was better than the remaining soft subspace algorithms. Besides the use of the soft subspace technique, in the search for the cause of the poor performance of the conventional techniques for high-dimensional data, it was investigated which distance measure or value of weighting fuzzy exponent ($m$) produced the best clustering result. Furthermore, the performance of nineteen fuzzy CVIs was evaluated by verifying if some tendencies and problems related to previous research studies are maintained when validating soft subspace clustering results. From the analysis made in this work, it was clear that the type of data was determinant to the performance of the clustering algorithms and fuzzy CVIs.
|
|
9
|
-
AILTON SANTOS RIBEIRO
-
VISHNU: Uma abordagem de apoio à customização de avatares em aplicações móveis
-
Orientador : VANINHA VIEIRA DOS SANTOS
-
MEMBROS DA BANCA :
-
CRISTIANO MACIEL
-
LYNN ROSALINA GAMA ALVES
-
VANINHA VIEIRA DOS SANTOS
-
Data: 27/05/2020
-
-
Mostrar Resumo
-
Avatar é um personagem que representa uma pessoa em particular em um ambiente virtual. Ao permitir a interação em aplicações, o avatar tornou-se bastante popular em games e está também se tornando uma realidade em outros domínios como forma de favorecer a autoexpressão. Construído a partir de informações contextuais do usuário, o uso de avatar fornece imersão e senso de presença em aplicações. Pesquisas indicam que o comportamento das pessoas pode ser influenciado pelas características do seu avatar. A depender do contexto, o avatar pode customizar-se utilizando informações contextuais do usuário (e.g. preferências, fatores antropomórficos; Fatores dinâmicos - local, condições climáticas; aspectos relativos a interação - expressões faciais, gestos, expressões corporais e outros). Uma lacuna encontrada na literatura sugere a necessidade de auxiliar os desenvolvedores a criarem seus avatares ao contexto do usuário. Para permitir a criação de avatares autoexpressivos são necessários mecanismos que capturem, processem e expressem as informações presentes no contexto do usuário junto à aplicação. Muitas aplicações móveis que utilizam avatares como forma de interação com o usuário ainda desconsideram fatores contextuais. Os desenvolvedores dessas aplicações se beneficiariam de uma abordagem para guiar essas customizações. O objetivo dessa pesquisa é avaliar se a sensibilidade ao contexto pode favorecer a autoexpressão em aplicações móveis baseadas em avatares. Para isso, apresentamos a abordagem VISHnu, um modelo de customização de avatares para auxiliar os desenvolvedores de aplicações móveis. Para avaliar a abordagem proposta foi realizado um grupo focal com sete especialistas e um estudo de casos com duas aplicações móveis baseadas em avatares. Os resultados indicaram sua utilidade e aplicabilidade ao processo de criação de avatares, permitindo uma discussão ampliada sobre a influencia dos fatores humanos, culturais e contextuais na customização de avatares. Esse pensamento favorece a criação e customização dos avatares e a percepção que a interação humana com esse avatar passa por aspectos, que a depender do contexto, converge para uma simbiose entre o seres virtuais e reais.
-
Mostrar Abstract
-
Avatar is a character that represents a particular person in a virtual environment. By allowing interaction in applications, the avatar has become quite popular in games and is also becoming a reality in other domains as a way to favor self-expression. Built from contextual user information, the use of an avatar provides immersion and a sense of presence in applications. Research indicates that people's behavior can be influenced by the characteristics of their avatar. Depending on the context, the avatar can be customized using contextual information from the user (e.g. preferences, anthropomorphic factors; Dynamic factors - location, climatic conditions; aspects related to interaction - facial expressions, gestures, body expressions and others). A gap found in the literature suggests the need to assist developers in creating their avatars in the context of the user. To allow the creation of self-expressive avatars, mechanisms are needed to capture, process and express the information present in the user's context with the application. Many mobile applications that use avatars as a way of interacting with the user still disregard contextual factors. Developers of these applications would benefit from an approach to guide these customizations. The aim of this research is to assess whether context sensitivity can favor self-expression in mobile applications based on avatars. For that, we present the VISHnu approach, a model of customization of avatars to assist the developers of mobile applications. To evaluate the proposed approach, a focus group with seven experts and a case study with two mobile applications based on avatars were carried out. The results indicated its usefulness and applicability to the avatars creation process, allowing an extended discussion about the influence of human, cultural and contextual factors in the customization of avatars. This thought favors the creation and customization of avatars and the perception that human interaction with this avatar goes through aspects, which, depending on the context, converges to a symbiosis between virtual and real beings.
|
|
10
|
-
RAILANA SANTANA LAGO
-
RAIDE: uma abordagem semi-automatizada para Identificação e Refatoração de Test Smells
-
Orientador : IVAN DO CARMO MACHADO
-
MEMBROS DA BANCA :
-
IVAN DO CARMO MACHADO
-
PIERRE YVES FRANCOIS MARIE JOSEPH SCHOBBENS
-
VANIA DE OLIVEIRA NEVES
-
Data: 03/07/2020
-
-
Mostrar Resumo
-
Teste de unidade é um tipo específico de teste que lida com as menores unidades do sistema. Ele representa o primeiro teste após a implementação de um componente. Quando a implementação dos testes de unidade não segue boas práticas, é provável que anti-padrões sejam introduzidos no código. Anti-padrões nos testes, também conhecidos como test smells, são más decisões para projetar e implementar código de teste. Os test smells prejudicam a qualidade do código de teste e reduzem a capacidade de os desenvolvedores interagirem com o código de teste, o que dificulta a compreensão, leitura e, consequentemente, a manutenibilidade e evolução do sistema. Uma estratégia para remover test smells é a refatoração do código de teste. Poucos estudos na literatura oferecem suporte automatizado para a detecção e refatoração de test smells. Assim, o presente estudo fornece uma abordagem semi-automática para identificar test smells e sugerir refatorações para o código de teste. Nossa abordagem é apoiada pela ferramenta RAIDE (RefActorIng test Design Errors). Desenvolvemos a RAIDE integrada com à uma IDE de desenvolvimento para ajudar os engenheiros de teste a refatorar código de teste. RAIDE oferece suporte a dois test smells, Assertion Roulette e Duplicate Assert. Apesar de existir outras ferramentas capazes de identificar test smells, até onde sabemos, ainda não há evidências de ferramentas que fornecem suporte automatizado a refatoração de test smells. Além disso, nenhuma ferramenta fornecem uma interface amigável e integrada a uma IDE para a identificação de test smells. Para avaliar como nossa abordagem pode ajudar a melhorar a qualidade do código de teste, também realizamos um estudo experimental. Comparamos nossa ferramenta com o estado da arte e verificamos que os participantes que usaram RAIDE conseguiram identificar os test smells de forma mais fácil e rápida. Além disso, RAIDE também se mostrou eficiente na refatoração de métodos de teste. Como RAIDE é uma ferramenta integrada à IDE Eclipse, os processos de identificação e refatoração são mais rápidos e intuitivos em comparação com o estado da arte e a refatoração manual.
-
Mostrar Abstract
-
Unit testing is a specific type of test that deals with the smallest units in the system. It represents the first test after the implementation of a component. When the implementation of unit tests does not follow good practices, anti-standards are likely to be introduced in the code. Anti-patterns in tests, also known as test smells, are poor decisions for designing and implementing test code. Test smells impair the quality of the test code and reduce the ability of developers to interact with the test code, which makes it difficult to understand, read and, consequently, maintainability and evolution of the system. One strategy for removing test smells is to refactor the test code. Few studies in the literature offer automated support for the detection and refactoring of test smells. Thus, the present study provides a semi-automatic approach to identify test smells and suggest refactorings for the test code. Our approach is supported by the RAIDE tool (RefActorIng test Design Errors). We developed the RAIDE integrated with a development IDE to help test engineers refactor test code. RAIDE supports two test smells, Assertion Roulette and Duplicate Assert. Although there are other tools capable of identifying test smells, as far as we know, there is still no evidence of tools that provide automated support for refactoring test smells. In addition, no tool provides a user-friendly interface integrated with an IDE for the identification of test smells. To assess how our approach can help improve the quality of the test code, we also conducted an experimental study. We compared our tool with the state of the art and found that participants who used RAIDE were able to identify test smells more easily and quickly. In addition, RAIDE also proved to be efficient in refactoring test methods. Since RAIDE is a tool integrated with the Eclipse IDE, the identification and refactoring processes are faster and more intuitive compared to the state of the art and manual refactoring.
|
|
11
|
-
PATRICK HERBETH GUIMARÃES AZEVEDO
-
Um Sistema de Recomendação Baseado em Análise de Relações Semânticas entre Tags
-
Orientador : FREDERICO ARAUJO DURAO
-
MEMBROS DA BANCA :
-
FREDERICO ARAUJO DURAO
-
DANILO BARBOSA COIMBRA
-
ANA LIZ SOUTO OLIVEIRA DE ARAÚJO
-
Data: 23/07/2020
-
-
Mostrar Resumo
-
Sistemas de Recomendação têm como principal característica sugerir itens de acordo com preferências de um determinado usuário. Na Web, Sistemas de Recomendação auxiliam usuários na descoberta de conteúdos de interesse e estão presentes em diversos sistemas da Web Social como o Youtube.com, Netflix.com, Amazon.com etc. No escopo deste trabalho, o foco serão tags, palavras-chave associadas a recursos na Web. Em geral, tags são associadas por usuários para descrever recursos, por exemplo: filmes, livros, músicas tornando-se verdadeiras fontes explícitas de preferência, porém sem restrição quanto à sintaxe das palavras. Os Sistemas de Recomendação baseados em similaridade entre tags tem o desafio de superar tais problemas e objetivam avaliar a similaridade entre tags a fim de indicar itens relevantes para os usuários. No entanto, semanticamente analisar tags é uma tarefa que possui diversos desafios, como a polissemia e a existência de sinônimos. Neste trabalho, é proposto a avaliação de links semânticos entre as tags associadas a páginas na Web, com intuito de aumentar a precisão das recomendações. Logo, objetivo deste trabalho é propor também um sistema que realize análise semântica entre tags a fim de encontrar similaridades negligenciadas apenas pela análise sintática. Pretende-se avaliar inicialmente o sistema no contexto de filmes dado a disponibilização de um conjunto de tags associadas aos mesmos, utilizando métricas de precisão em diferentes posições de ranqueamento. A ideia da proposta nesse escopo de pesquisa diferencia-se de trabalhos existentes, pois o sistema utiliza um algoritmo que mescla o coeficientes de similaridade de Jaccard com cálculo de similaridade semântica utilizando fontes de dados diversas como WordNet e Linked Open Data de modo transparente ao usuário.
-
Mostrar Abstract
-
Recommendation systems have the main characteristic of suggesting items according to the preferences of a specific user. On the Web, Recommendation Systems assist users in discovering content of interest and are present in several Social Web systems such as Youtube.com, Netflix.com, Amazon.com etc. In the scope of this work, the focus will be on tags, keywords associated with resources on the Web. In general, tags are associated by users to describe resources, for example: films, books, music becoming true explicit sources of preference, but without restriction on the syntax of words. Recommendation Systems based on similarity between tags have the challenge of overcoming such problems and aim to evaluate the similarity between tags in order to indicate relevant items for users. However, semantically analyzing tags is a task that has several challenges, such as polysemy and the existence of synonyms. In this work, it is proposed to evaluate semantic links between tags associated with web pages, in order to increase the accuracy of the recommendations. Therefore, the objective of this work is also to propose a system that performs semantic analysis between tags in order to find similarities neglected only by syntactic analysis. It is intended to initially evaluate the system in the context of films given the availability of a set of tags associated with them, using precision metrics in different ranking positions. The idea of the proposal in this research scope differs from existing works, since the system uses an algorithm that mixes Jaccard's similarity coefficients with semantic similarity calculation using different data sources such as WordNet and Linked Open Data in a transparent way to the user .
|
|
12
|
-
MARCOS VINICIUS DOS SANTOS FERREIRA
-
Modelagem Fuzzy de Componentes Determinísticos para Previsão de Séries Temporais
-
Orientador : RICARDO ARAUJO RIOS
-
MEMBROS DA BANCA :
-
RICARDO ARAUJO RIOS
-
TATIANE NOGUEIRA RIOS
-
HELOISA DE ARRUDA CAMARGO
-
RODRIGO FERNANDES DE MELLO
-
Data: 27/07/2020
-
-
Mostrar Resumo
-
A modelagem de dados no domínio temporal tem sido aplicada em diferentes sistemas como meteorologia, engenharia, medicina e economia. Neste sentido, a área de Séries Temporais Fuzzy tem se destacado devido à sua capacidade de aproximar funções matemáticas e variáveis linguísticas para criação de regras, que são mais fáceis de serem interpretadas por especialistas. Como consequência dessa capacidade, pode-se obter modelos mais precisos para compreender o comportamento de sistemas e, por exemplo, realizar previsões de observações futuras. Desde o surgimento de modelos de séries temporais fuzzy, pesquisadores vêm propondo melhorias visando, por exemplo, reduzir erros na tarefa de previsão. Em geral, tais tarefas são compostas de três etapas: i) fuzzificação; ii) relacionamento lógico fuzzy; e iii) defuzzificação. De acordo com a literatura, um dos pontos mais estudados por pesquisadores é a etapa de fuzzificação, com foco no particionamento do universo do discurso para modelagem dos conjuntos fuzzy. No entanto, poucos trabalhos na literatura consideram a separação de influências dos componentes estocásticos e determinísticos presente com o objetivo de auxiliar no processo de modelagem dos conjuntos fuzzy. Visando superar essa limitação, o presente trabalho apresenta duas abordagens que realizam melhorias na modelagem dos conjuntos fuzzy na etapa de fuzzificação, considerando influências de componentes estocásticos e determinísticos presentes em séries temporais. Na primeira abordagem, realizou-se inicialmente a decomposição da série separando seus componentes em diferentes monocomponentes. Em seguida, monocomponentes com alta frequência foram removidos, resultando em uma nova série suavizada cuja combinação com a série original permite gerar um novo gráfico de dispersão. A segunda abordagem foi desenvolvida para modelar séries com comportamento caótico. Nesse sentido, ao invés de modelar a série como um gráfico de dispersão, utilizou-se ferramentas da área de Sistemas Dinâmicos e Teoria do Caos para reconstruir a série no espaço fase. Embora utilizem métodos distintos, as duas abordagens fazem a remoção da dependência temporal entre as observações para auxiliar no processo de modelagem dos conjuntos fuzzy modelagem, o qual é conduzido considerando o método de agrupamento Fuzzy C-Means e índices de validação de agrupamento, para estimar a quantidade e a função dos conjuntos fuzzy. Nos experimentos, utilizou-se séries temporais com influências de componentes estocásticos e determinísticos para validar e testar a generalização da abordagem. Os resultados atingidos foram promissores e superiores em comparação com o estado da arte.
-
Mostrar Abstract
-
Data modeling in the temporal domain has been applied to different systems such as meteorology, engineering, medicine and economics. In this sense, the Fuzzy Time Series area has stood out due to its ability to approximate mathematical functions and linguistic variables to create rules, which are easier to be interpreted by specialists. As a consequence of this capacity, more accurate models can be obtained to understand the behavior of systems and, for example, to make predictions of future observations. Since the appearance of fuzzy time series models, researchers have been proposing improvements aiming, for example, to reduce errors in the forecasting task. In general, such tasks are composed of three stages: i) fuzzification; ii) fuzzy logical relationship; and iii) defuzzification. According to the literature, one of the points most studied by researchers is the fuzzification stage, with a focus on partitioning the universe of discourse for modeling fuzzy sets. However, few studies in the literature consider the separation of influences from the stochastic and deterministic components present in order to assist in the modeling process of fuzzy sets. In order to overcome this limitation, the present work presents two approaches that make improvements in the modeling of fuzzy sets in the fuzzification stage, considering influences of stochastic and deterministic components present in time series. In the first approach, the series was initially decomposed, separating its components into different monocomponents. Then, single components with high frequency were removed, resulting in a new smoothed series whose combination with the original series allows to generate a new scatter plot. The second approach was developed to model series with chaotic behavior.
In this sense, instead of modeling the series as a scatter plot, tools from the field of Dynamic Systems and Chaos Theory were used to reconstruct the series in phase space. Although using different methods, the two approaches remove the temporal dependence between the observations to assist in the modeling process of the fuzzy modeling sets, which is conducted considering the Fuzzy C-Means clustering method and cluster validation indexes, to estimate the quantity and function of fuzzy sets. In the experiments, time series with influences of stochastic and deterministic components were used to validate and test the generalization of the approach. The results achieved were promising and superior compared to the state of the art.
|
|
13
|
-
ROSANA GUIMARÃES RIBEIRO
-
Novo índice interno de validação de agrupamento de dados temporais
-
Orientador : RICARDO ARAUJO RIOS
-
MEMBROS DA BANCA :
-
MARCELO KEESE ALBERTINI
-
MARCOS ENNES BARRETO
-
RICARDO ARAUJO RIOS
-
Data: 29/07/2020
-
-
Mostrar Resumo
-
Técnicas de Aprendizado de Máquina não-supervisionado foram desenvolvidas visando encontrar estruturas e padrões em conjuntos de dados sem considerar qualquer informação prévia fornecida, por exemplo, por um especialista. Essa ausência de informação impacta diretamente no processo de validação devido à dificuldade em mensurar o conhecimento obtido por meio destas técnicas. Visando solucionar este problema, diversas pesquisas têm sido publicadas na literatura propondo critérios que integram diferentes áreas do conhecimento como Ciência da Computação e Estatística. Esses critérios são comumente divididos em $3$ categorias: relativo, externo e interno. Em geral, tais critérios são desenvolvidos com base em índices com diferentes objetivos e vieses de análise. Entretanto, grande parte desses índices são aplicados sobre dados caracterizados por serem independentes e identicamente distribuídos. A realização de uma Revisão Sistemática da Literatura demonstrou que há um número reduzido de pesquisas que investigam índices de validação de agrupamento para dados com dependência temporal entre suas observações. Este número é ainda mais reduzido quando se trata de índices que utilizam critério interno de validação. Neste sentido, este trabalho de mestrado apresenta um novo índice interno de validação baseado na adaptação da Estatística GAP (Gap Statistic) comumente utilizado na literatura. O índice apresentado foi desenvolvido com o objetivo de mensurar e validar informações extraídas de dados temporais a partir da aplicação de técnicas de Aprendizado de Máquina não-supervisionado. Dessa forma, resultados experimentais demonstram a eficiência do novo índice interno de validação para dados com dependência temporal e confirmam a importância do mesmo para o estado da arte.
-
Mostrar Abstract
-
Técnicas de Aprendizado de Máquina não-supervisionado foram desenvolvidas visando encontrar estruturas e padrões em conjuntos de dados sem considerar qualquer informação prévia fornecida, por exemplo, por um especialista. Essa ausência de informação impacta diretamente no processo de validação devido à dificuldade em mensurar o conhecimento obtido por meio destas técnicas. Visando solucionar este problema, diversas pesquisas têm sido publicadas na literatura propondo critérios que integram diferentes áreas do conhecimento como Ciência da Computação e Estatística. Esses critérios são comumente divididos em $3$ categorias: relativo, externo e interno. Em geral, tais critérios são desenvolvidos com base em índices com diferentes objetivos e vieses de análise. Entretanto, grande parte desses índices são aplicados sobre dados caracterizados por serem independentes e identicamente distribuídos. A realização de uma Revisão Sistemática da Literatura demonstrou que há um número reduzido de pesquisas que investigam índices de validação de agrupamento para dados com dependência temporal entre suas observações. Este número é ainda mais reduzido quando se trata de índices que utilizam critério interno de validação. Neste sentido, este trabalho de mestrado apresenta um novo índice interno de validação baseado na adaptação da Estatística GAP (Gap Statistic) comumente utilizado na literatura. O índice apresentado foi desenvolvido com o objetivo de mensurar e validar informações extraídas de dados temporais a partir da aplicação de técnicas de Aprendizado de Máquina não-supervisionado. Dessa forma, resultados experimentais demonstram a eficiência do novo índice interno de validação para dados com dependência temporal e confirmam a importância do mesmo para o estado da arte.
|
|
14
|
-
VICTOR MACIEL GUIMARÃES DOS SANTOS
-
Quantificação da novidade temporal: um novo método para quantificar a novidade temporal nas redes sociais
-
Orientador : RICARDO ARAUJO RIOS
-
MEMBROS DA BANCA :
-
RICARDO ARAUJO RIOS
-
DANIELA BARREIRO CLARO
-
ANGELO CONRADO LOULA
-
Data: 30/07/2020
-
-
Mostrar Resumo
-
Atualmente, existe um número expressivo de redes sociais utilizadas para diversos fins, como conectar pessoas com um interesse comum em pesquisa, ofertas de emprego, preferências musicais e conteúdos em geral. Essas redes ganharam popularidade significativa nos últimos anos. Para demonstrar esse fenômeno, a pesquisa mostra que 71% dos jovens adultos americanos usam uma rede social pelo menos uma vez por dia. Com esse acesso frequente e a liberdade proporcionada pelas redes, os usuários passaram a publicar inúmeras informações, desde fotos pessoais até textos com opiniões sobre diversos temas como política, entretenimento e saúde. Nesse sentido, um novo volume de informações passou a ser produzido, uma vez que, antes das redes sociais, apenas profissionais especializados com acesso às mídias convencionais conseguiam publicar suas opiniões. Do ponto de vista científico, diversas técnicas têm sido propostas na literatura com o objetivo de analisar o conteúdo produzido nessas redes sociais. Especificamente relacionado ao comportamento dos usuários, é comum observar sua modelagem por meio de gráficos ou séries temporais, no entanto, esses métodos tendem a ignorar aspectos desse comportamento, por exemplo, a relação temporal ou a dependência entre os termos usados nas publicações. Considerando essas limitações, este projeto de pesquisa foi desenvolvido com base na hipótese de que a adoção de grafos temporais, em conjunto com ferramentas das áreas de Mineração de Texto e Séries Temporais, permite detectar mudanças no comportamento dos usuários de redes sociais. Para validar essa hipótese, uma nova abordagem foi desenvolvida para identificar pontos de mudança no comportamento dos usuários e associá-los a eventos reais que influenciaram a opinião pública. Este procedimento utiliza técnicas de Text Mining para encontrar termos, que serão utilizados posteriormente na criação de grafos temporais, mantendo suas relações nos textos originais e suas dependências temporais. Uma nova medida também foi desenvolvida para quantificar como as opiniões dos usuários evoluem com o tempo. Por fim, é apresentado um método para detecção automática de mudança de comportamento, que visa identificar os pontos em que ocorrem mudanças. Essa abordagem foi avaliada considerando um evento histórico no Brasil: as eleições presidenciais de 2018. Esse período foi escolhido devido ao volume de publicações que efetivamente estabeleceram as redes sociais como principal mecanismo de ativismo político. Os resultados obtidos enfatizam a importância da abordagem proposta e abrem novas possibilidades, por exemplo, para a identificação de bots que propagam notícias falsas.
-
Mostrar Abstract
-
Currently, there is an expressive number of social networks used for different purposes, such as connecting people with a common interest in research, job offers, musical preferences, and general content. These networks have gained significant popularity in recent years. To demonstrate this phenomenon, research shows that 71% of young American adults use a social network at least once a day. With this frequent access and the freedom given by the networks, users started to publish numerous information, from personal photos to texts with opinions on different topics such as politics, entertainment, and health. In this sense, a new volume of information started to be produced, since, before social networks, only specialized professionals with access to conventional media were able to publish their opinions. From a scientific point of view, several techniques have been proposed in the literature aiming at analyzing the content produced in such social networks. Specifically related to the users’ behavior, it is common to observe their modeling through graphs or time series, however, these methods tend to ignore aspects of this behavior, for example, the temporal relationship or the dependence between terms used in publications. Considering these limitations, this research project was developed based on the hypothesis that the adoption of temporal graphs, together with tools from the areas of text Mining and Time Series, allows the detection of changes in the behavior of users of social networks. To validate this hypothesis, a new approach was developed to identify points of change in users’ behavior and to associate them with real events that influenced public opinion. This procedure uses Text Mining techniques to find terms, which will be used later in the creation of temporal graphs, maintaining their relationships in the original texts and their temporal dependencies. A new measure has also been developed, to quantify how users’ opinions evolve with time. Finally, a method for automatic detection of behavior change is presented, which aims to identify points when changes occur. This approach was evaluated considering a historic event in Brazil: the 2018 presidential elections. This period was chosen due to the volume of publications that effectively established social networks as the main mechanism for political activism. The results obtained emphasize the importance of the proposed approach and open new possibilities, for example, for the identification of bots that propagate fake news.
|
|
15
|
-
ILA MASCARENHAS MUNIZ
-
Os múltiplos papéis da Interação Humano-Computador: entendendo as mensagens de metacomunicação sob a ótica da Dialética Hegeliana
-
Orientador : ECIVALDO DE SOUZA MATOS
-
MEMBROS DA BANCA :
-
ECIVALDO DE SOUZA MATOS
-
INGRID TEIXEIRA MONTEIRO
-
LEOBINO NASCIMENTO SAMPAIO
-
SUZI MARIA CARVALHO MARINO
-
SÍLVIA AMÉLIA BIM
-
Data: 07/08/2020
-
-
Mostrar Resumo
-
Artefatos computacionais estão cada vez mais integrados ao nosso cotidiano, influenciando nas mais variadas atividades. Por isso, o estudo da interação entre humanos e sistemas computacionais ganhou importância nos últimos anos, permitindo a construção e o aperfeiçoamento das tecnologias interativas. Para solucionar problemas de interação tem-se articulado conhecimentos de diferentes espaços/campos científicos. A popularização da colaboração web intensificou esses problemas, especialmente ao abrir a possibilidade de o usuário atuar com o papel de "projetista/designer". Apesar de oferecer maior autonomia ao usuário, o papel de designer pode exigir conhecimentos técnicos em computação que, provavelmente, o usuário não tenha. Sem conhecimento especializado, podem ocorrer rupturas na interpretação das mensagens da interface, especialmente quando o usuário assume, alternadamente, os papéis de designer e usuário durante a interação. Com isso, esta pesquisa verificou a existência de conflitos de interpretação durante o movimento dialético de sujeitos com múltiplos papéis de interação em um sistema computacional e analisou essas rupturas na comunicação utilizando os princípios da Dialética Hegeliana. Para isso, foi realizado um estudo de caso com os métodos da Engenharia Semiótica e análise dialética dos dados. Os resultados obtidos indicam possibilidades de reflexão e ação sobre potenciais conflitos de interpretação nas mensagens de metacomunicação da interface quando o usuário alterna entre os papéis de designer e usuário em tempo de interação.
-
Mostrar Abstract
-
Computational artifacts are increasingly integrated into our daily lives, influencing the most varied activities. For this reason, the study of the interaction between humans and computer systems has gained importance in recent years, allowing the construction and improvement of interactive technologies. To solve interaction problems, knowledge of different scientific spaces/fields was articulated. The popularization of collaboration on the web has intensified these problems, mainly opening up the possibility for the user to act in the role of ”designer”. Despite offering greater autonomy to the user, the role of the designer may require technical knowledge in computing that, probably, the average user does not have. Without specialized knowledge, interruptions in the interpretation of interface messages can occur, especially when the user alternately assumes the roles of designer and user during the interaction. With this, this research verified the existence of conflicts of interpretation during the dialectical movement of subjects with multiple roles of interaction in a computer system and analyzed these disruptions in communication using the principles of Hegelian Dialectic. For this, a case study was carried out with the methods of Semiotic Engineering, MIS and MAC, followed by a dialectical analysis of the results. The results obtained open possibilities for reflection on the possibility of conflicts of interpretation in the metacommunication messages of the interface when the user switches between the roles of designer and user at the moment of interaction.
|
|
16
|
-
DANIEL ARAÚJO DE MEDEIROS
-
Escalonamento de frequência orientado por perfil para cargas de trabalho de pesquisa
-
Orientador : VINICIUS TAVARES PETRUCCI
-
MEMBROS DA BANCA :
-
DANIEL MOSSÉ
-
GEORGE MARCONI DE ARAUJO LIMA
-
VINICIUS TAVARES PETRUCCI
-
Data: 12/08/2020
-
-
Mostrar Resumo
-
O escalonamento de frequências é uma técnica essencial para maximizar a eficiência dos recursos computacionais existentes, especialmente em sistemas com arquiteturas capazes de executar tais tarefas em núcleos de frequência variável. Um dos fatores mais críticos capazes de afetar a experiência do usuário em serviços como busca ou redes sociais é a latência de cauda, definida como sendo a latência no 95 ou 99-percentil. Esta latência pode ser fortemente influenciada pela resposta mais lenta de um núcleo de baixo desempenho de um sistema, com seu impacto largamente amplificado quão mais núcleos de baixo desempenho estejam hospedados neste mesmo sistema. Do lado corporativo, reduzir a latência de cauda para a meta desejada é tão necessário quanto a diminuição do gasto energético, haja vista que este é diretamente proporcional aos custos financeiros para a operação do serviço e consequentemente ao lucro. Trabalhos anteriores em escalonamento de frequências para núcleos com capacidade de variação de frequência são de granulometria grossa, no sentido que se observa o estado de toda a aplicação para a tomada de decisões (sem distinção entre aplicação, threads ou funções). Tais trabalhos também muitas vezes dependem de um processo externo rodando em paralelo para coletar o comportamento dinâmico de determinada tarefa.
-
Mostrar Abstract
-
O escalonamento de frequências é uma técnica essencial para maximizar a eficiência dos recursos computacionais existentes, especialmente em sistemas com arquiteturas capazes de executar tais tarefas em núcleos de frequência variável. Um dos fatores mais críticos capazes de afetar a experiência do usuário em serviços como busca ou redes sociais é a latência de cauda, definida como sendo a latência no 95 ou 99-percentil. Esta latência pode ser fortemente influenciada pela resposta mais lenta de um núcleo de baixo desempenho de um sistema, com seu impacto largamente amplificado quão mais núcleos de baixo desempenho estejam hospedados neste mesmo sistema. Do lado corporativo, reduzir a latência de cauda para a meta desejada é tão necessário quanto a diminuição do gasto energético, haja vista que este é diretamente proporcional aos custos financeiros para a operação do serviço e consequentemente ao lucro. Trabalhos anteriores em escalonamento de frequências para núcleos com capacidade de variação de frequência são de granulometria grossa, no sentido que se observa o estado de toda a aplicação para a tomada de decisões (sem distinção entre aplicação, threads ou funções). Tais trabalhos também muitas vezes dependem de um processo externo rodando em paralelo para coletar o comportamento dinâmico de determinada tarefa.
|
|
17
|
-
DANIEL AMADOR DOS SANTOS
-
Noções básicas sobre os desafios da replicação: uma visão sobre múltiplas replicações de um experimento de sistemas altamente configuráveis.
-
Orientador : EDUARDO SANTANA DE ALMEIDA
-
MEMBROS DA BANCA :
-
EDUARDO SANTANA DE ALMEIDA
-
MANOEL GOMES DE MENDONCA NETO
-
RAFAEL PRIKLADNICKI
-
Data: 02/09/2020
-
-
Mostrar Resumo
-
Conforme a Engenharia de Software Empírica cresce em maturidade e número de publicações, mais as replicações são necessárias para fornecer uma base sólida para as evidências encontradas por meio de pesquisa. No entanto, estudos de replicação são escassos em geral e alguns tópicos sofrem mais do que outros. Além disso, os desafios associados à replicação de estudos empíricos não são bem entendido. Neste estudo, pretendemos preencher essa lacuna, investigando dificuldades emergentes. ao replicar um experimento. Usamos um método inovador em que os sujeitos com antecedentes distintos desempenham o papel de um grupo de pesquisa que tenta replicar um experimento estude. Oito replicações no total foram realizadas. Usamos a Grounded Theory's Método de comparação constante para análise qualitativa. Vimos em nossas replicações que a maioria dos resultados mantém em comparação com os experimentos originais. No entanto, os assuntos relataram muitas dificuldades, principalmente relacionadas à clareza das instruções e à qualidade dos artefatos de replicação. Com base em nossa experiência, também oferecemos recomendações que pode ajudar a mitigar problemas relacionados à replicação de experimentos.
-
Mostrar Abstract
-
As Empirical Software Engineering grows in maturity and number of publications, more
replications are needed to provide a solid grounding to the evidence found through prior
research. However, replication studies are scarce in general and some topics suer more
than others. On top, the challenges associated with replicating empirical studies are not
well understood. In this study we aim to ll this gap by investigating diculties emerging
when replicating an experiment. We used an innovative method in which subjects with
distinct background play the role of a research group attempting to replicate an experimental
study. Eight replications in total were performed. We used Grounded Theory's
Constant Comparison method for qualitative analysis. We have seen in our replications
that most results hold comparing with the original experiments. However, the subjects
reported many diculties, mostly related to the clarity of the instructions and the quality
of the replication artifacts. Based on our experience, we also provide recommendations
that can help mitigating issues related to experiment replication.
|
|
18
|
-
LEONARDO THOMAS TORRES SANTOS
-
Uma Proposta de Simulação Computacional 3D em Tempo Real para Pintura Hidrográfica
-
Orientador : KARL PHILIPS APAZA AGUERO
-
MEMBROS DA BANCA :
-
ANTONIO LOPES APOLINARIO JUNIOR
-
ESTEBAN WALTER GONZALEZ CLUA
-
KARL PHILIPS APAZA AGUERO
-
Data: 03/09/2020
-
-
Mostrar Resumo
-
A Pintura Hidrográfica, também chamada de Hidrografia é um método viável para colorir objetos criados com a impressão 3D. Entretanto, a técnica da hidrografia envolve uma complexa interação entre um filme e um objeto impresso em 3D. Primeiramente uma imagem é impressa em um filme, que é posto a flutuar na água. Em seguida, por reação com uma solução ativadora, o filme torna-se uma película adesiva com os pigmentos da imagem. Ao imergir um objeto 3D, o filme adere ao objeto, projetando a imagem 2D na superfície do objeto 3D. A projeção resultante de uma pintura hidrográfica é difícil de ser prevista de maneira precisa, visto que a operação ocorre na medida em que o filme vai aderindo ao objeto, considerando que o filme sofre um esticamento variável e um clareamento da cor nos pontos de maior esticamento. Para lidar com a dificuldade de se prever o resultado final da pintura hidrográfica, este trabalho propõe uma solução computacional que possibilita gerar uma imagem planificada de uma textura arbitrária, que impressa em um filme hidrográfico, permita colorir um objeto 3D. A proposta permite mapear fisicamente uma textura a um objeto, através de um processo com etapas computacionais e físicas. Para isto, foi criada uma simulação computacional em 3D que usa PBD (Position-Based Dynamics), uma técnica conhecida para simular corpos deformáveis e utilizada em bibliotecas para simulação de física. Esta técnica foi utilizada para executar em paralelo uma simulação na GPU (Graphics Processing Unit) com uma performance adequada. Então, foi simulado o comportamento do filme e a sua interação com o objeto impresso em 3D, como uma interação entre um corpo rígido em colisão com um corpo deformável. Para avaliar a performance alcançada de forma consistente, foram feitos testes variando o número de vértices e a quantidade de voxels nos corpos envolvidos e foi observado que a simulação continuou executando em tempo real. Além disso, a técnica de pintura hidrográfica foi executada em alguns modelos reais e estes resultados foram comparados com os modelos simulados.
-
Mostrar Abstract
-
Hydrographic Printing, also called Hydrographics, is a viable method for coloring objects created with 3D printers. However, executing the hydrographic technique leads to a complex interaction between a thin film and a 3D printed object. First, an image is printed on a film, which is put in the water. Then, by chemical reaction with an activator, the film becomes an adhesive sheet that carries the image pigment. When the 3D object dip, the film adheres to the object, projecting the 2D image to the object 3D surface. The hydrographic printing resultant projection is hard to predict precisely, because of the variable stretch in the film and the color whitening in the regions with high stretch. To address the difficulty of predicting the final result of hydrographic printing, we propose a computational solution that enables the generation of a flatted image of an arbitrary texture. Printing this image in a hydrographic film, it is possible to color a 3D object. The proposal allows executing a physical texture mapping in an object, with computational and physical steps. We propose a 3D computational simulation that uses Position-Based Dynamics, a popular technique for simulating deformable bodies and widely used in physics engines. We take advantage of this technique running in parallel a GPU-based simulation with suitable performance. We simulate the film behavior and its interaction with the 3D printed object, as an interaction between a soft-body colliding with a rigid one. To evaluate the achieved performance consistency, we made tests varying the number of vertices and voxels in the bodies involved and observed that the simulation kept running in real-time. We also execute the hydrographic technique in different printed models and compare these results with the simulated models.
|
|
19
|
-
ÍTALO DE CRISTO TEIXEIRA
-
Análise de estruturas de vizinhanças: um estudo de caso sobre o problema de programação de tarefas em ambiente job shop
-
Orientador : TIAGO DE OLIVEIRA JANUARIO
-
MEMBROS DA BANCA :
-
TIAGO DE OLIVEIRA JANUARIO
-
DANILO BARBOSA COIMBRA
-
MAYRON CESAR DE OLIVEIRA MOREIRA
-
Data: 17/10/2020
-
-
Mostrar Resumo
-
Uma das características mais importantes da busca local, amplamente utilizada em problemas de otimização, é a definição de sua estrutura de vizinhança. Uma vizinhança é um mapeamento que atribui para cada solução $s$ $\in$ $S$ um conjunto de soluções vizinhas $N(s)$. Procedimentos de busca local usam o conceito de vizinhanças para mover-se de uma solução $s$ para uma outra solução vizinha $s’ \in N(s)$. Nesta dissertação realizamos uma análise experimental do desempenho de seis estruturas de vizinhança para o Problema de Programação de Tarefas em ambiente \textit{Job Shop}. O objetivo desse problema consiste em planejar a execução de tarefas considerando um conjunto limitado de recursos e respeitando as restrições estabelecidas. Para uma análise efetiva das estruturas de vizinhança, foram utilizados quatro critérios de avaliação: Eficiência, Convergência, Força e Aprimoramento. Neste trabalho, as vizinhanças foram apresentadas a partir da utilização de conceitos de teoria dos grafos. Os procedimentos de busca local aplicados foram desenvolvidos com base nas heurísticas \textit{Hill Climbing} e \textit{Variable Neighborhood Descent}, a última com o objetivo de estudar as interferências entre buscas realizando combinações de vizinhanças. A partir da análise dos resultados obtidos, foi possível correlacionar desempenhos das vizinhanças e obter informações úteis para entender por que certas vizinhanças apresentam desempenhos melhores que outras nos critérios de avaliação definidos.
-
Mostrar Abstract
-
One of the most crucial characteristics of local search, widely used in optimization problems, is the definition of its neighbourhood. A neighbourhood is a mapping that assigns to each schedule $s \in S$, a set of schedules $ N(s) $ that are neighbours of $s$. Local search procedures use the concept of a neighbourhood to move from one schedule $s$ to a neighbour schedule $s' \in N(s) $. In this project, we performed an experimental performance analysis of six neighbourhood structures for the Job Shop Scheduling Problem. The objective of this problem is to plan the execution of jobs considering a limited set of resources and respecting the established restrictions. For effective analysis of the neighbourhood structures, four evaluation criteria were considered: Efficiency, Convergence, Strength and Improvement. In this work, the neighbourhoods were created from graph theory concepts. The local search procedures were developed based on Hill Climbing and Variable Neighborhood Descent methods, the latter to study the interferences in local search procedures by performing combinations of neighbourhoods. From the analysis of the results obtained, it was possible to demonstrate correlations of performance between the neighbourhoods and obtain useful information to understand why some neighbourhoods perform better than others in the defined evaluation criteria.
|
|
20
|
-
WILLIAN CARLOS SOUZA MARTINHO
-
Uma nova metaheurística iterated local search baseada em simulação para o problema do projeto de redes de distribuição de água abastecidas por gravidade
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
DANIEL ALOISE
-
RAFAEL AUGUSTO DE MELO
-
TIAGO DE OLIVEIRA JANUARIO
-
Data: 19/10/2020
-
-
Mostrar Resumo
-
O problema de otimização do projeto de redes de distribuição de água (WDND, do inglês water distribution network design) alimentadas por gravidade consiste em determinar os diâmetros dos tubos de uma rede de água de forma que as restrições hidráulicas sejam satisfeitas e o custo total seja minimizado. Tradicionalmente, essas decisões de design são feitas com base na experiência de especialistas. Quando as redes aumentam de tamanho, no entanto, as regras práticas raramente levam a decisões quase ideais. Nos últimos trinta anos, um grande número de técnicas foram desenvolvidas para resolver o problema de projetar de forma otimizada uma rede de distribuição de água. Este trabalho aborda o problema NP-difícil de otimização do projeto de redes de distribuição de água em um cenário multiperíodo no qual ocorrem padrões de demanda variáveis no tempo. É proposta uma nova metaheurística de busca local iterada (ILS, do inglês iterated local search) baseada em simulação aprimorada que explora ainda mais a estrutura do problema na tentativa de obter soluções de alta qualidade. Mais especificamente, quatro novidades são propostas: (a) uma estratégia de busca local para dimensionar de forma inteligente tubos nos caminhos mais curtos entre os reservatórios e os nós com maiores demandas; (b) uma técnica para acelerar a convergência com base em um esquema de redução agressiva do diâmetro do tubo; (c) um novo mecanismo de perturbação concentrada que permite escapar de soluções ótimas locais muito restritas; e (d) um conjunto de soluções para alcançar um bom compromisso entre intensificação e diversificação. Experimentos computacionais mostram que a abordagem é capaz de melhorar uma metaheurística estado da arte para a maioria dos testes realizados. Além disso, converge muito mais rápido para soluções de baixo custo e demonstra um desempenho mais robusto na medida em que obtém menores desvios das melhores soluções encontradas.
-
Mostrar Abstract
-
The gravity fed water distribution network design (WDND) optimization problem consists in determining the pipe diameters of a water network such that hydraulic constraints are satisfied and the total cost is minimized. Traditionally, such design decisions are made on the basis of expert experience. When networks increase in size, however, rules of thumb will rarely lead to near optimal decisions. Over the past thirty years, a large number of techniques have been developed to tackle the problem of optimally designing a water distribution network. This work tackles the NP-hard water distribution network design (WDND) optimization problem in a multi-period setting where time varying demand patterns occur. A new enhanced simulation-based iterated local search (ILS) metaheuristic is proposed which further explores the structure of the problem in an attempt to obtain high quality solutions. More specifically, four novelties are proposed: (a) a local search strategy to smartly dimension pipes in the shortest paths between the reservoirs and the nodes with highest demands; (b) a technique to speed up convergence based on an aggressive pipe diameter reduction scheme; (c) a novel concentrated perturbation mechanism to allow escaping from very restrained local optima solutions; and (d) a pool of solutions to achieve a good compromise between intensification and diversification. Computational experiments show that the proposed approach is able to improve over a state-of-the-art metaheuristic for most of the performed tests. Furthermore, it converges much faster to low cost solutions and demonstrates a more robust performance in that it obtains smaller deviations from the best known solutions.
|
|
21
|
-
BRENNO DE MELLO ALENCAR
-
Aprendizado de Máquina para Redução do Tráfego de Dados e da Latência na Névoa das Coisas
-
Orientador : CASSIO VINICIUS SERAFIM PRAZERES
-
MEMBROS DA BANCA :
-
CASSIO VINICIUS SERAFIM PRAZERES
-
FLÁVIA COIMBRA DELICATO
-
MANOEL GOMES DE MENDONCA NETO
-
RICARDO ARAUJO RIOS
-
Data: 26/10/2020
-
-
Mostrar Resumo
-
A Internet of Things tem produzido infraestruturas/aplicações que geram grande volume de dados. Esses dados são geralmente fluxos de dados que têm a característica de serem contínuos e infinitos, e também apresentam a particularidade de modificar o seu comportamento ao longo do tempo. Devido a grande capacidade de armazenamento, processamento de dados e provisionamento de recursos, esses dados, em geral, são processados/analisados em ambientes de Cloud Computing. Embora a Cloud Computing forneça à infraestrutura IoT o tratamento adequado sob aspectos relacionados à escalabilidade e centralização dos recursos, a distância entre os dispositivos e a nuvem pode impor limitações para atingir baixa latência no tráfego de dados. Visando manter a escalabilidade, obter baixa latência e diminuir o tráfego de dados entre os dispositivos IoT e a Nuvem, a Fog Computing foi proposta. Apesar da Fog Computing estabelecer a disponibilização dos recursos na borda da rede, as tecnologias/técnicas utilizadas atualmente para processamento e análise de dados IoT podem não ser suficientes para suportar os fluxos contínuos e ilimitados de dados que as plataformas/aplicações IoT produzem. Além disso, as aplicações de fluxo de dados na Fog devem ser suportadas pelos dispositivos computacionalmente limitados empregados na Fog. Dessa forma, este trabalho apresenta uma abordagem para processamento e análise de fluxos de dados da Internet das Coisas em tempo real na Fog. Essa abordagem tem como objetivo principal reduzir a quantidade de dados transmitidos na infraestrutura de rede, o que permite, como consequência, realizar uma modelagem de dados online, detectando mudanças no comportamento do fluxo de dados e redução do uso da Internet. Por fim, avaliamos a proposta a partir da perspectiva de desempenho num cenário de objetos inteligentes na borda da rede.
-
Mostrar Abstract
-
The Internet of Things (IoT) has produced infrastructures/applications that generate large amounts of data. These data are usually data streams, that have the characteristic of being continuous and infinite and also have the peculiarity of modifying their behavior over time. Due to the large capacity of storage, data processing and provisioning of resources, this data is generally processed/analyzed in cloud computing environments. Although Cloud Computing provides the IoT infrastructure with adequate scalability and resource centric features, the distance between devices and the cloud can impose limitations to achieve low latency in data traffic. In order to maintain scalability, achieve low latency and reduce data traffic between the IoT devices and the Cloud, the Fog Computing was proposed. Although the Fog Computing paradigm establishes resource availability at the edge of the network, the technologies and techniques currently used for IoT data processing and analysis may not be sufficient to support the continuous and unlimited data stream that IoT platforms produce. In this way, this work presents an approach for processing and analyzing data stream from the Internet of Things in real time in Fog. The main advantage of using our approach is the possibility of reducing the amount of data transmitted on the network infrastructure, which allows, as a consequence, to perform an online data modeling, by detecting changes in data behavior, and a reduction of the Internet usage. In addition, the proposed platform does not require a constant Internet connection. Finally, we evaluate the proposal from the perspective of performance in a scenario of intelligent objects at the edge of the network.
|
|
22
|
-
JUNOT FREIRE DOS SANTOS NETO
-
Heurísticas e metaheurísticas para um problema restrito de corte bidimensional guilhotinado
-
Orientador : RAFAEL AUGUSTO DE MELO
-
MEMBROS DA BANCA :
-
BRUNO DE ATHAYDE PRATA
-
RAFAEL AUGUSTO DE MELO
-
TIAGO DE OLIVEIRA JANUARIO
-
Data: 27/11/2020
-
-
Mostrar Resumo
-
Problemas de corte bidimensional (2BP, do inglês 2-Dimensional bin packing problem) são problemas clássicos de otimização combinatória pertencentes à classe NP-Difícil e tem aplicações em diversos setores como a indústria têxtil, metalúrgica e de vidro. Estes problemas consistem em alocar um conjunto de itens retangulares em placas retangulares maiores com tamanho padronizado, a fim de minimizar o desperdício de matéria-prima. Nesta dissertação é estudado um problema restrito de corte bidimensional guilhotinado associado à produção de vidro considerado no ROADEF/EURO Challenge 2018, no qual existe a possibilidade de rotacionar itens em 90° e as placas retangulares de matéria-prima podem possuir defeitos como rachaduras e trincos. São propostas como técnicas para este problema duas heurísticas gulosas randomizadas e um método de aprimoramento de soluções baseado em uma modelagem de programação lógica por restrições combinada com uma heurística gulosa randomizada. As técnicas foram combinadas em metaheurísticas Multistart e GRASP (do inglês, Greedy Randomized Adaptive Search Procedure) a fim de se obterem melhores soluções. Os experimentos realizados mostram que o uso do método de aprimoramento de soluções é vantajoso, e que algumas combinações de técnicas se mostram mais eficazes para determinados tipos de instâncias. Uma versão preliminar deste trabalho foi qualificada para a etapa final do ROADEF/EURO Challenge 2018.
-
Mostrar Abstract
-
Two-Dimensional bin packing problems (2BP) are classic combinatorial optimization problems belonging to the NP-Hard class and have applications in several sectors such as the textile, metallurgical and glass industries. 2BP consists in allocating a set of rectangular items in larger rectangular plates with a standardized size in order to minimize the waste of raw material. In this dissertation, we approach a restricted version of the 2BP with guillotine cuts presented in the ROADEF/EURO Challenge 2018, in which there is a possibility to rotate items in 90° and soma itens have a order of precedence to be produced, and the rectangular plates may present defects in certain points. We propose two randomized greedy heuristics and a method for improving solutions based on a constraint programming model combined with a random greedy heuristic. The techniques are combined in Multistart and Greedy Randomized Adaptative Search Procedure (GRASP) metaheuristics in order to obtain better solutions. Computational experiments show that the use of the solution improvement method is advantageous, and that some combinations of the proposed techniques are more effective for certain types of instances. A preliminary version of this work was qualified for the final phase of the ROADEF/EURO Challenge 2018.
|
|
23
|
-
GRAZIENO BARBOSA PELLEGRINO RIBEIRO
-
OGUM: Um Framework para Cobertura de Área Utilizando um Conjunto Dinâmico de VANTs
-
Orientador : FLAVIO MORAIS DE ASSIS SILVA
-
MEMBROS DA BANCA :
-
ALLAN EDGARD SILVA FREITAS
-
DANIELA BARREIRO CLARO
-
FLAVIO MORAIS DE ASSIS SILVA
-
Data: 11/12/2020
-
-
Mostrar Resumo
-
A coordenação de Veículos Aéreos Não Tripulados (VANTs) cooperativos tornou-se uma área ativa de pesquisa. As abordagens para coordenar esses enxames geralmente incluem uma solução para uma classe de problemas chamada Cobertura de Área. Os problemas de Cobertura de Área consistem na obtenção de informações sobre uma determinada área de interesse (comumente um polígono ou um poliedro) por meio de um conjunto de VANTs, geralmente com coordenação descentralizada e mínima intervenção humana. Problemas de Cobertura de Área representam os requisitos de diferentes tipos de aplicações, como no caso de emergências e desastres, deteccção de vazamento de gás, resgate de pessoas perdidas, entre muitos outros. As soluções existentes para estes problemas normalmente consideram um conjunto fixo de VANTs. Nesta dissertação, descreve-se uma estratégia para coordenar conjuntos dinâmicos de VANTs para resolver um problema específico de Cobertura de Área. Em conjuntos dinâmicos, os VANTs podem entrar ou sair do conjunto. Para implementar a estratégia, um framework foi desenvolvido utilizando ROS e Gazebo. O framework Robotic Operating System (ROS) é um conjunto de bibliotecas e ferramentas para robôs. As missões de Cobertura de Área são reproduzidas no ambiente de simulação Gazebo. O framework facilita a implementação de diferentes estratégias para a coordenação de múltiplos VANTs. Como forma de avaliação da estratégia adotada, foram adotados mapas de calor que representam o movimento dos VANTs no plano.
-
Mostrar Abstract
-
The coordination of cooperative unmanned aerial vehicles (UAVs) has become an active area of research. Approaches to coordinating these swarms often include a solution to a class of problems called Area Coverage. Problems in this class consist of obtaining information about a specific area of interest (usually a polygon or polyhedron) through a set of UAVs, usually with decentralized coordination and minimal human intervention. Area coverage problems model the requirements of different types of applications, such as in the case of emergencies and disasters, gas leak detection, rescue of lost people, among many others. Existing solutions to these problems usually consider a fixed set of UAVs. In this dissertation, a strategy to coordinate dynamic sets of UAVs to solve a specific Area Coverage problem is described. In these dynamic sets, UAVs can enter or leave the set. To implement the strategy, a framework was developed using ROS and Gazebo. The framework ROS is a set of libraries and tools for robots. Area Coverage missions are executed in the Gazebo simulation environment. The framework facilitates the implementation of different strategies for coordinating multiple UAVs. We introduced heat maps to assess the quality of the adopted strategy. A heat map represents the movement of UAVs in the plan.
|
|
24
|
-
CARLOS FERNANDO SILVA FERNANDES DE ABREU NETO
-
MODELO DE AGRUPAMENTO DINÂMICO DE MÚLTIPLOS FLUXOS DE DADOS UTILIZANDO VER EM REDES ÓPTICAS TRANSLÚCIDAS
-
Orientador : GUSTAVO BITTENCOURT FIGUEIREDO
-
MEMBROS DA BANCA :
-
GUSTAVO BITTENCOURT FIGUEIREDO
-
HELDER MAY NUNES DA SILVA OLIVEIRA
-
JULIANA DE SANTI
-
Data: 15/12/2020
-
-
Mostrar Resumo
-
Com o grande crescimento da demanda de tráfego nas redes de computadores, as Redes Ópticas Elásticas surgiram como uma promissora evolução tecnológica das redes ópticas para o desenvolvimento de soluções com foco na utilização eficiente dos recursos de rede. Diferentemente das tradicionais redes WDM, que trabalham com alocação de recursos de grade fixa, nas EONs a largura de banda de um caminho óptico é escalável, podendo variar de acordo com a necessidade de cada conexão, adaptando-se dinamicamente a cada demanda de tráfego, garantindo o uso mais eficiente dos recursos espectrais. Neste contexto, o uso dos recursos torna-se cada vez mais equilibrado, possibilitando maior redução de custos em diversos fatores tecnológicos. No entanto, com a popularização da internet e a busca por atender uma maior gama de possibilidades tecnológicas com eficiência, pesquisadores vem concentrando seus esforços para uma utilização ainda mais estratégica destes recursos de rede. As Redes Ópticas Elásticas Translúcidas, através de estratégicas eficientes, utiliza fortemente o conceito de elasticidade e adaptabilidade com o uso de equipamentos de regeneração do sinal. Os Regeneradores Elásticos Virtualizados são equipamentos capazes de se adaptar dinamicamente de acordo com a demanda de tráfego, onde a medida que não são mais necessários, o VER é liberado para utilização de novas demandas. Desta forma é possível atender um número maior de conexões ópticas e atingir maiores distâncias com eficiência energética e redução de custo. Essas novas tecnologias de transmissão apresentam características complementarem, que as utilizando combinados a outros conceitos, trás grandes benefícios a empresas e usuários. O estabelecimento de conexões orientadas por prazo, pode ser adiado até o momento em que se tenha recursos disponíveis para atender ao prazo exigido. A possibilidade de programar uma requisição pode trazer benefícios tantos para usuários quanto para as empresas provedoras de serviços. Se não houver recursos disponíveis, o estabelecimento de uma nova conexão poderá ser adiado, desta forma é possível atender um maior número de requisições evitando aumento na taxa de bloqueios. Em conjunto com o provisionamento agendado das requisições, a criação de lotes de requisições, contribui para a flexibilização na hora de estabelecer novas conexões. Um lote é um conjunto de requisições que chegam em um determinado momento e que não são provisionadas de imediato, ou seja, cada requisição receberá um determinado deadline onde seu estabelecimento deverá ser atendido dentro deste prazo. Caso não haja recursos, ao final do deadline a conexão deverá ser bloqueada. O agendamento em lotes permitem maiores combinações aproveitando ao máximo os recursos disponíveis de rede, evitando assim aumento do consumo energético e redução do número de bloqueios das requisições. Diante disso, este trabalho apresenta uma nova metodologia para enfrentar o problema do aumento exponencial de tráfego na rede de comunicação, considerando a redução de custo naturalmente prioritária. Para atingir tais expectativas, a metodologia proposta consiste no desenvolvimento de um modelo de agrupamento e compartilhamento dinâmico de recursos de equipamentos de regeneração, além da combinação de tecnologias na criação de lotes de requisição com provisionamento agendado. Os resultados obtidos através de simulações por software implementado pelo próprio autor, indicam que o modelo se mostrou eficaz, e foi capaz de reduzir consideravelmente a taxa de bloqueio, a quantidade de recursos com VER utilizado e consequentemente gerou maior eficiência energética, quando comparado aos mesmos métodos sem a utilização desta metodologia de agrupamento, criação de lotes de requisição e provisionamento agendado.
-
Mostrar Abstract
-
With the growth in the demand for traffic on computer networks, Elastic Optical Networks emerged as a promising technological evolution of optical networks for the development of solutions focused on the efficient use of network resources. Unlike traditional WDM networks, which work with allocation of fixed grid resources, in EONs the bandwidth of an optical path is scalable and can vary according to the need for each connection, adapting dynamically to each traffic demand, ensuring the most efficient use of spectral resources. In this context, the use of resources is becoming more and more balanced, enabling greater cost reduction in several technological factors. However, with the popularization of the internet and the search to serve a greater range of technological possibilities with efficiency, researchers have been focusing their efforts towards an even more strategic use of these network resources. Translucent Elastic Optical Networks, through efficient strategies, strongly use the concept of elasticity and adaptability with the use of signal regeneration equipment. The Virtualized Elastic Regenerators are devices capable of adapting dynamically according to the traffic demand, where as they are no longer needed, VER is released to use new demands. In this way it is possible to serve a greater number of optical connections and reach greater distances with energy efficiency and cost reduction. These new transmission technologies have complementary characteristics, which using them combined with other concepts, brings great benefits to companies and users. The establishment of term-oriented connections can be postponed until such time as resources are available to meet the required term. The possibility of scheduling a requisition can bring benefits to both users and service providers. If there are no resources available, the establishment of a new connection may be postponed, so it is possible to handle a greater number of requests, avoiding an increase in the blocking rate. In conjunction with the scheduled provisioning of requisitions, the creation of requisition batches contributes to flexibility when establishing new connections. A batch is a set of requests that arrive at a certain time and that are not immediately provisioned, that is, each request will receive a certain deadline where your establishment must be attended to within this period. If there are no resources, at the end of the deadline the connection must be blocked. Scheduling in batches allows for greater combinations, making the most of the available network resources, thus avoiding increased energy consumption and reducing the number of blocking requests. Therefore, this work presents a new methodology to face the problem of exponential increase in traffic on the communication network, considering cost reduction naturally a priority. In order to achieve these expectations, the proposed methodology consists of the development of a dynamic pooling and resource sharing model for regeneration equipment, in addition to the combination of technologies in the creation of requisition batches with scheduled provisioning. The results obtained through simulations by software implemented by the author himself, indicate that the model proved to be effective, and was able to considerably reduce the blocking rate, the amount of resources with VER used and consequently generated greater energy efficiency, when compared to them methods without using this grouping methodology, creating requisition batches and scheduled provisioning.
|
|
25
|
-
VIRGÍNIA DE SOUSA VENEGA
-
REQUISITOS DE SOFTWARE PARA
ADAPTAÇÃO DE AMBIENTES MOOC PARA
A ABORDAGEM CONECTIVISTA
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
PAULEANY SIMOES DE MORAIS
-
IVAN DO CARMO MACHADO
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 16/12/2020
-
-
Mostrar Resumo
-
Massive Open Online Courses (MOOC) são cursos online abertos, em geral gratuitos, sem
exigência de conhecimento pr evio para participa c~ao e quantidade inde nida de participantes.
MOOC podem ser divididos em dois grupos: xMOOC e cMOOC. Os ambientes
xMOOC são considerados extensões de ambientes de cursos online tradicionais pois preservam
caracter sticas pedag ogicas muito pr oximas, como o suporte assíncrono mínimo,
avaliações gen ericas e foco em recrutamento contínuo. Essa modalidade de curso, apesar
de ser o tipo mais comum de MOOC e possuir suporte ao desenvolvimento bem defi
nido, enfrenta percalços, como as altas taxas de evasãoo dos estudantes e dificuldades no
processo de avalia c~ao de aprendizagem. No caso dos ambientes cMOOC, MOOC sob a
perspectiva da abordagem conectivista, ainda n~ao h a um consenso sobre os requisitos de
software para este domínio. Considerando MOOC como um tipo de Software Educacional
(SE), diversos estudos exploram a problem atica da construção de SE sob a perspectiva
de teorias e abordagens pedagógicas especícas para direcionar o desenvolvimento do
software. Essas teorias, m etodos e abordagens pedag ogicos podem auxiliar na compreens~
ao dos processos de aprendizagem & avaliação, bem como na concepção de cursos e
MOOC. Observa-se ent~ao, que s~ao raros os projetos de softwares que consideram teorias
ou m etodos de aprendizagem espec cas desde sua idealização. Nesse sentido este
trabalho buscou identi car quais s~ao os requisitos de software necess arios para o desenvolvimento
de ambientes cMOOC. Para alcan car este objetivo, surveys foram aplicados
a estudantes de computação de diferentes cursos e a pro ssionais da area de Inform atica
e Educação a m de capturar, os requisitos desej aveis para o desenvolvimento de MOOC
conforme o conectivismo. Dois surveys foram realizados com estudantes e educadores.
Como resultado, 853 potenciais requisitos foram inicialmente identi cados e ap os sucessivos
ciclos de coding, fltrados e sintetizados. Os requisitos identicados e catalogados
foram alicer cados nas dimens~oes Abertura, Interatividade, Autonomia e Diversidade, balizadoras
do conectivismo. Como resultado deste trabalho, um cat alogo de requisitos de
software para o desenvolvimento de cMOOC foi concebido. Com isso espera-se poder
apoiar o processo de engenharia de requisitos para domínios pedagógicos específicos e o
desenvolvimento de cMOOC.
-
Mostrar Abstract
-
ABSTRACT
Massive Open Online Course (MOOC) are open online courses, generally free, with
no prior knowledge required for participation and an inde nite number of participants.
MOOC can be divided into two groups: xMOOC and cMOOC. XMOOC environments
are considered extensions of traditional online course environments as they preserve very
similar pedagogical characteristics, such as minimal asynchronous support, generic assessments,
and a focus on continuous recruitment. This course modality, despite being
the most common type of MOOC and having well-de ned development support, faces
problems, such as high student dropout rates and di culties in the learning assessment
process. For cMOOC environments MOOCs from the perspective of the connectivist approach,
there is still no consensus on the software requirements for this domain. Considering
MOOC as a type of Educational Software (SE), several studies explore the problem
of building SE under the perspective of speci c theories and pedagogical approaches to
direct the development of the software. These theories, methods, and pedagogical approaches
can help to understand the learning & evaluation processes as well as in the design
of courses and MOOCs. It is observed, then, that few software projects consider speci c
theories or learning methods since their conception. In this sense, this work aimed to
identify what are the software requirements needed for the development of cMOOC environments.
To achieve this objective, surveys were applied to computer students from
di erent courses and professionals in the area of Informatics and Education to capture,
the desirable requirements for the development of MOOC according to connectivism.
Two surveys were carried out with students and educators. As a result, 853 potential
requirements were initially identi ed and after successive coding cycles, ltered and
synthesized. The identified and cataloged requirements were based on the dimensions of
Openness, Interactivity, Autonomy, and Diversity, beacons of connectivism. As a result
of this work, a catalog of software requirements for the development of cMOOC was designed.
With this expected to be able to support the requirements engineering process
for speci c educational elds and the development of cMOOC.
|
|
26
|
-
RAPHAEL ALVES DE JESUS LIMA
-
Comparando Técnicas de Extração de Valores Limiares para Métricas de Código Fonte: Um Estudo com Desenvolvedores Web
-
Orientador : CLAUDIO NOGUEIRA SANT ANNA
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
EDUARDO MARTINS GUERRA
-
RODRIGO ROCHA GOMES E SOUZA
-
Data: 17/12/2020
-
-
Mostrar Resumo
-
Métricas de código fonte permitem medir diferentes atributos do software e têm potencial para apoiar a identificação de problemas de design que podem interferir na compreensibilidade e na manutenibilidade do software. A identificação de problemas de design pode revelar partes do código fonte que precisam ser monitoradas com mais atenção. No entanto, um dos principais desafios na utilização de métricas em atividades de monitoramento da qualidade do código fonte é a definição de valores limiares que sejam capazes de identificar partes do código que realmente sejam consideradas problemáticas pelos desenvolvedores. Embora exista uma série de técnicas de extração de valores limiares, percebe-se que os valores limiares obtidos por meio delas geram muitos falso-positivos. Isto é, existem muitos elementos de código (ex.: classes ou métodos) cujos valores de métricas ultrapassam os valores limiares, mas que, ao serem avaliados por desenvolvedores, não são considerados como problemáticos. Portanto, a participação de desenvolvedores é importante para avaliar a efetividade de valores limiares. Poucos estudos, no entanto, avaliam a efetividade de diferentes técnicas de extração de valores limiares com base na percepção de desenvolvedores. Esse trabalho tem como objetivo, portanto, investigar qual é a percepção de desenvolvedores sobre os problemas de design detectados com valores limiares obtidos por meio de cinco técnicas diferentes que extraem valores limiares a partir de benchmarks de sistemas. Diante deste cenário, realizamos dois estudos, um preliminar em que analisamos dois sistemas e dois desenvolvedores, e um outro estudo em que analisamos quatro sistemas e oito desenvolvedores. Os resultados indicam que técnicas de extração de valores limiares que levam em consideração alguma informação de contexto, como sistemas de referência ou papéis de design, tem potencial para reduzir o número de falso-positivos.
-
Mostrar Abstract
-
Source code metrics quantify dierent software attributes and have the potential to support the identication of design problems that may aect software comprehensibility and maintainability. Identifying design problems can reveal parts of the source code that need to be monitored more closely. However, one of the major challenges in using metrics in source code quality monitoring activities is the denition of threshold values that are capable of identifying design problems that are actually considered problems according to developers' perceptions. Although there are a number of techniques for extracting threshold values, the threshold values obtained by means of them generate many false positives. That is, there are many of code elements (e.g., classes or methods) whose metric values exceed threshold values that, when evaluated by developers, are not considered to be problematic. Therefore, the participation of developers is important to analyze threshold value eectiveness. Few studies evaluate the eectiveness of dierent threshold extraction techniques based on the perception of developers. Therefore, the goal of this work was to conduct an experimental study to evaluate the perception of developers about design problems detected with threshold values obtained by means of ve dierent techniques that extract threshold values from system benchmarks. In this scenario, we conducted two studies, a preliminary one in which we analyzed two systems and two developers' perception, and a second study in which we analyzed four systems and eight developers. The results indicate that developers use design roles to assess whether or not design problems exist, and techniques that take into account some contextual information, such as reference systems or design papers to derive thresholds may reduce the number of false-positives.
|
|
27
|
-
ANDRE LUIZ ROMANO MADUREIRA
-
IOTP: On Supporting IoT Data Aggregation Through Programmable Data Planes
-
Orientador : LEOBINO NASCIMENTO SAMPAIO
-
MEMBROS DA BANCA :
-
CASSIO VINICIUS SERAFIM PRAZERES
-
LEOBINO NASCIMENTO SAMPAIO
-
RODOLFO DA SILVA VILLAÇA
-
Data: 23/12/2020
-
-
Mostrar Resumo
-
IoT devices generate large continuous data streams, which causes congestion that compromises the scalability of IoT systems. To face this problem, techniques for data aggregation propose to reduce recurring packet headers, through the assembly of packet data coming from different sources. Due to the energy constraints and limitation of computational resources of devices, most proposals adjust data aggregation according to their features following multilayered-based approaches or coupling the solution to a given network protocol, but overlooking the properties of the communication link. In this dissertation, we introduce the Internet of Things Protocol (IoTP). An L2 communication protocol for IoT programmable data planes that supports the implementation of data aggregation algorithms inside hardware switches, at the network level. Through these features, IoTP provides support for the design of efficient and adaptable aggregation schemes that can function according to network status and based on the different communication technologies used by IoT devices. We implemented IoTP using the P4 language and conducted emulation-based experiments through the Mininet environment. Our findings show that IoTP accomplishes a 78% improvement in network efficiency, as well as allowing control over the average delay generated by data aggregation techniques. Besides that, it was able to reduce the number of packets sent over the network, while also reducing the consumption of network devices computational resources.
-
Mostrar Abstract
-
IoT devices generate large continuous data streams, which causes congestion that compromises the scalability of IoT systems. To face this problem, techniques for data aggregation propose to reduce recurring packet headers, through the assembly of packet data coming from different sources. Due to the energy constraints and limitation of computational resources of devices, most proposals adjust data aggregation according to their features following multilayered-based approaches or coupling the solution to a given network protocol, but overlooking the properties of the communication link. In this dissertation, we introduce the Internet of Things Protocol (IoTP). An L2 communication protocol for IoT programmable data planes that supports the implementation of data aggregation algorithms inside hardware switches, at the network level. Through these features, IoTP provides support for the design of efficient and adaptable aggregation schemes that can function according to network status and based on the different communication technologies used by IoT devices. We implemented IoTP using the P4 language and conducted emulation-based experiments through the Mininet environment. Our findings show that IoTP accomplishes a 78% improvement in network efficiency, as well as allowing control over the average delay generated by data aggregation techniques. Besides that, it was able to reduce the number of packets sent over the network, while also reducing the consumption of network devices computational resources.
|
|
|
Teses |
|
1
|
-
NICOLLI SOUZA RIOS ALVES
-
Organização De Um Conjunto De Descobertas Experimentais Sobre Causas E Efeitos Da Dívida Técnica Através De Uma Família De Surveys Globalmente Distribuída
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
CHRISTINA VON FLACH GARCIA CHAVEZ
-
CLAUDIO NOGUEIRA SANT ANNA
-
EMILIA MENDES
-
MANOEL GOMES DE MENDONCA NETO
-
TAYANA UCHÔA CONTE
-
Data: 26/05/2020
-
-
Mostrar Resumo
-
Contexto: O conceito de dívida técnica (DT) contextualiza o problema das tarefas de desenvolvimento pendentes como um tipo de dívida que traz um benefício a curto prazo para o projeto, mas que poderão ter de ser pagas com juros mais tarde no processo de desenvolvimento. É comum que um projeto de software incorra em dívida durante o processo de desenvolvimento, no entanto, sua presença traz riscos para o projeto e dificulta sua gestão. Diferentes estratégias de gerenciamento da DT têm sido propostas, contudo, considerar ações que possam evitar sua inserção e monitorar seus efeitos ainda não é uma prática comum. Este é um ponto que merece ser melhor investigado por diferentes motivos: (i) conhecer as causas da DT pode auxiliar as equipes de desenvolvimento na definição de ações que possam ser tomadas para evitar sua ocorrência e (ii) conhecer os possíveis os efeitos da DT pode apoiar na realização de análises de impacto mais precisas e também na definição de ações corretivas para minimizar possíveis consequências negativas da dívida inserida. Dessa forma, enquanto o gerenciamento da DT é um tópico de pesquisa importante, também é necessário entender as causas que podem levar equipes de desenvolvimento a incorrer em diferentes tipos de dívida, bem como os efeitos de sua presença em projetos de software. Objetivo: O objetivo desta tese é investigar, através da replicação contínua e independente de surveys distribuídos globalmente, o estado da prática e tendências da indústria sobre DT incluindo causas que levam à sua ocorrência, efeitos de sua existência e como esses problemas se manifestam no processo de desenvolvimento de software. A partir da organização das causas e efeitos identificados, estruturar diagramas de causa e efeito probabilísticos que possam ser utilizados no apoio a atividades de gestão da DT. Método: As atividades realizadas nesta tese são fundamentadas no paradigma da engenharia de software experimental. Inicialmente, foi realizado um estudo terciário com o objetivo de investigar o estado atual da pesquisa sobre DT identificando quais tópicos de pesquisa têm sido considerados, organizando direcionamentos de pesquisa e conhecimentos práticos que já foram definidos, identificando os tipos conhecidos de DT, e mapeando quais atividades, estratégias e ferramentas têm sido propostas para apoiar o gerenciamento da DT. Em seguida, foi planejado InsighTD, uma família de surveys globalmente distribuída. InsighTD foi planejado de forma cooperativa com pesquisadores da área de DT de diferentes instituições ao redor do mundo. Trata-se do primeiro estudo em larga escala realizado na área. Ele busca organizar um conjunto aberto e generalizável de dados experimentais sobre causas e efeitos da DT em projetos de software. Por fim, os diagramas probabilísticos de causa e efeito da DT propostos foram avaliados através de estudo de caso executado na academia. Resultados: Esta tese apresenta os resultados do estudo terciário executado e as análises realizadas sobre a primeira execução de InsighTD no Brasil e sua primeira replicação nos Estados Unidos. Ao total, 107 profissionais da indústria brasileira e 99 da indústria estadunidense de software responderam ao questionário. Os resultados indicam que há uma ampla familiaridade com o conceito de DT. Prazos, planejamento inadequado, falta de conhecimento e falta de um processo bem definido estão entre as 10 causas mais citadas e mais prováveis de levar à ocorrência da DT em projetos de software. Por outro lado, baixa qualidade, atraso na entrega, baixa manutenibilidade, retrabalho e perdas financeiras estão entre os 10 efeitos mais citados e de maior impacto em um projeto com a presença da DT. Diagramas probabilísticos de causa e efeito da DT para os diferentes tipos de DT foram elaborados. Os resultados também indicaram que o tipo de modelo de processo (ágil, híbrido ou tradicional) impacta nos efeitos da DT sentidos por equipes de desenvolvimento. Conclusão: Com InsighTD, pretende-se reduzir o problema de investigações isoladas em DT que ainda não são representativas e, assim, construir um conjunto aberto e generalizável de dados experimentais para a compreensão de problemas práticos e desafios da área. Parte do conhecimento organizado será estruturado em diagramas probabilísticos de causa e efeito que permitem apoiar atividades de gestão da DT.
-
Mostrar Abstract
-
Contexto: O conceito de dívida técnica (DT) contextualiza o problema das tarefas de desenvolvimento pendentes como um tipo de dívida que traz um benefício a curto prazo para o projeto, mas que poderão ter de ser pagas com juros mais tarde no processo de desenvolvimento. É comum que um projeto de software incorra em dívida durante o processo de desenvolvimento, no entanto, sua presença traz riscos para o projeto e dificulta sua gestão. Diferentes estratégias de gerenciamento da DT têm sido propostas, contudo, considerar ações que possam evitar sua inserção e monitorar seus efeitos ainda não é uma prática comum. Este é um ponto que merece ser melhor investigado por diferentes motivos: (i) conhecer as causas da DT pode auxiliar as equipes de desenvolvimento na definição de ações que possam ser tomadas para evitar sua ocorrência e (ii) conhecer os possíveis os efeitos da DT pode apoiar na realização de análises de impacto mais precisas e também na definição de ações corretivas para minimizar possíveis consequências negativas da dívida inserida. Dessa forma, enquanto o gerenciamento da DT é um tópico de pesquisa importante, também é necessário entender as causas que podem levar equipes de desenvolvimento a incorrer em diferentes tipos de dívida, bem como os efeitos de sua presença em projetos de software. Objetivo: O objetivo desta tese é investigar, através da replicação contínua e independente de surveys distribuídos globalmente, o estado da prática e tendências da indústria sobre DT incluindo causas que levam à sua ocorrência, efeitos de sua existência e como esses problemas se manifestam no processo de desenvolvimento de software. A partir da organização das causas e efeitos identificados, estruturar diagramas de causa e efeito probabilísticos que possam ser utilizados no apoio a atividades de gestão da DT. Método: As atividades realizadas nesta tese são fundamentadas no paradigma da engenharia de software experimental. Inicialmente, foi realizado um estudo terciário com o objetivo de investigar o estado atual da pesquisa sobre DT identificando quais tópicos de pesquisa têm sido considerados, organizando direcionamentos de pesquisa e conhecimentos práticos que já foram definidos, identificando os tipos conhecidos de DT, e mapeando quais atividades, estratégias e ferramentas têm sido propostas para apoiar o gerenciamento da DT. Em seguida, foi planejado InsighTD, uma família de surveys globalmente distribuída. InsighTD foi planejado de forma cooperativa com pesquisadores da área de DT de diferentes instituições ao redor do mundo. Trata-se do primeiro estudo em larga escala realizado na área. Ele busca organizar um conjunto aberto e generalizável de dados experimentais sobre causas e efeitos da DT em projetos de software. Por fim, os diagramas probabilísticos de causa e efeito da DT propostos foram avaliados através de estudo de caso executado na academia. Resultados: Esta tese apresenta os resultados do estudo terciário executado e as análises realizadas sobre a primeira execução de InsighTD no Brasil e sua primeira replicação nos Estados Unidos. Ao total, 107 profissionais da indústria brasileira e 99 da indústria estadunidense de software responderam ao questionário. Os resultados indicam que há uma ampla familiaridade com o conceito de DT. Prazos, planejamento inadequado, falta de conhecimento e falta de um processo bem definido estão entre as 10 causas mais citadas e mais prováveis de levar à ocorrência da DT em projetos de software. Por outro lado, baixa qualidade, atraso na entrega, baixa manutenibilidade, retrabalho e perdas financeiras estão entre os 10 efeitos mais citados e de maior impacto em um projeto com a presença da DT. Diagramas probabilísticos de causa e efeito da DT para os diferentes tipos de DT foram elaborados. Os resultados também indicaram que o tipo de modelo de processo (ágil, híbrido ou tradicional) impacta nos efeitos da DT sentidos por equipes de desenvolvimento. Conclusão: Com InsighTD, pretende-se reduzir o problema de investigações isoladas em DT que ainda não são representativas e, assim, construir um conjunto aberto e generalizável de dados experimentais para a compreensão de problemas práticos e desafios da área. Parte do conhecimento organizado será estruturado em diagramas probabilísticos de causa e efeito que permitem apoiar atividades de gestão da DT.
|
|
2
|
-
CLÍCIA DOS SANTOS PINTO
-
Explorando Técnicas de Computação Heterogênea para Suporte à Vinculação de Grandes Volumes de Dados
-
Orientador : MARCOS ENNES BARRETO
-
MEMBROS DA BANCA :
-
ESBEL TOMÁS VALERO ORELLANA
-
GEORGE MARCONI DE ARAUJO LIMA
-
MARCOS ENNES BARRETO
-
MAYCON LEONE MACIEL PEIXOTO
-
RODRIGO DA ROSA RIGHI
-
Data: 28/07/2020
-
-
Mostrar Resumo
-
Embora a computação heterogênea seja uma poderosa abordagem para a resolução de problemas computacionalmente intensivos, o seu desempenho e eficiência estão profundamente atrelados às propriedades da carga de trabalho a que são submetidos. O gerenciamento de grandes volumes de dados em ambientes heterogêneos implica na escolha de algoritmos dinâmicos de escalonamento e particionamento que minimizem o tempo de resposta e o volume de comunicação entre as unidades de processamento, ao mesmo tempo em que assegurem escalabilidade. Esta exigência tem se tornado mais urgente à medida que os dispositivos que compõem as plataformas heterogêneas se tornam mais numerosos e diversificados. Este trabalho apresenta uma metodologia para a exploração de técnicas de computação heterogênea em ambientes compostos por CPUs e GPUs para aplicações de vinculação probabilística de grandes volumes de dados, bem como propõe a integração deste método à ferramenta AtyImo, desenvolvida parcialmente durante esta pesquisa. A metodologia proposta permite uma distribuição de dados e tarefas adequada às aplicações que manipulam grandes conjuntos de dados, mais especificamente aplicações de vinculação de registros (data linkage). Como prova de conceito, a solução implementada foi utilizada para integrar dados socioeconômicos em larga escala (100 milhões de registros) com dados de saúde pública armazenados em diferentes fontes governamentais brasileiras. Através da metodologia proposta foi possível vincular 1x10ˆ12 pares de registros em um tempo total próximo a uma hora, o que pode ser considerado um resultado promissor em relação às ferramentas de vinculação de dados existentes. Estes resultados demonstram que a solução desenvolvida possui bom desempenho e se apresenta como alternativa viável para resolver problemas comuns de escalabilidade relacionados à vinculação de registros. A possibilidade de vinculação probabilística de grandes volumes de dados sobre arquiteturas híbridas, explorando a natureza heterogênea dos recursos disponíveis e com tempo de execução extremamente eficiente, constituem as principais contribuições deste trabalho.
-
Mostrar Abstract
-
Although heterogeneous computing is a powerful approach to solve computationally intensive problems, its performance and efficiency highly depend on the workload to which they are exposed. Managing large volumes of data in heterogeneous environments involves choosing efficient scheduling and partitioning algorithms that minimize the response time and the volume of communication among processing units while ensuring scalability. This requirement has become more urgent as the devices composing such heterogeneous platforms become more numerous and diversified. This work presents a methodology for using heterogeneous computing techniques over hybrid CPU+GPU environments to allow for data and task distribution within big data linkage applications. This methodology was integrated into the AtyImo tool, which was partially developed during this research to provide probabilistic record linkage. As proof of concept, the implemented solution was used to integrate a large-scale (100 million records) socioeconomic database with public health data from disparate governmental sources. The proposed methodology is able to perform 1x10ˆ12 pairwise comparison in around one hour, which is a quite prominent result amongst existing data linkage tools. Observed results evidence that the developed solution achieves good performance and can be an alternative to solve scalability issues in data linkage contexts. The possibility of probabilistically linking massive datasets using hybrid architectures and exploring the heterogeneous nature of available resources with an efficient execution time are the main contributions of this work.
|
|
3
|
-
MICHELLE LARISSA LUCIANO CARVALHO
-
ToffA-DAS: An Approach to conduct Trade-off Analysis for Dynamically Adaptable Software
-
Orientador : EDUARDO SANTANA DE ALMEIDA
-
MEMBROS DA BANCA :
-
EDUARDO SANTANA DE ALMEIDA
-
RAFAEL AUGUSTO DE MELO
-
RITA SUZANA PITANGUEIRA MACIEL
-
CECILIA MARY FISCHER RUBIRA
-
PAULO CESAR MASIERO
-
ROSSANA MARIA DE CASTRO ANDRADE
-
Data: 24/09/2020
-
-
Mostrar Resumo
-
The Dynamic Software Product Lines (DSPL) engineering processes aim to design Dynamically Adaptable Software (DAS) by increasing the flexibility for the generation of a huge number of configurations. It results in a software configuration space explosion making the analysis more difficult and complicating the developer’s work. In this sense, software engineers need to find a combination of systems features that can simultaneously satisfy constraints specified in feature and context models, Non-functional Requirements (NFRs), and stakeholder’s preferences. It means that they have to measure many configurations until finding the optimal ones, characterizing the product configuration process in a complex optimization problem. Most of the existing studies do not focus on the interactions between contextual information and NFRs when dealing with feature selection to meet the desired quality objectives in DAS. In addition, such studies do not use any planning strategy to support the configuration selection process. Based on these research gaps, we propose an approach that (i) manages the system’s features and contexts; (ii) facilitates the understanding of how DSPL applications can behave from a certain context change, and (iii) enables to conduct trade-off analysis in order to find valid and optimal configurations, which meet the constraints and the interactions between contextual information and NFRs. Aiming to support the context variability modeling of DAS, we proposed the Extended Context-aware Feature Modeling (eCFM) technique to deal with constraints among contexts. Next, we defined the DAS Trade-off Analysis (ToffA-DAS) approach to deal with the configuration selection process embracing interactions between contextual information and NFRs. We also proposed a strategy to analyze context changes in order to define adaptation models for each prioritization of the system’s features, contexts, and NFRs. Finally, we evolved our approach and named it as DAS Trade-off Analysis PLUS (ToffA-DAS+). ToffA-DAS is based on the integer linear programming technique, whereas ToffA-DAS+ uses a genetic algorithm. We performed a set of empirical studies in order to evaluate the proposal for this thesis. First, we conducted a survey to evaluate eCFM from the viewpoint of expressiveness to model the context constraints and easiness of use. Indeed, the analysis was focused on the comprehensibility of contextual variability modeling. Next, we performed a study based on simulations to gather initial evidence about the feasibility of using ToffA-DAS. It is based on how to conduct trade-off analysis and define adaptation models from optimal configurations found in the analysis. We also conducted an exploratory study to evaluate how the configurations obtained by the execution of ToffA-DAS affect the overall satisfaction level of NFRs. Finally, we evaluated the evolution of our approach in comparison with the previous release. As a result of the first study, the eCFM was considered a technique with a great expressiveness to represent adaptation rules among contexts and system features, besides the easiness of use and organization with the grouping of contexts. Therefore, we argue that the software engineers may take into account the use of eCFM technique to model DAS. In the second study, ToffA-DAS presented consistent results in accordance with the real-world scenarios and satisfied the estimated utility values and model constraints. The third study showed that the set of configurations generated by ToffA-DAS execution provide high satisfaction levels of NFRs. In the last study, we collected evidence that ToffA-DAS+ suggests more solutions from then possible valid configurations of the model. Based on the aforementioned studies, we evidenced that our approach can be handy when software engineers need assistance in the understanding of how to design a variety of configurable options for DSPL applications. It is based on the principle that each configuration option must be optimal to meet certain contextual changes without losing service quality. With the usage of our approach, software engineers can exhaustively analyze and simulate a solution before implementing it.
-
Mostrar Abstract
-
The Dynamic Software Product Lines (DSPL) engineering processes aim to design Dynamically Adaptable Software (DAS) by increasing the flexibility for the generation of a huge number of configurations. It results in a software configuration space explosion making the analysis more difficult and complicating the developer’s work. In this sense, software engineers need to find a combination of systems features that can simultaneously satisfy constraints specified in feature and context models, Non-functional Requirements (NFRs), and stakeholder’s preferences. It means that they have to measure many configurations until finding the optimal ones, characterizing the product configuration process in a complex optimization problem. Most of the existing studies do not focus on the interactions between contextual information and NFRs when dealing with feature selection to meet the desired quality objectives in DAS. In addition, such studies do not use any planning strategy to support the configuration selection process. Based on these research gaps, we propose an approach that (i) manages the system’s features and contexts; (ii) facilitates the understanding of how DSPL applications can behave from a certain context change, and (iii) enables to conduct trade-off analysis in order to find valid and optimal configurations, which meet the constraints and the interactions between contextual information and NFRs. Aiming to support the context variability modeling of DAS, we proposed the Extended Context-aware Feature Modeling (eCFM) technique to deal with constraints among contexts. Next, we defined the DAS Trade-off Analysis (ToffA-DAS) approach to deal with the configuration selection process embracing interactions between contextual information and NFRs. We also proposed a strategy to analyze context changes in order to define adaptation models for each prioritization of the system’s features, contexts, and NFRs. Finally, we evolved our approach and named it as DAS Trade-off Analysis PLUS (ToffA-DAS+). ToffA-DAS is based on the integer linear programming technique, whereas ToffA-DAS+ uses a genetic algorithm. We performed a set of empirical studies in order to evaluate the proposal for this thesis. First, we conducted a survey to evaluate eCFM from the viewpoint of expressiveness to model the context constraints and easiness of use. Indeed, the analysis was focused on the comprehensibility of contextual variability modeling. Next, we performed a study based on simulations to gather initial evidence about the feasibility of using ToffA-DAS. It is based on how to conduct trade-off analysis and define adaptation models from optimal configurations found in the analysis. We also conducted an exploratory study to evaluate how the configurations obtained by the execution of ToffA-DAS affect the overall satisfaction level of NFRs. Finally, we evaluated the evolution of our approach in comparison with the previous release. As a result of the first study, the eCFM was considered a technique with a great expressiveness to represent adaptation rules among contexts and system features, besides the easiness of use and organization with the grouping of contexts. Therefore, we argue that the software engineers may take into account the use of eCFM technique to model DAS. In the second study, ToffA-DAS presented consistent results in accordance with the real-world scenarios and satisfied the estimated utility values and model constraints. The third study showed that the set of configurations generated by ToffA-DAS execution provide high satisfaction levels of NFRs. In the last study, we collected evidence that ToffA-DAS+ suggests more solutions from then possible valid configurations of the model. Based on the aforementioned studies, we evidenced that our approach can be handy when software engineers need assistance in the understanding of how to design a variety of configurable options for DSPL applications. It is based on the principle that each configuration option must be optimal to meet certain contextual changes without losing service quality. With the usage of our approach, software engineers can exhaustively analyze and simulate a solution before implementing it.
|
|
4
|
-
LUIS PAULO DA SILVA CARVALHO
-
Identificando e analisando interesses de software a partir de metadados de componentes de terceiros
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
CLAUDIO NOGUEIRA SANT ANNA
-
LAIS DO NASCIMENTO SALVADOR
-
MANOEL GOMES DE MENDONCA NETO
-
PAULO CAETANO DA SILVA
-
SÉRGIO CASTELO BRANCO SOARES
-
Data: 16/11/2020
-
-
Mostrar Resumo
-
Modularidade é um conceito chave no desenvolvimento de sistemas de software. Sistemas bem modularizados são mais fáceis de manter e evoluir. No entanto, não é fácil atingir uma boa modularidade em sistemas de software. Sistemas devem ser modularizados sob diversas perspectivas e, frequentemente, existem interesses importantes que ficam espalhados ou entrelaçados entre vários módulos, os chamados interesses transversais. Logging, Acesso a Banco de Dados e Automação de Testes são exemplos de interesses transversais. Apesar de serem importantes, eles geralmente não são centrais às regras de negócio e, por esta razão, não são foco de modularização. A análise de interesses transversais tende a se tornar trabalhosa e complexa quando realizada em larga escala. Os estudos sobre interesses frequentemente recorrem à identificação manual dos mesmos. Infelizmente, a identificação manual tende a ser subjetiva e imprecisa, além de exigir muito esforço. Documentos de Arquitetura de Software (SADs) podem ser usados como recursos auxiliares na análise de interesses, mas os SADs não são comuns. E, quando disponíveis, não há garantia de que contenham informações relevantes sobre os interesses sendo investigados. Como consequência, idealmente, os desenvolvedores precisam confiar na automação para identificar e processar informações sobre interesses transversais a partir de código fonte. Abordagens automáticas são essenciais quando a base de código é extensa e necessita-se analisar como estes interesses evoluiram ao longo do histórico do sistema. Nesse contexto, este trabalho utiliza a injeção de componentes em projetos de software para definir um método de localização de informações sobre interesses transversais em projetos de software. Em sistemas modernos, os desenvolvedores implementam módulos para lidar com as regras de negócios centrais, mas geralmente injetam componentes de terceiros na base de código para materializar interesses relacionados aos aspectos secundários do sistema. Por exemplo, os anteriormente citados, Logging, Acesso ao Banco de Dados e Automação de Testes são interesses que geralmente são implementadas com a ajuda de componentes externos. Por serem estes os tipos de interesse que mais se dispersam e se entrelaçaam nos módulos dos sistemas, vimos a oportunidade de propor um método para apoiar a sua identificação e análise através dos dados e meta-dados de sua injeção no sistema. Nosso método, primeiramente, identifica os interesses a partir dos metadados que os desenvolvedores usam para injetar componentes de terceiros em seus sistemas. Em seguida, ele avalia como estes interesses se espalham e evoluem ao longo do tempo na base de código. Desenvolvemos uma ferramenta chamada Architectural Knowledge Suite (AKS) para automatizar o metodo. Usamos essa ferramenta para conduzir um estudo de pesquisa-ação com a ajuda de especialistas em desenvolvimento de software para avaliar a confiabilidade de nosso método e refiná-lo. Também executamos três outros estudos processando o código-fonte de sistemas de informação reais para caracterizar e entender como os desenvolvedores implementam interesses no mundo real. Entre os resultados obtidos, destacamos que o método correspondeu moderadamente às expectativas dos especialistas. Notamos que é possível otimizar a captura de interesses a partir do código fonte de sistemas, se eles forem agrupados considerando similaridades entre seus contextos de uso. Percebemos que, durante a evolução dos sistemas, artefatos de código tendem a não se dedicar à implementação de interesses específicos. Identificamos oportunidades de adaptação do método para tornar possível sua aplicação sob diferentes cenários de utilização de tecnologias de desenvolvimento.
-
Mostrar Abstract
-
Modularity is a key concept in software development. Well-modularized systems are easier to maintain and evolve. However, it is difficult to achieve good modularity in software systems, because developers must keep systems modular with respect to several perspectives. Frequently, this involves dealing with concerns that scatter and tangle through several modules, the crosscutting concerns as they are called. Logging, Database Access, and Testing Automation are examples of crosscutting concerns. They are important, but many of them are not central to the systems' business rules. As a consequence, often, they are not subject to modularization. Additionally, the analysis of crosscutting concerns tends to be effort-intensive and rapidly grows in complexity in large systems.
Studies on concerns often resort to manual identification of interests. Unfortunately, manual identification tends to be subjective, imprecise, and effort-intensive. Software Architecture Documents (SADs) can be used as auxiliary resources to identify and analyze concerns, but SADs are not common assets. And, when they are available, there is no guarantee that they contain relevant information about concerns of particular interest. As consequence, ideally, developers should rely on automation to identify and process information about concerns over the source code. Automatic approaches are a must have when the codebase is extensive and one wants to analyze how concerns evolve throughout the system's history. In this context, this work takes advantage of the injection of components in software projects to define a method for locating information about crosscutting concerns in software projects.
On modern systems, developers implement modules to address central business rules, but they usually inject third-party components in the codebase to materialize concerns related to secondary aspects of the system. For instance, the previously mentioned, Logging, Database Access, and Tests Automation are concerns that are often implemented with the help of external components. As these are the type of concerns that most scatter and interrelate through systems' modules, we saw an opportunity to propose a method to identify and analyzed them using injection data and metadata.
Our method first identifies concerns from the metadata that developers use to inject third-party components in their systems. Then, it evaluates how those concerns spreads, and evolve through time, over the codebase. We developed a tool named Architectural Knowledge Suite (AKS) to automate the method. We used this tool to conduct an action research study with the help of software development specialists to evaluate the reliability of our method and to refine it. We also ran three other studies using our method to process real information systems' source code, characterizing and analyzing how developers implement concerns in the real world.
Among our findings, we highlight that our method met the expectations of the specialists to a moderate degree. We perceived that grouping software projects according to their contexts of use can optimize the identification and analyses of concerns. We noticed that developers tend to mix concerns by joining references to different components through the lines of source code artifacts, but we spotted some exceptional cases. We also saw opportunities to adapt our method to expand the identification of concerns toward varied contexts of adopted software development technologies.
|
|
5
|
-
ERASMO LEITE MONTEIRO
-
UMA PROPOSTA DE MODELO DE MATURIDADE PARA A
INTEROPERABILIDADE EM SISTEMAS: DO
SINTATICO AO ORGANIZACIONAL
-
Orientador : RITA SUZANA PITANGUEIRA MACIEL
-
MEMBROS DA BANCA :
-
DANIELA BARREIRO CLARO
-
IVAN DO CARMO MACHADO
-
JOSÉ MARIA NAZAR DAVID
-
PAULO CESAR MASIERO
-
RITA SUZANA PITANGUEIRA MACIEL
-
Data: 04/12/2020
-
-
Mostrar Resumo
-
Interoperabilidade ´e a capacidade de sistemas heterogˆeneos de se comunicarem de forma transparente e pode ser alcan¸cada por meio de n´ıveis, tais como: (i) sint´atico, (ii) semˆantico, (iii) pragm´atico e (iv) organizacional. No entanto, h´a v´arios desafios para os sistemas fornecerem interoperabilidade, como quais requisitos s˜ao necess´arios para atingir a interoperabilidade desejada. V´arias propostas tˆem sido feitas para resolver aspectos de um determinado n´ıvel especifico de interoperabilidade ou para um determinado dom´ınio. Contudo, a interoperabilidade de um sistema ´e um aspecto que pode evoluir ao longo do seu ciclo de vida, sendo ent˜ao necess´ario apoio para auxiliar este processo. Os modelos de maturidade podem ajudar neste cen´ario pois tˆem sido usados em v´arios dom´ınios para avaliar a maturidade do sistema de acordo com aspectos espec´ıficos (interoperabilidade, por exemplo).Este trabalho apresenta o AMortisse (mAturity Model fOR inTeroperability In Software SystEms), um modelo de maturidade para avaliar a interoperabilidade em sistemas de software que se utiliza de uma metodologia previamente especificada para sua defini¸c˜ao. Esta metodologia visa auxiliar os desenvolvedores de modelos de maturidade, apresentando um ciclo de vida de desenvolvimento aplic´avel a diferentes dom´ınios. Nosso objetivo foi sistematizar as tarefas envolvidas no desenvolvimento destes modelos, como os requisitos de dom´ınio, relacionados em n´ıveis, dimens˜oes e o caminho para a maturidade, alavancando assim a qualidade de um modelo de maturidade produzido. Apesar de sua popularidade, os modelos de maturidade tˆem sido criticados devido `a falta de valida¸c˜ao emp´ırica e m´etodos eficazes para auxiliar em sua defini¸c˜ao. Uma valida¸c˜ao foi realizada por meio da aplica¸c˜ao em um sistema de uma organiza¸c˜ao para atestar a capacidade do Amortisse em indicar a maturidade do sistema.O Amortisse foi capaz de mensurar o n´ıvel de interoperabilidade dos sistemas e indicar quais requisitos devem ser alcan¸cados a fim de evoluir entre os n´ıveis de maturidade. Os resultados desta investiga¸c˜ao mostram que o Modelo de Maturidade Amortisse e a metodologia s˜ao vi´aveis. Esperamos que a metodologia apresentada forne¸ca clareza na obten¸c˜ao deste modelo e possa auxiliar no desenvolvimento de novos modelos de maturidade em diferentes dom´ınios. Esperamos tamb´em, que o Amortisse seja capaz de indicar o n´ıvel de interoperabilidade e indicar os requisitos ausentes.
-
Mostrar Abstract
-
Interoperability is the ability of heterogeneous systems to communicate transparently and
can be achieved through levels, such as: (i) syntactic, (ii) semantic, (iii) pragmatic, and
(iv) organizational. However, there are several challenges for systems to provide interoperability
such as what requirements are necessary to achieve the desire interoperability.
Several proposals have been made to discuss aspects of a specific level of interoperability
or for a given domain. However, the interoperability of a system is an aspect that can
evolve throughout its life cycle, so support is needed to aid this process. Maturity models
can help in this case as they have been used in several domains to assess the maturity of
the system according to specific aspects (e.g, interoperability). This work presents AMortisse
(mAturity Model fOR inTeroperability In Software SystEms), a maturity model to
check interoperability in software systems towards the specification of a methodology for
maturity model definition. This methodology aims to aid the Maturity Model (MM) developers
by presenting a MM development life-cycle applicable for different domains. We aim
to systematize tasks involved in MM development, such as MM domain requirements,
organization of related concepts into levels, dimensions, and the path to maturity, therefore
leveraging the produced MM quality. Despite their popularity, maturity models
have been criticized due to lack of empirical validation and effective methods to aid in
their definition. A validation was performed by applying it to an organization's system to
attest Amortisse's ability to indicate the system's maturity. As a result, Amortisse was
able to measure the level of interoperability of the system and show which requirements
must be met to evolve between levels of maturity. The results of this investigation show
that the Amortisse and the methodology are feasible. We hope the presented methodology
provides clarity while obtaining this model and may help the development of new
maturity models in different domains. We hope that Amortisse will be able to show
systems interoperability level and indicate missing requirements.
|
|
6
|
-
ELIVALDO LOZER FRACALOSSI RIBEIRO
-
Definindo e Provendo a Interoperabilidade Pragmática - O caso do Middleware MIDAS
-
Orientador : DANIELA BARREIRO CLARO
-
MEMBROS DA BANCA :
-
DANIELA BARREIRO CLARO
-
ELISA YUMI NAKAGAWA
-
FRANK AUGUSTO SIQUEIRA
-
IVAN DO CARMO MACHADO
-
LAIS DO NASCIMENTO SALVADOR
-
Data: 10/12/2020
-
-
Mostrar Resumo
-
Sistemas de informação modernos estão se tornando cada vez mais complexos. Essa complexidade está relacionada com a necessidade de combinar softwares heterogêneos. Uma vez que um sistema pode conter diversos softwares, e cada software pode ser desenvolvido de maneira independente, não é uma tarefa trivial prover uma comunicação transparente entre sistemas distintos. A falta de padronização ocasiona um problema conhecido como lock-in. Situações de lock-in ocorrem quando usuários se tornam dependentes de um sistema devido à falta de interoperabilidade entre os provedores distintos. A interoperabilidade é a capacidade de um sistema se comunicar de forma transparente com outro sistema e tem sido classificada em três níveis: sintático, semântico e pragmático. O nível sintático permite que informações sejam trocadas entre sistemas a partir de uma codificação comum. A interoperabilidade semântica está relacionada com a capacidade dos sistemas compartilharem o mesmo significado dos dados. Por fim, a pragmática tem a intenção da mensagem que deve ser entendida pelos sistemas, de modo que o resultado produzido esteja dentro das expectativas comuns. Apesar dos diversos níveis, as soluções para interoperabilidade entre sistemas focam apenas em uma camada específica. A ausência de um modelo para a interoperabilidade pragmática dificulta a comunicação transparente entre sistemas, pois as informações necessárias para interoperar não são explícitas. Além disso, o nível pragmático requer o nível semântico que, por sua vez, necessita do nível sintático. Além da necessidade de interoperar sistemas heterogêneos, as tecnologias atuais apresenta os desafios de armazenar, processar e disponibilizar os dados gerados por essa comunicação. A computação em nuvem tem o objetivo de atender alguns desses requisitos. A computação em nuvem é um paradigma que permite acesso a uma rede ubíqua de aplicações, plataformas e hardware como serviços. Esses serviços são organizados em níveis e acessados sob demanda com uma política de pagamento baseado no uso. Software as a Service (SaaS), Platform as a Service (PaaS), Infrastructure as a Service (IaaS) e Data as a Service (DaaS) são exemplos de serviços em nuvem. Assim, essa tese apresenta um framework conceitual para interoperabilidade pragmática (CAPITAL) que considera os níveis sintático e semântico. Com o intuito de validar o framework CAPITAL, o modelo sintático fornece uma descrição detalhada da interoperabilidade sintática do middleware MIDAS (Middleware for DaaS and SaaS). O modelo semântico auxilia a interoperabilidade semântica do MIDAS e formaliza a comunicação entre SaaS e DaaS. O framework CAPITAL descreve o modelo para interoperabilidade pragmática. Três estudos foram realizados para avaliar nosso framework CAPITAL. No primeiro estudo, o framework CAPITAL foi simulado em quatro cenários distintos com o objetivo de fornecer um guia de modelagem e codificação. O segundo estudo é um experimento controlado que investiga se nosso framework auxilia a compreensão do conceito e interpretação de cenários com interoperabilidade pragmática. No terceiro estudo, nosso framework foi incorporado ao MIDAS como prova de conceito com o objetivo de discutir e apresentar uma versão do middleware para interoperabilidade pragmática. Nossos estudos sugerem que o CAPITAL framework influencia positivamente no entendimento, modelagem e padronização de cenários com interoperabilidade pragmática. Os resultados alcançados fornecem evidências que os modelos para interoperabilidade sintática, semântica e pragmática descrevem os elementos necessários para prover uma comunicação transparente.
-
Mostrar Abstract
-
Modern information systems are becoming increasingly complex. This complexity is related to the need to combine heterogeneous software. Since a system may contain many software programs, and each software may be developed independently, providing transparent communication between heterogeneous systems is not a trivial task. The lack of standardization causes a problem known as lock-in. Lock-in situations occur when users are dependent on a system due to the lack of interoperability among different providers. Interoperability is heterogeneous systems’ ability to communicate transparently, and it is classified into three levels: syntactic, semantic, and pragmatic. The syntactic level enables systems to exchange information based on standard coding. Semantic interoperability is concerned with ensuring that systems to share the same data meaning. Finally, pragmatic interoperability ensures that systems understand the message intention so that the result is within common expectations. Despite the various levels, solutions for interoperability among systems focus on a specific layer. The absence of a pragmatic interoperability model hinders transparent communication among systems because the mandatory information to interoperate is not explicit. The pragmatic level requires the semantic level that, in turn, requires the syntactic level. In addition to the need to interoperate heterogeneous systems, current technologies evidence the challenges of storing, processing, and making available the data generated by this communication. Cloud Computing aims to fulfill some of these requirements. Cloud Computing is a new paradigm that enables access to a ubiquitous network of applications, platforms, and hardware as services. These services are organized in levels, and they are accessed with a pay-per-use policy. Software as a Service (SaaS), Platform as a Service (PaaS), Infrastructure as a Service (IaaS), and Data as a Service (DaaS) are examples of cloud services. Therefore, this work presents a Conceptual frAmework for Pragmatic InTeroperAbiLity (CAPITAL). Although focused on pragmatic interoperability, the CAPITAL framework considers the syntactic and semantic levels. We performed experiments on each model to validate our CAPITAL framework. The syntactic model provides a detailed description of the syntactic interoperability of MIDAS (Middleware for DaaS and SaaS). The semantic model provides an ontology to formalize the communication between SaaS and DaaS. This ontology assists the semantic interoperability of MIDAS. The CAPITAL framework describes the model for pragmatic interoperability. We perform three studies to evaluate our CAPITAL framework. In the first study, we simulated the CAPITAL framework in four distinct scenarios that aim to provide a modeling and coding guide. The second study is a controlled experiment that investigates whether our framework eases to understand the concept and interpret scenarios with pragmatic interoperability. In the third study, we incorporated our framework into MIDAS as a proof of concept to discuss and present a middleware version for pragmatic interoperability. The three studies suggest that the CAPITAL framework positively influences the understanding, modeling, and standardization of scenarios with pragmatic interoperability. Our findings evidence that models for syntactic, semantic, and pragmatic interoperability describe mandatory elements to provide transparent communication.
|
|
7
|
-
LEANDRO JOSE SILVA ANDRADE
-
Data Interplay: um modelo para melhorar a eficiência do desempenho nos dados da Internet das Coisas
-
Orientador : CASSIO VINICIUS SERAFIM PRAZERES
-
MEMBROS DA BANCA :
-
CASSIO VINICIUS SERAFIM PRAZERES
-
DANILO BARBOSA COIMBRA
-
FLÁVIA COIMBRA DELICATO
-
MAYCON LEONE MACIEL PEIXOTO
-
PAULO DE FIGUEIREDO PIRES
-
Data: 11/12/2020
-
-
Mostrar Resumo
-
A Internet das Coisas (Internet of Things - IoT) tem desempenhado um papel importante no cenário tecnológico devido ao seu alto potencial e impacto nos diversos segmentos da sociedade. As estimativas sugerem uma tendência de aumento no número de dispositivos IoT nos próximos anos. Como consequência, o volume de dados produzidos pelos dispositivos IoT seguirá essa perspectiva de crescimento, e haverá uma demanda por sistemas que sejam capazes de processar, armazenar e promover o acesso a grandes quantidades de dados. Em um sistema IoT típico, os dados coletados dos sensores são armazenados e processados em servidores em nuvem; no entanto, algumas soluções IoT usam dispositivos de borda para executar ações, como processamento, armazenamento e acesso, usando apenas infraestrutura local para requisitos de baixa latência. A Fog Computing tem sido usada para melhorar as soluções de IoT com o objetivo de transferir parte da complexidade da nuvem para a borda da rede, ou seja, mais perto de dispositivos, aplicativos e/ou usuários, funcionando como uma espécie de ``nuvem local e privada''. A cooperação de dispositivos e aplicativos entre borda e nuvem criam a necessidade de uma interação para permitir o fluxo de dados entre as camadas dos sistemas IoT implantados na borda e na nuvem. Assim, é necessário suportar o ciclo de vida dos dados desde que coleta, análise e uso. A eficiência de desempenho é um fator de qualidade da engenharia de sistemas e software, que mede ``o desempenho em rela\c{c}ão à quantidade de recursos usados nas condições estabelecidas''. Em especial, em sistemas IoT,que envolvem um grande volume de dados, a eficiência de desempenho em dados é um requisito relevante. Esta tese propõe um modelo de interação de dados da IoT, o Data Interplay model, para fornecer a definição e implantação do ciclo de vida dos dados da IoT, nas etapas de coleta, análise e uso de dados. Esta proposta de interação de dados visa melhorar a eficiência de desempenho nas operações no que diz respeito ao ciclo de vida de dados IoT: coleta, análise e acesso entre dispositivos e aplicativos em infraestruturas de borda e nuvem.
-
Mostrar Abstract
-
The Internet of Things (IoT) has been playing an important role in the technology scenario due to its high potential and impact on different society segments. Estimates suggest a trend for an increase in the number of IoT devices connected to the Internet for the next few years. As a consequence, the volume of data produced by IoT devices will follow this growth perspective, and there will be a demand for systems that are able to process, store and promote access to large amounts of data. In the typical IoT system, the data collected from sensors is stored and processed in cloud servers; however, some IoT solutions use edge devices to perform actions, such as processing, storage and access, using only local infrastructure for low latency requirements. Fog Computing has been used to improve IoT solutions with the aim to transfer some of the complexity from the cloud to the edge of the network, i.e., closer to devices, applications and/or users, working as a kind of ``local and private cloud''. The cooperation of devices and applications between edge and cloud creates a need for an interplay to allow data flow among the layers of IoT systems deployed in the edge and the cloud. Thus, it is necessary to support the data life cycle since its collection, analysis and use. Performance efficiency is a quality factor of systems and software engineering, which measures ``performance relative to the amount of resources used under stated conditions''. In special, in IoT systems which involve a large volume of data, the performance efficiency of data interplay is a relevant requirement. This thesis proposes a data interplay model of Internet of Things to provide the definition and deployment of the IoT data life cycle, in collection, analytics and data use stages. This data interplay proposal aims to improve performance efficiency in the operations regarding the IoT data life cycle: collection, analytics and use among devices and applications in edge and cloud infrastructures.
|
|
8
|
-
FLAVIO DUSSE
-
Um modelo de referência computacional para apoiar a tomada de decisões para gerenciamento de emergência com base em analítica visual
-
Orientador : MANOEL GOMES DE MENDONCA NETO
-
MEMBROS DA BANCA :
-
JOSÉ CARLOS MALDONADO
-
LAIS DO NASCIMENTO SALVADOR
-
MANOEL GOMES DE MENDONCA NETO
-
MARCOS ROBERTO DA SILVA BORGES
-
VANINHA VIEIRA DOS SANTOS
-
Data: 15/12/2020
-
-
Mostrar Resumo
-
Contexto: Emergências vêm aumentando nos últimos anos. Nenhuma emergência é igual à anterior e à próxima. Gestão de Emergência (GE) refere-se à capacidade de lidar com tarefas relacionadas a emergência em diferentes fases e iterações. Quem trabalha em uma emergência geralmente está sob estresse para tomar decisões certas no momento oportuno. Precisa processar uma quantidade muito grande de dados e assimilar as informações recebidas de forma intuitiva e visual. Foi identificado que sobrecarga de informação, assim como a negligência de tipos de informação são problemas na GE. Visual Analytics (VA) é potencialmente útil para analisar os dados produzidos. Contudo, seu potencial não está sendo aproveitado. Objetivo: Foram investigados quais temas são poucos explorados para atacar esses problemas. Essa tese de doutorado propõe um novo modelo de referência computacional, baseado em VA, para suportar tomadas de decisões na GE. O objetivo do modelo é dar suporte aos projetistas de visualizações na criação de interfaces de VA que por sua vez darão suporte aos gestores de emergência em tomar decisões rápidas e assertivas por meio dessas interfaces. Métodos: Foi conduzido um longo estudo in-vivo com vários métodos. Primeiramente, foi realizado um mapeamento sistemático para conhecer as ferramentas de visualização de informação disponíveis e suas aplicações em GE. Para complementar, foram estudados documentos oficiais e foram realizados estudos etnográficos, questionários e grupos focais durante grandes eventos sediados no Brasil nos últimos anos (e.g., Copa do Mundo de Futebol e Jogos Olímpicos). Em seguida, foram comparadas ferramentas atuais que visualizam informações da emergência e foram entrevistados profissionais experientes em GE. Por fim, esses dados de pesquisa foram cruzados e analisados qualitativamente. Foi possível identificar as relações entre necessidades visuais e fatores-chave de GE. Com essas descobertas alinhadas com os conceitos de VA foi desenvolvido um modelo para aprimorar visualizações durante a GE. Resultados: O modelo foi avaliado em um estudo exploratório verificando as ferramentas disponíveis na atualidade contra nossa proposta em um Centro de Comando e Controle do Brasil. As visualizações desenvolvidas com o suporte do modelo obtiveram 73,4% das pontuações maiores que as visualizações desenvolvidas sem o modelo, 25% foram iguais e apenas 1,6% menor. A principal contribuição deste trabalho é o modelo para conceber e avaliar a eficácia de visualizações em cenários reais de GE. O resultado da disseminação deste modelo permitirá a evolução da pesquisa sobre a utilização de VA e melhoria das tarefas em GE. Há também impactos econômicos e sociais claros. Espera-se que Centros incorporem em suas rotinas o modelo; se auxiliar à tomada de decisão rápida e assertiva, a qualidade do serviço prestado à sociedade deve aumentar. A principal contribuição do trabalho é, portanto, a redução das perdas financeiras e, sobretudo, das perdas de vidas humanas em emergências.
-
Mostrar Abstract
-
Background: The number of emergencies around the world has been increasing in recent years. No emergency is the same as the previous and the next. Emergency Management (EM) refers to the activity of dealing with emergency tasks in different phases and iterations. People working in an emergency are generally under stress to make the right decision at the right time. They have to process large amounts of data and to assimilate the received information in an intuitive and visual way. We found that information overload as well as non-dedicated information are problems in Emergency Management (EM). Visual Analytics (VA) is potentially useful to analyze and understand the huge amount of data produced in an emergency. However, we found that the full potential of VA is not being exploited in EM. Objective: We seek to develop a conceptual model for using VA in EM. This model incorporates themes that are currently under-exploited, to better support decision-making in EM. The model aims to help visualization designers to create effective VA interfaces that in turn help emergency managers to make quick and assertive decisions with these interfaces. Methods: We performed a long-term multi-method study. First, we carried out a systematic mapping study to analyze the available visualization tools and their applications in EM. To complement this information, we carried out appraisal of official documents, ethnographic studies, questionnaires and focus groups during large events held in Brazil (e.g., Soccer World Cup and Olympics Games). Then, we analyzed actual tools that produces emergency information visualization and we interviewed professionals experienced in EM. We crosschecked and analyzed this data qualitatively using the coding technique. We identified the relationships between the visual needs and other major themes of influence for EM. We used our findings aligned with VA concepts to develop our model for EM visualization. Results: We evaluated our proposal using an exploratory study in a Brazilian Command and Control Center, comparing the available tools against our model. The visualizations that were designed with the support of the model had 73.4\% higher scores, 25\% equal scores and only 1.6\% lower scores than the ones designed without it. We believe that the main contribution of this work is to introduce the model to conceive and evaluate the effectiveness of VA in EM scenarios. The results of the dissemination of this model will foment the research on the use of VA in EM. We hope that C2 Centers incorporate the use of the proposed model in their routine; if it helps in timely and assertive decision-making, the quality of the service provided to society will improve. The ultimate contribution of our work is the potential reduction of financial and, above all, human losses in emergencies.
|
|
9
|
-
KALYF ABDALLA BUZAR LIMA
-
"From modeling perceptions to evaluating video summarizers"
-
Orientador : LUCIANO REBOUCAS DE OLIVEIRA
-
MEMBROS DA BANCA :
-
GECYNALDA SOARES DA SILVA GOMES
-
JOAO PAULO PAPA
-
LUCIANO REBOUCAS DE OLIVEIRA
-
PAULO JORGE CANAS RODRIGUES
-
RICARDO DA SILVA TORRES
-
Data: 18/12/2020
-
-
Mostrar Resumo
-
Horas de vídeo são enviadas para plataformas de streaming a cada minuto, com sistemas de recomendação sugerindo vídeos populares e relevantes que podem ajudar os usuários a economizar tempo no processo de pesquisa. Os resumos de vídeo foram desenvolvidos para detectar as partes mais relevantes do vídeo, condensando-as automaticamente em um vídeo mais curto. Atualmente, a avaliação desse tipo de método é desafiadora, pois as métricas não avaliam critérios subjetivos das anotações do usuário, como a concisão. Para abordar o critério de concisão, propomos uma nova métrica para avaliar sumarizadores de vídeo em taxas de compressão múltiplas. Nossa métrica, chamada de nível de compressão de anotação do usuário (CLUSA), avalia o desempenho dos resumidores de vídeo combinando as pontuações de relevância previstas diretamente. Para isso, CLUSA gera resumos de vídeo descartando gradualmente segmentos de vídeo das pontuações de relevância anotadas pelos usuários. Depois de agrupar os resumos de vídeo gerados pelas taxas de compressão, CLUSA os combina com as pontuações de relevância previstas. Para preservar informações relevantes em resumos de vídeo concisos, CLUSA pesa o desempenho dos resumidores de vídeo em cada faixa de compressão para calcular uma pontuação geral de desempenho. Como CLUSA pesa todas as faixas de compressão, mesmo que as anotações do usuário não abrangem algumas taxas de compressão, a linha de base muda com cada conjunto de dados de resumo de vídeo. Portanto, a interpretação da pontuação de desempenho dos resumidores de vídeo não é tão direta quanto outras métricas.
-
Mostrar Abstract
-
Hours of video are uploaded to streaming platforms every minute, with recommender systems suggesting popular and relevant videos that can help users save time in the searching process. Video summarizers have been developed to detect the video's most relevant parts, automatically condensing them into a shorter video. Currently, the evaluation of this type of method is challenging since the metrics do not assess user annotations' subjective criteria, such as conciseness. To address the conciseness criterion, we propose a novel metric to evaluate video summarizers at multiple compression rates. Our metric, called Compression Level of USer Annotation (CLUSA), assesses the video summarizers' performance by matching the predicted relevance scores directly. To do so, CLUSA generates video summaries by gradually discarding video segments from the relevance scores annotated by users. After grouping the generated video summaries by the compression rates, CLUSA matches them to the predicted relevance scores. To preserve relevant information in concise video summaries, CLUSA weighs the video summarizers' performance in each compression range to compute an overall performance score. As CLUSA weighs all compression ranges even that user annotations do not span some compression rates, the baseline changes with each video summarization data set. Hence, the interpretation of the video summarizers' performance score is not as straightforward as other metrics.
|
|
10
|
-
BABACAR MANE
-
Evoluindo a interoperabilidade do SaaS e DaaS/DbaaS: o caso do MIDAS
-
Orientador : DANIELA BARREIRO CLARO
-
MEMBROS DA BANCA :
-
DANIELA BARREIRO CLARO
-
GLAUCO DE FIGUEIREDO CARNEIRO
-
JOSÉ MARIA NAZAR DAVID
-
MARLO VIEIRA DOS SANTOS E SOUZA
-
VANINHA VIEIRA DOS SANTOS
-
Data: 21/12/2020
-
-
Mostrar Resumo
-
O provedor de dados como servico (DaaS) e banco de dados como servico (DBaaS) armazena e gerencia um grande volume de dados heterogêneos. Esses dados são produzidos por computaçãao movel, dispositivos onipresentes, redes sociais e são distribuídos geograficamente e disponíveis para consumidores e organizações como serviços por meio de uma API. Os usuários enfrentam um desao ao acessar dados distribuídos semelhantes de provedores de DaaS/DBaaS distintos devido à falta de uma API e ferramentas padrão. Consequentemente, os usuários da nuvem enfrentam problemas de interoperabilidade e integração para recursos de consumo, provisionamento, gerenciamento e supervisão entre nuvens distintas. Em um ambiente tão heterogêneo, as organizações que desejam trocar seus dados entre nuvens ou mover seus aplicativos para nuvens distintas enfrentarão uma situação de bloqueio devido à falta de uma solução padrão. O middleware tem sido empregado para lidar com problemas de interoperabilidade para minimizar o esforço de contornar problemas de bloqueio. Assim, esta tese apresenta o middleware MIDAS para minimizar o esforço de interoperar SaaS e DaaS. Podemos resumir três contribuições principais deste trabalho. Inicialmente, o MIDAS Middleware fornece (i) interoperabilidade sintática entre SaaS e DaaS. O MIDAS permite uma consulta na nuvem de SaaS para solicitar dados de DaaS/DBaaS distintos. Atributos e condições de dados são descritos em consultas SQL ou MongoDB. Portanto, uma solicitação SaaS pode ser afetada pela evolução dos atributos DaaS. Como uma segunda contribuição, o MIDAS foi desenvolvido para fornecer (ii) interoperabilidade sem^antica para garantir a consistência do DaaS e manter a consulta original do SaaS. Atualmente, as implementações de tempo de execução MIDAS contam com os provedores Cloud Foundry, Amazon Web Services, OpenShift e Heroku. Algumas diversidades de ambiente de tempo de execução e desenvolvimento em nuvem (por exemplo, estrutura de aplicativo e linguagens de programação) impedem a implementação, execução ou implantação de aplicativos em grande escala. Para evitar ambiguidade no desenvolvimento e implantação perfeita de MIDAS em diferentes provedores de nuvem, apresentamos a terceira contribuição desta tese, uma Domain-Specific Modeling Language (DSML), que é (iii) o metamodelo da arquitetura MIDAS e uma Unied Modeling Language (UML). Este metamodelo deve guiar a instanciação de modelos independentes de plataforma MIDAS e outras implementações. Ele é validado executando três tipos de consultas do usuário para medir os níveis de cobertura do construtor para denir o middleware e implementá-lo em um provedor de nuvem específico.
-
Mostrar Abstract
-
The provider of both Data as a Service (DaaS) and Database as a Service (DBaaS) stores and manages a high volume of heterogeneous data. Such data are produced by mobile computing, ubiquitous devices, social networks, and they are distributed geographically
and available to consumers and organizations as services through an API. Users face a challenge when accessing similar distributed data from distinct DaaS/DBaaS providers due to the lack of a standard API and tools. Consequently, cloud users face interoperability and integration issues for consumption, provisioning, management, and supervision resources among distinct clouds. In such a heterogeneous environment, organizations desiring to exchange their data among clouds or move their applications to distinct clouds will face a lock-in situation due to the lack of a standard solution. Middleware has been employed to deal with interoperability issues to minimize the effort to overpass lock-in problems. Thus, this thesis introduces the middleware MIDAS to minimize the effort to interoperate SaaS and DaaS. We can summarize three main contributions from this work. Initially, the MIDAS Middleware provides (i) syntactic interoperability among SaaS and DaaS. MIDAS allows a cloud query from SaaS to request data from distinct DaaS/DBaaS. Data attributes and conditions are described in SQL or MongoDB queries. Therefore, a SaaS request may be affected by the evolution of the DaaS attributes. As a second contribution, MIDAS was evolved to provide (ii) semantic interoperability to ensure DaaS consistency and maintain SaaS’s original query. Currently, MIDAS runtime implementations rely on Cloud Foundry, Amazon Web Services, OpenShift, and Heroku providers. Some cloud development and runtime environment diversities (.e.g., application framework and programming languages) prevent implementing, running, or deploying applications on a large scale. To avoid ambiguity in the development and seamless deployment of MIDAS in different cloud providers, we present the third contribution of this thesis, a Domain-Specific Modeling Language (DSML), which is (iii) the metamodel of MIDAS architecture and a Unified Modeling Language (UML) profile. This metamodel should guide the instantiation of MIDAS platform-independent models and other implementations. It is validated by executing three types of user queries to measure the constructor’s coverage levels to define the middleware and implement it in a specific cloud provider.
|
|