Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPA

2024
Descrição
  • JULIANA AUZIER SEIXAS FEIO
  • Prevendo Peptídeos de Penetração Celular com Deep Learning explorando descritores
    moleculares baseados em sequência e estrutura

  • Orientador : CLAUDOMIRO DE SOUZA DE SALES JUNIOR
  • Data: 27/06/2024
  • Mostrar Resumo
  • Os pepetídeos de penetração celular compreendem um grupo de aminoácidos curtos com capacidade de atravessar naturalmente a bicamada lipídica que protege as células, compartilhando propriedades físico-químicas e estruturais, e possuindo diversas aplicações farmacêuticas, particularmente a entrega desubstâncias terapêuticas às células. Ao longo do tempo, as investigações sobre descritores moleculares baseados em sequência e estrutura peptídica proporcionaram não apenas uma melhoria no desempenho dos classificadores in silico, com uma menor complexidade computacional devido seleção destes atributos na construção de conjuntos de descritores moleculares, mas também uma melhor compreensão sobre a permeabilidade da membrana. Adicionalmente, o emprego de novas técnicas de aprendizado de máquina promove melhor performance nas classificações, como a construção de modelos ensemble por meio da combinação de estimadores, o uso de aprendizagem profunda, a utilização de técnicas de tratamento de overfitting e busca de hiperparâmetros. Neste estudo, foram investigadas as propriedades moleculares quantidade de nitrogênio, quantidade de oxigênio e momento hidrofóbico na escala de Eisenberg em conjunto com outros descritores baseados em sequência e estrutura peptídica que são explorados no estado da arte para prever peptídeos que penetram a membrana celular. O classificador ConvBoost-CPP proposto, utilizando as propriedades moleculares mencionadas, combina as estimativas de uma Rede Neural Convolucional aprimorada com as de um modelo XGBoost resultando na superioridade do ConvBoost-CPP em relação a classificadores baseados em machine learning e deep learning anteriormente publicados. Ademais, o desenvolvimento de um conjunto contendo quantidade de nitrogênio, quantidade de oxigênio e momento hidrofóbico na escala de Eisenberg adicionados à dez descritores moleculares resultou em um aumento na acurácia de 88% para 91,2% na validação cruzada e 82,6% para 91,3% em teste independente.

  • ALANA MIRANDA MEDEIROS
  • Classificação de municípios de acordo com a sua vulnerabilidade à violência doméstica: um estudo de caso a partir de métodos de apoio multicritério e clusterização

  • Orientador : NELSON CRUZ SAMPAIO NETO
  • Data: 25/06/2024
  • Mostrar Resumo
  • Considerando a inserção de técnicas computacionais nas mais diversas problemáticas enfrentadas atualmente pela sociedade, o objetivo principal deste estudo é empregar e avaliar uma abordagem de tomada de decisão multicritério para classificar municípios de acordo com sua vulnerabilidade à ocorrência de Violência Doméstica e Familiar contra a Mulher (VDFCM). A metodologia utiliza dados oriundos da Pesquisa de Informações Básicas Municipais (MUNIC), do ano de 2019, e do Censo Demográfico de 2010 e 2022, realizados pelo Instituto Brasileiro de Geografia e Estatística (IBGE), juntamente com registros de casos de violência da Secretaria de Segurança Pública e Defesa Social do Estado do Pará dos últimos dois anos. O método ELECTRE Tri-B foi aplicado para a tarefa de classificação, considerando como critério o Índice de Assistência e Proteção (IAP), que é um agregado de sete indicadores municipais referente à disponibilização de serviços especializados no atendimento e proteção das vítimas, além de um conjunto de critérios socioeconômicos: PIB Per Capita, Índice de Desenvolvimento Humano, Taxa de alfabetização e Renda Domiciliar Média. Os municípios foram agrupados em quatro classes: Baixa, Média, Alta e Muito Alta vulnerabilidades. Como resultado, foi possível identificar as principais regiões que necessitam de atenção especial dos órgãos competentes pela carência de serviços e estratégias de proteção às mulheres e indicadores socioeconômicos desfavoráveis, destacando, assim, a utilidade da abordagem proposta como ferramenta de apoio à tomada de decisão para priorização de recursos e intervenções. O estudo de caso foi feito na Região Metropolitana de Belém e os tipos de serviços do IAP disponibilizados em cada cidade foram analisados e comparados com os registros de violência doméstica, o que permitiu uma análise mais detalhada do impacto do critério. As comparações sugerem que municípios com Baixa ou Média vulnerabilidades, com consideráveis valores de IAP e indicadores socioeconômicos, apresentaram mais denúncias do que os demais. Adicionalmente, foi realizada uma comparação da classificação obtida com a sugerida por outro método, o FCM-TOPSIS, que combina um algoritmo de clusterização, o Fuzzy C-Means e a técnica TOPSIS, também multicritério. Observou-se que, para este contexto, em que há grande importância e impacto dos pesos, a classificação feita pelo ELECTRE apresentou os melhores resultados, pois considera de forma mais efetiva as preferências dos decisores, lidando com incertezas e ambiguidades,além de permitir uma maior precisão na diferenciação entre as alternativas analisadas, resultando em uma classificação que reflete com maior precisão as prioridades estabelecidas. A abordagem utilizada foi capaz de destacar áreas mais vulneráveis e pode ser usada para orientar políticas públicas na priorização de recursos.

  • BRENDA KALINE DO NASCIMENTO CARDOSO
  • Classificação de Dados Textuais Não Estruturados: Um Estudo de Caso na Área da Segurança Pública

  • Orientador : NELSON CRUZ SAMPAIO NETO
  • Data: 21/06/2024
  • Mostrar Resumo
  • O crescente volume de dados não estruturados, como notícias, postagens e documentos diversos, impõe desafios significativos para diversos setores, especialmente para os órgãos de segurança pública, devido à complexidade na análise e extração de informações relevantes. Por exemplo, a falta de padronização nos boletins de ocorrência policial (BOs) torna ainda mais complexa a classificação precisa dos crimes, identificação do público-alvo e compre- ensão das motivações por trás dos delitos. Este estudo propõe, então, um método para agilizar a classificação de contexto em BOs, empregando aprendizado de máquina. Neste primeiro esforço, o objetivo é construir modelos computacionais para categorizar crimes de injúria direcionados, ou não, à comunidade LGBTQIA+. Assim, dois experimentos utilizando relatos de crimes de injúria fornecidos pela Polícia Civil do Estado do Pará, sem e com ruído nos dados, foram realizados com os algoritmos supervisionados Support Vector Machine, Random Forest, Logistic Regression e Gradient Boosting. Os resultados obtidos destacam o potencial do aprendizado de máquina para otimizar o processo de classificação de BOs, sendo que os algoritmos Random Forest e o Gradient Boosting apresentaram melhor desempenho, com diferença significativa entre os dois experimentos. A abordagem proposta mostra-se aplicável em cenários reais e capaz de contribuir substancialmente para o trabalho das autoridades policiais.

  • PAULO SENA FERREIRA FILHO
  • Caching Policies over Unreliable Channels

  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 17/04/2024
  • Mostrar Resumo
  • Recently, there has been substantial recent progress in the
    analytical understanding of how cache storage should be allocated when using the LRU replacement policy. Nonetheless, the role played by caching policies beyond LRU in a networked setting where content may be replicated across multiple caches and where channels are unreliable is still poorly understood. The correct understanding of these policies' role in these scenarios is essential to determine the trade-off between redundancy and diversity among caches. As the channel's reliability varies, which causes failures in the delivery of requests to the caches, keeping redundancy of content stored in the caches can improve the performance of the system, reducing the cache miss probability. However, if the network reduces the traffic load, with idle or slightly congested channels, the channel reliability increases and reduces the miss probability. In this case, if the caches are not diversified enough, the network can not efficiently benefit from cache partitioning. Therefore, this thesis project uses mathematical techniques to investigate different combinations of policies and scenarios in order to propose a fine-tuned trade-off between redundancy and diversity among caches. These techniques allow verifications such as if the initial condition of the caches, and the dependence among them, can also interfere in system performance, after reaching the steady-state. It regards the channel state and the policy used to promote redundancy and diversity of stored contents. Thus, the proposal of modeling the partitioned cache system under different caching policies over networks with unreliable channels, yields empirical results, which in turn, can be validated through controlled and experimental tests. Furthermore, these tests also allow determining whether, besides the factors mentioned, the network configuration such as the number of partitioned caches, size of the caches, content insertion rate, etc. can also impact the well-tuning of the trade-off among partitioned caches in order to reduce the cache miss probability, improving the system performance.

  • LEONARDO PATRICIO FERREIRA BARBOSA
  • To What Extent Cognitive-Driven Development Improves Code Readability?

  • Orientador : GUSTAVO HENRIQUE LIMA PINTO
  • Data: 27/03/2024
  • Mostrar Resumo
  • Cognitive-Driven Development (CDD) is a coding design technique that aims to reduce the cognitive effort that developers place in understanding a given code unit (e.g., a class). By following CDD design practices, it is expected that the coding units to be smaller, and, thus, easier to maintain and evolve. However, it is so far unknown whether these smaller code units coded using CDD standards are, indeed, easier to understand. In this work we aim to assess to what CDD improves code readability. To achieve this goal, we conducted a two-phase study. We start by inviting professional software developers to vote (and justify their rationale) on the most readable pair of code snippets (from a set of 10 pairs); one of the pairs was coded using CDD practices. We received 133 answers. In the second phase, we applied the state-of-the art readability model on the 10-pairs of CDD-guided refactorings.
    We observed some conflicting results. On the one hand, developers perceived that seven (out of 10) CDD-guided refactorings were more readable than their counterparts; for two other CDD-guided refactorings, developers were undecided, while only in one of the CDD-guided refactorings, developers preferred the original code snippet. On the other hand, we noticed that only one CDD-guided refactorings have better performance readability, assessed by state-of-the-art readability models. Our results provide initial evidence that CDD could be an interesting approach for software design.

  • ANDERSON JORGE SERRA DA COSTA
  • A Framework for Implementing Software Conception with Design Thinking in an intrapreneurship program

  • Data: 01/03/2024
  • Mostrar Resumo
  • Companies need to find ways to innovate and ensure their survival. However, it is necessary to invest in innovation assertively. To make this possible, software development companies are increasingly adhering to user-centered approaches. These approaches make it possible to focus on the real needs of customers and users and thus develop more appropriate solutions. In this context, Design Thinking (DT) stands out for several reasons. It fosters empathy with users and customers, immersion in the problem and validation of proposed ideas with prototypes. All this also helps to create innovative software solutionsDespite this, the literature reports the need for clear guidelines on how to adopt approaches to develop solutions with DT and the need to identify ways of overcoming cultural barriers to the adoption of DT. To address these needs, an action research project was carried out in a Brazilian software development company. The company studied was interested in applying DT within the context of innovation through intrapreneurship. With this, intrapreneurship was used to minimize cultural barriers to the adoption of DT, as intrapreneurs are motivated to develop their own business ideas. Thus, this paper presents a proposal for a framework that guides the implementation of Design Thinking for the conception of innovative software solutions in an intrapreneurship program at a Brazilian software development company. This work was carried out through action research in two cycles within a Brazilian software development company. Among the results, the proposed framework was able to clearly guide the conception of software with DT. In addition, the use of the proposed framework in an intrapreneurship program reduced the previously perceived resistance to adopting DT. However, problems related to the lack of adequate investment for DT adoption were still identified.

  • JEAN CARLOS DE CARVALHO COSTA
  • Sistema de Orientação Vocacional Automatizado e Inteligente com Base na Análise dos Microdados do POSCOMP

  • Orientador : REGINALDO CORDEIRO DOS SANTOS FILHO
  • Data: 29/02/2024
  • Mostrar Resumo
  • Os progressos da tecnologia da informação têm o potencial de transformar significativamente a educação, oferecendo metodologias inovadoras que aprimoram o processo de ensino e aprendizagem. No entanto, acompanhar o desenvolvimento dos discentes em sala de aula ou durante o processo acadêmico torna-se uma tarefa desafiadora para instituições de ensino superior. Nesse contexto, o Exame Nacional para Ingresso na Pós-Graduação em Computação (POSCOMP) é uma ferramenta que avalia o conhecimento de candidatos e discentes dos cursos na área da computação, sendo utilizado como critério de avaliação para a admissão em programas de mestrado e doutorado. É fundamental mencionar que os dados do POSCOMP revelam quais áreas de conhecimento do exame os participantes possuem melhor desempenho e quais especialidades são mais comuns para o desenvolvimento de pesquisas na pós-graduação. Estas descobertas colaboram e modernizam os Programas de Pós-Graduação (PPG) em todos os aspectos, além de contribuir para atrair mais alunos qualificados. Além disso, o desempenho do candidato na prova pode revelar um perfil característico de um pesquisador de uma determinada especialidade. Por esse motivo, este trabalho analisa os microdados do POSCOMP, entre 2016 a 2019, por meio de análises estatísticas descritivas e tecnologias do processo de descoberta do conhecimento, para desenvolver um sistema de orientação vocacional automatizado e inteligente capaz de sugerir a especialidade de um participante com base nas notas obtidas em cada área de conhecimento do exame.

  • WILTON FREITAS RIBEIRO
  • AGILE PRACTICES: AN EXPLORATORY STUDY FOCUSING ON THE AGILE ALLIANCE METRO MAP

  • Data: 16/02/2024
  • Mostrar Resumo
  • The competitive and constantly evolving landscape, especially in the Information Technology (IT) sector, drives the need for agile approaches to software development. Faced with the limitations of traditional models in keeping up with rapid changes in projects, a group of experts created the Agile Alliance and the agile manifesto, based on values and principles of collaboration and continuous delivery of value. This initiative gave rise to agile practices, aiming to optimize software development. The objective of this dissertation is to map and analyze the agile practices of the Agile Alliance subway map, answering the central question: "How are agile practices applied based on work published in specialized literature?". The methodology adopted involved an exploratory and descriptive approach, incorporating the cataloging of agile practices, survey research and systematic literature mapping (MSL). MSL, in particular, has added a valuable layer to the understanding of agile practices in the literature, highlighting patterns, research gaps, and emerging trends. A wealth of information was observed in published studies, ranging from the application of specific practices to recent and future trends, contexts, benefits, challenges, effectiveness and impact assessments, in addition to the availability of bibliometric data relating to this research. The results reveal a wide application of agile practices in different contexts, going beyond software development, covering public sectors, telecommunications companies and other contexts. Challenges were identified, such as cultural resistance in traditional organizations. This study contributes significantly to the understanding of agile practices, providing valuable findings for future research, indicating areas of success, and promoting promising directions for the effective application of agile practices in diverse environments.

  • IGOR ERNESTO FERREIRA COSTA
  • A STUDY PROGRAM BASED ON ACTIVE METHODOLOGY FOR THE TEACHING AND LEARNING OF EXPLORATORY SOFTWARE TEST

  • Data: 02/02/2024
  • Mostrar Resumo
  • The need for rapid delivery of products and services has led to a growth in the more agile software development process. Consequently, new testing approaches, considered agile in specialized literature, have become protagonists in the industry so that products and services are offered with quality as they are developed. In this context, the use of Exploratory Testing (ET) has been quite widespread in the industry, at least in recent years, as noted in the report called State of Testing. However, it is noted that exploratory testing is still not commonly used in a structured way. In corroboration of this, a literature review, carried out by the author, identified works that direct their efforts only to the execution of the exploratory test, summarizing the random exploration of pre-identified flows in a model. In this way, it is assumed that the exploratory test can always be used in a free style way (informal technique, without documentation), as perceived in the concept present in SWEBOK. For these and other reasons, this work aims to present a proposed approach for learning exploratory testing that can provide for the use of exploratory testing in a systematic way to meet, mainly, the needs of testing process management activities using such an approach, as well as how to provide students with skills that are closer to the reality experienced in the software industry. In these circumstances, this work also includes the description of a teaching plan involving the use of active methodologies through digital technologies to provide the student with a leading role in this learning process. As a contribution, this work hopes to help strengthen links between universities and the software industry based on the proposal, aiming to create professionals more adapted to these organizations.

  • CLEYTON LUIZ RAMOS BARBOSA
  • Enhancing Color Scales Automatically for Active Data Physicalizations

  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 01/02/2024
  • Mostrar Resumo
  • Data physicalization is the area that investigates how physical objects can encode data through their physical (geometry and materials) and visual characteristics. In information visualization, color plays a fundamental role in communicating and encoding data, and there is no difference in data physicalization area. However, in the real world, color perception can be influenced by the material that composes the physical artifact, the environment's luminosity, and the light-emitting device's characteristics. In this way, color palettes commonly used in digital scenarios may fail to communicate and encode data when applied directly to data physicalization without any adjustment or evaluation due to this change in color perception. Thus, this thesis aims to automatically produce color palettes for data physicalization, considering their unique physical and light emission characteristics. To this end, a color space evaluation process for the physical artifact was carried out with the adaptation of the Farnsworth Munsell color test. The test was applied in the physical and digital versions, and the results obtained were compared, and colors unsuitable for the physical scenario were identified. The physical artifact used was a physical 3D bar chart composed of LED strips that can be configured. With the results of the tests, it was also possible to manually create color palettes (categorical, sequential, and divergent), considering mainly the perceptual distance metric between the chosen colors. The proposed color palette was validated against digital color palettes by carrying out basic InfoVis tasks, such as identification, comparison, and ordering. In the second stage, an automated method was proposed to evaluate the color space for data physicalization and automatic generation of color palettes. A big picture of the automatic process starts with the user providing images of pre-determined colors collected directly from data physicalization; the images are processed, and hue, saturation, luminance, etc, are estimated. The initial dataset is expanded by adding interpolations and noise to apply a clustering algorithm,  seeking groupings of colors with greater distance between them to compose the categorical color palettes. Sequential and divergent color palettes are calculated from one of the colors selected for the categorical color palette. Additionally, users can choose from several suggested color palettes generated. The results showed that the automatic method can be reused for other active data physicalizations, which dynamically change colors. The steps taken culminated in a pipeline for evaluating and creating color scales for data physicalization, considering their unique physical and light emission characteristics.

  • MARCELL SERRA DE ALMEIDA MARTINS
  • MARCADOR FIDUCIAL MULTI-ESCALAR PARA LOCALIZAÇÃO EM AMBIENTES INTERNOS

  • Data: 31/01/2024
  • Mostrar Resumo
  • Os sistemas projetados para localizar pessoas em ambientes internos geralmente utilizam sensores (como bluetooth e Wi-Fi) ou câmeras digitais. A abordagem baseada em câmeras digitais possibilita aplicar técnicas de visão computacional que tendem a reduzir os custos de implementação do sistema de localização, principalmente quando esse sistema utiliza as infraestruturas existentes, como as câmeras digitais integradas aos smartphones e à Internet. Os marcadores fiduciais apresentam-se como elementos visuais detectáveis por câmeras, podem ter um caráter único, sinal ou cor em uma imagem que tornam a sua detecção e leitura rápida. Neste sentido, o presente estudo disserta sobre o desenvolvimento de um marcador fiducial em forma de fita para atender um sistema de localização e mobilidade interna em imóveis. Essa morfologia do marcador em forma de fita, permite a leitura dos seus segmentos de forma contínua, utilizando algoritmos de detecção e leitura de modo multi-escalar. Para validar essa característica de detecção e leitura de modo multi-escalar, foram realizados testes para três dimensões de marcadores em forma de fita, objetivando saber qual das dimensões do marcador fita, obteria sucesso de leitura para as distâncias estabelecidas entre 0,5 até 10 metros de distâncias. O marcador proposto com dimensões de 6x160,8 cm foi lido dentro da faixa de distância estabelecida no teste. Diante dos testes realizados, foi possível verificar que o serviço de leitura do marcador fita permaneceu ativo, mesmo quando a distância de captura da imagem variou dentro da margem estabelecida. Assim, observou-se que a leitura do marcador em forma de fita mostrou ser robusta a oclusões parciais e sua leitura foi eficaz em relação à variação de distância entre o marcador e a câmera de leitura. Outro teste realizado, foi o teste comparativo da distância de leitura entre o marcador proposto em relação aos marcadores fiduciais ARUCO e QRCode, ambos com dimensões de 6x6 cm. Os marcadores ARUCO e QRCode, apresentaram limitações de detecção e leitura, a distância máxima alcançada foi de 5,5 m para dimensão 6x6 cm. Havendo a necessidade de ampliar os marcadores ARUCO e QRCode para atingir a leitura dentro da margem de distância de 10 metros. Porém, a ampliação dos marcadores, comprometerá suas leituras a uma distância de 0,5 metro. O marcador proposto utiliza a característica de leitura multi-escalar, portanto, garante a leitura dentro a da faixa de teste sem reescala do marcador.

  • AILSON MEDEIROS VASCONCELOS
  • SIG-UFRN software ecosystem: An Exploratory Study on the factors determining its Adoption

  • Data: 16/01/2024
  • Mostrar Resumo
  • Software ecosystems (ECOS) are means for large-scale software development, which encompasses the complex mix of technical, business and social aspects. These are evidenced in the synergistic cooperation of actors (technology platform, developers, users, etc.), who integrate ECOS in the production of solutions. The Integrated Management Systems of the Federal University of Rio Grande do Norte (SIG-UFRN), is a technological platform that is part of the SIG-UFRN software ecosystem that is used by a considerable number of Federal Education Institutions (IFE) distributed throughout the national territory . In this context of use, there are several scenarios for adopting the SIG-UFRN ecosystem that define the current situation of platform implementation. These scenarios are determined by technical, business and social factors that need to be identified to clarify which reasons lead to the success in adopting this ecosystem, as if not observed, they can harm the IFE' business activities, cause waste of resources and also provoke penalties for public managers for wrong decisions. The objective of this work is to identify these factors that lead to success or failure in the adoption of this ecosystem. To this end, this work was developed in three stages. In the first stage, a Systematic Literature Review (SLR) was conducted, which aimed to identify methods and/or techniques used by researchers to collect and analyze data in its technical, social and business aspects of the different software ecosystems researched. In the second stage, semi-structured interviews were conducted with software developers working in the process of implementing the SIG-UFRN platform in their respective IFE, the objective of which was to identify perceptions and experiences in this process, and finally, in the third stage, techniques were used of open and axial coding of grounded theory (TF) on the data collected in the interviews that allowed us to identify the factors inherent to the adoption of this ecosystem. As a result of this research, we obtained thirty-one code networks made up of factors that can influence the success or failure in the adoption of this ecosystem.

2023
Descrição
  • VITOR CIRILO ARAUJO SANTOS
  • Study on the theory of measurement and generalization of machine learning models

  • Data: 12/12/2023
  • Mostrar Resumo
  • Machine learning is increasingly being utilized and has evolved significantly in recent years, enabling it to achieve state-of-the-art performance in various tasks. However, with its intensified usage, gaps related to model assessments and learning procedures have become more apparent. Several distinct techniques, such as accuracy, F1 Score, and others, are used to evaluate models. However, these procedures are not connected to assessing the learning process itself but rather focus on the number of correct responses provided by the model. This characteristic makes it impossible to evaluate whether a model has been able to learn meaningful elements in the context in which it is placed. Consequently, a model may yield good results in the training phase but perform poorly when it needs to be generalized. When there are many different models that achieve similar performance, choosing the model that had the highest number of correct answers during training does not necessarily mean selecting the best model. A methodology based on Item Response Theory was developed to create a Machine Learning model capable of identifying if a model training environment is unreliable, providing additional and unique validation for the machine learning context. One hundred twenty-six data partitions from 21 distinct datasets were employed to devise a model capable of identifying unreliable contexts with an accuracy of 0.935 and an F1 Score of 0.930.

  • RONALDD PATRIK SILVA PINHO
  • Operador de Cruzamento Guloso para Problemas de Roteamento de Veículos com Capacidade

  • Data: 30/11/2023
  • Mostrar Resumo
  • Atualmente, com as pessoas cada vez mais conectadas virtualmente através da internet, cresce a importância da eficiência logística no setor de transportes, que impacta diretamente na economia de um país. Da perspectiva da ciência da computação, o Problema do Roteamento de Veículos com Capacidade (PRVC) é capaz de representar algumas das necessidades da indústria de transportes. Esse é um problema de otimização cuja solução não é nada trivial, demandando técnicas algorítmicas mais elaboradas que as tradicionais para obter soluções sub-ótimas. É comum a utilização de metaheurísticas para otimizar esse tipo de problema, como por exemplo Algoritmos Genéticos (AG) ou GRASP. Além desses, muitas pesquisas tem sido feitas em torno de metaheurísticas para melhorar a otimização desse problema. Neste trabalho, o Algoritmo Genético é aplicado ao PRVC utilizando instâncias baseadas em dados geoespaciais e demográficos e, são feitas discussões sobre seu processo de otimização conectando os conceitos do algoritmo, do problema e outros conceitos comuns da área de otimização. Com isso, é apresentado um novo operador de cruzamento para o AG baseado no conceito de gulosidade empregado em outros algoritmos. Esse operador apresenta resultados melhores em comparação com os operadores de cruzamento mais comuns encontrados na literatura que são utilizados para a otimização do PRVC.

  • ANDRE DEFREMONT
  • OTTx: One-Time Transactions for Data Recording Through Alternative Identities in Permissioned Blockchain Networks

  • Data: 23/11/2023
  • Mostrar Resumo
  • In business environments, computer network technologies have enabled organizations with a common goal to exchange information and securely record data, even when they may not trust each other. In these networks, users have unique identities to access resources available through reliable applications. However, in permissioned blockchain networks, there is a need to allow the submission of transactions through applications from organizations that do not have blockchain infrastructure but communicate with the blockchain network through some form of identity. To enable users to utilize applications for interaction with the blockchain network while maintaining transaction privacy, integrity, and non-repudiation when submitted through alternative identities, additional mechanisms are required.

    In this regard, this work proposes a scheme for One-Time Transactions (OTTx) in permissioned blockchain networks, which allows the secure and efficient submission of transactions through alternate identities. OTTx is a scheme for blockchain transaction authentication based on One-Time Passwords (OTP) implemented in smart contracts. The study identifies the need for such a solution, describes the state of the art, and assesses the implementation of the OTTx scheme in a permissioned blockchain network. The results indicate that OTTx is capable of providing security, privacy, integrity, and non-repudiation for transactions submitted through external identities in permissioned blockchain networks. Furthermore, OTTx demonstrates satisfactory performance with minimal network overhead compared to other existing solutions. This work also contributes to advancing knowledge in the field of blockchain and its applications by offering an effective solution for authenticated transaction submissions.

  • TAYRINE DE SOUZA ROCHA
  • Multi-omics data visualization: a proposal for evaluation criteria 

  • Data: 13/11/2023
  • Mostrar Resumo
  • With the rapid advancement of technology, problems are becoming increasingly complex with a large volume of data that requires high processing power. This data has led to the production of different types of biological data and has allowed the construction of extensive networks with various types of interactions between various biological entities. The increase in the amount of information available can generate some problems in data analysis and understanding by the enormity and heterogeneity of this data that threaten to make the problems that arise computationally infeasible. In this context, several bioinformatics tools have been developed, many of them without a detailed and thorough evaluation of both efficiency and usefulness in supporting users' needs. However, there is relatively much to ask about these tools and how best to promote their efficient use. Thus, this dissertation seeks to demonstrate the importance of visualizing information over a large volume of data and thus support systems focused on multi-economic data by suggesting evaluation criteria for the development of new tools or improvements using data visualization, usability, and interactivity as evaluative principles.

  • LEONARDO BARBOSA DA COSTA
  • Sec-Health: A Decentralized Protocol for Secure Storage and Sharing of Health Records

  • Data: 31/10/2023
  • Mostrar Resumo
  • Nowadays, digital forms of health records are indispensable resources. They afford convenience for patients and collaborators (e.g., nurses, physicians) due to the high degree of availability and easiness to manage them. However, storing and sharing such records through different online systems and networks, supported by technologies as cloud computing, pose security risks. For instance, if not properly secured, health records may be accessed by unauthorized entities, leading to serious concerns for the patient, such as insurance, employment and social discrimination, as well as embarrassment and other dignitary harms. To address such issues, several countries have established regulations that include these records in a set of sensitive data. This implies that, when implementing a healthcare information system, organizations must fulfill several security properties of health records, namely confidentiality, access control, integrity, revocation, and anonymity. In addition, complementary properties related to specific scenarios (emergency situations and interoperability) must be satisfied as well. Several previous proposals aim at fulfilling properties of health records. However, most of them present security limitations (e.g., for being highly centralized, containing single points of failure), and/or address specific properties only. Others, based on decentralized technologies, lack mechanisms to address some properties. Therefore, in this work, we propose Sec-Health, a decentralized protocol to secure health records that addresses the security properties defined by current regulations, in addition to providing mechanisms that satisfy complementary properties. Sec-Health comprises a set of decentralized schemes, and is based on decentralized technologies (e.g., blockchain and InterPlanetary File System), showing security advantages compared to related proposals that present highly centralized mechanisms. Furthermore, compared to other decentralized solutions, our protocol addresses the challenging problem of fulfilling all the main properties of health records, whereas other solutions focus on offering mechanisms for specific properties only. According to experimental evaluations with a Sec-Health Proof of Concept, our protocol reduces at least 21.87% of the execution time of several related proposals to register users. In addition, Sec-Health can reduce at least 28% the time to store health records, and at least 26% the time to access records. We also show that there is a lack of literature proposals that evaluate client-side memory usage. In contrast, we provide such results, demonstrating that, in the worst case tested, Sec-Health uses approximately 220 MB of memory. Finally, we evaluate the security of Sec-Health employing security ceremonies, which are extensions of protocols by including human entities in the protocol steps and security evaluation. As results, we describe the strengths of our protocol under several attack scenarios, and point out its limitations.

  • MANOEL GARCIA DE SOUSA NETO
  • Uso de Word Embeddings na Língua Portuguesa em Tarefas de E-Recruiting

  • Data: 30/10/2023
  • Mostrar Resumo
  • Realizar a seleção dos melhores currículos para uma vaga de emprego dentre um número grande de candidatos é uma tarefa que exige tempo e esforço das equipes de recrutadores no setor de recursos humanos, analisar os currículos dos pleiteantes à vaga é uma prática muito comum nos processos de seleção e é nesse âmbito que podemos utilizar de técnicas de processamento de linguagem natural para ajudar nessas análises. Para enfrentar os problemas com o tempo e os esforços gastos nas análises, é apresentado neste trabalho o uso de Word Embeddings em língua portuguesa que atuarão na análise dos textos, gerando pontuações de similaridade semântica dentre a vaga ofertada e os currículos dos candidatos, também o uso de lógica Fuzzy para constituir um sistema de suporte à decisão para ponderar as características analisadas e classificar os melhores candidatos.

  • ANTONIO BORGES DE SOUZA RUFINO
  • Algoritmo Augmented Randon Search como alternativa a algoritmos baseados em redes neurais no controle de topologia ativa em sistemas de potência

  • Data: 27/10/2023
  • Mostrar Resumo
  • O avanço dos problemas climáticos nos últimos anos vem contribuindo fortemente para mudanças nas matrizes energéticas no mundo todo, isso se dá em consequência de que as principais fontes de energia no mundo são baseadas em carbono e sua queima contribui diretamente para a rápida degradação climática. Com isso, diversos países vêm traçando metas para diversificar sua matriz energética e diminuir a dependência do carbono, implementando em sua planta fontes de energias mais renováveis e limpas, com ênfase para a energia eólica e solar. Entretanto, a inserção de fontes de energia renovável pode causar grandes danos a rede elétrica existente devida a sua extrema intermitência, fator esse que os sistemas de distribuição convencionais não foram projetados para lidar. Com isso, esse trabalho lança luz sobre a utilização de algoritmos que não são baseados em redes neurais para realizar o controle de topologia ativa nas redes elétricas e mitigar os danos causados pelas fontes de energia renováveis. Ao todo, quatro algoritmos foram testados, sendo os algoritmos PPO, DQN e DDQN baseados em redes neurais e o algoritmo ARS baseado em otimização combinatória através de gradiente, com tais algoritmos sendo dispostos a testes em dois ambientes diferentes do framework grid2op, sendo eles, “2rpn_wcci_2020” e “l2rpn_case14_sandbox”. Os resultados mostraram que o algoritmo ARS foi competitivo com os algoritmos baseados em redes neurais em basicamente todos os cenários, superando-os em diversas ocasiões, os resultados também mostraram que mesmo o ambiente “l2rpn_case14_sandbox” sendo menos complexo, os agentes tiveram muito mais dificuldade de realizar um controle continuo nele, indicando um nível a mais de dificuldade oculto nesse ambiente. A pesquisa finaliza com uma discussão sobre as lacunas deixadas aqui e a partir de tais lacunas indicam trabalhos futuros que podem trabalha-las.

  • DAVI AUGUSTO GALUCIO FRAZAO
  • Geração e otimização de dashboards baseada nos dados utilizando uma composição de meta-heurísticas

  • Data: 27/10/2023
  • Mostrar Resumo
  • A visualização da informação está cada vez mais inserida em diversas áreas do conhecimento. Apesar de ser amplamente utilizada em pesquisas e processos acadêmicos, o auxílio de ferramentas na tomada de decisão vem em uma crescente utilização em diversas empresas, independente de sua natureza e fim comercial. Essas ferramentas tendem a agilizar diversos procedimentos internos, bem como melhorar processos de produção e visualizar perdas econômicas em um cenário empresarial e de negócio. Assim como para a área acadêmica, traz uma consolidação da evolução das pesquisas e seus resultados. Perante esse cenário, o presente trabalho foca em demonstrar um esforço na união de duas áreas, a visualização da informação e a inteligência artificial. Para a concepção dessa ideia, foi realizado uma revisão da literatura que identificou a carência do uso de IA para automação na construção de visualizações eficientes dentro de layouts objetivos. A automação utiliza o algoritmo de otimização por enxame de partículas denominado PSO para tratar as métricas visuais, onde será capaz de acrescentar as características ideais para a construção de uma visualização através de sua função fitness. Essa função será responsável pela escolha ideal de cada característica proposta na pesquisa. Por outro lado, o Algoritmo Genético foi adicionado para criar a possibilidade da escolha de um layout objetivo e ideal dado uma determinada base de dados. A junção dessas técnicas de inteligência artificial trará a concepção inicial sobre a construção de um dashboard de forma automática, demonstrando ao utilizador visualizações e um layout próximo ao ideal.  Com o auxílio da inteligência artificial, o objetivo é tornar o processo de produção de dashboards mais factível e acessível. Com isso, o trabalho visa apresentar uma visão geral sobre o relacionamento dessas áreas para demonstrar uma base de possibilidades na construção de visualizações ideais juntamente com layouts objetivos.

  • EDSON MARQUES DA SILVA
  • Detecção de Alvos de Desmatamento em Imagens de Radar Orbital Utilizando Redes Neurais Artificiais

  • Data: 27/10/2023
  • Mostrar Resumo
  • O desmatamento é responsável por grande parcela da degradação dos ecossistemas naturais brasileiros. Para mitigar esse problema, nas últimas décadas surgiram soluções baseadas em satélites artificiais para observação da superfície
    terrestre que auxiliam na detecção de áreas desmatadas por meio de tecnologia predominantemente óptica. Entretanto, tal abordagem é prejudicada pelas condições climáticas típicas da Amazônia, onde a nebulosidade dificulta a visibilidade de algumas
    regiões de interesse. O uso de satélites equipados com sensores de radar de abertura sintética é uma opção viável para contornar esse inconveniente, uma vez que são capazes de transpassar obstáculos, já que utilizam micro-ondas para realizar o
    imageamento. Mais recentemente, nota-se também a ampliação do uso de inteligência artificial na tarefa de análise dessas imagens a fim de identificar diferentes tipos de uso e cobertura da terra. Nesse sentido, o presente trabalho propõe o desenvolvimento de
    uma ferramenta computacional inteligente, utilizando redes neurais, capaz de contribuir com o monitoramento de grandes áreas da floresta amazônica através do emprego de técnicas de aprendizado de máquina com o objetivo de detectar automaticamente
    padrões de desflorestamento em imagens de radar orbital. Será apresentado o estado de conhecimento atual nessa área, assim como a metodologia adotada no desenvolvimento da solução, buscando comparar o método proposto com as abordagens clássicas da literatura.

  • JHERSON HARYSON ALMEIDA PEREIRA
  • Estudo e Definição de Recomendações para Refatoração de Código guiada pelo Cognitive-Driven Development

  • Data: 20/10/2023
  • Mostrar Resumo
  • A complexidade do sistema aumenta à medida que novas funcionalidades são naturalmente incorporadas. Com este cenário, surgem diversas estratégias com o foco na redução da complexidade de código que ao mesmo tempo tentam manter o sistema economicamente viável ao longo de sua vida útil. Apesar da utilização de diversas estratégias que, comprovadamente, melhoram o software, ainda assim, códigos que necessitam um com alto grau de esforço para serem compreendidos são recorrentemente encontrados na indústria. O CDD (Cognitive Driven-Developmente) se baseia na Teoria da Carga Cognitiva, tendo como princípio a ideia de que todo objeto de estudo possui uma determinada complexidade para ser compreendida. A abordagem adotada pelo CDD de identificar o que é complexo e gerenciar os pontos de complexidade ao longo do processo de desenvolvimento software está sendo testada em diversos trabalhos recentes e vem sendo uma abordagem diferente mostrando resultados animadores quanto a gestão da complexidade de um projeto de software. No presente trabalho, estamos propondo aplicar os princípios do Cognitive Driven-Developmente para sugerir refatorações em códigos com Code Smells, e identificar se o CDD é uma estratégia viável para facilitando o processo desenvolvimento,  proporcionando ao programador a identificação de pontos de complexidade bem como sugestões para removê-los do código. A metodologia proposta será através de um ambiente controlado, utilizando um plugin construído neste trabalho para a plataforma do Intellij IDEA rodando em cima da linguagem JAVA, onde através de experimentos com desenvolvedores iremos avaliar uma série de tarefas predeterminadas a fim de identificar a efetividade da construção de códigos menos complexos a partir da perspectiva do CDD.

  • LUCAS BORGES DE OLIVEIRA
  • Dynamic Management of Software Defined Networks with Digital Twin

  • Data: 20/10/2023
  • Mostrar Resumo
  • The demand for massive data transmission, low latency, resilience, and high availability requires agile and efficient network management. Software Defined Networks (SDN) have been widely adopted to provide network operators with centralized control, improving the manageability of these environments. However, the evolution of networks occurs to ensure high availability, agility, and reliability, so actions such as maintenance and management become challenging, including in SDN networks, due to the limitations of the tools used, which can lead to complex and error-prone activities. In this context, the Network Digital Twin (NDT)  approach can be a viable alternative to virtually represent the real network infrastructure, allowing the validation of new configurations and scenario testing in realistic virtual environments. The Network Digital Twin  continuously integrates the real environment with the virtual environment, enabling analysis, diagnostics, emulations, creation of what-if scenarios, and control of the real environment from the virtual environment. However, the integration between SDN networks and the Digital Twin is a challenge that this work seeks to overcome. This work propose an architecture based on Network Digital Twin to dynamically manage SDN networks, aiming to improve traffic engineering and support an autonomous, customizable, and resilient SDN operation. The results obtained show that the use of the Digital Twin of Networks is a promising proposal for scenarios of configuration validation and human interventions in the network.

  • ALFREDO LIMA DA COSTA JUNIOR
  • Aprendizagem Tangencial e Videogames como Ferramenta para o Ensino dos Fundamentos da Computação na Educação Básica

  • Data: 27/09/2023
  • Mostrar Resumo
  • Os processo de aprendizagem das escolas guardam raízes em um sistema transmissionista que coloca a responsabilidades nos professores, tornando este processo pouco interessante para um nativo digital que está acostumado a vivenciar experiências em jogos digitais, por exemplo, mais participativas e projetadas para estar ao limite de suas habilidades, mantendo-os focados e ativos. Com a adição dos fundamentos da computação como parte da Base Nacional Comum Curricular (BNCC), passa a existir um novo cenário de adaptação para as escolas, mas também possibilita criar um ambiente mais interessante para estes alunos. Observando este cenário, considerou-se a aprendizagem tangencial associada a jogos digitais um recurso com o potencial de tornar o ensino mais atrativo. A aprendizagem tangencial é um conceito relativamente novo, tendo registros iniciais datando do ano de 2012, surgindo da percepção de alguns desenvolvedores de jogos ao notarem a divisão da indústria dos jogos digitais entre o entretenimento e a educação, cada uma dessas partes parece ter esquecido como criar jogos de forma que eles sejam efetivos em gerar boas
    experiências de imersão enquanto fornecem benefícios educacionais. A pesquisa dentro desta área encontra-se em um estado inicial de amadurecimento, onde mais da metade das pesquisas realizadas com foco neste assunto estão voltadas a entender os jogos e os processos de interação com o jogador que possibilitem a aprendizagem tangencial ocorrer.
    Levando em consideração este contexto, este trabalho apresenta um jogo projetado com base no conceito da aprendizagem tangencial, de forma que este possa servir como um incentivador para aprendizagem dos conceitos da computação, contextualizados ao folclore amazônico, para o ciclo do Ensino Básico considerando os assuntos sugeridos pelas diretrizes da Sociedade Brasileira de Computação (SBC) para serem apresentados durante a 5ª e 6ª séries, divididos em três eixos: pensamento computacional, cultura e
    mundo digitais.


  • RAFAEL VEIGA TEIXEIRA E SILVA
  • Federated Learning for User Identification based on Accelerometer and Gyroscope Sensors

  • Data: 22/09/2023
  • Mostrar Resumo
  • A smartphone can seamlessly collect user behavioral data without requiring additional actions or hardware. Integrated sensors, such as touch and gyroscope, are used in an active or continuous user authentication process to continuously monitor the user and capture behavioral (touch patterns, accelerometer) or physiological (fingerprint, face) data as the user naturally interacts with the device. However, it is not recommended due to privacy concerns related to data transfer from multiple users' mobile devices to a server. This paper presents a Federated Learning (FL) approach that defines a user's biometric behavior pattern for continuous user identification and authentication. The study also evaluates the potential of FL in behavioral biometrics, comparing the performance of Convolutional Neural Networks (CNNs) at different epochs using FL and a centralized method, with minimal chances of incorrect predictions in user identification by the gyroscope. In the era of mobile devices with various sensors, IoT, and other data-sensitive devices, a significant amount of data is shared for application purposes. Smartphones can collect and utilize this data in machine learning approaches, but there is a growing demand for enhanced user security. These sensors can collect user biometric behaviors during their interactions, making it possible to develop a behavioral identification system that uses mobile device data without sharing, focusing on data security and user authentication. This dissertation introduces two Federated Learning approaches that utilize gyroscope data and another with gyroscope and accelerometer data as the unique identifier for continuous user identification. The study employs several CNNs to evaluate their performance for IoT devices, including runtime analysis and identification accuracy within 2 seconds, achieved in just eleven rounds with five epochs. 

  • WANDERLANY FIALHO DE ABREU
  • Gerador de Imagens Sintéticas de Azulejos Históricos de Belém do Pará

  • Data: 22/09/2023
  • Mostrar Resumo
  • Cultural heritage is an economic activity since it dates back to the city's history, values preserved heritage and enhances tourism. Belém, Pará is one of the cities in the world with the greatest wealth of heritage of secular azulejos in its civil and religious architecture. The use of technologies allows for greater interaction and dissemination of cultural heritage. In this sense, this dissertation proposed the generation of synthetic azulejos images through digital image processing techniques from a single azulejo element, with the objective of not having to go to the place to generate photos to build a base, saving time and resources. In this way, it was possible to generate a synthetic database to be used in the training of classifiers, which were validated by a database composed of images of real azulejos (cuttings of walls and facades with azulejos). Three classifiers were used, a Convolutional Neural Network, Decision Tree and Random Forest, where the last two use features extracted through the bag-of-features technique. The results were statistically validated, using the Pearson and Spearman Correlation test, indicating a strong positive correlation between the accuracies of the synthetic and real data, showing that the training results with a 100% synthetic data set have statistically similar precision (t <0.05) when predicting the reals. That is, the study shows that synthetic photos can be used to train a classifier that, after this training, classifies real photos of azulejos.

  • VANESSA LOPES ABREU
  • Definição e implantação de uma aceleradora para projetos intraempreendedores inovadores em uma empresa de tecnologia

  • Data: 18/09/2023
  • Mostrar Resumo
  • With the advent of technologies and the emergence of new business models, the market has become increasingly competitive. In this context, to stand out and maintain a competitive advantage, companies need to adopt innovation strategies. One of these strategies is the partnership between established organizations and startups. This strategy is known as corporate acceleration.

    Corporate accelerators have the potential to drive innovation and promote the development of new products and services within the organization. However, despite the relevance of this topic, studies related to corporate accelerators in software engineering are still limited.

    Thus, this study aims to define and implement an internal corporate accelerator in a Brazilian technology company. Additionally, this work identifies the negative and positive aspects of this implementation. To achieve these objectives, action research and grounded theory methods were adopted. The action research method was used as the general strategy for conducting the study. Grounded theory served as a reference for the analysis of collected data, which included semi-structured interviews and direct observations, for the construction of the corporate accelerator.

    As a result, the structure developed for the corporate accelerator consists of five stages: planning, promotion, submission, acceleration, and post-acceleration. This structure was implemented in a medium-sized software development company located in Belém, PA, during the months of January to November in the year 2022. This implementation resulted in several positive aspects, notably the support from top management, which fueled creativity and nurtured an entrepreneurial mindset among participants, also promoting diversity within the group. However, a significant challenge identified was the limited availability of participants' time. These findings are compared with previous research in the literature, resulting in the definition of strategies aimed at mitigating challenges faced during the implementation of the corporate accelerator.

    The findings of this study can be applied in other companies, contributing to the enhancement and adaptation of similar programs aimed at promoting internal innovation and achieving sustainable competitive advantages.

  • RAIMUNDA NONATA CONSOLACAO E BRANCO
  • Sistema Fuzzy para Otimizar a Utilização de Energia Elétrica Solar Fotovoltaica em um Cenário de Tarifa Branca em Unidades Residenciais

  • Data: 13/09/2023
  • Mostrar Resumo
  • Um dos assuntos mais recorrentes da atualidade é a geração energética a partir de fontes não tradicionais. Dentro deste contexto, a produção de energia a partir de fontes renováveis se tornou uma das alternativas mais sustentáveis e ambientalmente correta, onde se evidencia o uso de energia solar através de sistemas fotovoltaicos. Destaca-se como um dos principais problemas na utilização de sistemas fotovoltaicos o alto custo de instalação e manutenção deste sistema, além de custos provenientes da taxa de energia elétrica residencial, o que faz com que essa tecnologia se torne cara para boa parte dos consumidores residenciais do Brasil. Uma alternativa para os consumidores contornarem os altos valores pagos na fatura de energia é optarem pelo uso da modalidade tarifária branca, que se caracteriza por oferecer a variação do valor da energia de acordo com o dia e horário de consumo. O presente trabalho tem por objetivo desenvolver um sistema fuzzy para gerenciar a produção de energia de um sistema fotovoltaico, otimizando o uso de energia produzida entre o consumidor, a bateria e a rede elétrica em um cenário de tarifa branca em uma realidade simulada para unidades residenciais no Brasil. Com base nas simulações, o sistema fuzzy apresentado é eficiente, com significativa redução econômica na conta de energia em comparação a um sistema fotovoltaico simples sem capacidade de tomada de decisões inteligentes e utilizado comercialmente nas indústrias.

  • HELDER DANIEL DE AZEVEDO DIAS
  • O Ensino da Programação Paralela Aplicado aos Alunos da Educação Profissional Técnica em Informática do IFPA - Campus Abaetetuba: Um Estudo de Caso da TI Verde à Computação em Cluster

  • Data: 01/09/2023
  • Mostrar Resumo
  • A área de Tecnologias da Informação (TI) é responsável por uma grande parcela da poluição mundial, como a emissão de CO2, o descarte de lixo tóxico, entre outros. Com a chegada da Indústria 4.0 o descarte de equipamentos de TI tende a crescer e o profissional desta área deverá, também, assumir a tarefa de gerir e/ou evitar esses impactos.
    Neste sentido, o reaproveitamento de equipamentos de TI usados para aplicação em áreas como Computação de Alto Desempenho (CAD) é uma tarefa altamente viável, principalmente em locais onde há uma carência de recursos para a aquisição de novos equipamentos, como por exemplo, nas instituições de ensino públicas. Essas instituições acabam deixando, muitas vezes, de incluir determinados conteúdos práticos por falta de equipamentos próprios para o ensino de disciplinas que surgem como inovações ou consolidações tecnológicas. E quando se trata de ensino técnico, essas inovações demoram ainda mais para serem incluídas nas matrizes curriculares. Levantar o debate para a atualização e inserção de inovações tecnológicas nos cursos técnicos em Informática é necessário, tanto para incentivar os alunos, como para manter o interesse deles até o final do curso. Este trabalho tem como objetivo inserir os conceitos de TI verde e inovações tecnológicas nas matrizes curriculares dos cursos técnicos de Informática, e incentivar, também, a reutilização de computadores, que seriam descartados, para a montagem de arquiteturas de alto desempenho com o propósito de serem aplicados no processo de ensino e aprendizagem dos cursos técnicos em Informática. Para isso, foi realizada uma oficina com os alunos do curso técnico de Informática do IFPA - Campus Abaetetuba onde foram apresentados e discutidos conceitos de TI Verde, Computação em Cluster e Programação Paralela. Foram aplicados dois formulários, um pré e outro pós-oficina, para avaliar os conhecimentos e expectativas dos alunos. Para a realizar a avaliação do aprendizado foi utilizada a Gamificação.

  • ADRIANO MENDES BORGES
  • Use of the ELADEB Assessment Tool on Multiple Platforms

  • Data: 31/08/2023
  • Mostrar Resumo
  • Assessing the difficulties and needs of psychiatric patients is the first step in an intervention process. In this context, a self-assessment instrument called ELADEB (Échelles Lausannoises d’Auto-évaluation des Difficultés Et des Besoins) was developed. This makes it possible to quantitatively measure the difficulties and needs of psychiatric patients and outline individualized clinical profiles for use in face-to-face patient care. Scenarios of social isolation, such as those caused by the covid-19 pandemic or geographical distance, require the remote use of computational applications that can prevent patients from being left unattended. The ELADEB is an assessment instrument originally applied face-to-face through physical letters, and this dissertation presents new possibilities for using the ELADEB instrument on WEB, AR, and VR platforms. These new proposals enable remote access and can increase patient engagement by personalizing the assessment that these environments can provide. Thus, this dissertation aims to present computational versions of the ELADEB instrument on WEB, Augmented Reality (AR), and Virtual Reality (VR) platforms, including the construction of standard ELADEB assessment scenarios and customized scenarios with media content familiar to the patient ( images, animations, and videos). In addition, a usability assessment of the proposed applications completes the scope of this dissertation, which presented satisfactory results for a self-assessment application that can provide remote access to the ELADEB instrument and personalized content for the patient, which may lead to greater engagement and more accurate responses, because the content is more familiar and dynamic to the patient.

  • ALLYSON ANDRADE BRITO
  • An Exploratory Study for Identifying Non-Functional Requirements on Privacy & DataProtection

  • Data: 31/08/2023
  • Mostrar Resumo
  • Data privacy and protection emerged as crucial factors for the success or failure of several contemporary business models. The evolution of users' profiles, together with their growing understanding of the importance of their personal data, has driven the demand for services that emphasize safeguarding privacy and security. Companies that do not adapt to these requirements run the risk of losing their customers' trust, resulting in a diminished user base. Incidents of data breaches and inadequate privacy management can damage a company's reputation and credibility, leading to considerable loss of customers and, ultimately, the closure of operations. Additionally, governments are putting increasing pressure on organizations to ensure compliance with data protection laws. Regulations such as the General Data Protection Law (LGPD) and the General Data Protection Regulation (GDPR) establish strict penalties for violations, which amplifies the need for companies to adapt to these requirements. In the context of software companies, the effective management of privacy and data protection is intrinsically linked to software engineering. Implementing data protection practices should be considered from the early stages of the software lifecycle. This includes adopting privacy-by-design principles, developing security and privacy requirements, implementing encryption techniques and access control, and conducting security testing. Given this scenario, this study aims to identify non-functional requirements relevant to privacy and data protection, providing a comprehensive analysis of these requirements. The work will serve as a starting point for projects involving the development of new systems or the adaptation of legacy systems. For this, a literature review was carried out in order to identify the main concepts related to privacy and data protection. Subsequently, a survey was conducted to collect information about users' perceptions and needs regarding privacy and data protection in a software company. Based on the results of the survey, the main gaps were identified and, to mitigate the main one, we sought to propose relevant non-functional requirements for the protection of privacy and data based on the LGPD. This proposal was presented and evaluated by a group of software developers, and the results of this evaluation will be presented and discussed, analyzing the effectiveness of the identified requirements. As a result, it was possible to identify that the non-functional requirements raised constitute a significant contribution, which can serve as an initial basis for application in projects aimed at the development of secure systems in compliance with the LGPD, as well as for adaptation projects.

  • ALAN TRINDADE DE ALMEIDA SILVA
  • Proposal and Evaluation of a Design Thinking-Based Method for Teaching Accessibility in Computing Courses

  • Data: 30/08/2023
  • Mostrar Resumo
  • Despite notable advances in the area of software accessibility over the last decades, there are still many problems that interfere with the widespread availability of accessible software. These problems range from the concern with the cost of including accessibility in software development, and the fear that the work of including accessibility in developed features can have a very large financial impact, to the lack of motivation of software stakeholders to prioritize accessibility, for not understanding its importance or considering that accessibility is not an essential aspect but a secondary consideration for software. The matter also includes an educational component, as expressed by software development professionals who have completed higher education courses in computing. Highlighting that accessibility was not adequately addressed during their studies, either being completely neglected or only superficially discussed when brought up. This educational gap results in software development professionals leaving college or university without a solid grasp of how to cater to diverse user needs and implement adaptations for users with different requirements. In addition to the challenges associated with implementing accessibility without adequate training, these professionals, when educated adequately in accessibility matters, have the potential to become more empathetic towards the issues encountered by individuals and can contribute to software development teams more inclined to create accessible products. This work proposes a method for teaching accessibility based on Design Thinking to be included as a module within subjects of computing courses and evaluates it over three cycles of implementation in different subjects at the Federal University of Pará. The results indicate that the proposed method was effective and managed to significantly increase students' accessibility awareness, making them more sensitive and empathetic about the topic while also considering it interesting and engaging. The professors who executed the classes implementing the proposed method also evaluated it positively, expressing the willingness to apply it again to other classes and to recommend it to other professors.

  • VINICIUS FAVACHO QUEIROZ
  • Adding Visual Data and Interactions in Active Data Physicalization through Augmented Reality

  • Data: 25/08/2023
  • Mostrar Resumo
  • The physicalization area has developed rapidly in recent years and has been applied in several contexts, mainly in large open public spaces or places related to the data. Some limitations presented by most data physicalizations are the small amount of data represented physically and the lack of interaction. As a result, to mitigate the problems mentioned earlier, several technologies have been applied together to physical visualizations, among which augmented reality (AR) stands out. This dissertation proposal presents active and augmented data physicalization, dynamic data physicalization plus virtual content  (visual data items) in augmented reality. The physicalization used is a dynamic bar chart, which maps numerical data to height, categorical data to color, and categorical data to the x-axis of each bar. All bars are 3d printed and moved by stepper motors,  the colors are represented by LED strips and embedded in the bars, the X-axis labels are presented on LCDs, and an Arduino board controls all components. The augmented content is seen through a mobile augmented reality (MAR) application, allowing interaction with dynamic physicalization. The application was developed by C\#, Unity, and ARCore, and supports the main information visualization tasks, such as settings, filters, details on demand, etc. Tasks like data selection, calculations for creating visual items or additional visualizations, and calculating scales for representing data in physicalization are performed on a server in the cloud. Finally, to validate the developed application, this dissertation proposal presents a usability evaluation where the benefits of using AR to increase the data encoding of a physicalization are analyzed.

  • ALEXANDRE ABREU DE FREITAS
  • Mitigating the Midas Touch Problem in Web Scenarios with Unconventional Interactions.

  • Data: 23/08/2023
  • Mostrar Resumo
  • Interaction scenarios are more diversified with the evolution of technology. This diversity brings with it new means of interaction with computational systems. Called non-conventional interactions, these new means differ from traditional devices, such as mouse, keyboards, and touch screens, with their peculiarities in interaction. However, the rapid inclusion of these technologies in systems is not accompanied by an analysis of the adaptation of the environment to receive an unconventional interaction. Thus, problems that affect the user experience (UX) arise, among which the Midas Touch Problem stands out, which consists of the involuntary selection of graphic elements in the user interface (UI), causing errors in the interaction and affecting the system's usability. In this context, this thesis aims to propose a model to map the main characteristics of a UI with Non-Conventional Interaction, possibly elaborating a possible strategy to mitigate the Midas Touch Problem. To evaluate the proposed model, website interfaces were defined as test scenarios and head tracking and eye tracking as unconventional means of interaction. With the model, a graphic element called Pactolo Bar (PB) was created, being inserted in the interface and interacting with the positioning of the visual element. The Pactolo Bar provides users with security by preventing the Midas Touch Problem by controlling the selection event in the interface. This allows browsing without unwanted interruptions, and its main characteristics are ease of use, security offered, and a new way of interaction. The PB has been evaluated in two stages: The first stage was to define the best configuration of the Bar in the interface, by collecting quantitative data from participants; The second stage was through usability analysis with quantitative and qualitative data from two different groups of participants. The results obtained in the scenarios that use PB were promising, and the analysis of the quantitative data points to a significant prevention of involuntary clicks on the interface. The analysis of qualitative data shows the development of a better user experience due to ease of use, which can be seen in characteristics such as the size and location of the Bar and form of interaction.

  • ANDRE LUIZ COELHO PINHEIRO
  • Um estudo de caso sobre inovações não sistemáticas em uma empresa de serviços de software

  • Data: 16/08/2023
  • Mostrar Resumo
  • Este estudo investiga como uma pequena e média empresa (PME) de software brasileira de uma região com menor vitalidade inovadora desenvolve suas atividades inovadoras para melhorar seus processos de desenvolvimento de software. Realizamos um único estudo de caso exploratório e coletamos dados por meio de entrevistas semiestruturadas com os parceiros e funcionários da empresa. Analisamos os dados usando técnicas de codificação qualitativa.

    Nossos resultados sugerem que a empresa adotou inovações incrementais em seus processos de desenvolvimento de software, bem como novos métodos de desenvolvimento e gerencia- mento. Essas inovações tiveram impactos positivos, como melhoria no gerenciamento de projetos, aumento da colaboração, produtividade e motivação. Além disso, identificamos que a interação da empresa com atores de regiões mais inovadoras criou oportunidades para desenvolver novos negócios e melhorar seus processos, promovendo uma mentalidade mais inovadora.

    Este estudo contribui para a literatura sobre inovação em empresas de software em regiões com menor vitalidade inovadora, destacando a importância do networking com regiões mais inovadoras para fomentar a inovação nos processos de desenvolvimento de software.

  • JOSE AUGUSTO DE SENA QUARESMA
  • A Study Plan for Teaching the Software Development Process in Computing Courses

  • Data: 01/08/2023
  • Mostrar Resumo
  • Context. The advent of the technical, scientific and informational revolution brought the need for computerization of organizations and we see the need for software development increasingly quickly and with high rates of change in projects. Within this reality, the software development process area, which allows mapping and defining a set of activities for software development, made it possible to identify the necessary steps, as well as points for improvement in the process. However, throughout the literature it is possible to identify differences between the knowledge studied in the classroom and the needs of professionals in the applications of these development processes. Goal. Therefore, the objective of this doctoral thesis is to elaborate and evaluate a study plan using student-centered learning for the area of Software Process and its use in computing courses in undergraduate and graduate disciplines. Methodology. The path taken for the development of this research went through three stages: Conception, Elaboration and Evaluation. Within each of the constituted stages, several procedures were developed, namely: (i) Literature Review; (ii) Asset mapping; (iii) Survey; (iv) Peer review; (v) Panel of experts; (vi) Experiment; and (vii) Control and experimental group. Result. The main result of this doctoral thesis is the construction and evaluation of the study plan in Software Process with student-centered learning based on an experiment with a control and experimental group, being analyzed according to the two-tailed Student-t technique. The study plan included the following teaching strategies: (i) Theoretical and practical classes; (ii) Flipped Classroom; (iii) Gamification; (iv) Extended classroom; (v) Concept/Mind Maps; (vi) Peer review; (vii) Dynamics. The use of the syllabus allowed the students a considerable gain in learning to use the syllabus, in comparison with the control group, and also: (i) Acceptance and participation of the students in the dynamics; (ii) Feedback on the development of activities; (iii) Identification with market practice through project-based learning; (iv) Students report knowledge growth through project-based learning; (v) Visualization by the students of possibilities for improvement in the first activities of the project; (vi) Diversion in the narrative description of a Software Process; (vii) Search for knowledge outside the reference bibliography for the flipped classroom; (viii) Verification of the importance of the description and improvement of the Software Process in the context of companies.

  • ABNER LUCAS ALVES PEREIRA
  • DEEP LEARNING IN THE VISUAL ERP CLASSIFICATION ASSOCIATED WITH THE DEGREE OF SPATIAL INTELLIGENCE

  • Data: 12/07/2023
  • Mostrar Resumo
  • Neuroscience increasingly aims to describe subjects' behavior via more assertive solutions to their problems, such as classification using EEG data, techniques like deep learning have been widely employed, making it feasible to implement models for automated biosignal processing. To this end, this research used deep artificial neural networks (DANNs) were utilized to receive temporal series data generated by visuospatial ERPs, collected through non-invasive examinations in the frontal and parietal regions of the cerebral cortex to identify patterns in these types of biosignals by associating them with a subject's degree of spatial intelligence and classifying them with high spatial intelligence or typical spatial intelligence. Following this approach, we moved towards an automated diagnosis, as an alternative to traditional task-based IQ tests, as a behavioral and electrophysiological biomarker associated with visuospatial ability, from the hypotheses: that these types of ERP signals contain a signature pattern of the subject's spatial intelligence and that DANNs have higher classification performance to perform this type of task. That way, deep feedforward (fully connected) and Conv1D artificial neural network architecture with hyper-parameter self-tuning were used, trained, and validated with a cross-validation method (k-fold, with k = 10). Data were collected while performing a classical three-dimensional mental rotation task and preprocessed, in steps, for noise removal and feature selection using wavelets (DWT). The results of this study suggest that automated analysis using DANNs with EEG data may be a viable alternative to traditional neuropsychological tests in assessing spatial intelligence, since two DANN models showed superior performance classifying signals with test data (with average accuracies of 93.7% for the MLP model and 94.8% for the Conv1D model) compared to other classifiers such as KNN and SVM (which respectively showed average accuracy of 88.1% and 87.5%), and also, for the choice of a final model we used the Corrected Re-sampled T-test with the 10 samples of test accuracy of the two best models (for presenting close average performances with minimum difference of 5% in relation to the other compared models) indicating that statistically these models have equal performance, concluding that the MLP model stands out considering the data processing time for all steps of auto-tuning, training, and testing.

  • ANTONILSON DA SILVA ALCANTARA
  • AN APPROACH BASED ON GAMIFICATION AND CHARACTERISTICS OF PEDAGOGIC APPROACHES TO TEACHING KNOWLEDGE MANAGEMENT

  • Data: 30/06/2023
  • Mostrar Resumo
  • Despite the great notoriety that knowledge has acquired, many organizations still do not know how to manage it, since this new concept has caused significant changes in organizational processes, with new challenges and barriers to be overcome. The school needs to keep up with these changes, that is, it needs to reinvent itself in order to improve the quality of the teaching and learning process and train its students. Therefore, debates about how the school is dealing with these changes, as well as the realization of teaching practices, must be constant. The number of alternative teaching methods that are being explored in Information Technology (IT) teaching is increasing in an attempt to address contemporary pedagogical challenges. Thus, this work aims to adapt a gamification to meet the aspects of the main pedagogical approaches, selected in a previous work, aiming to improve the gamified approach to solve problems within the scope of the Computing course. To this, an adaptation was made in the flow of a gamification whose main features are to stimulate the process of generation, dissemination, capture, absorption and socialization of knowledge, contemplating the main characters of the Knowledge Management process, such as knowledge generators and the expert. In this way, each stage was detailed based on the following criteria: "meeting the aspects of the pedagogical approaches", where the reason for adopting this item is presented, the changes made in the stages and additions to the gamification flow, in addition to pointing out the problems and how they are addressed in this approach; "How will this stage be performed?", where the execution of the gamification is detailed, with the roles of each participant and their assignments, and the rules of each stage of the flow (rules of scores, bonuses, objectives to be achieved, game modes, etc.), and the practical actions taken to meet the aspects of the pedagogical approaches used in that stage; and, "The instruments to be used", where we describe the work products used in the dynamics and the guide for their use. At the end of these steps, the gamification execution plan was elaborated, which was submitted to the evaluation of other experts on knowledge management and gamification, from the peer review technique, in order to have different views on the analyzed object, resulting in suggestions for improvements at the end of the process. After this stage, the application of the gamification proposal began, through a Case Study in a Software Quality Laboratory, according to the planning elaborated in the previous stages. The results were analyzed in two ways: qualitative, where Affective Computing, Analysis of Medals won, and SWOT Analysis were applied; and, Quantitative, where the Gamification Worksheet and the Post Gamification Questionnaire, answered by the participants at the end of the dynamic, were analyzed. Thus, this work contributes by presenting a gamified approach for the teaching-learning of knowledge management based on the adoption of different resources included in the pedagogical approaches.

  • ELZIANE MONTEIRO SOARES
  • A Gamified Approach to Problem Solving in Software Process Improvement

  • Data: 23/06/2023
  • Mostrar Resumo
  • The literature defines Software Process Improvement (SPI) as the fundamental approach to improving software products in software development organizations. In this context, studies report several problems and difficulties that organizations face during improvement implementations. Although there are studies that address the problems evidenced in improvement programs, few works still seek identify practices to mitigate the negative effects of factors critics. Thus, the objective of this work is to propose a dynamic of application of gamification elements in an SPI context. It is emphasized that the dynamic can be developed in organizations (commercial and academic) regardless of the desired improvement model or pattern, since it was elaborated in relation to the common problems experienced and identified in the scenario of SPI implementations. In order to create the dynamics, it was necessary to carry out the identification steps of SPI problems and identification of gamification elements, which made it possible to elaborate dynamics of use of gamification elements, and later, contributed for definition of the dynamics that integrates all the gamified elements, with the user interrelated elements of gamification to the listed SPI problems. From this, there was the application of the dynamics to solve the problems, in an Experience Report, and at the end of the application took place the discussion and analysis of the data obtained. This analysis was performed using an evaluation framework for gamification in Software Engineering, which provided a framework standard for designing evaluation studies for gamification cases, and from of the participants' perception. The results of this work can be considered significant, since the expected results with the application of the elements to the problems were favorable to treat or minimize the problems experienced in the context of SPI.

  • YURI MELO E SILVA DO ESPIRITO SANTO
  • Machine Learning-Based Fault Detection and Adaptive Communication for Alert State in Industrial IoT Networks

  • Data: 30/05/2023
  • Mostrar Resumo
  • Under the perspective of improving productivity, efficiency and safety, industrial production and manufacturing systems require an ever-increasing level of automation, reliability and intelligent control. In this context, the Industrial Internet of Things (IIoT) is an emerging paradigm that allows adding precise, intelligent and low-latency computing to the industrial environment. Despite these benefits, the presence of faults in IIoT devices is still an obstacle to be faced. Such anomalies can lead to accidents, generate financial losses, affect productivity and mobilize the team by producing false alarms. Therefore, this work proposes a mechanism that executes accurate and low-latency Machine Learning models for IIoT failure detection. In addition, the proposed solution applies an adaptive communication policy, triggering an alert state in case of detected failure. This state of alert is characterized by a stage in which the network increases the reliability of communication, based on traffic that uses multiple paths. The performance of the proposal is considering a simulation of the IIoT network and a dataset of an oil refinery industry.

  • THIAGO AUGUSTO SOARES DE SOUSA
  • Conception, Design, and Evaluation of Active Data Physicalization

  • Data: 09/02/2023
  • Mostrar Resumo
  • The design and construction of active physicalizations (active dynamic physical visualizations) are still quite complex because, in addition to knowledge about creating visualizations, other knowledge is required to physically render them, such as material modeling, electronic prototyping, and microcontroller programming. Furthermore, most of these physicalizations are created to present context-specific data and cannot present databases that are different from their original context. Reviews of the literature point out that most evaluations of physicalizations are performed based on the perception and analysis of the tasks performed by the people who interacted with them. And no papers were found that reported on accuracy evaluations performed with this type of physicalization. Based on this context, this dissertation addresses the conception and design process of a low-cost, active data physicalization that can represent different databases with visual mapping based on height and color. This work also addresses an accuracy evaluation of this physicalization based on these two physical and visual variables.

  • ADIEL DOS SANTOS NASCIMENTO
  • An Intelligent Detection of Attacks on SDN Networks: A Hybrid Approach Using Machine Learning and P4 Language

  • Data: 30/01/2023
  • Mostrar Resumo
  • Software-defined networks (SDN) have been considered the evolution of traditional networks, facilitating innovation in the development of new mechanisms, such as detection and mitigation of network attacks. In this context, machine learning (ML) algorithms have been increasingly used, due to the robustness and autonomy that such systems have to learn both traffic behavior and complex correlations in the analyzed traffic data. The use of network telemetry to provide information obtained about the network for AM applications running in the controller, or in a central external agent, has been the most adopted solution. However, the concentration of processing to find patterns combined with the large amount of data and information generated by the network in the control plane is a challenge that can compromise the adoption of such solutions in production environments, due to the increased delay for detection and mitigation of the problem. Another approach consists of distributing trained AM models on SDN network switches to perform traffic classification directly on the data plane with the support of the P4 language, enabling improvements in attack detection time and reducing the number of requests to the controller. This work proposes a hybrid architecture to apply AM-based packet classification solutions to SDN networks, combining the use of the P4 pipeline and strategic agents in the network to provide multilevel attack detection.

    .

  • JEFFSON CELEIRO SOUSA
  • Blockchain-based SLA Auditing for Cloud Resource Slicing

  • Data: 26/01/2023
  • Mostrar Resumo
  • Trust in the handling of service-level agreements between network resource providers enables fair and transparent monitoring of these agreements in distributed cloud-slicing markets. The integration of cloud resource slicing technology with Blockchain can solve the problem of dealing with different types of service agreements, as well as allow the creation and use of specific programmable network treatment metrics to facilitate the management and monitoring of these agreements between slices that are provided across a network that has different administrative domains. In this context, this work proposes a blockchain-based solution for compliance and auditing service-level agreements. Through this integration, it is possible to optimize the resource allocation process through slices in the network, in addition to promoting security for these requests without the need for the intervention of a third party in this process. Metrics from service-level agreements are entered into smart contracts from a distributed ledger, to manage and measure availability, penalty, cost, revenue, and profit. We evaluated the system performance with different performance metrics, in terms of response time and transaction throughput. The results indicate that to monitor 120 resource providers, maintaining an average transaction delay rate of 300 ms, at least 8 vCPUs of 4 GB of RAM are required. This shows that there is a computational cost to running SLA monitoring. However, despite the increased workload observed in the results presented, adding this layer of compliance provided by the blockchain brings transparency to the business, avoiding unnecessary consumption of resources, costly fines, and damage to reputation.

  • ANDERSON DOS SANTOS GUERRA
  • CONES: An RPG Game as a Support Tool for Teaching Software Product Construction

  • Data: 18/01/2023
  • Mostrar Resumo
  • Software Engineering is one of the subjects that allows academics to be able to carry out software development. Despite its importance, some of the difficulties regarding its teaching include identifying forms of learning that can motivate academics and make them implement the necessary knowledge to be used in the industry. Based on this, this work presents a role-playing game that can be used as a tool to assist in teaching the construction of software products. For its elaboration, a systematic mapping of the literature was initially carried out in order to find the main types of games used in the teaching of Software Engineering and map with Bloom's revised taxonomy. Subsequently, a study of the RPG system called GURPS Lite was carried out, in order to understand the different types of rules that exist in an RPG game, after which the ConES RPG game was elaborated and, to validate its mechanics and dynamics, two evaluations with students of different levels of experience in the area of Software Engineering, where all were studying graduation in Computer Science. The prototype evaluations indicated that the developed mechanics are satisfactory and indicated correction points. After the necessary changes, the game was tested in a classroom with 20 students from the Computer Science Course at the Federal University of Amapá. As a result, it was possible to identify the effectiveness of ConES as a support tool, as well as to evaluate its applicability in a teaching environment.

  • ELIELTON DA COSTA CARVALHO
  • Approaches to Support Software Project Management in the Agile Context: An Exploratory and Descriptive Research

  • Data: 18/01/2023
  • Mostrar Resumo
  • Competition in the market is fierce, changes are increasingly rapid and technological development is constant. In this context, project management is inevitable, as there is a need to achieve continuous improvements through different types of projects. However, managing projects is not a trivial task, given the multitude of factors that need to be taken into account, especially in the context of agile software development, where changes are even faster and more frequent. As a result, project management approaches have become indispensable in the daily lives of agile software development teams and over time they have undergone changes and evolutions that have given them even more relevance and prominence in this context. However, these changes, over time, brought challenges for organizations when choosing the most appropriate approach for the project's objectives and needs. Therefore, it is essential to know efficient management approaches that help organizations to anticipate and have increasingly satisfactory results compared to the competition. Several studies have been carried out with the aim of demonstrating how relevant a well-done management is for the agile software development industry and how the approaches can help in this process. However, although studies focus on presenting the development of new project management approaches or the evaluation of existing ones, no study was found that broadly brings together these approaches, including characteristics such as: strengths, limitations and where these approaches approaches are applied in software project management within the agile context. Thus, this work aims to identify what are the project management approaches used in agile software development. To achieve the objective of this research, an exploratory and descriptive study was carried out, by conducting a Systematic Mapping of Literature, followed by a Survey and, at the end, a catalog was developed with the approaches identified in the research. With this, it is expected to contribute with the state of the art, project managers and enthusiasts when selecting an approach that best suits their daily needs.

2022
Descrição
  • LUCIANO ARRUDA TERAN
  • Considerações de Design para Sistemas de Pagamentos Instantâneos e Usuários Emergentes

  • Data: 20/12/2022
  • Mostrar Resumo
  • As tecnologias digitais de informação e comunicação remodelaram diversos serviços presentes na vida das pessoas. Todavia, alguns serviços implementados em sistemas interativos tem considerado fatores educacionais da sociedade, onde a migração dos serviços presenciais para as plataformas digitais fortificaram a necessidade de letramento e experiências de ensino formal das pessoas. Relacionado aos sistemas financeiros, o pagamento instantâneo brasileiro (Pix) gerou um novo método de transferência eletrônica para a acessibilidade financeira e digital entre prestadores e clientes. Contudo, ainda existem desafios de desenvolvimento que amenizem as barreiras ao acesso digital de diversos públicos, principalmente por usuários que emergem suas necessidades de interação a partir de aspectos educacionais, renda e cultura. Neste contexto, este trabalho busca desenvolver um conjunto de considerações de design que precisam ser utilizados na construção de sistemas de pagamento instantâneo e atendam às expectativas de usuários emergentes de software. A pesquisa foi realizada por meio de levantamento da literatura e estudos com o público-alvo. Logo, foi realizado um questionário com profissionais de desenvolvimento de software, um mapeamento sistemático para identificar lacunas de contextos de usos e usuários a serem beneficiados por softwares inclusivos, uma inspeção de uma proposta bancária e um levantamento de recomendações de design e avaliação de sistemas interativos para usuários emergentes. Em seguida, realizaram-se dois estudos de caso em um contexto 12 para 12: o primeiro foi realizado com 12 residentes de uma comunidade ribeirinha amazônica para construir as considerações e o segundo foi realizado com 14 usuários que possuem ensino fundamental ou médio incompleto para validar e evoluir as considerações anteriores. Cada estudo de caso foi analisado por meio de aspectos sociais dos participantes e método de inspeção semiótica. Portanto, como resultados, o estudo apresenta um conjunto de considerações que possam ser utilizado por instituições financeiras para tornar suas interfaces de sistemas de pagamentos mais acessíveis para usuários que utilizam o celular como meio de compartilhamento e aquisição renda.

  • WANDER WILSON DE LIMA CARDOSO
  • Uso da Teoria da carga cognitiva na elaboração do conteúdo de uma disciplina de Introdução a Programação

  • Data: 20/12/2022
  • Mostrar Resumo
  • A Teoria da Carga Cognitiva (TCC) apresenta diretrizes que tem o objetivo de otimizar o processo de aprendizagem, baseados em pesquisas relacionadas ao funcionamento do cérebro. Estudos revelam que a memória humana é subdividida em memória de trabalho e a de longo prazo. Durante a aprendizagem é a memória de trabalho que processa as novas informações, e esta possui um número limitado de novas informações que podem ser processados durante a aquisição de novos conhecimentos, portanto, torna-se necessário gerenciar o número de novas informações a serem transmitidas ao aprendiz. A teoria da carga cognitiva afirma que a aprendizagem acontece melhor quando os materiais didáticos (quantidade de informação) se alinham com a arquitetura cognitiva humana. Sweller e seus seguidores estudaram o alinhamento simultaneamente da estrutura da informação com a arquitetura cognitiva, desvendando efeitos cognitivos que são associados a novos princípios instrucionais que visam aprimorar o processo de aprendizagem. Considerando o alto índice de retenção de discentes vinculados a disciplinas que abordam estudos sobre algoritmos, verifica-se a necessidade de buscar soluções que busquem facilitar a aprendizagem deste tipo de conteúdo. Este trabalho tem como objetivo otimizar a aprendizagem de algoritmos através do desenvolvimento de materiais didáticos com base na TCC (uma guia de desenvolvimento de algoritmos, uma guia de labortório de programação em Python e um conjunto de slides).   Após desenvolvidos, estes materiais foram aplicados em uma turma real. Como resultados, verificou-se melhora na aprendizagem, refletida na redução das taxas de retenção.

  • CASSIO TRINDADE BATISTA
  • Experiments on Forced Phonetic Alignment for Brazilian Portuguese Using Kaldi Tools

  • Data: 07/10/2022
  • Mostrar Resumo
  • Phonetic analysis of speech, in general, requires the alignment of audio samples to its phonetic transcription. This could be done manually for a couple of files, but as the corpus grows large it becomes infeasibly time-consuming. This paper describes the evolution process towards creating free resources for phonetic alignment in Brazilian Portuguese (BP) using Kaldi, a toolkit that achieves state of the art for open-source speech recognition, within a toolkit we call UFPAlign. The contributions of this work are then twofold: developing resources to perform forced alignment in BP, including the release of scripts to train acoustic models via Kaldi, as well as the resources themselves under open licenses; and bringing forth a comparison to other two phonetic aligners that provide resources for BP, namely EasyAlign and Montreal Forced Aligner (MFA), the latter being also Kaldi-based. Evaluation took place in terms of phone boundary and intersection over union metrics over a dataset of 385 hand-aligned utterances, and results show that Kaldi-based aligners perform better overall, and that UFPAlign models are more accurate than MFA’s. Furthermore, complex deep-learning-based approaches still do not improve performance compared to simpler models.

  • EDUARDO GABRIEL LIMA DA SILVA
  • Resource Allocation for Long Range Wide-Area Network

  • Data: 30/09/2022
  • Mostrar Resumo
  • The concept of IoT has brought many advantages and connectivity to the world. People in smart cities tend to be constantly connected, and wireless connection technologies have become necessary in their routines. However, the challenge of maintaining this reliable connectivity increases for science. LoRa was developed as a wireless technology to transmit data over a long range and low cost. The LoRa devices can send packets for tens of kilometers through the LoRaWAN protocol. However, LoRa needs to set the transmission parameters hierarchically allocated and adapted to the network context to maintain its purpose. The LoRaWAN protocol provides a resource allocation mechanism called ADR LoRaWAN that allocates SF and TP transmission parameters to increase scalability and reduce devices’ power consumption. However, ADR LoRaWAN has flaws in prioritizing scalability at the cost of low reliability. In this master’s thesis, we propose the PRA and APRA LoRa resource allocation mechanisms. Both aims to create a hierarchy between devices and ensure better performance for high-priority devices in LoRa networks. While PRA focuses on reducing ToA and power consumption, APRA aims to reduce packet loss and power consumption while increasing the battery life of devices. We compared PRA and APRA with state-of-the-art mechanisms in the LoRaSim simulator. The results showed that the PRA mechanism reduced the ToA and power consumption of high-priority devices by up to 85%. APRA increased up to 5% in packet delivery and 85% in energy savings. Furthermore, APRA’s TP allocation mechanism has increased the device’s battery life by up to 28 years.

  • ISAAC SOUZA ELGRABLY
  • An Approach to Teaching Software Testing Using Active Methodologies in Higher Computing Courses

  • Data: 20/09/2022
  • Mostrar Resumo
  • Software testing is considered a key activity in the software development cycle as it helps computer professionals design good quality software. Thus, this is an essential activity for the software industry, although with all its nuances, learning at the academic level is still not given high priority. Considering that it is a content that needs a good amount of elements of previous knowledge and much of its knowledge needs practical interventions, the importance of using active methodologies was seen, which has been well accepted in more practical computing disciplines. Thus, the main objective of this work is to present a teaching approach used with a curriculum, and a teaching plan for a software testing discipline, based on active methodologies. As a result, there is a teaching plan that is built from active methodologies, which is composed of 32 theoretical and practical classes, distributed in 4 modules, which is based on references from a specialized curriculum in software testing, built from a mapping in different assets related to software testing, the main ones being the SBC Curricular Reference Guide, the ACM/IEEE Curriculum Guide and the SWEBOK Software Engineering Knowledge Guide. In addition, two quasi-experiments were carried out in full, the first evaluated the effectiveness of the test teaching approach compared to a traditional approach and the second, in addition to evaluating the effectiveness of the teaching approach against a traditional approach, also made an analysis of the efficiency of learning in the class, both quasi-experiments were analyzed with a statistical analysis using the two-sided Student's t distribution, which showed a certain learning gain for the presented approach.

  • HUMBERTO CAIO CAMILO LEAO
  • IoT Data Disaggregation in Next Generation Software Defined Networks

  • Data: 19/09/2022
  • Mostrar Resumo
  • Low-Power Internet-of-Things (LPIoT) networks are generally designed for applications such as smart cities, building monitoring, and smart metering. They are characterized by a large number of IoT nodes with resource limitations such as energy, processing, and data transmission. Due to its limitations, it is common to use techniques that seek to alleviate them. One of these techniques is data aggregation, whose purpose is to reduce network traffic, which brings benefits such as reducing the energy consumption of these LPIoT devices. However, any aggregated payload needs to be disaggregated before packets are delivered to IoT applications. In this work, we consider that programmable switches must perform the disaggregation of packets aggregated by LPIoT devices. Nevertheless, the disaggregation process can cause a reduction in the transfer rate, as it is a computationally expensive process. In view of this, we propose the implementation of an IoT packet disaggregation strategy in software-defined networks (SDN), with packet processing in the data plane, using the P4 language.

  • ADAILTON MAGALHAES LIMA
  • UNDERSTANDING THE CORRELATION OF TRAVELS AND REMOTE MEETINGS IN DISTRIBUTED SOFTWARE DEVELOPMENT


  • Data: 14/09/2022
  • Mostrar Resumo
  • Context: Remote communication is critical for distributed software development. Despite previous studies, it still is necessary to identify, understand and characterize factors that affect remote communication and its impact on distributed software development. Goals: We seek to advance towards a better understanding of the dynamics of collaboration practices among members of Distributed Software Development (DSD) projects and how usual project metrics, especially the ones related to travel and remote meetings, can correlate to the software testing process. Method: we conducted a quantitative retrospective study using historical data from a DSD project management dataset to investigate the correlation of travels and remote meetings with time spent on bug-fixing tasks. Additionally, we conducted a qualitative study, in which we interviewed software developers working on distributed projects and collected their perception regarding working practices and the impact of distance on their projects. Results: Based on the quantitative study, we found that travels are associated with the team spending up to three thousand percent more hours fixing bugs (from 1 to 31.1 hours) in a single project release when compared to releases with no travels involved. Travels are correlated to an increase in the total time spent in the same release to fix bugs. We search for an explanation for these results, through a more comprehensive contextualization of findings from a cross-company study, by interviewing ten software engineers from seven companies. Interviewees highlighted that travel and face-to-face meetings improved communication during critical project milestones. They also explained how tools must provide continuous and multiple communication channels among team members to help them segment communication or find the right person to answer questions or solve problems in testing or production environments. Conclusion: Our quantitative research results show a correlation between travels and the time spent on remote meetings with the time spent on bug-fixing tasks in the same release. The qualitative ones show the importance of traveling to another site to meet face-to-face teams and the support of tools and time to communicate with remote members of the same project. Additionally, we observed that the time zone in innersourcing projects has different correlation results with the time spent on bug fixing depending on the teams' location. 

  • WENDY MENDES GALENO
  • Hackathons and similar time-bounded events have become a popular form of collaboration invarious domains. They are commonly organized as in-person events during which teams engagein intense collaboration over a short period of time to complete a project that is of interest tothem. Most research to date has thus consequently focused on studying how teams collaborate ina co-located setting pointing towards the advantages of radical collocation. The global pandemicof 2020 however has led to many hackathons moving online which challenges our currentunderstanding of how they function. In this study we address this gap by presenting findingsfrom a multiple-case study of 10 hackathon teams that participated 4 hackathon events acrosstwo continents. Our findings indicate that some of the affordances of in-person hackathons, suchas the radical collocation of team members, could be noticed in the online hackathons, in theform of "radical virtual collocation". However, others, such as the interactions with other teams,the easy access to mentors, and the Networking with Other participants, diminished or evendisappeared: interactions with mentors became formal and less spontaneous (i.e., booking) andvery short sessions; the casual contact with participants from other teams no longer exist. Thetechnical constraints of the myriad of communication tools and platforms bring technical issuesand are overwhelming to participants.

  • Data: 02/09/2022
  • Mostrar Resumo
  •  online hackathons, time-bounded collaborative events

  • MARLON SILVA PIMENTEL CRUZ
  • Methodology for Using Digital Copies in Computer Networks: Case Study of the Metropolitan Network of Belém (METROBEL)

  • Data: 30/08/2022
  • Mostrar Resumo
  • The concept of the digital shadow, a digital representation of a real-world object that has a one-way flow between the physical and digital objects, has been gaining popularity in the industry and is beginning to be used in different scenarios. This approach exploits the potential of digital copying to represent the real purpose and thus facilitate experiments around a given production environment. This work proposes a strategy divided into four steps to use digital copying in the context of computer networks, with the objective of being a low-cost alternative to help in the planning and evaluation of operations inherent to the management of real networks. As a case study, the proposal will be applied to create a digital copy of the MetroBel network - Rede Metropolitana de Ensino e Pesquisa de Belém, to facilitate its planning and evolution.

  • ADRIANNE VERAS DE ALMEIDA
  • Introdução ao Pensamento Computacional na Educação Básica: Formação Inicial Docente Utilizando uma Ferramenta Educacional Chatbot com Inteligência Artificial

  • Data: 22/08/2022
  • Mostrar Resumo
  • De acordo com as diretrizes da SBC (Sociedade Brasileira de Computação), os fundamentos da Computação são base para o Pensamento Computacional (PC), o qual tem por objetivo desenvolver uma série de habilidades tais como o pensamento crítico, criatividade, adaptabilidade entre outras. Como também, pode ser aplicado para resolver problemas em diversas áreas de conhecimentos, o que torna uma habilidade essencial na formação dos profissionais de todas as áreas. Sob este contexto, o presente artigo tem como objetivo relatar a experiência de uma formação inicial online, realizada com professores de matemática e computação/informática na educação básica no Brasil, que desejem incorporar temas relacionados ao PC às suas atividades didáticas desenvolvendo habilidades para resolução de problemas. Com isso, essa formação uniu as metodologias da aprendizagem baseada em computação des(plugada), jogos digitais e programação em bloco. Além disso, foi desenvolvido e utilizado um chatbot com técnicas de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) para auxiliar no processo de ensino-aprendizagem do PC. Os resultados preliminares, indicaram que os professores adotaram novas estratégias no seu ambiente de trabalho, elaborando e aplicando práticas educativas integradas à temática em escolas da rede de ensino. Sendo assim, a formação foi validada pelos participantes e se mostrou relevante para ser inserido em formações maiores no contexto da educação básica. Portanto, espera-se contribuir para que redes de ensino e escolas reestruturarem seus currículos, visando a integração do PC nas disciplinas do ensino básico, de acordo com as novas diretrizes da Base Nacional Comum Curricular (BNCC).

  • ESDRAS ROBERTO ALVES DE LA ROQUE
  • The demand for bandwidth has been increasing exponentially in recent years, with homes, businesses, industries, mobile devices, internet of things devices, wearable devices, etc., more and more connected to the internet through applications that also continue to evolve and demand greater speed for data exchange, commonly often a real-time system models, demanding more resources, not just speed, but also quality in the physical means of accessing the network. In this context, we have optical networks as the best way of access. However, the optical environment supports a bandwidth that allows the use of several applications at the same time, through signal multiplexing, which is dividing the band for multiple applications and also avoiding underutilization of the physical resource. However, routing these split signals requires optoelectric conversions, reducing the total capacity in the response time, as the signal goes from the light field to the electric one, being demodulated, processed by routing algorithm and again modulated to light signal, each time it finds a transient router on which it needs to decide which route to take until the destination. This is the problem of networks known as the RWA Problem in WDM networks and to solve it, several proposals involve intelligence algorithms computational, which, in general, are algorithms that process predictive models and require some computation time until deliver an acceptable solution. However, this computation takes longer than the optoelectrical conversion itself, making it unfeasible its application in a real routing scenario. This work presents a parallel strategy with a heuristic approach to reduce the execution time bottleneck of a routing and wavelength assignment problem in wavelength-division multiplexing networks of a previous work that uses a sequential genetic algorithm. As the parallelization solution, the GPU hardware processing on CUDA architecture and CUDA C programming language were adopted. A program code, originally written in Python programming language and executed sequentially, was first ported to the C-99 programming language, also running in the sequential model. Then, this last version was ported to the CUDA C programming language, and in this one, already running a parallel program model in GPU computing architecture. As results achieved, the processing time was considerably reduced, obtaining an improvement in the order of scale between 35 and 40 times faster than the original sequential version of the genetic algorithm running in Python.

  • Data: 19/08/2022
  • Mostrar Resumo
  • Genetic Algorithm, RWA problem, CUDA, Parallelization, WDM networks

  • RAMON DA GAMA CORDEIRO
  • Blockchain Applications Assessment Methodology

  • Data: 19/08/2022
  • Mostrar Resumo
  • Blockchain is an emerging technology that has attracted the attention of industry and academia in recent years. The interest is due to the possibility of reliably communicating and exchanging data in a decentralized environment where there is no trust between participants. Recently, many blockchains and decentralized applications have been created as alternatives to solve specific challenges. With the number of proposed solutions increasing daily, it becomes necessary to use standardized parameters to assess which is the most appropriate in a specific context. This work presents an evaluation methodology for blockchain that can be used for stakeholders who need to choose the best technologies, or for those who want to evaluate a previously chosen or implemented solution. The proposed solution was evaluated through use cases in different scenarios. The results demonstrated the methodology's efficiency and flexibility to evaluate blockchains for different purposes.
  • SAMARA LIMA DE SOUZA
  • Data Mining in Public Security Databases in Belém do Pará - Brazil

  • Data: 10/08/2022
  • Mostrar Resumo
  • Crime is a common social problem faced around the world, and it can affect a nation's quality of life, economic growth, and reputation. Thus, public security authorities need to take preventive measures and one of the methods that have been gaining ground in crime analysis is data mining. Thus, the objective of this work is to create a set of tools to combat crime, using techniques of exploratory data analysis, extraction of associative rules, and a crime classifier, through data from police reports in the city of Belém and throughout the state of Pará, Brazil in the years 2019, 2020 and 2021. To guide this study, the CRISP-DM methodology was used, where it was possible through the first two techniques to extract knowledge to understand and analyze the crime scenario in the municipality of Belém, as the fact that a certain crime occurs at night implies that its nature is robbery in order to assist the responsible bodies in investigations and strategies for a more effective fight against crime, as well as using the third technique to optimize manual processes, making the classification of crimes from the reading of a report of occurrence bulletins from all the municipalities of the state of Pará, with an accuracy of approximately 78%, benefiting other government research and statistics that require the correct classification of the type of crime, in addition to reducing the manual work that is done by analysts at the Assistant Secretariat for Intelligence and Criminal Analysis of the state of Pará, Brazil.

  • ANDRE MIRANDA PINHEIRO
  • Um Estudo Exploratório das Contribuições dos Eventos Colaborativos de Curta Duração para Fundadores de Startups


  • Data: 29/07/2022
  • Mostrar Resumo
  • Os eventos colaborativos de curta duração atraem diversos tipos de pessoas para trabalhar em pequenas equipes que desenvolvem um projeto de software para solucionar um deter- minado problema. Ao participar desses eventos, os seus participantes têm a oportunidade de adquirir novos conhecimentos, conhecer pessoas, enriquecer o seu portfólio, ganhar reconhecimento e conseguir propostas de emprego. Apesar de não ser muito comum, alguns dos projetos desenvolvidos nestes eventos podem ser o início de uma startup. Ainda assim, existem poucos estudos explorando o relacionamento desses eventos com startups. Esta dissertação tem o objetivo de entender como os fundadores de startups se beneficiam dos eventos de curta duração. Para verificar isso, uma pesquisa exploratória com abordagem qualitativa foi realizada. Os dados foram coletados por meio de entrevistas semiestrutu- radas com 16 fundadores de startups brasileiras. Os entrevistados residem e atuam em diversos estados do Brasil, incluindo Pernambuco, Pará, Paraná, Santa Catarina e São Paulo. Os dados coletados foram analisados usando algumas das técnicas de codificação da Teoria Fundamentada em Dados (codificação aberta e axial), em seguida os resultados da análise dos dados foram apresentados para outros fundadores de startup como uma forma de validar os resultados obtidos. Esta pesquisa revelou que as startups, através dos relatos de seus fundadores, se favoreceram tanto das participações que ocorreram antes da criação da empresa, bem como das que ocorreram após a criação dela. Os benefícios citados pelos entrevistados incluem o desenvolvimento de novos produtos, arrecadar dinheiro, ganhar visibilidade, perceber oportunidades de atuação, aprendizado e networking, sendo que o aprendizado pode ser de vários tipos incluindo conhecer metodologias, desenvolver soft skills e aprender a utilizar ferramentas. Enquanto que o networking pode beneficiar as startups ao permitir que as mesmas identifiquem fundadores, sócios, novos clientes, entre outros. Nossos resultados sugerem que a participação em eventos colaborativos de curta duração ajudam as startups a satisfazer algumas das necessidades que as mesmas possuem.

  • EDUARDO COSTA DE CARVALHO
  • Crack detection in wagons aided by convolutional neural networks

  • Data: 22/07/2022
  • Mostrar Resumo
  • Crack detection is a problem for any physical structure, where wear and tear over time can generate different types of problems for people. When taking this subject to the context of vehicles, there is a check of track conditions and equipment. A freight car can reach a storage capacity of up to 120 million tons in a year, in addition to the use of this means of transport for people. In this sense, the maintenance of train wagons is of paramount importance for the economy of a country, so studies on the lifetime of these wagons are increasingly carried out in order to increase their time of use without impacting the safety of all those involved with these tasks. The use of human force to check wagon parts has been carried out and over time the concern with their health has been taken into account, as studies suggest that people exposed to places with a high level of danger have generated different types of diseases, as well as the economic appeal in loss of part of transported materials. The wagons used for this work were iron ore freight wagons. For such wagons, compositions of 330 wagons divided by 3 times were studied, therefore 110 wagons were evaluated at a time. Thus, with these numbers in hand, this thesis proposes a way of structuring data for each type of evaluated algorithms. Firstly, a data capture model is indicated and modified for its following tasks, then this structuring performs the application of image segmentation models to serve as input for the classifier algorithms. Then the thesis indicates the use of 2 types of databases in the evaluation of a machine learning method model. The proposal to use 2 forms of databases for only one model at this time is due to the previous use of attempts in two other machine learning models, with unsatisfactory results. The evaluation of this second contribution is done in order to evaluate wagon cracks present in the real images that were used for an unbalanced database and another balanced database. Then the thesis indicates the use of another evaluation method and the creation of an ensemble based on voting to try to improve the results found by all previously evaluated algorithms. The results obtained in this thesis demonstrate that the use of machine learning and computer vision methods can identify cracks in train wagons in order to offer savings to companies that use such transport methods, as well as better security for all people directly involved. or indirectly in train maintenance activities.

  • MATHEUS OLIVEIRA LEITE DE SA

  • Data: 15/07/2022
  • Mostrar Resumo
  • Coerção é um problema inerente a qualquer eleição realizada via Internet e é mitigada pelo uso de protocolos que empregam credenciais de votação. Entretanto, credenciais são usualmente compostas por extensos valores numéricos, o que dificulta sua utilização por usuários com menos conhecimento técnico em cenários de eleições reais. O uso incorreto das credenciais de votação debilita a resistência à coerção de um protocolo. Nesse contexto, este trabalho propõe a utilização de um novo modelo de senhas como alternativa ao uso direto de credenciais pelo usuário, abstraindo os extensos valores numéricos para senhas formadas por combinações de palavras e cores. Tais senhas são formadas utilizando os itens de um dicionário estruturado, inspirado na tecnologia BIP-39 do Bitcoin, e uma paleta de oito cores distintas. Como validação, foram realizadas avaliações de segurança teórica e da qualidade da interação do modelo proposto. Para a avaliação de segurança o modelo foi comparado com o protocolo de senhas de pânico 5-Dictionary, enquanto as avaliações de interação compararam-no com senhas alfanuméricas. As senhas coloridas atingiram melhores resultados que seus concorrentes em ambas as avaliações, o que aponta para um aumento tanto na segurança quanto na qualidade da interação do modelo em relação à literatura.
  • ROBERTO BARBOSA DE ALMEIDA JUNIOR
  • Identificação de Metodologias de Ensino-Aprendizagem na Programação Paralela com Placas Gráficas: Uma Revisão Sistemática da Literatura

  • Data: 11/07/2022
  • Mostrar Resumo
  • A Computação de Alto Desempenho (CAD) é hoje uma realidade nos grandes centros de pesquisa, pois ajuda na solução de problemas complexos que necessitam de um elevado poder de processamento. Com o avanço da tecnologia, esses sistemas passaram a utilizar uma forma híbrida de processar, ou seja, passaram a ser formados tanto por processadores multicores quanto por placas gráficas, onde o número de núcleos disponíveis para processamento pode chegar a algumas centenas. No entanto, nem sempre a pesquisa e o ensino caminham no mesmo compasso, isso porque, apesar do ensino da programação paralela já ser uma realidade na maioria dos cursos de graduação em Computação no Brasil, o uso das placas gráficas neste processo de ensino-aprendizagem, ainda se mostra como um objetivo a ser alcançado. Isso talvez, possa ser explicado, pela especificidade da tecnologia que requer arquiteturas e softwares próprios, mas principalmente, também, pela necessidade de profissionais capacitados que sejam capazes de definir metodologias que possam ser ao mesmo tempo, motivadoras e facilitadoras no processo de ensino-aprendizagem. Isso irá permitir com que os alunos possam adquirir as competências e as habilidades necessárias para a sua formação, mas também, irá despertar o interesse pela área, contribuindo para a formação de uma mão-de-obra qualificada e necessária. Este trabalho apresenta uma Revisão Sistemática da Literatura (RSL) com o objetivo de identificar abordagens no processo de ensino-aprendizagem da Programação Paralela, porém, especificamente, utilizando placas gráficas, afim de identificar metodologias que estejam sendo utilizadas no ensino deste eixo de formação da Computação. Para a RSL, foram selecionadas inicialmente 34 fontes, entre bases nacionais e internacionais, dentro das áreas de Computação de Alto Desempenho e Programação Paralela. Em seguida, essa pesquisa foi expandida para bases como ACM, IEEE, Science Direct, EI Compendex, ISI e Scopus. A pesquisa retornou 867 estudos, sendo que destes, apenas 5 trabalhos foram selecionados após a aplicação dos critérios de inclusão e exclusão, demonstrando, dessa forma, uma limitação de produções acadêmicas no tema proposto.

  • BHRUNNO BRITO MEDEIROS
  • As dificuldades no Gerenciamento de API: Um Estudo de caso em um órgão público brasileiro

  • Data: 07/07/2022
  • Mostrar Resumo
  • Com o avanço da tecnologia de software em diversas organizações, a utilização de Application Programming Interfaces (APIs) Representational State Transfer (REST) nos negócios está aumentando cada vez mais. Organizações estão caminhando rumo às transformações digitais, fornecendo ou consumindo informações e aumentando suas produtividades e assim, gerando conexões de negócio com produtos de software, permitindo criar novos negócios com mais facilidade, e através de integração entre organizações, proporcionando um ecossistema de APIs (Blosh, 2006).

    De acordo com Fielding (2000), o Representational State Transfer (REST) é uma abstração da arquitetura de elementos dentro de um sistema hipermídia distribuído, ou seja, Protocolo de Transferência de Hipertexto (HTTP).  Além disso, ele abrange as restrições fundamentais sobre os componentes, conectores e dados que definem a base da arquitetura da Web. Sendo, portanto, a essência de seu comportamento baseado em aplicações de rede (Fielding, 2000).

    Uma API REST ajuda no alcance de um melhor desempenho, além de reduzir o acoplamento entre as aplicações. Isso faz com que haja o aumento da capacidade de integração de um sistema com o outro (Santana, 2019 apud Tilkov, 2009).

    As APIs REST podem ser os maiores ativos de uma organização, isso se deve ao fato delas ajudarem a captar clientes devido ao investimento destes clientes em compras ou utilização de serviços. Dados de várias organizações, como WSO2, Oracle, Azure e Apigee, mostram que através do gerenciamento de APIs REST é possível conseguir gerar insights, incluindo os padrões de acesso geográfico, tipos de dispositivos e até latências dos principais usuários (Santana, 2019).

    As APIs acabam envolvendo uma arquitetura que está ganhando cada vez destaque, que são os microsserviços. Estes permitem implementar novos serviços de uma maneira que haja a possibilidade de reaproveitamento em curto espaço de tempo, assim, permite que estes novos serviços sejam escaláveis e resilientes (Martins, Pires e Souza, 2021). 

    Os microsserviços trazem bastante benefícios, como a disponibilização e escalabilidade considerando as diferenças partes do sistema (Martins, Pires e Souza, 2021 apud Newman, 2015). Porém, apesar desses benefícios, é possível encontrar várias dificuldades, pois eles trazem mais complexidade para os sistemas, requerendo a utilização de novos componentes (Martins, Pires e Souza, 2021 apud Balalaie, Heydarnoori e Jamshidi, 2016). 

    Com a importância das APIs de serviços cada vez maior, torna-se necessária a utilização de plataformas adequadas para o seu gerenciamento. Grandes empresas como Facebook, Google, IBM, Microsoft, bancos nacionais e internacionais já utilizam APIs para disponibilizar seus serviços. O objetivo dessas plataformas ou ferramentas é justamente a disponibilização de serviços. Porém, como se tratam de grandes empresas e, consequentemente, de grandes sistemas, dificuldades são encontradas, que acabam atrasando o seu desenvolvimento. De acordo com Santana (2019), durante o processo de utilização e gestão de APIs REST, naturalmente acabam surgindo dificuldades e problemas e isso pode causar algum prejuízo no êxito da gestão destas APIs.

    Assim, diante da grande importância das APIs para as organizações e da necessidade de gerenciar estas APIs (Santana, 2019), este trabalho descreve um estudo de caso em uma organização sobre os mecanismos de gestão de APIs adotados. A organização escolhida é um órgão público estadual, que possui sistemas conectados no estado do Pará e no Brasil. Esta organização possui diversas APIs em seu vasto ecossistema e mostra-se adequada para este estudo pelo tamanho da abrangência que o órgão possui no país.

    Problemas e dificuldades da gestão de APIs foram identificados através de uma pesquisa de campo com dados coletados por meio de entrevistas. Além disso, este trabalho também mostra (i) como a ferramenta Sharingan pode ajudar a lidar com algumas das dificuldades que foram encontradas e (ii) propostas de extensões à ferramenta Sharingan para que a mesma possa atender as necessidades da organização estudada. 

    O objetivo geral dessa pesquisa é proposição de uma lista de requisitos funcionais e não-funcionais para o desenvolvimento de uma ferramenta de gestão de APIs. Isto é feito através da identificação e análise das dificuldades encontradas quando APIs REST são utilizadas dentro de um órgão público brasileiro. A organização estudada é um órgão público brasileiro responsável pela coleta de impostos e funções de gestão financeira para todo o estado, possuindo uma equipe de mais de 100 profissionais de TI distribuídos em diferentes equipes, com aproximadamente 500 APIs ativas. As questões levantadas no presente artigo são: (i) Como coletar insumos para o desenvolvimento de uma ferramenta de gestão de API? (ii) Quais os requisitos necessários para o desenvolvimento de uma ferramenta de gerenciamento de API? 

    Os objetivos específicos são: (i) coletar na literatura quais ferramentas são usadas para o gerenciamento de API, (ii) Coletar dados de ferramentas de gerenciamento de API que são utilizadas no mercado e (iii) Realizar pesquisa de campo realizada através de entrevistas. Por fim, realiza-se também uma análise da ferramenta Sharingan, que é utilizada para o gerenciamento de API no próprio órgão público, que possui como uma de suas principais características ser um módulo externo à aplicação principal, coletando dados de uma API sem a necessidade de modificações no código fonte da API WEB monitorada (Santana, 2019).

  • ADRIANO SILVA BARRETO
  • An Online Pyramidal Embedding Technique for High Dimensional Big Data Visualization
  • Data: 06/07/2022
  • Mostrar Resumo
  • The task of visualizing large dimension data is challenging in a machine learning context where knowing the dataset is essential to find the right technique for creating classification, clustering, prediction models, and others. It is of paramount importance to understand that these sets and visual inspections can help in this search. To face the problem of visualizing highly dimensional data, we can use DR (Dimensionality Reduction) techniques, producing low-dimensional representations (2D or 3D) in order to obtain knowledge of the behavior of these data. Many techniques are capable of producing low-dimensional data but they are computationally expensive, reaching O(n^3) complexity. This, together with the need to load all data into main memory, make the use of these techniques for Big Data impractical. In this work, we will introduce PES (Pyramidal Embedding System), an incremental DR technique that allows use in Big Data, free of hyperparameters, with linear complexity in time O(n), capable of to perform embedding in both 2D and 3D.
  • LUCIANO RIBEIRO DUARTE
  • Uma Revisão Sistemática da Literatura Aplicada à Recuperação de Dados Armazenados em Nuvem.

  • Data: 04/07/2022
  • Mostrar Resumo
  • O acesso à informação, independentemente da localização, é algo necessário e essencial, assim como, o acesso aos arquivos pessoais através dos dispositivos móveis, que também se tornou algo imprescindível. Para isso, os serviços de armazenamento e processamento em nuvem evoluíram, tornando-se uma tecnologia confiável e em muitos casos, virtualmente ilimitada. Porém, como em todo dispositivo de armazenamento, os dados podem ser deletados de forma proposital ou acidental, havendo, com isso, a necessidade de recuperá-los. As técnicas utilizadas de recuperação de dados nestes dispositivos se mostram quase sempre ineficientes quando aplicadas em dados armazenados na nuvem. Por este motivo, o crescimento exponencial da computação em nuvem passou a ser uma das demandas mais debatidas entre os profissionais da computação forense digital na contemporaneidade, isso porque, trouxe vários desafios, entre eles: a identificação do proprietário de um arquivo deletado, a alocação dinâmica e eficiente da distribuição dos dados, a integridade e a segurança dos dados armazenados são alguns dos novos desafios a serem superados. A recuperação de dados nesses ambientes, além de necessitar de ferramentas especializadas para contribuir na análise, extração e recuperação de dados, pode necessitar, também, do trabalho conjunto de diversos profissionais como: especialistas em direito digital, peritos criminais e profissionais de Tecnologia da Informação (TI). Esse trabalho apresenta uma Revisão Sistemática da Literatura aplicada à recuperação de dados em servidores na nuvem com o objetivo de identificar e apresentar as abordagens existentes de recuperação de dados em nuvem. Durante a pesquisa foram 3.374 estudos retornados, sendo que apenas 13 trabalhos passaram nos critérios de inclusão e exclusão, onde foram apresentadas as principais ferramentas utilizadas para a recuperação de dados. Além disso, este trabalho descreve, também, as principais vantagens e desvantagens do armazenamento em nuvem, os modelos de implantação, tipos de serviços oferecidos pelos fornecedores e por fim, aborda as legislações brasileiras e internacionais que tratam do contexto deste estudo.

  • IVO DE ABREU ARAÚJO
  • Explicabilidade de modelos de caixa preta: Um estudo de caso em análise de sentimentos de mensagens do Twitter sobre a COVID-19

  • Data: 29/06/2022
  • Mostrar Resumo
  • A interpretação de predições realizadas por algoritmos de aprendizado de máquina é uma necessidade em aplicações inteligentes em que a confiabilidade nos resultados é essencial, principalmente quando se trata de decisões que afetam diretamente a vida humana, como na saúde e finanças. Nesse contexto, define-se a interpretabilidade como a capacidade de compreensão de modelos, enquanto que a explicabilidade utiliza de abordagens para tornar modelos complexos mais transparentes. Diante disso, este trabalho tem como objetivo desenvolver testes de explicabilidade utilizando o framework LIME (Local Interpretable Model-Agnostic Explanations) no contexto de NLP (Natural Language Processing) para interpretar predições de um SVM (Support Vector Machine) em classificações de sentimentos em mensagens do Twitter relacionadas a COVID-19 (Corona Vírus 19). Para otimizar o processo de compreensão de amostras, desenvolveu-se uma aplicação web integrada com o LIME para explorar essas predições de forma interativa através da escolha da quantidade de features explicadas. Com a análise dos resultados obtidos com o LIME, observou-se um ganho de transparência quanto ao processo de compreensão de decisões internas do modelo de caixa preta através de palavras determinantes que impactam predições. Por exemplo, na análise realizada nesta dissertação foi possível perceber na avaliação de amostras falso positivas, que o modelo SVM tende a falhar ao associar um teste positivo de COVID a um sentimento bom e ficar confuso em predições específicas que envolvem palavras relacionadas a variantes de COVID como a Ômicron.

  • FABRICIO WICKEY DA SILVA GARCIA
  • An Approach to Teaching Algorithms Using Active Methodologies in Higher Computing Courses

  • Data: 30/05/2022
  • Mostrar Resumo
  • The teaching of algorithms has proved to be quite challenging in recent years. The Algorithms course provides a foundation for all subsequent programming courses in an undergraduate course. The contents related to programming are considered complex and difficult to understand, which ends up generating high failure rates in subjects and, consequently, can influence the increase in the dropout rate in courses in the computing area. In view of this, it becomes of great importance to explore new forms of pedagogical intervention in the classroom, such as active methodologies that have been generating promising results such as improving approval rates in algorithms or equivalent subjects. Thus, the objective of this work is to present a form of intervention that was incorporated into a teaching plan focused on the discipline of algorithms, based on six active methodologies: Virtual Learning Environments - AVA, Coding Dojo, Gamification, Problem Based Learning, Flipped Classroom and Serious Games, detailing the stages of elaboration of the teaching plan, as well as the technical evaluation of the material developed, through peer review that had the participation of specialists in the teaching of algorithms and in the use of active methodologies. As a result, there is a teaching plan that is entirely structured from active methodologies, which is composed of 17 theoretical and practical classes, distributed in 5 modules, which is based on curriculum references, such as the Brazilian Society of Computing (SBC), Association for Computing Machinery and Institute of Electrical and Electronic Engineers. In addition, two case studies were carried out: the first to evaluate the applicability of the proposal and its effects from the students' point of view, and the second aiming to evaluate the effectiveness of the proposed approach versus traditional teaching, performing a statistical analysis using the two-tailed Student's t distribution for independent samples, which showed significant statistical gains when using the proposed approach.

  • IAGO LINS DE MEDEIROS
  • An Energy-Efficient Swarm-based Unmanned Aerial Vehicle System for Mobile Object Tracking and Video Delivery in Disaster Scenarios

  • Data: 25/03/2022
  • Mostrar Resumo
  • Floods are the most common disaster in the world and cause deaths, damages to houses, buildings, and possessions, as well as disruption to communications. In such scenarios, it is needed to search and track mobile objects transported by the water flows, such as humans, animals, vehicles, and debris. Unmanned Aerial Vehicles (UAVs) appears as an essential tool in disaster scenarios, in order to help first responders to determine correct procedures in terms of searching, tracking, and rescuing the victims, as well as in defining the actions to minimize the risks in a sustainable and timely manner. However, the tracking of mobile objects and the delivery of real-time video sequences from UAVs with energy constraints toward first responders is still a hard task. Therefore, it is necessary to orchestrate a swarm of UAVs for searching and tracking mobile objects while reacting fast to frequent changes in the topology and trajectory, as well as distributing real-time video flows with quality level support to the ground team. This thesis presents an energy-efficient swarm-based scheme for mobile object tracking, called SUAV (Swarm of UAVs). The SUAV provides a unique UAV-based system for rescue scenarios with mobile objects and with support for route and path planning, searching and tracking procedures, mobility prediction and multi-hop communication management, video delivery with quality level support, and energy-efficiency. Simulation results show that SUAV transmitted videos with at least 15% better QoE support while minimizing the energy consumption by at least 22% when compared to related works.

  • LUCAS FELIPE FERRARO CARDOSO
  • Evaluating Machine Learning Classifiers and Benchmarks by Item Response Theory

  • Data: 11/03/2022
  • Mostrar Resumo
  • The experiments covered by Machine Learning must consider two important aspects to assess the performance of a model: datasets and algorithms. Robust benchmarks are needed to evaluate the best classifiers. For this, one can adopt gold standard benchmarks available in public repositories. However, it is common not to consider the complexity of the dataset when evaluating. This work proposes a new assessment methodology based on the combination of Item Response Theory (IRT) and Glicko-2, a rating system mechanism generally adopted to assess the strength of players (e.g., chess). For each dataset in a benchmark, the IRT is used to estimate the ability of classifiers, where good classifiers have good predictions for the most difficult test instances. Tournaments are then run for each pair of classifiers so that Glicko-2 updates performance information such as rating value, rating deviation and volatility for each classifier. A case study was conducted hereby which adopted the OpenML-CC18 benchmark as the collection of datasets and pool of various classification algorithms for evaluation. Not all datasets were observed to be really useful for evaluating algorithms, where only 10% were considered really difficult. Furthermore, the existence of a subset containing only 50% of the original amount of OpenML-CC18 was verified, which is equally useful for algorithm evaluation. Regarding the algorithms, the methodology proposed herein identified the Random Forest as the algorithm with the best innate ability.

  • DERIAN FERNANDO ALVES DE ALENCAR
  • Dynamic allocation of microservices for virtual reality content delivery to provide quality of experience support in a fog computing architecture

  • Data: 25/02/2022
  • Mostrar Resumo
  • Virtual Reality (VR) content has been expanding in recent years, demanding solutions for its efficient distribution over the Internet. Microservices present an ideal model for deploying services at different levels of a Fog computing architecture for managing traffic and providing Quality of Experience (QoE) to VR content. However, it is crucial to efficiently find the fog node to allocate the microservices, directly impacting VR services' QoE. Therefore, this thesis proposes a mechanism to allocate microservices in a fog computing architecture to improve QoE based on network parameters like delay, migration time, and resource utilization rate. In evaluating our proposal, the results were obtained on different scenarios using a simulation environment to demonstrate and compare the efficiency of existing mechanisms in terms of cost, migration time, load balancing, and QoE.

  • DIEGO MEDEIROS DE ABREU
  • Clustering-based Feature Selection to Improve Attack Detection in Computer Networks

  • Data: 17/02/2022
  • Mostrar Resumo
  •  

    With the recent growth of network attacks, protecting the network has proved to be an increasingly difficult task. Several machine learning (ML) based intrusion detection systems (IDSs) have been proposed to improve the detection performance of various types of network attacks.However, many of the features extracted and used by an IDS are redundant and can be replaced by others, or are irrelevant and do not contribute to the machine learning process. Traditional feature selection methods are based on supervised approaches and require a large amount of labeled data to learn from. However, in the security context, this information is often not available or very difficult to obtain. Thus, reducing the dimensionality without using labels allows the ML to be a more viable option for real-world scenarios. In this work, we propose a clustering-based feature selection approach that helps improve the detection of network attacks. With a bidirectional feature search, our method uses k-mean clustering and the silhouette metric to select the best features. In addition to this, this research aims to understand the behavior of the proposed feature selection and other traditional methods, in different application scenarios, discovering inferences about network attacks and identifying the characteristics that allow a better detection of these attacks. The results obtained in three case studies demonstrate that the proposal improves the performance of classifiers in various security scenarios, such as the detection and identification of network attacks, including attacks with little available data.

  • RODRIGO HENRIQUE BARBOSA MONTEIRO
  • FRAGAMES: A Framework for Evaluating Gamification in Software Engineering

  • Data: 11/02/2022
  • Mostrar Resumo
  • Gamification has been used to motivate and engage participants in software engineering teaching and practice activities. There is a significant demand for empirical studies to understand the impacts and effectiveness of gamification. However, the lack of standardized procedures and models for the evaluation of gamification is a challenge for planning, comparing and reporting results related to the evaluation of gamification approaches. Therefore, the main objective of this research is to define and propose standardized procedures for the evaluation of gamification in software engineering. For this, a systematic literature review was carried out in order to analyze the state-of-practice of gamification evaluation in software engineering. From this analysis, and from the GQiM evaluation model, a framework for the evaluation of gamification in software engineering was built, composed of generic entities and evaluation phases. Then, two proofs of concept and a peer review were carried out to verify and evaluate the framework's suitability in the instantiation of evaluations through a reverse analysis of the evaluation of two primary studies. Finally, two case studies were carried out, where two gamified approaches were applied that used the framework to design their evaluative approaches, to validate the use of the framework. With the accomplishment of this research, it was seen that: (1) there are no models in use to support the evaluation of gamification, and therefore there is no standardization in the design, data analysis and reporting of the evaluation of gamification in software engineering; (2) due to this, it was necessary to develop a framework for the evaluation of gamification; (3) the developed framework is suitable for instantiating old and new assessments. However, it is still necessary to: (1) perform new instantiations of the framework so that it is validated, and that its usefulness in terms of generating replicable and comparable empirical data is confirmed; (2) investigate and recommend ways of analyzing results; and (3) build a common database to streamline the steps of summarizing and analyzing results, as well as allowing the comparison of different studies.

  • IAN CAMPOS BEZERRA REGO
  • Structuring and Applying a Game Design Document Standard

  • Data: 10/02/2022
  • Mostrar Resumo
  • Game projects have unique characteristics in their methodology compared to other software projects, among which we highlight the presence of the game design stage, responsible for designing all the elements that the game will have in the future, such as: sounds, images, characters , plot, among other information that is essential to have a vision about the product that will be developed. Documenting this important step also requires a specific document for it, the game design document (GDD). Despite the importance of carrying out a good game design and documentation step through the GDD, game teams, especially the less experienced ones, may find difficulties in these steps due to the lack of a model that can guide the items to be developed, given that that the methodologies of large companies are generally not shared. In this context, this research presents a set of steps that contributed to the production of a Game Design Document standard that has methodology, steps, roles and structures that can help and guide game project teams to correctly develop their GDD. For the evaluation, a case study was applied for the construction of a game.

  • REINALDO JUNIOR LOPES CARDOSO
  • Comunicação Informal e Produtividade: Impactos da pandemia de COVID-19 em profissionais de TIC

     

     

     

     

  • Data: 07/02/2022
  • Mostrar Resumo
  • A comunicação informal desempenha um papel importante na colaboração entre indivíduos. A sua existência está intimamente relacionada à proximidade física entre os envolvidos. A literatura atribui essa relação entre proximidade física e comunicação informal às oportunidades de interações e awareness (percepção/consciência) que o ambiente físico oferece. A decretação do estado de pandemia (COVID-19) provocou um cenário de home office em larga escala pelo mundo. Durante a pandemia, estudos iniciais mostraram que a comunicação informal e a colaboração, no cenário remoto, foram descritos como um dos desafios encontrados durante a pandemia. Consoante ao apresentado, este trabalho visa investigar a relação entre comunicação informal e produtividade percebida durante o período de home office e isolamento social provocado pela pandemia de COVID-19. Ele se baseia na seguinte hipótese: “SE o isolamento social afetou negativamente a comunicação informal, ENTÃO a produtividade também sofreu impactos negativos”. Para responder aos objetivos de pesquisa, o método utilizado foi o survey, através da realização de um questionário auto administrado. Respostas de 244 profissionais de tecnologia da informação e comunicação (TIC) que exerceram suas atividades em home office durante a pandemia foram coletadas. Para validação dos dados foram utilizadas técnicas estatísticas como a análise fatorial confirmatória do modelo de mensuração. Os resultados mostraram que houve prejuízo para comunicação informal durante o home office e ficou comprovado o impacto da comunicação informal na produtividade através da mediação total das variáveis interação social e bem estar emocional. Tais resultados permitem por inferência logica afirmar que a hipótese principal de pesquisa é verdadeira.

  • SEBASTIAO RODRIGUES DA COSTA NETO
  • Ferramenta de Alto Desempenho para Identificação e Remoção de Adaptadores de Dados NGS

  • Data: 07/02/2022
  • Mostrar Resumo
  • A remoção de adaptadores e regiões de baixa qualidade vindas de leituras brutas de dados gerados por plataformas NGS, é a etapa inicial dos pipelines de montagem de genomas. A remoção dessas sequências visa melhorar a qualidade dos dados na fase de montagem, permitindo melhor alinhamento entre as sequências. Além disso, desempenho em processamento é uma característica importante já que a quantidade de dados gerados pelas plataformas de alto rendimento é muito superior à quantidade real, por conta da busca por alta cobertura de regiões genômicas. Para isso, desenvolvemos o FAIR, uma ferramenta de corte de adaptadores para dados de extremidade única e emparelhada, que utiliza dois algoritmos de casamento de cadeias que se aproveitam do paralelismo intrínseco das operações sobre bits a fim, de encontrar regiões contaminantes com eficiência em processamento.

  • JAILTON WAGNER RODRIGUES TAVARES
  • Application of computational intelligence for prediction of physical-chemical parameters of water and detection of anomalies in fish farming in Tambaqui in the juvenile stage

  • Data: 07/02/2022
  • Mostrar Resumo
  • In recent decades there has been a significant increase in the global consumption of fish foods in parallel with population growth. To suppress the demand for consumption, it is observed that fish production takes place in two ways: through animal extraction and fish farming. In the first form, animal extractivism is understood to be capture in seas and rivers, and fish farming comprises the cultivation of fish in a confined and controlled space. Fish farming is designed and monitored, it is possible to efficiently control the cost of production and time for marketing fish, which does not occur in extractive fishing, given that the fish is in its natural habitat. However, to achieve efficiency in fish farming, technology must advance an important role and the use of IoT technology in this context, allows devices to work for different purposes, allowing sensors to capture data such as temperature, humidity, and water quality to automate fish farming. This data captured from IoT sensors can be used to analyze and improve product quality by bringing new solutions with different approaches, minimizing risk and waste, applying supervisory machine learning algorithms. The main objective of the work is to investigate machine learning algorithms, capturing the data through IoT sensors obtaining the input domain parameters, and as a result to develop a machine learning model capable of generalizing the quality classification problem of water, to predict the weight of tambaqui larvae, in a water recirculation system (RAS) in high density.

  • TIAGO DAVI OLIVEIRA DE ARAUJO
  • Um modelo de apoio automatizado para o reconhecimento, extração, personalização e reconstrução de gráficos estáticos

  • Data: 02/02/2022
  • Mostrar Resumo
  • Os gráficos de dados são amplamente utilizados na nossa vida diária, estando presentes nos meios de comunicação regulares, tais como jornais, revistas, páginas web, livros, e muitos outros. Um gráfico bem construído leva a uma compreensão intuitiva dos seus dados inerentes e da mesma forma, quando os gráficos de dados têm escolhas de concepção erradas, poderá ser necessário um redesenho destas representações. Contudo, na maioria dos casos, estes gráficos são mostrados como uma imagem estática, o que significa que os dados originais não estão normalmente disponíveis. Portanto, poderiam ser aplicados métodos automáticos para extrair os dados inerentes das imagens dos gráficos, a fim de permitir estas alterações. A tarefa de reconhecer os gráficos e extrair dados dos mesmos é complexa, em grande parte devido à variedade de tipos de gráficos e às suas características visuais. As técnicas de Visão Computacional para classificação de imagens e detecção de objetos são amplamente utilizadas para o problema de reconhecimento de gráficos, mas apenas em imagens sem qualquer ruído. Outras características das imagens do mundo real que podem dificultar esta tarefa não estão presentes na maioria das obras literárias, como distorções fotográficas, ruído, alinhamento, etc. Duas técnicas de visão computacional que podem ajudar nesta tarefa e que têm sido pouco exploradas neste contexto são a detecção e correção da perspectiva. Estes métodos transformam um gráfico distorcido e ruidoso em um gráfico limpo, com o seu tipo pronto para extração de dados ou outras utilizações. A tarefa de reconstrução de dados é simples, desde que os dados estejam disponíveis a visualização pode ser reconstruída, mas o cenário de reconstrução no mesmo contexto é complexo. A utilização de uma Gramática de Visualização para este cenário é um componente chave, uma vez que estas gramáticas têm normalmente extensões para interação, camadas de gráficos, e visões múltiplas sem exigir um esforço extra de desenvolvimento. Este trabalho apresenta um modelo de suporte automatizado para o reconhecimento personalizado, e reconstrução de gráficos em imagens estáticas. O modelo executa automaticamente as etapas do processo, tais como engenharia inversa, transformando um gráfico estático novamente na sua tabela de dados para posterior reconstrução, ao mesmo tempo que permite ao utilizador fazer modificações em caso de incertezas. Este trabalho também apresenta uma arquitetura baseada em modelos, juntamente com protótipos para vários casos de utilização. A validação é efetuada passo a passo, com métodos inspirados na literatura. Este trabalho apresenta três casos de uso, fornecendo prova de conceito e validação do modelo. O primeiro caso de uso apresenta a utilização de métodos de reconhecimento de gráficos focando em documentos no mundo real, o segundo caso de uso centra-se na vocalização de gráficos, utilizando uma gramática de visualização para reconstruir um gráfico em formato áudio, e o terceiro caso de uso apresenta uma aplicação de Realidade Aumentada que reconhece e reconstrói gráficos no mesmo contexto (um pedaço de papel) sobrepondo os novos gráficos e widgets de interação. Os resultados mostraram que com pequenas alterações, os métodos de reconhecimento e reconstrução dos gráficos estão agora prontos para os gráficos do mundo real, tendo em consideração o tempo, a acurácia e a precisão.

  • IURI VICTOR FERREIRA COSTA
  • EmojiText: An Information Visualization Technique for Analyzing Phrases and Sentiments

  • Data: 21/01/2022
  • Mostrar Resumo
  • This work proposes a text visualization with the representation of phrases and feelings.  Among the most classic text visualization techniques, there is the word cloud, which does not present relations between words, making them difficult to analyze the data generated by this visualization, for example, the visualization of a sentence, what time a specific word/sentence was mentioned in the text, etc. In EmojiText, have a graph of nodes and edges, Which the nodes are the words and the edges are the relationships between the words. Each node has a dimension and an emoji, the dimension being the representation of the word frequency, and the emoji represents the majority of the feelings associated with this word. In addition, there is also an edge in the emojis that represent the feeling of a set of interrelated words that make a sentence, that is, the feeling of the path or the sentence. It is emphasized that the proposed tool allows the interactions: zoom, filters, details on demand, the configuration of visual mapping, and functionalities of temporal analysis, this through animations and multiple views for comparisons. EmojiText was developed using the following technologies: javascript, HTML, CSS with the aid of D3js and Bootstrap Frameworks. To evaluate the proposed technique, users will be given tasks of understanding the text and its context and common tasks of graphs techniques, for example, locating nodes and paths. Test responses will be evaluated to confirm the effectiveness of the proposal.

2021
Descrição
  • SANDRO DE PAULA MENDONÇA
  • Architecture for Generating Synthetic Data Models through Generators Blocks Chain

  • Data: 23/12/2021
  • Mostrar Resumo
  • Data generators are applications that produce synthetic datasets, and their use is mainly motivated by restricted access to real data, either due to privacy, non-existence or insufficient amount of data. Synthetic data can be helpful in decision making, training smart models, or testing data visualization techniques, among other usage scenarios. The literature points out that although several types of synthetic data generators are available, most of them are applied to specific contexts. That is, each generator will present functionality gaps for some usage scenarios. This thesis proposes to present an architecture of a synthetic data model generator that aggregates several resources for the generation of generic tabular data, from a chain of generator blocks, where each block implements a resource. In addition, data graph functionalities are also available to assist users in analyzing the generated data. Another contribution is the conception of an alternative interface with visual and interactive metaphors with new information visualization functionalities. This new interface is intended to be more intuitive for the user, allowing for easier understanding and monitoring of changes in data after each addition and configuration of a new generator through data graphics. The architecture also supports the data replication process, and the main idea is to provide a set of data graphs and similarity indices to help users generate synthetic datasets. The proposed architecture has the following characteristics: scalability (it is possible to add new generators), flexibility (it is possible to add new features to the data) and reusability (it is possible to reuse the generator components in other applications, such as the proposed interface). Finally, an evaluation based on user task analysis scenarios is proposed for the creation of synthetic data comparing Blocks generating applications, identifying improvements and contributions of the work.

  • MATHEUS FERREIRA VASCONCELOS
  • Melhorando a Otimização por Enxame de Partículas Com Parâmetros Auto-adaptativos, Invariância Rotacional e Controle de Diversidade

  • Data: 13/12/2021
  • Mostrar Resumo
  • Particle Swarm Optimization (PSO) é uma técnica de inteligência de enxame baseada no comportamento coletivo de cardume de peixes e bando de pássaros, que se mostra eficaz na resolução de problemas de otimização. Porém, possuem versões que são dependentes da rotação do sistema de coordenadas do problema, apresentando variância rotacional ou falta de diversidade direcional no movimento das partículas, além da sensibilidade elevada quanto à configuração de seus parâmetros e convergência prematura com perda rápida da diversidade do enxame. Este trabalho aborda essas questões, apresentando o Rotationally Invariant Attractive and Repulsive eXpanded PSO (RI-AR-XPSO) e Rotationally Invariant Semi-Autonomous eXpanded PSO (RI-SAXPSO) como melhorias das variantes Rotationally Invariant Semi-Autonomous PSO (RI-SAPSO) e eXpanded PSO (XPSO) respectivamente. São feitas avaliações na invariância rotacional dos algoritmos e no comportamento do enxame, utilizando funções clássicas da literatura e ambas propostas são testadas com os problemas de otimização do benchmark Congress on Evolutionary Computation (CEC) 2017. O estudo leva em conta testes de significância estatística dos resultados obtidos e mostra que utilizar estratégias, como realizar o controle de diversidade e ajustes automáticos de parâmetros durante a execução, bem como possuir diversidade direcional e invariância rotacional, resultam em melhorias de desempenho sem perda de eficiência da técnica.

  • ELDER BRUNO EVARISTO CORREA
  • DASP: A PROPOSAL FOR EDITORIAL PROCESS MANAGEMENT EXECUTED ON BLOCKCHAIN PERMISSIONED

  • Data: 13/12/2021
  • Mostrar Resumo
  • The scenario of governance of computer systems for submissions, reviews and data sharing of scientific publications works by methods with high intermediation and centralization in the control of information and data. The involvement of entities, such as the author, reviewer, and editor (or, in certain cases, an editorial board), make the processes, operations and information flow contained in these hierarchical environments complex. Such questions give rise to debates on "open sciences" and distributed methods, which present approaches to the scientific process based on more cooperative scenarios and aiming at new ways of knowledge diffusion, using digital technologies and new collaborative tools, adopting broad governance for the entire publication cycle, and sharing of scientific papers. In line with these principles, this work presents DASP, a Distributed Autonomous Scientific Publisher solution, executed on a permissioned blockchain network, automatically organized through intelligent contracts, enabling the audit of the entire process, and ensuring respect for the copyright of the entities involved in the editorial process, besides decreasing the implementation costs and the complexity of editorial mechanisms. To evaluate the proposal, an editorial management scenario was developed with the basic processes of submission, review, and evaluation of papers, with the application of ISO 25023, where we defined collection phases, specifying the defined indicators according to the features developed in the proposal. The evaluation indicated the virtues and points that need improvement, whether in the implementation or even in the editing of contract rules that organize the business logic, access filters, hierarchy rules between author, reviewer, and academic community.

  • DIEGO ASSIS DA SILVA LISBOA
  • Um Estudo Observacional sobre as Adaptações de uma Equipe de Desenvolvimento de Software Ágil ao Trabalho Remoto no Contexto da Pandemia de COVID-19

  • Data: 06/12/2021
  • Mostrar Resumo
  • As restrições do isolamento social adotadas para conter a disseminação da pandemia da COVID-19 levaram muitas empresas a adotar o trabalho remoto de maneira obrigatória e não planejada. Esta transição repentina tem causado profundas mudanças nas relações pessoais e profissionais. Nesta dissertação, serão apresentados os resultados de um estudo observacional qualitativo sobre as adaptações realizadas nas atividades do processo de desenvolvimento de software de uma coordenação de tecnologia da informação de uma pró-reitoria de uma universidade brasileira. Estas adaptações visaram apoiar a transição para o trabalho remoto durante a pandemia. Elas foram analisadas com base no framework teórico de Olson e Olson (2000) para colaboração distribuída. As motivações para as adaptações e os desafios observados também são apresentados. Adicionalmente, também são mostradas adaptações aos aspectos técnicos (hard skills) e comportamentais (soft skills) observados entre os membros da organização pesquisada e as principais adaptações em relação as práticas ágeis adotadas. A partir destes resultados, essa pesquisa apresenta recomendações para facilitar a adaptação ao trabalho remoto em equipes que atuam com desenvolvimento de software.

  • MAYKON ARAUJO DE SOUZA
  • An Approach to Implementing Chapter VII of LGPD from MOSE Competence Assets

  • Data: 06/12/2021
  • Mostrar Resumo
  • The General Data Protection Law (LGPD) was enacted in its entirety in August 2021, but reports pointed out that most Brazilian organizations are not yet adherent to the Law. From this, we tried to formulate a series of hypotheses that proved to be true and, thus, allowed the construction of a set of guidelines to help in the implementation of the LGPD in organizations with the objective of providing an improvement in the scenario pointed out by the researches. The first stage of this dissertation managed to prove a relationship between the assets of Chapter VII of the LGPD and the MOSE (Guiding Model for Enterprise Success) Competence Quality Model, while in the second phase of this work a set of guidelines for the implementation of the Chapter VII in organizations from MOSE practices. Finally, for the complete validation of the dissertation, a simulated scenario was built and evaluated using the SWOT (Strengths, Weakenesses, Opportunities, Threats) analysis.

  • MICHEL PINHEIRO MONTENEGRO
  • Application of cluster quality indices in the automatic generation process of clustering algorithms

  • Data: 02/12/2021
  • Mostrar Resumo
  • AutoClustering is a computational tool for the automatic generation of clustering algorithms, which combines and evaluates the main parts of the algorithms to generate more appropriate solutions for a given data set with regard to clustering tasks. AutoClustering uses the evolutionary technique known as Estimation of Distribution Algorithms-EDA to create the clustering algorithms (considered as individuals by the EDA) and the Clest adapted method to objectively calculate the fitness using a classifier (eg.: decision Tree) and determining the quality of the clustering algorithms. This work proposes to improve the efficiency of the AutoClustering evaluation process by adding a metric that unites three clusters quality indexes.The three quality indexes are cluster Dunn Index, Silhouette Index and Davies-Bouldin Index, which assess the situation Intra and Inter clusters, with algorithms based on distance and independent of the generation of the groups. In evaluating the proposed approach, comparative tests were performed with the original model proposed in the Autoclustering tool. For this, four public domain databases were used belonging to the UCI data public repository, having in this experiment 10 rounds with each round having 500 generations to be performd. To demonstrate the results of the model implemented with the AutoClustering, information visualization techniques such as Alluvial and Treemap were used. The results obtained indicate that the proposed model has the highest fitness and greater diversity of generated individuals (clustering algorithms) when compared with the original model.

  • IGOR FURTADO CARVALHO
  • HOD-VNF: A VNF PLACEMENT SCHEME BASED ON HIGHER-ORDER DEPENDENCIES TO IMPROVE SERVICE FUNCTION CHAINING

  • Data: 08/10/2021
  • Mostrar Resumo
  • Network Function Virtualization (NFV) enables the deployment of Virtual Network Functions (VNFs) in commodity servers to provide services through Service Function Chaining (SFC). Based on that, a major challenge in this realm is to design a VNF placement scheme that optimizes resource usage and delivers services both effectively and efficiently. To do so, network operators usually tend to select the servers based on information about resource usage/consumption of the VNFs, service deadline or some topological information like delay-constrained shortest paths. In the context of VNF placement, the existing approach considers SFC as a set of resource requirements plus network connectivity and tries to place them in nodes to optimize key performance metrics. However, these approaches disregard a fundamental SFC feature, which is the relationship among VNFs within the chain. Such relationships can be expressed in the form of Higher-Order Dependencies (HODs), enabling to identify which VNFs sequences share the same services or similar ones. By disregarding it in the design of a VNF placement scheme, it is possible that VNFs be placed far from one another, resulting in high resource usage and longer average service execution time. Therefore, this thesis proposes a placement scheme based on the relationship among VNFs within the chain, expressed by HODs. From that, it is possible to identify which sequences of VNFs tend to be requested and executed and, then, allocate them in target nodes in order to maximize the service acceptance rate and decrease the average end-to-end delay. This enables service providers to have a better and much more accurate view of the NFV environment, with an improved resource management and quality of service. From the assessment using three different scenarios and comparing HOD-VNF to other four proposals, working with HODs proved to be fundamental to improve the rate of accepted services (63% better than the second-best proposal), as well as serving SFCs with a shorter average end-to-end delay (twice as lower as the average of the second-best proposal). 
  • EDWIN JAHIR RUEDA ROJAS
  • Identification of candidates for reference genes using Generative Adversarial Networks 

  • Data: 30/09/2021
  • Mostrar Resumo
  • Reference Genes (RG) are constitutive genes required for the maintenance of basic cellular functions. These genes are used as internal controls in gene expression analysis techniques, such as qRT-PCR because their expression level remains constant, or their variation is insignificant under different stress conditions. These genes should show the variability resulting from the imperfections of the technology employed and the preparation procedures, which guarantees that any variation in the amount of genetic material will be related
    to the same measure of the object of investigation and control, hence its importance to identify them. Different high-throughput technologies are used to identify these types of genes, including RNA sequencing (RNA-seq), which allows measuring gene expression levels in a specific tissue or in an isolated cell. Thus, there are also in-silico identification techniques based mainly on clustering algorithms, where the main obstacle is the low number of reference genes identified in the literature, which varies depending on the cell or tissue studied.
    For this reason, in this research is presented a proposed method based on synthetic data generation algorithms (adversarial models) to mitigate the obstacle described above. The proposed method for in-silico identification of candidate reference genes consists of four main steps. First, the RNA-seq dataset is preprocessed to subsequently (in the second step) employ adversarial networks to augment the reference gene set. Thus, in the
    third step is trained a novelty detector with the augmented gene set for the identification of candidate genes. Finally, In the fourth step, using the recall score, we validate the performance of the novelty detector proposed in the third step. The proposed method was validated with the Escherichia coli dataset, identifying 691 candidate genes out of a total of 4,168 unclassified genes. The results show that increasing the dataset using the proposed adversarial model improves the classifier’s score by a factor of 20% on the test data. The main contribution of the proposed methodology was to reduce the number of genes to be tested in the laboratory as reference or non-reference genes by up to 83.

  • ALEXANDRE HENRIQUE ICHIHARA PIRES
  • Summary Charts for Groups with High Density of Visual Items in Treemap Squarified

  • Data: 24/09/2021
  • Mostrar Resumo
  • This dissertation aims to investigate the use of techniques and visual encoding that present summarized data to mitigate the limitation of data presentation in Treemaps with high data density, imposing difficulty in interpreting the data to the user. For example, bar charts and box plots have been added in Treemaps Squarified scenarios. The general hypothesis is that the summary charts will allow the users to obtain useful information about an item group of the Treemap, making it possible to carry out comparison tasks between groups and distribution analysis of values in the groups without compromising the hierarchical reading technique. To evaluate the proposal, data analysis scenarios are presented to two groups of users with similar profiles, scenarios with no summary graphs, to perform visualization tasks, such as identifying maximums and minimums, comparison of groups, navigation, etc. For the comparison between the groups, quantitative and qualitative information were collected, such as time and task response, interviewing, and application of forms. Finally, the results will be analyzed using statistical methods to confirm or not the hypothesis of the effectiveness of using summary charts in Treemap Squarified.

  • KLEBER PADOVANI DE SOUZA
  • Uma abordagem de aprendizado por reforço para o problema da montagem de novo de fragmentos de DNA

  • Data: 13/09/2021
  • Mostrar Resumo
  • A montagem de genomas é uma das tarefas mais relevantes e computacionalmente complexas dos projetos genômicos. A qualidade do genoma obtido é altamente relevante porque quanto mais confiável o genoma alcançado mais acuradas são as compreensões possíveis dos comportamentos e características dos seres vivos analisados - o que, por sua vez, gera diversos impactos positivos na sociedade, incluindo a melhoria de diagnósticos, prevenção e tratamento de doenças. Apesar de existirem diversos montadores disponíveis, não existe um único montador que seja adequado para a montagem de genomas de quaisquer organismos e, adicionalmente, os resultados produzidos pelos montadores ainda podem apresentar erros e estão sujeitos a melhorias. O uso de aprendizado por reforço tem se mostrado muito promissor para resolução de atividades complexas sem requerer supervisão humana durante o treinamento dos agentes inteligentes. No entanto, as aplicações de aprendizado por reforço estão predominantemente focadas em problemas de entretenimento - como é o caso dos jogos. Assim, um dos grandes desafios atuais da ciência da computação é a aplicação de aprendizado por reforço em problemas do mundo real. Com base nisso, esse trabalho tem como objetivo lançar luz sobre a aplicação do aprendizado por reforço para resolução do problema da montagem de fragmentos de DNA, um problema do mundo real para o qual ainda inexistem soluções robustas baseadas em aprendizado por reforço para sua resolução. Por meio da expansão da única abordagem disponível na literatura, foram cuidadosamente explorados os aspectos do treinamento do agente inteligente, realizado pelo algoritmo Q-learning, para avaliação de sua adequação para ser aplicado em cenários cujas características são mais similares às realidades enfrentadas por projetos genômicos reais. As melhorias propostas neste trabalho incluem a mudança do sistema de recompensas anteriormente proposto, a inclusão de estratégias de otimização de exploração do espaço de estados baseadas em podas dinâmicas de ações e na colaboração mútua entre aprendizado por reforço e computação evolucionária. Foram produzidos e disponibilizados livremente 23 ambientes de aprendizado por reforço, que foram utilizados para a experimentação. Os resultados obtidos sugerem uma melhoria consistente de desempenho com as estratégias propostas, contudo, eles também demonstraram suas limitações ao cenário real, especialmente considerando as altas dimensionalidades dos espaços de estados e ações.

  • ABRAHAM LINCOLN RABELO DE SOUSA
  • A Method to Support Bayesian Network Modeling and Simulation for Software Development Project Management

  • Data: 31/08/2021
  • Mostrar Resumo
  • In recent years, many Software Engineering researchers have focused on methods, techniques, tools, and processes to support Software Development Project Management. Despite this, the specialized literature shows the need for studies that allow the investigation, rationalization, and expansion of our understanding of the phenomena that affect the entire software process. Thus, software project modeling and simulation have stood out in relation to other types of experimental studies for enabling virtual experimentation, providing less consumption of resources and time, in addition to speeding up the response time to the phenomenon investigated. Along these lines, the use of Bayesian networks has gained attention as it provides a powerful mechanism for software project modeling and simulation that enables cause-effect analysis with qualitative and/or quantitative data to support decision making under uncertainty. This work proposes a method to support Bayesian networks modeling and simulation to support Software Development Project Management. It also presents a conceptual model that contextualizes the use of Bayesian networks during project management. This work adopted the Design Science Research (DSR) as a methodological framework for conducting the study and had the collaboration of two software factories headquartered in Belém – PA. To evaluate the proposed method, we carried out a pilot study in a laboratory environment and a study in a real environment that resulted in the definition of two Bayesian networks. The proposed method contributes to the area of software development project management by filling the gap identified in the literature regarding the lack of details about the methodological procedures that guide Bayesian networks modeling and simulation in real software development projects.

  • LENNON SALES FURTADO
  • A METHOD TO SUPPORT SOFTWARE MEASUREMENT TEACHING BASED ON GAMIFICATION AND SERIOUS GAMES

  • Data: 30/08/2021
  • Mostrar Resumo
  • Software process improvement programs have as one of the foundations the software measurement process. Even with such importance, the literature emphasizes that many students are leaving the academy without the ability to conduct this process. And this can be understood by the way this process is viewed, namely, time-consuming and difficult to understand. Furthermore, the absence of factors that motivate the mastery of the software measurement process during the students' academic life is notorious. In this context, the application of serious games and gamification has been shown as interesting alternatives to overcome this problem. Because such approaches are well accepted by different student profiles and can have a motivating and engaging effect for them. One of the objectives of this work is to identify different approaches in teaching software measurement and software process improvement by gamification proposals and serious games through a systematic literature review. Seeking to characterize the state of the art on the use of methods related to gamification and serious games in these subjects. Furthermore, a systematic review was carried out to identify primary studies that address the use of gamification or serious games, its elements, and game mechanics in software engineering. To this end, present a method to support teaching software measurement based on gamification and serious games. This method is intended to encourage interaction in the classroom and thereby foster interest in the process. This support method was validated through two case studies applied with a total of 22 students, where students applied different criteria to assess the modules of the approach. As a result, it was possible to identify 137 primary studies, published between 2000 and 2019. And a level of more than 80% of evaluations with good and excellent criteria was obtained in one of the case studies. The proposed measurement teaching support method helped by creating a competitive and collaborative environment with the core in classroom interactions.

  • ITALO RAMON DA COSTA CAMPOS
  • Reactive Multiagent System Applied to Self-Healing of Smart Grids with Voltage Balancing

  • Data: 30/08/2021
  • Mostrar Resumo
  • This work presents a proposal of a reactive Multi-agent System applied in the self-healing problem of the smart grids, using the message exchanging coordination to reconfigure the network topology. This approach uses voltage balancing as a tool to assist the decision-making of the agents, favoring the connections that have a better voltage profile in the local context of each agent. The work also presents the algorithm used to coordinate, in a decentralized way, the actions of the agents during the whole reconfiguration process. The proposed approach takes into account three constraints in order to validate the solutions generated: a) current constraint; b) voltage constraint, and; c) radiality constraint. The Multi-agent System was implemented with PADE framework and its results were evaluated by comparing it with two other methods, which were used as a benchmark: a Tabu Search implementation and a Brute Force search implementation. The Brute Force method provided the superior limit to the comparison of the results obtained in both Multi-agent System and Tabu Search methods, in order to measure them against the optimal results. These methods were run in 39 scenarios using three test systems: the IEEE 16-bus, the IEEE 33-bus, and the IEEE-119 bus. Due to the computational limitations, the Brute Force method was run only in the IEEE 16-bus scenarios. The results of this work were collected by means of computational simulation in identical scenarios for the methods, being tabulated to further analysis and comparison. The results show that the Multi-agent System got better results than the Tabu Search in four types of comparisons: objective-function value, percentage of recovered buses, response time and the switching operations number. Besides that, it was verified that, to the scenarios where the search space is substantially greater, the difference of performance between the methods grows notably, favoring the Multi-agent System approach.

  • RODRIGO SANTOS DO AMOR DIVINO LIMA
  • A Visualization and Data Derivation Technique to Support the Diagnosis of Missing Data Mechanisms

  • Data: 23/07/2021
  • Mostrar Resumo
  • Missing values are a pervasive problem in most data collection processes. Several methods can deal with this problem, and choosing one depends on the diagnosis of the missing data mechanism — the way that missingness correlates with observed variables. One way of diagnosing the mechanism is by comparing pairs of variables using data visualizations. However, the visualizations commonly used for this task use visual encodings that were not specifically designed for it, thus making users actively pursue cues to support reasoning instead of explicitly showing them those cues. Thus, this dissertation proposes a visual-interactive idiom that proactively assists the diagnosis of missing data mechanisms by quantifying and displaying analysis cues. The idiom includes design choices for visual encodings and interactions to support the diagnosis, and a data derivation algorithm that quantifies two metrics (cues) to assist reasoning: Distribution plausibility (the likelihood that the missing data distribution correlates with observed values) and Co-occurrence plausibility (the likelihood that the missingness across variables is caused by the same or related processes). This dissertation showcases the proposed technique and presents a usability test conducted to evaluate it in comparison with the nullity matrix, the most common visualization used for the missing data diagnosis task.

  • ANA LARISSA DA SILVA DIAS
  • Towards a Free, Forced Phonetic Aligner for Brazilian Portuguese Using Kaldi Tools

  • Data: 09/07/2021
  • Mostrar Resumo
  • Phonetic analysis of speech, in general, requires the alignment of audio samples to its phonetic transcription. This task could be performed manually for a couple of files, but as the corpus grows large it becomes unfeasibly time-consuming, emphasizing the need for computational tools that perform such speech- phonemes alignment automatically. Currently, there are several open-source forced alignment tools available. The majority of them is build upon HTK, a widespread speech recognition toolkit, but the most recent aligners use Kaldi, a toolkit that has been the state of the art for open-source speech recognition providing deep neural network (DNN) framework to acoustic modeling among others advantages over HTK. Although there are several free forced aligners available, they often provide acoustic models only for languages that have more available free speech resources, such as English. Therefore, the Falabrasil, a research group on speech processing and natural language for Brazilian Portuguese (BP) from Federal University of Pará, works hard in order to mitigate the gap of resources for BP providing phonetic dictionaries, language models, acoustic models, voice and text corpora, and among others, a HTK-based automatic phonetic alignment tool for BP called UFPAlign. Hence, due to the scarce availability of tools for BP and to update the FalaBrasil’s HTK-based aligner, we describe the evolution process towards creating a free phonetic alignment tool for BP using Kaldi toolkit. The updated UFPAlign works under Linux environments and provides a user-friendly graphical interface as a plugin to Praat, a free software package for speech analysis in phonetics. The contributions of this work are then twofold: developing resources to perform forced alignment in BP through UFPAlign, including five acoustic models build via Kaldi, under open licenses; and bringing forth a comparison to other two phonetic aligners that provide resources for BP, the outdated HTK-based UFPAlign and Montreal Forced Aligner (MFA), the latter being also Kaldi-based. Evaluation took place in terms of the phone boundary metric over a dataset of 200 hand- aligned utterances, and results show that Kaldi-based aligners perform better overall, and that the models from the updated UFPAlign are more accurate than MFA’s. Furthermore, complex deep-learning-based approaches did not seem to improve performance compared to simpler models.

  • FLÁVIO RAMON ALMEIDA DE SOUZA
  • Uma Proposta para o Reconhecimento de Imagens Faciais Digitais Aplicada às Redes Neurais Artificiais

  • Data: 02/07/2021
  • Mostrar Resumo
  • Os sistemas de controle de tráfego humano são utilizados em cidades que possuem um grande fluxo de pessoas, principalmente em locais como aeroportos, praças, shoppings e trânsito, sendo, por isso, cada vez mais comum o uso em aplicações de autenticação biométrica onde a imagem facial é usada para identificar pessoas previamente cadastradas, em alguns casos, localizando suspeitos em meio a uma multidão ou até mesmo, auxiliando na busca de pessoas desaparecidas. Para isso, são utilizados softwares que filtram a imagem usando técnicas de Processamento de Imagem afim de definir padrões e simplificar a busca, agilizando dessa forma, o processamento. Em muitos casos, com o objetivo de automatizar a detecção, são utilizados algoritmos de aprendizado de máquina, como por exemplo, as Redes Neurais Artificiais. Soluções como estas, realizam comparações em tempo real, desconsiderando mudanças simples, como envelhecimento, barba, bronzeamento e acessórios, como o uso de óculos ou chapéus. Neste trabalho, é proposta uma metodologia para reconhecimento facial que, após realizar o tratamento da imagem através de filtros como o Gaussiano, Mediana, Bilateral e Equalizador de Histograma, aplica-se o algoritmo bordas Canny, e transforma a imagem resultante, em um vetor binário o qual é utilizado como entrada em uma Rede Neural para extrair padrões da face e realizar a detecção facial. A proposta se mostrou promissora com acertos superiores a 80%, o que permite, dessa forma, que a metodologia proposta seja utilizada, independente do filtro aplicado na imagem.

  • SARA DAS MERCES SILVA
  • Uso da Realidade Aumentada no Ensino Médio: Um Estudo de Caso aplicado às Ciências Exatas contextualizado ao Ciclo de Queimadas na Amazônia.

  • Data: 30/06/2021
  • Mostrar Resumo
  • A Realidade Aumentada vem sendo utilizada em diferentes áreas de conhecimento, tais como: medicina e saúde, arquitetura e projetos, artes e educação, onde surge como um recurso da Computação para atender as possíveis necessidades dos professores, pois possibilita a mescla de informações virtuais em objetos do mundo real. Sendo assim, a Realidade Aumentada pode ajudar no ensino de disciplinas que abrangem conteúdos mais abstratos das Ciências Exatas. Este trabalho apresenta um projeto interdisciplinar para o ensino de Ciências no ensino médio, através de recursos de Realidade Aumentada nas disciplinas de Química, Física e Matemática. O projeto é baseado na abordagem Ciência-TecnologiaSociedade-Ambiente que objetiva desenvolver o senso crítico dos estudantes sobre a Ciência, a Tecnologia, a Sociedade e o Meio Ambiente. As atividades são contextualizadas à realidade dos alunos, por meio de uma sequência didática focada no ciclo de queimadas na Amazônia, considerando que o público alvo do projeto são estudantes e professores de escolas públicas da região amazônica. Para subsidiar a execução do projeto junto aos alunos e professores, construiu-se uma ferramenta online de Realidade Aumentada, intitulada CiênciAR. A ferramenta passou por avaliação com especialistas, por meio do teste educacional PETESE. Os resultados mostraram que, segundo mais de 80% dos especialistas, o CiênciAR pode ser aplicado nas aulas remotas e presenciais, promover a interdisciplinaridade e contribuir para melhorar a visualização de conteúdos abstratos, além de permitir a discussão do ciclo de queimadas na Amazônia.

  • EMANUEL AMORAS RODRIGUES
  • AN EXPLORATORY STUDY ABOUT ADOPTION FACTORS ON CLOUD ECOSYSTEMS

  • Data: 26/05/2021
  • Mostrar Resumo
  • In recent years, an increasing number of software companies have adopted differentiated strategies in order to attract external developers to their platforms. These companies have made their platforms more flexible and attractive, so that such flexibility provides the rise of so-called software ecosystems. Due to the growing market for the cloud, platforms have become particularly interesting for these companies. In the literature, previous studies have focused on developers’ adoption of software ecosystems in relation to mobile and desktop development (DE SOUZA, 2016), leaving development on cloud unexplored. In this sense, this research aims at filling this gap by understanding the criteria used by developers of cloud applications to adopt a particular platform. More specifically, it seeks to verify the technical, business, social and individual aspects that influence developers to choose a particular cloud platform. For this, this qualitative exploratory research took place in two phases: in the first, an online questionnaire was administered with 63 participants from the cloud developer community and, in the second, semi-structured interviews were conducted with 16 participants. Data analysis was based on the assumptions of Ground Theory (CHARMAZ, 2006; STRAUSS; CORBIN, 2008).

  • RAFAEL MARTINS FEITOSA
  • A Model to Assist Content Curation in Intelligent Learning Environments

  • Data: 05/04/2021
  • Mostrar Resumo
  • Information overload is a phenomenon that results in the loss of time in the search for relevant study material, lack of attention lack of retention of learned content, among other factors that are detrimental to learning. Considering this large volume of information in an educational context, several authors point to the use of curation as an essential activity for the treatment of this excess. As curation is a task that requires continuous investment of time and effort, Recommendation and Information Retrieval Systems have been employed to help find and suggest relevant items based on users’ goals. In this recommendation process, the opinions of other users are also perceived as important for the choice of relevant items. Thus, this work aims to propose a computational model that integrates techniques of Information Retrieval, Recommendation Systems, and Opinion Mining, aiming to support educational curation and study guidance in intelligent learning environments. In the proposed model, the educational materials available, in addition to being registered by users, are also automatically suggested from learning object repositories, content platforms and web crawling. To identify gaps in the student’s knowledge, a placement test for a chosen discipline is carried out. From these identified needs, topics and study materials are suggested in an adapted way. This recommendation also takes into account the comments of other users about these materials through automatic processing by Mineração de Opinão. To validate this approach, an intelligent virtual learning environment based on the proposed model was developed. This environment was used in a short-term professional training session with 13 participants and then a questionnaire with six items was applied on the topic of study before and after using the environment and there was an increase in the average of correct answers after the study by the environment. For evaluation of the Opinion Mining module, a dataset was created, created from the semiannual evaluation answered by students, in which the result of automatic processing was compared with the manual annotation of a person, achieving a result of Measure F1 of 0.787. Subsequently, the system was evaluated by 23 university students regarding the system’s recommendation and usability, reaching 84.3 points on the system’s usability scale (SUS). Therefore, based on the results found, the use of the environment based on the proposed model is promising to assist educational curation and thus contribute to a better teaching-learning process.

  • ALAN TONY SOUZA VELOSO
  • Design Patterns for Organizational Structures of Smart Multi-Contracts

  • Data: 26/03/2021
  • Mostrar Resumo
  • Currently, different areas of research and applications are using blockchain and smart contracts to provide security, transparency, immutability, inviolability, resilience, and other attributes to systems. These systems can use multiple smart contracts that interact directly with each other to achieve their goals -- in other words, they form a system of Multi-Smart Contracts (MSC). Due to the similarity of MSC with Multiagent Systems (MAS), this study presents design patterns of organizational structures based in the MAS literature and adapted for MSC, which are Hierarchy, Team, Federation, Market and Matrix. The study describes in details these design patterns and how they are employed at MSC, in order to facilitate their comparative assessment. The goal is to allow designers of MSC applications to get to know the current spectrum of possibilities and then guide the selection of an appropriate organizational structure, considering its pros and cons for a given application domain.

  • LUCAS TAVARES MONTEIRO
  • A SOFTWARE PROCESS AND TOOL-BASED APPROACH TO SUPPORT HUMAN RESOURCE MANAGEMENT IN THE SOFTWARE CONTEXT

  • Data: 22/02/2021
  • Mostrar Resumo
  • Nowadays, many companies are searching for methods to improve their software development processes, using quality models as its foundation. Within those quality models, there is a process named Human Resources Management (HRM), which although being very important for the process life cycle, many companies are having trouble to implement it. Therefore, this work has as its  purpose the creation of an HRM process using a multi-model approach, and adapt it to a support software tool. To do so, a mapping of both MR-MPS-SW and ISO/IEC 12207 quality models was made, to serve as foundation for the HRM process modeling. After that, the process was modelled and verified, serving as orientation to its adaptation into a support tool, which was validates through a study case. The result was a process which attends to both models HRM processes, while also having a guide of its adaptation to a software tool, and can be used to support the creation or improvement of the organizations software development processes.

  • LEONARDO CHRISTIAN FERREIRA DA COSTA
  • A Software Process and Tool-Based Approach to support Software Verification and Validation

  • Data: 22/02/2021
  • Mostrar Resumo
  • The validation and verification processes are increasingly essential in the software development market, since they are the basis for product quality assurance activities and, consequently, for greater user satisfaction. Also aiming at quality assurance, most software producers seek to adhere to the various standards for improving the software process, since they serve as a support and guide for the application of best practices when it comes to software production. In this context, this work aimed to present a guide material for the application of a validation and verification process based on two standards widely known in the world, the ISO / IEC / IEEE 29119 standard and the CMMI-DEV model. For this, this research used the model harmonization technique in order to identify similarities between the selected standards. From this technique, a mapping was generated that indicated the level of adherence between the standards and, through this mapping, activities and artifacts of Validation and Verification (V&V) were proposed and organized in a process. In addition, this study aimed to present, also, an adequate tool to support the V&V process, providing more speed, efficiency and effectiveness to the activities raised by the study. To this end, this research proposed an analysis of open source tools to support the execution and management of processes associated with software tests and, through this analysis, selected the fermenter most adherent to the process. Based on the selected tool, a way of using the tool was proposed in such a way that all the objectives of the process activities were fully and completely met. As a result, the work obtained a set of materials and analyzes that enable and support the application of a validation and verification process originated from a harmonization of models. In this way, the presented study delivers to the academic community and the industry a process for applying validation and verification practices in compliance with CMMI-DEV standards and ISO / IEC / IEEE 29119, determines a tool to support the proposed process, delivers a manual of using the indicated tool, as well as a general analysis of the V&V tool and process.

2020
Descrição
  • ERICK MODESTO CAMPOS
  • Desenvolvimento e Avaliação de Interfaces Alternativas Baseadas em Interações Não Convencionais Para o Clique do Mouse.

  • Data: 30/11/2020
  • Mostrar Resumo
  • A constante renovação da tecnologia implica na criação de maneiras inovadoras de interagir com ela. Os pesquisadores trabalham arduamente para aproximar os sistemas computacionais do comportamento humano no sentido de realizar tarefas semelhantes, como ouvir, compreender, pensar e falar. Embora as formas de interação com os sistemas computacionais também tenham evoluído, os mouses e teclados de computador continuam a desempenhar um papel fundamental como ponte entre humanos e computadores. Esses dispositivos impõem barreiras ao forçar seus usuários a usar as mãos para manuseá-los, tendo em vista que esta forma de interação pode impossibilitar o uso do sistema por uma grande parcela da sociedade. Esse problema já é reconhecido na literatura e inúmeras soluções já foram propostas, porém o entrave reside na definição de que solução é mais adequada para cada caso e problema específico, isso ocorre porque os trabalhos existentes raramente apresentam comparações entre métodos propostos para resolver o mesmo problema. Nesse sentido a proposta deste trabalho consistiu em desenvolver três dispositivos baseados em interações não convencionais para serem utilizados como métodos alternativos de baixo custo para o clique do mouse. Esses dispositivos são baseados em sopro, eletromiografia e em aproximação e todos os processos de desenvolvimento estão documentados e disponíveis para a comunidade. Além disso, foram conduzidas análises quantitativas e qualitativas sobre os três dispositivos desenvolvidos e também sobre o método alternativo mais utilizado atualmente: o dwell time. Os resultados de ambas as análises mostraram que as ferramentas baseadas em sopro, eletromiografia e aproximação são melhores que o método dwell time.

  • PAULO TADEU RESQUE DE SOUZA
  • A Machine Learning Framework to detect epileptic seizures and prioritize data transmission in Internet of Medical Things

  • Data: 30/11/2020
  • Mostrar Resumo
  • New technologies come on stage every day, and the technological advances en-hance the user’s experience. In this context, wearable devices are an emerging technologythat delivers better user experience in many daily activities. In the healthcare indus-try, the Internet of Medical Things (IoMT) relies on wearable devices to sense, collect,and continuously transmit the patient’s physiological information to a medical crew. Inthis scenario, chronic patients, such as people with epilepsy, are continuously monitoredoutside hospital premises. However, medical diagnosis and treatment for syndromes likeepilepsy require data availability, transmission reliability, low network latency, and fastdetection procedure. Thus, epileptic seizure detection in-device or on the edge nodes us-ing Machine Learning (ML) algorithms fulfill such requirements. Furthermore, ML in thecontext of the wireless network provides traffic type awareness and prioritization, enhanc-ing the Quality of Service (QoS) for IoMT application. In this thesis, we propose an MLframework to identify a physiological traffic flow, proceed with a clinical diagnostic on anedge node, and prioritize the data transmission in a Wireless Fidelity (WiFi) network toa hospital cloud server. Our proposal achieve 91.57% accuracy in detecting and assigninga priority tag to a physiological stream, 97.76% accuracy in detecting epileptic seizuresfrom Electroencephalography (EEG) signal, and 60% improvement in Packet DeliveryRate (PDR) for physiological data transmission in a WiFi.

  • JULIO CEZAR COSTA FURTADO
  • An Approach for Teaching Statistical Process Control in Higher Computing Courses

  • Data: 17/06/2020
  • Mostrar Resumo
  • A process considered to be under statistical control must be stable and repeatable. The importance of Statistical Process Control (SPC) for the software industry has grown in recent years, largely due to the use of quality models. To understand the importance of SPC for the software industry, a survey was applied to software engineers. In this context, this work aims to propose a teaching approach for SPC, where the teaching-learning process is student-centered. The approach adopted for this research involves: reading articles and reports of performance of experiences, case studies, discussion, use of games and simulators, practical projects and reflection of students on the knowledge learned and the activities carried out. An evaluation was carried out with undergraduate students enrolled in a computer science bachelor's program, which were divided into a control group and an experimental group. In the end, the two groups carried out a practical project to evaluate the effectiveness of the learning acquired by the students. The study results suggest that there was a difference in learning effectiveness resulting from the teaching approach and traditional teaching. An average gain of 30.06% was observed in the experimental group, which is evidence of a significant increase in learning effectiveness.

  • ANDERSON GREGÓRIO MARQUES SOARES
  • Expanding Multidimensional Data Visualization on Treemaps with Glyphs

  • Data: 12/06/2020
  • Mostrar Resumo
  • Information Visualization (InfoVis) is the area that studies interactive visual representations for abstract data in order to enhance the users' perception of the data. The Treemap technique is a consolidated and widespread InfoVis technique, and its main features are the visualization of hierarchical data and its space-filling approach. However, this technique presents some data representations challenges, among which the following stand out: few options for visual data representation, limited to size, color, and label; and to increase the data dimensionality, hierarchical levels are used, but the visual representation of a high number of hierarchies can hinder the user perception when analyzing the data. Thus, to mitigate the challenges of the squarified Treemap, this thesis uses glyphs to the Treemap visual data items. In InfoVis, glyphs are visual objects that individually encode the attributes of a database to one or more visual characteristics (visual variables). The glyphs of this research are composed of layers, which have N partially visible layers, i.e., one layer overlaps the other, and each layer maps a data dimension to a visual variable. The glyph was designed with the area of the upper layers always smaller than the lower ones, so the layers can be stacked to compose a multidimensional glyph. Additionally, this thesis proposes the use of adaptive glyphs, which are glyphs that are in Treemap items with small areas. For this reason, an analysis is made of which part of the glyph must be presented to be useful visual information still. To evaluate this research, we performed user tests to compare scenarios for visual mapping data in Treemaps, which are: Glyphs only (G), Hierarchy only (H), Glyphs, and Hierarchy (GH) and Adaptive Glyph (GA). The results showed that the GH scenario presented the best accuracy, having a task resolution time similar to the H scenario, which suggests that depict more data in Treemaps with layered glyphs enriched the Treemap visualization resources without impairing readability of the data. Regarding the results of the GA scenario, they showed that the adaptive glyph maintains the accuracy of the GH scenario. However, with an increase in the time taken to solve tasks, therefore this scenario shows that it is possible to deliver useful information in the cases of Treemap items with the reduced visible area.

  • ALLAN DOUGLAS BENTO DA COSTA
  • MOBILITY MANAGEMENT ALGORITHM FOR VIDEO DISSEMINATION IN ULTRADENSIVE VEHICLE NETWORKS

  • Data: 10/06/2020
  • Mostrar Resumo
  • The next generation networks aim to pave the for video distribution via vehicular ad-hoc networks (VANET), which will be composed of heterogeneous ultra-dense networks. These networks will take into account the existing communication infrastructure, in order to obtain greater spectral efficiency, such as the reuse of spectrum fees. However, the increase in the number of cells ends up making the mobility management process (ie, handover) a challenging task in ultra-dense VANETs. This is because vehicles often move between different networks, leading to an increase in unnecessary handover and greater network overhead, called the ping-pong effect. In this sense, an inefficient handover algorithm ends up providing videos with low Quality of Experience (QoE), which is caused by ping-pong handover decisions, which increases the packet and video frames losses. This thesis presents a handover algorithm for video distribution over ultra-dense VANET, called of Skip-HoVe. The proposed algorithm has the following characteristics: a handover mechanism aware of Mobility Prediction and QoE, as well as quality of service, resulting in handover with greater reliability and less frequency. The simulation results show the efficiency of the Skip-HoVe algorithm to deliver videos with 30% higher performance compared to existing handover algorithms, maintaining a ping-pong rate of around 2%.

  • JEANNE DE OLIVEIRA PEREIRA
  • Unbalanced Data Handling Techniques to Machine Learning Algorithms Applied to Electricity Theft Detection

  • Data: 05/06/2020
  • Mostrar Resumo
  • Electricity theft is the main cause of non-technical losses of electric energy, some consequences of these losses are: damage to power utilities, reducing of profits, increasing the energy costs for other consumers. The Machine Learning and Deep Learning methods have achieved prominence in electrical consumption anomaly detection. A dataset that contains consumption anomaly in general is unbalanced, which opens a possibility to explore unbalanced data handling techniques that were not explored in previous works. So in this work the classifiers Logistic Regression (LR), Random Forest (RF), Support Vector Machine (SVM),  Artificial Neural Network (ANN) and Convolutional Neural Network (CNN) were applied without balancing and with different strategies to balance data: cost-sensitive learning, random undersampling, random oversampling, k-medoids based undersampling, Synthetic Minority Oversampling Technique (SMOTE) and cluster-based oversampling. The classifiers combined with these strategies were evaluated using metrics like Area Under ROC Curve (AUC) and F1-score, because only accuracy is not enough for unbalanced data. In the results, when comparing the different Machine Learning and Deep Learning methods or the same method with different unbalanced data handling techniques, certain combinations achieved considerably better results than others.

  • CAIO MARCOS FLEXA RODRIGUES
  • Sistema de Coordenadas Poligonais: uma abordagem geométrica para visualização de dados em altas dimensões

  • Data: 03/04/2020
  • Mostrar Resumo
  • A Redução de Dimensionalidade (Dimensionality Reduction - DR) é bastante útil na aquisição de informações relevantes a partir de dados de alta dimensão, com enfoque na obtenção de entendimento e insights úteis à análise exploratória e ciência de dados. Ela atraiu grande atenção da indústria e academia, sendo empregada em várias áreas do conhecimento humano manifesto em campos da computação, como o aprendizado de incorporação (do inglês, embedding learning), aprendizado de máquina, mineração de dados e reconhecimento de padrões estatísticos. Nesse contexto, este trabalho apresenta uma abordagem geométrica para DR chamada de Sistema de Coordenadas Poligonais (Polygonal Coordinate System - PCS), capaz de representar de modo eficiente dados multidimensionais num plano 2D, preservando, desse modo, a estrutura global inerente a eles. Para este propósito, pela realização de operações matemáticas de rotação e translação, os dados são representados através de um polígono regular ou interface entre a alta dimensionalidade e os dados bidimensionais. O PCS pode manipular adequadamente grandes quantidades de dados no contexto de Big Data, adotando um DR geométrico de complexidade de tempo linear e incremental. Além disso, uma nova versão do algoritmo Incorporação Estocástica de Vizinhos t-Distribuída (t-Distributed Stochastic Neighbor Embedding - t-SNE), que é o estado-da-arte em DR, é fornecida. Essa versão emprega uma estratégia determinística com base no PCS, por isso chamada de Incorporação Determinística de Vizinhos t-Distribuída (t-Distributed Deterministic Neighbor Embedding - t-DNE). Diversos conjuntos de dados sintéticos e reais foram utilizados como arquétipos de problemas bem conhecidos no mundo real em nosso benchmark, perfazendo um modo apropriado de avaliar tanto o PCS quanto o t-DNE. Em relação a eles, quatro algoritmos de DR são também avaliados: dois lineares, Análise de Componentes Principais (Principal Component Analysis - PCA) e Fatoração de Matrizes Não-Negativas (Nonnegative Matrix Factorization - NMF); dois não lineares, t-SNE e Mapeamento de Sammon (Sammon's Mapping - SM). Nossa abordagem tende a superar técnicas anteriores sob diversos aspectos explorados neste trabalho, nomeadamente: complexidade assintótica de tempo e espaço, preservação da estrutura global inerente aos dados, número de hiperparâmetros e aplicabilidade a dados não observados no treinamento. Comparações estatísticas sobre os tempos de execução desses algoritmos, usando o teste de significância de Friedman, destacam a eficiência do PCS na tarefa de incorporar dados.

  • CARLOS TAKESHI KUDO YASOJIMA

  • Cluster-Based Automatic Kriging Model

  • Data: 30/03/2020
  • Mostrar Resumo
  • Kriging is a geostatistical interpolation technique that performs the prediction of observations in unknown locations through previously collected data. The modelling of the variogram is an essential step of the kriging process because it drives the accuracy of the interpolation model. The conventional method of variogram modelling consists of using specialized knowledge and in-depth study to determine which parameters are suitable for the theoretical variogram. However, this situation is not always possible, and in this case, it becomes interesting to use an automatic process. Thus, this work aims to propose a new methodology to automate the estimation of theoretical variogram parameters of the kriging process. The proposed methodology is based on preprocessing techniques, data clustering, genetic algorithms and the K-Nearest Neighbor classifier. The performance of the methodology was evaluated using two databases and it was compared to other optimization techniques widely-used in the literature. The impacts of the clustering step on the stationary hypothesis was also investigated with and without trends removal techniques. The results showed that in this automated proposal, the clustering process increases the accuracy of the kriging prediction. However, it generates groups that might not be stationary. Genetic algorithms are easily configurable with the proposed heuristic when setting the variable ranges in comparison to other optimization techniques, and the KNN method is satisfactory in solving some problems caused by the clustering task and allocating unknown points into previously determined clusters.

  • EDDAS JOSUÉ BERTRAND MARTÍNEZ
  • An Evaluation Methodology for Internet of Things Middleware


  • Data: 13/03/2020
  • Mostrar Resumo
  • Since the term Internet of Things (IoT) was coined by Kevin Ashton in 1999, several middleware platforms have been developed to deal with important challenges for the integration of different technologies. In this context, some studies were done with the intention of evaluating aspects of their quality. However, many of them fail to holistically address other crucial aspects that need to be assessed for IoT applications. This work proposes a methodological approach to evaluate IoT middleware platforms, with the objective of helping the scientific community, providing them with a theoretical tool for the entire evaluation process. The methodology is based on the set of ISO / IEC 25000 SQuaRE standards and the Raj Jain process for performance evaluation. An implementation case is also developed to illustrate the proposal with different middleware solutions, 12 open source MQTT brokers, thus validating the viability of our methodology.

  • WALBERT CUNHA MONTEIRO
  • Visual Analysis Scenarios for Ocean Wave and Wind Data from Oceanographic Buoys

  • Data: 13/03/2020
  • Mostrar Resumo
  • Oceanography is the science area that studies data on the physical, chemical, geological, and biological characteristics of the oceans to predict their behavior. Forecasting models can directly assist in the decision-making process for investments in economic, social, environmental, and energy areas to society. Among the various analysis data, we highlight the wave and wind data because they are responsible for the sediment transportation of sediments, directly influencing the characteristics of the coastal environment. However, ocean data analysis is not an easy task, mainly due to its large volume and multidimensionality of data. Among the techniques that could assist this analysis process, the Information Visualization techniques (InfoVis) stand out, which are still little explored in the context of oceanography, usually using simple graphs to present and correlate data. Thus, the dissertation aims to propose a set of visual analysis scenarios, based on InfoVis techniques, for oceanographic data from oceanic buoys. The main focus of the visual scenarios is to support the direction and intensity of the wind and the direction and height of the ocean wave analysis, including other associated data. Data from the NOAA Data Buoy Center agency were used, and the proposed InfoVis techniques were hierarchical, multidimensional, small multiple (small multiple), correlation matrix, and multiple coordinated views. The main results are an extensive bibliographic review about oceanographic data analysis, including the visualization techniques, types of data, data source, analysis tasks, etc., the proposed scenarios and their possible interactions, and the presentation of patterns, relationships, and outliers discovered through the exploratory process.

  • EMANUEL MONTERO ESPAILLAT
  • Deployment of Unmanned Aerial Vehicles as Base Station to Improve the Quality of the Service applying User Clusterization

  • Data: 27/02/2020
  • Mostrar Resumo
  • Unmanned aerial vehicle (UAV) is a promising technology for mitigating Terrestrial Base Stations failures or even becoming an ideal temporary solution to offloading. UAV as Base Stations (UABS) can be deployed to complement existing cellular systems by providing additional capacity to hotspot areas as well as to provide network coverage in emergency and public safety situations.  In terrestrial cellular networks, mobile devices at the cell edge often pose a performance bottleneck due to their long distances from the serving terrestrial base station (TBS), especially in the hotspot period when the TBS is heavily loaded.  Simulation results show the gains of the proposed offloading scheme (OS) by improving the throughput, and quality of service (QoS) compared with a conventional LTE overloaded network. 

  • ERIC FELIPE DE OLIVEIRA PEREIRA
  • UMA REVISÃO SISTEMÁTICA DA LITERATURA APLICADA À RECUPERAÇÃO DE DADOS NO CONTEXTO DA COMPUTAÇÃO FORENSE

  • Data: 21/02/2020
  • Mostrar Resumo
  • A Computação Forense tem como finalidade estabelecer a materialidade e autoria de ilícitos relacionados a Computação e é uma área que está em constante atualização devido, principalmente, a dois fatores: o primeiro, ao avanço de novas tecnologias, que acabam por proporcionar uma constante atualização dos métodos e técnicas que são utilizados, proporcionando resultados mais rápidos, precisos e confiáveis; e em segundo, a necessidade dos profissionais de investigar crimes ligados à tecnologia, através de uma coleta e recuperação de dados, acessando equipamentos bloqueados suspeitos, rastreando informações em uma rede de computadores, ou seja, qualquer
    atividade que necessite de uma investigação utilizando ferramentas tecnológicas. Entre os processos de investigação, está a Recuperação de Dados, que é de grande valia para a área Forense, pois tem o objetivo de recuperar informações, em mídias digitais, que foram deletadas de forma proposital ou acidental. O principal problema desta área é que durante o processo de recuperação de dados, são recuperados arquivos esperados, além dos arquivos corrompidos, denominados de falso-positivos, o que acaba por exigir um maior tempo, e um maior esforço de análise das informações geradas aos profissionais da área. Este trabalho tem como objetivo realizar uma
    Revisão Sistemática da Literatura para mapear técnicas ou métodos existentes que possam tratar ou reduzir a incidência dos arquivos falso-positivos no processo de recuperação de dados.

  • YVAN PEREIRA DOS SANTOS BRITO
  • Synthetic Dataset Generation Combining Blocks of Generators

  • Data: 20/02/2020
  • Mostrar Resumo
  • The generation of synthetic data has been studied a lot recently since with synthetic data, it is possible to build data profiles that can be difficult to obtain. However, many of the proposed generators are difficult to use and require advanced mathematical knowledge from the user to build data profiles that satisfy their requirements. Also, they do not provide ways to share the data profiles for possible replication of experiments. This work presents a synthetic data generator that builds data profiles through blocks, which can be related to each other, where each one of them has a logic and its parameters for data generation. There are 34 generators in total implemented in the application, and among them there are generators of the Geometric type that allows a free form to be drawn and the data to be generated according to the drawing, making the construction of the generator model more intuitive. During the creation of the data profile, the user can view the behavior of the data to analyze whether the data generated already has the desired characteristics. Finally, usage scenarios are presented: one showing how it is possible to interact with the drawing tools and how the data generated is distributed in the drawing from this interaction; one for machine learning; and another for using the drawing tool.

  • RAISSA LORENA SILVA DA SILVA
  • A Random Forest Classifier for Prokaryotes Gene Prediction

  • Data: 18/02/2020
  • Mostrar Resumo
  • Metagenomics is related to the study of microbial genomes, known as metagenomes, describing them through their microorganisms compositions, relationships and activities, thus allowing a greater knowledge about the fundamentals of life and the broad microbial diversity. One way to accomplish such task is by analyzing information from genes contained in metagenomes. The process to identify genes in DNA sequences are usually called gene prediction. This work presents a new gene predictor using the Random Forest classifier. The proposed model obtaining better classification results when compared to state-of-the-art gene prediction tools widely used by the bioinformatics community. Random Forest presented more robust results, being 27% better than Prodigal and 20% better than FragGeneScan w.r.t AUC values while using the independent test set. Feature engineering has been revisited in the gene prediction problem, reinforcing the importance of careful evaluation of assembly a good feature set. K-mer counting features can been seen as the fundamental model building blocks to develop robust gene predictors.

  • IGOR ERNESTO FERREIRA COSTA
  • THE USE OF GAMIFICATION TO SUPPORT THE TEACHING-LEARNING OF EXPLORATORY TESTING

  • Data: 14/02/2020
  • Mostrar Resumo
  • The exploratory testing is an approach that has become quite relevant in the testing software and, with that, growing its application in the industrial scenario, mainly in reason of the emerging utilization of agile practices in the software development process to satisfy the Time to Market. However, it is a subject little discussed in the academic context. For this reason, this work uses gamification as a systematic strategy in exploratory test teaching and learning in the form of an experiment with two classes, one class with undergraduate students in Computer Science and the other class with students graduated in Computer Technician aiming to maintain a strong engagement that students and encourage good performance, thereby obtain as results students prepared to use that test approach in the industrial and academic context. As a result final, students achieved good overall performance; with reports from students that gamification facilitated and greatly collaborated to achieve the best performance converging with the quantitative data obtained. This can be evidenced mainly by the fact that both runs (classes) of the experiment reached a percentage higher than 70% of achievement, that is, there was a great overall performance analyzed by the ratio of medals obtained by participation.

  • ROBERTO BRITO XAVIER JUNIOR
  • Genome Assembly using Reinforcement Learning

  • Data: 14/02/2020
  • Mostrar Resumo
  • Reinforcement learning (RL) aims to build intelligent agents able to optimally act after training process in order to solve a given goal task in an autonomous and non-deterministic fashion. It has been successfully employed in several areas, however, few RL-based approaches related to genome assembly have been found, especially when considering real input datasets. De novo genome assembly is a crucial step in a number of genome projects, but due to its high complexity, the outcome of state-of-art assemblers is still insufficient to properly assist researchers in answering all their scientific questions. Hence, the development of better assembler is desirable and perhaps necessary, and preliminary studies suggest that RL has the potential to solve this computational task. In this sense, this paper presents an empirical analysis to evaluate this hypothesis, particularly in higher scale, through performance assessment along with time and space complexity analysis of a theoretical approach to the problem of assembly proposed by [2] using the RL algorithm Q-learning. Our analysis shows that, although space and time complexities are limiting scale issues, RL is shown as a powerful, alternative possibility for solving the DNA fragment assembly problem.

  • SILVERIO SIROTHEAU CORREA NETO
  • Avaliação automática de textos na língua portuguesa baseada em atributos linguísticos em quatro dimensões

  • Data: 14/02/2020
  • Mostrar Resumo
  • Contexto: Juntamente com o desenvolvimento da educação a distância surgem ambientes virtuais com métodos de avaliação automática de exercícios. Gap: Neste contexto, dada a relevância das questões discursivas no processo avaliativo, emerge a demanda para avaliadores automáticos para esse tipo de questão. Na literatura já encontramos resultados promissores de avaliadores automáticos de questões discursivas para língua Inglesa. Objetivo: Esta pesquisa foca na avaliação automaticamente respostas discursivas, respostas curtas (até um parágrafo) e redações (mais de um parágrafo) na língua portuguesa.  Material: Nos experimentos utilizamos: 192 respostas curtas de Filosofia oriundas de uma plataforma virtual de ensino; 131 e 229 respostas curtas de Biologia e de Geografia de um processo seletivo para ingresso no ensino superior, respectivamente; 1000 redações de um processo seletivo para ingresso em concurso público, de nível técnico. Método: A abordagem baseada em técnicas de aprendizagem de máquina segue uma arquitetura de pipeline com cinco passos: seleção de corpus, pré-processamento, coleta de atributos, modelo preditivo e avaliação. No pré-processamento exploramos técnicas de limpeza/normalização, stemmer e remoção de stop word. Na coleta de atributos exploramos características linguísticas em quatro dimensões: léxicos, sintáticos, conteúdo e de coerência. Coletamos e avaliamos mais de 140 atributos. Para gerar o escore de cada resposta utilizamos o classificador Random Forest. Resultado: Como resultado para a prova de Biologia e de Geografia, respectivamente, o sistema alcançou um índice Kappa quadrático (KQ) de 0.82 e 0.86 (Sistema versus Humano - SxH), contra 0.94 e 0.85 (Humano versus Humano - HxH). Para as redações obtivemos um índice KQ de 0.68 SxH contra HxH de 0.56. Assim tanto para respostas curtas (em parte) como para redações conseguimos superar o índice de concordância obtido entre dois avaliadores humanos. Contribuição: Este estudo mostra que esta tecnologia está alcançando maturidade para ser utilizadas com grandes vantagens nos ambientes virtuais de ensino: baixo custo, feedback imediato, libera o professor do trabalho de correção e atende grandes turmas.

  • BLENO WILSON FRANKLIN VALE DA SILVA
  • REACT-M: AN EVOLUTION OF THE REACT APPROACH TO SUPPORT THE SOFTWARE REQUIREMENTS MANAGEMENT PROCESS BASED ON EMPIRICAL EVIDENCE

  • Data: 12/02/2020
  • Mostrar Resumo
  • The adoption of agile approaches to software development has been growing in the industry since the beginning of the 2000s, due to proposing alternative solutions to minimize some problems of traditional approaches, as well as some challenges of the current agile methods. One area that is gaining prominence is Agile-RE, which seeks to apply the principles and values of agile methods in Requirements Engineering activities, that is, it allows to develop and manage requirements in a more agile way. The Methods REACT (Requirements Evolution in Agile ContexT) is a proposal for an agile method for the development of agile requirements, however it does not cover the requirements management activities that are fundamental to control the evolution of requirements during the life of the software. In this context, this work aims to present the REACT-M (REACT-Management) method, a proposal for an agile method to support requirements management activities that is strongly based on empirical evidence from the software industry, in Engineering practices Requirements Management and the expected results of the Requirements Management process contained in the MR-MPS-SW and CMMI-DEV quality models. Empirical evidence was extracted from other agile approaches, which were identified and analyzed from a systematic literature review. With the results obtained from the secondary study, the REACT-M method was created, which seeks to meet all activities related to the management of software requirements in an agile environment. Although this method can be considered an extension of the REACT method for software development, the method can be used independently, which facilitates the adoption by interested parties. The REACT-M Method was evaluated by means of a Case Study, conducted in a real project for the development of a product for learning programming. In summary of the results, it was observed that the method provided more simplicity, flexibility and greater communication between the participants throughout the project. In this way, the study intends to be a contribution to the scientific community and software industry by providing an agile approach to a specific area of requirements engineering, which is also aligned with quality models aimed at Software Process Improvement.

  • DIEGO OLIVEIRA ABREU
  • AN APPROACH TO IMPLEMENTING THE MOSE COMPETENCE IN SMALL COMPANIES USING AGILE PRINCIPLES

  • Data: 10/02/2020
  • Mostrar Resumo
  • MOSE Competence is a quality model for enterprises success that is developing constantly in Brazil lately. Quality Models are getting more frequent in the actual business environment, enterprises are searching for methods to improve their quality and stand out from their competitors. However, oftentimes the implementations of quality models become an obstacle needing great investment and consulting from specialists. This work proposes a guide for implementations of MOSE, based in agile principles and used to implement this model in a small size enterprise, also providing work products and ceremonies, seeking to help organizations whose wish to use MOSE as a way to improve their quality. The developed approach seeks to use the principles present in the current agile methodologies in the field of study of Software Engineering to assist in the implementation of the MOSE Competence model. Examples of agile principles are Simplicity, Adapting and responding to change, among others. After the model’s implementation using the approach provided, two evaluations were performed: a quantitative one that sought to verify the effectiveness and benefits of MOSE in the enterprise’s business in order to demonstrate the proposed practices impact over the enterprise’s processes;and a qualitative evaluation of the approach, which was conducted through interviews with the collaborators involved in the MOSE’s implementation and aimed to evaluate the practices proposed by the implementation approach using as criteria for evaluation the agile principles used in the practices development. The SWOT technique was applied to identify strengths, weaknesses, opportunities and threats relating the proposed practices to the agile principles. This work contributes as a reference material and support for organizations that wish to use the MOSE model in their business, given the lack of MOSE materials in the literature, due to the model being recent in the market.

  • CYNTHYA LETÍCIA TELES DE OLIVEIRA
  • Proposal and evaluation of textual description templates for bar charts vocalization

  • Data: 09/01/2020
  • Mostrar Resumo
  • The textual description of data charts, which are charts generated from a data source, such as a table, and can be, for example, row, bar or pie, is an important task in several contexts. The textual description can help beginners in the teaching-learning process of using data charts. In addition, the textual description of fingerprints allows them to be ''read'' by software screen readers, making them accessible to visually impaired people. Despite the vast use of chart data in textual form, it is not a trivial task. A chart presents different visual characteristics for the information represented, which can be influenced by the selected technique and by the combination of visual elements. There are crowdsourcing initiatives to create descriptions of charts available on the Web, but descriptions can be flawed, considering the understanding of the person. However, there is no standard way of vocalizing the contents of the chart. For this, the textual description must be based on a template, so that the graphic can be completely understood. Thus, the present work presents features that allow the vocalization of data extracted from vertical bar charts and grouped intelligibly. Evaluations were performed with the users to verify the comprehensibility of the textual descriptions vocalized. Results indicated that the proposed proposals were suitable for the vocalization of bar chart content.

  • CAIO PINHEIRO DE CARVALHO
  • An Interaction Customization Feature Set for Adaptive Game

  • Data: 03/01/2020
  • Mostrar Resumo
  • Most digital games available on the market do not take into account the accessibility context, which excludes a portion of the population, such as children with disabilities. There are studies presenting games with customized interaction options; however, generally thought for specific disabilities. The purpose of this paper is to investigate customizing characteristics in games, allowing a specialized professional to tailor the game to a specific patient during their session. For this, we conducted a systematic review of the literature on adaptable games and an empirical study where we investigated three games that were developed and tested with healthcare professionals specialized in the care of children with disabilities. The results generated a set of customizable features for adaptable games.

2019
Descrição
  • ANDRE DE JESUS ARAUJO RAMOS
  • Simulação baseada em Dinâmica de Sistemas para o ensino da fisiologia do eixo Hipotálamo-hipófise-tireoide no contexto da graduação em medicina

  • Data: 18/12/2019
  • Mostrar Resumo
  • O uso de simuladores na saúde para fins educacionais e de treinamento tem sido uma prática bastante desenvolvida e incentivada. Sua implementação tem seguido diversas metodologias dentre elas a simulação auxiliada por computador. Na endocrinologia, faltam estudos utilizando simuladores como ferramenta de ensino em nível de graduação. Assim, foi desenvolvido um protótipo de simulador para ensino do eixo hipotálamo-hipófise-tireoide (HHT), denominado EndoSim-LZ, que executa um modelo de Dinâmica do Sistema (DS) para esse eixo, baseado nas relações e valores encontrados em Martins and Monteiro (2010). A DS é uma metodologia de modelagem e simulação assistida por computador que implementa o pensamento sistêmico, buscando explicações endógenas para o comportamento gerado pela estrutura de qualquer sistema que contenham estoque e fluxo. Assim, o EndoSim-LZ explora ainda mais o potencial da metodologia, representando graficamente as glândulas envolvidas no eixo HHT e suas inter-relações de estímulo, produção e feedback. O funcionamento básico do EndoSim-LZ consiste que o aluno possa controlar os valores de qualquer hormônio do eixo e verificar a repercussão na produção dos demais. Objetivo: Avaliar a percepção dos endocrinologistas sobre o potencial do EndoSim-LZ como uma ferramenta para auxiliar no ensino do eixo HHT na graduação médica. Métodos: O EndoSim-LZ foi avaliado por nove endocrinologistas. Esta avaliação utilizou um survey adaptado de Savi et al. (2010) sobre a eficácia educacional dos jogos, uma vez que as simulações são um tipo de jogo educativo. Resultados: Os principais pontos negativos estão relacionados ao interesse em aprender mais sobre o eixo HHT; os principais pontos positivos estão relacionados à interface, interação, à relevância e utilidade. Conclusão: Devido a essas descobertas iniciais, melhorias de interface e interação estão sendo feitas para se tornarem mais simples e intuitivas. Eventualmente, o EndoSim-LZ será avaliado experimentalmente em relação à sua eficácia educacional.

  • ROBERTO YURI DA SILVA FRANCO
  • A model for automatic classification and display of sentiment data

  • Data: 17/12/2019
  • Mostrar Resumo
  • Sentiments analysis is the process of associating one or more Sentiments with a person during a particular activity, for example, using a physical product or interacting with software. Machine learning techniques have been applied for this type of classification considering the most varied types of data, such as video, audio, text, physiological data, interaction logs, among others. The complexity of machine learning techniques and the interpretation of the results about Sentiments analysis often makes the use of these technologies inaccessible to many professionals who want to associate this data in their analysis. In addition, presenting the results obtained and extracting useful information is also a complex task, especially due to the large amount of data generated, such as the flow of time, speech, activities, associated Sentiments, so it becomes difficult to search for patterns and present them to help in decision making. From this context, this doctoral thesis presents a model that integrates and abstracts the use of machine learning techniques applied to multimodal sentiment analysis, including the necessary preprocessing, and proposes the presentation of results through data visualization techniques, coordinates for analysis of these data together with others. As a scenario of use, the model was applied to real data related to a usability and user experience evaluation process in the interaction with a multidimensional data visualization software. This model implementation generated the UXmood tool, which performs sentiment analysis by combining data from video, audio, text in a multimodal approach, and associating it with mouse interaction logs, eye tracker and user speech during tasks that were performed by the test participants, presenting them in a configurable panel of coordinated data visualizations for the Web platform. In addition, the feasibility of using convolutional neural network architectures for sentiment analysis tasks in various types of media was analyzed. For the validation of the model and its implementation, the following steps were performed: 1 - Convolutional neural network architectures were tested and compared to analyze feelings in video, audio and text individually, and subsequently applied to a multimodal approach based on in weights (fusion by decision level); 2- Data visualization scenarios were developed and evaluated through online questionnaires in order to identify the main usability problems; 3 - After redesigning the tool with the results from step 2, the tool was tested with expert users in the context of the test. Finally, the results of the application of machine learning techniques and multimodal approach were compatible with the literature and the use by experts showed good acceptance of the tool and excellent evaluation of ease of use for generation and visualization of sentiment data.

  • ARUANDA SIMOES GONCALVES
  • Automatic programming of Density-Based Clustering Algorithms

  • Data: 13/12/2019
  • Mostrar Resumo
  • Automatic programming studies mechanisms for the automatic generation of computer programs. The goal of this work is to automatically build data mining algorithms, particularly density-based clustering algorithms. This class of clustering algorithms supports the identification of arbitrary-shape clusters, instead of the typically spheric clusters produced by other clustering approaches. We propose the use of Estimation of Distribution Algorithms for the artificial generation of density-based clustering algorithms. In order to guarantee the generation of valid algorithms, a directed acyclic graph (DAG) was defined where each node represents a procedure (building block) and each edge represents a possible execution sequence between two nodes. The Building Blocks DAG specifies the alphabet of the EDA, that is, any possibly generated algorithm. Current results analyze the clustering algorithms artificially generated for public-domain datasets.
  • FERNANDO NAZARENO NASCIMENTO FARIAS
  • vSDNLight: A Lightweight Architecture for Provisioning Virtual Software Defined Networks

  • Data: 12/11/2019
  • Mostrar Resumo
  • The emergence of software-defined networks (SDN) and features such as programmability and abstraction in the infrastructure have made it possible to create new network virtualization solutions, not only sharing the use of a specific infrastructure resource, but also sharing some or all of its topological view, that is, any available infrastructure resources. For building virtual software-defined networks, which also are well-known as slices, is indispensable to use a hypervisor SDN. However, these solutions have introduced serious limitations of performance and scalability, because of your architecture based on a proxy.This thesis presents a vSDN provisioning architecture by orchestrating the allocation of on-demand virtual switch instances directly to low-cost switching whiteboxes. Results have shown that architecture can increase the impact on the performance of vSDNs applied by hypervisors SDN.

  • RENATO HIDAKA TORRES
  • An investigation with machine learning in drivers’ distraction by the use of smartphones

  • Data: 25/10/2019
  • Mostrar Resumo
  • Driver distraction is a worldwide problem that climbs the number of road traffic deaths and injuries. Of the distracted reasons, distracted driving by mobile phone is a growing risk factor due to the number of users who perform this secondary event. Laws and education campaigns are public policies adopted worldwide to control cell phone use while driving. However, reports from the World Health Organization show that these measures are necessary, but not sufficient, because drivers continue to use smartphones while driving. This behavior shows that the need to use a smartphone is greater than the damage recognition that this action may cause. For this reason, research and technological solutions are developed to assist driver distraction. Solutions capture information and make decisions to prevent potential human failures. In this thesis, we propose three approaches to building machine learning models that aim to avoid driver distraction due to cell phone use. In the first approach, we model a convolutional neural network from the conductor behavior observation methodology. The images captured through a camera attached to the vehicle were used in the development and analysis of the model. In the second approach, we built different machine learning models to classify drivers and passengers in the texting while driving event. In this experiment, we used the methodology for observing the effects of driver behavior. Sensory data were collected and used in the construction and validation of the models. Finally, in the third approach, we model and analyze different machine learning models to classify drivers and passengers in the reading while driving event. In this approach, we also used the methodology of observation of the effects of driver behavior. The results obtained in this thesis demonstrate that the proposed approaches are efficient for the development of non-intrusive solutions that prevent driver distraction due to cell phone use.

  • MARCOS FELIPE CARVALHO NAZÁRIO
  • Detecting and Reporting Object-Relational Mapping Problems: An Industrial Report

  • Data: 11/09/2019
  • Mostrar Resumo
  • Background: Object-Relational Mapping (ORM) frameworks are regarded as key tools in the software engineer arsenal. However, developers often face ORM problems, and the solution to these problems are not always clear. To mitigate these problems, we created a framework that detects and reports a family of ORM problems. Aims: The aim of this work is to assess how practitioners perceive our framework, the problems, they face, and the eventual points for improvements. Method: We f irst report an observational study in which we curated 12 ORMrelated problems, which are implemented in our framework. We then conducted a developer experience (DX) study with 13 developers (10 well-experienced and 3 students) to assess their experience with our framework to implement six ORMrelated tasks. Results: All participants agreed that our framework helped them to finish the programming tasks. The participants perceived that our framework eases the ORM modeling, has precise error messages, and employs ORM best practices. As a shortcoming, however, one participant mentioned that some custom annotations are not very intuitive. Conclusions: Our f indings indicate that developers are willing to use frameworks that catch ORM problems, which create opportunities for new research and tools.

  • SAMUEL LINHARES SANTANA
  •  Sharingan: A Tool for API RESTful Management based on Aspect Oriented Programming

  • Data: 22/08/2019
  • Mostrar Resumo
  • In a global scenario, APIs are becoming an increasingly important part of the Web. There is an ever-increasing set of services available that come from explosive global and growth scenarios such as connected mobility, smart cities or the Internet of Things. In a market scenario, innovation-based competition has gained in importance in recent years, a central question for researchers is how information technology (IT) can help companies strengthen their innovative capacity. Within this context, APIs are a very important part of modern software businesses since they allow different companies to interact by offering more innovative products. Through these two scenarios you can see the strong relevance that APIs are gaining in the technology context, which means that companies need to value their APIs more because, according to some authors, APIs can be the highlight of a company, directly responsible for generating the main source of financial profit. One way to enrich the importance of APIs is through good documentation and API management practice, ie having usability, access, error information, consumption information, and user information is fundamental to a successful API. This paper describes Sharingan, a management module for RESTful API documentation and management implemented using Aspect Oriented Programming. (AOP). Sharingan monitors API-directed HTTP requests, as well as their responses to clients, and extracts and persists the composite information in the bodies of those requests. This information is used to create a dashboard that allows users to understand and make decisions about the managed API. The management module was evaluated in a case study and, because of its results, was applied to other APIs within a Brazilian government organization.

  • ANTONILSON DA SILVA ALCANTARA
  • THE USE OF GAMIFICATION ELEMENTS FOR THE TEACHING AND LEARNING OF THE KNOWLEDGE MANAGEMENT PROCESS

  • Data: 13/08/2019
  • Mostrar Resumo
  • Considering the relevance of knowledge to organizations and other sectors of society, this paper presents a Gamified Frameworkused as part of the planning of a Gamification proposed by Alcantara and Oliveira (2018), to support the teaching of assets and the management process of the knowledge, aiming to create a scenario that stimulates participants. The details of the Frameworkare described, describing the dynamics selected to compose this proposal, the Mechanics present in the Framework, emphasizing: the details of the forms of bonuses, along with the different types of Medals and their characteristics, that can be conquered along the dynamics; the form of composition of the Ranking; and, the Game Elements used throughout Gamification. The activities, which make up each stage of the flow, with their respective SCores, are also defined, as well as the Execution Plan of the Framework, which shows the planning based on the proposal presented by Alcantara and Oliveira (2018) for teaching and learning of Knowledge ManagemenTartaruga Following are the supporting materials such as Gamification Worksheet, Knowledge Cards, Individual Monitoring Form, and Knowledge Framework. Finally, we detail the application of this Frameworkin three Case Studies, followed by a qualitative evaluation through a SWOT analysis of the Gamified Frameworkand, afterwards, the quantitative analysis of the data collected in each case study is presented, besides presenting the final considerations.

  • MARCOS VENICIOS CORREA DE SOUSA
  • Agente Fuzzy para Redução da Fatura de Energia Elétrica em Cenários de Geração Distribuída

  • Data: 08/07/2019
  • Mostrar Resumo
  • De problemas climáticos à necessidade de diversificação da matriz energética pelos países do mundo, a produção de energia a partir de fontes renováveis vem sendo um tema bastante recorrente. A tecnologia existente permite a conexão com a rede elétrica dessa energia em nível de geração, transmissão e distribuição. Ao nível de redes de distribuição existe o maior dos benefícios que as fontes de energias renováveis podem oferecer: o consumidor gerar sua própria energia e adicioná-la à rede elétrica de distribuição. Mas essa conexão distribuída, sem os devidos cuidados, pode ocasionar problemas para a rede de distribuição, comprometendo a qualidade de energia oferecida pela rede elétrica a outros usuários. As conexões de geradores de fontes renováveis podem causar os seguintes problemas de energia: variação de tensão, intermitência de geração que afetam a qualidade da energia e frequências de corrente elétricas com harmônicos. Outro contraponto de fontes renováveis, como sistemas fotovoltaicos, é o alto custo inicial de instalação sendo essa tecnologia inacessível para a maioria dos consumidores. O trabalho proposto visa desenvolver um agente controlador com tomada de decisão fuzzy que tenha a capacidade de administrar a produção de energia de fonte renovável, como sistema fotovoltaico, direcionando a energia produzida entre o consumidor, a bateria e a rede elétrica. Será realizada uma simulação comparativa entre o agente proposto e uma proposta mais simples baseada nas instalações reais aplicadas, onde será identificado o agente que gera o menor custo com faturas em um período de um ano. Os dados reais de entrada das simulações são de datasets de leitura de produção fotovoltaica e consumo residencial para o período de um ano. Segundo as simulações, o agente fuzzy se mostrou mais eficiente, de maior retorno econômico e de menor impacto para rede.

  • HUGO BRITO LIMA
  • SongVis: Visualising the Semantics of Music

  • Data: 26/06/2019
  • Mostrar Resumo
  • Can a picture accurately represent the contents of a song? In this work we introduce SongVis: an
    interactive, web-based, visualisation tool that represents semantic features of music. Music, despite being an aural phenomenon, is often depicted by visual means, from the ancient Greeks associating sounds with colors to virtual reality tools nowadays. To develop SongVis we considered: which features are the most important, how to extract them from music files, how to graphically represent these features, how to assemble them into a unique visualisation, how interactions could yield insights and, finally, how successful was this work considering the views of the general public. SongVis allows the comparison of songs by the inspection of their visuals, and this quality can be exploited at tasks such as: browsing music libraries for similar tracks, filtering queries based on visual features, management of music collections or playlists according to the desired visual attributes, etc. Hence, this work looks forward to benefiting the Music Information Research (MIR) field, the Information Visualisation (InfoVis) field and users in general, by providing a useful tool and a step forward at the representation of music semantics.
  • DIEGO HORTENCIO DOS SANTOS
  • Analyzing the Effect with Different Levels of Partial Overlapping on the Perception of Visual Variables for Categorical Data

  • Data: 30/05/2019
  • Mostrar Resumo
  • The overlap of visual items in various visualization techniques is a known problem, potentiated by issues such as the amount of data and visual space available. Several approaches have already been applied to reduce the level of occlusion in data visualization, such as random jitter, transparency, layout rearrangement, focus + context techniques, among others. This dissertation aims to present a comparative study of the percentage limit of partial overlap and quantity of distinct values for different visual variables in the representation of categorical data. The study used a grid layout where the visual variables were analyzed: Hue, Luminosity, Saturation, Shape, Text, Orientation, and Texture, with the number of different values, coded varying from 3 to 5 values for each visual variable, and the partial overlap percentages studied were 0 %, 50 %, 60 %, and 70 %. In addition, a tool was developed to generate visualization scenarios automatically, capture the task resolution time and collect the answers of the study participants. In the generated scenarios the participants performed tasks of locating a target visual pattern, randomly generated by the tool. The analysis of the results showed that the visual variables Hue, Luminosity and Shape as robust to the high percentages of occlusion and gradual increase of visual coded values, we highlight the visual variable Text with good results for the accuracy and time of resolution, the visual variable Texture presented identification problems with increased occlusion level and quantity of distinct values, and finally, the visual variables Orientation and Saturation presented the highest quantitative errors during the tests, marking the worst performances among the visual variables analyzed.

  • FELIPE ROCHA DE ARAUJO
  • Mobility Prediction based on Markov Model with User Similarity using Location-Based Social Networks data

  • Data: 29/04/2019
  • Mostrar Resumo
  • The increasing availability of location-acquisition technology, e.g., embed GPS in smartphones, has created a new specificity of social networks, known as Location-Based Social Networks (LBSNs). It enables users to add a location dimension to existing online social networks in a variety of ways. In this context, LBSNs users stopped being only consumers to become data producers, offering various research opportunities such as mobility prediction and recommendation systems. In addition, LBSN data contains spatial, temporal, and social features of user activity, providing valuable information that is currently available on a large scale and low-cost form via traditional data collection methods. Several models have been proposed for mobility prediction based on LBSN, where most of them use historical records to identify user and group movements. In this sense, Markov Chain (MC) is one of the statistical models used in user mobility prediction, which aims to find the probability of an event happening given $n$ past events conforming to the order of the model. In this master thesis, we introduce the TEmporal Markov Model with User Similarity (TEMMUS) mobility prediction model. It considers an MC of variable order based on the day of the week (weekday or weekend) and the user similarity to predict the user's future location. The results highlight a higher performance of TEMMUS compared to other predictors.

  • FABIO ROCHA DE ARAUJO
  • ESBA: hybrid Energy-Saving video Bitrate Adaptation algorithm to deliver videos with high Quality of Experience and energy-efficiency for mobile users

  • Data: 29/04/2019
  • Mostrar Resumo
  • The number of mobile devices that use video streaming applications has been steadily rising year after year. Platforms responsible for providing multimedia service face great challenges in delivering high-quality content for mobile users due to frequent disconnections, often caused by user movements and heavily energy-dependence of mobile devices. A video adaptation approach with Quality of Experience (QoE) and Energy-saving support is a key issue to mitigate these problems, enhancing user QoE, as well as reducing the energy consumption in mobile devices. In this master thesis, we propose a hybrid Energy-Saving video Bitrate Adaptation algorithm (ESBA) to deliver videos with high QoE and energy-efficiency for mobile users. In addition, we consider an Artificial Neural Network (ANN) approach for individual network throughput prediction. Simulation results show the efficiency of ESBA compared to existing adaptation video bitrate algorithms, reducing the number and duration of player stalls, as well as saving energy of mobile devices. Moreover, observing results, we notice that the ANN approach overcomes current throughput prediction approaches present in literature in specific scenarios, permitting the adaptation algorithm to respond more efficiently to network changes.

  • WALISSON CARDOSO GOMES

  • Data: 15/03/2019
  • Mostrar Resumo
  • There is no doubt the numerical optimization yielded many benefits to the sciences and engineering, and among the algorithms for optimization, meta-heuristics have achieved a prominent place, appearing as one of the most prolific branches in terms of publications. This dissertation focuses on one of these meta-heuristics, the Artificial Bee Colony algorithm, which has drawn some attention in the last two decades for its efficiency and simplicity of configuration. More precisely, it continues the ABC self-determination of parameters research, initiated with the version with diversity control, called ABCD. This research focuses on specific topics of the algorithm, the number of dimensions modified simultaneously in the search equation, and the relationship between population size and number of iterations. This work empirically determines linear rules that work relatively well for problems with different characteristics by using well-known test functions in the literature. As a result, the algorithm automatically estimates all the parameters for its execution based on a user-defined maximum number of queries to the objective function. This methodology introduces simultaneously ease of use for the algorithm's operator, by reducing the need for configuration, and security by the greater stability of results.

  • GILSON ROCHA SILVA
  • MODIFICATIONS IN DATA ACCESS CODE TO IMPROVE SOFTWARE ENERGY CONSUMPTION

  • Data: 27/02/2019
  • Mostrar Resumo
  • With Big Data applications on the rise, a data-driven perspective in the study of power consumption in software systems can lead to the development of energy-efficient software. Despite the growing need, there are still few resources (tools, books, courses, guides and etc.) to support developers in building code with better energy efficiency. With this, this work seeks to present a study about the several classes of Java programming language that make reading and writing of data, through experiments in different environments. The objective is to study various methods of data access to propose refactorings between these methods for greater energy efficiency. And through the results obtained, it is hoped to give more subsidies to the software engenheros in the construction of applications with greater efficiency in the consumption of energy.

  • PEDRO LUIZ MAGALHAES CUMINO
  • Control plane scheme for energy efficient video dissemination in Software Defined Unmanned Aircraft Networks

  • Data: 26/02/2019
  • Mostrar Resumo
  • In the context of Smart Cities, there is a growing claim for a more autonomous and rapidly deployable systems. Collaboration among multiple Unmanned Aerial Vehicles (UAVs) to set up a Flying Ad-Hoc Network (FANET) is a growing trend due to its capacity to support a wide range of application. Applications that work with video transmission in FANETs should always deliver a satisfactory video quality to the users even under influence of network topology changes caused by the energy consumption of UAVs. In addition, the FANET must keep the UAVs cooperating as much as possible during a mission. However, one of the main challenges in FANET is how the impact of limited energy resources of UAVs can be mitigated on the FANET operation in order to monitor the environment for a long period of time. In this sense, it is required UAV replacement in order to avoid the premature death of nodes, network disconnections, route failures, void areas, and low-quality video transmissions. Moreover, decision-making must take into account energy consumption associated with UAV movements, since they are generally quite energy-intensive. This work proposes a cooperative UAV scheme for enhancing video transmission and global energy efficiency, called VOEI. The main goal of VOEI is to maintain the video with QoE support while supporting the nodes with a good connectivity quality level and flying for a long period of time. Based on a Software Defined Network (SDN) paradigm, the VOEI assumes the existence of a centralized controller node to compute reliable and energy-efficiency routes, as well as detects the appropriate moment for UAV replacement by considering global FANET context information to provide energy-efficiency operations. Based on simulation results, we conclude that VOEI can effectively mitigate the energy challenges of FANET, since it provides energy-efficiency operations, avoiding network death, route failure, and void area, as well as network partitioning compared to state of the art algorithm. In addition, VOEI delivers videos with suitable Quality of Experience (QoE) to end-users at any time, which is not achieved by the state of the art algorithm.

  • YURI SANTA ROSA NASSAR DOS SANTOS
  • Visual Analysis Scenarios for Evaluation of Evolutionary Computational Techniques Behavior

  • Data: 25/02/2019
  • Mostrar Resumo
  • Machine learning algorithms and evolutionary techniques are used in many applications
    for automatic generation of decision models. Sometimes, it is necessary to describe how
    the decision models of these approaches work, and this may not be an easy task. This task
    can be complex because such models do not clearly present their internal procedures for
    decision-making. In this way, information visualization scenarios were proposed in this work
    to analyze the evolutionary process of the AutoClustering tool. This tool automatically
    generates density-based clustering algorithms for a given dataset using the evolutionary
    technique called Estimation of Distribution Algorithm. Some scenarios were about fitness
    and population evolution (clustering algorithms) over time, algorithm parameters generated,
    the number of occurrences of the individual in the generations and others. Thus, these analyses
    can assist in, for instance, allow the use of optimized parameters for AutolClustering
    and their algorithms, impacting directly on the processing time and quality of generated
    algorithms.

  • RENATA KELLY DANTAS CASCAES
  • Adaptation and Automation of a Cancellation Test for Evaluation of Exploratory Visual Behavior

  • Data: 25/02/2019
  • Mostrar Resumo
  • Tests that evaluate individual strategies of visual exploration may be useful for uncovering deviations from typical development, such as autism spectrum disorder and dyslexia. One subgroup of visual exploration tests, called cancellation tests, require the identification of specific targets surrounded by distractors. However, the lack of automated versions of these tests limit their availability to a larger audience. In the present work, we present an automated version of a cancellation test: the cars' test. Even though the test is designed to be used by specialists, it is user-friendly, optimizing both its application and the analysis of collected data. First, we evaluated the cars' test in a group of six to nine years-old children enrolled in a private school. Then, after some modifications based on the observations made during the first test, a second test was performed in a public school with a larger group of children allowing a better statistical analysis of the collected data. The results suggest that the cars' test is effective in providing information about visual exploration strategies adopted by children and is in agreement with the results of similar tests found in the literature.

  • FERNANDO JARDEL JARDIM DOS SANTOS
  • Technology plays a preponderant role in the insertion of new actions into the human repertoire of movements, given the speed with which new equipment and interaction paradigms are created. With the emergence of touchscreen displays, that are touch sensitive, many actions have been improved and others inserted into the repertoire of human hand movements. The inclusion of touchscreen technology in scientific research on cognition and behavioral analysis already occurs, since many studies have been developed using these interaction interfaces, however, among such research, the "touch" behavior is still the most used. In order to expand the sample space of these researches investigating the acquisition of the behavior of "drag" visual stimuli in non-verbal individuals, specifically Robust capuchin monkey of the genus Sapajus spp., this work proposes the development of the Arrasta!, a computational tool that enables the creation of virtual test scenarios with interactive objects, which additionally captures data related to user interactions for further analysis. The main objective of this research is to verify if the dragging behavior can be inserted into the movement repertoire of these non-verbal individuals, as well as if they are able to relate such stimuli and follow a specific test schedule. From the data obtained with the application of the Arrasta! in Sapajus spp. it will be possible to investigate the acquisition of generalized relational repertoires in humans with delayed cognitive development.

  • Data: 22/02/2019
  • Mostrar Resumo
  • Behavior Analysis, Touchscreen, Sapajus spp.

  • PEDRO MONTIBELER SALVADOR
  • Topological Resilience Evaluation and Enhancement in Software Defined Networks

  • Data: 20/02/2019
  • Mostrar Resumo
  • Software Defined Networks decouple control and forwarding planes, making network management easier and more flexible. However, the interaction between these planes raises new concerns about network resilience, due to the switches’ dependence of the controller devices. Failures that compromise the operation of the control plane, or that impairs the communication between the planes, interferes with the operation of the network. In addition, inefficient communication with the controller devices may compromise the network’s fault recovery, as they are responsible for detecting node and/or link failure and route recalculation. During the planning phase of a Software Defined Network, de- signing a redundant topology, where connectivity between planes is efficient and fault tolerant, improves network resilience. Related work typically analyzes only the connec- tivity’s redundancy between planes, and proposes enhancing topological resilience only through optimizations in the configuration of the control plane, changing the quantity and positioning of the controllers in the network, observing through experimentation that the forwarding plane’s topological structure influences the results directly. A resilience factor is proposed, analyzing multiple intrinsic topological characteristics, such as redundancy in the control plane, and the connectivity, efficiency and vulnerability of communication between planes, to serve as an indicator of its overall resilience. The application of topolo- gical enhancement algorithms is also proposed to increase topology resilience, as indicated by the proposed factor, through optimizations on both planes. A topological enhancement algorithm based on genetic algorithm is introduced, being applied in a set of test topologies along with different algorithms of the literature. In parallel, a controller placement algorithm is applied, for performance comparison. The gains obtained in the different resilience characteristics show that the improvement of the topologies obtained by the joint optimization of both planes surpasses even the most optimal controller placement.

  • PAULO SENA FERREIRA FILHO
  • RatioCache: A Caching Policy Based on Content Replacement Rate for Information-Centric Networks

  • Data: 18/02/2019
  • Mostrar Resumo
  • Information-Centric Network (ICN) are characterized by storing content in the routers along the network, reducing bandwidth consumption, server load, and increasing QoE (Quality of Experience) users. ICN behavior is determined by a 3-tuple, which are routing, content insertion and content replacement. Besides, Routing algorithms influence content insertion performance and, which in turn, influences in replacement policies performance. Furthermore, it is proven that content insertion policies influence routing performance and there is no work regarded to analyze the impact of replacement algorithms in content insertion. Therefore this paper proposed a new caching metric called Replacement Ratio and a dynamic content insertion stra- tegy named RatioCache to prove that content replacement, which is strongly bounded to caching system, also influence the caching process. The results optimized the cache hit probability, as well as reduced the server overload and the latency, thus, strategy Rati- oCache proves that content replacement policies directly influence the caching politics, enhancing the network performance.

  • REGINALDO CORDEIRO DOS SANTOS FILHO
  • Global Continuous Optimization with Particle Swarm Enhancements

  • Data: 18/02/2019
  • Mostrar Resumo
  • Numerous optimization algorithms have been proposed to solve computing and engineering problems involving optimization of a set of real parameters. A global continuous optimization problem is generally NP-hard which poses a difficult and complex task to find the true global optimum solution. In this context, popular metaheuristic approaches based on a population of simple structures have arise during the recent years. One of them is the well-known Particle Swarm Optimization (PSO) algorithm which is a non-deterministic, randomized, nature-inspired metaheurist specialized in solving continuous black-box optimization problems. PSO has been used by many experts of different domains of science, as the algorithm has the potential to solve complex problems with simple mathematical formulations. Although this method is widely used in real-world applications, there are also intrinsic drawbacks embedded in the algorithm's structure. Some of them are known to all, such as the search mechanism wastes computational efforts due to random walks, the convergence process is usually slow, some points are revisited during the search process, prominent areas are not properly investigated, the algorithm is prone to premature convergence and the algorithm's parameters are problem-dependent. In this thesis, the author presents enhancements to the original PSO by incorporating deterministic characteristics and rotation matrices, and reporting an empirical analyses about rotation and information exchange among particles. A semi-autonomous particle swarm optimizer, termed SAPSO, which uses gradient-based information and diversity control to optimize multimodal functions is provided. The proposed algorithm avoids the drawbacks of deterministic and non-deterministic approaches, by reducing computational efforts of local investigation and escaping from local optima. This thesis also investigates whether rotation and information exchange have an effect on the performance of PSO. Four PSO versions which include the presence or absence of rotation variance, and the fast or late information exchange among particles are evaluated. Another algorithm called ISAPSO is further proposed to put together every prominent feature found by both contributions. The numerical simulations revealed promising results when SAPSO and ISAPSO are evaluated on a suite of optimization problems and compared to other related PSO-based algorithms. In addition, a rigorous methodology based on a reliable number of executions and statistical hypothesis tests is conducted to strengthen the discussions.

  • ELZIANE MONTEIRO SOARES
  • IDENTIFICATION OF THE INFORMATION AND COMMUNICATION TECHNOLOGY COMPANIES PROFILE OF THE STATE OF PARÁ USING THE SURVEY AND GROUNDED THEORY EXPERIMENTAL METHODS

  • Data: 31/01/2019
  • Mostrar Resumo
  • In recent years we have intensified the use of experimental study methods, case studies, opinion surveys and controlled experiments, methods that are inserted in the context of Experimental Software Engineering, which investigates theories, methods and techniques by experimentation. This study aims to investigate how the Information and Communication Technology (ICT) companies in the state of Pará execute in their work routines the objectives described in the competence of Client and Market (CM) of the Guidance Model for Successful Enterprises (MOSE) . As a way to achieve this objective, the experimental methods were used in this study, the first one being defined and applied with representatives of the ICT companies of the capital of Para, and later the use of the second method to aid in the analysis performed on the data collected, which consequently allowed the creation of the substantive theory regarding the profile of companies. The research results in providing a more consistent view of the way these companies operate under CM's perspective (competency), which can contribute as a competitive advantage to the market, since currently the state's technology scenario has little visibility in relation to other states, largely due to the lack of knowledge about the reality of ICT companies in Pará.

  • ANDRE AVELINO DA SILVA NETO
  • Considerações de usabilidade para sistemas eleitorais resistentes à coerção

  • Data: 21/01/2019
  • Mostrar Resumo
  • Eleições via Internet oferecem mais comodidade aos eleitores, possibilitando-os votar de qualquer lugar conectado a grande rede mundial. No entanto, devido a inexistência de um ambiente controlado, estas eleições podem potencializar ataques coercivos. Nestes ataques, opressores (adversários) podem facilmente influenciar eleitores na escolha de seus candidatos. Embora não exista uma solução ótima para esse problema, modernos sistemas para eleições via Internet possuem meios para mitigá-lo e são denominados resistentes à coerção. De forma a resistirem a ataques coercivos, tais sistemas dependem fortemente da participação direta do eleitor. Essa dependência pode resultar em ineficácia caso o usuário encontre dificuldades para utilizar os mecanismos de resistência à coerção. Diante disso, o presente trabalho objetiva investigar problemas de usabilidade relacionados a interação entre eleitor e sistemas resistentes à coerção. Para isso, um destes sistemas foi utilizado como estudo de caso, no qual uma série de testes de usabilidade foi executada. O sistema foi alterado três vezes, visando encontrar problemas que pudessem ser generalizados a outros sistemas eleitorais que ofereçam resistência à coerção. Como resultado, o trabalho propõe uma série de considerações de usabilidade, que discutem os principais problemas encontrados e indicam possíveis soluções que podem ser adotadas. Tais considerações pretendem auxiliar no design de interface e interação de sistemas resistentes à coerção práticos e capazes de equilibrar requisitos de segurança e usabilidade.

2018
Descrição
  • ERICSON SARMENTO COSTA
  • Free tools and resources for HMM-based Brazilian Portuguese speech synthesis.

  • Data: 11/12/2018
  • Mostrar Resumo
  • Text-to-speech (TTS) is currently a mature technology used in many areas such as education and accessibility. Some modules of a TTS system depend on the language, and while there are many public resources for some languages (e.g., English and Japanese), the resources for Brazilian Portuguese (PB) are still limited. This work describes the development of a complete hidden Markov model (HMM) based TTS system using the HTS toolkit for PB, which can be applied to the desktop and embedded environments. The developed tools and resources include the training scripts, a demo speech corpus, and an application programming interface (API) for the HTS_engine, which together can be applied to create a complete TTS system. This work also releases a set of natural language processing tools (NLP) for PB, including a specific module for labeling the text which serves as input to the HTS_engine, which expands the already publicly available resources, supporting the development of new researches for academic or industrial purposes. A graphic interface was also created to control all the acoustic models training process. All the implemented tools were merged into a framework, called UFPAT2S. Subjective and objective performance tests are presented, comparing the proposed TTS system with others software currently available for PB.

  • ESTÊVÃO DAMASCENO SANTOS
  • THE USE OF GAMIFICATION ELEMENTS FOR THE TEACHING OF THE FUNCTION POINT ANALYSIS TECHNIQUE

  • Data: 10/12/2018
  • Mostrar Resumo
  • With the development of new technologies at all times and increased competition between organizations, it is essential that they seek to achieve quality in the development of their applications. An essential tool for this is the Function Points Analysis (FPA) technique. Through this it becomes essential that students have contact with this technique as early as possible. Thus, this study aims to use the concepts of gamification to stimulate support for teaching and engaging students' motivation in the discipline of Quality in Software taught in the graduate course in computer science at UFPA. For this, classes were taught to teach the FPA technique that used elements of games as motivation for the students. Therefore, this research resulted in an enrichment of the knowledge of these students in the practice of estimation, commonly present and recommended the use in software quality models. This work aims to contribute to the teaching of the FPA technique for students, aiming at a better preparation for the software development market. It was also verified that the use of gamification elements for the teaching of this estimation technique was efficient, since the participating students were more dedicated to the tasks and were participative in all the different types of classes.

  • EDSON COSTA DIAS
  • TECHNICAL SOLUTION PROCESS OF CMMI-DEV FOR SOFTWARE MAINTENANCE PROJECTS: A IMPLEMENTATION CASE STUDY

  • Data: 25/10/2018
  • Mostrar Resumo
  • Organizations that operate in the software development segment play important roles in the global economic context, this is a fact evident today. Some of these organizations are characterized as Small and Medium Enterprises (SME) and they recognize that in order to produce quality software and concentrate efforts to be competitive in the industry, they need to improve their processes of software production activities. There is also a segment of software SME that concentrate a large part of their activities in software maintenance and face difficulties in the tasks for correction of errors in the code or even for adaptation or evolution of software requirements. In this context, this dissertation presents an approach to a Technical Solution (TS) process for software maintenance projects with reference to the CMMI-DEV model. The purpose of the TS area is to design and implement the requirements when they are already developed and ready. The case of implementation of this area was carried out in the Center for Information and Communication Technology (CTIC) at the Federal University of Pará (UFPA). The CTIC, having the profile of an SME, is the organ of the institution that enables information and communication technology solutions for the university community, including development and maintenance services for the software products used by the institution. The implementation of the TS in the CTIC started from a mapping of the area in the organization, followed by the modeling and finalizing with an evaluation to have the evidence that the implementation carried out in the organization adhered to the practices described in the CMMI-DEV model. After the evaluation, it was possible to verify that the intended objective was reached, since the organization had its Technical Solution process mapped, modeled and improved for the software maintenance activities, making the process proposal feasible and useful, contributing as a method to implement process areas following the continuous representation of CMMI-DEV in SME.

  • DIEGO BENTO AIRES TEIXEIRA
  • A Genetic Algorithm for Static Routing and Wavelength Assignment in All-Optical WDM Networks

  • Data: 10/10/2018
  • Mostrar Resumo
  • In order to transmit data efficiently over an optical network, many routing and wavelength assignment (RWA) algorithms have been proposed. This work presents a genetic algorithm that aims at solving the RWA problem, which consists of choosing the most suitable lightpath (i.e., a combination of a route and a wavelength channel) between a source-destination pair of nodes in all-optical networks. A comparison to some already known approaches in terms of blocking probability was made. Results show a satisfactory performance, since the average blocking probability achieved by the genetic algorithm was lower than or relatively equivalent to the standard approaches compared.

  • LEONARDO BARBOSA DA COSTA
  • DLCP: A Protocol for Safe Operation of Light Clients in Blockchain

  • Data: 03/10/2018
  • Mostrar Resumo
  • In blockchain, full nodes are peers that store entire chain of blocks --- which, in essence, include block headers and contained transactions --- in order to verify every new transaction inserted in the chain. In contrast, light clients are those with limited resources and, for this reason, they request only block headers from full nodes, that are sufficient to verify given transactions by means of simpler protocols such as Simple Payment Verification. In an approach to prevent full node tampering on transaction verification (byzantine faults), light clients request block headers from multiple full nodes and compare received responses to validate blocks. One problem with this approach is that a light client must connect to each full node and perform the same cryptographic operations with each one repeatedly, which leads to client-side complexity and higher response times. In this work, an alternate approach is proposed to tackle this issue, in which light clients can encrypt a request for block headers only once, and send that request to a predetermined set of full nodes to access, process, and reply back in a single response. This approach, called Distributed Lightweight Client Protocol (DLCP), enables light clients to verify with little effort if full nodes have agreed on a response. From an experimental evaluation, it was observed that DLCP provides lower latency and reduces computing and communication overhead in comparison to the existing conventional approach.

     

  • MICHELL COSTA OLIVEIRA DA CRUZ
  • DECISION-MAKING MODEL FOR MISSING DATA IMPUTATION PROCESS

  • Data: 19/09/2018
  • Mostrar Resumo
  • Data usually contains missing values and the reasons are diverse. Missing values occur when measurements fail, when analysis results are lost or when measurements are incomprehensible. Therefore, data records are incomplete which can lead to inefficient data analyzes and inaccurate decisions. The way analysts deal with incomplete data can be a difficult task and the difference between biased and unbiased studies. Imputation methods are one of the main ways to process missing data. However, several factors must be considered when deciding the best method for a specific base. Thus, this study developed a decision model whose objective is to assist in the data imputation process, guiding the analyst through four steps. They allow to (a) determine the missing data mechanisms through visualization techniques, (b) perform outliers treatment, (c) perform simulations on complete base samples to define the most efficient imputation method for a data set, using evaluation metrics, and (d) impute the data with the method selected as the best option. The proposed methodology was evaluated by simulating the occurrence of missing data and its mechanisms in five real databases using five imputation methods (Mean, Hot-Deck, KMI, Imputation, IRMI, MICE) considering the metrics RMSE, MAE, MPE, Categorical Accuracy  and Execution Time. Following the proposed decision model, the results showed the negative influence of outliers on the imputation and the choice of the best technique for each scenario. Thus, we concluded that the model of decision-making developed can guide the analyst in the steps of the process of missing data imputation.

  • FABIO MALCHER MIRANDA
  • Improving Metagenomic Assemblies Through Data Partitioning: A GC Content Approach

  • Data: 31/08/2018
  • Mostrar Resumo
  • Assembling metagenomic data sequenced by NGS platforms poses significant computational challenges, especially due to large volumes of data, sequencing errors – such as insertion, deletion and substitution of bases – and variations in size, complexity, diversity and abundance of organisms present in a given metagenome. Although there are several computational solutions that perform data partitioning to reduce the use of computational resources during metagenomic assembly, these tools do not use the nucleotide composition of the reads – i.e. the amount of Adenine, Guanine, Cytosine and Thymine bases present in the DNA sequences – to improve the quality of assemblies. Thus, in this work we propose the development of an open source bioinformatics tool called GCSplit, which was implemented in the programming language C++ and divides the metagenomic sequences into subsets using a computationally inexpensive metric: the GC content (percentage of Guanine and Cytosine bases) of the sequences. The proposed algorithm uses as input FASTQ files containing the short reads sequenced by the Illumina platform and then computes the best k-mer values to perform the assembly using the software KmerStream. Posteriorly, the GC content of each sequence is calculated in parallel, through the parallelization made possible by the OpenMP library and the sequences are sorted in ascending order according to their GC content by the intro sort algorithm, which has a parallelized implementation in the C++ STL library. Then the sequences are partitioned into n subsets and each one of these partitions is mounted individually by the program metaSPAdes. Finally, these n assemblies are concatenated in a final assembly performed by the assembler SPAdes and the output file generated is a FASTA file, which can be used in later analysis such as gene prediction or binning. Experiments performed on real data – whose samples were extracted from the following environments: from a moose rumen, from hot springs in California, from a sewage treatment plant in Argentina, from a human gut and from the Lake Lanier, which is located in the southeastern United States – show that preprocessing short reads with GCSplit prior to assembly reduces memory consumption and generates higher quality results, such as an increase in the size of the largest contig and N50 metric, while both the L50 value and the total number of contigs produced in the assembly were reduced. GCSplit is available for download at <https://github.com/mirand863/gcsplit> and requires the installation of GCC compiler version 4.4.7 or higher, the library OpenMP and the software KmerStream and metaSPAdes.

  • CAIO MARCOS FLEXA RODRIGUES
  • Um novo índice de validade de cluster baseado no espalhamento equidistante mútuo para clusterização crisp

  • Data: 22/08/2018
  • Mostrar Resumo
  • A clusterização de dados tem sido amplamente utilizada na descoberta do conhecimento para revelar estruturas de dados úteis ao analista. Como uma das tarefas mais importantes do reconhecimento de padrões, a clusterização particiona um conjunto de dados em grupos cujos elementos do mesmo cluster são semelhantes e elementos de clusters diferentes são dissimilares. Algoritmos de clusterização em geral supõem que o número de clusters K é conhecido, embora não haja conhecimento prévio sobre o conjunto de dados. Consequentemente, o significado dos grupos definidos precisa ser validado. Índices de validade de cluster são comumente usados para realizar a validação de resultados da clusterização. No entanto, a maioria deles é considerada dependente do número de objetos de dados e, geralmente, tende a ignorar grupos pequenos e de baixa densidade. Além disso, soluções de cluster subótimas são frequentemente selecionadas quando os clusters estão em um certo grau de sobreposição ou baixa separação. Assim sendo, propomos um novo índice de validade interna não paramétrico baseado no espalhamento equidistante mútuo dentro do cluster para clusterização crisp. Sete diferentes índices de validade foram analisados em comparação com o índice proposto, a fim de detectar o número de clusters em conjuntos de dados. Experimentos em dados sintéticos e do mundo real mostram a eficácia e confiabilidade de nossa abordagem para validar o hiperparâmetro K.

  • ISAAC SOUZA ELGRABLY
  • The Usage of Gamification Elements to Teaching the TDD Technique

  • Data: 29/06/2018
  • Mostrar Resumo
  • With the greater immersion of software development teams to agile methods and practices, it became
    necessary for students to have earlier contact with Agile Testing practices. Thus, this study aims to use
    gamification concepts to stimulate the support to teaching and engage the motivation of students in the
    Software Quality subject taught in postgraduate and undergraduate courses in computer science. For this,
    classes were set up to teach agile tests that used games elements as motivation for students. Therefore,
    this research resulted in an enrichment of the knowledge of these students in testing practices. This work
    aims to contribute to the teaching of agile test practices for students, aiming at a better preparation for
    the software development market. It was also verified that the use of gamification elements for the
    teaching of agile tests was efficient, because the participating students dedicated themselves more to the
    tasks and were participative in all the different types of learning scenarios.
  • VITOR CIRILO ARAUJO SANTOS
  • MGCOMP: Sistema computacional multiplataforma para análise comparativa de metagenoma

  • Data: 04/05/2018
  • Mostrar Resumo
  • A metagenômica estuda comunidades de microrganismos, não cultiváveis em laboratório, a partir da seleção de amostras do meio ambiente. As amostras ou metagenomas são submetidas a um sequenciamento em larga escala e posteriormente analisadas por pipelines de bioinformática. A análise das sequencias permite estimar o impacto da presença ou ausência desses microrganismos nos respectivos metagenomas. Assim, dados metagenômicos permitem a identificação das assinaturas taxonômicas e funcionais disponíveis em uma metagenoma. As assinaturas geralmente não são exploradas de forma integrada e a falta de metadados ambientais limitam inferências de contexto na análise de dados. Neste trabalho propomos uma ferramenta computacional (MGCOMP) que fornece um conjunto de funcionalidades para análise comparativa de metagenomas. Além disso, como proposta principal, oferecemos uma nova abordagem de comparação metagenômica baseada em uma metodologia integrada para identificar e comparar assinaturas metagenômicas, correlacionando-as com fatores ambientais (quando disponíveis). As assinaturas são apresentadas de forma hierárquica (estruturada em árvore), uma espécie de conjunto de clusters aninhados. Estes clusters são calculados através de uma estratégia computacional desenvolvida para avaliar de forma ótima as partições de clusterização. Foi desenvolvida também uma visualização em árvore de bolhas (por Javascript) para guiar a exploração interativa das assinaturas metagenômicas. No que nos diz respeito, a análise integrada das assinaturas ambientais e visualização interativa nunca foram explorados anteriormente.

  • RAFAEL NASCIMENTO DE SOUZA
  • UFAHAMU: UM FRAMEWORK PARA APLICAÇÕES MÓVEIS ANDROID CONSCIENTES DE CONTEXTO

  • Data: 12/04/2018
  • Mostrar Resumo
  • Um campo da Computação Ubíqua tem se destacado significativamente na última década: a Computação Consciente de Contexto. Sistemas conscientes de contexto podem adaptar suas funcionalidades ao ambiente em que estão inseridos sem a intervenção direta do usuário. Este trabalho apresenta o Ufahamu, um framework Java para Android que facilita o desenvolvimento de aplicações conscientes de contexto. Este framework foi construído utilizando a abordagem Contexto-Regra-Ação com o objetivo de complementar limitações de frameworks anteriores. A contextualização, a motivação e o projeto do Ufahamu são apresentados em detalhes, bem como sua implementação e as suas validações. Três validações foram conduzidas, uma através do desenvolvimento de um app utilizando o próprio framework, uma comparando o framework proposto com 3 outros frameworks sob um ponto de vista de complexidade de código e, por último, uma validação  através de um experimento conduzido com engenheiros de software. Os resultados são promissores e sugerem que o framework Ufahamu, de fato, facilita o desenvolvimento de aplicações conscientes de contexto.

  • PEDRO ALBERTO BENTO GOMES
  • Forecasting bees’ activity level with RNN an attribute selection

  • Data: 06/04/2018
  • Mostrar Resumo
  • A third of the food consumed by humankind relies, to some degree, on pollination by
    honey bees. There have been multiple reports in recent years illustrating bee population
    declines worldwide. An understanding of their behavior, discussed here from the point of
    view of colony-level activity, can aid in the detection of adverse situations and improve the
    utilization of bees as pollinators in crops. In this work, several Recurrent Neural Networks’
    architectures are exploited in the task of forecasting bees’ activity level based on the
    values of past activity levels and environmental data such as temperature, solar radiation
    and barometric pressure. We also show how different input time windows, algorithms of
    attribute selection and correlation analysis can help improve the accuracy of our model.

  • PHELIPE LUIZ DIAS FEIO
  • PROPOSAL OF IOT BROKERS CLASSIFICATION METHODOLOGY

  • Data: 28/02/2018
  • Mostrar Resumo
  • After 18 years since the term Internet of Things (IoT) was coined by Kevin Ashton, a range of software to meet the most diverse functionalities has been developed. In this context, IoT brokers and gateways are essential tools for the proper functioning of the underlying infrastructure of an IoT environment. This dissertation has as main objective to propose a methodology for classification and evaluation of brokers and gateways for IoT, using quantitative and qualitative methods, enabling the interested parties to choose and adopt the most appropriate solution for different scenarios. The proposed methodology uses ISO / IEC 2050, which deals with software quality, to define quantitative metrics and considers aspects related to user experience to define more qualitative aspects. After the evaluation, a benchmarking process is performed to comparatively classify the analyzed tools. To validate the proposal, the developed methodology was applied to evaluate and classify nine of the main IoT brokers and gateways of the market, based on open source.

  • ANDRE LUIZ DE GUSMAO
  • UMA PROPOSTA DE PROCESSO PARA CONSTRUÇÃO DE ECOSSISTEMAS DE SOFTWARE BASEADA NA EVOLUÇÃO ARQUITETURAL DE PRODUTOS 

  • Data: 28/02/2018
  • Mostrar Resumo
  • Ecossistemas de software tem tido uma grande popularidade na última década. É perceptível que grandes empresas com Apple, Google e Facebook tem contribuído para a popularidade dessa abordagem, influenciando diversas empresas a construir ou converter produtos em ecossistemas de software. Pode-se observar também uma tendência na indústria de software pela transição de produtos para ecossistemas de software a partir de mudanças na arquitetura para permitir o envolvimento de atores externos à organização no desenvolvimento de extensões para o ecossistema. Apesar da popularidade, na literatura é possível encontrar relatos de desafios ao construir um ecossistema a partir de um produto de software. Esses desafios são categorizados como desafios de negócios, técnicos, organizacionais e sociais. Esses relatos da literatura em sua maioria acabam sendo bastante acoplados com o contexto em que o ecossistema foi construído, o que torna difícil reproduzir o processo de construção de ecossistemas presentes em alguns trabalhos. Dessa forma, este trabalho tem como objetivo propor um processo para a construção de ecossistemas. O processo proposto visa permitir a reprodução da construção de ecossistemas. Para validar o processo proposto foi realizado um estudo de caso com o software WebAPSEE aplicando a processo para a construção de um ecossistema, focando na evolução arquitetural do produto para uma plataforma. 

  • DANIEL HANNEMANN
  • A solution for the prediction of the Fluviométric index of the Amazon River in Santarém using Neuro-fuzzy approach

  • Data: 28/02/2018
  • Mostrar Resumo
  • This work presents a proposal for monitoring and forecasting of the water level of the Amazon River in the city of Santarém, using Neuro-fuzzy approach and historical data on the annual Fluviométric cycle. The data were collected at three stations, in the cities of Santarém, Manaus and Itaituba, and were filtered to the period from March 2003 to the end of February 2017. Analyses of the data were carried out to establish bordering values of alerts of emerging situations for the monitoring of the quota of the river, comprising five important moments about the volumes of water: dry, dry-normal, normal, normal-full and full . The historical series can be considered as reliable, since it is possible to clearly identify the annual hydrological cycles of the rivers. Predictive solutions using statistical and computational techniques are able to automate such forecasts with relatively low levels of error at the level of a river. With this, it is considered that the solution proposed in this work can be used to guide actions that alleviate the disorders caused to the population of the city of Santarém in the extreme situations of the volumes of water of the Amazon River. Even more importantly, the proposed approach has demonstrated that it can apply in any environment with different hydrological cycles and thus possible global applicability.

  • DANILENO MEIRELES DO ROSARIO
  • Uma Análise Comparativa de Transmissão de Stream de Vídeo em Flying Ad Hoc Networks em uma Perspectiva Sobre Múltiplos Fluxos

  • Data: 28/02/2018
  • Mostrar Resumo
  • A experiência do usuário em assistir vídeos em tempo real transmitidos por veículos aéreos não tripulados (VANTs) deve ser satisfatória, mesmo sob a influência de alterações de topologia causadas pela mobilidade desses VANTs em Flying Ad Hoc Networks (FANETs). No entanto, um dos principais desafios para rotear pacotes em FANETs é como amenizar os efeitos da mobilidade dos VANTs para evitar falhas de comunicação, atrasos e “áreas isoladas”, o que aumenta a perda de pacotes durante as transmissões de vídeo. Desta forma, os protocolos de roteamento devem considerar um mecanismo de posicionamento de nós para encontrar a localização ideal de VANTs que atuam como nós de retransmissão e, assim, evitar os efeitos dessa mobilidade na transmissão de vídeos. Baseado em três protocolos bem conhecidos na literatura (BLR, XLinGo e MobiFANET), esta dissertação realiza uma análise comparativa de transmissão de stream de vídeos em FANETs sob uma perspectiva de múltiplos fluxos simultâneos. O objetivo é analisar a qualidade dos vídeos recebidos no destino a partir da transmissão em tempo real de múltiplos fluxos simultâneos de vídeo, ou seja, a partir de vários nós de origem, mantendo o bom desempenho da rede. 

  • KLEOSON BRUNO CORREA DOS SANTOS
  • REACT: AN AGILE APPROACH TO SUPPORT THE SOFTWARE REQUIREMENTS DEVELOPMENT PROCESS BASED ON EMPIRICAL EVIDENCE

  • Data: 28/02/2018
  • Mostrar Resumo
  • In recent years, the adoption and creation of new agile approaches in the software industry has grown considerably in the attempt to minimize some problems of traditional approaches, as well as some challenges of the current agile methods themselves. In this sense, Agile Requirements Engineering appears as a promising proposal, which uses the practices, principles and values of agile methods to be applied in the activities of Requirements Engineering. About this, the Requirements Development process, a subarea of Requirements Engineering, is essential for the careful evolution of requirements throughout a software development project. In this scenario, the purpose of this study is to present REACT (Requirements Evolution in Agile ContexT), a proposal for an agile method for developing the requirements of a software product, based entirely on empirical evidence from the software industry, Agile Requirements and the expected results of the Requirements Development process in MR-MPS-SW and CMMI-DEV quality models. These empirical evidences consist of other agile approaches to support the Requirements Development activities, which have been identified and analyzed through a Systematic Review of Literature. Based on the results of this secondary study, REACT was designed to address all activities related to the development of software requirements in a complete, efficient and agile manner. This agile approach was evaluated through a Case Study, conducted in a real project for the development of a product for teaching in the area of Software Engineering. Among the results, in summary, it was observed that this agile method provided more efficiency, simplicity, completeness, flexibility and organization in the evolution of requirements throughout this project. In this way, this study contributes to the scientific community and the software industry by providing a new agile approach specific to requirements, as well as inserted in the context of Agile Requirements Engineering and the quality models of software processes.

  • RICARDO RODRIGO MARINHO MELO
  • CROWDSOURCING NO DESENVOLVIMENTO DE SOFTWARE: CARACTERIZAÇÃO DA COLABORAÇÃO NOS DESAFIOS DA PLATAFORMA TOPCODER

  • Data: 27/02/2018
  • Mostrar Resumo
  • Em crowdsourcing uma tarefa é divida em pequenas partes que são realizadas pela “crowd”. Crowdsourcing em engenharia de software significa que esta tarefa é uma tarefa de desenvolvimento de software. O TopCoder é maior plataforma de crowdsourcing do mundo na área de engenharia de software que realiza desafios de programação. O vencedor de um desafio recebe uma compensação financeira. Este trabalho descreve uma análise qualitativa da colaboração entre os coders que atuam na plataforma TopCoder. A análise foi feita a partir das mensagens trocadas entre os coders dos desafios que ocorreram nos meses de Julho e Agosto de 2017. Esta análise considerou dois tipos de codificação: a primeira identifica o tipo de mensagem e a segunda identifica o tema relacionado. Os resultados deste trabalho sugerem que, apesar desta ser uma competição, existem diferentes tipos de colaboração entre os coders. Estes resultados podem ser utilizados para sugerir mecanismos que permitam incentivar a colaboração dos coders na plataforma. 

  • PAULO ROBERTO SILVA CHAGAS JUNIOR
  • Evaluation of Convolutional Neural Network architectures for chart image classification

  • Data: 26/02/2018
  • Mostrar Resumo
  • In an age where the amount of available data grows continuously, ways of representing this data are necessary for the human being to understand them and make inferences from them. However, it is not always possible to access this data, so in many scenarios, only the chart images are available for analysis. Thus, automatic methods of extracting data from chart images are necessary, allowing a later treatment of this recovered data. In this context, the data extraction process from chart images can be divided into two steps: classification and extraction. This work focuses on the classification stage, proposing an evaluation of Convolutional Neural Networks for this task. For training and testing, a database of randomly generated images was used for 10 types of charts (Arc, Area, Bar, Parallel Coordinates, Line, Matrix, Pizza, Scatter Plot, Sunburst, and Treemap). Similarly, images were collected from the internet to compose a validation dataset, so it can be verified if the classifiers can generalize the 10 chart types in a satisfactory way by training only with synthetic images. In order to validate the proposed methodology, systematic tests were performed using different Convolutional Neural Network architectures (VGG-19, Resnet-50 and Inception-V3) and comparing them with conventional classifiers (K-Nearest Neighbor, Naive Bayes, Support Vector Machine and Random Forest) combined with the HOG feature extraction method. The results showed that Resnet-50 and Inception-V3 models obtained the highest accuracy in the validation dataset, with 77.76% and 76.77%, respectively. In addition, the confusion matrices were analyzed in order to verify not only the differences in performance of the classifiers but also how each one behaves for each class.

  • ALESSANDRA PRISCILA ALVES DE OLIVEIRA
  •  A bioinformatics pipeline for metatranscriptomic gene prediction.

  • Data: 26/02/2018
  • Mostrar Resumo
  • Through the study of metagenomic data it is possible to determine
    which organisms are present in a sample and what are their activities. There
    are gene prediction tools created to determine the organisms present in a
    sample, but there is the need for more tools to study the transcriptional data in
    order to understand the organism’s behavior, such as TransGeneScan. This
    paper presents GeneFinder-TR, a pipeline for gene prediction in
    metatranscriptomic data. The pipeline’s results were the best ones in half of
    the tests, obtaining up to 95.14% accuracy in its predictions.

  • ALEXANDRE ABREU DE FREITAS
  • Evaluation of Head Tracking Interaction for Web Applications on Desktop Plataform 

  • Data: 26/02/2018
  • Mostrar Resumo
  • New interactive scenarios are emerging with technological advancements, such as kiosks with touch-sensitive displays, augmented and virtual reality applications, among others. These new scenarios stimulate the development of new non-conventional interaction methods, which evades from the traditional mouse and keyboard, such as head tracking, eye tracking, gesture detection, and others that can be used by various user profiles, including those with motor impairment, for example. Generally, when these new interaction technologies are applied as surrogates of the mouse and keyboard, and not as a new form of interaction, with its particularities and appropriate differently, according to the user profile and the interface. Based on this context, this thesis searches to evaluate the interaction and navigation through head tracking in web applications in the desktop platform, incorporating an evaluation methodology that combines a quantitative and qualitative analysis. Tests were performed with some head tracking technologies, and the one chosen for the development of this work was the eViacam software using an ordinary webcam. Tests will be made in the web browser, with specific tasks of popular websites, such as google.comyoutube.comg1.com, among others. The evaluation seeks to identify problems of interaction with head tracking with web applications, as well as in the organization of the interface. Various data are collected, such as time to complete tasks, number of clicks on components, number of entries in the component before interacting with it, location of components, etc. Finally, this data is preprocessed and analyzed for standards and outliers to indicate good practice in the use of head tracking in Web applications

  • ELLTON SALES BARROS
  • Um Método de Classificação de Movimento Imaginado dos Braços Utilizando Emotiv EPOC+ e Openvibe.

  • Data: 26/02/2018
  • Mostrar Resumo
  • Este trabalho de dissertação mantém seu foco sobre brain-computer interfaces, processamento e classificação sinais eletroencefalográficos. O trabalho apresenta um método de classificação que tem como objetivo identificar qual membro é considerado durante a realização do movimento imaginado (MI), por exemplo, determinar se o indivíduo está imaginando o movimento do braço direito ou do braço esquerdo. Sinais de Eletroencefalografia (EEG) são utilizados como entrada para o classificador e métodos de processamento de sinais são utilizados para melhorar o resultado da classificação. O método criado tem como objetivo melhorar a acurácia da classificação desse processo através de uma análise e avaliação dos parâmetros que fazem parte das etapas de pré-processamento à classificação dos sinais de EEG. 

  • ANGELO LUIZ DA CRUZ OLIVEIRA
  • AN APPROACH FOR THE IMPLEMENTATION OF KNOWLEDGE MANAGEMENT OF THE EXPECTED RESULTS OF MR-MPS-SW USING THE FACEBOOK SOCIAL NETWORK

  • Data: 23/02/2018
  • Mostrar Resumo
  • Studies show that the lack of knowledge management practices in an organization can compromise its business processes generating a series of problems, among them the loss of productivity and quality in its services. Thus, many companies have started to use tools that support these practices in order to increase their competitive advantages in the market. Thus, this article aims to present an implementation of the expected results of MR-MPS-SW Knowledge Management using the social networking features of Facebook as a tool to support these practices. In this work, we also report on the scenario in which the application / evaluation and the results obtained so far were discussed.

  • JOAHANNES BRUNO DIAS DA COSTA
  • Data Dissemination based in Complex Networks metrics for Intelligent Transport Systems
  • Data: 23/02/2018
  • Mostrar Resumo
  • Services that aim to make the current transportation system more secure, sustainable and efficient form the framework known as Intelligent Transportation Systems (ITSs). Due to the fact that the services require data, communication and processing for operation, Ad-Hoc Vehicle Networks (VANETs) exert a strong influence in this context, since it allows direct communication between vehicles and, in addition, data are exchanged and processed between them. Several ITS services require disseminated information among decision-making vehicles. However, such dissemination is a challenging task, due to the specific characteristics of VANETs, such as short-range communication and high node mobility, resulting in constant variations in their topology. In view of the challenges, this paper presents a protocol for data dissemination in urban scenarios that considers complex network metrics in its operation, called DDRX. The DDRX takes advantage of the beacons that are periodically exchanged in the network to collect information from the vehicles and thus build a graph of diameter 2 for local topographic analysis of the network, where the vertices are vehicles and the edges the communication links between neighboring vehicles. With the local graph created, it is possible to identify the best vehicles to continue the dissemination process. Simulation results show that DDRX offers high efficiency in terms of coverage, number of transmissions, delay and packet collisions compared to widely known data dissemination protocols. In addition, DDRX offers significant improvements to a distributed traffic management system that needs the disseminated traffic information efficiently, allowing vehicles to spend less time congestion, achieve higher average speeds and have less travel time.

  • ALUIZIO RAMOS PEREIRA NETO
  • A SYSTEMATIC STUDY ON THE STATISTICAL PROCESS CONTROL AND THE DEFINITION OF A CATALOGUE OF APPROACHES

  • Data: 23/02/2018
  • Mostrar Resumo
  • Statistical Process Control (SPC) has been used in software organizations (industrial and academic) to analyze the fundamental processes, adhering to the organization's strategic objectives. The CEP is used in representation (control charts) and analysis of collected data (measurement) of the organization's processes. By this analysis, the deviations (failures) of the processes are identified and corrected. This defines the stability and capacity of the process (baseline). There are some studies that talk about the CEP in the context of software, however, these do not yet describe in depth the approaches related to it. The objective of this Master's thesis is to develop a Systematic Literature Review (SLR) that identifies which approaches: frameworks, methods, assets and tools that support the SPC. With these results, a catalog of approaches will be defined, describing and exemplifying ways of using each of them. The catalog can help software organizations better understand and apply the approaches described therein, thus facilitating the implementation of SPC in organizations.

  • JAIR DA SILVA FERREIRA JUNIOR
  • Driver behavior profiling: an investigation with different sensors and machine learning techniques

  • Data: 22/02/2018
  • Mostrar Resumo
  • Driver behavior affects traffic safety, fuel / energy consumption, and vehicle emissions. Driver Profile Analysis (APM) attempts to understand and positively influence driver behavior. Generally, APM involves the automated collection of driving data and the application of computer models to generate a classification that characterizes the aggressor profile of the driver. Different sensors and classification methods have been employed in this task, however, low cost and high performance solutions are still research targets. This dissertation presents two main contributions. The first is an investigation with different Android smartphone sensors and classification algorithms in order to assess which combinations of sensor and method allow the classification of aggressive driving events with higher performance. The second contribution is a committee machine proposal made up of a subset of the investigated machine learning models. The results show that (i) specific combinations of sensors and intelligent methods allow to improve classification performance; and (ii) the proposed committee machine has higher classification and time performance than the best conventional models evaluated, making it possible to use it in real time on a smartphone.

2017
Descrição
  • GEORGE HAMILTON BARBOSA FERNANDES OTA
  • A HARMONIZATION OF ITIL ACTIVITIES WITH CMMI-SVC PRACTICES WITH A FOCUS ON THE IMPLEMENTATION OF PROCESSES IN SERVICE DESIGN BOOK

  • Data: 20/12/2017
  • Mostrar Resumo
  • The Information Technology market is currently one of the few that have been expanding from 2015 to 2016 in Brazil. This fact stems from the constant updating of its products and services, as well as the perception of its customers regarding the strategic benefits brought by the digital tools that IT companies can develop, market and implement. According to a Gatner Group analyst, many companies are still looking to cut costs, but in many cases, what they get from the economy in that process have been redirected to IT investment to support business change on the digital base with better performance and aggregate value to your products and services. IT service providers, taking this scenario, seek to obtain certifications available in the market that improve credibility and confidence by companies interested in acquiring quality products and services. However, certification is not always able to fully meet the needs of these providers, which leads them to take more certifications. When this happens, several problems arise due to the different structures and components of the adopted certification models, which requires more time and generate extra costs with the implementation of two or more certification models. The challenges of implementing multiple models in an organization can be circumvented by using multi-model implementations so that divergences between models are harmonized by mapping between the selected models. In this sense, this paper presents a proposal to harmonize the activities of the ITIL framework processes with specific practices of the service process improvement model used in the industry, CMMI-SVC. The focus of this harmonization lies in the processes of the ITIL Service Design Book, which aims to design, develop and identify what is needed to provide quality IT service and support the organization's business strategy. The results of harmonization were verified step-by-step, including a peer review of harmonization and were assisted by a specialist in the ITIL framework and the CMMI-SVC model. In this way, the objective of this work is to correlate the structures of these standards and thus obtain benefits with the reduction of time and costs for joint implementation and to stimulate the execution of implementations of several models for the management of IT service.

  • BRUNO GARCIA DA COSTA
  • CLASSIFICAÇÃO DE FALTAS DO TIPO CURTO CIRCUITO EM LINHAS DE TRANSMISSÃO UTILIZANDO KNN-DTW

  • Data: 15/12/2017
  • Mostrar Resumo
  • Fault classification system in transmission lines can be divided into two types: online and post-fault classification systems. This work focuses on the classification of sequences represented short-circuit faults in the transmission lines in a post-fault scenario. In this scenario, the sequences have variable size(duration). In sequence classification, it is possible to use conventional classifiers such as Artificial Neural Networks. In this case, the classification process requires a pre-processing or a front-end stage that converts the raw data into sensitive parameters to feed the classifier. One solution to this problem is frame-based sequence classification (FBSC). The problem of the FBSC architecture is that it has many degrees of freedom in the design of the model (front end plus classifier) and should be evaluated using a complete data set and a rigorous methodology to avoid biased conclusions. As an alternative to the FBSC architecture, this work proposes the K-Nearest Neighbor classifier associated with the Dynamic Time Warping (DTW) similarity measure, called the KNN-DTW, for fault classification. This classifier is capable of dealing directly with sequences of different sizes, without the need to use a front end, reducing the pipeline imposed by the FBSC architecture. In the experiments, simulated short-circuit fault data from a public database called UFPAFaults should be used. A performance comparison was made between the KNN-DTW classifier and the FBSC architecture. In the case of the FBSC architecture different front ends (eg Wavelet and rms) and conventional classifiers (eg, support vector machines and neural networks) were tested. The results show that the KNN-DTW classifier, even in a scenario with noise in the samples, presents performance close to the FBSC architecture, but without the use of front end, which reduces the computational cost of this classifier.

  • FERNANDO FABIO DIAS GAMA DA MATA
  • Exploiting Intelligent Methods for Detecting Anomalies in Behavior of Social Insects

  • Data: 14/12/2017
  • Mostrar Resumo
  • Bees are one of the most important pollinators since they aid in the reproduction of plants ensuring the production of seeds and fruits. They are important both in pollination and in the production of honey, which benefits small and large farmers. However, in recent years, the bee population has been decreasing significantly on a global scale. In this scenario, understanding the behavior of bees has become a matter of great importance and concern in trying to find the possible causes of this situation. In this work, our objective is to propose, develop and investigate methodologies that combine unsupervised methods for distance-based anomaly detection and supervised models based on machine learning. The results show that the combination of the techniques allows the detection of anomalous events in insect behavior satisfactorily.

  • CASSIO TRINDADE BATISTA
  • Uma Proposta de Sistema de Controle Remoto Universal e Multimodal Baseado em Movimentos da Cabeça e Comandos de Voz.

  • Data: 06/12/2017
  • Mostrar Resumo
  • A evolução tecnológica, num sentido amplo, caminha para que as pessoas possam interagir com os equipamentos eletrônicos de forma mais fácil. Por outro lado, para pessoas com deficiência, essa interação torna-se algo mais do que simples: ela se torna possível.  Este trabalho apresenta uma proposta de um sistema de controle remoto universal, multimodal, livre e de baixo custo que permite o controle remoto de dispositivos eletrônicos através de comandos de voz e gestos da cabeça. Além disso, um circuito sensor de proximidade foi combinado a módulos de rádio-frequência para agir, em paralelo a um comando de voz, como um acionador externo sem fio.  Dentre as aplicações encontradas a respeito de controles remotos alternativos para aparelhos eletrônicos convencionais (que recebem informação remota via luz infravermelha), nenhuma dá suporte a gestos da cabeça como entrada, tampouco à combinação deste método de interação com a voz, o que certamente seria uma opção viável para pessoas cujos membros superiores são comprometidos. Uma avaliação objetiva foi realizada especificamente sobre as técnicas implementadas como método de entrada do sistema. Como resultado, foi possível constatar muitas vantagens e algumas desvantagens em relação a metodologia proposta. Um teste subjetivo, baseado em um questionário mean opinion score, também foi aplicado com objetivo de avaliar o protótipo do sistema de modo geral, o qual mostrou grande interesse da parte dos participantes em um possível produto final.

  • RENATO RENISON MOREIRA OLIVEIRA
  • GAVGA: A Genetic Algorithm for Viral Genome Assembly

  • Data: 11/10/2017
  • Mostrar Resumo
  • Bioinformatics has grown considerably since the development of the first sequencing machine, being today intensively used with the next generation DNA sequencers. Viral genomes represent a great challenge to bioinformatics due to its high mutation rate, forming quasispecies in the same infected host, which difficults the assembling and further analysis in these viral genomes. In this paper, we implement and evaluate the performance of a genetic algorithm, named GAVGA, through the quality of a viral genome assembly. The assembly process of GAVGA works by first clustering the reads that share a common substring called seed and, for each cluster, checks if there are overlapping reads with a given similarity percentage using a genetic algorithm. The assembled data are then compared to Newbler, SPAdes and ABySS assemblers, and also to a viral assembler such as VICUNA, which results confirm the feasibility of our approach. GAVGA was implemented in python 2.7+ and can be downloaded at https://sourceforge.net/projects/gavga-assembler/.

  • HERNAN DARIO CARREÑO LAGUADO
  • Performance evaluation of platoon-based approaches for video dissemination in terms of quality of experience 

  • Data: 27/06/2017
  • Mostrar Resumo
  • Vehicular Ad-hoc NETworks (VANETs) promise a wide scope of multimedia services ranging from security and traffic announcements to entertainment and advertising videos. However, VANETs have a dynamic network topology with short contact time, which decreases the Quality of Experience (QoE) of transmitted videos due to frequent disconnections in the communication between neighbors vehicles. Live video dissemination is fundamental for services like smart-video surveillance, propagation of video in a emergency situation like an accident, and others. To mitigate those problems on VANETs, emerges a solution called platoon (platooning), where vehicles with similar interest form a platoon-driving pattern to move in same direction with similar speeds. However, most of the current approaches for platooning on VANETs does not focus in streaming of realtime videos. This master thesis make a performance evaluation in terms of QoE of two platooning approaches, one with a choosing mechanism based on game theory for video transmission with QoE support, called TJ2P, and other without a choosing mechanism with Control Cruise controller (CC) extended and modified to support video transmission, called Plexe. Simulation results confirm the efficiency of the T2JP approach, without increase the fuel consumption and CO2 emission compared to Plexe approach, and shows the importance to have a mechanism to select the best relay nodes to ensure video dissemination with adequate QoE.

  • ALEN COSTA VIEIRA
  • Estratégia Evolutiva para Parametrização de
    Modelos de Previsão: Um Estudo de Caso com
    Níveis Máximos Mensais do Rio Xingu em
    Altamira/PA
    Belém-Pará

  • Data: 19/06/2017
  • Mostrar Resumo
  • No desenvolvimento de modelos de previsão, uma das etapas muito importante é na seleção
    de variáveis, pois, algumas das variáveis utilizadas podem ser redundantes ou irrelevantes,
    prejudicando o desempenho da previsão. Dependendo da quantidade de variáveis, a busca
    pelo melhor conjunto de variáveis pode ser tornar um problema de difícil solução ou até
    mesmo intratável. Nesse trabalho foi utilizado um algoritmo evolutivo para selecionar um
    conjunto de variáveis entre 18 diferentes séries temporais de climáticas e seus tamanhos das
    janelas de tempo para a predição dos níveis mensais do Rio Xingu. Quatro cenários foram
    propostos para analisar os seguintes parâmetros evolutivos: tamanho da população, taxa
    de mutação e elitismo, política de inicialização da população e representações genéticas,
    de modo a otimizar os parâmetros do algoritmo. Os resultados obtidos indicaram melhor
    desempenho na previsão de níveis máximos mensais com as variáveis selecionadas pelo
    algoritmo genético do que outras abordagens testadas no trabalho.

  • BRUNELLI PINTO MIRANDA
  • Evaluation of a Gesture Vocabulary for 2D Information Visualization Applications

  • Data: 02/06/2017
  • Mostrar Resumo
  • Interaction is the form in which communication occurs between humans and devices/machines. Within the unconventional interactions, which dispense the keyboard and mouse, gesture interaction uses movements performed by users, allowing a more intuitive learning and use, because gestures are frequently used in human activities. The Information Visualization (InfoVis) area has a lack of studies on gesture interactions, and since in InfoVis it is the interactions that allow the user to find patterns and formulate theories, there is an open space for works exploring other types of interaction in the area. Based on the context described, this thesis presents a proposal of Gesture Vocabulary (set of recognized gestures) that can be used in 2D InfoVis desktop applications, adapting a vocabulary previously proposed for a 3D scenario. The vocabulary aims to use gestures that require little effort from the user, and which can be reproduced in vision-based gesture tracking devices. In order to validate the vocabulary, user interaction tests were carried out, with test scenarios being composed of common tasks of 2D InfoVis in two visualization tools, and with use of the Leap Motion device for gesture tracking. Considerations are made about the obtained results and improvements for the vocabulary and gesture interaction are proposed.

    Key-words: Gesture Interaction, Gesture Vocabulary, Information Visualization.

  • CARLOS GUSTAVO RESQUE DOS SANTOS
  • An Adaptive Model for Transitions Between Internal and External Environments for Mobile Augmented Reality Applications

  • Data: 19/05/2017
  • Mostrar Resumo
  • The adaptation to changes in the physical environment is one of the current challenges for Mobile Augmented Reality (MAR) applications, mainly in transitions between indoor and outdoor environments, as they cause changes in the environment characteristics, such as in lighting that makes it difficult to recognize the environment, or increasing the imprecision of sensors such as GPS (Global Positioning System) in indoors environments. In general, MAR applications are intended only for outdoor  environments with register made with GPS and other sensors, or intended only for indoor environments with register based on computer vision algorithms. Considering the above context, this thesis presents an adaptive model for the transitions between indoor and outdoor environments for MAR applications, based on a hybrid approach, choosing the best combination among long-ranged sensors (GPS), short-ranged sensors (Wi-Fi, Beacons, etc), and computer vision techniques, to primarily mitigate device location and orientation issues and to make the register of the MAR application transparently to the user. To validate the model, a MAR application was developed, and the following evaluations were performed for indoor and outdoor environments: accuracy in environment classification, accuracy in location and orientation of device and quality of register.


  • MARISSA BRASIL DE CARVALHO
  • MECANISMOS DE INTERAÇÃO E VISUALIZAÇÃO DE DADOS TEMPORAIS
    BASEADA EM TREEMAP

  • Data: 01/03/2017
  • Mostrar Resumo
  • Explorar tendências, padrões e relacionamentos são tarefas importantes quando se
    trabalha com informações e dados dependentes do tempo. Nesse âmbito, ferramentas de
    visualização de informação têm sido amplamente utilizadas na prática dessas atividades.
    Entretanto, a complexidade de projeção de visualizações aliada à complexidade da dimensão
    temporal dificulta o desenvolvimento de mecanismos de análise temporal. Consequentemente,
    visualizações que não conseguem explorar os aspectos temporais são muito comuns, pois
    apresentam o tempo como mais um atributo quantitativo. Considerando isso, este trabalho
    desenvolveu uma ferramenta de visualização de informação de dados temporais chamada de
    TreemapTemporal baseada em treemap cujo objetivo é explorar os aspectos temporais
    existentes nas informações de maneira diferenciada. Para isso, a ferramenta possui, além das
    funcionalidades do treemap, funções específicas para a análise temporal, bem como uma
    visualização auxiliar chamada BarMap e a opção de adicionar múltiplas visões dos dados. Os
    resultados obtidos durantes os testes demostraram a eficiência da ferramenta, visto que as
    funções temporais facilitaram tanto a exploração dos dados temporais quanto o tempo de
    resposta dos usuários. Além disso, as funções temporais foram avaliadas como extremamente
    essenciais para a resolução dos testes.

  • EDIAN FRANKLIN FRANCO DE LOS SANTOS
  • Abordagem computacional para a identificação de candidatos a genes housekeeping por meio de técnicas de aprendizado de máquina em dados de RNA-seq de Corynebacterium pseudotuberculosis

  • Data: 24/02/2017
  • Mostrar Resumo
  • Housekeeping genes or reference genes are required for the maintenance of basal cell functions, which are essential for maintaining a cell. Thus, they are expected to be expressed in all cells of an organism, regardless of the type of tissue, status or condition to which the cell is exposed. For the study of this type of genes are used diverse approaches, one of the most used in Next Generation Sequence (NGS) is the RNA Sequence (RNA-set), a high-performance technique, which allows to measure the profile of genetic expression of a target tissue or cell Isolated. The analyses are performed by sequencing the complementary DNA (cDNA) to find out the transcription mechanisms that are present in the target tissue or cell.

    Machine learning methods (ML) are applied in different areas within genetics and genomics, allowing the interpretation of large datasets, such as those related to gene expression. One of the most used techniques is the clustering algorithms, a technique that allows defining groups of genes with similar expression profiles, which allows the study of the function and interaction of genes. For the identification of housekeeping gene candidates with ML technique, corynebacterium pseudotuberculosis, an intracellular pathogen, was used as a model organism. This organism mainly infects sheep, goats, horses, among others causing the Caseous lymphadenitis disease, For the study, the datasets of RNA-seq expression of strains 258 and 1002 of this bacterium were used.

    In this work, presented a new approached for the identification of housekeeping genes in-silico, through machine learning techniques and genetic data of RNA-seq. For the application of this new approach, we used unsupervised clustering techniques, statistical and distance metrics for the evaluation, processing and analysis of the genomic data. Thus, 16 candidate genes for housekeeping were found in the pathogen, which show strong indications of stability and constant expression, indicating that housekeeping genes may be possible.

  • LUIZ OTAVIO DANIN DE LIMA
  • Um Apoio Sistematizado para Apoiar a Implementação do Processo Gerência de Decisão em Projetos de Software orientada pela Abordagem sistemática dos Modelos CMMI-Dev e MR-MPS.BR

  • Data: 24/02/2017
  • Mostrar Resumo
  • O processo de gestão de decisão consiste em uma técnica gerencial com o propósito de fornecer uma estrutura para tomar decisões a partir de um processo formal para a avaliação de alternativas de solução em relação a critérios estabelecidos. O objetivo principal da gerência de decisão é facilitar a realização de escolhas, fornecendo mecanismos necessários à sua realização. Assim, o presente trabalho apresenta uma abordagem elaborada para dar suporte à execução do processo de gestão de decisão com base no modelo de qualidade CMMI-DEV, estando também em conformidade com o modelo MR-MPS-SW. Esta abordagem de gestão de decisão é otimizada pela ferramenta Spider-DAR, que atua como facilitadora automatizando o apoio à execução do modelo de processo de tomada de decisão, gerando indicadores de que a gerência está sendo executada de forma coerente com o esperado. Neste contexto, este trabalho visa contribuir com o suporte ao processo de Gestão de Decisão de Software, através da abordagem desenvolvida de fluxo de gestão de decisão e apoiado pela ferramenta, Spider-DAR, para auxílio à implementação e execução deste processo. Para atingir tais resultados, um mapeamento entre o processo Gerência de Decisão do modelo MRMPS-SW e a área de processo Decision Analysis anda Resolution do CMMI-DEV foi realizado, visando identificar equivalências ou descompasso entre eles, o qual poderão ser vistos com detalhes no decorrer do trabalho através do mapeamento realizado. 

  • ALINE FRANCIELLE DOS ANJOS LIMA
  • PROCESSO DE DESENVOLVIMENTO DE REQUISITOS DO CMMI-DEV e MR-MPS-SW PARA PROJETOS DE MANUTENÇÃO EVOLUTIVA: UM ESTUDO DE CASO DE IMPLEMENTAÇÃO

  • Data: 20/02/2017
  • Mostrar Resumo
  • As organizações, para satisfazerem a necessidades dos clientes e serem competitivas no mercado, buscam cada vez mais a melhoria dos seus processos e consequentemente a qualidade de seus produtos. Sendo assim, a qualidade é uma variável importante a ser considerada em todo o processo de produção de um software, desde a sua construção até a sua entrega. Para manter essa qualidade, diferentes técnicas e práticas podem ser adotadas, como por exemplo, as sugeridas pelos modelos de referência CMMI-DEV e MR-MPS-SW, que buscam proporcionar as empresas modelos para melhoria de seus processos de software. Diante disso, a manutenção de software torna-se uma importante aliada no processo de desenvolvimento de software, uma vez que a mesma possibilita que erros e inconsistências sejam corrigidos em diferentes fases do ciclo de vida de um software. A importância da manutenção evolutiva é tornar cada vez mais longa a vida de um software sem que ele perca sua qualidade e suas funcionalidades, no entanto realizar manutenções evolutivas em sistemas legados nem sempre é uma tarefa fácil, tendo em vista que esses sistemas muitas vezes apresentam documentação incompleta, inconsistente ou até mesmo que foi perdida ao longo do tempo. Este trabalho tem como objetivo apresentar uma abordagem de implementação da área de processo desenvolvimento de requisitos do CMMI-DEV e MR-MPS-SW na empresa Vibe Desenvolvimento, para projetos de manutenção evolutiva com coleta de dados a partir de engenharia reversa, assim como realizar a análise da aderência do modelo implementado em relação a área de processo estudada, por meio da aplicação de questionários à equipe técnica desta empresa, e pela análise dos produtos de trabalho gerados em cada Prática Específica desta área de processo. Os resultados das análises realizadas apresentam dados que apontam que o modelo implementado atende totalmente as exigências presentes nesta área do modelo CMMI, porém alguns ajustes fazem-se necessários para que o modelo atenda plenamente as necessidades da empresa.

  • LILIAN SANTOS FERREIRA DA SILVA
  • UMA ABORDAGEM DE IMPLEMENTAÇÃO ÁGIL DO PROCESSO DE GESTÃO DE PORTFÓLIO DE PROJETOS

  • Data: 17/02/2017
  • Mostrar Resumo
  • A gestão de portfólio é um processo essencial, pois auxilia na tomada de decisões quanto à identificação, priorização, autorização, gerência e controle de projetos, programas e outros trabalhos relacionados para atingir objetivos específicos da estratégia de negócio. Dessa forma, este processo precisa estar intimamente alinhado ao planejamento estratégico, propondo então projetos mais viáveis e estratégicos dentro das organizações. Além disso, com a importância que o processo de gestão de portfólio ganhou por sua inclusão em modelos e padrões de qualidade, a quantidade de organizações buscando implantar este processo de forma eficaz e eficiente aumentou. Desta forma, esta pesquisa busca auxiliar na implantação da gestão de portfólio de projetos em pequenas e médias empresas, reduzindo as dificuldades e a excessiva documentação exigida nos processos tradicionais. Para isso, foi feito um mapeamento entre a estrutura do processo de gerenciamento de portfólio e práticas ágeis. Em seguida, foi proposta uma abordagem ágil de como realizar cada atividade do framework de gestão de portfólio, bem como a definição dos papéis envolvidos, suas habilidades e competências exigidas e os artefatos sugeridos como evidência do processo.

  • KARLA SANTOS DE OLIVEIRA
  • VoxLaPS: Um Aplicativo Gratuito de Comunicação
    Aumentativa e Alternativa

  • Data: 16/02/2017
  • Mostrar Resumo
  • Este trabalho tem como objetivo desenvolver uma aplicação voltada para a
    Comunicação Aumentativa e Alternativa (CAA), que auxilie no tratamento de
    pessoas com limitações de fala, devendo ser gratuita e destinada a dispositivos
    móveis que utilizam a plataforma Android, com suporte para o idioma Português
    Brasileiro. A ideia é que a ferramenta proposta, denominada VoxLaPS, seja eficaz
    (em relação às tarefas previstas, realizar o que dela se espera), contextual (bemadaptada
    ao meio e ao contexto de utilização) e consonante (consistente com o
    modo de vida e personalidade do usuário). Para isso, a ferramenta foi submetida a
    estudos e testes de usabilidade, junto com outras aplicações destinadas à CAA e
    disponíveis no mercado, a fim de identificar pontos fortes, fracos e oportunidades de
    melhorias, que contribuam para o desenvolvimento de ferramentas mais adequadas
    ao contexto de uso de seu público-alvo, mais especificamente, pessoas que
    apresentam dificuldades de comunicação verbal, seja por necessidade física ou
    intelectual, mas sem comprometimento com relação aos membros superiores.
    O aplicativo CAA proposto foi desenvolvido e avaliado com o apoio de
    profissionais da área de saúde do Núcleo de Desenvolvimento em Tecnologias
    Assistivas e Acessibilidade da Universidade do Estado do Pará (UEPA/NEDETA) e
    por uma equipe multidisciplinar da área de reabilitação da Organização Não
    Governamental (ONG) Saber – Serviços de Atendimento em Reabilitação. Esses
    especialistas analisaram a ferramenta quanto às funcionalidades e usabilidade.
    Também participaram deste estudo pacientes que possuem deficiências múltiplas,
    atendidos pela ONG Saber, que a avaliaram positivamente, destacando-se em
    relação as demais ferramentas utilizadas nos testes por ser considerada de fácil
    utilização e apresentar funcionalidades que atendem as necessidades dos usuários,
    além de incluir funcionalidade inédita, que permite visualizar e repetir uma
    mensagem criada.

2016
Descrição
  • RAFAEL GOMES SOUSA
  • MÉTODO DE COMPOSIÇÃO DE RESULTADO PARA

    RESOLUÇÃO DE PROBLEMAS: MELHORIA NO
    DESEMPENHO DA APRENDIZAGEM DO ESTUDANTE EM
    ATIVIDADES PRÁTICAS DE PROGRAMAÇÃO

  • Data: 29/12/2016
  • Mostrar Resumo
  • O processo de ensino e aprendizagem de programação é uma tarefa bastante complexa,
    para tanto, defendemos a abordagem prática de resolução de problemas para o melhor
    aproveitamento acadêmico dos estudantes. Entretanto, a construção da resposta para
    um problema possui uma alta carga de subjetividade. Aqui, concebemos um método
    resolução de problemas de programação (Composição de Resultado), auxiliado por um
    ferramental de apoio (Ambiente de ensino LabProg Web). Para avaliar o método e o
    ferramental fizemos um experimento coletando informações sobre a satisfação dos estudantes
    e professores que participaram. Os resultados mostraram melhorias expressivas na
    atuação de estudantes que fizeram uso dos produtos de trabalho dessa dissertação, em
    atividades práticas de resolução de problemas de programação.

  • MÁRCIA SILVIA SALOMÃO HOMCI
  • UMA NOVA ABORDAGEM BASEADA EM SELEÇÃO DE PARÂMETROS PARA CLASSIFICAÇÃO DE FALTAS EM LINHAS DE TRANSMISSÃO

  • Data: 29/12/2016
  • Mostrar Resumo
  • No contexto de Sistemas Elétricos de Potência (SEPs), as linhas de transmissão são os elementos mais suscetíveis a faltas, e entre elas, as mais comuns são do tipo curtocircuito. Para evitar maiores problemas, é necessário um diagnóstico de faltas que possa categorizá-las e dar suporte no processo de restauração do sistema, ou seja, um classificador de faltas do tipo curto-circuito. A maioria dos trabalhos na literatura utilizam front ends de maneira isolada como forma de representar o sinal a ser classificado. Este trabalho aborda a utilização de um front end que é uma concatenação dos front ends raw, RMS e wavelet, chamado de concatfrontend. Nos experimentos foram utilizados dados simulados, oriundos de uma base de dados pública chamada UFPAFaults. Foi realizada uma comparação entre o concatfrontend e os outros front ends, utilizando diferentes classificadores (redes neurais artificiais, kvizinhos mais próximos, máquinas de vetores de suporte e Random Forest). Além disso, foram utilizadas técnicas de seleção de parâmetros, de forma que a dimensionalidade dos dados de entrada seja reduzida e os parâmetros não relevantes sejam descartados. Os resultados mostraram que o concatfrontend teve as menores taxas de erro para todos os classificadores com exceção da máquina de vetores de suporte. No contexto de seleção de parâmetros foi possível gerar melhores resultados com menos parâmetros.

  • DAVISON HOLANDA PACHECO
  • Q-PATH: UM ALGORITMO DE CÁLCULO DE CAMINHOS COM PARÂMETROS DE QUALIDADE DE SERVIÇO PARA REDES DEFINIDAS POR SOFTWARE.

  • Data: 28/12/2016
  • Mostrar Resumo
  • O paradigma de Redes Definidas por Software (SDN) vem sendo investigado como a solução mais promissora para o engessamento da Internet, uma vez que propõe a dissociação entre o plano de dados e o plano de controle, proporcionando maior programabilidade às redes. No entanto, há lacunas em serviços disponíveis nesse modelo, dentre as quais se observa o serviço de encaminhamento dos fluxos, baseados em critérios de qualidade de serviço (QoS). Por exemplo, a reserva de recursos, a partir dos requisitos necessários de cada aplicação, permanece como um desafio a ser vencido. Nesse contexto, o presente trabalho apresenta uma proposta de algoritmo de cálculo de caminhos para SDN chamada Q-Path. O algoritmo busca o melhor caminho, baseando-se em parâmetros de QoS da rede, possibilitando restrições determinísticas impostas pelas aplicações de usuário ou por parte do administrador da rede. A proposta fundamenta-se na utilização dos parâmetros de QoS de perda de pacotes e a latência, como condicionadores para a busca do melhor caminho. A análise dos resultados obtidos com extensas simulações demonstram que a proposta é capaz de reduzir o tempo de busca do caminho em aproximadamente 65%, quando comparado com o algoritmo Dijkstra, comumente utilizado como o algoritmo motriz de serviço de encaminhamento dos pacotes. Além disso, a proposta consegue melhorar o consumo de memória e processamento em torno de, respectivamente, 11% e 9%, durante a busca do melhor caminho.

  • NIELSEN ALVES GONÇALVES
  • AVALIAÇÃO DE DESEMPENHO DO USO DE ACELERADORES GRÁFICOS NA SOLUÇÃO DE MÉTODOS E TÉCNICAS NUMÉRICAS

  • Data: 22/12/2016
  • Mostrar Resumo
  • O desenvolvimento de plataformas computacionais heterogêneas tem tornado mais acessí- veis os recursos capazes de aumentar o desempenho de aplicações, porém, tais recursos por vezes não oferecem a escalabilidade desejada, tornando necessário o uso de soluções distribuí- das. No entanto, a implementação de soluções de computação heterogênea distribuída torna necessária a combinação de ferramentas de programação específicas, o que aumenta a complexidade e dificulta a implementação. O presente trabalho apresenta avaliações de desempenho de implementações de dois mé- todos comumente utilizados na Computação Científica: O método da Eliminação Gaussiana, implementado utilizando um modelo de programação para Aceleradores baseado em diretivas; e a Equação de Laplace, implementada utilizando múltiplos aceleradores por meio de uma arquitetura de rede cliente/servidor, que simplifica o processo de programação de uma solução heterogênea distribuída ao permitir a abstração da camada de rede ao programador. Os experimentos descritos neste trabalho foram executados em hardware commodity, com o objetivo de avaliar a performance da referida arquitetura nesta categoria de hardware. Os resultados obtidos com os experimentos indicam a possibilidade de ampliação de ganhos de desempenho no desenvolvimento de aplicações científicas, mesmo em hardware de baixo custo, por meio do uso de novos recursos de computação heterogênea em substituição a ferramentas baseadas em CPU. 

  • BRUNO PEREIRA BRITO
  • DESENVOLVIMENTO DE UM AMBIENTE DE APRENDIZAGEM DE VOCABULÁRIO VISANDO O APRENDIZ-SURDO

  • Data: 21/12/2016
  • Mostrar Resumo
  • A presente pesquisa descreve a realidade educacional do aluno surdo, destacando as dificuldades no que se refere ao aprendizado da língua portuguesa em sua modalidade escrita e evidencia as estratégias educacionais onde o aprendiz-surdo está inserido. Assim, a partir da análise de campo em uma escola especializada na educação de alunos surdos e pesquisas na literatura, desenvolveu-se um ambiente de aprendizagem de vocabulário da língua portuguesa que contemple um conjunto de características que auxiliam no processo de aprendizado de vocábulos de adjetivos, através da utilização da Língua Brasileira de Sinais, escrita do português e cenários ilustrados. A pesquisa foi segmentada em três fases que correspondem ao estudo, aplicação e análise. A fase de estudo representa o levantamento teórico relacionado a aquisição da linguagem e analisa as dificuldades do surdo em compreender a língua portuguesa. A fase de aplicação corresponde ao emprego da ferramenta na escola especializada Instituto Felipe Smaldone e se desmembra em três etapas sequenciais, coleta inicial, ensino-fixação e coleta final, por fim, a fase de análise que confronta os dados coletados na fase de aplicação e realiza a discussão e análise dos resultados. Deste modo, o emprego da ferramenta sinaliza um importante potencial do ambiente de aprendizado na ampliação de vocabulários, avanços na interpretação de texto e potencializa a comunicação desses alunos.

  • ELISIANE MONTEIRO SOARES
  • UMA ABORDAGEM PARA A IMPLEMENTAÇÃO DO PROCESSO DE GESTÃO DO FORNECEDOR USANDO PRÁTICAS E PRINCÍPIOS ÁGEIS

  • Data: 16/12/2016
  • Mostrar Resumo
  • Com o crescimento do mercado relacionado ao setor de desenvolvimento de software, faz-se necessária a adoção de práticas que auxiliem de forma mais ágil esse contexto. A adoção dessas práticas pode apoiar para que a gestão das atividades relacionadas à aquisição de software seja definida de forma mais efetiva, tanto para aqueles que fornecem o sistema como para aqueles que o adquirem. Assim, este trabalho propõe uma abordagem de boas práticas utilizando princípios e práticas ágeis para gerenciar o procedimento de aquisição no contexto de empresas de desenvolvimento de software, baseado na área de processo Supplier Agreement Management do CMMI-DEV e no processo de Aquisição do MR-MPS-SW. O objetivo desta abordagem é apoiar as organizações de software na definição e implementação do processo de gestão do fornecedor, bem como, contribuir para minimizar a lacuna existente entre clientes e fornecedores. Esta abordagem foi revisada e avaliada por meio da técnica de revisão por pares, a qual contou com a colaboração de um especialista da área de Engenharia de software com conhecimento em modelos de melhorias de processo de software e implementação de metodologias ágeis.

  • NAGILA NATALIA DE JESUS TORRES
  • MAPEAMENTO DO ECOSSISTEMA DE STARTUPS DE TECNOLOGIA DE BELÉM-PA

  • Data: 09/12/2016
  • Mostrar Resumo
  • C

    Existe um interesse em diversas regiões do mundo em incentivar startups visando estimular o crescimento e a capacidade criativa e inovadora dessas empresas. Esse interesse parte da expectativa de um crescimento econômico para as regiões onde elas estão localizadas. Entretanto, as startups não são entidades isoladas. Elas vivem em um ambiente que inclui outros elementos, tais como universidades, incubadoras e investidores. Ou seja, elas existem em um ecossistema e o entendimento deste possibilita a identificação de aspectos positivos e negativos, permitindo tomada de decisões sobre sua melhor fomentação. Baseado nisso, este trabalho apresenta um mapeamento do ecossistema de startups de tecnologia, da cidade de Belém (PA), bem como sua caracterização, incluindo aspectos positivos e negativos. Este trabalho foi realizado a partir de uma pesquisa qualitativa, utilizando a abordagem bola de neve e entrevistas semiestruturadas conduzidas com os principais elementos do ecossistema. A identificação dos elementos foi possível através do estudo de trabalhos na literatura, o que levou a criação de um modelo conceitual sobre ecossistemas globais de startups. O processo de análise de dados utilizou métodos de codificação da Teoria Fundamentada em Dados. Ao final do trabalho, há recomendações para ações de melhorias.

  • TIAGO DAVI OLIVEIRA DE ARAUJO
  • Interação por Voz em Ambientes de Realidade Aumentada Móvel:
    Avaliação e Sugestões de Boas Práticas

  • Data: 30/11/2016
  • Mostrar Resumo
  • O contexto tecnológico atual permite que haja interações por comandos de voz em dispositivos
    móveis, o que pode facilitar a interação do usuário, principalmente se uma de suas mãos não estiver
    livre, já que retira a necessidade de tocar na tela; contudo, o uso dessa interação ainda apresenta
    desafios, tais como: tratamento de ruídos no ambiente, interfaces mais intuitivas, reconhecimento
    com maior precisão, síntese de voz mais próxima da fala natural, entre outros desafios.
    A Realidade Aumentada em dispositivos móveis (RAM – Realidade Aumentada Móvel) tem
    proporcionado aos usuários uma nova experiência de interação, já que inserem objetos virtuais
    em ambientes reais de interesse do usuário, tornando-os mais dinâmicos, tais como: pontos turísticos
    de cidade, navegação em museus, manutenção de equipamentos, não limitando a tecnologia
    a um computador de mesa. Alguns desafios para uma boa integração do uso da voz em aplicações
    de RAM são a necessidade de padrões de desenvolvimento, orientações na interface das
    aplicações para escolha de palavras pelo usuário, projeto padrão para interface das aplicações de
    RAM, considerando ícones, elementos gráficos da interface, etc. Apresentados alguns desafios
    atuais da área de interação por voz e aplicações RAM, e principalmente sua integração; este trabalho
    propõe boas práticas de desenvolvimento, projeto de interface gráfica e de interface de voz
    para inclusão de um serviço de reconhecimento de voz considerando o contexto aplicação RAM,
    e para tal um serviço de voz ser integrado na aplicação, e serão realizadas avaliações de usabilidade
    e comunicabilidade.

  • LUCIANA ABDON ALMEIDA
  • ANÁLISE DE RISCOS EM ECOSSISTEMAS DE NEGÓCIOS USANDO A ABORDAGEM BLUEPRINT DE VALOR: UM ESTUDO EMPÍRICO 

  • Data: 16/11/2016
  • Mostrar Resumo
  • The rapid growth of the Internet has generated major transformations in the business context. Many companies have emerged as a result of new digital business models enabled by the Internet. Therefore, the word startup has gained more importance since it is used to typically represent digital businesses designed to be scalable, repeatable and profitable. A startup is a newly emerged company created under extreme uncertainty and risk. A rich set of startups can bring economic benefits to the geographic region where they are located. Thus, there are several research studies aimed at assisting the creation and success of these startups. Furthermore, over the years, there has been a change in the business paradigm, resulting in what has been called today a business ecosystem. This means that business actors need to engage in different relationships, particularly collaboration and competition. Therefore, one’s business vision needs to expand for a more holistic view of the business risks; changing from the exclusive focus on execution to a broader view that includes suppliers and the entire adoption chain. As a result, risk management becomes even more necessary. However, Software Engineering approaches to risk management do not include the identification of these risks in software businesses. The Business area, on the other hand, has theoretical approaches for studying software ecosystems. In this regard, Adner (2012) proposed an approach called value blueprint to assist in the identification of these additional risks and the creation of business ecosystems. This work aims at the application and analysis of the value blueprint approach in the context of digital business ecosystem. This study was conducted because traditional and agile Software Engineering approaches to risk management are limited for the identification of risks and visualization of business ecosystems. The results of this work led to three broad categories of analysis: the advantages, disadvantages and suggestions for using the value blueprint from the point of view of digital startups entrepreneurs. This research is empirical and qualitative. Instruments for data collection were semi-structured interviews, while the analysis was based on codification and identification of categories. The results of this analysis indicate that the value blueprint brings relevant contributions to digital startups by facilitating risk management, ecosystem visualization, and communication among entrepreneurs. We also identified limitations and the need to adaptations in the approach itself to better represent digital businesses. 

  • NIKOLAS JORGE SANTIAGO CARNEIRO
  • Um Processo para Definição e Avaliação de um Vocabulário
    de Gestos para Aplicações de Visualização de Informação

  • Data: 01/11/2016
  • Mostrar Resumo
  • O desenvolvimento tecnológico para sensores tem permitido a concretização do uso da interação
    não convencional nos mais variados produtos, tais como: jogos, aparelhos de TV, automação
    residencial e industrial, medicina, etc. Entretanto a utilização destas interfaces introduz uma série
    de novos e atuais desafios, tanto técnicos (fácil de instalar, adaptável a diversos produtos, precisão,
    etc.) quanto subjetivos (intuitivo, confortável, etc.), bem como questionamentos que acompanham
    esses desafios, como: é possível definir um padrão de interação para um determinado tipo de
    interação não convencional? O padrão encontrado pode ser generalizado a problema de outros
    domínios? Existem muitas outras perguntas e esta dissertação não pretende responder todas elas,
    mas contribuir na elaboração de algumas respostas, uma vez que em muitos casos não há padrões
    de interação para modos não convencionais. Assim, o objetivo desta dissertação de mestrado é
    apresentar um processo para seleção de gestos para interação com ferramentas de Visualização da
    Informação 3D (InfoVis 3D). O vocabulário de gestos adaptado para InfoVis 3D deve considerar
    tarefas comuns de visualização, como: filtros contínuos e discretos, navegação, configurações,
    entre outros. O processo de seleção de gestos é descrito abordando sua elaboração, levantamento
    e benchmark, bem como uma proposta de tradução do vocabulário selecionado para uma
    implementação utilizando sensores livremente comercializados e acessíveis. O levantamento do
    vocabulário e seu benchmark foi realizado com usuários que atendem ao perfil de ter alguma
    experiência acadêmica com Visualização da Informação e ter utilizado um número mínimo de
    ferramentas de análise de dados. Um protótipo foi desenvolvido em Unity 3D e os gestos
    implementados considerando os sensores Myo e Leap Montion. Ao final foram realizados ensaios
    de interação com usuários onde os cenários de testes foram compostos por tarefas típicas de
    InfoVis 3D.

  • LEONARDO SARRAFF NUNES DE MORAES
  • UMA PROPOSTA ARQUITETURAL DE HARDWARE EM FPGA PARA OS ALGORITMOS PSO E BPSO APLICADA A OTMIZAÇÃO DE FUNÇÕES COM RESTRIÇÕES

  • Data: 27/10/2016
  • Mostrar Resumo
  • No que diz respeito à ciência e tecnologia, a busca por soluções ótimas representa um dos maiores desafios que se enfrenta, uma vez que a otimização de desempenho, principalmente em sistemas complexos, é frequentemente ponderada por variáveis antagônicas tais como restrições orçamentárias, requisitos de segurança e respostas em tempo real. Esta dissertação propõe uma arquitetura de computação paralela com o FPGA para a implementação do algoritmo de PSO (Particle Swarm Intelligence) e uma versão modificada deste algoritmo, chamado BPSO, para minimizar o custo de produção de um problema de engenharia com restrições para o projeto de um vaso de pressão. A arquitetura proposta foi totalmente implementada em VHDL (Very High Speed Integrated Circuit Hardware Description Language) e simulações foram feitas no programa ModelSim da Altera. Os resultados alcançados com os algoritmos PSO e BPSO foram comparados aos de outros trabalhos que também lidaram com o mesmo problema e melhorias foram obtidas como custos de produção menores, resultados que obedeceram a todas as restrições do problema e redução no tempo de resposta do algoritmo.

  • MARCELO MAIA DA SILVA
  • Aprimorando o entendimento de padrões de poluição do
    ar por meio de plataformas móveis

  • Data: 05/08/2016
  • Mostrar Resumo
  • Atividades humanas, como geração de energia, movimentação de veículos e queimadas
    são grandes emissoras de poluentes atmosféricos. Muitos destes elementos poluidores são
    prejudiciais ao meio ambiente e aos seres humanos. Ainda, é comum o desconhecimento
    dos níveis de poluição do ar dentro e fora de casa; se o ser humano tiver conhecimento
    do quanto tem contato com a poluição, e for alertado disso, ele pode mudar sua atitude
    e, assim, podemos ter maior chance de evitar problemas decorrentes da poluição. Essa
    dissertação está inserida no contexto do desenvolvimento e emprego de sistemas móveis
    para monitoramento de monóxido de carbono, objetivando prover mecanismos para o
    entendimento dos padrões de poluição. Este documento apresenta a proposta de um
    sistema que integre hardware e software para coleta de poluentes e variáveis climáticas,
    como monóxido de carbono, temperatura e umidade. O sistema é portátil para facilitar
    seu transporte. Ainda, são realizadas avaliações (coletas reais e análises) em três estudos
    de caso, a fim de entender padrões de poluição e variáveis ambientais nos três diferentes
    contextos. Resultados dos experimentos mostram o comportamento do CO ao longo dos
    dias da semana, indicam as localizações mais poluídas dentro de um percurso a pé e de
    ônibus e expõem variações de temperatura ao longo de dois voos com veículos aéreos não
    tripulados.

  • JOSÉ FLÁVIO DE SOUZA DIAS JÚNIOR
  • Uma abordagem baseada em módulos para
    análise de perfis de expressão diferencial de
    genoma completo

  • Data: 05/08/2016
  • Mostrar Resumo
  • Transcrição é o processo de construção de RNA com base na cópia de uma sequência de gene.
    Esta cópia (mRNA), então, é traduzida para proteínas. Proteínas ditam o comportamento
    esperado no interior das células e são necessárias para a estrutura, função e regulação dos
    tecidos e orgãos do corpo. Juntas, transcrição e tradução são conhecidas como expressão
    gênica. Análise de perfis de expressão gênica, obtidos através de tecnologias tais como
    Microarray e RNA-Seq, tem revelado padrões sistêmicos e contribuído para a estruturação
    do conhecimento acerca da correlação entre genes e doenças. Muitos métodos estão sendo
    desenvolvidos para detectar e especificar marcadores de anormalidades biológicas. O
    transcriptograma é um desses métodos que, com base na seriação de rede protéica, constrói
    “fotografias” de transcriptomas mensurados com Microarray ou RNA-Seq. Neste trabalho,
    apresenta-se uma nova abordagem de análise de dados de expressão gênica, combinando
    métricas de diferenciação e transcriptograma para descobrir e explorar módulos de genes
    diferencialmente expressos entre amostras doentes e sadias. Um novo algoritmo (Claritate),
    sensível a redes livres de escala, foi desenvolvido para otimizar o processo de seriação de
    proteínas. É feito um estudo de caso com dados de pacientes com leucemia, obtendo-se,
    frente a abordagens tradicionais, resultados mais específicos e fortemente relacionados ao
    contexto biomédico. É realizada análise de sobrevivência de câncer e testes de cobertura
    são executados para enriquecimento de anotações funcionais.

  • LEONARDO HIROKAZU DE SOUZA HAMADA
  • Desambiguando Homógrafos-Heterófonos em
    Português Brasileiro com Algoritmos de
    Indução de Regras e Classificadores

  • Data: 03/08/2016
  • Mostrar Resumo
  • No Português falado e em outras línguas, existe um conjunto de palavras que se escreve
    exatamente da mesma forma e que no entanto ao pronunciá-las, possuem uma diferença de
    tonicidade e no caso do português, esta diferença ocorre na vogal central. Ao agrupar em
    pares, uma palavra soa com entoação aberta e uma outra com a mesma escrita, de forma
    mais fechada. Palavras com este comportamento linguístico se denominam homógrafoshetorófonos
    e no discurso, podem assumir classes gramaticais distintas ou pertencer à
    mesma classe e também estar em uma outra forma verbal, por exemplo. A preocupação
    da pronúncia esperada destas palavras é de relevância nos sistemas de conversão textofala,
    tecnologia computacional capaz de automaticamente transformar texto comum em
    voz audível. Neste contexto, uma solução que possa satisfatoriamente prever de forma
    automática a pronúncia correta dos homógrafos-heterófonos durante o processo que gera a
    voz sintética, produz melhorias na inteligibilidade e naturalidade. Problemas de decisões
    em elementos ambíguos da linguagem natural, do ponto de vista computacional, são
    objetos de estudos centrais na área de processamento da linguagem natural. Para o caso
    dos homógrafos-heterófonos, a abordagem sensível é utilizar as técnicas estudadas para
    desambiguação do sentido da palavra, que incluem o emprego de algoritmos de aprendizado
    de máquina, regras construídas manualmente ou induzidas por algoritmos, repositório
    e representação de conhecimento, corpus linguísticos e outros. Este trabalho propõe e
    modela a solução de desambiguação automática de homógrafos-heterófonos utilizando
    estratégia de aprendizado de máquina, especificamente a supervisionada, utilizando como
    fonte de treino para os algoritmos de desambiguação, exemplos de frases coletados de
    corpus onde os homógrafos-heterófonos contidos foram manualmente desambiguados. Para
    verificar a empregabilidade desta solução proposta em um sistema de conversão textofala
    personalizado para o Português Brasileiro, é necessário realizar algumas análises
    de desempenho, principalmente em novos textos em que o desambiguador ainda não
    teve acesso. Verificou-se que o desempenho de acertos de desambiguação automática das
    pronúncias dos homógrafos-heterófonos é fundamentalmente dependente da natureza do
    texto utilizado durante o treino dos classificadores e algoritmos de indução de regras. As
    maiores dificuldades foram encontradas durante a coleta de amostras de frases para a base
    de treino, sendo que há poucos exemplos para o emprego de alguns homógrafos-heterófonos,
    que em geral ocorrem de forma desbalanceada em um dos pares de pronúncia em textos
    do Português Brasileiro.

  • EDUARDO COSTA DE CARVALHO
  • Investigação em Arquiteturas de Redes sem Fio
    para Localização em Ambientes Internos
    Usando Aprendizado de Máquina

  • Data: 29/04/2016
  • Mostrar Resumo
  • Localização em ambientes indoor tem sido uma área de pesquisa muito ativa nas últimas
    décadas. Grande parte das pesquisas foram direcionadas ao contexto de atividades robóticas.
    Embora as tecnologias de sensores e as técnicas propostas para a localização de robôs em
    ambientes internos tenham apresentado soluções cada vez mais confiáveis, estas apresentam
    dificuldades se adotadas como solução para localização de pessoas em ambientes internos,
    particularmente, devido ao seu alto custo computacional, uso de energia e peso dos sensores.
    Para mitigar esses problemas, uma solução tecnológica de detecção com baixo consumo de
    energia, com base em sinais de potência do WiFi, é estudada nesse trabalho. No entanto,
    há uma preocupação quando se trabalha com estes sinais, que é a sua vulnerabilidade a
    interferências. Assim, a dissertação explora o uso de aprendizagem de máquina em duas
    arquiteturas diferentes para a localização e apresenta como uma técnica de filtragem de
    dados pode atenuar as interferências. Ainda, um passo para uma abordagem de tolerância
    a falhas é estudada para uma das estratégias, apresentando que o sistema utilizado pode
    manter uma determinada confiabilidade, mesmo perdendo alguns de seus nós.

  • IGOR FURTADO CARVALHO
  • UMA ESTRATEGIA DE DECISÃO DE CACHE
    BASEADA EM MÚLTIPLAS MÉTRICAS PARA
    REDES ORIENTADAS A CONTEÚDO

  • Data: 29/02/2016
  • Mostrar Resumo
  • Rede Orientada a Conteudo - ROC - (Information Centric Network - ICN ) e
    um paradigma de arquitetura de rede que atraiu muitas pesquisas nos ultimos anos. Um
    topico bastante pesquisado em ROC e o cache em rede, o qual permite que roteadores
    intermediarios entre um usuario e um servidor de conteudo possam armazenar o conteudo
    requisitado. Tal decisão e feita através de uma política de decisão de cache, a qual pode
    ser baseada tanto em características do conteúdo trafegado quanto da topologia ou dos
    nos.
    Porém, a maioria delas fazem uso de apenas uma métrica para escolher os nos
    alvos que armazenarão o conteúdo. Considerando que a rede e um ambiente bastante
    dinâmico, assim como o tipo de conteúdo solicitado e trafegado, tal métrica pode acarretar
    em um baixo desempenho tanto da rede quanto da estratégia em si. Isso resulta em uma
    baixa taxa de acertos de conteúdos, longos atrasos e um maior consumo de recursos de
    rede, como, por exemplo, a largura de banda.
    Desta forma, esta dissertação propõe uma estratégia de decisão de cache baseado
    em múltiplas métricas para ROCs. São utilizadas três métricas para selecionar os nos
    alvos e, com isso, o conteúdo pode ser melhor distribído na rede. A estratégia proposta
    considera características dos roteadores de conteúdo (centralidade e capacidade de cache
    disponível), bem como de conteúdo (taxa de acertos de conteúdo registrado por cada
    roteador) e, assim, melhor distribuir o conteúdo por toda a rede. Os resultados obtidos
    atingiram uma taxa de acertos bem maior que as outras propostas avaliadas e um tempo
    de download praticável.

  • LEANDRO HENRIQUE SANTOS CORREA
  • FUNN-MG: Um pipeline para análise funcional
    e visual de metagenomas

  • Data: 29/02/2016
  • Mostrar Resumo
  • Microrganismos habitam em diversos lugares. Embora saibamos que desempenham papéis
    importantes em vários ecossistemas, muito pouco se sabe sobre como essas comunidades
    complexas trabalham. Assim, para entender efetivamente redes metabólicas microbianas
    é preciso explorá-las por meio de uma abordagem de biologia de sistemas. Nós introduzimos
    uma estratégia baseada em análise estatísticas e métricas de teoria dos grafos para
    a análise funcional das redes metabólicas microbianas. Esta estratégia tem base em um
    grafo bipartido elaborado de forma adequada para i) avaliar a cobertura das vias metabólicas
    em conjunto de genes microbianos, bem como ii) a estabilidade da comunidade
    sobre perturbações topológicas nos elementos da rede associada. A partir da análise destas
    estratégias construímos um índice de representatividade das vias metabólicas encontradas
    na amostra, e submetemos duas amostras para análise da ferramenta. Os resultados preliminares
    identificaram vias metabólicas importantes relacionadas as comunidades, além
    de descartar vias metabólicas que não faziam sentido no contexto biológico das amostras.

  • WILSON LUIZ DA SILVA FARIAS
  • SISTEMA DE DECISÃO COLABORATIVA PARA
    TRANSMISSÃO MULTIMIDIA EM FLYING AD-HOC
    NETWORKS

  • Data: 29/02/2016
  • Mostrar Resumo
  • Por um tempo, Veculos Aereos Não Tripulados (VANTs) tiveram seu uso limitado
    a aplicações militares, no entanto, recentemente VANTs estão sendo utilizados
    tambem para uma ampla gama de aplicações civis. Algumas destas aplicações utilizam
    dados multimídia, como vídeos, devido ao maior ganho de informação oferecida, alem
    de geralmente envolverem conjuntos de VANTs, as chamadas Flying Ad-hoc Networks
    (FANETs), que devem cooperar para alcancar um objetivo comum. De forma a se alcan
    car tal objetivo, geralmente são adotados modelos de decisão centralizada. Isso requer
    ligações diretas entre os VANTs e a estação base ou uma entidade central, ou atraves de
    multiplos saltos entre eles. Esta abordagem sofre de muitas limitações, pois deixa a rede
    sensível a falhas de comunicação, as quais podem tornar o sistema ine caz. Ademais,
    ao se transmitir conteudo multimídia, levar em consideração os requisitos e limitações da
    rede, a relevância da informação capturada e a mobilidade dos nos, ao se escolher o melhor
    no para realizar a transmissão, colabora para que o usuario tenha uma melhor Qualidade
    de Experiência (QoE). Portanto, este trabalho propõe um sistema de decisão distribuída
    para transmissão multimídia em FANETs, baseado em multiplas metricas. Nele são levadas
    em consideração a relevância do conteudo capturado pelo no, o consumo energetico
    do no e dos recursos da rede, e a mobilidade dos nos. Simulaçõees foram realizadas com
    diferentes velocidades e modelos de mobilidade. Resultados mostraram que o sistema
    alcanca um bom equilbrio entre a qualidade do conteudo transmitido e a longevidade da
    rede, provendo sempre conteudo relevante ao usuario e consumindo menos recursos.

  • THIAGO SYLAS ANTUNES DA COSTA
  • UMA ABORDAGEM METODOLÓGICA PARA A IMPLEMENTAÇÃO DO PROCESSO DE MEDIÇÃO A PARTIR DE UMA FERRAMENTA DE SOFTWARE E UM CATÁLOGO DE MEDIDAS

  • Data: 29/02/2016
  • Mostrar Resumo
  • Para que uma organização possa atingir um determinado objetivo, a mesma precisa tomar decisões que contribuam para o alcance desse objetivo, porém para que essas decisões sejam as mais assertivas possíveis em relação ao objetivo determinado, é preciso conhecer e usufruir de informações que possam servir de subsídio para que dúvidas sejam sanadas e opções de solução surjam, e desta forma seguir uma linha de raciocínio com uma probabilidade maior de acerto em relação à decisão tomada. No contexto de desenvolvimento de software, o processo de medição tem por finalidade gerar informações capazes de apoiar a tomada de decisão a fim de atingir os objetivos da organização. Este trabalho descreve o processo de medição de software utilizando a metodologia GQIM (Goal Question Indicator Metric) e apresenta uma proposta de catálogo com os objetivos de medição, necessidades de informação, indicadores e medidas mais utilizados no contexto de processos de desenvolvimento de software a partir de uma revisão sistemática da literatura. Este trabalho apresenta também uma ferramenta de software chamada Spider-MsControl, uma solução desktop que opera um sistema cliente-servidor e visa auxiliar o processo de medição, no que tange às atividades de definição, coleta, análise e acompanhamento de medidas, seguindo as práticas definidas na abordagem GQIM. O software segue todas as práticas, os resultados esperados e as atividades definidos para o processo de Medição dos modelos CMMI-DEV e MR-MPS-SW e da norma ISO/IEC 12207, entre outros guias de boas práticas nesta disciplina. Ao fim esses dois vieses da pesquisa, o catálogo e a ferramenta de software são integrados, fornecendo assim uma ferramenta capaz de auxiliar a implantação do processo de medição de software dentro de uma organização e ao mesmo tempo fornecer um arcabouço de objetivos de medição, necessidades de informação, indicadores e medidas mais utilizados, baseado na literatura.

  • PAULO VITOR RODRIGUES CARDOSO
  • Identificação de Regiões de Ubiquitinação Utilizando Nondominated
    Sorting Genetic Algorithm II

  • Data: 26/02/2016
  • Mostrar Resumo
  • A ubiquitinação se constitui como um importante mecanismo biológico, que tem entre suas
    finalidades a regulação de proteínas através da marcação daquelas que são indesejadas e que
    posteriormente são degradadas por organelas conhecidas como proteassoma. A ubiquitina
    também atua no mecanismo de processos inflamatórios, alem de ter relação importante
    com doenças neuro-degenerativas e câncer. Haja vista sua evidente importância dentro
    dos organismos eucariotos, seu entendimento colabora com investigações a respeito da
    mesma. Entretanto, para melhor entender o funcionamento da ubiquitina, é importante
    compreender como o processo de ubiquitinação ocorre. A identificação de regiões de
    ubiquitinação em proteínas é fundamental para ter um conhecimento completo a respeito
    dos mecanismos moleculares deste sistema. Métodos tradicionais possuem um custo elevado
    de experimentação, alem de também possuir um alto custo de tempo e esforço. Nesses
    quesitos, métodos de aprendizado de máquina se mostram como uma alternativa promissora,
    tanto por possuir um baixo custo comparado com a experimentação convencional, quanto
    por conseguir bons resultados na identificação de regiões de ubiquitinação agregado a
    um baixo custo de tempo e esforço. Estes métodos conseguem identificar potenciais
    regiões de ubiquitinação através da análise das propriedades das sequencias genéticas de
    fragmentos de proteínas, ou do proteoma inteiro. Este trabalho utiliza metodologias de
    aprendizado de máquina como Non-dominated Sorting Genetic Algorithm II (NSGA-II)
    para identificar e predizer regiões de ubiquitinação baseadas em propriedades físico-químicas
    e na composição de aminoácidos. O NSGA-II constrói regras de classificação baseadas
    nas propriedades das sequencias de fragmentos, a partir destas regras é possível levantar
    hipóteses a respeito da importância de cada um dos parâmetros utilizados. Além de buscar
    resultados na identificação de regiões de ubiquitinação, este trabalho também reuniu e
    integrou informações relevantes para pré-processamento e geração de base de dados de
    fragmentos ubiquitináveis através da integração de várias bases de dados de informações
    em uma base integrada chamada UPIS. Como resultado da pesquisa, obteve-se uma base
    de dados com cerca de 60.016 regiões ubiquitinadas de 4 organismos distintos: Arabidopsis
    thaliana, Saccharomyces cerevisiae, Mus musculus e Homo sapiens. Os classificadores
    utilizados obtiveram um valor de acurácia igual a 76.79%, 84.17%, 71.69% e 69.71%
    respectivamente. Um teste com todas as regiões também foi realizado, obtendo um valor
    de acurácia igual a 68.76%.

  • FABIANA RODRIGUES DE GÓES
  • GENEFINDER-MG: UM PIPELINE PARA A PREDIÇÃO DE GENES EM DADOS METAGENÔMICOS.

  • Data: 26/02/2016
  • Mostrar Resumo
  • A Bioinformática, através da sua multidisciplinaridade, continua a proporcionar um grande
    avanço nas análises e pesquisas desenvolvidas a partir de dados das diversas áreas da Biologia. A
    Metagenômica é o estudo dos metagenomas, a qual provê um melhor entendimento de como os
    micro-organismos se relacionam em uma comunidade e como esta contribui para o ambiente no
    qual habita. Recursos computacionais têm grande importância em projetos deste contexto devido
    a complexidade e grande quantidade de dados gerados pelas tecnologias de sequênciamento de
    DNA. Uma forma tradicional de se extrair informações dos (meta)genomas ocorre através da
    predição de genes. A identificação dos genes possibilita que, a partir dela, outros estudos mais
    específicos sejam elaborados, sendo assim, uma etapa de grande importância para o estudo dos
    (meta)genomas. Este trabalho apresenta uma abordagem baseada em aprendizado de máquina
    supervisionado para o problema de predição de genes em experimentos metagenômicos. O
    pipeline desenvolvido utiliza uma abordagem de aprendizado ensemble para a realização da
    classificação de regiões codificadoras em sequências de DNA de organismos procariotos. Para
    observar o desempenho do pipeline, avaliações do modelo e comparações com outras quatro
    ferramentas foram executadas.

  • LENNON SALES FURTADO
  • Uma Proposta de Interação por Voz em Aplicações de Visualização da
    Informação

  • Data: 25/02/2016
  • Mostrar Resumo
  • Muitos estudos apontam a importância da interação na área de Visualização de Informação
    (InfoVis) para o sucesso de uma boa visualização de dados. Este interesse é potencializado
    pelo crescimento e complexidade dos dados armazenados eletronicamente nas várias áreas do
    conhecimento. As pesquisas de interação em InfoVis têm fomentado o uso de interfaces não
    convencionais, além dos tradicionais teclado e mouse, tais como: comandos de voz,
    rastreamento de olhos, comandos por gestos, interfaces cérebro-computador, entre outras. O
    presente trabalho teve o objetivo de apresentar aspectos de concepção, desenvolvimento e
    avaliação de uma interface por comandos de voz para interação em aplicações de InfoVis 3D.
    Sendo que como cenário de uso foi utilizada a técnica de InfoVis de Dispersão de Dados em
    3D. Ademais, para o reconhecimento de voz é empregado a API Coruja, que se utiliza do
    motor de reconhecimento Julius, para suporte ao Português-Brasileiro. Por fim, serão
    apresentados testes de usabilidade para a avaliação da interface e interação proposta. Os testes
    utilizam a abordagem de tarefas de usuários para avaliar as sub-tarefas de InfoVis na
    aplicação, tais como: configuração, filtro, seleção, entre outras. Para realizar a avaliação da
    carga de trabalho subjetiva do usuário foi utilizada a metodologia NASA Task Load-Index, a
    qual identifica a carga de trabalho total do usuário nas diferentes tarefas realizadas. Tais testes
    apontaram eficácia da interface apresentada, tendo uma diferença de tempo de 24% em
    relação ao mouse e 26% de carga de trabalho a mais do que no mouse.

  • REGINALDO CORDEIRO DOS SANTOS FILHO
  • Identificação de Binder Através de Medições
    Fantasmas Utilizando Técnicas de Aprendizado
    de Máquina

  • Data: 22/02/2016
  • Mostrar Resumo
  • Com o advento da internet os sistemas de telecomunicações evoluíram no sentido de prover
    altas taxas de transmissão de dados em condutores de cobre. Atualmente, vivenciamos a 5a
    geração de banda larga desenvolvida em cima da rede antiga de telefonia e podendo alcançar
    até 10 Gb/s de taxa agregada em pares trançados de cobre. A era Gb em cobre é uma
    estratégia interessante no sentido de reaproveitar uma estrutura de telefonia já existente e
    mundialmente implantada, ao passo de que substituir totalmente os condutores de cobre
    por fibras óptica ainda é uma operação onerosa. Muito se investe em tecnologias para
    aumentar com qualidade a taxa de transmissão em pares trançados. Linhas coordenadas
    por bonding e livre de ruídos por vectoring garantem bons rendimentos do uso do cobre
    em sistemas híbridos fibra-cobre implantados atualmente. Seguindo esta perspectiva, este
    trabalho apresenta uma proposta de estender os princípios da chamada Qualificação de
    Enlaces telefônicos, da qualificação de um enlace individual para a qualificação de binders
    e cabos. A proposta inclui um método de identificação de binders de pares trançados
    de cobre. O método se baseia na análise de medições de circuitos fantasmas. Este tipo
    de circuito é frequentemente usado para melhorar as taxas de transmissão de dados em
    sistemas de comunicação, mas neste trabalho, esses circuitos serão utilizados para revelar
    se 4 condutores compostos por 2 pares trançados estão próximos o suficiente para serem
    considerados no mesmo binder. O método ainda consegue estimar o comprimento em
    que dois pares trançados compartilham o mesmo binder, possibilitando descobrir o local
    onde os pares trançados se dividem em cabos diferentes. A identificação de binders é
    feita através de técnicas de reconhecimento de padrão, máquina de vetores de suporte,
    K-means e modelo de misturas de Gaussianas, aplicadas às características extraídas do
    parâmetro S11 obtido pela medição do sinal no domínio do tempo e da frequência de
    dois pares trançados que formam o circuito fantasma. Através de medições fantasmas
    reais realizadas em laboratório, obteve-se diferentes resultados possibilitando comparar
    a performance de cada técnica de aprendizado de máquina empregada ao problema. Os
    resultados alcançaram níveis aceitáveis de acurácia para o método proposto.

  • FABRICIO WICKEY DA SILVA GARCIA
  • UMA ABORDAGEM PARA A IMPLEMENTAÇÃO MULTIMODELOS
    DE QUALIDADE DE SOFTWARE ADOTANDO A CERTICS E O CMMIDEV

  • Data: 22/02/2016
  • Mostrar Resumo
  • Com os avanços tecnológicos e a crescente busca por produtos de software, um dos grandes
    desafios das empresas desenvolvedoras de software é atender a esta demanda com produtos de
    qualidade, tendo em vista que o nível de exigência está cada vez mais elevado no que se
    refere à aceitação de um produto de software. Uma das alternativas utilizadas pelas
    organizações desenvolvedoras de software é o uso de certificações que apoiem o processo de
    construção de software ou que avaliem a qualidade do produto final. No entanto, nem sempre
    uma certificação consegue atender por completo as necessidades de uma organização, isso as
    leva a adotar mais certificações. Quando isso acontece, surgem diversos problemas devido as
    diferentes estruturas e componentes dos modelos de certificações adotados, o que demanda
    mais tempo além de gerar custos extras com a implantação de dois ou mais modelos de
    certificação. Os desafios de implementar vários modelos em uma organização podem ser
    contornados com uso de implementações multimodelos, de forma que as divergências entre os
    modelos sejam harmonizadas por meio de um mapeamento entre os modelos utilizados. Nesse
    sentido, este trabalho apresenta um mapeamento entre as práticas de dois modelos de
    qualidade de produto e processos de software adotados na indústria, o modelo nacional
    CERTICS e o internacional CMMI-DEV. As etapas do mapeamento são apresentadas passo a
    passo, assim como as similaridades identificadas entre os modelos. O mapeamento foi
    revisado e validado por meio da técnica de revisão por pares, a qual contou com a colaboração
    de um especialista nos modelos CERTICS e CMMI-DEV. Com a correlação das estruturas
    dos dois modelos, pretende-se facilitar e reduzir o tempo e os custos de implementações, além
    de estimular a realização de implementações multimodelos nas indústrias desenvolvedoras de
    software.

  • RENATO DE PINA FERREIRA
  • Um Estudo Exploratório dos Fatores de Adoção de Plataformas de Software Móveis

  • Data: 26/01/2016
  • Mostrar Resumo
  • Existem várias plataformas de software que concorrem umas com as outras para atrair engenheiros de software. No entanto, ainda não são bem conhecidos quais fatores os engenheiros de software levam em consideração ao decidir adotar uma determinada plataforma. Esta dissertação apresenta um estudo exploratório que visa preencher esta lacuna. Entrevistas semiestruturadas foram realizadas com 18 engenheiros de software utilizando a Teoria de Difusão da Inovação de Rogers como framework conceitual. Tais entrevistas foram analisadas utilizando técnicas da Teoria Fundamentada em Dados. Os resultados desta dissertação ilustram alguns dos fatores que levam um engenheiro de software a adotar ou não uma determinada plataforma. Por exemplo, engenheiros de software percebem a plataforma Android como mais acessível e compatível com o seus conhecimentos existentes, mas eles temem sua fragmentação (alto número de dispositivos). Alguns engenheiros de software simplesmente escolhem iOS porque as vendas são maiores nessa plataforma. As conclusões apresentadas neste trabalho podem ajudar os engenheiros de software a decidir qual plataforma adotar e também podem auxiliar os responsáveis por ecossistemas de software a aperfeiçoar suas plataformas para atrair mais engenheiros de software.

  • MULLER GABRIEL DA SILVA MIRANDA
  • ECOSSISTEMAS DE SOFTWARE MÓVEIS: UM ESTUDO EXPLORATÓRIO SOBRE ASPECTOS POSITIVOS E NEGATIVOS NO DESENVOLVIMENTO DE APLICAÇÕES MÓVEIS

  • Data: 25/01/2016
  • Mostrar Resumo
  • Um ecossistema de software consiste em um grupo de atores incluindo engenheiros de software, usuários finais e empresas que funcionam como uma grande unidade interagindo com um mercado comum. Existem vários ecossistemas de software móveis (Android, iOS, Windows Phone) que concorrem entre si para atrair desenvolvedores externos com objetivo de aumentar o número de aplicativos disponíveis. Desta forma, o sucesso de um ecossistema depende da forma como o mesmo gerencia suas relações, por exemplo, o esforço para criação de novas aplicações para o ecossistema. Este esforço de desenvolvimento pode estar associado à complexidade de utilização de ferramentas, baixo engajamento da comunidade, linguagem de programação utilizada para desenvolver as aplicações, ambientes de desenvolvimento, etc. Portanto, o objetivo desta dissertação é investigar os diversos aspectos, positivos e/ou negativos, que engenheiros de software de ecossistemas móveis enfrentam ao longo do processo de criação de aplicativos. Assim, este estudo pretende contribuir com uma visão geral sobre os aspectos que podem influenciar o engenheiro de software a aceitar, rejeitar ou a permanência em um determinado ecossistema de software móvel. Para que este objetivo pudesse ser alcançado, um estudo qualitativo de duas fases foi realizado: na primeira fase foram realizadas entrevistas semiestruturadas com nove (9) engenheiros de software que desenvolviam ativamente para Android (5), iOS (3), ou ambos (1). A primeira fase é chamada de local, pois todos os entrevistados eram brasileiros. Dado o número pequeno de entrevistas e a pequena diversidade contextual dos participantes selecionados nesta fase, a segunda fase é chamada de global, pois contou com a participação de engenheiros de software de diferentes partes do mundo, pois nesta fase a coleta de dados foi realizada via questionário eletrônico com oitenta e seis respostas (86). Os dados coletados foram analisados em conjunto utilizando métodos da Teoria Fundamentada em Dados. Os resultados mostram a ocorrência de diversos aspectos positivos (Documentação, Engajamento da Comunidade, etc) e negativos (Interface, Recursos, Emuladores, etc), mas também foram revelados aspectos ambíguos (Fragmentação, Popularidade, etc), isto é, aspectos que podem ser tanto positivos quanto negativos. Isto é determinado pelo ecossistema do qual o engenheiro de software faz parte ou até mesmo de sua opinião particular.

2015
Descrição
  • ANDERSON TRINDADE MAIA
  • METODOLOGIA PARA A CLASSIFICAÇÃO DE PERTURBAÇÕES A PARTIR DE MEDIÇÕES FASORIAIS SINCRONIZADAS UTILIZANDO TÉCNICAS DE MINERAÇÃO DE DADOS

  • Data: 21/12/2015
  • Mostrar Resumo
  • Atualmente, procurando atender requisitos de qualidade cada vez mais rigorosos, as empresas do setor elétrico estão se equipando com tecnologias avançadas para aquisição e armazenamento de informações. Um típico exemplo dessa tecnologia são os equipamentos de oscilografia, e mais recentemente os Sistemas de Medição Fasorial Sincronizada (SMFs). Apesar da tecnologia avançada, estabelecer metodologias eficientes para predizer a ocorrência de pertubações nos dados coletados dos SMFs, é uma atividade incipiente no setor elétrico. Assim, o objetivo deste trabalho consiste em propor uma metodologia para classificação de pertubações a partir de medições fasoriaissincronizadas utilizando técnicas de mineração de dados. A metodologia proposta utiliza os dados de medições fasoriais de uma linha de transmissão de 230 KV que interliga as subestações de Altamira, Rurópolis e Tucuruí (Pará), que fazem parte do sistema elétrico Tramoeste. Após tratamento e pré-processamento dos dados coletados, foram aplicadas técnicas de mineração de dados no processo de classificação das pertubações. Mais especificamente, foram avaliados sistematicamente, a partir de um procedimento automático de seleção do modelo, os classificadores Random Forest, Redes Neurais Artificiais, K-Vizinho mais Próximo e Máquinas de Vetores de Suporte. Os Resultados obtidos mostram que os classificadores RadomForest(0.41% de erro) e K-Vizinho mais próximo (1.87% de erro), foram os que tiveram o melhor desempenho, indicando que a metodologia proposta é viável e promissora.

  • ISADORA MENDES DOS SANTOS
  • ANÁLISE DA VIABILIDADE ECONÔMICA DE PROTEÇÃO EM REDES ÓPTICAS PASSIVAS UTILIZANDO CADEIAS DE MARKOV E SIMULAÇÃO DE MONTE CARLO

  • Data: 21/12/2015
  • Mostrar Resumo
  • O aumento dos requisitos de demanda de tráfego em redes de acesso vem levando os clientes a exigirem serviços mais confiáveis e obrigando os operadores a investir mais em infraestrutura, visto que os custos associados a penalidade por interrupção do serviço e os custos de reparo da rede são altos e afetam sua reputação. Como as Redes Ópticas Passivas (PON) são uma boa tecnologia para suprir a demanda de tráfego, surgem as estratégias de proteção em PON para minimizar o problema de confiabilidade da rede, mas seus custos também devem ser levados em consideração. Este trabalho tem como objetivo verificar a viabilidade econômica das estratégias de proteção de PONs através de uma análise dos custos de implantação (CAPEX) e custos de operação (OPEX). A área de implantação da rede é definido por um modelo geométrico, e um modelo de custo de Markov solucionado através de Simulação de Monte Carlo é utilizado para calcular os custos associados a falha de maneira mais precisa, considerando o comportamento da rede. Resultados apontam o melhor esquema de proteção em termos de custo de implantação, redução de custos operacionais, e retorno do investimento.

  • MAURO RODRIGO LARRAT FROTA E SILVA
  • LOCALIZAÇÃO DISTRIBUÍDA EM REDES DE SENSORES SEM FIO UTILIZANDO FPGA E REDE NEURAL ARTIFICIAL

  • Data: 16/12/2015
  • Mostrar Resumo
  • Em Redes de Sensores sem Fio (RSSF), métodos de localização distribuída vem sendo desenvolvidos considerando a eficiência dos recursos de rede, diminuindo o consumo de energia através da redução da transmissão de informação por parte dos sensores onde estas restrições se aplicam. Neste trabalho, a localização distribuída é baseada em apenas uma transmissão em broadcast proveniente de um sensor alvo para quatro âncoras. A partir da interação entre dois âncoras, o método já fornece uma estimativa razoável devido as características do algoritmo que o implementa. O algoritmo também permite que o método possa fornecer uma estimativa de posição mediante a tolerância de falhas de âncoras, respeitando o mínimo de dois sensores âncoras necessários para realizar o procedimento de localização. Para o desenvolvimento deste trabalho propõe-se a implementação de Redes Neurais Artificiais em cada âncora utilizando plataforma configurável a qual opera em alta frequência. Os resultados mostram que a posição estimada do alvo melhora em função do aumento do número de âncoras e alcança rápida estabilidade de estimativa de posição sem exigir muitas âncoras no processo de localização.

  • MARIA ANDRÉIA RODRIGUES DOS SANTOS
  • APRENDIZAGEM DA LÍNGUA PORTUGUESA NA EDUCAÇÃO DE SURDOS UTILIZANDO EDITOR DE HISTÓRIA EM QUADRINHO MEDIADA POR MAPA CONCEITUAL.

  • Data: 01/12/2015
  • Mostrar Resumo
  • A utilização de histórias em quadrinhos como recurso didático vem sendo amplamente sugerida em pesquisas acadêmicas, considerando que, dessa forma, o entendimento do assunto tratado é facilitado pela associação de imagens a textos, levando alunos ainda não familiarizadas com a leitura, à dedução do significado das imagens. Em se tratando de educação de surdos, o canal visual é o principal meio de apropriação de conhecimento. Mapas conceituais são ferramentas gráficas, cujo conceito propõe a organização e representação de conhecimento, sendo, nesse contexto, um recurso tecnológico relevante no processo de ensino-aprendizagem. Este trabalho visa contribuir com uma proposta de apoio ao processo de aprendizagem da Língua Portuguesa na Educação de Surdos utilizando a ferramenta lúdica MCHQAlfa que alia recursos visuais e interativos na construção de mapas conceituais e histórias em quadrinhos. 

  • MOSHE DAYAN SOUSA RIBEIRO
  • COMO COLETAR AUTOMATICAMENTE MÉTRICAS ORIENTADAS A OBJETO: UM ESTUDO BASEADO EM REVISÃO SISTEMÁTICA

  • Data: 24/11/2015
  • Mostrar Resumo
  • Objetivo: Obter informações sobre como coletar automaticamente métricas orientadas a objeto (métricas OO) com intuito de apoiar, nessa tarefa, quem deseja compreender/avaliar o produto de software através dessas métricas. Método: um estudo baseado em revisão sistemática foi desenvolvido. 37 estudos primários foram selecionados dos 577 trabalhos recuperados em 3 bases de dados. Resultado: 177 métricas que podem ser coletadas automaticamente foram catalogadas e desse total, 28 foram as mais referenciadas; as métricas catalogadas foram classificadas conforme as características de qualidade as quais estavam relacionadas; 18 ferramentas de coleta foram identificadas; concluiu-se que existe um conjunto de procedimentos comuns para se realizar a coleta de métricas OO e que Java e C++ são as linguagens com maior número de ferramentas para as quais é possível extrair métricas.

  • DANIEL DIAS DE CARVALHO
  • UM METAMODELO PARA A REPRESENTAÇÃO DE LINHA DE PROCESSOS DE SOFTWARE 

  • Data: 27/10/2015
  • Mostrar Resumo
  • A Reutilização de processos de software é essencial para a melhoria da qualidade e diminuição dos esforços necessários para a definição de processos, além de promover a disseminação de conhecimentos dentro de uma organização de software. O paradigma de Linha de Processos de Software vem se destacando como uma alternativa viável para a reutilização de processos através da representação de similaridades e variações em uma única estrutura de processos. Neste sentido, esta dissertação de mestrado apresenta uma abordagem para a representação em linha de processos de software. A abordagem é composta por: um metamodelo para a representação de variações, características e dependências entre os elementos de processo que constituem uma arquitetura de linha de processos de software; uma notação gráfica, baseada em uma linguagem de modelagem de processos existente; e um processo de engenharia de linha de processos de software, composto por atividades de engenharia de domínio, engenharia de aplicação e de gerência, que guiam a utilização dos conceitos referentes ao metamodelo. Para fundamentar a pesquisa, foi realizada uma revisão sistemática da literatura, em que limitações na área foram identificadas e requisitos para a representação de linha de processos foram coletados. A abordagem proposta neste trabalho foi avaliada das seguintes formas: primeiro, através da publicação de artigos científicos com resultados parciais da pesquisa; e, finalmente, pela utilização da abordagem por outra dissertação de mestrado, no qual uma linha de processos foi modelada com a utilização da abordagem proposta neste trabalho e avaliada por especialistas. 

  • LARISSA FERNANDES CHAGAS
  • LINHA DE PROCESSOS DE SOFTWARE PARA INTEGRAÇÃO ENTRE PRÁTICAS DO SCRUM E DE MODELOS DE MATURIDADE

  • Data: 14/10/2015
  • Mostrar Resumo
  • As empresas de desenvolvimento de software estão cada vez mais interessadas na qualidade dos produtos que desenvolvem e, por isso, vêm investindo na melhoria de seus processos. A popularidade de Métodos Ágeis vem crescendo e, junto com essa popularidade, também cresce o interesse pela adoção de tais métodos em conjunto com modelos de maturidade, como o CMMI-DEV e o MR-MPS-SW. Os resultados de uma Revisão Sistemática da Literatura realizada no contexto deste trabalho mostraram que o Scrum foi o Método Ágil mais adotado em conjunto Modelos de Maturidade. Também foi possível perceber que a adoção de Métodos Ágeis, como Scrum, em conjunto com modelos de Maturidade, frequentemente leva a variações no processo e que a modelagem e disponibilização dos processos de software seguidos é um fator importante na adoção conjunta. Portanto, a definição de processos de software é uma tarefa complexa e que requer experiência e conhecimento de diversas disciplinas da engenharia de software. Esse trabalho apresenta uma Linha de Processos de Software para a integração entre práticas dos modelos de maturidade CMMI-DEV e MR-MPS-SW, e do Scrum, fornecendo uma base inicial de elementos que facilitem a reutilização e adaptação de processos. Parte dos elementos reutilizáveis incluídos na Linha de Processos de Software aqui proposta foi definida através dos resultados da Revisão Sistemática da Literatura, que identificou dificuldades e lições aprendidas relatadas sobre a aplicação conjunta de métodos ágeis com modelos de maturidade. A Linha de Processos de Software resultante foi avaliada por dois especialistas através de revisões por pares.

  • EDUARDO PAULO MARQUES RAIOL
  • WEBSQL:UMA PROPOSTA DE UM AMBIENTE VIRTUAL DE ENSINO E APRENDIZAGEM DA LINGUAGEM SQL

  • Data: 06/10/2015
  • Mostrar Resumo
  • Este trabalho apresenta uma proposta de um Ambiente Virtual de Aprendizagem (AVA) chamado WebSQL, que aprimora o ambiente LabSQL (2007) com duas novas funcionalidades: a) a recomendação de Objetos de Aprendizagem (OA) a partir das competências de programação e b) o estímulo do trabalho em grupo. Com base nas competências em relação a linguagem SQL cada aluno recebe recomendações personalizadas de questões de exercícios on-line para treinamento, para o aluno posteriormente ser submetido a uma nova avaliação; por outro lado, o sistema também identifica alunos com dificuldades para resolver determinadas questões e indica outros alunos de mesmo perfil do aluno alvo e que já tenham conseguido chegar à solução da questão; assim o aluno poderá conversar com o colega que já passou pela dificuldade para receber uma orientação ou um auxilio dele. A implementação destas funcionalidades só é possível porque o WebSQL herdou do LabSQL um avaliador automático de questões de programação em SQL. O WebSQL possibilita a realização de atividades (exercícios ou avaliações) individuais e/ou em grupo; nestas atividades de programação o aluno recebe feedback instantâneo indicando o percentual que falta para alcançar a solução ótima. Desta forma, o aluno tem os recursos e a motivação para aprimorar, refatorando o código de sua solução, até alcançar a solução ótima. O sistema foi desenvolvido com código fonte aberto e de domínio público, disponibilizado para download. O ambiente foi avaliado em três turmas de graduação, sendo uma externa e duas internas à Universidade Federal do Pará - UFPA, totalizando 68 alunos, onde obteve-se um retorno positivo quanto a utilização da ferramenta. Considera-se que o WebSQL se coloca como uma ferramenta que apóia o processo metodológico de ensino e aprendizagem da linguagem SQL.

  • MARISA CRISTINA MORENO ALVES DE ANDRADE
  • Análise dos Fatores Críticos para o Sucesso de
    Cursos de Graduação em Computação: Um
    Estudo de Caso na Região Amazônica

  • Data: 10/09/2015
  • Mostrar Resumo
  • O trabalho “Análise dos Fatores Críticos para o Sucesso de Cursos de Graduação
    em Computação: Um Estudo de Caso na Região Amazônica” visou discutir o cenário
    tradicional de cursos de graduação em Computação, buscando elaborar um modelo para
    identificar e validar os Fatores Críticos de Sucesso (FCS) em cursos de graduação em
    Computação sob a perspectiva de seus alunos, de modo que gestores das instituições possam
    identificar pontos críticos para melhorar a gestão institucional, estratégica e operacional
    em face ao cumprimento dos objetivos dos cursos pesquisados, na tentativa de minimizar
    desigualdades e propiciando produção de conhecimento científico e tecnológico que podem
    melhorar a qualidade de vida da população Amazônica. Nesse contexto, esta dissertação de
    mestrado buscou responder à questão: “Quais são os Fatores Críticos de Sucesso para
    os cursos de graduação em Computação?”, tendo como objetivo principal identificar e
    agrupar FCS para cursos de graduação em Computação. Especificamente, pretendeu-se
    identificar, na literatura quais os FCS de sucesso comuns a cursos de Educação Superior
    presencial ou à distância, a fim de analisar, agrupar e realizar uma discussão acerca
    dos FCS para cursos de graduação em Computação baseando-se nos dados coletados na
    aplicação de questionários para alunos dos cursos Licenciatura em Computação, Ciência
    da Computação, Engenharia de Computação, Sistemas de Informação da Universidade
    Federal Rural da Amazônia (UFRA) e da Universidade Federal do Pará (UFPA), ambas
    situadas na Região Amazônica, e assim apresentar uma proposta com novos FCS para
    cursos de graduação em Computação resultado da análise dos dados por meio da técnica
    da Análise Fatorial (AF), fornecendo subsídios que podem auxiliar na gestão de cursos
    pesquisados.

  • VITOR DE SOUZA CASTRO
  • Um Framework de Práticas Ágeis para apoiar a Implementação dos
    Processos de Construção da Solução constantes em Modelos de Qualidade
    de Software

  • Data: 09/09/2015
  • Mostrar Resumo
  • Qualidade de software é um tema recorrente nas organizações especializadas. No Brasil, a
    SOFTEX criou o programa MPS.BR, tendo como objetivo de impulsionar a qualidade do
    software brasileiro. Adicionalmente, visando maior agilidade nos processos, muitas
    organizações estão adotando práticas ágeis para apoiar a implementação deste programa de
    qualidade. Assim, este trabalho visa apresentar um framework de práticas ágeis, cujo objetivo
    é apoiar a implementação dos modelos de qualidade de software, em destaque para o processo
    de projeto e construção do produto (PCP) do MPS.BR e para a área de processo solução
    técnica do CMMI. O conjunto de práticas ágeis tem sua origem em diversas metodologias:
    eXtreme Programming, FDD, TDD e Crystal. Dentre as práticas e os métodos ágeis
    mencionados nesse trabalho, não há um que alcance na totalidade de todos os objetivos do
    processo de solução técnica e projeto e construção do produto, surgindo assim a necessidade
    do relacionamento entre as diversas práticas para atendimento desses objetivos. Para o
    alcance desses resultados foi necessário um estudo aprofundando do tema e por conseguinte o
    desenvolvimento do mapeamento e do framework relacionando as práticas ágeis aos objetivos
    do processo. Para a avaliação tanto do relacionamento entre as práticas ágeis com os objetivos
    do processo, quanto do framework de práticas ágeis foi utilizada a técnica da revisão por
    pares.

  • LUCAS DE MELO SILVA
  • UMA NOVA ARQUITETURA PARA COMPARTILHAMENTO E ARMAZENAMENTO SEGURO DE REGISTROS DE SAÚDE NA NUVEM UTILIZANDO ATRIBUTOS DE IDENTIDADE FEDERADA

  • Data: 31/08/2015
  • Mostrar Resumo
  • A computação em nuvem é um serviço tecnológico que se tornou tendência devido a sua facilidade e benefícios de utilização. Neste contexto, muitos são os serviços que podem compor a sua estrutura. Entre eles está o de armazenamento, que é muito útil em razão de grande quantidade de dados gerados nas mais variadas áreas do conhecimento. Neste sentido, o armazenamento de Registros Pessoais de Saúde (Personal Health Records - PHR) e dos Registos Eletrônicos de Saúde (Electronic Health Records - EHR) em nuvem torna-se essencial para uma melhor disponibilidade e provisionamento sob demanda, não apenas para os profissionais da saúde, como médicos e agentes de saúde, mas também para todos aqueles que necessitam acessar esses tipos de dados, como familiares e amigos. No entanto, esta tecnologia aumenta o risco de vazamento de dados sensíveis de saúde.
    Apesar de fornecer vários benefícios, a fragilidade da segurança da utilização de registros de saúde em nuvem é um fator que pode inviabilizar tal serviço em saúde eletrônica. Para que esse problema não impeça o armazenamento terceirizado de EHR e PHR, este trabalho apresenta uma nova arquitetura que faz proveito de federação de identidade para viabilizar armazenamento e compartilhamento seguros de registros de saúde no ambiente de nuvem.
    A arquitetura proposta utiliza criptografia baseada em atributos para garantir a segurança de registros. Para isso, o mecanismo faz uso de federação de identidade integrada ao protocolo criptográfico como parte do processo de controle de acesso e autenticação.

  • FELIPE LEITE DA SILVA
  • Caixas de Interesses: Um Novo Mecanismo para a Colaboração Através de Nuvens de Armazenamento de Dados.

  • Data: 28/08/2015
  • Mostrar Resumo
  • Os serviços baseados em computação em nuvem vêm sendo adotados cada vez mais por indivíduos e organizações que buscam obter recursos computacionais de forma simples e sob demanda. Os serviços de armazenamento de dados em nuvem, em particular, tornaram-se uma das principais tendências nesse contexto. Eles oferecem diversos benefícios aos usuários, como a alta disponibilidade e o acesso multidispositivo aos seus arquivos. Além desses benefícios, as nuvens de armazenamento de dados caracterizam-se por facilitar a colaboração entre seus usuários. O compartilhamento de dados é um dos principais recursos ofertados para promover tal colaboração.
    Embora o compartilhamento de dados em nuvens de armazenamento apresente benefícios, eles também limitam a colaboração entre os usuários, pois restringem o compartilhamento entre aqueles que já conhecem uns aos outros. Neste contexto, esta pesquisa apresenta uma proposta que objetiva mitigar esta limitação. A proposta, denominada de compartilhamento por caixas de interesses, consiste em um mecanismo que permite quaisquer usuários de um serviço de armazenamento de dados em nuvem compartilharem arquivos entre si desde que apresente potenciais interesse comum.
    Nesta pesquisa são apresentados dois cenários de aplicação assim como um protótipo do mecanismo proposto. Através deste protótipo, foram realizados testes de desempenho visando verificar quais aspectos do mecanismo interferem no tempo de sua execução.

  • EDINALDO JOÃO COSTA DE LA-ROQUE
  • Uma Nova Abordagem de Seleção de Célula e Handover para Redes LTE Heterogêneas: Critérios Adicionais Baseados em Estimativa de Capacidade e Velocidade de Usuário

  • Data: 27/08/2015
  • Mostrar Resumo
  • As redes heterogêneas Long Term Evolution (LTE) representam uma abordagem interessante para a crescente demanda por cobertura e qualidade de serviço (QoS) pelos usuários móveis. As células de baixa potência desempenham um papel importante no trato com esta demanda, proporcionando um meio para os usuários móveis superarem o problema da falta de recursos nas redes móveis, ou, quando estes recursos estão disponíveis, uma forma de evitarem sua má qualidade de serviço em determinados cenários. No entanto, os procedimentos de seleção de célula e handover encontrados no LTE Release 8 são ineficientes para cenários heterogêneos, uma vez que se baseiam apenas na potência do sinal de referência recebido (RSRP) e na qualidade do sinal de referência recebido (RSRQ). Nesta dissertação, é proposta a implementação de dois critérios adicionais como melhoria para os processos de seleção de célula e handover: estimativa de capacidade de estação base e velocidade média de locomoção do usuário. A partir dos resultados obtidos, o algoritmo proposto mostrou a vantagem de contribuir para eventuais “desafogamentos" da macrocélula, assim como para o balanceamento de carga de rede e a melhoria de QoS para o usuário.

  • LEONARDO POSSAMAI MEZZOMO
  • UM FRAMEWORK PARA AVALIAÇÃO E MELHORIA DO PROCESSO DE SOFTWARE ADERENTE AO CMMI, MR-MPS-SW E ISO/IEC 12207

  • Data: 21/08/2015
  • Mostrar Resumo
  • Hoje são recorrentes as iniciativas de avaliação e melhoria do processo de software pelas organizações com base nos modelos e norma de qualidade. Com isso, surge a necessidade de elaboração de material e instrumentos específicos que sirvam de apoio para a realização de avaliações e melhorias de processos, haja vista a complexidade envolvida nesses tipos de tarefa.

    Dentro desse contexto, esta dissertação apresenta uma proposta de mapeamento entre os modelos de referência MR-MPS-SW e CMMI-DEV em conformidade com os requisitos da norma ISO/IEC 12207, de forma a identificar as similaridades e as diferenças existentes entre eles. A partir do mapeamento, foi definida uma abordagem de avaliação e melhoria de processos de software que integrasse os modelos e norma de qualidade (aqui denominado de framework de avaliação e melhoria). Tal framework apoia a realização de uma avaliação e melhoria por meio de atividades que reflitam o mapeamento existente entre os resultados esperados do MR-MPS-SW, as práticas específicas do CMMI-DEV e as atividades/tarefas da norma ISO/IEC 12207, o que pode facilitar o acompanhamento e o atendimento aos requisitos de avaliação e melhoria de ambos os modelos e norma. Adicionalmente, são apresentados o módulo de avaliação integrado à ferramenta de definição de processos Spider-PM e a ferramenta de melhoria do processo Spider-PI, sendo ambas livres, que apoiam a avaliação e a melhoria dos processos de software, e que sistematizam o fluxo de atividades do framework.

    Esta pesquisa está inserida no contexto do Projeto SPIDER – Software Process Improvement: Development and Research.

  • PAULO ROBSON CAMPELO MALCHER
  • CATÁLOGO DE ABORDAGENS DE APOIO À RASTREABILIDADE DE REQUISITOS BASEADO EM UMA REVISÃO SISTEMÁTICA DA LITERATURA

  • Data: 16/07/2015
  • Mostrar Resumo
  • Rastreabilidade de Requisitos é uma atividade de grande importância no contexto da Gerência de Requisitos em Projetos de software e pode ser definida como a atividade que acompanha um requisito em todo seu ciclo de vida. Nesse sentido, diversas abordagens (técnicas, modelos de processos, frameworks de processo, ferramenta, metodologias e afins) de apoio a rastreabilidade encontram-se dispersas na literatura para que se possam atingir os níveis de produtividade e qualidade desejados. Neste contexto, este trabalho visa contribuir por meio de um catálogo de abordagens de apoio a atividade de rastreabilidade de requisito, que é um instrumento que reúne estas abordagens a fim de facilitar e ajudar organizações na sua escolha. Para alcançar tal resultado foi utilizado o método da Engenharia de Software Baseada em Evidências chamado Revisão Sistemática da Literatura, devido a este método ser confiável, rigoroso e auditável, tendo assim, como objetivo investigar na literatura tais abordagens e boas práticas de rastreabilidade de requisitos no contexto de projetos de software.

  • CARLOS GUSTAVO RESQUE DOS SANTOS
  • Descoberta, Navegação e Exploração de Pontos de Interesse com Dispositivos Móveis através de Múltiplas Visões

  • Data: 03/07/2015
  • Mostrar Resumo
  • O avanço tecnológico dos dispositivos móveis permitiu a entrada de tecnologias inovadoras no cotidiano dos usuários, através de sensores, câmeras e recursos computacionais cada vez mais robustos e miniaturizados. Essas tecnologias possibilitam ampliar a interação e percepção do usuário sobre lugares e objetos a sua volta, possibilitando, por exemplo, o uso da realidade aumentada. Entretanto, essa oportunidade apresenta novos desafios, tais como: aspectos de desenvolvimento de aplicações para esse novo contexto ubíquo dos dispositivos, heterogeneidade dos dispositivos móveis, e como o usuário interage com essas aplicações. Assim, o objetivo principal deste trabalho é apresentar uma proposta para descoberta, navegação e exploração de pontos de interesse através de múltiplas visões com dispositivos móveis. Pontos de Interesse são lugares ou objetos que o usuário pode conhecer e interagir, com informações além das disponíveis localmente. Para atingir tal objetivo, foi proposta uma arquitetura flexível para os dados, extensível para adição ou remoção de funcionalidades, e adaptável aos diferentes tamanhos de tela, sendo que a arquitetura proposta é uma adaptação o padrão arquitetural MVC. Também foi desenvolvida uma aplicação que utiliza a arquitetura proposta e possui as funcionalidades de mapa, navegador de realidade aumentada e leitor QR Code, que são visões coordenadas para descoberta, navegação e exploração de pontos de interesse, tanto para ambientes indoor quanto outdoor. Por fim, foram realizados testes de adequação da aplicação à arquitetura com três fontes de dados diferentes e dois tamanhos de telas diferentes; e testes de usabilidade para avaliar a experiência do usuário no uso da aplicação desenvolvida.

  • SAUL CAMPOS BERARDO
  • Aprendizado Ativo com Agrupamentos
    em Espaço de Características

  • Data: 19/06/2015
  • Mostrar Resumo
  • Há fortes evidências de que o córtex cerebral nos mamíferos é organizado de forma
    hierárquica e de que a percepção de conceitos complexos ocorre através da identificação
    e composição de conceitos mais simples. Esta organização cortical em camadas inspirou
    recentemente a criação de novos algoritmos de Aprendizado de Máquina, batizados coletivamente
    sob a alcunha de Deep Learning. Esses algoritmos foram responsáveis por
    grandes avanços na área nos últimos anos, permitindo a criação de sistemas de reconhecimento
    de fala e imagens, dentre outros, capazes de atingir em alguns benchmarks desempenho
    até mesmo superior a de seres humanos. Um problema grave das técnicas atuais é
    ainda a dependência de grandes quantidades de dados rotulados, que em muitos casos é
    de difícil obtenção. Além disso, deve-se considerar que seres humanos parecem ter pouca
    necessidade de um sinal supervisionado durante o processo de aprendizado. Portanto, é
    comum a crença de que para se desenvolver sistemas capazes de verdadeira inteligência
    artificial é preciso que sejam criadas novas técnicas de aprendizado não supervisionado,
    ou semi-supervisionado, minimizando a necessidade de dados rotulados. Neste trabalho,
    demonstra-se experimentalmente que algoritmos de aprendizado não supervisionado de
    características podem ser utilizados de forma hierárquica para converter dados de seus
    espaços originais para espaços de características, nos quais a comparação entre objetos é
    mais significativa e, portanto, algoritmos de agrupamentos, como o k-médias, são capazes
    de achar agrupamentos mais homogêneos. A partir dessa constatação, é proposta uma
    abordagem de aprendizado ativo (tipo de aprendizado semi-supervisionado na qual os rótulos
    são obtidos somente durante a execução do algoritmo através da interação com um
    agente externo), que obtém resultados no estado da arte no benchmark de reconhecimento
    de imagens MNIST.

  • LARISSA MONTEIRO PIMENTEL
  • Otimizações em Protocolos de Roteamento Beaconless para Transmissão de Vídeo ENFANET. 

  • Data: 08/05/2015
  • Mostrar Resumo
  • A experiência do usuario ao assistir vídeos em tempo real deve ser satisfatoria
    mesmo quando transmitidos por redes dinâqmicas sob influência de diferentes condições e
    mudancas topologicas, como as Flying Ad-Hoc Networks (FANETs). Servicos de roteamento
    para disseminação de vídeo atraves de FANETs devem ser capazes de adaptar as
    decisões de roteamento em tempo de execução para preencher os requisitos de Qualidade
    de Experiência (QoE) sem desperdcio de recursos durante a transmissão.
    Este trabalho de dissertação apresenta um protocolo de roteamento beaconless,
    oportunstico e adaptativo projetado para disseminação de vídeos em FANETs com suporte
    a QoE, levando em consideração multiplos tipos de informaçõees contextuais como
    qualidade do link, energia residual, estado do bu er, assim como informação geográfi ca
    e mobilidade em um espaco 3D. O protocolo proposto utiliza redes Bayseanas para de -
    nir os vetores peso em conjunto com a tecnica de tomadade decisões Analytic Hierarchy
    Process (AHP) para ajustar o grau de importância das informações contextuais com base
    em seus valores instantâneos. O protocolo tambem inclui um predicionamento de posição
    para monitorar a distância entre dois nos, escolhendo os que possuem a melhor conectividade
    para serem os transmissores, de forma a detectar possveis falhas de rota e prevenir
    a perda de dados.
    Para avaliação do desempenho da proposta, foram utilizados os dados coletados
    apos multiplas transmissões de vídeos em cenarios FANETs simulados. Metricas de QoE
    foram utilizadas para comparar a qualidade dos vídeos obtidos apos transmissão pelo
    CABR em comparação com os transmitidos por outros protocolos FANETs, de forma a
    provar a vantagem do CABR na entrega de vídeos com qualidade satisfatoria e superior
    ao usuario nal.

  • JOSÉ DE SOUSA RIBEIRO FILHO
  • Extração de Parâmetros de um Sintetizador por Formantes utilizando Redes Neurais e Algoritmos Genéticos.

  • Data: 27/02/2015
  • Mostrar Resumo
  • Sintetizadores de fala são softwares largamente utilizados em estudos relacionados à
    síntese de fala, como em problemas do tipo Text-To-Speech, onde são produzidos sinais de
    fala a partir de texto. Um problema similar, porém de natureza diferenciada, é a Utterance
    Copy (em português, ‘imitação da fala’) que consiste na realização do processo de reconstrução
    de um sinal de voz, tomando-se como base a própria voz original. Este processo é
    de alta complexidade, uma vez que sua metodologia é baseada na combinação dos parâmetros
    numéricos de um sintetizador de fala (por exemplo, HLSyn ou mesmo KLSYN88)
    de maneira que tais configurações representem adequadamente a fala alvo. Esta pesquisa
    consiste na proposta de três técnicas implementadas a partir dos frameworks Neural Speech
    Mimic (NSM) e High Level Speech processed by Genetic Algorithm (HLSpeechGA).
    A primeira proposta é o NSM, ferramenta baseada em redes neurais que tem como principal
    objetivo extrair aproximações do que vêm a ser os parâmetros do sintetizador de fala
    HLSyn. A segunda proposta é o HLSpeechGA, ferramenta fundamentada em algoritmo
    genético capaz de extrair parâmetros do sintetizador HLSyn a partir de otimização. Já a
    terceira proposta é a união dos dois frameworks, chamando-se assim NSM+HLSpeechGA,
    ou seja, uma abordagem mista. Nos estudos realizados nesta pesquisa são comparados resultados
    obtidos a partir das três propostas defendidas juntamente com resultados produzidos
    a partir do software WinSnoori, utilizado como baseline. De acordo com as figuras
    de mérito adotadas, o framework HLSpeechGA obteve desempenho superior ao baseline
    tanto em processos utilizando voz sintética como natural.

  • IGOR DA PENHA NATAL
  • Estratégia para Avaliação de Desempenho de Aplicações
    Multimídia em Redes LTE Utilizando Métricas de QoE

  • Data: 27/02/2015
  • Mostrar Resumo
  • Com o avanço das tecnologias de redes sem fio e a utilização maciça de dispositivos
    móveis o perfil de acesso dos usuários vem se modificando e migrando cada vez mais para
    acesso a aplicações multimídia. Com isso, as estruturas existentes não conseguem suprir
    tais necessidades. Em se tratando de redes móveis, muitos estudos estão relacionados à
    implantação de femtocells como uma forma de melhorar a capacidade e a qualidade dos
    sistemas. As mudanças no perfil do usuário causam grandes impactos negativos, muitas
    vezes com serviços não satisfatórios para os clientes. Antes da implantação de sistemas é
    recomendável proceder-se uma avaliação de desempenho do mesmo, para que possa ser
    analisado o comportamento e verificar se sua implantação pode ser satisfatória ou não.
    Muitas estratégias para avaliação de desempenho em redes utilizam apenas métricas de
    QoS (Quality of Service – Qualidade de Serviço) que não são eficientes para analisar a
    percepção do usuário final em relação as aplicações multimídias. Com isso, métricas de
    QoE (Quality of Experience – Qualidade de Experiência) estão sendo utilizadas para este
    tipo de avaliação. O presente trabalho apresenta uma estratégia de avaliação de
    desempenho de aplicações multimídia a partir de métricas de QoE, utilizando PSNR,
    SSIM e VQM. A estratégia foi validada com o uso de simulação discreta utilizando o NS-
    2 (Network Simulator - 2) a partir de dois cenários com femtocell e macrocell. Os
    resultados foram coletados a partir de amostras, utilizando-se de 5 a 30 usuários (variando
    de 5 em 5), em cada cenário e foram classificados utilizando a estratégia aqui proposta. A
    partir dos resultados apresentados na simulação, o cenário com política apresentou
    melhores resultados de QoE, a métrica que apresentou resultados mais significativos foi a
    VQM (Video Quality Metric) chegando a ser 1937% melhor do que no Macro/Femto,
    além disso todos os vídeos foram aprovados pela estratégia nesse cenário.

  • HERESSON JOÃO PAMPOLHA DE SIQUEIRA MENDES
  • UMA PROPOSTA DE METODOLOGIA PARA GERENCIAMENTO
    DE RISCOS EM PROJETOS DE SOFTWARE ADERENTE A
    MODELOS E NORMAS DE QUALIDADE DE PROCESSO DE
    SOFTWARE

  • Data: 06/02/2015
  • Mostrar Resumo
  • Projetos de software são atividades complexas que necessitam de um planejamento
    adequado, porém fatores inesperados podem ocorrer de modo que prejudiquem a
    execução das atividades conforme planejadas previamente. Para contornar esses eventos
    inesperados é necessário aplicar a gerência de riscos, que tem o objetivo de analisar a
    probabilidade e as consequências de cada um desses possíveis eventos, afim de evitar
    que se tornem um problema futuramente.
    Existem na literatura várias recomendações de boas práticas de gerenciamento de riscos
    que podem ser aplicadas em um projeto de software, porém ao adotar as recomendações
    de apenas um guia, uma organização pode deixar de aproveitar outras oportunidades
    para alcançar a eficácia na gerência de riscos.
    Neste contexto, este trabalho visa contribuir através de uma proposta de apoio à
    implementação da gerência de riscos em organizações que desenvolvem software, sendo
    composta por uma metodologia de processo e uma ferramenta para apoio à execução
    das tarefas sugeridas. Para alcançar tais resultados foi realizado um mapeamento entre
    os modelos MR-MPS-SW e CMMI-DEV, a norma ISO/IEC 12207, o guia PMBOK e o
    padrão internacional para gerenciamento de riscos ISO/IEC 16085, com o objetivo de
    identificar equivalências, agrupando-as em uma lista de boas práticas referenciadas em
    cada guia de qualidade envolvido.

2014
Descrição
  • JAIRO DE JESUS NASCIMENTO DA SILVA JUNIOR
  • Uma Arquitetura Orientada a Serviços para Visualização de Dados em Dispositivos Limitados.

  • Data: 31/10/2014
  • Mostrar Resumo
  • A evolução tecnológica dos smartphones e tablets, a grande quantidade de informações armazenadas eletronicamente, e a necessidade de tomada de decisão, individual ou colaborativa, em qualquer lugar e momento demandam a concepção e desenvolvimento de serviços para visualização desses dados. A Internet tem desempenhado um importante papel como rede de compartilhamento de conhecimento, e neste contexto tem surgido aplicações com arquiteturas orientadas a serviços (SOA) nos mais diversos campos de estudo. Assim, este trabalho tem como objetivo a concepção e desenvolvimento de um agregado de serviços que favoreçam a ubiquidade e pervasividade em aplicações de visualização de dados, permitindo que o usuário construa visualizações de dados sobre um determinado domínio de problema de maneira fácil e intuitiva. Com este tipo de serviço é possível construir aplicações de visualizações de dados em diferentes dispositivos inteligentes, tais como: smartphones, tablets, desktop, TV Digital e etc. Esta abstração é conseguida através de uma API Web que suporta as principais características de aplicações de visualização de informações em diferentes plataformas. O modelo arquitetural de comunicação utilizado na concepção do serviço foi o REST (REpresentational State Transfer), as aplicações cliente e servidora foram desenvolvidas na linguagem Java, e foi utilizado um motor de geração de visualizações de dados denominado PRISMA. Como cenário de uso, foi desenvolvida uma aplicação cliente Android para testar os serviços criados. Por fim, serão apresentados dados iniciais sobre testes de usabilidade realizados na aplicação desenvolvida.

  • MARCIA PRISCILA FURTADO PANTOJA
  • UM MÉTODO FUZZY PARA PROGRAMAÇÃO DE INSPEÇÕES EM TRANSFORMADORES BASEADO NA ANÁLISE DE GASES COMBUSTÍVEIS E PARÂMETROS FÍSICO-QUÍMICOS DO ÓLEO ISOLANTE

  • Data: 24/10/2014
  • Mostrar Resumo
  • Transformadores de potência que utilizam óleo para a isolação de suas partes internas necessitam de um programa de manutenção periódico que vise detectar possíveis falhas, tais como: deterioração da celulose do isolamento dos enrolamentos, curto circuito entre espiras, gases dissolvidos no óleo devido a sua degeneração, etc. Normalmente, programas de manutenção preventiva têm sido utilizados por empresas de geração, transmissão e distribuição de energia elétrica buscando evitar que estas falhas venham a provocar a retirada do equipamento do sistema elétrico, situação que implica em grandes perdas financeiras, seja pela diminuição do faturamento, pelo pagamento de multas à agência reguladora, além da diminuição da confiabilidade do sistema. Para evitar estes tipos de perdas, este trabalho apresenta uma proposta de solução, usando abordagem Fuzzy, para auxiliar o processo de programação de inspeções em transformadores de alta potência (500kv), por meio da análise dos gases dissolvidos no óleo isolante, obtidos pela técnica da cromatografia gasosa e da análise físico-química do óleo. Buscou-se produzir uma solução que combine os resultados dos métodos tradicionais já consolidados na literatura, com situações adicionais oriundas da análise físico-química do óleo e do conhecimento dos especialistas, de forma a aumentar a eficácia do procedimento de inspeção desses equipamentos. Com isso, qualquer Sistema Elétrico de Potência – SEP – que realiza diagnósticos em transformadores por meio da Norma NBR 7274, tende a obter  um diagnóstico mais preciso, em decorrência da associação da análise físico-química do óleo isolante com a cromatografia gasosa e o conhecimento tácito de especialistas da área, possibilitando a expansão da base de regras original da referida norma técnica. Todos os testes e a base de dados utilizada são oriundos de um laboratório de Química de várias subestações elétricas de uma concessionária de energia elétrica localizada em Barcarena – Pará – Brasil.

  • BENEDITO DE SOUZA RIBEIRO NETO
  • APLICAÇÃO DE SENSORES VIRTUAIS NA ESTIMAÇÃO DA CONCENTRAÇÃO DOS PARÂMETROS FÍSICO-QUÍMICOS E METAIS EM CORPOS D’ÁGUA DE RESERVATÓRIOS DE HIDRELÉTRICAS: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA

  • Data: 23/10/2014
  • Mostrar Resumo
  • Esta pesquisa apresenta a utilização de sensores virtuais na estimação da concentração dos parâmetros físico-químicos e metais no monitoramento da qualidade da água de reservatórios da Amazônia, por meio de redes neurais artificiais (RNA’s) e imagens de sensoriamento remoto. A análise fatorial das variáveis consideradas no estudo, confirmou o relacionamento da primeira faixa de profundidade do disco de Secchi, Ferro Total, PO4, P Total, TSS e Turbidez em um único fator, pois estes apresentam grande refletância e boa absorção de energia pelos sensores dos satélites. Estes elementos foram estimados por RNA’s, produzindo resultados bem próximos dos valores observados. Os testes de validação também confirmaram a boa aproximação para a primeira faixa de profundidade do disco de Secchi, Fe Total, STS e Turbidez do reservatório de água. No caso específico dos parâmetros PO4 e P Total, além do problema do pouco número de estações de coleta de dados disponíveis e a variabilidade inerente ao ciclo hidrológico da região, constatou-se, por meio da interpretação das imagens, falta de similaridades entre os dados utilizados no treinamento e na validação da RNA. De modo geral, o estudo demonstrou a eficácia da aplicação de sensores virtuais e imagens de satélite no monitoramento da qualidade da água de reservatórios na Amazônia, proporcionando uma alternativa com bom índice de precisão e menos dispendiosa de recursos no processo de monitoramento desse recurso.

  • MAXWEL MACEDO DIAS
  • MINERAÇÃO DE DADOS EDUCACIONAIS: RELATO DE
    EXPERIÊNCIA NO AMBIENTE VIRTUAL LABSQL

  • Data: 12/09/2014
  • Mostrar Resumo
  • Uma das tecnologias digitais mais utilizadas nas atuais práticas de educação online é o
    Ambiente Virtual de Aprendizagem (AVA). Os educadores utilizam estes ambientes para
    disponibilizar informações online, mas possuem pouco suporte para avaliar o aprendizado dos
    educandos a distância, de forma que, a ausência da percepção do educador quanto ao estado
    de compreensão de seus educandos pode levar ao insucesso de um curso online.
    A maioria dos AVAs armazenam grandes volumes de dados provenientes do histórico
    dos acessos aos recursos do sistema pelos educandos, suas avaliações, dentre outros. Nos
    últimos anos a Mineração de Dados Educacionais vem sendo utilizada para explorar os dados
    provenientes de ambientes educacionais, bem como entender melhor os educandos e o seu
    processo de ensino e aprendizagem.
    O objetivo deste trabalho é avaliar o aprendizado online a partir dos dados
    provenientes do ambiente virtual LabSQL, utilizado na Universidade Federal do Pará, por
    meio da Mineração de Dados Educacionais, com a aplicação de técnicas como Árvore de
    Decisão, Redes Bayesianas, Regras de Associação e Análise de Agrupamento.
    Os resultados obtidos mostraram-se eficientes para apoiar os educadores na avaliação
    das aprendizagens online, pois permitem analisar o perfil dos educandos em relação à
    utilização dessa tecnologia e ao processo de ensino-aprendizagem no ambiente LabSQL.
    Além disso, as regras geradas a partir da mineração de dados indicam como o educando pode
    aprimorar a aprendizagem utilizando melhor o ambiente.

  • LEOMARIO SILVA MACHADO
  • AVALIAÇÃO DE DESEMPENHO DE TÉCNICAS DE LOCALIZAÇÃO EM AMBIENTES REAIS APLICADAS A REDES DE SENSORES SEM FIO.
    Belém

  • Data: 26/05/2014
  • Mostrar Resumo
  • A localização em redes de sensores sem fio é um desafio que vai além do uso do popular GPS, com trabalhos diversos que visam aprimorá-lo ou mesmo substituí-lo. A localização pode ser realizada utilizando múltiplas antenas e seus respectivos ângulos, tempo e sincronização, diferencial de tempo entre envio de dois rádios diferentes ou mesmo com a potência do sinal.A partir destes padrões de estimativa, várias técnicas foram postuladas com objetivo de se utilizar dos recursos disponíveis para mensurar distâncias e estimar as coordenadas de um nó. Dentre estas técnicas pode-se citar como as mais importantes a Lateração, Nearest Neighbor, K-Nearest Neighbor, Min-Max, Non-Linear Regression, Iterative Non- Linear Regression, Sum-Dist, Dv-hop, Rede Neural Artificial, filtro de Kalman.
    Este trabalho conduz um conjunto de testes realizados em dois ambientes, sendo o primeiro indoor, e o segundo outdoor utilizando como hardware os módulos IRIS da MEMSIC para realização do experimento. Nestes testes são comparadas as técnicas Lateração, KNN e uma Rede Neural Artificial é proposta para o objetivo de estimar a localização de um nó da RSSF. São apresentadas as formulações matemáticas da Lateração e KNN, assim como a configuração da Rede Neural utilizada nos testes conduzidos neste trabalho. Os resultados são exibidos tomando o benchmark entre as técnicas para análise comparativa percentual entre as mesmas e para melhor análise quantitativa, os dados são Tabelados para visualização da precisão.

  • DANIEL LEAL SOUZA
  • Otimização por Multi-Enxame Evolucionário de Partículas Clássico e Quântico Competitivo sob a Arquitetura Paralela CUDA Aplicado em Problemas de Engenharia
  • Data: 23/05/2014
  • Mostrar Resumo
  • Este trabalho apresenta o desenvolvimento de um conjunto de metaheurística híbridas, baseadas na utilização das estratégias evolutivas em conjunto com os algoritmos de otimização por enxame de partículas clássica e quântica sob um ambiente multi-enxame com topologia mestre-escravos. Tais algoritmos são denominados Competitive Evolutionary Multi-Swarm Optimization (CEMSO) 1 e Competitive Quantum-Behaviour Evolutionary Multi-Swarm Optimization (CQEMSO) 2. Para efeito de comparação e validação dos resultados, são utilizados quatro problemas de engenharia presentes em diversas publicações científicas: Projeto de Viga de Aço (WBD); Peso da Tensão/Compressão sobre Mola (MWTCS); Projeto de Redutor de Velocidade (SRD); Projeto de Vaso de Pressão(DPV). Em relação a implementação, os algoritmos foram desenvolvidos sob a arquitetura CUDA, a qual proporciona um ambiente de computação paralela massiva que viabiliza uma distribuição de dados mais adequada em relação a organização dos enxames, além de contribuir para a diminuição significativa do tempo de processamento. Com a aplicação das estratégias evolutivas nos algoritmos PSO e QPSO, bem como os mecanismos de condições de contorno propostos, as soluções descritas neste documento oferecem diversas vantagens, onde se pode destacar melhorias na capacidade de busca, aumento na taxa de convergência e alto grau de paralelismo. Tais fatos são confirmados através dos dados obtidos (i.e. Tempo de execução, melhores soluções obtidas, média e variância de resultados) pelos algoritmos CEMSO e CQEMSO em relação as versões multi-enxame dos algorimos PSO (COMSO), EPSO (COEMSO) e COQMSO (QPSO), todos implementados e submetidos a análise de desempenho através dos experimentos com problemas de engenharia.
  • JEAN CARLOS AROUCHE FREIRE
  • APLICAÇÃO DE TÉCNICAS ESTATÍSTICAS E DE INTELIGÊNCIA COMPUTACIONAL NA CLASSIFICAÇÃO DE CICLOS HIDROLÓGICOS EM RESERVATÓRIOS DE ÁGUA NA REGIÃO AMAZÔNICA: UM ESTUDO DE CASO
  • Data: 09/05/2014
  • Mostrar Resumo
  • Este estudo avalia a qualidade da água do reservatório da Usina Hidrelétrica de Tucuruí de acordo com o ciclo hidrológico da região e da disposição espacial dos diferentes sítios de coleta distribuídos nas zonas à montante da barragem no período de 2009 a 2012 a partir da alteração de 17 parâmetros físico-químicos e de metais da água extraídos de seis fatores que representaram 71,01% de variabilidade total dos dados. Foi observado que as maiores variações do NO3, NH4, Total P, PO4 e STS ocorreram no período de enchentes, podendo ser uma indicação do estadotrófico nos sítios amostrais em decorrência da existência de pólos pesqueiros ou da densidade populacional no entorno desses sítios. Para classificação do ciclo hidrológico foram utilizados seis classificadores: análise discriminante, redes neurais artificiais, k-vizinhos mais próximo, máquinas de vetores de suporte com núcleo radial e polinominal, e random forest. Os resultados obtidos indicaram que o classificador random forest foi o que apresentou melhor desempenho com percentual de classificação de 7,80% de predições incorretas. Enquanto que o t-Student test indica que random forest e k-vizinhos mais próximo tem em média taxade predições incorretas iguais com índice de significância fixado em α = 5%.
  • EWELTON YOSHIO CHIBA YOSHIDOME
  • UMA ONTOLOGIA QUE ESTABELECE OS RELACIONAMENTOS DE DEPENDÊNCIA ENTRE AS PRÁTICAS DE GERÊNCIA DE REQUISITOS E GERÊNCIA DE PROJETOS CONSTANTES NOS MODELOS MR-MPS-SW E CMMI-DEV
  • Data: 16/04/2014
  • Mostrar Resumo
  • Os modelos e normas de qualidade software buscam propor um conjunto de boas práticas para auxiliarem as empresas desenvolvedoras de softwares na melhoria contínua de seu processo de desenvolvimento, possibilitando a criação de produtos de maior qualidade. Assim, em muitos casos, a empresa desenvolvedora de software precisa contratar consultores de implementação capacitados para apoiar na institucionalização das boas práticas recomendadas. Neste contexto, existe uma dificuldade por parte de empresas e consultores de implementação iniciantes no entendimento das práticas presentes nos modelos de qualidade, além de, principalmente, existir uma dificuldade em visualizar a forma como cada prática relaciona-se. Para sanar esse problema, uma ontologia pode ser utilizada. Uma ontologia é “um conjunto de termos ordenados hierarquicamente para descrever um domínio que pode ser usado como um esqueleto para uma base de conhecimentos”. Assim, esta pesquisa visa contribuir com uma proposta de uma ontologia que estabelece os relacionamentos de dependência entre as práticas presentes nos processos de gerência de projeto e gerência de requisitos. Para alcançar tal resultado esperado, necessitou-se de: (1) um estudo das práticas dos referidos processos sugeridos nos modelos MR-MPS-SW e CMMI-DEV, visando encontrar as dependências entre as práticas; (2) modelar a ontologia dos relacionamentos de dependência encontrados durante o estudo dos modelos em linguagem UML – Unified Modeling Language; (3) definir os axiomas da ontologia, com o objetivo de consolidar e restringir a semântica dos relacionamentos da modelagem; e (4) realizar uma pesquisa de campo em empresas com avaliações oficiais para coletar as evidências utilizadas para contemplar as práticas sugeridas nos modelos, com o objetivo de instanciá-las na ontologia para a sua avaliação.
  • ALEXANDRE MARCIO MELO DA SILVA
  • CONTROLE ENERGETICAMENTE EFICIENTE DE MÚLTIPLOS SALTOS PARA REDES DE SENSORES SEM FIO HETEROGÊNEAS UTILIZANDO LÓGICA FUZZY
  • Data: 21/03/2014
  • Mostrar Resumo
  • O presente trabalho objetiva demonstrarum controle centralizado para eleger Cluster Heads (CHs) mais adequados, admitindo trêsníveis de heterogeneidade e uma comunicação de múltiplos saltos entre Cluster Heads. O controle centralizado utiliza o algoritmo k-means, responsável pela divisão dos clusters e Lógica Fuzzy para eleição do Cluster Head e seleção da melhor rota de comunicação entre os eleitos.Os resultados indicam que a proposta apresentada oferece grandes vantagens comparado aos algoritmos anteriores de eleição, permitindo selecionar os nós mais adequados para líderes do grupo a cada round com base nos valores do Sistema Fuzzy, como também, a utilização da Lógica Fuzzy como ferramenta de decisão para implementação de múltiplos saltos entre CHs, uma vez que minimiza a dissipação de energia dos CHs selecionados mais afastados do ponto de coleta. A inserção de três níveis de heterogeneidade, correspondente aos sensores normais, avançados e super sensores, contribui consideravelmente para o aumento do período de estabilidade da rede. Outra grande contribuição obtida a partir dos resultados é a utilização de um controle central na estação base (EB) apresentando vantagens sobre o processamento local de informações em cada nó, processo este encontrado nos algoritmos tradicionais para eleição de CHs.A solução proposta comprovou que a eleição do CH mais eficiente, considerando sua localização e discrepâncias de níveis de energia, como também, na inclusão de novos níveis de heterogeneidade, permite aumentar o período de estabilidade da rede, ou seja, o período que a rede é totalmente funcional, aumentando consideravelmente o tempo de vida útil em Redes de Sensores Sem Fio (RSSF)heterogêneas.
  • RÔMULO SILVA PINHEIRO
  • REPOSDN: UM MÉTODO DE ORGANIZAÇÃO E COORDENACÃO DE APLICAÇÕES EM REPOSITÓRIO PARA REDES DEFINIDAS POR SOFTWARE
  • Data: 28/02/2014
  • Mostrar Resumo
  • A adoção do paradigma de Redes Definidas por Software por instituições acadêmicas e grandes empresas como Google, Cisco, HP, entre outras, já é uma realidade. Este paradigma é considerado uma solução para o novo modelo de Internet do Futuro devido a sua viabilidade técnica e econômica. O paradigma SDN permite novas perspectivas em termos de abstrações, ambientes de controle e de desenvolvimento de aplicações, livre das limitações de tecnologias atuais. Contudo ainda há carência na forma como ocorre o gerenciamento e controle de diversas aplicações existentes na Internet. A Programabilidade é uma das chaves para o sucesso do Paradigma de Redes Definidas por Software, pois permite a separação do plano de dados com o plano de controle. No entanto, no contexto deste paradigma, gerenciar a entrada e saída de diversas aplicações para os controladores é um problema pouco explorado, visto que as aplicações SDN, como as aplicações de roteamento, por exemplo, não ficam em um ambiente controlado e organizado. Nesta dissertação é proposto um método de organização e coordenação de repositório de aplicações para Redes Definidas por Software, chamado de RepoSDN, que especifica, modela e automatiza os processos necessários para que as aplicações cheguem até o administrador e este possa gerenciar suas utilizaçõies na rede, tornando-as simples, seguras e ágeis. O RepoSDN apresenta uma estrutura onde cada aplicação SDN é gerenciada dentro da rede até chegar aos controladores. Além disso, ele contém um repositório central, onde qualquer usuário pode enviar suas aplicações a fim de compartilhar com os administradores da Rede definida por Software, os quais utilizam aplicações específicas para a sua necessidade. Foi desenvolvido um protótipo do RepoSDN, o qual implementa as funcionalidades do repositório de aplicações e dos componentes criados para auxiliar na gerência das aplicações em uma rede programável. O método de organização e coordenação de aplicações em repositório para SDN auxilia o Administrador a manipular cada aplicação. A proposta foi validada por meio do desenvolvimento do repositório e realização de testes de desempenho no mesmo, que constituiu em fazer testes de carga nos componentes desenvolvidos. O objetivo dos componentes é tornar mais simples o método com que as aplicaçõies são inseridas nos diversos tipos de controladores das Redes Definidas por Software, tendo como resultado a comprovação da viabilidade, escalabilidade e exibilidade do RepoSDN.
  • OLAVO NYLANDER BRITO NETO
  • UMA ABORDAGEM METODOLÓGICA PARA IMPLEMENTAÇÃO MULTI-MODELOS DE TESTE DE SOFTWARE ADOTANDO O MPT.Br E O TMMi
  • Data: 20/01/2014
  • Mostrar Resumo
  • Ao longo dos anos modelos de qualidade de software e correlacionados tem surgido e ganhado cada vez mais espaço nas organizações desenvolvedoras de software. Esses modelos abrangem todo o processo de desenvolvimento ou áreas especificas do processo. Devido a área de teste qualificar o resultado dos produtos gerados com a redução de defeitos encontrados durante todo o desenvolvimento e ser uma área com pouco destaque durante este processo de desenvolvimento. Este trabalho apresenta uma metodologia de implementação multi-modelos do Processo de teste de software. Destacando uma abordagem utilizada para a criação de material de suporte na implementação multi-modelos aplicado aos modelos MPT.Br e TMMi, alinhado com os níveis de maturidade presentes nos modelos, enfatizando a metodologia e materiais gerados durante este processo. Adicionalmente, insumos foram gerados para facilitar o conhecimento da aderência aos modelos supracitados e facilitando a adaptação de organizações internacionais que pretendem conhecer a cultura de teste do Brasil.
  • ANDERSON SILVA DE OLIVEIRA GÓES
  • AMANAEDU: UMA NUVEM COMPUTACIONAL PARA APOIAR O ENSINO TÉCNICO E PROFISSIONALIZANTE NO ESTADO DO PARÁ
  • Data: 13/01/2014
  • Mostrar Resumo
  • Este trabalho apresenta uma estrutura de nuvem computacional chamada AMANAEDU. A mesma foi desenvolvida para ajudar a resolver alguns dos graves problemas da educação pública técnica e profissionalizante no estado do Pará. Muitos destes problemas envolvem fatores adversos ligados a questões geográficas e sociais. Uma análise do contexto nacional mostra o crescimento no uso da informática educativa nesta modalidade de ensino, evidenciado por bons resultados colhidos em programas de inclusão digital executados por governos estaduais, os quais encontram- se cada vez mais ligados à iniciativas de EAD. No Pará, o principal programa neste modelo é o NavegaPará, o qual teve sua infraestrutura aproveitada na execução do objeto desta pesquisa. A elaboração dos componentes desta nuvem foi baseada em referencial teórico e metodológico amplamente aceito pela comunidade acadêmica, utilizando- se de modelos como o Construtivismo e Instrucionismo. As melhores práticas de programação para computação em nuvem foram utilizadas nesta pesquisa. A camada de aplicação incorpora três portais utilizados para capacitações a distância e semi- presenciais: SEUTED para acesso centralizado a todos os Ambientes Virtuais de Aprendizagem (AVA) disponíveis na nuvem, PROTVEDU, o qual utiliza streaming multimídia para a transmissão de conteúdos de áudio e vídeo relacionados à educação e PROA, um portal usado como repositório de armazenamento para objetos de aprendizagem. Juntos, esses elementos podem servir de base para uma nova abordagem educacional que pode ser implementada em todos os níveis da educação técnica e profissionalizante.
2013
Descrição
  • JONATHAS PINHEIRO TRINDADE
  • NOVAS TÉCNICAS PARA ESTIMAÇÃO DOS PARÂMETROS DE SINTETIZADORES DE VOZ USANDO ALGORITMO GENÉTICO E PROCESSAMENTO DE SINAIS
  • Data: 17/12/2013
  • Mostrar Resumo
  • Os sintetizadores são o back-end dos sistemas texto-fala (ou TTS). Um problema relacionado porém diferente é o utterance copy (imitação da voz), o qual consiste em ter uma voz como entrada (ao invés de texto, como em sistemas TTS) e encontrar os parâmetros de configuração de um sintetizador, com o objetivo de gerar uma voz semelhante a voz alvo, mantendo características e identidade da voz. Utterance copy é considerado uma tarefa com alta complexidade devido a necessidade do ajuste simultâneo de vários parâmetros do sintetizador, os quais não possuem uma relação linear com o sinal de voz produzido Sintetizar a voz humana através do sintetizador Klatt também não é uma tarefa simples, devido a grande quantidade de combinações possíveis entre os seus 48 parâmetros formando um extenso espaço de busca. Além disso, alguns parâmetros são dependentes entre frames e o valor de um parâmetro em um frame pode influenciar na síntese dos frames subsequentes. Existem ferramentas que realizam essa tarefa, porém ainda tem limitações que influenciam na qualidade da voz gerada.Novas metodologias foram propostas como objetivo de melhorar os resultados obtidos pelo GASpeech, ferramenta que utiliza algoritmo genético como estratégia de estimação dos parâmetros de configuração do sintetizador KLSYN88. Com a utilização das novas técnicas conseguiu-se a redução do erro entre o sinal alvo e estimado e diminuição do tempo de processamento do framework.
  • ROMULO PINTO DE ALBUQUERQUE
  • FHDRA: UMA PROPOSTA PARA REDUÇÃO DA LATÊNCIA DE HANDOFF EM REDES SEM FIO DE MULTIPLOS SALTOS
  • Data: 21/11/2013
  • Mostrar Resumo
  • As redes sem fio se consolidaram como um dos principais meios de comunicação da atualidade e são uma alternativa viável de acesso a Internet para a última milha. Uma das suas principais linhas de pesquisa é o estudo da mobilidade. Sempre houve um expressivo esforço em prol de soluções de mobilidade para as redes sem fio mais tradicionais, tais como redes celulares e as redes IEEE 802.11. Outro tipo de rede sem fio que tem se destacado mais recentemente são as de múltiplos saltos. Porém a questão da mobilidade neste tipo de rede não é uma simples extensão das redes sem fio tradicionais. Por isso são necessárias soluções de mobilidade específicas que atendam aos requisitos das redes sem fio de múltiplos saltos. O DHCP, por exemplo, embora seja amplamente utilizado em redes sem fio, é um protocolo que foi projetado para redes cabeadas e portanto não atende adequadamente cenários de alta mobilidade onde os clientes móveis necessitam de rápida configuração e que mantenham suas conexões ativas após o handoff. Com o objetivo de minimizar a latência do processo de handoff em redes sem fio de múltiplos saltos, o presente trabalho propõe uma adaptação ao DHCP. A proposta intitulada FHDRA (Fast Handoff DHCP Relay Agent) adiciona inteligência ao agente DHCP relay, tornando-o capaz de acelerar o processo de aquisição de IP durante o handoff. Em testes realizados em uma rede sem fio de múltiplos saltos, a proposta FHDRA obteve um desempenho superior ao DHCP tradicional, demonstrando ser indicada para suportar aplicações com restrição de tempo.
  • CLAY PALMEIRA DA SILVA
  • Text2MARK: Uma ferramenta de mineração de textos para auxílio na representação do conhecimento
  • Data: 04/10/2013
  • Mostrar Resumo
  • Representar conhecimento no inicio do ano 2000 tornou-se um desafio devido ao grande volume de informações aos quais somos submetidos. Associar técnicas inteligentes tornou-se um método relevante, porém, ainda faltam estudos para tornar o processo mais simples para o usuário. Considerando o atual estado da arte dos etiquetadores de texto da área de processamento de linguagem natural (PLN), os quais apresentam alta acurácia na etiquetagem de sequências de palavras, o objetivo deste trabalho, chamado Text2MARK, é desenvolver uma ferramenta computacional que possa minerar de forma eficiente e sem complexidade textos livres em português, além de abranger a construção de regras gramaticais que foram denominadas predicados. Para isso foram utilizadas técnicas híbridas de mineração de textos associadas a predicados léxicos construídos com base na estrutura da gramática portuguesa. Além disso, foi desenvolvido um método automático de extração de palavras-chave em forma de tuplas para construção de mapas conceituais. As tuplas obtidas serviram como entrada na ferramenta CMapTools para representar conhecimento através de mapas conceituais. A proposta obteve como média 84,2% de tuplas que correspondiam à representação do texto analisado. Com base em trechos de textos extraídos de cinco artigos científicos distintos foram gerados cinco mapas conceituais. Os mapas foram submetidos à avaliação subjetiva de três grupos diferentes de usuários que atribuíram notas de 0 a 10 e obteve como média as notas 8,1, 8,1 e 8,3 respectivamente em termos de similaridade com o trecho do texto analisado. Os resultados comprovam que é possível utilizar tuplas em formatos NOME-VERBO-NOME para representar conhecimento através de sentenças gramaticais para construir mapas conceituais, ainda demonstra na avaliação subjetiva que textos elaborados com poucas contrações ou abreviações são mais fáceis de representar em forma de mapa.
  • CARLOS TAKESHI KUDO YASOJIMA
  • Uma solução fuzzy para geração de alertas de inspeção em transformadores de alta potência, a partir da análise das descargas parciais: um estudo de caso num SEP da Eletronorte-Eletrobrás
  • Data: 28/08/2013
  • Mostrar Resumo
  • As descargas parciais possuem informações úteis sobre a condição operacional do equipamento de onde são captadas. O estudo de descargas parciais vem sendo intensificado não somente na área acadêmica e divisões de pesquisa, como também em setores industriais, na busca de soluções não invasivas que Contribuam para a melhoria da eficácia operacional desses equipamentos. Dentro deste contexto, esta dissertação apresenta um estudo exploratório de descargas parciais em transformadores de potência a partir da aplicação de uma metodologia utilizando técnicas estatísticas e, com o conhecimento adquirido, propõe uma solução usando lógica fuzzy para a classificação do estado do transformador em diferentes situações operacionais. Através de variáveis ambientais e do sistema elétrico, foi possível identificar que a potência reativa de 230kV e o período do dia possuem forte relação com os potenciais das descargas parciais que ocorrem nos transformadores de potência. A obtenção deste conhecimento permitiu a construção da base de regras da solução fuzzy proposta, contribuindo para o processo de tomada de decisão dos especialistas da área no diagnóstico de transformadores na programação das manutenções preventivas nesses equipamentos.
  • YURI LIMA CAVALCANTE
  • APLICAÇÃO DAS TÉCNICAS ANÁLISE MULTIVARIADA E REDES NEURAIS ARTIFICIAIS NA CLASSIFICAÇÃO DAS ÁGUAS DE RESERVATÓRIOS DE HIDRELÉTRICAS: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA
  • Data: 31/05/2013
  • Mostrar Resumo
  • DE ACORDO COM O RELATÓRIO ENTREGUE NA SECRETÁRIA DO PPGCC

    Esta pesquisa apresenta uma metodologia para classificação de águas de reservatórios de hidrelétricas da Amazônia utilizando Análise Multivariada de Dados e Redes Neurais Artificiais (RNA). As amostras de água dos reservatórios das hidrelétricas de Coaracy Nunes e Tucuruí foram coletadas durante o período de Junho de 2008 à Setembro de 2009. Os parâmetros físico-químicos analisados foram: temperatura, condutividade, pH, turbidez, sólidos totais em suspensão, alcalinidade, amônia, demanda química de oxigênio, dureza e oxigênio dissolvido. Os metais analisados foram: Alumínio (Al), Bário (Ba), Cálcio (Ca), Ferro (Fe), Potássio (K), Magnésio (Mg), Manganês (Mn) e Sódio (Na). Para cada reservatório foi aplicada a Análise Fatorial para redução de variáveis. As variáveis constituintes dos fatores resultantes foram utilizadas como variáveis de entrada das RNAs propostas para classificar as amostras de água como pertencentes ao período seco ou chuvoso, a classificação resultante do uso das RNAs é comparada com os a classificação realizada pela Análise Discriminante. Os resultados obtidos demonstram que a combinação das técnicas estatísticas com Redes Neurais Artificiais pode ser utilizada para geração de soluções robustas em problemas de classificação, sendo estas aplicações estatísticas também relevantes em casos de gestão ambiental e política de tomada de decisão, para identificar quais fatores devem ser estudados e/ou modificados para recuperar corpos de água degradados ou contaminados.
  • LENA PATRICIA SOUZA RODRIGUES
  • Lógica Fuzzy e Transformada Wavelet Aplicadas no Processo de Captura e Interpretação de Termogramas de Para-Raios
  • Data: 26/04/2013
  • Mostrar Resumo
  • DE ACORDO COM O RELATÓRIO ENTREGUE NA SECRETÁRIA DO PPGCC

    Para-raios são utilizados com o intuito de minimizar danos causados por descargas elétricas, protegendo um sistema elétrico de potência contra surtos de tensão que podem causar interrupção no fornecimento de energia elétrica. Neste trabalho é apresentado um método para avaliar o processo de captura e interpretação de termogramas de para-raios de subestações elétricas da Eletronorte/Eletrobrás, localizadas na região Amazônica, Pará, Brasil, a partir de dados capturados com técnicas de Termovisão. Foi desenvolvida uma solução com lógica fuzzy para a predição da diferença média de temperatura. A solução proposta comprovou que algumas variáveis de domínios imprecisos, tais como: Radiação Solar, Distância e Brisa, observadas durante o processo de captura das imagens de para-raios podem influenciar nos diagnósticos gerados. Num segundo momento foi utilizada a transformada wavelet, que decompõe uma imagem em bandas de diferentes frequências, permitindo a detecção de objetos por meio da característica de suas frequências e da discriminação de ruídos. A transformada wavelet possibilitou observar o comportamento da temperatura ao longo do corpo dos para-raios de acordo com o aumento da escala, a partir da avaliação de pontos quentes (PQ) e pontos não quentes (PNQ) em termogramas de para-raios, o que permitiu a expressão visual do comportamento da temperatura ao longo do corpo do equipamento. A integração das duas técnicas, aliada ao conhecimento dos especialistas, possibilitou a construção da solução proposta, que obteve resultados bem próximos da realidade, podendo ser utilizada como suporte durante a análise de termogramas de para-raios de subestações elétricas.
  • VERONICA SOUZA LEAL SALIBA GOMES
  • ISOLAMENTO DE RECURSOS EM REDES DEFINIDAS POR SOFTWARE VIRTUALIZADAS BASEADAS EM OPENFLOW
  • Data: 24/04/2013
  • Mostrar Resumo
  • As redes de nidas por software vêm ganhando consideravel projeção no âmbito das comunidades de pesquisa para evolução da Internet, caracterizando-se pela defi nição de uma interface que permite a programação centralizada dos elementos da rede. No contexto de aplicação deste paradigma, o OpenFlow tem se destacado como uma importante solução, incluindo um padrão aberto que possibilita a utilização de equipamentos em redes comerciais e de pesquisa para experimentação de novas propostas, podendo aplicar uma camada de virtualizaação para execução de multiplos experimentos em paralelo sobre uma unica infraestrutura atraves da ferramenta FlowVisor. A solução habilita o compartilhamentode recursos de rede atraves da de finiçãoo de diferentes fatias de redes virtuais. Apesar de seu potencial, tal iniciativa ainda enfrenta alguns desa fios e limitações em sua arquitetura, dentre as quais a mais importante e a necessidade de novos metodos para garantir o isolamento real de recursos entre as diferentes fatias. Este trabalho apresenta uma proposta para o aperfeiçoamento das funções de isolamento do FlowVisor. Novos modulos foram desenvolvidos, permitindo a aplicaçãoo de mecanismos de controle de tráfego e gerenciamento de recursos entre as redes virtuais. Dentre as funcionalidades aplicadas inclui-se uma interface para programação de aspectos de QoS nas portas de dispositivos de rede, permitindo o controle da alocação de recursos diretamente pelo FlowVisor. Os resultados de experimentos realizados para validação da proposta demonstram que a solução e capaz de isolar as fatias, mitigando as interferências entre elas.
  • JNANE DE SOUSA NEIVA
  • UMA PROPOSTA DE FRAMEWORK DE AVALIAÇÃO DE PROCESSOS DE SOFTWARE ADERENTE AO MA-MPS E SCAMPI A
  • Data: 26/03/2013
  • Mostrar Resumo
  • Na atualidade são recorrentes as iniciativas de melhoria de processo software com a adoção de múltiplos modelos e, nesses casos, pode ser mais viável a realização de avaliações integradas (ou conjuntas). Com isso, surge a necessidade de elaboração de material e instrumentos específicos que sirvam de apoio para a realização de avaliações integradas de processos, haja vista a complexidade envolvida nessa modalidade de avaliação. Dentro desse contexto, a presente dissertação apresenta uma proposta de mapeamento entre os métodos de avaliação MA-MPS e SCAMPI A – em conformidade com os requisitos da norma ISO/IEC 15504-2 –, de forma a identificar as similaridades e diferenças existentes entre eles. A partir do mapeamento, foi definida uma abordagem de avaliação de processos de software que integra os métodos de avaliação MA-MPS e SCAMPI A (aqui denominado framework de avaliação integrada), propiciando que em uma mesma avaliação seja possível determinar o nível de maturidade e de capacidade nos modelos de referência MR-MPS-SW e CMMI-DEV. O framework de processo proposto pretende apoiar a realização de uma avaliação integrada por meio de atividades que reflitam o mapeamento existente entre as tarefas do MA-MPS e as atividades do SCAMPI A, o que pode facilitar o acompanhamento e o atendimento aos requisitos de avaliação de ambos os métodos de avaliação. Adicionalmente, é apresentada uma ferramenta livre de avaliação de processos de software que sistematiza o fluxo de atividades do framework. Esta pesquisa está inserida no contexto do Projeto SPIDER (Software Process Improvement: DEvelopment and Research), cujo objetivo é prover soluções ferramentais e metodológicas para apoiar a implementação da qualidade de processo de software em consonância com os principais padrões para melhoria de processo.
  • JOAO JULIO SALVATTI NETO
  • LEGACYFLOW: UMA PROPOSTA DE CONTROLE DE AMBIENTES DE REDES LEGADOS UTILIZANDO O PROTOCOLO OPENFLOW
  • Data: 28/02/2013
  • Mostrar Resumo
  • As Redes Definidas por Software (Software Defined Network - SDN) tornam possíveis a separação do plano de controle do plano de dados em equipamentos de rede, permitindo que diferentes fluxos experimentais e de produção compartilhem a mesma infraestrutura. O arcabouço Openflow é considerado pelos pesquisadores e profissionais da área a melhor solução para implantar redes baseadas neste novo paradigma. No entanto, atualmente, o uso do OpenFlow está em fase de padronização onde limita-se apenas a computadores com GNU/Linux e um número reduzido de roteadores e comutadores comercias. Nesse contexto, para habilitar o OpenFlow em um ambiente de produção, como por exemplo, em um campus universitário, toda infraestrutura de equipamentos legados deve ser substituída por equipamentos compatíveis com OpenFlow. Esta dissertação propõe um novo modelo de plano de dados para o OpenFlow, que integra os equipamentos legados à sua arquitetura. Este novo modelo, chamado LegacyFlow, interage com os equipamentos através de interfaces conhecidas, como o protocol SNMP (SimpleNetwork Management Protocol ), WebService ou a própria interface de linha de comando CLI) do comutador. Para validar a proposta foram feitos experimentos em um testbed real, que continha tanto equipamentos OpenFlow como equipamentos legados. Os resultados demonstram que o novo datapath desenvolvido funciona, permitindo que se possa usar tais comutadores (legados) juntamente com o protocolo OpenFlow para atender a necessidade de criação de circuítos virtuais.
  • AIRTON NOBUMASA ISHIMORI
  • QoSFlow: Controle Automático de Qualidade de Serviço em Redes OpenFlow
  • Data: 28/02/2013
  • Mostrar Resumo
  • O OpenFlow é um protocolo que habilita o uso do modelo das Redes Definidas por Sofware e possibilita que aplicações de rede possam orquestrar os equipamentos de comutação. Este protocolo torna a rede dinâmica e flexível para estabelecer rotas, criar circuitos e coletar informações de estado dos comutadores. Entretanto, controle de Qualidade de Serviço (QoS) é primitiva, pois o administrador da rede fica na dependência da ferramenta de linha comando do OpenFlow chamada dpctl. A falta de automação para realizar o controle de QoS não reduz a sobrecarga do custo operacional por parte do administrador, aumenta a instabilidade da rede devido a possíveis erros do operador, além de não permitir a configuração e atualização de parâmetros de QoS rapidamente. Além disso, o OpenFlow suporta somente escalonador de pacotes FIFO (First-In First-Out). Portanto, este trabalho apresenta a proposta QoSFlow, um arcabouço de software capaz de diferenciar tráfegos em múltiplas filas e controlar diferentes tipos de escalonadores de pacotes do kernel do Linux em alto nível de abstração, além de oferecer um conjunto de interfaces de programação de QoS. A avaliação dos resultados obtidos nos experimentos realizados com QoSFlow apresentaram-se satisfatórios, pois a proposta garantiu isolamento de largura de banda para fluxos TCP e UDP. Além disso, a utilização de diferentes tipos de escalonadores de pacotes, além do tradicional FIFO, apresentaram melhoria substancial no desempenho das aplicações, que se refletiram em ganho na Qualidade de Experiência (QoE).
  • GABRIELA FONSECA ANDRADE
  • UM ESTUDO DE CASO SOBRE A IMPLANTAÇÃO DE GERÊNCIA DE CONHECIMENTO EM UMA ORGANIZAÇÃO DE DESENVOLVIMENTO DE SOFTWARE
  • Data: 28/02/2013
  • Mostrar Resumo
  • Nas últimas décadas é notável a importância de novos modelos de gestão organizacional. Um aspecto comum aos novos modelos de gestão organizacional é o esforço das organizações em gerenciar o conhecimento organizacional, um recurso que até então não era reconhecido como um dos principais ativos da organização. Ao longo dos anos 90, um conjunto de práticas surgidas a partir destas novas formas de gestão foi denominado como Gerência do Conhecimento. O interesse em Gerência de Conhecimento também vem se consolidando em organizações de desenvolvimento de software como forma de estruturar e manter o grande volume de conhecimento gerado no decorrer do seu processo de desenvolvimento, transformando o conhecimento individual em conhecimento organizacional. Este trabalho apresenta os resultados de um estudo de caso realizado em uma organização de desenvolvimento de software que optou pela implantação da gerência de conhecimento. A unidade de análise estudada foi o processo de implantação, que engloba a definição da estratégia de Gestão do Conhecimento e sua execução, até o momento em que foi percebido que a Gerência de Conhecimento não estava mais sendo executada e, portanto, não trouxe os resultados esperados à organização. Por cerca de dois anos de estudo, várias fontes foram utilizados para evidências coletadas, tais como: entrevistas, imagens dos sistemas utilizados, documentos, observações diretas, observações participantes e dados quantitativos. A análise dos dados foi feita através do processo de agregação de categorias de forma a desenvolver uma descrição do caso chamada de Construção da Explanação. A análise teve por objetivo identificar quais pontos da estratégia de implantação adotada pela organização poderiam ser melhorados e também quais as possíveis soluções seriam mais adequadas para o contexto organizacional.
  • WALLACE MICHEL PINTO LIRA
  • UM FRAMEWORK DE APOIO À GERÊNCIA DE RECURSOS HUMANOS ADERENTE A PADRÕES DE QUALIDADE DE PROCESSO DE SOFTWARE
  • Data: 28/02/2013
  • Mostrar Resumo
  • A Gerência de Recursos Humanos foca na gerência do elemento mais importante e um dos mais imprevisíveis recursos em processos de software: as pessoas. É necessário, portanto, dar atenção especial a essa área da engenharia de software. Padrões de qualidade de processo de software corroboram com essa idéia, apresentando em seu escopo recomendações pertinentes à Gerência de Recursos Humanos. Assim, a Gerência de Recursos Humanos deve ser realizada ao longo de todo o ciclo produtivo para assegurar que os recursos humanos sejam monitorados e que seu desempenho permaneça alto. A monitoração constante pode permitir a adoção de medidas preventivas caso sejam detectados problemas que afetem a execução de atividades na organização. Neste contexto, este trabalho visa contribuir com uma proposta de apoio ao processo de Gerência de Recursos Humanos, por meio de um Framework de processo. Para atingir tais resultados, um mapeamento entre as recomendações de padrões de qualidade de processo de software foi realizado, visando identificar similaridades e diferenças entre eles. Posteriormente, este Framework foi detalhado utilizando os resultados de uma revisão sistemática da literatura conduzida no contexto deste trabalho. Os resultados obtidos fazem parte do projeto SPIDER, um suite de ferramentas de software livre para apoiar a implementação dos processos do MR-MPS-SW.
  • MAURO ALEXANDRE FOLHA GOMES COSTA
  • ENRIQUECENDO AMBIENTES REAIS COM VISUALIZAÇÃO DE INFORMAÇÃO E REALIDADE AUMENTADA ATRAVÉS DE DISPOSITIVOS MÓVEIS
  • Data: 28/02/2013
  • Mostrar Resumo
  • Este trabalho propõe a utilização de gráficos de visualização de informação em aplicações de Realidade Aumentada Móvel (MAR), com objetivo de proporcionar ao usuário maior quantidade de informações sensível ao contexto que esta inserido e de fácil entendimento para enriquecer ainda mais a experiência aumentada através do dispositivo móvel, agregando-se as mídias comumente utilizadas: imagem, texto e vídeo. Para este fim, foi projetada uma arquitetura cliente-servidor, incluindo os principais módulos e serviços necessários para oferecer uma experiência de utilização de gráficos de visualização de informações em aplicações de realidade aumentadas para dispositivos móveis. O estudo de caso apresenta uma aplicação que utiliza detecção e reconhecimento facial para apoiar o professor a buscar informações sobre o desempenho acadêmico de um determinado aluno de uma disciplina em sala de aula. Para isso, o lado cliente foi projetado com foco na apresentação e interação, voltado para o sistema operacional iOS6 e compatível com dispositivos iPhone e iPad, inclui detecção de faces e apresenta graficamente informações acadêmicas oriundas do servidor. O lado do servidor inclui reconhecimento facial usando OpenCV, e um motor de visualização denominado PRISMA.
  • HUGO SAWADA TODA
  • OP3NCONTROL: FRAMEWORK PARA GERÊNCIA E CONTROLE DE REDES OPENFLOW
  • Data: 28/02/2013
  • Mostrar Resumo
  • Redes Defi nidas por Software e OpenFlow apontam como alternativas para a potencialização dos ambientes experimentais (testbeds), estes que são necessários para a validação de resultados de pesquisas de novos protocolos e arquitetura de redes. Devido suas caractersticas de exibilidade e robustez, padrões SDN/OpenFlow também ganham atenção do mercado, em especial em ações relacionadas ao gerenciamento e controle de redes. Este trabalho apresenta o Op3nControl, uma proposta de framework para controle e gerência de redes OpenFlow, entre suas principais funcionalidades estão: (i) coleta de estatísticas dos elementos de rede em tempo real; (ii) modulo para desenvolvimento de algoritmos de encaminhamento; (iii) alocação de recursos, de forma dinâmica, através da criação de circuito virtual sobre a infraestrutura de redes; (iv) tratamento de QoS; e (v) integração de equipamentos de rede legados ao cenario OpenFlow. Com objetivo de avaliar a proposta, e realizada a implementação do Op3nControl, assim como é disponibilizado um testbed real, composto por equipamentos habilitados com OpenFlow. A aplicação implementada foi submetida a diversos cenarios de experimentação a fim de validar seus aspectos funcionais e de desempenho. Por fim, são apresentados os resultados que atestam baixos tempos de resposta das ações executadas pelo Op3nControl quando comparado a solução com características similares, os quais embasam sua disponibilização em ambientes de redes mais complexos, podendo, desta forma contribuir, de modo mais efetivo, tanto para fi ns de pesquisa acadêmica quanto para o mercado.
  • KARLA SUELY DINIZ DA COSTA
  • ANÁLISE DA IMPLANTAÇÃO DO PROGRAMA UM COMPUTADOR POR ALUNO NO ESTADO DO PARÁ
  • Data: 28/02/2013
  • Mostrar Resumo
  • O uso de tecnologias no ambiente escolar vem sendo discutido nos diversos meios educacionais, e, paralelamente a isto, os programas governamentais voltados à inserção da informática na educação. Dessa maneira, foram e ainda são muitas as expectativas quanto à inclusão de meios tecnológicos nos processos de ensino e de aprendizagem. Quanto a este aspecto, nas últimas décadas, algumas ideias pedagógicas têm caracterizado a inserção da tecnologia como um, ou único, dos meios pedagógicos a auxiliar o aluno na construção de seu conhecimento. No entanto, será que somente introduzir, na escola, programas governamentais e equipamentos bastam para o avanço da educação brasileira? Ou será que esses projetos estão efetivamente modificando a escola? Pesquisas apresentam diversos problemas que comprometem os projetos de inclusão digital e duas das dificuldades são equipamentos sem utilidade por falta de manutenção e precária estrutura do ambiente educacional. Diante disso, este trabalho apresenta a análise da implantação do PROUCA (Programa Um Computador por Aluno) no Estado do Pará. Esta pesquisa foi realizada, no ano de 2012, em seis escolas, localizadas em municípios diferentes: Abaetetuba, Belém, Faro, Itaituba, Limoeiro do Ajuru e Santarém. O estudo ocorreu por meio de entrevistas, questionário, observação em campo e participação em Seminários sobre o programa. Com isso, objetivou-se verificar a infraestrutura das escolas, as dificuldades técnicas de implantação do programa, a integração da política de uso do laptop com o programa curricular e as mudanças educacionais ocorridas com o programa. Pode-se deduzir do estudo a importância do programa para a inclusão da tecnologia na sala de aula, apesar dos impasses existentes observados, dentre estes destaca-se: a falta de infraestrutura, a formação dos professores ainda incompleta, a inexistência de inclusão digital das famílias e desenvolvimento de projetos pedagógicos para a inserção dos laptops no currículo escolar.
  • ROBERTO YURI DA SILVA FRANCO
  • PRISMA-MDE - Ambiente Distribuído e Escalável para múltiplas visões de dados coordenados
  • Data: 25/02/2013
  • Mostrar Resumo
  • Os sistemas de informação atuais têm produzido um grande volume de dados. O processo de análise visual dessas informações tem tomado mais tempo, tem apresentado dificuldades de interação com os dados e há informações não perceptíveis ao usuário em função da oclusão e agregação. A área de visualização da informação, e áreas relacionadas, tem buscado ao longo do tempo superar essas dificuldades, seja por evolução no hardware como aumento de espaço visual e poder de processamento, evoluções em software como melhoramento de técnicas e algoritmos, ou evolução de software mais hardware que garanta a escalabilidade de crescimento dos dados. Nesse contexto, essa dissertação objetiva minimizar os problemas encontrados na manipulação visual de grande quantidade de dados, propondo uma arquitetura escalável e distribuída para aplicações de visualização de informação com múltiplas visões coordenadas por meio do PRISMA-MDE. Os benefícios da arquitetura são: melhorar o poder de processamento para ferramentas de visualização, diminuir o tempo de renderização das técnicas de visualização, diminuir o problema de oclusão e agregação, entre outros. Serão apresentados testes de usabilidade, e testes comparativos de desempenho (tempo de renderização, uso da memória, carga de processador) com uma aplicação de visualização de informação em um único desktop.
  • DIOVANNI MORAES DE ARAUJO
  • Utilizando Técnicas de Visualização de Informação em Aplicações T-Commerce para Plataforma Brasileira
  • Data: 22/02/2013
  • Mostrar Resumo
  • Esta dissertação tem como objetivo a utilização de conceitos e técnicas de Visualização da Informação (InfoVis) como interfaces para aplicações interativas de TV Digital (TVDi). A InfoVis pode auxiliar na visualização, exploração, memorização, compreensão e análise de grandes estruturas abstratas de dados, tendo como consequência a diminuição da carga cognitiva do usuário em relação aos dados e a aplicação. As aplicações de TVDi que necessitam apresentar vários dados simultaneamente, como por exemplo, t-Commerce (comércio eletrônico para TVDi, que necessita disponibilizar vários produtos para venda e compra), podem se beneficiar da interatividade natural que as técnicas de InfoVis proporcionam. Desta forma, foi desenvolvida uma aplicação para middleware brasileiro Ginga, utilizando as linguagens NCL-Lua, aplicada na área de t-Commerce. A utilização de uma interface baseada em técnicas de InfoVis pode facilitar a busca e análise de produtos para comprá-lo. A técnica de InfoVis utilizada é a de coordenadas paralelas em função da sua característica de representação multidimensional. Testes iniciais de usabilidade foram aplicados à ferramenta desenvolvida.
  • GILBERTO NERINO DE SOUZA JUNIOR
  • Análise comportamental utilizando aprendizado de máquina para auxiliar o ensino da leitura e escrita aplicado em um jogo digital
  • Data: 22/02/2013
  • Mostrar Resumo
  • Diversas pesquisas possuem foco em características do aprendizado de máquina e sua aplicação em campos como a psicologia, educação e criação de jogos digitais. O programa de ensino de leitura e escrita “Aprendendo a Ler e Escrever em Pequenos Passos” (ALEPP) concebido por psicólogos da UFSCar é uma metodologia de ensino que tem por objetivo desenvolver o ensino individualizado. Alguns trabalhos geraram produtos informatizados dessa metodologia, porém, não utilizaram uma análise computacional do aprendizado do aluno a fim de prever e classificar características do aprendizado. Este trabalho é um estudo aplicado na área da psicologia experimental baseado no ALEPP com o objetivo de agregar uma máquina de aprendizado para prever o acerto ou erro de tarefas de ensino e classificar o aprendizado das palavras ensinadas a fim de analisar o comportamento do aluno, com ou sem histórico de fracasso. Para isso foi necessário identificar os fatores de dificuldade das tarefas de ensino e o tipo de problema de aprendizado de máquina a ser implementado. A técnica utilizada foi a regressão logística a fim de solucionar o problema de aprendizado supervisionado aliado com outros parâmetros estatísticos vindouros da base de dados. A máquina de aprendizado desenvolvida foi agregada a um jogo digital para tornar o ensino lúdico. As simulações dos comportamentos dos alunos obtiveram resultados satisfatórios de acordo com a avaliação dos especialistas. O jogo pretende auxiliar professores, pedagogos e psicólogos que trabalham com alunos no processo de aprendizado em fase de alfabetização além de abrir portas para futuros trabalhos como a geração de tarefas personalizadas.
  • MAURICIO RONNY DE ALMEIDA SOUZA
  • UM FRAMEWORK DE PROCESSO PARA GERÊNCIA DE PORTFÓLIO DE PROJETOS DE SOFTWARE COM BASE EM PADRÕES DE QUALIDADE
  • Data: 22/02/2013
  • Mostrar Resumo
  • A Gerência de Portfólio de Projetos é um processo que objetiva garantir a seleção e manutenção dos projetos que melhor favoreçam o alcance dos objetivos estratégicos organizacionais, de forma que os recursos sejam direcionados para as oportunidades de negócio que tragam maiores benefícios. É importante, então, a definição de um processo de gestão de portfólio bem estruturado baseado em boas práticas e recomendações, para que as organizações melhor usufruam das práticas deste. A crescente demanda pela gerência eficiente de portfólio de projetos pode ser observada pelo crescimento do número de padrões, modelos e normas que contém recomendações para o processo. Para a indústria de software não é diferente: a Norma ISO/IEC 12207 e o Modelo de Referência MPS para Software adicionaram e atualizaram o referido processo em suas últimas iterações. Neste contexto, este trabalho visa contribuir com uma proposta de apoio à definição de processos de gerência de portfólio de projetos, sob forma de um framework de processo. Para tal, foi realizado um mapeamento entre as recomendações do processo de Gerência de Portfólio de Projetos constante no modelo do MPS.BR, do processo de Gestão de Portfólio presente na Norma ISO/IEC 12207 e do Framework do Padrão para Gestão de Portfólio do PMI, visando identificar um conjunto de boas práticas, e, posteriormente, foi conduzido um estudo baseado em Revisão Sistemática da Literatura para identificar abordagens para apoiar a implementação destas boas práticas. Esta pesquisa está inserida no contexto do Projeto SPIDER – Software Process Improvement Development and Research.
  • PATRICIA MATIAS LOPES
  • UMA PESQUISA QUALITATIVA SOBRE CRITÉRIOS DE ALOCAÇÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE
  • Data: 21/02/2013
  • Mostrar Resumo
  • Uma das principais tarefas em um projeto de software é a alocação de pessoas para as atividades do projeto, sendo este fator determinante na qualidade e no sucesso do projeto. A atribuição de tarefas adequadas à capacidade de cada profissional é importante para que os níveis de produtividade e qualidade requeridos sejam atingidos. A alocação de pessoas com menos qualificações do que as exigidas pela atividade podem fazer com que esta seja concluída com atraso ou menor qualidade. A tarefa de alocação não é simples, existem diferentes combinações de alocação possíveis e fatores conflitantes a considerar. Porém, as pessoas que tomam as decisões costumam fazê-la de acordo com experiências pessoais, intuições, crenças e nas informações que têm disponíveis de forma que decisões cruciais são tomadas de forma ad hoc, baseadas em impressões e sem ligação com as melhores práticas, modelos e experiências. Apesar dos avanços, nota-se a escassez de propostas de apoio à alocação alinhada às práticas exercidas nas organizações, aproximando a solução proposta da realidade organizacional. No contexto de auxílio à tomada de decisão na alocação, este trabalho apresenta o desenvolvimento de uma pesquisa qualitativa sobre a alocação de pessoas. A pesquisa envolveu doze organizações de desenvolvimento de software, com o objetivo de identificar quais são os critérios considerados pelos Gerentes de Projetos para realizar a alocação, e a partir desses, elaborar uma base de políticas de instanciação de pessoas. Para atingir este objetivo a coleta de dados foi realizada por meio de entrevistas semiestruturadas, em seguida o Método de Comparação Constante foi utilizado para análise dos dados. Os principais resultados são a identificação de: (i) um conjunto de critérios de alocação organizados de acordo com os cenários em que ocorrem; (ii) as estratégias adotadas durante a alocação; e (iii) os fatores externos que podem influenciar no desenvolvimento do projeto. Estes resultados foram mapeados para políticas de instanciação de pessoas definidas no contexto do ambiente de gestão de processos denominado WebAPSEE.
  • ADALBERTO CAVALCANTE DE MELO
  • UMA ONTOLOGIA DE QUALIDADE DE EXPERIÊNCIA PARA APRIMORAR TRANSMISSÕES MULTIMÍDIA EM REDES IEEE 802.11
  • Data: 19/02/2013
  • Mostrar Resumo
  • Devido ao grande crescimento do consumo e producão de conteudo multimidia e a crescente utilização de redes sem fi o, faz da necessidade de manter a qualidade em transmissões de conteudo multimdia em rede sem fi o um grande desa fio. Neste contexto, a qualidade de servico (QoS) e qualidade de experiência (QoE) são fatores muito importantes a serem considerados. Mecanismos que visam garantir uma qualidade satisfatoria de experiência para aplicações com fluxos de vídeo são o foco de pesquisas tanto para academia quanto para a indústria. Entretanto, fatores como as condições da rede e as características do vídeo podem impactar na performance desses mecanismos. Portanto, este trabalho apresenta uma ontologia chamada NetQoEOnt, que possibilita o modelo de conhecimento necessário para que tais mecanismos possam ser auto-ajustáveis e sensíveis ao contexto das características do vídeo e das condições da rede. Além disso, também e apresentado um mecanismo de descarte de pacote, utilizado no gerenciamento de bu er, denominado DropQoEOnt. Este mecanismo e baseado na ontologia NetQoEOnt. Foram realizadas avaliações por meio de uma simulação da transmissão de fluxos de vídeo em redes padrão IEEE 802.11. As mediações QoE foram realizadas através dos resultados de três métricas objetivas de QoE (SSIM, VQM e PSNR). Os resultados mostram que a solução proposta reduz o impacto das condições da rede em fluxos de vídeo preservando a qualidade de experiência dos usuários e proporcionando um melhor gerenciamento dos recursos de rede sem fi o em períodos de congestionamento. Alem disso, também é mostrada as políticas de descarte de pacotes mais adaptativas as condições da rede e características do vídeo e que o grau de satisfação do usuário é maior com essa abordagem.
2012
Descrição
  • ADALBERTO BOSCO CASTRO PEREIRA
  • Um Sistema Fuzzy para Geração de Tarefas de Ensino de Leitura e Escrita em um Jogo Digital
  • Data: 20/12/2012
  • Mostrar Resumo
  • É tratado neste trabalho o desenvolvimento de um Sistema Fuzzy chamado de GTE para geração de tarefas de ensino adaptadas às necessidades individuais de crianças com dificuldade de aprendizado, auxiliando professores, pedagogos e psicólogos no ensino de alunos em processo de alfabetização. Um programa de ensino de leitura e escrita, desenvolvido e estudado por psicólogos a cerca de 20 anos na UFSCar, chamado ALEPP e uma versão computacional chamado GEIC, serviram de embasamento para construção do GTE. Tais metodologias de ensino visam um aprendizado adaptado às necessidades individuais de cada aluno. Percebendo esse forte apelo motivacional e lúdico em jogos digitais, foi proposto uma gamefication do GEIC, que se chama ALE-RPG. Porém este jogo contém os mesmos problemas da metodologia de ensino abordada no GEIC, e precisa fortemente da avaliação e intervenção do professor/psicólogo durante a execução do jogo. A execução do jogo terminará quando o sistema considerar que todas as palavras cadastradas no sistema forem aprendidas. Os testes com a geração das tarefas de ensino foram validados com questionários preenchidos por especialistas da área do ensino.
  • ADONIAS PINHEIRO PIRES
  • UM ALGORITMO TEMPORIZADO DE CLUSTERIZAÇÃO E ROTEAMENTO, COM EFICIÊNCIA ENERGETICA PARA REDES DE SENSORES SEM FIO
  • Data: 11/12/2012
  • Mostrar Resumo
  • A arquitetura de uma Rede de Sensores Sem Fio (RSSF) em clusters provê e ficiência energética para a rede. Entretanto, aspectos relacionados a eleição de cluster heads, formação de clusters e hot spot devem ser considerados no projeto de uma RSSF clusterizada. Esses aspectos se tornam problemas para a rede se não alinhados as premissas de e ficiência energética das RSSF. Diversos protocolos foram propostos com o objetivo de prover efi ciência energética para uma RSSF, porém não constituem soluções completas, ou seja, que considerem todos os aspectos inerentes a e ficiência energética em uma RSSF clusterizada. Nesse trabalho, é proposto um algoritmo denominado Algoritmo Temporizado de Clusterização e Roteamento (ATCR) que objetiva fornecer e ficiência energética para uma RSSF através de uma solução hibrida de clusterização e roteamento integrados com mecanismos de construção de clusters desiguais e otimização multicriterio utilizando lógica fuzzy. Modelos de simulação foram construídos com o objetivo de avaliar o desempenho do ATCR e os resultados demonstraram que o ATCR possui mais e ficiência energética que os demais protocolos, sendo adequado para implantações de RSSF densas e de larga escala.
  • LUCELIA PEREIRA GONCALVES
  • APOIO AO CONTROLE ESTATÍSTICO DE PROCESSOS DE SOFTWARE INTEGRADO A UM ADS
  • Data: 10/12/2012
  • Mostrar Resumo
  • Cada vez mais as organizações de software estão procurando melhorar os seus processos de desenvolvimento com o intuito de alcançar os objetivos de negócio estabelecido, aumentar suas perspectivas de mercado, e entregar melhores produtos. Uma das práticas utilizadas para apoio à descoberta de pontos de melhoria no processo é a medição. Através dela é possível coletar medidas de projetos da organização e realizar uma análise e comparação de medidas reais e planejadas, que não são muito eficientes para auxiliar na determinação do desempenho de processos ou mesmo na predição destes. Já que, somente a análise comparativa de pontos isolados em um gráfico não é o bastante para identificar problemas reais, é necessário avaliar a variação do processo durante um período. Para esse tipo de análise pode-se utilizar o controle estatístico de processo (CEP), que vem sendo adotado por organizações de desenvolvimento de software para gerenciamento, predição, controle e melhoria de forma contínua de seus processos. Modelos de maturidade, tais como CMMI-DEV e MR-MPS-SW, indicam que o CEP seja realizado nos níveis mais altos de maturidade. Muitas organizações sentem dificuldade na aplicação desses processos, devido: à falta de procedimentos para realização das atividades relacionadas; e à falta de ferramentas de software adequadas para a realização das atividades. Dessa forma, sem apoio ferramental adequado e um processo que sirva de arcabouço para a realização do CEP, a sua implantação torna-se bastante onerosa e passível de erros. Visando auxiliar na execução do CEP, este trabalho apresenta um processo-padrão que descreve as atividades e procedimentos necessários para implementação do processo de CEP. Além disso, apresenta uma ferramenta que visa apoiar as organizações na execução das atividades do CEP, provendo funcionalidades para: planejamento da medição, coleta dos dados, análise da variabilidade dos processos controlados (através de gráficos de controle), apoio ao estabelecimento de baselines de desempenho, e descoberta de causas, registro e acompanhamento de ações de melhoria no processo. Essa ferramenta está integrada a um Ambiente de Desenvolvimento de Software (ADS) chamado WebAPSEE.
  • SUELENE DE JESUS DO CARMO CORREA
  • MODELO NEURO-FUZZY ADAPTATIVO PARA AVALIAÇÃO DE COMPETITIVIDADE DE CADEIAS PRODUTIVAS: UM ESTUDO DA CADEIA PRODUTIVA DE FRANGO DE CORTE NO BRASIL
  • Data: 09/11/2012
  • Mostrar Resumo
  • Esse novo tempo de economia globalizada e de mudanças tecnológicas, com celeridade nunca experimentado pela sociedade, tem resultado num acirramento mundial da concorrência, levando preocupação às organizações em obter e manter vantagens competitivas, visando liderança no mercado. Para resolver esse problema busca-se o auxílio das tecnologias de computação, que podem promover facilidade e rapidez no processo de tomada de decisão diante das incertezas do mercado. Este trabalho apresenta uma proposta de solução para avaliação de competitividade de cadeias produtivas por meio de um sistema Neuro-Fuzzy Adaptativo. Para validar o método, utilizou-se como caso de estudo a cadeia produtiva de frango de corte no Brasil. Os testes de validação mostraram resultados satisfatórios, quando comparados com outra técnica muito utilizada no mercado.
  • WALERIA DE MELO MAGALHAES
  • ANÁLISE DO PROGRAMA DE INCLUSÃO DIGITAL NAVEGAPARÁ EM ESCOLAS DA REDE ESTADUAL DO MUNICÍPIO DE BELÉM
  • Data: 28/09/2012
  • Mostrar Resumo
  • O presente trabalho apresenta um estudo sobre o programa Estadual de inclusão digital, Navegapará, particularmente nos seus componentes educacionais, analisando infocentros nas escolas do município de Belém. Para tanto, foram selecionadas 26 escolas do município nas quais foram realizadas entrevistas semiabertas com professores de laboratório e foram aplicados, também, um questionário para melhor caracterizar a amostra de escolas visitadas. Os resultados são apresentados respeitando as seis seções propostas no questionário: i) o perfil da escola busca sistematizar as principais características das escolas pesquisadas; ii) o perfil do responsável pelo laboratório de informática objetiva analisar a adequação dos aspectos de formação e condições de trabalho do responsável pelo laboratório ; iii) o laboratório de informática reúne dados e observações sobre a infraestrutura deste espaço; iv) o uso do laboratório de informática, que diferentemente do item anterior, procurar sintetizar os resultados sobre o dia-a-dia do laboratório, suas dificuldades e como este espaço vem sendo apropriado por professores e estudantes; v) a seção referente à informática educativa na escola apresenta a opinião dos professores com relação aos benefícios que a informática traz para o aprendizado dos estudantes e como ela vem sendo desenvolvida na escola; e vi) o item Navegapará na escola, o qual expõe dados e relatos sobre o que mudou (ou não) na escola com a implementação do programa. Como conclusão é feita uma breve análise dos dados obtidos e observa-se o potencial do programa e alguns pontos que precisam ser revistos, tais como proporcionar boa formação aos professores, e equipamentos em bom estado de conservação/manutenção, dentre outros pontos, fundamentais para que para que aja um bom desenvolvimento da inclusão digital e da informática educativa dentro da escola.
  • ANDRE LUIZ DA SILVA KAUER
  • Utilizando Múltiplas Análises Visuais e Interativas de Dados para Continuidade de Transações Eletrônicas
  • Data: 21/09/2012
  • Mostrar Resumo
  • Conhecer melhor os clientes de uma empresa e suas atividades permite oferecer serviços mais adequados e aumentar a fidelização dos seus clientes, possibilitando oportunidades de negócio para o crescimento da empresa. Uma das maneiras de aprender mais sobre o comportamento dos clientes é através da análise dos históricos de transações realizadas, com informações sobre os tipos de operações, tempo médio das operações, operações não autorizadas, operações iniciadas e não finalizadas, etc. Dentre as operações iniciadas e não finalizadas, há aquelas motivadas por falta de recursos computacionais. Neste universo é importante analisar se o comportamento interno da empresa, para uso dos serviços de Internet, por exemplo, esta possibilitando uma competição de recursos disponíveis para as transações eletrônicas. Como estudo de caso, foi utilizando a ferramenta de visualização PRISMA para análise de dados de transações eletrônicas e de redes. A ferramenta PRISMA é extensível, desenvolvida em Java, e possibilita a visualização de múltiplas visões de dados coordenadas. Foram realizadas melhoriasna ferramenta PRISMA quanto a técnica de coordenadas paralelas e adicionada a técnica heatmap, somadas as técnicas de dispersão de dados, treemap e outras visualizações mais comuns já existentes.
  • TACIO VINICIUS BERNARDES RIBEIRO
  • UM ESTUDO DE CASO NA AVALIAÇÃO AUTOMÁTICA DE QUESTÕES DISCURSIVAS COM ANALISE SEMÂNTICA LATENTE
  • Data: 21/09/2012
  • Mostrar Resumo
  • Este trabalho apresenta um estudo de caso de avaliação automática de questões discursivas (ensaios) baseada na técnica LSA (Latent Semantic Analysis ou Análise Semântica Latente), bem como uma ferramenta que apoia o ajuste automático de parâmetros para este domínio do problema. Nesta abordagem foram consideradas técnicas de pré-processamento (retirada de stop words e aplicação de stemming) em combinação com a técnica de n-gramas (unigramas e bigramas); função peso (ponderação); dimensão do espaço reduzido e medida de similaridade. Esse estudo de caso envolveu as provas das disciplinas de biologia e geografia do processo seletivo vestibular da Universidade Federal do Pará (UFPA) ocorrido em 2008, onde foi feita a comparação entre as notas calculadas automaticamente pela ferramenta e as notas atribuídas pelos avaliadores humanos durante o processo de correção do vestibular. Os melhores resultados alcançados nessa comparação foram os da disciplina de geografia com uma acurácia de 86,89% usando as seguintes técnicas: unigramas sem nenhuma técnica de processamento; redução ao espaço semântico de 3 dimensões; ponderação local binária; e a correlação de Pearson como similaridade. Destacam-se também os melhores resultados da disciplina biologia onde se alcançou uma acurácia 84,77% com a utilização das seguintes técnicas: bigramas com a técnica de remoção de stop words; redução do espaço semântico a dimensões 6; ponderação local da norma euclidiana dividida pela soma dos componentes; e o cosseno como medida de similaridade.
  • RENAN CRISTIANO ROCHA RODRIGUES
  • WEBCMTOOL: AMBIENTE WEB PARA FACILITAR A AVALIAÇÃO DA APRENDIZAGEM SIGNIFICATIVA, BASEADO EM MAPAS CONCEITUAIS E ONTOLOGIAS DE DOMÍNIO
  • Data: 05/09/2012
  • Mostrar Resumo
  • Este trabalho apresenta o WebCMTool, que é um ambiente Web que visa facilitar a avaliação da Aprendizagem Significativa baseado em Mapas Conceituais (MCs) e Ontologias de Domínio, através da inclusão de um Algoritmo Genético na ferramenta de edição de Mapas Conceituais incorporado ao ambiente, que possibilita a diminuição da sobrecarga de trabalho do professor na tarefa de avaliação. Após esta tarefa é gerado um relatório detalhado para o aluno sobre sua avaliação auxiliando-o na valorização de sua Idiossincrasia ao aprender. A avaliação automática é realizada por meio de um processo computacional que recebe três insumos de entrada: o mapa do aluno, a ontologia do professor e uma taxonomia de frases de ligação. Durante o processo de avaliação são geradas populações de MCs, de modo que cada mapa contém um valor de adaptação que lhe é característico. Os MCs com valor de adaptação maior ou igual à média da população são escolhidos para dar continuidade ao processo de avaliação. A continuidade ocorre porque esses MCs são utilizados como pais em operações de cruzamentos para a geração de descendentes. Este processo ocorre até que os mapas gerados por descendências futuras possuam um valor de adaptação ótima. Quando isto ocorre, esses mapas resultantes da avaliação são utilizados para análise e compreensão de resultados pelo aluno por meio de um relatório que verifica o valor atribuído às proposições de seu mapa, verifica também a nota em percentual que valida cada proposição considerada correta e o resultado de seu desempenho no mapa. Um protótipo do ambiente foi aplicado e testado num curso de Programação em uma Universidade.
  • FRANCY SANTOS FERNANDES
  • Participação de idosos em cursos de informática em Belém - Pará: expectativas e realizações
  • Data: 31/08/2012
  • Mostrar Resumo
  • As projeções populacionais indicam que em 2050 os idosos serão um quinto da população mundial. O crescente e rápido aumento do envelhecimento da população é um fenômeno recente na sociedade brasileira, também é característica da sociedade atual a dependência cada vez maior da tecnologia para atividades cotidianas. Não compreender, não saber usar e / ou não ter acesso a tais recursos consistem em uma barreira aos meios de comunicação contemporâneos como a internet o que nos leva a pensar na necessidade urgente de organização social para suportar as demandas de uma sociedade cada vez mais envelhecida. Nesse contexto, as Tecnologias de Informação e Comunicação (TIC) podem funcionar como instrumento para promover a maior comunicação, conservação da autonomia e bem-estar dos indivíduos idosos. Este trabalho apresenta os resultados de uma pesquisa sobre em que condições ocorrem a aprendizagem para inclusão digital dos idosos em Belém - PA. O estudo é quanti-qualitativo, descritivo e não probabilística. Trata-se de dados levantados com 101 pessoas com idade de 60 a 80 anos, de ambos os sexos, que participam ou participaram de cursos de informática em quatro entidades (iniciativas privadas e pública) em Belém, não diferenciando os que são exclusivos para idosos e os com turmas mistas. Utilizamos as técnicas de pesquisa bibliográfica, questionário estruturado e pesquisa de campo. Para análise dos dados tabulamos as respostas das perguntas fechadas e usamos a análise do conteúdo para categorizar as respostas das perguntas abertas. O trabalho apresenta as dificuldades e ganhos dessas pessoas na trajetória para manter-se atualizadas em um mundo cercado de aparatos tecnológicos com frequentes e aceleradas mudanças. Os resultados mostram que na percepção dos participantes, aprender coisas novas e ter acesso a informações disponibilizadas na internet proporciona-lhes uma ampliação de sua visão do mundo, e da cultura contemporânea, melhorando a consciência da sua condição na sociedade e possibilita manifestações de cunho político e cidadania. Entre os problemas destacamos a dificuldade em encontrar cursos de informática direcionados para essa faixa etária. Existe o discurso da necessidade da inclusão digital dos idosos, mas o que se tem é a ausência de ações para que isso aconteça. Constatamos que são poucos os cursos de informática voltados aos mais velhos, estes atingem um público de maior poder aquisitivo e oferecem poucas vagas. Não existe nenhum subsídio público para aquisição de equipamentos, ações que possibilitem melhorar a conectividade em ambientes mais carentes, auxílio aos idosos mais necessitados para superarem as barreiras da exclusão digital. De sua origem militar até os dias de hoje, muitos desafios foram superados, atualmente o grande desafio é tornar a internet cada vez mais acessível para ser um elemento facilitador na vida de todos, incluído a população idosa, principalmente aqueles de baixa renda. Cabe aos governos e sociedade em geral democratizar os meios de acesso e educação para que todos possam usufruir dos benefícios dessa ferramenta de informação e comunicação contemporânea.
  • JAKELYNE MACHADO LIMA
  • ALGORITMO DE ESCALONAMENTO DE GRADES COMPUTACIONAIS
    PARA MINIMIZAR O PROCESSAMENTO CENTRALIZADO NA
    MONTAGEM DE GENOMAS BACTERIANOS OBTIDOS POR
    SEQUENCIAMENTO DE DNA DE NOVA GERAÇÃO (NGS).

    ALGORITMO DE ESCALONAMENTO DE GRADES COMPUTACIONAISPARA MINIMIZAR O PROCESSAMENTO CENTRALIZADO NAMONTAGEM DE GENOMAS BACTERIANOS OBTIDOS PORSEQUENCIAMENTO DE DNA DE NOVA GERAÇÃO (NGS).

  • Data: 24/08/2012
  • Mostrar Resumo
  • Com o avanço das técnicas de sequenciamento do genoma, um grande volume
    de dados passou a ser gerado e, em decorrência desses avanços, vários desafios
    computacionais começaram a surgir, dentre eles a disponibilização de novos softwares
    distribuídos e adequados para a manipulação de uma grande quantidade de dados
    genômicos, além do armazenamento, disponibilização e gerenciamento desses dados.
    No contexto do mapeamento do DNA é possível identificar que a etapa de montagem, é
    considerada como um dos pontos que exige a utilização de um grande poder
    computacional, pois nesta etapa utiliza-se grande quantidade de dados e a utilização de
    softwares específicos para concluir o processo é de extrema importância. Sem a
    utilização de softwares específicos o processo, como um todo, acaba sendo afetado pela
    demora e pela grande centralização de dados. O presente trabalho tem como principal
    objetivo propor o algoritmo de escalonamento scheduler desenvolvido para otimizar a
    utilização do software de montagem ABySS, para uso no contexto de grades
    computacionais, objetivando minimizar o tempo e a centralização dos dados na etapa de
    reconstrução do genoma. Os testes com o software distribuído ABySS e com o
    escalonador sheduler foram realizados no simulador SimGrid, que gera simulações de
    aplicações distribuídas em ambientes heterogêneos para verificar a viabilidade,
    flexibilidade e escalabilidade para o processo de montagem com dados de
    corynebacterium de mapeamentos já realizados pela Universidade Federal do Pará.

    Com o avanço das técnicas de sequenciamento do genoma, um grande volumede dados passou a ser gerado e, em decorrência desses avanços, vários desafioscomputacionais começaram a surgir, dentre eles a disponibilização de novos softwaresdistribuídos e adequados para a manipulação de uma grande quantidade de dadosgenômicos, além do armazenamento, disponibilização e gerenciamento desses dados.No contexto do mapeamento do DNA é possível identificar que a etapa de montagem, éconsiderada como um dos pontos que exige a utilização de um grande podercomputacional, pois nesta etapa utiliza-se grande quantidade de dados e a utilização desoftwares específicos para concluir o processo é de extrema importância. Sem autilização de softwares específicos o processo, como um todo, acaba sendo afetado pelademora e pela grande centralização de dados. O presente trabalho tem como principalobjetivo propor o algoritmo de escalonamento scheduler desenvolvido para otimizar autilização do software de montagem ABySS, para uso no contexto de gradescomputacionais, objetivando minimizar o tempo e a centralização dos dados na etapa dereconstrução do genoma. Os testes com o software distribuído ABySS e com oescalonador sheduler foram realizados no simulador SimGrid, que gera simulações deaplicações distribuídas em ambientes heterogêneos para verificar a viabilidade,flexibilidade e escalabilidade para o processo de montagem com dados decorynebacterium de mapeamentos já realizados pela Universidade Federal do Pará.

  • CINTHYA HIROMI SEKO DE OLIVEIRA
  • ESTUDO DA ALOCAÇÃO DE PESSOAS EM PROJETOS DE SOFTWARE ATRAVÉS DA TEORIA FUNDAMENTADA EM DADOS
  • Data: 22/08/2012
  • Mostrar Resumo
  • A alocação de pessoas a um projeto de software é uma atividade de extrema importância no desenvolvimento de software, pois são as pessoas que determinam a qualidade e o sucesso de um projeto. Entretanto, apesar de sua importância, pouco se conhece sobre como alocar pessoas a projetos de forma apropriada. Os gerentes projetos de software geralmente baseiam esse processo em suas experiências, conhecimentos heurísticos e percepções subjetivas. Este trabalho apresenta os resultados de um estudo de caso conduzido em uma organização onde se realizam alocações de pessoas em projetos de diferentes portes e envolvendo situações distintas. O estudo foi conduzido utilizando entrevistas semiestruturadas e a análise dos dados foi realizada utilizando técnicas da Teoria Fundamentada em Dados. Os resultados deste estudo sugerem critérios para a alocação de pessoas juntamente com os seus níveis de importância. O resultado mais importante foi descobrir a importância da negociação durante o processo de alocação de pessoas. Estes resultados poderão ser adotados em outras empresas, assim auxiliando a atividade de alocação de pessoas, bem como servir de requisitos para a construção de ferramentas para auxiliar esta atividade.
  • RENNAN JOSE MAIA DA SILVA
  • CONTROLE DE ADMISSÃO DE CHAMADAS CONJUNTO PARA REDES HETEROGÊNEAS BASEADO EM APRENDIZAGEM POR REFORÇO
  • Data: 22/08/2012
  • Mostrar Resumo
  • Atualmente, existem muitos tipos de redes sem fio baseados em diferentes tecnologias de acesso a rádio. Além dos existentes e para complementá-los, novos tipos de rede ainda serão desenvolvidos. Entretanto, nenhuma dessas tecnologias será capaz de dar aos usuários atendimento a todos os requisitos de qualidade de serviço (QoS) com cobertura universal e, por isso, a próxima geração de redes sem fio irá integrar múltiplas tecnologias, trabalhando conjuntamente de forma heterogênea. Redes heterogêneas necessitam de mecanismo de gerenciamento conjunto para garantir melhor utilização dos recursos disponíveis e dar aos usuários maior qualidade de serviço. O Controle de Admissão de Chamadas Conjunto (CACC) é um tipo de mecanismo que gerencia conjuntamente recursos em redes sem fio heterogêneas. Assim, neste trabalho é apresentada uma proposta de CACC para o gerenciamento de redes sem fio heterogêneas baseado em aprendizagem por reforço a fim de tratar as tarefas de gerenciamento de aceitação ou rejeição de chamadas e seleção inicial de tecnologia, melhorando o desempenho da rede como um todo. O algoritmo é baseado nas características da própria rede como taxa média de chegada de chamadas, tempo médio de duração das chamadas e um preço atribuído a cada classe de chamadas e os parâmetros usados para medir o desempenho foram probabilidade de bloqueio para novas chamadas e taxa de utilização da rede.
  • PEDRO JORGE FERREIRA TRECCANI
  • UM ESTUDO EMPÍRICO SOBRE A APLICAÇÃO DE MÉTODOS ÁGEIS EM ORGANIZAÇÕES BRASILEIRAS
  • Data: 14/08/2012
  • Mostrar Resumo
  • Organizações que desenvolvem software enfrentam grandes desafios na produção de seus sistemas. Grande parte deste desafio está relacionado à volatilidade de seus requisitos, devido ao crescente dinamismo do mercado. Constantes alterações, adaptações e adições de novos requisitos em sistemas são frequentes no mercado de software, fazendo com que as empresas necessitem de técnicas cada vez melhores para se adequarem a essas mudanças. Nesse contexto, as metodologias ágeis podem auxiliar as organizações de desenvolvimento de software a obter esse dinamismo necessário para acompanhar as frequentes mudanças de requisitos. A adoção de métodos/metodologias ágeis tem se destacado no mercado brasileiro, onde cada vez mais, as metodologias ágeis ganham espaço. Este trabalho descreve os resultados de um estudo empírico realizado em cinco organizações brasileiras de desenvolvimento de software que utilizam métodos/metodologias ágeis. Neste estudo foram utilizadas entrevistas semiestruturadas e questionários para coleta de dados e informações e métodos da Teoria Fundamentada em Dados para análise, com o objetivo de explorar como as metodologias ágeis são aplicadas por organizações brasileiras. Principalmente com relação à prática da refatoração, que adquire aspectos colaborativos neste contexto, visto que as atividades passam a ser feitas em pares ou grupos, auxiliando assim na difusão do conhecimento sobre a arquitetura do sistema, por exemplo. O foco principal do trabalho é apresentar como a refatoração é executada e quais as principais mudanças em relação à forma tradicional de realização da mesma. No decorrer do texto serão apresentados os resultados encontrados no estudo, bem como uma discussão sobre os mesmos. Além disso, há uma avaliação dos impactos gerados pela utilização desta nova forma de execução da atividade de refatoração, tanto na forma de trabalho das pessoas, quanto na organização como um todo.
  • JOSUE LEAL MOURA DANTAS
  • Correio Eletrônico com Processamento de Fala

  • Data: 05/07/2012
  • Mostrar Resumo
  • A interação homem-máquina tem mudado ao longo dos anos. Atualmente, a fala tem
    sido utilizada nesse processo, sobretudo, provendo acessibilidade a deficientes físicos.
    Nesse aspecto, já existem ferramentas que permitem o desenvolvimento de software livre
    com o módulo de reconhecimento e síntese de voz, entre outras línguas, para o português
    brasileiro. Para o reconhecimento foi usado neste trabalho o sistema Coruja, que suporta
    a especificação JSAPI. Já para síntese foi utilizado o FreeTTS com uma voz para o PB
    do projeto MBROLA. O decodificador utilizado foi o Julius, que é um software livre.
    Baseado nas ferramentas citadas, este trabalho consistiu no desenvolvimento de uma extensão
    com reconhecimento e síntese de voz que possibilita o controle do Thunderbird,
    um gerenciador de emails de código livre. Avaliou-se de forma qualitativa o desempenho
    da ferramenta nos dois modos de reconhecimento, gramática e ditado, dentro do contexto
    da aplicação alvo. Um aspecto importante, em relação à configuração de um arquivo de
    entrada do Julius, é o ajuste fino dos seus parâmetros, pois esses melhor ajustados permitem
    uma melhor taxa de reconhecimento e menor tempo de resposta do sistema. Com
    isso, o trabalho busca contribuir também com resultados acerca do ajuste do decodificador
    Julius para que a extensão desenvolvida tenha tempo de resposta e acurácia adequadas
    para a aplicação de correio eletrônico.
    A interação homem-máquina tem mudado ao longo dos anos. Atualmente, a fala temsido utilizada nesse processo, sobretudo, provendo acessibilidade a deficientes físicos.Nesse aspecto, já existem ferramentas que permitem o desenvolvimento de software livrecom o módulo de reconhecimento e síntese de voz, entre outras línguas, para o portuguêsbrasileiro. Para o reconhecimento foi usado neste trabalho o sistema Coruja, que suportaa especificação JSAPI. Já para síntese foi utilizado o FreeTTS com uma voz para o PBdo projeto MBROLA. O decodificador utilizado foi o Julius, que é um software livre.Baseado nas ferramentas citadas, este trabalho consistiu no desenvolvimento de uma extensãocom reconhecimento e síntese de voz que possibilita o controle do Thunderbird,um gerenciador de emails de código livre. Avaliou-se de forma qualitativa o desempenhoda ferramenta nos dois modos de reconhecimento, gramática e ditado, dentro do contextoda aplicação alvo. Um aspecto importante, em relação à configuração de um arquivo deentrada do Julius, é o ajuste fino dos seus parâmetros, pois esses melhor ajustados permitemuma melhor taxa de reconhecimento e menor tempo de resposta do sistema. Comisso, o trabalho busca contribuir também com resultados acerca do ajuste do decodificadorJulius para que a extensão desenvolvida tenha tempo de resposta e acurácia adequadaspara a aplicação de correio eletrônico.

  • RODRIGO AUGUSTO DE MORAES LOURENCO
  • Explorando, Comparando e Coordenando Múltiplas Fontes de Dados em uma Ferramenta de Visualização de Informação
  • Data: 02/07/2012
  • Mostrar Resumo
  • A quantidade de dados eletrônicos disponíveis para análise cresce a cada dia. É fato que esses dados encontram-se dispersos em diversas plataformas e formatos, e que há um esforço grande de pré-processamento deles para convergir, normalmente, em única base de dados multidimensional para realização da análise dos mesmos em busca de novas informações e conhecimentos. Com o objetivo de diminuir este esforço e tempo de pré-processamento, propõe-se que o pré-processamento dos dados seja realizado de forma local, naquele conjunto de dados. Posterior a isso, através de modelos de coordenação de dados, implementados em uma ferramenta de visualização, seriam definidos dados comuns entre as bases de dados envolvidas para que elas pudessem ser relacionadas. A manipulação e visualização dos dados seriam realizados através de ferramenta de visualização de informação, ações básicas de uma ferramenta de visualização de informação, tais como: aplicar filtros e configurar cores seriam aplicados integralmente nas bases coordenadas como se fossem únicas, facilitando a percepção do usuário sobre os dados e seus relacionamentos.Como estudo de caso, foi utilizada a ferramenta de visualização de informação PRISMA, que tem como características principais a facilidade de incluir novas técnicas de visualização de informação em seu framework, e a possibilidade de apresentar múltiplas técnicas de visualização de informação sobre a mesma base de dados. A evolução do PRISMA para múltiplas bases coordenadas tem como objetivo facilitar a descoberta de informações obtidas pelo relacionamento entre duas ou mais bases de dados. A obtenção destas novas funcionalidades ocorreu em duas etapas distintas: A primeira etapa tratou da avaliação e reformulação da arquitetura da ferramenta para permitir a interação por diversas bases de dados sem perda de funcionalidade, em relação as atuais do PRISMA. Já a segunda etapa teve como foco a implementação do módulo de coordenação entre bases de dados e como apresentar ao usuário estes novos controles.
  • MARCOS FILIPE ALVES SALAME
  • DESENVOLVIMENTO DE UMA FERRAMENTA WEB DE AUXÍLIO À EDUCAÇÃO MUSICAL DENOMINADA SIAEM

  • Data: 27/06/2012
  • Mostrar Resumo
  • O ensino e aprendizagem na área de música apresentam dificuldades consideráveis, no que diz respeito ao desenvolvimento da inteligência musical e no entendimento da teoria musical, podendo estas dificuldades limitar de forma severa o desenvolvimento das habilidades musicais de alunos e músicos, o que pode gerar desestímulos e desistências na área. Foi constatado também que o uso de tecnologias em escolas públicas de música é escasso, gerando maior carga de trabalho aos docentes e consequentemente reduzindo a sua produtividade. Este trabalho apresenta o SiAEM (Sistema de Auxílio à Educação Musical), uma ferramenta web desenvolvida com o objetivo de contribuir para a melhoria do ensino e aprendizagem na área de música, atendendo as necessidades básicas de aprendizagem e ensino de alunos e professores, respectivamente. O SiAEM disponibiliza na web para acesso gratuito um módulo gerador de partitura, um módulo editor de prova, um módulo de testes de percepção auditiva e um módulo de testes de teoria musical, que podem produzir material didático, como partituras e provas, fornecendo funcionalidades não encontradas em ferramentas similares, proprietárias ou gratuitas.

  • FABRICIO MEDEIROS ALHO
  • Uma Abordagem de Sistematização do Processo de Gerência de Reutilização de Ativos de Software Aderente a Modelos e Normas de Qualidade
  • Data: 22/06/2012
  • Mostrar Resumo
  • A Reutilização de Software é um processo pelo qual se constrói um software a partir de artefatos de software existentes ao invés de construí-lo desde o princípio. O objetivo principal da reutilização de artefatos de software é reduzir o tempo e o esforço necessários para o desenvolvimento de produtos de software. É necessário, então, que as organizações interessadas no reúso de artefatos de software tenham como meta um processo para Gestão de Reutilização, baseado nas boas práticas e recomendações da área. Assim, o processo de reutilização deve orientar todas as fases que compõem a gestão de reúso de artefatos de software, auxiliando durante o planejamento da reutilização, fornecendo critérios para a classificação e qualificação dos artefatos envolvidos no reúso, norteando as tarefas de criação e descontinuação de artefatos reutilizáveis e orientando a prática do reúso pelos envolvidos nos projetos de software. Neste contexto, este trabalho visa contribuir com uma proposta de apoio ao processo de Gestão de Reutilização de Software, composta por um framework de processo e uma ferramenta para apoio à implementação e execução deste processo. Para atingir tais resultados, um mapeamento entre as recomendações do modelo MR-MPS e das normas ISO/IEC12207 e IEEE1517 foi realizado, visando identificar equivalências e gaps entre eles. Os resultados obtidos fazem parte do projeto Spider, um suite de ferramentas de software livre para apoiar a implementação dos processos do MR-MPS.
  • CLEYTON APARECIDO DIM
  •  

    APIN: FERRAMENTA PARA APRENDIZAGEM DE LÓGICAS E ESTÍMULO DO
    RACIOCÍNIO E DA HABILIDADE DE RESOLUÇÃO DE PROBLEMAS

    APIN: FERRAMENTA PARA APRENDIZAGEM DE LÓGICAS E ESTÍMULO DORACIOCÍNIO E DA HABILIDADE DE RESOLUÇÃO DE PROBLEMASDefinido no Relatório entregue pelo Aluno à Coordenação do PPGCC.

     

  • Data: 15/06/2012
  • Mostrar Resumo
  • Este trabalho apresenta uma ferramenta pedagógica computacional que objetiva amenizar as
    dificuldades de aprendizagem nos primeiros anos dos cursos de computação em disciplinas
    em que a lógica está envolvida, que de acordo com pesquisas realizadas decorre da ausência
    de uma base lógico-matemática prévia. Considerando que a oferta de ferramentas pedagógicas
    adequadas pode melhorar substancialmente o desempenho dos estudantes, foi desenvolvida no
    âmbito do Laboratório de Informática Educativa da Universidade Federal do Pará a
    ferramenta APIN – Agência Planetária de Inteligência, como uma possível solução do
    problema. Trabalha-se com a ideia de desenvolvimento de uma base lógico-matemática em
    alunos do Ensino Médio visando dar suporte à aquisição de novos conhecimentos, de acordo
    com a ideia construtivista conhecida por teoria da assimilação. O objetivo da ferramenta é
    fazer com que os acadêmicos dos cursos de computação ingressem na Universidade com um
    raciocínio lógico bem desenvolvido, detendo conhecimentos básicos de lógica e programação.
    Para validar a ferramenta foram organizadas oficinas em duas escolas de Ensino Médio, onde
    os alunos utilizaram todos os recursos da APIN em 3 dias, com 4 horas diárias de atividades.
    Com os dados obtidos nas oficinas, observou-se que a ferramenta APIN tem potencial para
    ajudar a solucionar o problema da dificuldade de aprendizagem da lógica no Ensino Superior.

    Este trabalho apresenta uma ferramenta pedagógica computacional que objetiva amenizar asdificuldades de aprendizagem nos primeiros anos dos cursos de computação em disciplinasem que a lógica está envolvida, que de acordo com pesquisas realizadas decorre da ausênciade uma base lógico-matemática prévia. Considerando que a oferta de ferramentas pedagógicasadequadas pode melhorar substancialmente o desempenho dos estudantes, foi desenvolvida noâmbito do Laboratório de Informática Educativa da Universidade Federal do Pará aferramenta APIN – Agência Planetária de Inteligência, como uma possível solução doproblema. Trabalha-se com a ideia de desenvolvimento de uma base lógico-matemática emalunos do Ensino Médio visando dar suporte à aquisição de novos conhecimentos, de acordocom a ideia construtivista conhecida por teoria da assimilação. O objetivo da ferramenta éfazer com que os acadêmicos dos cursos de computação ingressem na Universidade com umraciocínio lógico bem desenvolvido, detendo conhecimentos básicos de lógica e programação.Para validar a ferramenta foram organizadas oficinas em duas escolas de Ensino Médio, ondeos alunos utilizaram todos os recursos da APIN em 3 dias, com 4 horas diárias de atividades.Com os dados obtidos nas oficinas, observou-se que a ferramenta APIN tem potencial paraajudar a solucionar o problema da dificuldade de aprendizagem da lógica no Ensino Superior.

  • SILVERIO SIROTHEAU CORREA NETO
  • APRENDIZAGEM DE INICIANTES EM ALGORITMOS E PROGRAMAÇÃO: PROPOSTA DE UM SUBSISTEMA DE FEEDBACK COLABORATIVO PARA AUTOAVALIAÇÃO

  • Data: 25/05/2012
  • Mostrar Resumo
  • O presente trabalho descreve a proposta de um subsistema de feedback colaborativo para um ambiente de programação integrado à plataforma Moodle. Tal subsistema objetiva auxiliar estudantes em processo de aprendizagem, por proporcionar recursos de autoavaliação que são empregados durante a elaboração de códigos de programas, incentivando a argumentação, a exposição de ideias e a resolução de conflitos entre os estudantes. Como vantagem do subsistema de feedback visualiza-se: (1) amenizar os problemas de compreensão dos códigos de programas elaborados pelos estudantes; (2) prover um retorno imediato ao estudante sobre soluções de sua resposta por meio de um procedimento de avaliação entre os estudantes, chamada de avaliação em pares; e (3) diminuir a sobrecarga de trabalho do professor. A proposta foi avaliada a partir de um procedimento com três passos: (a) a oferta de um curso de programação; e (b) avaliação heurística; (c) ensaio de interação. Os resultados provenientes da avaliação permitiram realizar melhorias no ambiente de programação com o feedback colaborativo, contribuindo para compreensão das abstrações dos códigos e ao mesmo tempo reduzindo o espaço de tempo do feedback. Para o professor, o subsistema oportuniza a adoção de novas abordagens, porque fornece um mapa com resultados, ainda que parciais, do desempenho dos estudantes. Por um lado, a prática com atividades colaborativas deve contribuir para a identificação de requisitos para novas funcionalidades, como a programação em pares e, por outro lado, deve estimular o desenvolvimento da autoavaliação, de forma que, possa proporcionar um aumento no nível das habilidades dos estudantes em programação.

  • ELTON SARMANHO SIQUEIRA
  • ALE RPG: Jogo Digital para Aprendizado de Crianças em Leitura e Escrita

  • Data: 03/04/2012
  • Mostrar Resumo
  • Neste trabalho foi desenvolvido um jogo que apresenta elementos lúdicos para o divertimento das crianças, como a implementação de fantasia controlada, desafios e propriedades que estimulam a curiosidade, em que são requisitos básicos para ajudar a aumentar a motivação da criança em aprender conteúdos necessários para ensino de leitura e escrita. O jogo foi desenvolvido em XNA 3.0 e utiliza diversos recursos computacionais, com destaque o reconhecedor de voz, proporcionando uma avaliação informatizada do processo de leitura. O jogo utiliza um programa de ensino elaborado por profissionais da educação, como pedagogos e psicólogos, assim, trazendo uma gama de atividades didáticas. Os conceitos educacionais, motivacionais e lúdicos foram avaliados por psicólogos da área sobre aprendizagem e motivação. Em outro momento, o jogo foi testado com dezenove crianças, analisando seus comportamentos e desempenho. Definido no Relatório entregue pelo Aluno à Coordenação do PPGCC.

  • RAFAEL SANTANA OLIVEIRA
  • DESENVOLVIMENTO DE RECURSOS E FERRAMENTAS PARA RECONHECIMENTO DE VOZ EM PORTUGUÊS BRASILEIRO PARA DESKTOP E SISTEMAS EMBARCADOS
  • Data: 03/04/2012
  • Mostrar Resumo
  • Nos últimos anos, a utilização de tecnologias de reconhecimento de voz teve crescimento notável. Com os investimentos de empresas como a Google, Microsoft e Nuance, uma gama de aplicativos com interface de voz, recursos e ferramentas vem sendo disponibilizados a comunidade. Contudo, para o Português Brasileiro (PB), esses recursos ainda são escassos. Nesse contexto, este trabalho teve como objetivo a disponibilização de ferramentas e recursos livres para o desenvolvimento de aplicativos com suporte a reconhecimento de voz para desktop e sistemas embarcados. Na primeira etapa deste, uma interface de programação de aplicativos compatível a especificação JSAPI foi desenvolvida para o engine Coruja tendo como objetivo sua disponibilização na plataforma Java. Visando plataformas móveis, na segunda etapa deste trabalho foram desenvolvidos recursos específicos para os decodificadores do grupo CMUSphinx. Modelos acústicos foram treinados e a viabilidade de conversão de modelos do formato do HTK para o Sphinx foi estudada. Como forma de validação dos recursos desenvolvidos, a nova versão do Coruja foi utilizada na refatoração do projeto SpeechOO. Um aplicativo com suporte a reconhecimento de voz foi construído para a plataforma Android 2.2 utilizando o decodificador Pocketsphinx, aliado a recursos desenvolvidos neste trabalho.
  • ANDERSON GREGÓRIO MARQUES SOARES
  • Uma interface t-commerce com o auxilio de uma técnica de visualização da informação para o middleware brasileiro de iDTV

  • Data: 30/03/2012
  • Mostrar Resumo
  • Com o crescimento progressivo do e-commerce no cenário brasileiro e propagação das transmissões digitais na TV, cresce a demanda por aplicações interativas no suporte a atividades como: escolher e comprar produtos. Dentro deste contexto, este trabalho tem como principal hipótese verificar se a utilização de uma técnica de visualização de informação - InfoVis no cenário do t-commerce facilitaria a percepção e permitiria aos telespectadores tomarem melhores decisões no ato de uma compra. Para tal, a fim de facilitar o processo de compras através da TV Digital Interativa (Interactive Digital TV - iDTV) este trabalho desenvolveu uma interface de t-commerce baseada no middleware brasileiro de televisão digital - Ginga, com o auxilio da técnica de InfoVis chamada treemap, com o objetivo de enriquecer a interface do telespectador com mais informações de forma organizada e coerente, de modo a ampliar sua compreensão dos dados. Como forma de validar a hipótese e avaliar a interface de t-commerce, foi realizado testes de usabilidade com usuários, e para avaliar o volume da carga de trabalho subjetiva durante os testes, utilizou-se a avaliação NASA-TLX (NASA - Task Load Index). Por conseguinte, conclui-se que a aplicação de uma técnica InfoVis no cenário do t-commerce mostrou-se eficaz.

  • EDSON KOITI KUDO YASOJIMA
  • Aplicações Colaborativas Tridimensionais para Visualização de Informação

  • Data: 30/03/2012
  • Mostrar Resumo
  • A área da visualização da informação tem como objetivo coletar e organizar dados a fim de criar padrões para cognição do usuário através de visualizações (SPENCE, 2007). As visualizações buscam potencializar a percepção do usuário, aumentando a capacidade de cognição sobre problema e permite mais facilmente o reconhecimento de relações e padrões entre os dados. 
    O compartilhamento da visualização entre várias pessoas permite a colaboração e discussão de visões, possibilitando resultados mais precisos ainda (MARK, CARPENTER, & KOBSA, 2003). Visualizações em um ambiente 3D naturalmente permitem uma dimensão a mais para representação de dados, quando comparado a ambientes 2D, por exemplo, na técnica dispersão de dados o eixo de profundidade do ambiente 3D permite a adição de mais um eixo para as coordenadas cartesianas no gráfico, aumentado assim a capacidade de amostragem dos dados.
    Dentro deste contexto, esta dissertação tem como objetivo gerar aplicações colaborativas de visualização da informação em ambientes 3D e realidade aumentada, buscando novas possibilidades de representação espacial, e possibilidade de aprimorar o processo de descoberta de padrões e relacionamentos nos dados entre um grupo de pessoas com objetivos comuns. Este projeto faz uso de tecnologias gratuitas e abertas para o desenvolvimento dos protótipos, e serão realizados testes com usuários para validação dos mesmos, objetivando sempre os conceitos de uma boa ferramenta de visualização.

    A área da visualização da informação tem como objetivo coletar e organizar dados a fim de criar padrões para cognição do usuário através de visualizações (SPENCE, 2007). As visualizações buscam potencializar a percepção do usuário, aumentando a capacidade de cognição sobre problema e permite mais facilmente o reconhecimento de relações e padrões entre os dados. O compartilhamento da visualização entre várias pessoas permite a colaboração e discussão de visões, possibilitando resultados mais precisos ainda (MARK, CARPENTER, & KOBSA, 2003). Visualizações em um ambiente 3D naturalmente permitem uma dimensão a mais para representação de dados, quando comparado a ambientes 2D, por exemplo, na técnica dispersão de dados o eixo de profundidade do ambiente 3D permite a adição de mais um eixo para as coordenadas cartesianas no gráfico, aumentado assim a capacidade de amostragem dos dados. Dentro deste contexto, esta dissertação tem como objetivo gerar aplicações colaborativas de visualização da informação em ambientes 3D e realidade aumentada, buscando novas possibilidades de representação espacial, e possibilidade de aprimorar o processo de descoberta de padrões e relacionamentos nos dados entre um grupo de pessoas com objetivos comuns. Este projeto faz uso de tecnologias gratuitas e abertas para o desenvolvimento dos protótipos, e serão realizados testes com usuários para validação dos mesmos, objetivando sempre os conceitos de uma boa ferramenta de visualização.

  • MARIO AUGUSTO DA COSTA TORRES
  • USO DO ALGORITMO CULTURAL COM OPERADOR FUZZY PARA OTIMIZAÇÃO DE FUNÇÕES DE VARIÁVEIS REAIS

  • Data: 23/03/2012
  • Mostrar Resumo
  • Este trabalho tem como objetivo propor um operador evolucionário de influência cultural baseado nos conceitos presentes nos algoritmos culturais, programação evolucionária, lógica fuzzy e sistemas de inferência fuzzy, e aplicado ao problema de otimização de funções reais. Para isso, são apresentados os conceitos relevantes ao entendimento da proposta bem como são analisados os trabalhos relacionados que constituem a base do framework evolucionário no qual o operador de influência é aplicado. Em seguida, o funcionamento do operador é apresentado, juntamente com o detalhamento do sistema de inferência fuzzy utilizado no operador e a sua implementação no algoritmo cultural desenvolvido. Finalizando o trabalho, são apresentados os resultados obtidos quando da aplicação de várias funções de benchmark encontradas na literatura ao algoritmo desenvolvido, bem como estes resultados são comparados aos obtidos por algoritmos encontrados nos trabalhos relacionados a este.

  • NATHÁLLIA AMARAL CARVALHO
  • ESPECIFICAÇÃO E DESENVOLVIMENTO DE UMA FERRAMENTA VOLTADA AO AMADURECIMENTO DO VOCABUÁRIO DE CRIANÇAS SURDAS.

  • Data: 14/03/2012
  • Mostrar Resumo
  • O presente trabalho descreve e analisa o desenvolvimento e aplicação de uma
    ferramenta voltada ao amadurecimento vocabular de crianças surdas. Serão descritas as
    etapas desde a definição do tema, questões norteadoras, escolha da problemática, até a
    concepção da ferramenta, implementação e apresentação de resultados da aplicação.
    A ferramenta desenvolvida relaciona-se ao desenvolvimento de vocabulário em língua
    portuguesa de alunos surdos. A partir de uma verificação da literatura e das necessidades
    cotidianas de educadores e educandos do Instituto Felipe Smaldone (IFS) em Belém –
    PA projetou-se uma ferramenta que inclui um conjunto de atividades organizadas em
    fases e níveis com graus crescentes de dificuldade, envolvendo imagens e palavras
    escritas, e auxílio a partir da Língua Brasileira de Sinais (Libras). Os exercícios são
    separados por categoria de palavras, para se investir na aquisição de vocabulário de
    forma contextualizada. A modelagem se valeu da linguagem UML e a implementação
    realizou-se através da linguagem PHP e do SGBD MySQL, dentre outras ferramentas
    computacionais. As primeiras aplicações sugerem um importante potencial dessa
    ferramenta na ampliação do vocabulário em crianças surdas, referente a diferentes
    categorias, com impactos positivos esperados na capacidade de interpretação e de
    produção textual, assim como na comunicação de forma mais ampla.
    O presente trabalho descreve e analisa o desenvolvimento e aplicação de umaferramenta voltada ao amadurecimento vocabular de crianças surdas. Serão descritas asetapas desde a definição do tema, questões norteadoras, escolha da problemática, até aconcepção da ferramenta, implementação e apresentação de resultados da aplicação.A ferramenta desenvolvida relaciona-se ao desenvolvimento de vocabulário em línguaportuguesa de alunos surdos. A partir de uma verificação da literatura e das necessidadescotidianas de educadores e educandos do Instituto Felipe Smaldone (IFS) em Belém –PA projetou-se uma ferramenta que inclui um conjunto de atividades organizadas emfases e níveis com graus crescentes de dificuldade, envolvendo imagens e palavrasescritas, e auxílio a partir da Língua Brasileira de Sinais (Libras). Os exercícios sãoseparados por categoria de palavras, para se investir na aquisição de vocabulário deforma contextualizada. A modelagem se valeu da linguagem UML e a implementaçãorealizou-se através da linguagem PHP e do SGBD MySQL, dentre outras ferramentascomputacionais. As primeiras aplicações sugerem um importante potencial dessaferramenta na ampliação do vocabulário em crianças surdas, referente a diferentescategorias, com impactos positivos esperados na capacidade de interpretação e deprodução textual, assim como na comunicação de forma mais ampla.

  • ANDRE FIGUEIRA RIKER
  • UM MECANISMO DE ESTIMATIVA DE QUALIDADE DE EXPERIÊNCIA EM TEMPO REAL PARA SISTEMAS MULTIMIDIA: ESTUDO DE CASO PARA REDES EM MALHA SEM FIO

  • Data: 02/03/2012
  • Mostrar Resumo
  • Devido ao grande crescimento das aplicac~oes de vdeo e a implantac~ao das redes em malha sem o, a necessidade de mecanismos que estimem a qualidade de experi^encia (QoE) das aplicac~oes de vdeo em tempo real tem se tornado essencial, uma vez que as operadoras querem controlar e otimizar seus recursos, enquanto matem os usuarios de aplicac~oes multimdia com um bom nvel de qualidade. Por outro lado, do ponto de vista dos protocolos de rede, e de grande import^ancia estar ciente do nvel de qualidade percebido pelos usuarios das aplicac~oes de vdeo. Assim as polticas de gerenciamento dos recursos de rede poderiam ser aplicadas levando em considerac~ao a percepc~ao dos usuarios. Ao contrario do que ocorre atualmente, onde o gerenciamento dos recursos e feito com base nos nveis de QoS (Quality of Service). Portanto, este trabalho prop~oe um mecanismo chamado MultiQoE que utiliza par^ametros de codec e rede para estimar em tempo real a qualidade de vdeos que possuam diferentes codi cac~oes, nveis de atividade espaco-temporal e degradac~oes. Para isso, transmiss~oes de vdeo foram realizadas em uma rede mesh no NS-2.34 e avaliac~oes subjetivas foram feitas com 55 avaliadores humanos. Os resultados apresentam a alta correlac~ao do MultiQoE com a metrica subjetiva Mean Opinion Score (MOS) e deixam claro a baixa precis~ao das metricas objetivas (Video Quality Metric - VQM, Structural Similarity Index Metric - SSIM e Peak Signal-to-Noise Ratio - PSNR) e do metodo hbrido chamado Pseudo-Subjective Quality Assessment (PSQA).

  • ALLAN DOUGLAS BENTO DA COSTA
  • AVALIAÇÃO OBJETIVA DA QUALIDADE DE EXPERIÊNCIA EM REDES IEEE 802.16: MECANISMOS AVANÇADOS DE CONTROLE E DESCARTES DE PACOTES DE STREAMING DE VÍDEO

  • Data: 29/02/2012
  • Mostrar Resumo
  • ADistribuição de conteúdos multimídia está em grande expansão nas redes de banda larga fixas, sem fio e móveis. Entretanto, os atuais mecanismos de controle de qualidade em redes banda larga não asseguram a qualidade dos vídeos a serem distribuídos para milhares de usuários. Este trabalho descreve um conjunto de mecanismos de otimização de QoE (Qualidade de Experiência) para redes IEEE 802.16/WiMAX, que otimizam a distribuição de vídeo através da implementação de algoritmos avançados de descarte seletivo de pacotes, levando em consideração a redundância temporal, espacial, complexidade, movimentação, variação de GOP (Grupo de Figuras), BitRate, largura de banda, bem como a experiência percebida pelo usuário final. O impacto dos algoritmos de QoE foram analisados através de simulação, onde métricas objetivas de QoE são usadas para avaliar o desempenho de tais mecanismos em redes WiMAX, de acordo com a percepção dos receptores, bem como para realçar os benefícios das soluções propostas comparadas com modelos tradicionais baseados em QoS (Qualidade de Serviços).

2011
Descrição
  • HUGO PEREIRA KURIBAYASHI
  • IMPLEMENTAÇÃO DE SUPORTE A CANAL DE RETORNO NA PLATAFORMA OPENGINGA: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA
  • Orientador : CARLOS RENATO LISBOA FRANCES
  • Data: 11/10/2011

  • ANTONIO SOARES LOBATO
  • UM SISTEMA GERENCIADOR DE RUBRICAS PARA APOIAR A AVALIAÇÃO EM AMBIENTES DE APRENDIZAGEM
  • Orientador : ELOI LUIZ FAVERO
  • Data: 31/08/2011

  • INACIO LEITE GORAYEB
  • UM RELATO DE MELHORIA DO PROCESSO DE TESTE DE SOFTWARE APLICADO A UMA FÁBRICA DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 31/08/2011

  • MARCUS PAULO DA SILVA MELO
  • UMA INSTITUCIONALIZAÇÃO DO PROCESSO DE PROJETO E CONSTRUÇÃO DO PRODUTO EM UMA FÁBRICA DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 31/08/2011

  • AMANDA MONTEIRO SIZO LINO
  • APLICAÇÃO DE ARQUITETURA DE SOFTWARE NO DESENVOLVIMENTO DE SISTEMAS DISTRIBUÍDOS
  • Orientador : ELOI LUIZ FAVERO
  • Data: 30/08/2011

  • MARCELIO D OLIVEIRA LEAL
  • UMA ABORDAGEM SEMI-AUTOMÁTICA DE GERAÇÃO DE INFORMAÇÕES DE RASTREABILIDADE DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 30/08/2011

  • MAYARA COSTA FIGUEIREDO
  • UM ESTUDO EMPÍRICO SOBRE ARQUITETOS DE TECNOLOGIA DE INFORMAÇÃO: IMPLICAÇÕES PARA A PESQUISA EM ARQUITETURA DE SOFTWARE
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 26/04/2011

  • ALLINE DE MELO LEMOS
  • Um Estudo Etnográfico sobre a Engenharia de Requisitos em um Projeto de Desenvolvimento Distribuído de Software

  • Data: 25/04/2011
  • Mostrar Resumo
  • De acordo com a dissertação entregue pela aluna na Secretaria do PPGCC-UFPA.

  • JEAN MARCEL DOS REIS COSTA
  • ESCALABILIDADE E EVOLUÇÃO DAS REDES AWARENESS EM UM GRANDE PROJETO DE DESENVOLVIMENTO DISTRIBUÍDO DE SOFTWARE
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 25/04/2011

  • THIAGO ANTONIO SIDONIO COQUEIRO
  • FUZZY TFRC: MECANISMO DE CONTROLE DE CONGESTIONAMENTO INTELIGENTE APLICADO EM REDES SEM FIO
  • Orientador : EDUARDO COELHO CERQUEIRA
  • Data: 21/02/2011

  • DIEGO DOS PASSOS SILVA
  • HANDOVER TRANSPARENTE ENTRE REDES IEEE 802.16 E IEEE 802.11 USANDO UM SISTEMA FUZZY-GENÉTICO
  • Orientador : RAIMUNDO VIEGAS JUNIOR
  • Data: 16/02/2011

  • VANESSA MARTINS CALDAS MAGALHAES
  • UMA FERRAMENTA DE AVALIAÇÃO AUTOMÁTICA DE MAPAS CONCEITUAIS COMO AUXÍLIO AO ENSINO À DISTÂNCIA
  • Orientador : ELOI LUIZ FAVERO
  • Data: 26/01/2011

  • JADIELLY FERNANDES OLIVEIRA
  • ABORDAGEM PARA IMPLEMENTAÇÃO DE GERÊNCIA DO CONHECIMENTO COM APOIO DE UM AMBIENTE DE DESENVOLVIMENTO DE SOFTWARE CENTRADO EM PROCESSOS
  • Orientador : CARLA ALESSANDRA LIMA REIS
  • Data: 11/01/2011

2010
Descrição
  • BILLY ANDERSON PINHEIRO
  • ABARÉ: UM FRAMEWORK PARA IMPLANTAÇÃO, MONITORAMENTO E GERENCIAMENTO COORDENADO E AUTÔNOMO DE REDES EM MALHA SEM FIO
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 01/10/2010

  • MARCO ANTONIO BALIEIRO DA SILVA
  • UMA FERRAMENTA PARA COLETA, ANÁLISE E VISUALIZAÇÃO DE PROJETOS DE SOFTWARE LIVRE USANDO REDES SOCIAIS
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 10/08/2010

  • HILTON PRADO DE CASTRO JUNIOR
  • A FORMAÇÃO DE PROFESSORES PARA INFORMÁTICA EDUCATIVA NA REDE ESTADUAL DE ENSINO DO MUNICÍPIO DE BELÉM/PÁ E O CONTEXTO DA FUTURA IMPLANTAÇÃO DO PROJETO UCA TOTAL
  • Orientador : BENEDITO DE JESUS PINHEIRO FERREIRA
  • Data: 07/07/2010

  • LOUISE GONCALVES DE BARROS
  • " UMA ESTRATÉGIA PARA FORMAÇÃO DE RECURSOS HUMANOS PARA A ÁREA DE COMPUTAÇÃO E INSERÇÃO DA INFORMÁTICA EM ESCOLAS DO ENSINO BÁSICO POR MEIO DA REALIZAÇÃO DE ATIVIDADES DE EXTENSÃO "
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 25/06/2010

  • PAULO FERNANDO PIMENTA DE SOUZA JUNIOR
  • UMA PROPOSTA DE FRAMEWORK PARA MODELOS COMPUTACIONAIS DE USO E COBERTURA DA TERRA
  • Data: 25/06/2010

  • ROBSON DA SILVA AGUIAR
  • " ENSINO E APRENDIZAGEM DE TEORIA DA COMPUTAÇÃO COM O SUPORTE DE AMBIENTES COMPUTACIONAIS: UTILIZAÇÃO DE AVALIAÇÃO AUTOMÁTICA E SEMI-AUTOMÁTICA PARA PROVER FEEDBACK RÁPIDO PARA O ALUNO E FACILITAR O ACOMPANHAMENTO PELO PROFESSOR "
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 25/06/2010

  • ANDERSON JORGE SERRA DA COSTA
  • UM MECANISMO DE ADAPTAÇÃO DE PROCESSOS DE SOFTWARE
  • Orientador : RODRIGO QUITES REIS
  • Data: 11/05/2010

  • MARCELLE PEREIRA MOTA
  • AMBIENTE DE APRENDIZAGEM DE PROGRAMAÇÃO COM VISUALIZAÇÃO E AVALIAÇÃO AUTOMÁTICA DE PROGRAMAS
  • Orientador : ELOI LUIZ FAVERO
  • Data: 26/02/2010

2009
Descrição
  • PAULO IGOR ALVES GODINHO
  • EDASP: UM ALGORÍTMO DE ESTIMATIVA DE DISTRIBUIÇÃO APLICADO À MINERAÇÃO DE PADRÕES SEQUENCIAIS EM BASES DE DADOS
  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 22/12/2009

  • LEANDRO HERNANDEZ ALMEIDA
  • WEB-PRISMA: UMA FERRAMENTA DE VISUALIZAÇÃO DE INFORMAÇÃO COM MÚLTIPLAS VISÕES COORDENADAS
  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 21/12/2009

  • MARCIO GOES DO NASCIMENTO
  • COMPETIÇÕES ESCOLARES VIA INTERNET
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 11/12/2009

  • CLEYTON ISAMU MUTO
  • ANÁLISE DA CONVERGÊNCIA DE ALGORÍTMOS DE BALANCEAMENTO DE ESPECTRO PARA REDES DA LINHA DIGITAL DE ASSINANTES
  • Orientador : ALDEBARO BARRETO DA ROCHA KLAUTAU JUNIOR
  • Data: 07/12/2009

  • MIREILLE PINHEIRO MOREIRA
  • UM AMBIENTE PARA ENSINO DE PROGRAMAÇÃO COM FEEDBACK AUTOMÁTICO DE EXERCÍCIO
  • Orientador : ELOI LUIZ FAVERO
  • Data: 04/12/2009

  • VAGNER DE BRITO NASCIMENTO
  • PROPOSTA DE ADEQUAÇÃO DO PROTOCOLO TCP ÀS REDES DE MALHA SEM FIO UTILIZANDO TÉCNICAS CROSS-LAYER
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 13/11/2009

  • BRENO BERNARD NICOLAU DE FRANCA
  • UM SIMULADOR ESTOCÁSTICO DE PROCESSO DE SOFTWARE BASEADO EM CONHECIMENTO
  • Orientador : RODRIGO QUITES REIS
  • Data: 29/06/2009

  • FABRICIO ROSSY DE LIMA LOBATO
  • SELEÇÃO DE GATEWAYS MÓVEIS EM REDES HETEROGÊNEAS SEM FIO COM MÚLTIPLOS SALTOS
  • Orientador : KELVIN LOPES DIAS
  • Data: 05/06/2009

  • JOSE JAILTON HENRIQUE FERREIRA JUNIOR
  • HANDOVER TRANSPARENTE PARA TRÁFEGO MULTIMÍDIA EM UMA ARQUITETURA INTEGRADA WIMAX/IP/MPLS MÓVEL
  • Orientador : KELVIN LOPES DIAS
  • Data: 04/06/2009

  • RAFAEL PEREIRA ESTEVES
  • UMA ARQUITETURA PARA O OFERECIMENTO DE CONEXÕES DETERMINÍSTICA EM REDES BASEADAS EM RAJADAS ÓPITICAS ROTULADAS PARA GRADES COMPUTACIONAIS
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 20/05/2009

  • DEDIER GOMES MERCES LIMA
  • UM FRAMEWORK PARA CONTROLE DE ADMISSÃO EM REDES ORIENTADAS A SERVIÇO
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 12/05/2009

  • LUIZ ALBERTO DA SILVA FILHO
  • MINERAÇÃO DE REGRAS DE ASSOCIAÇÃO UTILIZANDO KDD E KDT
  • Orientador : ELOI LUIZ FAVERO
  • Data: 16/04/2009

  • MARCIO JOSE MOUTINHO DA PONTE
  • METODOLOGIA PARA INFERIR NÍVEL DE USABILIDADE DE SOFTWARE DE SUPERVISÃO DE AUTOMAÇÃO INDUSTRIAL NO SETOR ELÉTRICO UTILIZANDO REDES NEURAIS ARTIFICIAIS: UM ESTUDO DE CASO - ELETROBRÁS
  • Orientador : ANTONIO MORAIS DA SILVEIRA
  • Data: 14/04/2009

  • ERNANI DE OLIVEIRA SALES
  • GERÊNCIA DE CONFIGURAÇÃO DE SOFTWARE INTEGRADA A EXECUÇÃO DE PROCESSOS DE SOFTWARE
  • Orientador : CARLA ALESSANDRA LIMA REIS
  • Data: 20/03/2009

  • LUIZ DOURADO DIAS JUNIOR
  • DICOTOMIA TEORIA E PRÁTICA DOCENTE NO ENSINO SUPERIOR DE COMPUTAÇÃO: REQUISITOS PARA UMA FERRAMENTA DE AVALIAÇÃO DOVENTE EM FÓRUNS DE DISCUSSÃO
  • Orientador : BENEDITO DE JESUS PINHEIRO FERREIRA
  • Data: 02/03/2009

2008
Descrição
  • SERGIO CLAYTON VIANA PINHEIRO
  • Um Protótipo de Visualização de Informação com Múltiplas Visões Coordenadas para Dispositivos Móveis

  • Data: 19/12/2008
  • Mostrar Resumo
  • One of the computer science challenges is to appropriately represent large amounts of data in a limited visual space. The resource limitation in mobile devices is aggravated in cases when activities demand mobility and involve decision-making tasks. An alternative to cope with this issue is the use of different visualization techniques to present complementary analysis of the information. However, the use of many techniques may lead to cognitive overload. In order to minimize this effect, Baldonado(2000) recommends data and view coordination. This work presents an information visualization prototype for mobile devices that supports multiple coordinated views. The goal of the prototype is to diminish the impact of the reduced display area available in these devices. The JAVA prototype supports the main tasks of an information visualization tool and implements many coordination mechanisms. The work also describes the resulting software architecture and some preliminary usability test results

  • MICHELE DE PAULA DA SILVA MACIEL
  • AVALIANDO O USO DE MÚLTIPLAS VISÕES COORDENADAS COM TAREFAS DE ANÁLISE DE DADOS

  • Data: 19/12/2008
  • Mostrar Resumo
  • O uso de ferramentas de visualização de informação que suportam múltiplas visões coordenadas para análise e exploração de dados tem se tornado mais freqüente. Entretanto, existem poucos estudos de usabilidade voltados para esse grupo de ferramentas, o que se faz necessário, para torná-las mais fáceis e usáveis.

    O norte do desenvolvimento deste trabalho esta na realização de experimentos de usabilidade com ferramentas de visualização de informação que suportem múltiplas visões coordenadas. Existem duas abordagens principais nas ferramentas de visualização de informação: múltiplas visões coordenadas na mesma tela e múltiplas visões coordenadas em telas separadas. Analisar o impacto dessas duas abordagens na análise e exploração de dados é o grande objetivo desde trabalho. Para auxiliar nessa tarefa, a ferramenta de visualização de informação de múltiplas visões coordenadas denominada Prisma foi adaptada para cinco ferramentas, três delas com técnicas individuais (dispersão, coordenadas paralelas e treemap) e duas com técnicas coordenadas (na mesma tela e em telas separadas).

    Para a avaliação mais consistente foi desenvolvida uma taxonomia de tarefas baseada na complexidade das mesmas. Houveram dois momentos de avaliação, na primeira fase dos testes, participaram quarenta usuários onde cada um respondeu 15 questões/tarefas, agrupadas em baixa, média e alta complexidade, aqui levou-se em consideração a facilidade de aprendizado na ferramenta na resolução das tarefas e comparação com ferramentas de uma única técnica. Na segunda fase dos testes participaram noventa novos usuários, cada um respondendo uma única tarefa, a idéia é observar o impacto inicial na utilização de uma ferramenta de múltiplas visões de dados coordenadas em uma tarefa de análise de dados.

    De maneira geral, os estudos mostraram que as múltiplas visões coordenadas exercem um impacto positivo na análise de dados quanto mais complexa for a tarefa, mais especificamente, a ferramenta de telas separadas proporciona maior índice de acerto, entretanto, a ferramenta de mesma tela oferece menor índice de erro total.

  • MICHELE DE PAULA DA SILVA MACIEL
  • AVALIANDO O USO DE MÚLTIPLAS VISÕES COORDENADAS COM TAREFAS DE ANÁLISE DE DADOS
  • Data: 19/12/2008

  • SERGIO CLAYTON VIANA PINHEIRO
  • UMA FERRAMENTA DE VISUALIZAÇÃO DE INFORMAÇÃO COM MÚLTIPLAS VISÕES COORDENADAS PARA DISPOSITIVOS MÓVEIS
  • Data: 19/12/2008

  • HIEDA ADRIANA NASCIMENTO SILVA
  • UMA PROPOSTA PARA ACOMPANHAMENTO DA APRENDIZAGEM DO ESTUDANTE EM AMBIENTES DE EDUCAÇÃO A DISTÂNCIA

  • Data: 02/12/2008
  • Mostrar Resumo
  • Este trabalho apresenta uma nova abordagem para acompanhamento da aprendizagem dos estudantes em ambiente virtual de aprendizagem (AVA). Propõe uma solução para o desafio de avaliar todo o processo de ensino-aprendizagem e fazer análise dos aspectos envolvidos ao longo do curso. A proposta utiliza a técnica de conjuntos fuzzy, devido à complexidade e ambigüidade que o tema desperta para a questão. Partindo para uma nova concepção de avaliação, o uso da abordagem fuzzy (com ajuda da ferramenta matemática MATLAB) permitirá que ela seja também qualitativa e não apenas quantitativa. A solução busca também atribuir um conceito final aos estudantes, ou seja, um conceito que represente o aprendizado no curso como um todo. A avaliação é feita por meio de uma ferramenta que utiliza os princípios da lógica fuzzy, uma das técnicas da inteligência computacional, mais adequada para abordagens em ambientes de imprecisão. Esse conceito final é obtido inferindo-se um conjunto de variáveis fornecidas pelo ambiente virtual onde o estudo de caso foi realizado. A solução proposta apresenta as seguintes vantagens: (a) fornece informações ao professor para acompanhar de forma otimizada o desempenho dos estudantes; (b) proporciona um feedback imediato aos estudantes referente ao seu desempenho. O feedback é essencial no contexto de educação a distância, pois nessa modalidade de ensino, é extremamente  importante que não somente o professor, mas o estudante também possa acompanhar, ao longo do curso, a evolução do seu aprendizado.

  • WALDIR ARANHA MOREIRA JUNIOR
  • Wireless mesh networks (WMNs) can be used in many different applications. However, they lack standards and, as a consequence, a number of issues must still be addressed to ensure the proper functioning of these networks. Amongst these issues, routing is this work’s main concern. Thus, it is proposed the use of multiple metrics with the proactive Optimized Link State Routing (OLSR) protocol, in order to provide quality of service routing. Even though it has already been proved that routing with multiple metrics is an NP-complete problem, it is showed how the techniques Analytic Hierarchy Process (AHP) and Pruning may be combined to perform multiple-metric routing, offering the best available links based on the considered metrics. A study on the performance of the metrics considered for the proposal is also carried out in the NS simulator along with the simulations which show the proposal's efficiency, dubbed Multiple Metric (MM)-OLSR. 

  • Data: 27/11/2008
  • Mostrar Resumo
  • Analytic Hierarchy Process, Pruning, Routing Protocol, Wireless Mesh Networks, Quality of Service. 

  • CLAUDOMIR CARDOSO DE CARVALHO JUNIOR
  • Agrupamento e Classificação de faltas do tipo curto circuito em linha de transmissão

  • Data: 20/10/2008
  • Mostrar Resumo
  • Este trabalho se concentra na tarefa de agrupamento e classificação de faltas do tipo curtocircuito
    em linhas de transmissão. Essas faltas são responsáveis pela maioria dos desligamentos
    em sistemas de transmissão de energia elétrica. No que diz respeito ao pré-processamento (ou
    front end), são apresentadas duas abordagens diferentes para a tarefa de agrupamento: frontends
    RMS e PCA, e três abordagens para a tarefa de classificação: front-ends raw, RMS (rootmean
    square) e PCA (principal component analysis). Para ambas as tarefas foram utilizadas
    duas bases de dados distintas: Tramoeste e Marabá. Os resultados para tarefa de agrupamento
    mostraram uma avaliação melhor dos grupos (ou clusters) obtidos a partir do front-end PCA
    em relação aos grupos obtidos do front-end RMS. Os resultados de classificação foram obtidos a
    partir de algoritmos de aprendizagem de máquina (rede neural, J.48, Naive Bayes e k-nearest
    neighbor ) utilizando front-ends raw e RMS e um classificador via agrupamento utilizando
    front-end PCA. Para a tarefa de classificação, as técnicas foram avaliadas em duas situações
    distintas. Na primeira, o treino e teste dos classificadores foram feitos com a mesma base
    (matched condition). Os melhores resultados de classificação obtidos foram através front-ends
    raw e PCA para ambas as bases. O segundo experimento consistiu em treinar os classificadores
    com a base Tramoeste e testar com a base Marabá e vice-versa (mismatch). O classificador
    via agrupamento obteve o menor erro de classificação para ambas as situações: 3% e 3.3%,
    respectivamente.

  • MARCOS CESAR DA ROCHA SERUFFO
  • Planejamento de capacidade e análise de desempenho de tecnologias de acesso para inclusão digital na região amazônica: um estudo de caso em IPTV 

  • Data: 25/06/2008
  • Mostrar Resumo
  • This work present a research for triple play traffic (data, video and voice) using ADSL2+ (Asymmetric Digital Subscriber Line, Extended Bandwidth) as access technology on Amazon environment. We have used two different approaches: experimental analysis of impulsive noise impact on IPTV traffic; and performance analysis using simulation for optic fiber backbone and ADSL2+ as access technology. Metrics like delay, jitter and lost packet are collected and analyzed

  • ADAILTON MAGALHAES LIMA
  • COORDENAÇÃO DESCENTRALIZADA DE ATIVIDADES EM PROCESSOS DE SOFTWARE COM CONTRATOS

    ELETRÔNICOS 

  • Data: 21/05/2008
  • Mostrar Resumo
  • Communication and Coordination constitute current challenges faced by software development teams in decentralized projects. These problems get worse due to the geographical and cultural distances among the involved organizations. Empirical studies presented by the literature shows that similar problems as project status monitoring, information protection, project coordination and contract management affect customers and suppliers no matter the organizational model. In this way, this work describes a peer-to-peer approach to exchange data about activities enactment as a support for decentralized process coordination. The events monitoring and access control among customers and suppliers also provide a contract management support. Thus, this work features are compared to the organizational models to show how they are achieved by the current prototype version. To conclude, this text presents a discussion about the advantages and limits of this work, and discusses some future directions of this research. 

  • ROMULO MAGALHAES DE SOUSA
  • Aplicação de Redes Neurais artificiais na geração de cenários de representação da dimensão humana na conservação do meio ambiente

  • Data: 17/04/2008
  • Mostrar Resumo
  • Complexity and uncertainty inherent in environmental systems, and an intervention on labor, make it difficult to construct scenarios representing the human dimension in environmental research projects. The use of classical mathematical models to deal with complexity and uncertainty can lead to the construction of distorted and poorly formalized scenarios. This work proposes a computational model that uses Artificial Neural Networks (RNA), a technique of Computational Intelligence, to construct a scenario of representation of the conversion capacity of the main residents in a population number located in a hydrographic basin. So many different RNAs exist. The first is a direct multilayer RNA trained with the backpropagation algorithm that generates an anthropic indicator. This represents the environmental behavior of an individual, based on the analysis of his socioeconomic profile by the environmental specialist. A second, a Kohonen RNA, or Self-Organizing Map, through a clustering process, seeks intrinsic characteristics of these resources to identify characteristics similarity, from their socioeconomic profile, use a competitive learning algorithm. With the knowledge acquired by the two RNAs, a scenario is constructed that allows a spatial view of the community's situation in relation to its ability to conserve the environment. This scenario allows an analysis at different scales, helping researchers and decision makers in the understanding of reality, enabling the direction of new investigations about the object of study, and a prioritization in the definition of conservation measures of the environment.

2007
Descrição
  • CESAR SIQUEIRA DE OLIVEIRA
  • EDACLUSTER: UM ALGORITMO EVOLUCIONÁRIO PARA ANÁLISE DE AGRUPAMENTOS BASEADOS EM DENSIDADE E GRADE 

  • Data: 14/09/2007
  • Mostrar Resumo
  • This work discusses conventional and evolutionary clustering methods and proposes the EDACluster algorithm. It is an Evolutionary Algorithm based on the Estimation of Distribution Algorithms (EDA) used to optimize the search for clusters in databases. The proposed algorithm uses a hybrid clustering method to evaluate the groups based on a density criterion where the items are positioned in a quantized space - a multidimensional grid. The output of the algorithm is a list of the items and their associated clusters. This work uses four public domain datasets to evaluate the proposed algorithm. The EDACluster results are compared to DBSCAN (a density- based conventional clustering algorithm) in terms of processing time and quality of the identified clusters. 

  • JEFFERSON MAGALHAES DE MORAIS
  • Estudo de Algoritmos para Classificação de Séries Temporais: Uma Aplicação em Qualidade de Energia Elétrica 

  • Data: 24/08/2007
  • Mostrar Resumo
  • This work concerns automatic classification of short circuits in transmission lines. Most trans- mission systems use three phases: A, B and C. Hence, a short-circuit between phases A and B will be identified as “AB”. Considering the possibility of a short-circuit to “ground” (T), the task is to classify a time series into one among eleven possibilities: AT, BT, CT, AB, AC, BC, ABC, ABT, ACT, BCT, ABCT. These faults are responsible for the majority of the distur- bances in electric power systems. Each short circuit is represented by a sequence (time-series) and both online (for each short segment) and offline (taking in account the whole sequence) classification are investigated. To circumvent the current lack of labeled data, the Alternative Transient Program (ATP) simulator is used to create a public comprehensive labeled dataset. Some works in the literature fail to distinguish between ABC and ABCT faults. Then, re- sults differentiated these two faults types adopting preprocessing techniques, different front ends (e.g., wavelets) and learning algorithms (e.g., decision trees and neural networks) are presented. The computational cost of the some classifiers during the test stage is investigated and the choosing parameters of classifiers is done by automatic model selection. The results indicate that decision trees and neural networks outperform the other methods. 



  • RICARDO MELO CASSEB DO CARMO
  • MVC-RA: Múltiplas Visões Coordenadas em Ambientes de Realidade Aumentada 

  • Data: 20/08/2007
  • Mostrar Resumo
  • This work aims to apply the characteristics of an augmented reality environment such as easy and intuitive interaction and large visualization space to the implementation, interaction and visualization of multiple coordinated data views. Multiple data views provide the user a better data analysis on different aspects. The coordination among multiple views reduces the cognitive overload for the user. The augmented environment was based on ARToolKit. The interaction is based on a interface with markers. The adopted visualization technique was the 3D scatterplot together with a variety of filter and view configuration options. Finally, some preliminary usability essays for the developed prototype are presented. 

SIGAA | Centro de Tecnologia da Informação e Comunicação (CTIC) - (91)3201-7793 | Copyright © 2006-2024 - UFPA - castanha.ufpa.br.castanha2