|
Description |
|
|
-
LUCIANO ARRUDA TERAN
-
Considerações de Design para Sistemas de Pagamentos Instantâneos e Usuários Emergentes
-
Data: Dec 20, 2022
-
Show resume
-
As tecnologias digitais de informação e comunicação remodelaram diversos serviços presentes na vida das pessoas. Todavia, alguns serviços implementados em sistemas interativos tem considerado fatores educacionais da sociedade, onde a migração dos serviços presenciais para as plataformas digitais fortificaram a necessidade de letramento e experiências de ensino formal das pessoas. Relacionado aos sistemas financeiros, o pagamento instantâneo brasileiro (Pix) gerou um novo método de transferência eletrônica para a acessibilidade financeira e digital entre prestadores e clientes. Contudo, ainda existem desafios de desenvolvimento que amenizem as barreiras ao acesso digital de diversos públicos, principalmente por usuários que emergem suas necessidades de interação a partir de aspectos educacionais, renda e cultura. Neste contexto, este trabalho busca desenvolver um conjunto de considerações de design que precisam ser utilizados na construção de sistemas de pagamento instantâneo e atendam às expectativas de usuários emergentes de software. A pesquisa foi realizada por meio de levantamento da literatura e estudos com o público-alvo. Logo, foi realizado um questionário com profissionais de desenvolvimento de software, um mapeamento sistemático para identificar lacunas de contextos de usos e usuários a serem beneficiados por softwares inclusivos, uma inspeção de uma proposta bancária e um levantamento de recomendações de design e avaliação de sistemas interativos para usuários emergentes. Em seguida, realizaram-se dois estudos de caso em um contexto 12 para 12: o primeiro foi realizado com 12 residentes de uma comunidade ribeirinha amazônica para construir as considerações e o segundo foi realizado com 14 usuários que possuem ensino fundamental ou médio incompleto para validar e evoluir as considerações anteriores. Cada estudo de caso foi analisado por meio de aspectos sociais dos participantes e método de inspeção semiótica. Portanto, como resultados, o estudo apresenta um conjunto de considerações que possam ser utilizado por instituições financeiras para tornar suas interfaces de sistemas de pagamentos mais acessíveis para usuários que utilizam o celular como meio de compartilhamento e aquisição renda.
|
|
|
-
WANDER WILSON DE LIMA CARDOSO
-
Uso da Teoria da carga cognitiva na elaboração do conteúdo de uma disciplina de Introdução a Programação
-
Data: Dec 20, 2022
-
Show resume
-
A Teoria da Carga Cognitiva (TCC) apresenta diretrizes que tem o objetivo de otimizar o processo de aprendizagem, baseados em pesquisas relacionadas ao funcionamento do cérebro. Estudos revelam que a memória humana é subdividida em memória de trabalho e a de longo prazo. Durante a aprendizagem é a memória de trabalho que processa as novas informações, e esta possui um número limitado de novas informações que podem ser processados durante a aquisição de novos conhecimentos, portanto, torna-se necessário gerenciar o número de novas informações a serem transmitidas ao aprendiz. A teoria da carga cognitiva afirma que a aprendizagem acontece melhor quando os materiais didáticos (quantidade de informação) se alinham com a arquitetura cognitiva humana. Sweller e seus seguidores estudaram o alinhamento simultaneamente da estrutura da informação com a arquitetura cognitiva, desvendando efeitos cognitivos que são associados a novos princípios instrucionais que visam aprimorar o processo de aprendizagem. Considerando o alto índice de retenção de discentes vinculados a disciplinas que abordam estudos sobre algoritmos, verifica-se a necessidade de buscar soluções que busquem facilitar a aprendizagem deste tipo de conteúdo. Este trabalho tem como objetivo otimizar a aprendizagem de algoritmos através do desenvolvimento de materiais didáticos com base na TCC (uma guia de desenvolvimento de algoritmos, uma guia de labortório de programação em Python e um conjunto de slides). Após desenvolvidos, estes materiais foram aplicados em uma turma real. Como resultados, verificou-se melhora na aprendizagem, refletida na redução das taxas de retenção.
|
|
|
|
|
|
-
EDUARDO GABRIEL LIMA DA SILVA
-
Resource Allocation for Long Range Wide-Area Network
-
Data: Sep 30, 2022
-
Show resume
-
The concept of IoT has brought many advantages and connectivity to the world. People in smart cities tend to be constantly connected, and wireless connection technologies have become necessary in their routines. However, the challenge of maintaining this reliable connectivity increases for science. LoRa was developed as a wireless technology to transmit data over a long range and low cost. The LoRa devices can send packets for tens of kilometers through the LoRaWAN protocol. However, LoRa needs to set the transmission parameters hierarchically allocated and adapted to the network context to maintain its purpose. The LoRaWAN protocol provides a resource allocation mechanism called ADR LoRaWAN that allocates SF and TP transmission parameters to increase scalability and reduce devices’ power consumption. However, ADR LoRaWAN has flaws in prioritizing scalability at the cost of low reliability. In this master’s thesis, we propose the PRA and APRA LoRa resource allocation mechanisms. Both aims to create a hierarchy between devices and ensure better performance for high-priority devices in LoRa networks. While PRA focuses on reducing ToA and power consumption, APRA aims to reduce packet loss and power consumption while increasing the battery life of devices. We compared PRA and APRA with state-of-the-art mechanisms in the LoRaSim simulator. The results showed that the PRA mechanism reduced the ToA and power consumption of high-priority devices by up to 85%. APRA increased up to 5% in packet delivery and 85% in energy savings. Furthermore, APRA’s TP allocation mechanism has increased the device’s battery life by up to 28 years.
|
|
|
-
ISAAC SOUZA ELGRABLY
-
An Approach to Teaching Software Testing Using Active Methodologies in Higher Computing Courses
-
Data: Sep 20, 2022
-
Show resume
-
Software testing is considered a key activity in the software development cycle as it helps computer professionals design good quality software. Thus, this is an essential activity for the software industry, although with all its nuances, learning at the academic level is still not given high priority. Considering that it is a content that needs a good amount of elements of previous knowledge and much of its knowledge needs practical interventions, the importance of using active methodologies was seen, which has been well accepted in more practical computing disciplines. Thus, the main objective of this work is to present a teaching approach used with a curriculum, and a teaching plan for a software testing discipline, based on active methodologies. As a result, there is a teaching plan that is built from active methodologies, which is composed of 32 theoretical and practical classes, distributed in 4 modules, which is based on references from a specialized curriculum in software testing, built from a mapping in different assets related to software testing, the main ones being the SBC Curricular Reference Guide, the ACM/IEEE Curriculum Guide and the SWEBOK Software Engineering Knowledge Guide. In addition, two quasi-experiments were carried out in full, the first evaluated the effectiveness of the test teaching approach compared to a traditional approach and the second, in addition to evaluating the effectiveness of the teaching approach against a traditional approach, also made an analysis of the efficiency of learning in the class, both quasi-experiments were analyzed with a statistical analysis using the two-sided Student's t distribution, which showed a certain learning gain for the presented approach.
|
|
|
-
HUMBERTO CAIO CAMILO LEAO
-
IoT Data Disaggregation in Next Generation Software Defined Networks
-
Data: Sep 19, 2022
-
Show resume
-
Low-Power Internet-of-Things (LPIoT) networks are generally designed for applications such as smart cities, building monitoring, and smart metering. They are characterized by a large number of IoT nodes with resource limitations such as energy, processing, and data transmission. Due to its limitations, it is common to use techniques that seek to alleviate them. One of these techniques is data aggregation, whose purpose is to reduce network traffic, which brings benefits such as reducing the energy consumption of these LPIoT devices. However, any aggregated payload needs to be disaggregated before packets are delivered to IoT applications. In this work, we consider that programmable switches must perform the disaggregation of packets aggregated by LPIoT devices. Nevertheless, the disaggregation process can cause a reduction in the transfer rate, as it is a computationally expensive process. In view of this, we propose the implementation of an IoT packet disaggregation strategy in software-defined networks (SDN), with packet processing in the data plane, using the P4 language.
|
|
|
-
ADAILTON MAGALHAES LIMA
-
UNDERSTANDING THE CORRELATION OF TRAVELS AND REMOTE MEETINGS IN DISTRIBUTED SOFTWARE DEVELOPMENT
-
Data: Sep 14, 2022
-
Show resume
-
Context: Remote communication is critical for distributed software development. Despite previous studies, it still is necessary to identify, understand and characterize factors that affect remote communication and its impact on distributed software development. Goals: We seek to advance towards a better understanding of the dynamics of collaboration practices among members of Distributed Software Development (DSD) projects and how usual project metrics, especially the ones related to travel and remote meetings, can correlate to the software testing process. Method: we conducted a quantitative retrospective study using historical data from a DSD project management dataset to investigate the correlation of travels and remote meetings with time spent on bug-fixing tasks. Additionally, we conducted a qualitative study, in which we interviewed software developers working on distributed projects and collected their perception regarding working practices and the impact of distance on their projects. Results: Based on the quantitative study, we found that travels are associated with the team spending up to three thousand percent more hours fixing bugs (from 1 to 31.1 hours) in a single project release when compared to releases with no travels involved. Travels are correlated to an increase in the total time spent in the same release to fix bugs. We search for an explanation for these results, through a more comprehensive contextualization of findings from a cross-company study, by interviewing ten software engineers from seven companies. Interviewees highlighted that travel and face-to-face meetings improved communication during critical project milestones. They also explained how tools must provide continuous and multiple communication channels among team members to help them segment communication or find the right person to answer questions or solve problems in testing or production environments. Conclusion: Our quantitative research results show a correlation between travels and the time spent on remote meetings with the time spent on bug-fixing tasks in the same release. The qualitative ones show the importance of traveling to another site to meet face-to-face teams and the support of tools and time to communicate with remote members of the same project. Additionally, we observed that the time zone in innersourcing projects has different correlation results with the time spent on bug fixing depending on the teams' location.
|
|
|
-
WENDY MENDES GALENO
-
Hackathons and similar time-bounded events have become a popular form of collaboration invarious domains. They are commonly organized as in-person events during which teams engagein intense collaboration over a short period of time to complete a project that is of interest tothem. Most research to date has thus consequently focused on studying how teams collaborate ina co-located setting pointing towards the advantages of radical collocation. The global pandemicof 2020 however has led to many hackathons moving online which challenges our currentunderstanding of how they function. In this study we address this gap by presenting findingsfrom a multiple-case study of 10 hackathon teams that participated 4 hackathon events acrosstwo continents. Our findings indicate that some of the affordances of in-person hackathons, suchas the radical collocation of team members, could be noticed in the online hackathons, in theform of "radical virtual collocation". However, others, such as the interactions with other teams,the easy access to mentors, and the Networking with Other participants, diminished or evendisappeared: interactions with mentors became formal and less spontaneous (i.e., booking) andvery short sessions; the casual contact with participants from other teams no longer exist. Thetechnical constraints of the myriad of communication tools and platforms bring technical issuesand are overwhelming to participants.
-
Data: Sep 2, 2022
-
Show resume
-
online hackathons, time-bounded collaborative events
|
|
|
-
MARLON SILVA PIMENTEL CRUZ
-
Methodology for Using Digital Copies in Computer Networks: Case Study of the Metropolitan Network of Belém (METROBEL)
-
Data: Aug 30, 2022
-
Show resume
-
The concept of the digital shadow, a digital representation of a real-world object that has a one-way flow between the physical and digital objects, has been gaining popularity in the industry and is beginning to be used in different scenarios. This approach exploits the potential of digital copying to represent the real purpose and thus facilitate experiments around a given production environment. This work proposes a strategy divided into four steps to use digital copying in the context of computer networks, with the objective of being a low-cost alternative to help in the planning and evaluation of operations inherent to the management of real networks. As a case study, the proposal will be applied to create a digital copy of the MetroBel network - Rede Metropolitana de Ensino e Pesquisa de Belém, to facilitate its planning and evolution.
|
|
|
-
ADRIANNE VERAS DE ALMEIDA
-
Introdução ao Pensamento Computacional na Educação Básica: Formação Inicial Docente Utilizando uma Ferramenta Educacional Chatbot com Inteligência Artificial
-
Data: Aug 22, 2022
-
Show resume
-
De acordo com as diretrizes da SBC (Sociedade Brasileira de Computação), os fundamentos da Computação são base para o Pensamento Computacional (PC), o qual tem por objetivo desenvolver uma série de habilidades tais como o pensamento crítico, criatividade, adaptabilidade entre outras. Como também, pode ser aplicado para resolver problemas em diversas áreas de conhecimentos, o que torna uma habilidade essencial na formação dos profissionais de todas as áreas. Sob este contexto, o presente artigo tem como objetivo relatar a experiência de uma formação inicial online, realizada com professores de matemática e computação/informática na educação básica no Brasil, que desejem incorporar temas relacionados ao PC às suas atividades didáticas desenvolvendo habilidades para resolução de problemas. Com isso, essa formação uniu as metodologias da aprendizagem baseada em computação des(plugada), jogos digitais e programação em bloco. Além disso, foi desenvolvido e utilizado um chatbot com técnicas de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) para auxiliar no processo de ensino-aprendizagem do PC. Os resultados preliminares, indicaram que os professores adotaram novas estratégias no seu ambiente de trabalho, elaborando e aplicando práticas educativas integradas à temática em escolas da rede de ensino. Sendo assim, a formação foi validada pelos participantes e se mostrou relevante para ser inserido em formações maiores no contexto da educação básica. Portanto, espera-se contribuir para que redes de ensino e escolas reestruturarem seus currículos, visando a integração do PC nas disciplinas do ensino básico, de acordo com as novas diretrizes da Base Nacional Comum Curricular (BNCC).
|
|
|
-
ESDRAS ROBERTO ALVES DE LA ROQUE
-
The demand for bandwidth has been increasing exponentially in recent years, with homes, businesses, industries, mobile devices, internet of things devices, wearable devices, etc., more and more connected to the internet through applications that also continue to evolve and demand greater speed for data exchange, commonly often a real-time system models, demanding more resources, not just speed, but also quality in the physical means of accessing the network. In this context, we have optical networks as the best way of access. However, the optical environment supports a bandwidth that allows the use of several applications at the same time, through signal multiplexing, which is dividing the band for multiple applications and also avoiding underutilization of the physical resource. However, routing these split signals requires optoelectric conversions, reducing the total capacity in the response time, as the signal goes from the light field to the electric one, being demodulated, processed by routing algorithm and again modulated to light signal, each time it finds a transient router on which it needs to decide which route to take until the destination. This is the problem of networks known as the RWA Problem in WDM networks and to solve it, several proposals involve intelligence algorithms computational, which, in general, are algorithms that process predictive models and require some computation time until deliver an acceptable solution. However, this computation takes longer than the optoelectrical conversion itself, making it unfeasible its application in a real routing scenario. This work presents a parallel strategy with a heuristic approach to reduce the execution time bottleneck of a routing and wavelength assignment problem in wavelength-division multiplexing networks of a previous work that uses a sequential genetic algorithm. As the parallelization solution, the GPU hardware processing on CUDA architecture and CUDA C programming language were adopted. A program code, originally written in Python programming language and executed sequentially, was first ported to the C-99 programming language, also running in the sequential model. Then, this last version was ported to the CUDA C programming language, and in this one, already running a parallel program model in GPU computing architecture. As results achieved, the processing time was considerably reduced, obtaining an improvement in the order of scale between 35 and 40 times faster than the original sequential version of the genetic algorithm running in Python.
-
Data: Aug 19, 2022
-
Show resume
-
Genetic Algorithm, RWA problem, CUDA, Parallelization, WDM networks
|
|
|
-
RAMON DA GAMA CORDEIRO
-
Blockchain Applications Assessment Methodology
-
Data: Aug 19, 2022
-
Show resume
-
Blockchain is an emerging technology that has attracted the attention of industry and academia in recent years. The interest is due to the possibility of reliably communicating and exchanging data in a decentralized environment where there is no trust between participants. Recently, many blockchains and decentralized applications have been created as alternatives to solve specific challenges. With the number of proposed solutions increasing daily, it becomes necessary to use standardized parameters to assess which is the most appropriate in a specific context. This work presents an evaluation methodology for blockchain that can be used for stakeholders who need to choose the best technologies, or for those who want to evaluate a previously chosen or implemented solution. The proposed solution was evaluated through use cases in different scenarios. The results demonstrated the methodology's efficiency and flexibility to evaluate blockchains for different purposes.
|
|
|
-
SAMARA LIMA DE SOUZA
-
Data Mining in Public Security Databases in Belém do Pará - Brazil
-
Data: Aug 10, 2022
-
Show resume
-
Crime is a common social problem faced around the world, and it can affect a nation's quality of life, economic growth, and reputation. Thus, public security authorities need to take preventive measures and one of the methods that have been gaining ground in crime analysis is data mining. Thus, the objective of this work is to create a set of tools to combat crime, using techniques of exploratory data analysis, extraction of associative rules, and a crime classifier, through data from police reports in the city of Belém and throughout the state of Pará, Brazil in the years 2019, 2020 and 2021. To guide this study, the CRISP-DM methodology was used, where it was possible through the first two techniques to extract knowledge to understand and analyze the crime scenario in the municipality of Belém, as the fact that a certain crime occurs at night implies that its nature is robbery in order to assist the responsible bodies in investigations and strategies for a more effective fight against crime, as well as using the third technique to optimize manual processes, making the classification of crimes from the reading of a report of occurrence bulletins from all the municipalities of the state of Pará, with an accuracy of approximately 78%, benefiting other government research and statistics that require the correct classification of the type of crime, in addition to reducing the manual work that is done by analysts at the Assistant Secretariat for Intelligence and Criminal Analysis of the state of Pará, Brazil.
|
|
|
-
ANDRE MIRANDA PINHEIRO
-
Um Estudo Exploratório das Contribuições dos Eventos Colaborativos de Curta Duração para Fundadores de Startups
-
Data: Jul 29, 2022
-
Show resume
-
Os eventos colaborativos de curta duração atraem diversos tipos de pessoas para trabalhar em pequenas equipes que desenvolvem um projeto de software para solucionar um deter- minado problema. Ao participar desses eventos, os seus participantes têm a oportunidade de adquirir novos conhecimentos, conhecer pessoas, enriquecer o seu portfólio, ganhar reconhecimento e conseguir propostas de emprego. Apesar de não ser muito comum, alguns dos projetos desenvolvidos nestes eventos podem ser o início de uma startup. Ainda assim, existem poucos estudos explorando o relacionamento desses eventos com startups. Esta dissertação tem o objetivo de entender como os fundadores de startups se beneficiam dos eventos de curta duração. Para verificar isso, uma pesquisa exploratória com abordagem qualitativa foi realizada. Os dados foram coletados por meio de entrevistas semiestrutu- radas com 16 fundadores de startups brasileiras. Os entrevistados residem e atuam em diversos estados do Brasil, incluindo Pernambuco, Pará, Paraná, Santa Catarina e São Paulo. Os dados coletados foram analisados usando algumas das técnicas de codificação da Teoria Fundamentada em Dados (codificação aberta e axial), em seguida os resultados da análise dos dados foram apresentados para outros fundadores de startup como uma forma de validar os resultados obtidos. Esta pesquisa revelou que as startups, através dos relatos de seus fundadores, se favoreceram tanto das participações que ocorreram antes da criação da empresa, bem como das que ocorreram após a criação dela. Os benefícios citados pelos entrevistados incluem o desenvolvimento de novos produtos, arrecadar dinheiro, ganhar visibilidade, perceber oportunidades de atuação, aprendizado e networking, sendo que o aprendizado pode ser de vários tipos incluindo conhecer metodologias, desenvolver soft skills e aprender a utilizar ferramentas. Enquanto que o networking pode beneficiar as startups ao permitir que as mesmas identifiquem fundadores, sócios, novos clientes, entre outros. Nossos resultados sugerem que a participação em eventos colaborativos de curta duração ajudam as startups a satisfazer algumas das necessidades que as mesmas possuem.
|
|
|
-
EDUARDO COSTA DE CARVALHO
-
Crack detection in wagons aided by convolutional neural networks
-
Data: Jul 22, 2022
-
Show resume
-
Crack detection is a problem for any physical structure, where wear and tear over time can generate different types of problems for people. When taking this subject to the context of vehicles, there is a check of track conditions and equipment. A freight car can reach a storage capacity of up to 120 million tons in a year, in addition to the use of this means of transport for people. In this sense, the maintenance of train wagons is of paramount importance for the economy of a country, so studies on the lifetime of these wagons are increasingly carried out in order to increase their time of use without impacting the safety of all those involved with these tasks. The use of human force to check wagon parts has been carried out and over time the concern with their health has been taken into account, as studies suggest that people exposed to places with a high level of danger have generated different types of diseases, as well as the economic appeal in loss of part of transported materials. The wagons used for this work were iron ore freight wagons. For such wagons, compositions of 330 wagons divided by 3 times were studied, therefore 110 wagons were evaluated at a time. Thus, with these numbers in hand, this thesis proposes a way of structuring data for each type of evaluated algorithms. Firstly, a data capture model is indicated and modified for its following tasks, then this structuring performs the application of image segmentation models to serve as input for the classifier algorithms. Then the thesis indicates the use of 2 types of databases in the evaluation of a machine learning method model. The proposal to use 2 forms of databases for only one model at this time is due to the previous use of attempts in two other machine learning models, with unsatisfactory results. The evaluation of this second contribution is done in order to evaluate wagon cracks present in the real images that were used for an unbalanced database and another balanced database. Then the thesis indicates the use of another evaluation method and the creation of an ensemble based on voting to try to improve the results found by all previously evaluated algorithms. The results obtained in this thesis demonstrate that the use of machine learning and computer vision methods can identify cracks in train wagons in order to offer savings to companies that use such transport methods, as well as better security for all people directly involved. or indirectly in train maintenance activities.
|
|
|
-
MATHEUS OLIVEIRA LEITE DE SA
-
-
Data: Jul 15, 2022
-
Show resume
-
Coerção é um problema inerente a qualquer eleição realizada via Internet e é mitigada pelo uso de protocolos que empregam credenciais de votação. Entretanto, credenciais são usualmente compostas por extensos valores numéricos, o que dificulta sua utilização por usuários com menos conhecimento técnico em cenários de eleições reais. O uso incorreto das credenciais de votação debilita a resistência à coerção de um protocolo. Nesse contexto, este trabalho propõe a utilização de um novo modelo de senhas como alternativa ao uso direto de credenciais pelo usuário, abstraindo os extensos valores numéricos para senhas formadas por combinações de palavras e cores. Tais senhas são formadas utilizando os itens de um dicionário estruturado, inspirado na tecnologia BIP-39 do Bitcoin, e uma paleta de oito cores distintas. Como validação, foram realizadas avaliações de segurança teórica e da qualidade da interação do modelo proposto. Para a avaliação de segurança o modelo foi comparado com o protocolo de senhas de pânico 5-Dictionary, enquanto as avaliações de interação compararam-no com senhas alfanuméricas. As senhas coloridas atingiram melhores resultados que seus concorrentes em ambas as avaliações, o que aponta para um aumento tanto na segurança quanto na qualidade da interação do modelo em relação à literatura.
|
|
|
-
ROBERTO BARBOSA DE ALMEIDA JUNIOR
-
Identificação de Metodologias de Ensino-Aprendizagem na Programação Paralela com Placas Gráficas: Uma Revisão Sistemática da Literatura
-
Data: Jul 11, 2022
-
Show resume
-
A Computação de Alto Desempenho (CAD) é hoje uma realidade nos grandes centros de pesquisa, pois ajuda na solução de problemas complexos que necessitam de um elevado poder de processamento. Com o avanço da tecnologia, esses sistemas passaram a utilizar uma forma híbrida de processar, ou seja, passaram a ser formados tanto por processadores multicores quanto por placas gráficas, onde o número de núcleos disponíveis para processamento pode chegar a algumas centenas. No entanto, nem sempre a pesquisa e o ensino caminham no mesmo compasso, isso porque, apesar do ensino da programação paralela já ser uma realidade na maioria dos cursos de graduação em Computação no Brasil, o uso das placas gráficas neste processo de ensino-aprendizagem, ainda se mostra como um objetivo a ser alcançado. Isso talvez, possa ser explicado, pela especificidade da tecnologia que requer arquiteturas e softwares próprios, mas principalmente, também, pela necessidade de profissionais capacitados que sejam capazes de definir metodologias que possam ser ao mesmo tempo, motivadoras e facilitadoras no processo de ensino-aprendizagem. Isso irá permitir com que os alunos possam adquirir as competências e as habilidades necessárias para a sua formação, mas também, irá despertar o interesse pela área, contribuindo para a formação de uma mão-de-obra qualificada e necessária. Este trabalho apresenta uma Revisão Sistemática da Literatura (RSL) com o objetivo de identificar abordagens no processo de ensino-aprendizagem da Programação Paralela, porém, especificamente, utilizando placas gráficas, afim de identificar metodologias que estejam sendo utilizadas no ensino deste eixo de formação da Computação. Para a RSL, foram selecionadas inicialmente 34 fontes, entre bases nacionais e internacionais, dentro das áreas de Computação de Alto Desempenho e Programação Paralela. Em seguida, essa pesquisa foi expandida para bases como ACM, IEEE, Science Direct, EI Compendex, ISI e Scopus. A pesquisa retornou 867 estudos, sendo que destes, apenas 5 trabalhos foram selecionados após a aplicação dos critérios de inclusão e exclusão, demonstrando, dessa forma, uma limitação de produções acadêmicas no tema proposto.
|
|
|
-
BHRUNNO BRITO MEDEIROS
-
As dificuldades no Gerenciamento de API: Um Estudo de caso em um órgão público brasileiro
-
Data: Jul 7, 2022
-
Show resume
-
Com o avanço da tecnologia de software em diversas organizações, a utilização de Application Programming Interfaces (APIs) Representational State Transfer (REST) nos negócios está aumentando cada vez mais. Organizações estão caminhando rumo às transformações digitais, fornecendo ou consumindo informações e aumentando suas produtividades e assim, gerando conexões de negócio com produtos de software, permitindo criar novos negócios com mais facilidade, e através de integração entre organizações, proporcionando um ecossistema de APIs (Blosh, 2006).
De acordo com Fielding (2000), o Representational State Transfer (REST) é uma abstração da arquitetura de elementos dentro de um sistema hipermídia distribuído, ou seja, Protocolo de Transferência de Hipertexto (HTTP). Além disso, ele abrange as restrições fundamentais sobre os componentes, conectores e dados que definem a base da arquitetura da Web. Sendo, portanto, a essência de seu comportamento baseado em aplicações de rede (Fielding, 2000).
Uma API REST ajuda no alcance de um melhor desempenho, além de reduzir o acoplamento entre as aplicações. Isso faz com que haja o aumento da capacidade de integração de um sistema com o outro (Santana, 2019 apud Tilkov, 2009).
As APIs REST podem ser os maiores ativos de uma organização, isso se deve ao fato delas ajudarem a captar clientes devido ao investimento destes clientes em compras ou utilização de serviços. Dados de várias organizações, como WSO2, Oracle, Azure e Apigee, mostram que através do gerenciamento de APIs REST é possível conseguir gerar insights, incluindo os padrões de acesso geográfico, tipos de dispositivos e até latências dos principais usuários (Santana, 2019).
As APIs acabam envolvendo uma arquitetura que está ganhando cada vez destaque, que são os microsserviços. Estes permitem implementar novos serviços de uma maneira que haja a possibilidade de reaproveitamento em curto espaço de tempo, assim, permite que estes novos serviços sejam escaláveis e resilientes (Martins, Pires e Souza, 2021).
Os microsserviços trazem bastante benefícios, como a disponibilização e escalabilidade considerando as diferenças partes do sistema (Martins, Pires e Souza, 2021 apud Newman, 2015). Porém, apesar desses benefícios, é possível encontrar várias dificuldades, pois eles trazem mais complexidade para os sistemas, requerendo a utilização de novos componentes (Martins, Pires e Souza, 2021 apud Balalaie, Heydarnoori e Jamshidi, 2016).
Com a importância das APIs de serviços cada vez maior, torna-se necessária a utilização de plataformas adequadas para o seu gerenciamento. Grandes empresas como Facebook, Google, IBM, Microsoft, bancos nacionais e internacionais já utilizam APIs para disponibilizar seus serviços. O objetivo dessas plataformas ou ferramentas é justamente a disponibilização de serviços. Porém, como se tratam de grandes empresas e, consequentemente, de grandes sistemas, dificuldades são encontradas, que acabam atrasando o seu desenvolvimento. De acordo com Santana (2019), durante o processo de utilização e gestão de APIs REST, naturalmente acabam surgindo dificuldades e problemas e isso pode causar algum prejuízo no êxito da gestão destas APIs.
Assim, diante da grande importância das APIs para as organizações e da necessidade de gerenciar estas APIs (Santana, 2019), este trabalho descreve um estudo de caso em uma organização sobre os mecanismos de gestão de APIs adotados. A organização escolhida é um órgão público estadual, que possui sistemas conectados no estado do Pará e no Brasil. Esta organização possui diversas APIs em seu vasto ecossistema e mostra-se adequada para este estudo pelo tamanho da abrangência que o órgão possui no país.
Problemas e dificuldades da gestão de APIs foram identificados através de uma pesquisa de campo com dados coletados por meio de entrevistas. Além disso, este trabalho também mostra (i) como a ferramenta Sharingan pode ajudar a lidar com algumas das dificuldades que foram encontradas e (ii) propostas de extensões à ferramenta Sharingan para que a mesma possa atender as necessidades da organização estudada.
O objetivo geral dessa pesquisa é proposição de uma lista de requisitos funcionais e não-funcionais para o desenvolvimento de uma ferramenta de gestão de APIs. Isto é feito através da identificação e análise das dificuldades encontradas quando APIs REST são utilizadas dentro de um órgão público brasileiro. A organização estudada é um órgão público brasileiro responsável pela coleta de impostos e funções de gestão financeira para todo o estado, possuindo uma equipe de mais de 100 profissionais de TI distribuídos em diferentes equipes, com aproximadamente 500 APIs ativas. As questões levantadas no presente artigo são: (i) Como coletar insumos para o desenvolvimento de uma ferramenta de gestão de API? (ii) Quais os requisitos necessários para o desenvolvimento de uma ferramenta de gerenciamento de API?
Os objetivos específicos são: (i) coletar na literatura quais ferramentas são usadas para o gerenciamento de API, (ii) Coletar dados de ferramentas de gerenciamento de API que são utilizadas no mercado e (iii) Realizar pesquisa de campo realizada através de entrevistas. Por fim, realiza-se também uma análise da ferramenta Sharingan, que é utilizada para o gerenciamento de API no próprio órgão público, que possui como uma de suas principais características ser um módulo externo à aplicação principal, coletando dados de uma API sem a necessidade de modificações no código fonte da API WEB monitorada (Santana, 2019).
|
|
|
-
ADRIANO SILVA BARRETO
-
An Online Pyramidal Embedding Technique for High Dimensional Big Data Visualization
-
Data: Jul 6, 2022
-
Show resume
-
The task of visualizing large dimension data is challenging in a machine learning context where knowing the dataset is essential to find the right technique for creating classification, clustering, prediction models, and others. It is of paramount importance to understand that these sets and visual inspections can help in this search. To face the problem of visualizing highly dimensional data, we can use DR (Dimensionality Reduction) techniques, producing low-dimensional representations (2D or 3D) in order to obtain knowledge of the behavior of these data. Many techniques are capable of producing low-dimensional data but they are computationally expensive, reaching O(n^3) complexity. This, together with the need to load all data into main memory, make the use of these techniques for Big Data impractical. In this work, we will introduce PES (Pyramidal Embedding System), an incremental DR technique that allows use in Big Data, free of hyperparameters, with linear complexity in time O(n), capable of to perform embedding in both 2D and 3D.
|
|
|
-
LUCIANO RIBEIRO DUARTE
-
Uma Revisão Sistemática da Literatura Aplicada à Recuperação de Dados Armazenados em Nuvem.
-
Data: Jul 4, 2022
-
Show resume
-
O acesso à informação, independentemente da localização, é algo necessário e essencial, assim como, o acesso aos arquivos pessoais através dos dispositivos móveis, que também se tornou algo imprescindível. Para isso, os serviços de armazenamento e processamento em nuvem evoluíram, tornando-se uma tecnologia confiável e em muitos casos, virtualmente ilimitada. Porém, como em todo dispositivo de armazenamento, os dados podem ser deletados de forma proposital ou acidental, havendo, com isso, a necessidade de recuperá-los. As técnicas utilizadas de recuperação de dados nestes dispositivos se mostram quase sempre ineficientes quando aplicadas em dados armazenados na nuvem. Por este motivo, o crescimento exponencial da computação em nuvem passou a ser uma das demandas mais debatidas entre os profissionais da computação forense digital na contemporaneidade, isso porque, trouxe vários desafios, entre eles: a identificação do proprietário de um arquivo deletado, a alocação dinâmica e eficiente da distribuição dos dados, a integridade e a segurança dos dados armazenados são alguns dos novos desafios a serem superados. A recuperação de dados nesses ambientes, além de necessitar de ferramentas especializadas para contribuir na análise, extração e recuperação de dados, pode necessitar, também, do trabalho conjunto de diversos profissionais como: especialistas em direito digital, peritos criminais e profissionais de Tecnologia da Informação (TI). Esse trabalho apresenta uma Revisão Sistemática da Literatura aplicada à recuperação de dados em servidores na nuvem com o objetivo de identificar e apresentar as abordagens existentes de recuperação de dados em nuvem. Durante a pesquisa foram 3.374 estudos retornados, sendo que apenas 13 trabalhos passaram nos critérios de inclusão e exclusão, onde foram apresentadas as principais ferramentas utilizadas para a recuperação de dados. Além disso, este trabalho descreve, também, as principais vantagens e desvantagens do armazenamento em nuvem, os modelos de implantação, tipos de serviços oferecidos pelos fornecedores e por fim, aborda as legislações brasileiras e internacionais que tratam do contexto deste estudo.
|
|
|
-
IVO DE ABREU ARAÚJO
-
Explicabilidade de modelos de caixa preta: Um estudo de caso em análise de sentimentos de mensagens do Twitter sobre a COVID-19
-
Data: Jun 29, 2022
-
Show resume
-
A interpretação de predições realizadas por algoritmos de aprendizado de máquina é uma necessidade em aplicações inteligentes em que a confiabilidade nos resultados é essencial, principalmente quando se trata de decisões que afetam diretamente a vida humana, como na saúde e finanças. Nesse contexto, define-se a interpretabilidade como a capacidade de compreensão de modelos, enquanto que a explicabilidade utiliza de abordagens para tornar modelos complexos mais transparentes. Diante disso, este trabalho tem como objetivo desenvolver testes de explicabilidade utilizando o framework LIME (Local Interpretable Model-Agnostic Explanations) no contexto de NLP (Natural Language Processing) para interpretar predições de um SVM (Support Vector Machine) em classificações de sentimentos em mensagens do Twitter relacionadas a COVID-19 (Corona Vírus 19). Para otimizar o processo de compreensão de amostras, desenvolveu-se uma aplicação web integrada com o LIME para explorar essas predições de forma interativa através da escolha da quantidade de features explicadas. Com a análise dos resultados obtidos com o LIME, observou-se um ganho de transparência quanto ao processo de compreensão de decisões internas do modelo de caixa preta através de palavras determinantes que impactam predições. Por exemplo, na análise realizada nesta dissertação foi possível perceber na avaliação de amostras falso positivas, que o modelo SVM tende a falhar ao associar um teste positivo de COVID a um sentimento bom e ficar confuso em predições específicas que envolvem palavras relacionadas a variantes de COVID como a Ômicron.
|
|
|
-
FABRICIO WICKEY DA SILVA GARCIA
-
An Approach to Teaching Algorithms Using Active Methodologies in Higher Computing Courses
-
Data: May 30, 2022
-
Show resume
-
The teaching of algorithms has proved to be quite challenging in recent years. The Algorithms course provides a foundation for all subsequent programming courses in an undergraduate course. The contents related to programming are considered complex and difficult to understand, which ends up generating high failure rates in subjects and, consequently, can influence the increase in the dropout rate in courses in the computing area. In view of this, it becomes of great importance to explore new forms of pedagogical intervention in the classroom, such as active methodologies that have been generating promising results such as improving approval rates in algorithms or equivalent subjects. Thus, the objective of this work is to present a form of intervention that was incorporated into a teaching plan focused on the discipline of algorithms, based on six active methodologies: Virtual Learning Environments - AVA, Coding Dojo, Gamification, Problem Based Learning, Flipped Classroom and Serious Games, detailing the stages of elaboration of the teaching plan, as well as the technical evaluation of the material developed, through peer review that had the participation of specialists in the teaching of algorithms and in the use of active methodologies. As a result, there is a teaching plan that is entirely structured from active methodologies, which is composed of 17 theoretical and practical classes, distributed in 5 modules, which is based on curriculum references, such as the Brazilian Society of Computing (SBC), Association for Computing Machinery and Institute of Electrical and Electronic Engineers. In addition, two case studies were carried out: the first to evaluate the applicability of the proposal and its effects from the students' point of view, and the second aiming to evaluate the effectiveness of the proposed approach versus traditional teaching, performing a statistical analysis using the two-tailed Student's t distribution for independent samples, which showed significant statistical gains when using the proposed approach.
|
|
|
-
IAGO LINS DE MEDEIROS
-
An Energy-Efficient Swarm-based Unmanned Aerial Vehicle System for Mobile Object Tracking and Video Delivery in Disaster Scenarios
-
Data: Mar 25, 2022
-
Show resume
-
Floods are the most common disaster in the world and cause deaths, damages to houses, buildings, and possessions, as well as disruption to communications. In such scenarios, it is needed to search and track mobile objects transported by the water flows, such as humans, animals, vehicles, and debris. Unmanned Aerial Vehicles (UAVs) appears as an essential tool in disaster scenarios, in order to help first responders to determine correct procedures in terms of searching, tracking, and rescuing the victims, as well as in defining the actions to minimize the risks in a sustainable and timely manner. However, the tracking of mobile objects and the delivery of real-time video sequences from UAVs with energy constraints toward first responders is still a hard task. Therefore, it is necessary to orchestrate a swarm of UAVs for searching and tracking mobile objects while reacting fast to frequent changes in the topology and trajectory, as well as distributing real-time video flows with quality level support to the ground team. This thesis presents an energy-efficient swarm-based scheme for mobile object tracking, called SUAV (Swarm of UAVs). The SUAV provides a unique UAV-based system for rescue scenarios with mobile objects and with support for route and path planning, searching and tracking procedures, mobility prediction and multi-hop communication management, video delivery with quality level support, and energy-efficiency. Simulation results show that SUAV transmitted videos with at least 15% better QoE support while minimizing the energy consumption by at least 22% when compared to related works.
|
|
|
-
LUCAS FELIPE FERRARO CARDOSO
-
Evaluating Machine Learning Classifiers and Benchmarks by Item Response Theory
-
Data: Mar 11, 2022
-
Show resume
-
The experiments covered by Machine Learning must consider two important aspects to assess the performance of a model: datasets and algorithms. Robust benchmarks are needed to evaluate the best classifiers. For this, one can adopt gold standard benchmarks available in public repositories. However, it is common not to consider the complexity of the dataset when evaluating. This work proposes a new assessment methodology based on the combination of Item Response Theory (IRT) and Glicko-2, a rating system mechanism generally adopted to assess the strength of players (e.g., chess). For each dataset in a benchmark, the IRT is used to estimate the ability of classifiers, where good classifiers have good predictions for the most difficult test instances. Tournaments are then run for each pair of classifiers so that Glicko-2 updates performance information such as rating value, rating deviation and volatility for each classifier. A case study was conducted hereby which adopted the OpenML-CC18 benchmark as the collection of datasets and pool of various classification algorithms for evaluation. Not all datasets were observed to be really useful for evaluating algorithms, where only 10% were considered really difficult. Furthermore, the existence of a subset containing only 50% of the original amount of OpenML-CC18 was verified, which is equally useful for algorithm evaluation. Regarding the algorithms, the methodology proposed herein identified the Random Forest as the algorithm with the best innate ability.
|
|
|
-
DERIAN FERNANDO ALVES DE ALENCAR
-
Dynamic allocation of microservices for virtual reality content delivery to provide quality of experience support in a fog computing architecture
-
Data: Feb 25, 2022
-
Show resume
-
Virtual Reality (VR) content has been expanding in recent years, demanding solutions for its efficient distribution over the Internet. Microservices present an ideal model for deploying services at different levels of a Fog computing architecture for managing traffic and providing Quality of Experience (QoE) to VR content. However, it is crucial to efficiently find the fog node to allocate the microservices, directly impacting VR services' QoE. Therefore, this thesis proposes a mechanism to allocate microservices in a fog computing architecture to improve QoE based on network parameters like delay, migration time, and resource utilization rate. In evaluating our proposal, the results were obtained on different scenarios using a simulation environment to demonstrate and compare the efficiency of existing mechanisms in terms of cost, migration time, load balancing, and QoE.
|
|
|
|
|
|
-
RODRIGO HENRIQUE BARBOSA MONTEIRO
-
FRAGAMES: A Framework for Evaluating Gamification in Software Engineering
-
Data: Feb 11, 2022
-
Show resume
-
Gamification has been used to motivate and engage participants in software engineering teaching and practice activities. There is a significant demand for empirical studies to understand the impacts and effectiveness of gamification. However, the lack of standardized procedures and models for the evaluation of gamification is a challenge for planning, comparing and reporting results related to the evaluation of gamification approaches. Therefore, the main objective of this research is to define and propose standardized procedures for the evaluation of gamification in software engineering. For this, a systematic literature review was carried out in order to analyze the state-of-practice of gamification evaluation in software engineering. From this analysis, and from the GQiM evaluation model, a framework for the evaluation of gamification in software engineering was built, composed of generic entities and evaluation phases. Then, two proofs of concept and a peer review were carried out to verify and evaluate the framework's suitability in the instantiation of evaluations through a reverse analysis of the evaluation of two primary studies. Finally, two case studies were carried out, where two gamified approaches were applied that used the framework to design their evaluative approaches, to validate the use of the framework. With the accomplishment of this research, it was seen that: (1) there are no models in use to support the evaluation of gamification, and therefore there is no standardization in the design, data analysis and reporting of the evaluation of gamification in software engineering; (2) due to this, it was necessary to develop a framework for the evaluation of gamification; (3) the developed framework is suitable for instantiating old and new assessments. However, it is still necessary to: (1) perform new instantiations of the framework so that it is validated, and that its usefulness in terms of generating replicable and comparable empirical data is confirmed; (2) investigate and recommend ways of analyzing results; and (3) build a common database to streamline the steps of summarizing and analyzing results, as well as allowing the comparison of different studies.
|
|
|
-
IAN CAMPOS BEZERRA REGO
-
Structuring and Applying a Game Design Document Standard
-
Data: Feb 10, 2022
-
Show resume
-
Game projects have unique characteristics in their methodology compared to other software projects, among which we highlight the presence of the game design stage, responsible for designing all the elements that the game will have in the future, such as: sounds, images, characters , plot, among other information that is essential to have a vision about the product that will be developed. Documenting this important step also requires a specific document for it, the game design document (GDD). Despite the importance of carrying out a good game design and documentation step through the GDD, game teams, especially the less experienced ones, may find difficulties in these steps due to the lack of a model that can guide the items to be developed, given that that the methodologies of large companies are generally not shared. In this context, this research presents a set of steps that contributed to the production of a Game Design Document standard that has methodology, steps, roles and structures that can help and guide game project teams to correctly develop their GDD. For the evaluation, a case study was applied for the construction of a game.
|
|
|
-
REINALDO JUNIOR LOPES CARDOSO
-
Comunicação Informal e Produtividade: Impactos da pandemia de COVID-19 em profissionais de TIC
-
Data: Feb 7, 2022
-
Show resume
-
A comunicação informal desempenha um papel importante na colaboração entre indivíduos. A sua existência está intimamente relacionada à proximidade física entre os envolvidos. A literatura atribui essa relação entre proximidade física e comunicação informal às oportunidades de interações e awareness (percepção/consciência) que o ambiente físico oferece. A decretação do estado de pandemia (COVID-19) provocou um cenário de home office em larga escala pelo mundo. Durante a pandemia, estudos iniciais mostraram que a comunicação informal e a colaboração, no cenário remoto, foram descritos como um dos desafios encontrados durante a pandemia. Consoante ao apresentado, este trabalho visa investigar a relação entre comunicação informal e produtividade percebida durante o período de home office e isolamento social provocado pela pandemia de COVID-19. Ele se baseia na seguinte hipótese: “SE o isolamento social afetou negativamente a comunicação informal, ENTÃO a produtividade também sofreu impactos negativos”. Para responder aos objetivos de pesquisa, o método utilizado foi o survey, através da realização de um questionário auto administrado. Respostas de 244 profissionais de tecnologia da informação e comunicação (TIC) que exerceram suas atividades em home office durante a pandemia foram coletadas. Para validação dos dados foram utilizadas técnicas estatísticas como a análise fatorial confirmatória do modelo de mensuração. Os resultados mostraram que houve prejuízo para comunicação informal durante o home office e ficou comprovado o impacto da comunicação informal na produtividade através da mediação total das variáveis interação social e bem estar emocional. Tais resultados permitem por inferência logica afirmar que a hipótese principal de pesquisa é verdadeira.
|
|
|
-
SEBASTIAO RODRIGUES DA COSTA NETO
-
Ferramenta de Alto Desempenho para Identificação e Remoção de Adaptadores de Dados NGS
-
Data: Feb 7, 2022
-
Show resume
-
A remoção de adaptadores e regiões de baixa qualidade vindas de leituras brutas de dados gerados por plataformas NGS, é a etapa inicial dos pipelines de montagem de genomas. A remoção dessas sequências visa melhorar a qualidade dos dados na fase de montagem, permitindo melhor alinhamento entre as sequências. Além disso, desempenho em processamento é uma característica importante já que a quantidade de dados gerados pelas plataformas de alto rendimento é muito superior à quantidade real, por conta da busca por alta cobertura de regiões genômicas. Para isso, desenvolvemos o FAIR, uma ferramenta de corte de adaptadores para dados de extremidade única e emparelhada, que utiliza dois algoritmos de casamento de cadeias que se aproveitam do paralelismo intrínseco das operações sobre bits a fim, de encontrar regiões contaminantes com eficiência em processamento.
|
|
|
-
JAILTON WAGNER RODRIGUES TAVARES
-
Application of computational intelligence for prediction of physical-chemical parameters of water and detection of anomalies in fish farming in Tambaqui in the juvenile stage
-
Data: Feb 7, 2022
-
Show resume
-
In recent decades there has been a significant increase in the global consumption of fish foods in parallel with population growth. To suppress the demand for consumption, it is observed that fish production takes place in two ways: through animal extraction and fish farming. In the first form, animal extractivism is understood to be capture in seas and rivers, and fish farming comprises the cultivation of fish in a confined and controlled space. Fish farming is designed and monitored, it is possible to efficiently control the cost of production and time for marketing fish, which does not occur in extractive fishing, given that the fish is in its natural habitat. However, to achieve efficiency in fish farming, technology must advance an important role and the use of IoT technology in this context, allows devices to work for different purposes, allowing sensors to capture data such as temperature, humidity, and water quality to automate fish farming. This data captured from IoT sensors can be used to analyze and improve product quality by bringing new solutions with different approaches, minimizing risk and waste, applying supervisory machine learning algorithms. The main objective of the work is to investigate machine learning algorithms, capturing the data through IoT sensors obtaining the input domain parameters, and as a result to develop a machine learning model capable of generalizing the quality classification problem of water, to predict the weight of tambaqui larvae, in a water recirculation system (RAS) in high density.
|
|
|
-
TIAGO DAVI OLIVEIRA DE ARAUJO
-
Um modelo de apoio automatizado para o reconhecimento, extração, personalização e reconstrução de gráficos estáticos
-
Data: Feb 2, 2022
-
Show resume
-
Os gráficos de dados são amplamente utilizados na nossa vida diária, estando presentes nos meios de comunicação regulares, tais como jornais, revistas, páginas web, livros, e muitos outros. Um gráfico bem construído leva a uma compreensão intuitiva dos seus dados inerentes e da mesma forma, quando os gráficos de dados têm escolhas de concepção erradas, poderá ser necessário um redesenho destas representações. Contudo, na maioria dos casos, estes gráficos são mostrados como uma imagem estática, o que significa que os dados originais não estão normalmente disponíveis. Portanto, poderiam ser aplicados métodos automáticos para extrair os dados inerentes das imagens dos gráficos, a fim de permitir estas alterações. A tarefa de reconhecer os gráficos e extrair dados dos mesmos é complexa, em grande parte devido à variedade de tipos de gráficos e às suas características visuais. As técnicas de Visão Computacional para classificação de imagens e detecção de objetos são amplamente utilizadas para o problema de reconhecimento de gráficos, mas apenas em imagens sem qualquer ruído. Outras características das imagens do mundo real que podem dificultar esta tarefa não estão presentes na maioria das obras literárias, como distorções fotográficas, ruído, alinhamento, etc. Duas técnicas de visão computacional que podem ajudar nesta tarefa e que têm sido pouco exploradas neste contexto são a detecção e correção da perspectiva. Estes métodos transformam um gráfico distorcido e ruidoso em um gráfico limpo, com o seu tipo pronto para extração de dados ou outras utilizações. A tarefa de reconstrução de dados é simples, desde que os dados estejam disponíveis a visualização pode ser reconstruída, mas o cenário de reconstrução no mesmo contexto é complexo. A utilização de uma Gramática de Visualização para este cenário é um componente chave, uma vez que estas gramáticas têm normalmente extensões para interação, camadas de gráficos, e visões múltiplas sem exigir um esforço extra de desenvolvimento. Este trabalho apresenta um modelo de suporte automatizado para o reconhecimento personalizado, e reconstrução de gráficos em imagens estáticas. O modelo executa automaticamente as etapas do processo, tais como engenharia inversa, transformando um gráfico estático novamente na sua tabela de dados para posterior reconstrução, ao mesmo tempo que permite ao utilizador fazer modificações em caso de incertezas. Este trabalho também apresenta uma arquitetura baseada em modelos, juntamente com protótipos para vários casos de utilização. A validação é efetuada passo a passo, com métodos inspirados na literatura. Este trabalho apresenta três casos de uso, fornecendo prova de conceito e validação do modelo. O primeiro caso de uso apresenta a utilização de métodos de reconhecimento de gráficos focando em documentos no mundo real, o segundo caso de uso centra-se na vocalização de gráficos, utilizando uma gramática de visualização para reconstruir um gráfico em formato áudio, e o terceiro caso de uso apresenta uma aplicação de Realidade Aumentada que reconhece e reconstrói gráficos no mesmo contexto (um pedaço de papel) sobrepondo os novos gráficos e widgets de interação. Os resultados mostraram que com pequenas alterações, os métodos de reconhecimento e reconstrução dos gráficos estão agora prontos para os gráficos do mundo real, tendo em consideração o tempo, a acurácia e a precisão.
|
|
|
-
IURI VICTOR FERREIRA COSTA
-
EmojiText: An Information Visualization Technique for Analyzing Phrases and Sentiments
-
Data: Jan 21, 2022
-
Show resume
-
This work proposes a text visualization with the representation of phrases and feelings. Among the most classic text visualization techniques, there is the word cloud, which does not present relations between words, making them difficult to analyze the data generated by this visualization, for example, the visualization of a sentence, what time a specific word/sentence was mentioned in the text, etc. In EmojiText, have a graph of nodes and edges, Which the nodes are the words and the edges are the relationships between the words. Each node has a dimension and an emoji, the dimension being the representation of the word frequency, and the emoji represents the majority of the feelings associated with this word. In addition, there is also an edge in the emojis that represent the feeling of a set of interrelated words that make a sentence, that is, the feeling of the path or the sentence. It is emphasized that the proposed tool allows the interactions: zoom, filters, details on demand, the configuration of visual mapping, and functionalities of temporal analysis, this through animations and multiple views for comparisons. EmojiText was developed using the following technologies: javascript, HTML, CSS with the aid of D3js and Bootstrap Frameworks. To evaluate the proposed technique, users will be given tasks of understanding the text and its context and common tasks of graphs techniques, for example, locating nodes and paths. Test responses will be evaluated to confirm the effectiveness of the proposal.
|
|