|
Descrição |
|
|
-
LUCIANO ARRUDA TERAN
-
Considerações de Design para Sistemas de Pagamentos Instantâneos e Usuários Emergentes
-
Data: 20/12/2022
-
Mostrar Resumo
-
As tecnologias digitais de informação e comunicação remodelaram diversos serviços presentes na vida das pessoas. Todavia, alguns serviços implementados em sistemas interativos tem considerado fatores educacionais da sociedade, onde a migração dos serviços presenciais para as plataformas digitais fortificaram a necessidade de letramento e experiências de ensino formal das pessoas. Relacionado aos sistemas financeiros, o pagamento instantâneo brasileiro (Pix) gerou um novo método de transferência eletrônica para a acessibilidade financeira e digital entre prestadores e clientes. Contudo, ainda existem desafios de desenvolvimento que amenizem as barreiras ao acesso digital de diversos públicos, principalmente por usuários que emergem suas necessidades de interação a partir de aspectos educacionais, renda e cultura. Neste contexto, este trabalho busca desenvolver um conjunto de considerações de design que precisam ser utilizados na construção de sistemas de pagamento instantâneo e atendam às expectativas de usuários emergentes de software. A pesquisa foi realizada por meio de levantamento da literatura e estudos com o público-alvo. Logo, foi realizado um questionário com profissionais de desenvolvimento de software, um mapeamento sistemático para identificar lacunas de contextos de usos e usuários a serem beneficiados por softwares inclusivos, uma inspeção de uma proposta bancária e um levantamento de recomendações de design e avaliação de sistemas interativos para usuários emergentes. Em seguida, realizaram-se dois estudos de caso em um contexto 12 para 12: o primeiro foi realizado com 12 residentes de uma comunidade ribeirinha amazônica para construir as considerações e o segundo foi realizado com 14 usuários que possuem ensino fundamental ou médio incompleto para validar e evoluir as considerações anteriores. Cada estudo de caso foi analisado por meio de aspectos sociais dos participantes e método de inspeção semiótica. Portanto, como resultados, o estudo apresenta um conjunto de considerações que possam ser utilizado por instituições financeiras para tornar suas interfaces de sistemas de pagamentos mais acessíveis para usuários que utilizam o celular como meio de compartilhamento e aquisição renda.
|
|
|
-
WANDER WILSON DE LIMA CARDOSO
-
Uso da Teoria da carga cognitiva na elaboração do conteúdo de uma disciplina de Introdução a Programação
-
Data: 20/12/2022
-
Mostrar Resumo
-
A Teoria da Carga Cognitiva (TCC) apresenta diretrizes que tem o objetivo de otimizar o processo de aprendizagem, baseados em pesquisas relacionadas ao funcionamento do cérebro. Estudos revelam que a memória humana é subdividida em memória de trabalho e a de longo prazo. Durante a aprendizagem é a memória de trabalho que processa as novas informações, e esta possui um número limitado de novas informações que podem ser processados durante a aquisição de novos conhecimentos, portanto, torna-se necessário gerenciar o número de novas informações a serem transmitidas ao aprendiz. A teoria da carga cognitiva afirma que a aprendizagem acontece melhor quando os materiais didáticos (quantidade de informação) se alinham com a arquitetura cognitiva humana. Sweller e seus seguidores estudaram o alinhamento simultaneamente da estrutura da informação com a arquitetura cognitiva, desvendando efeitos cognitivos que são associados a novos princípios instrucionais que visam aprimorar o processo de aprendizagem. Considerando o alto índice de retenção de discentes vinculados a disciplinas que abordam estudos sobre algoritmos, verifica-se a necessidade de buscar soluções que busquem facilitar a aprendizagem deste tipo de conteúdo. Este trabalho tem como objetivo otimizar a aprendizagem de algoritmos através do desenvolvimento de materiais didáticos com base na TCC (uma guia de desenvolvimento de algoritmos, uma guia de labortório de programação em Python e um conjunto de slides). Após desenvolvidos, estes materiais foram aplicados em uma turma real. Como resultados, verificou-se melhora na aprendizagem, refletida na redução das taxas de retenção.
|
|
|
|
|
|
-
EDUARDO GABRIEL LIMA DA SILVA
-
Resource Allocation for Long Range Wide-Area Network
-
Data: 30/09/2022
-
Mostrar Resumo
-
O conceito de IoT trouxe diversas facilidades e conectividade para o mundo de hoje. Nas cidades inteligentes as pessoas tendem a estar conectadas o tempo todo e as tecnologias de conexão sem fio passam ser uma necessidade nas suas rotinas. Porém, para a ciência o desafio de manter essa conectividade confiável aumenta. A tecnologia LoRa foi desenvolvida visando transmitir dados sem fio em longo alcance e baixo custo. A partir do protocolo LoRaWAN, dispositivos LoRa conseguem enviar pacotes à dezena de quilômetros. Porém, para que essa conectividade cumpra o seu propósito, é importante que os parâmetros de transmissão sejam alocados de forma hierárquica e se adaptem ao contexto da rede. O protocolo LoRaWAN disponibiliza um mecanismo de alocação de recursos chamado ADR LoRaWAN que aloca os parâmetros de transmissão SF e TP para aumentar a escalabilidade e reduzir o consumo de energia dos dispositivos. Porém, o ADR LoRaWAN possui falhas por priorizar escalabilidade ao custo de baixa confiabilidade. Nesta dissertação de mestrado propomos os mecanismos de alocação de recursos PRA e APRA. O principal objetivo de ambos é criar uma hierarquia entre os dispositivos e garantir melhor desempenho para dispositivos de alta prioridade em redes LoRa. Enquanto o PRA tem maior foco em diminuir o ToA e o consumo de energia, o APRA possui como objetivo reduzir a perda de pacotes e o consumo de energia, enquanto aumenta a vida útil da bateria dos dispositivos. Nós comparamos PRA e APRA com mecanismos do estado da arte no simulador LoRaSim. Os resultados mostraram que o mecanismo PRA reduziu o ToA e o consumo de energia dos dispositivos de alta prioridade em até 85%. APRA obteve um aumento de até 5% em entrega de pacotes e 85% de economia de energia. Além disso, o mecanismo de alocação de TP do APRA garantiu aumento de até 28 anos na duração de bateria do dispositivo.
|
|
|
-
ISAAC SOUZA ELGRABLY
-
Uma Abordagem para o Ensino de Testes de Software utilizando Metodologias Ativas em Cursos Superiores de Computação
-
Data: 20/09/2022
-
Mostrar Resumo
-
O teste de software é considerado uma atividade chave no ciclo de desenvolvimento de software, pois ajuda os profissionais de computação a projetar software de boa qualidade. Assim, esta é uma atividade essencial para a indústria de software, embora com todas as suas nuances ainda não seja dada alta prioridade ao aprendizado em nível acadêmico. Tendo em vista que é um conteúdo que precisa de uma boa quantidade de elementos de conhecimentos prévios e grande parte do seu conhecimento necessita de intervenções práticas, viu-se a importância de se utilizar as metodologias ativas, que vem tendo uma boa aceitação em disciplinas mais práticas de computação. Assim, o principal objetivo deste trabalho é apresentar uma abordagem de ensino utilizada com um currículo, e um plano de ensino de uma disciplina de testes de software, elaborado com base em metodologias ativas. Como resultados, tem-se um plano de ensino que é construído a partir de metodologias ativas, o qual é composto por 32 aulas teóricas e práticas, distribuídas em 4 módulos, o qual é baseado em referenciais de um currículo especializado em testes de software, construído a partir de um mapeamento em diferentes ativos relacionados a testes de software, sendo os principais deles o Guia de Referencias Curriculares da SBC, o guia curricular da ACM/IEEE e o Guia dos conhecimentos de Engenharia de Software SWEBOK. Além disso, dois quase-experimentos foram executados por completo, o primeiro avaliou a efetividade da abordagem de ensino de testes em comparação com uma abordagem tradicional e o segundo além de avaliar a efetividade da abordagem de ensino perante uma abordagem tradicional também fez uma análise da eficiência da aprendizagem na turma, ambos os quase-experimentos foram analisados com uma análise estatística utilizando a distribuição t de Student bicaudal, que apresentou um certo ganho de aprendizagem para a abordagem apresentada.
|
|
|
-
HUMBERTO CAIO CAMILO LEAO
-
Desagregação de Dados IoT em Redes Definidas por Software de Próxima Geração
-
Data: 19/09/2022
-
Mostrar Resumo
-
Redes Low-Power Internet-of-Things (LPIoT) geralmente são projetadas para aplicações como cidades inteligentes, monitoramento de edifícios e medição inteligente. São caracterizadas por volumosa quantidade de nós IoT com limitações de recursos, como energia, processamento e transmissão de dados. Por conta de suas limitações, é comum a utilização de técnicas que buscam amenizá-las. Uma dessas técnicas é a agregação de dados, cujo propósito é reduzir o tráfego na rede, o que traz benefícios como a redução do consumo de energia destes dispositivos LPIoT. No entanto, toda carga útil agregada precisa ser desagregada antes que os pacotes sejam entregues às aplicações IoT. Neste trabalho consideramos que switches programáveis devem realizar a desagregação de pacotes agregados por dispositivos LPIoT, no entanto o processo de desagregação pode causar redução na taxa de transferência, por se tratar de um processo computacionalmente custoso. Diante disto propomos a implementação de uma estratégia de desagregação de pacotes IoT em redes definidas por software (SDN), com processamento de pacotes no plano de dados, utilizando a linguagem P4.
|
|
|
-
ADAILTON MAGALHAES LIMA
-
UNDERSTANDING THE CORRELATION OF TRAVELS AND REMOTE MEETINGS IN DISTRIBUTED SOFTWARE DEVELOPMENT
-
Data: 14/09/2022
-
Mostrar Resumo
-
Contexto: Comunicação remota é uma atividade crítica em qualquer projeto de desenvolvimento de software distribuído. Apesar de estudos anteriores, ainda é necessário identificar, entender e caracterizar os fatores que podem afetar a comunicação remota e seus impactos em projetos de desenvolvimento distribuído de software. Objetivos: Assim, nesta tese, busca-se um avanço para melhor entendimento sobre a dinâmica de práticas de colaboração entre membros de projetos distribuídos, e como métricas corriqueiras de projetos, especialmente métricas relacionadas às viagens e reuniões remotas, estão correlacionadas ao processo de teste de software. Método: Começamos esta pesquisa por um estudo quantitativo utilizando dados históricos de uma base de gerenciamento de um projeto distribuído, onde investigamos a correlação de viagens para reuniões presenciais e reuniões remotas no tempo de tarefas de correção de bugs. Adicionalmente, na etapa qualitativa foram entrevistados desenvolvedores de software trabalhando em projetos distribuídos e coletada a percepção de suas práticas de trabalhos e o impacto da distância em seus projetos. Resultados: Baseado nos resultados da etapa quantitativa, encontramos que viagens estão associadas com três mil porcento mais horas do time corrigindo bugs (de 1 para 31.1 horas) em um release se comparado a outros releases onde não tiveram viagens, o que significa que as viagens estão correlacionadas com maior tempo total no mesmo release corrigindo bugs. Buscamos uma explanação mais contextualizada para estes resultados através de um estudo com diferentes empresas, onde entrevistamos dez engenheiros de software de sete empresas que sugeriram que as viagens para realizarem reuniões presenciais auxiliam seus times a melhorar a comunicação em etapas críticas dos seus projetos. Eles também explicaram como ferramentas podem prover comunicação contínua e em diferentes formas entre os membros do projeto para ajudar na segmentação da comunicação, a encontrar as pessoas certas para responder dúvidas ou ainda ajudar a resolver problemas em ambientes de testes ou produção. Conclusões: Nosso estudo quantitativo mostra a correlação de viagens para encontros presenciais e do tempo com reuniões remotas com o tempo empregado na correção de bugs durante um mesmo release de projeto. Os resultados qualitativos apontam para a importância de viagens e de suporte de ferramentas para se comunicar com outros membros remotos do mesmo projeto. Adicionalmente, foi observado que a diferença de fuzo horário em projetos do tipo innersourcing tem diferente correlação com o tempo empregado na correção de bugs dependendo da localização geográfica dos times envolvidos.
|
|
|
-
WENDY MENDES GALENO
-
Restrições Sociotécnicas e Possibilidade de Colaboração Virtual - Um Estudo de Quatro Hackathons Online
-
Data: 02/09/2022
-
Mostrar Resumo
-
Hackathons e eventos semelhantes com limite de tempo tornaram-se uma forma popular de colaboração em vários domínios. Eles são comumente organizados como eventos presenciais durante os quais as equipes se envolvem em intensa colaboração durante um curto período para concluir um projeto de seu interesse. A maioria das pesquisas, até o momento, consiste em estudar como as equipes colaboram em um ambiente co-located, apontando para as vantagens da radical co-location. A pandemia global de 2020, no entanto, levou ao surgimento de muitos hackathons online, o que desafia nossa compreensão atual de como eles funcionam. Neste trabalho, abordamos essa lacuna apresentando resultados de um estudo de caso múltiplo de 10 equipes de hackathon que participaram de 4 eventos de hackathon em dois continentes. Ao analisar os dados coletados, descobrimos que as equipes mesclaram meios de comunicação síncronos e assíncronos para manter um entendimento comum do andamento do trabalho, bem como manter o conhecimento das tarefas uns dos outros. A divisão de tarefas era auto atribuída com base nas habilidades ou interesses individuais, enquanto os líderes emergiam de diferentes estratégias (por exemplo, experiência do participante, responsabilidade de inscrever a equipe em um evento). Algumas das possibilidades dos hackathons presenciais, como a radical colocation dos membros da equipe, poderiam ser parcialmente reproduzidas em equipes que mantinham canais de comunicação síncronos abertos enquanto trabalhavam (ou seja, territórios compartilhados de áudio), em uma espécie de “radical virtual co-location ". No entanto, outros, como interações com outras equipes, fácil acesso a mentores e Networking com outros participantes, diminuíram. Além disso, os constrangimentos técnicos das diferentes ferramentas e plataformas de comunicação trouxeram problemas técnicos e foram avassaladores para os participantes. Diante disso, o trabalho contribui para entender a colaboração virtual de pequenas equipes no contexto de hackathons online e como as tecnologias e estrutura dos eventos propostas pelos organizadores implicam nessa colaboração.
|
|
|
-
MARLON SILVA PIMENTEL CRUZ
-
Metodologia para Utilizar Cópias Digitais em Redes de Computadores: Estudo de Caso da Rede Metropolitana de Belém (METROBEL)
-
Data: 30/08/2022
-
Mostrar Resumo
-
O conceito de cópia digital (digital shadow), uma representação digital de um objeto do mundo real que tem um fluxo unilateral entre o objeto físico e o digital, vem ganhando popularidade na indústria e começa a ser empregado em cenários diversos. Essa abordagem explora o potencial da cópia digital para representar o objetivo real e assim facilitar experimentos em torno de um determinado ambiente de produção. Este trabalho propõe uma estratégia dividida em quatro etapas para utilizar a cópia digital no contexto de redes de computadores, com objetivo de ser uma alternativa de baixo custo para ajudar no planejamento e avaliação de operações inerentes à gerência de redes reais. Como estudo de caso, a proposta será aplicada para criar uma cópia digital da rede MetroBel - Rede Metropolitana de Ensino e Pesquisa de Belém, para facilitar o planejamento e evolução desta.
|
|
|
-
ADRIANNE VERAS DE ALMEIDA
-
Introdução ao Pensamento Computacional na Educação Básica: Formação Inicial Docente Utilizando uma Ferramenta Educacional Chatbot com Inteligência Artificial
-
Data: 22/08/2022
-
Mostrar Resumo
-
De acordo com as diretrizes da SBC (Sociedade Brasileira de Computação), os fundamentos da Computação são base para o Pensamento Computacional (PC), o qual tem por objetivo desenvolver uma série de habilidades tais como o pensamento crítico, criatividade, adaptabilidade entre outras. Como também, pode ser aplicado para resolver problemas em diversas áreas de conhecimentos, o que torna uma habilidade essencial na formação dos profissionais de todas as áreas. Sob este contexto, o presente artigo tem como objetivo relatar a experiência de uma formação inicial online, realizada com professores de matemática e computação/informática na educação básica no Brasil, que desejem incorporar temas relacionados ao PC às suas atividades didáticas desenvolvendo habilidades para resolução de problemas. Com isso, essa formação uniu as metodologias da aprendizagem baseada em computação des(plugada), jogos digitais e programação em bloco. Além disso, foi desenvolvido e utilizado um chatbot com técnicas de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) para auxiliar no processo de ensino-aprendizagem do PC. Os resultados preliminares, indicaram que os professores adotaram novas estratégias no seu ambiente de trabalho, elaborando e aplicando práticas educativas integradas à temática em escolas da rede de ensino. Sendo assim, a formação foi validada pelos participantes e se mostrou relevante para ser inserido em formações maiores no contexto da educação básica. Portanto, espera-se contribuir para que redes de ensino e escolas reestruturarem seus currículos, visando a integração do PC nas disciplinas do ensino básico, de acordo com as novas diretrizes da Base Nacional Comum Curricular (BNCC).
|
|
|
-
ESDRAS ROBERTO ALVES DE LA ROQUE
-
Uma Otimização em GPU para RWA com Algoritmo Genético e Roteamento Estático em Redes Ópticas WDM
-
Data: 19/08/2022
-
Mostrar Resumo
-
A demanda por largura de banda vem aumentando exponencialmente nos últimos anos, com residências, empresas, indústrias, dispositivos móveis, dispositivos de internet das coisas, dispositivos vestíveis entre outros, cada vez mais conectados à internet através de aplicações que também seguem evoluindo e exigindo maior velocidade para troca de dados, muitas vezes, com modelos de sistemas de tempo real, exigindo cada vez mais, não só velocidade, mas também qualidade nos meios físicos de acesso à rede. Neste contexto, temos as redes ópticas como melhor meio de acesso. Entretanto, o meio óptico suporta uma largura de banda que possibilita a utilização de diversas aplicações ao mesmo tempo, através da multiplexação do sinal, ou seja, dividindo a banda para várias aplicações e, ainda, evitando a subutilização do recurso físico. Porém, o roteamento desses sinais divididos requer conversão opto-elétrica, reduzindo a capacidade total no tempo de resposta, visto que o sinal sai do campo luminoso para o elétrico, sendo demodulado, processado por algoritmo de roteamento e novamente modulado para sinal luminoso, cada vez que encontra um roteador transitório no qual precisa decidir qual rota tomar até o destino. Este é o problema de redes conhecido como Problema RWA em redes WDM e para resolvê-lo, diversas propostas envolvem algoritmos de inteligência computacional que, em geral, são algoritmos que processam modelos preditivos e requerem algum tempo de computação até entregarem uma solução aceitável. No entanto, esta computação demora mais que a própria conversão opto-elétrica, inviabilizando sua aplicação em um cenário real de roteamento. Este trabalho apresenta uma estratégia paralela com uma abordagem heurística para reduzir o gargalo no tempo de processamento do problema de roteamento e atribuição de comprimento de onda em redes multiplexadas por divisão no comprimento de onda baseado em trabalho prévio que utiliza um algoritmo genético sequencial. Como solução de paralelização, o processamento em hardware GPU com arquitetura CUDA e linguagem de programação CUDA C foram adotados. Um código de programa, escrito originalmente, em linguagem de programação Python e executado de maneira sequencial foi portado, primeiramente, para a linguagem de programação C-99, também executando no modelo sequencial. E então, esta última versão foi portada para a linguagem de programação CUDA C, e nesta, já executando um modelo de programa paralelo em arquitetura de computação em GPU. Uma estratégia de paralelização do algoritmo da simulação é apresentada, baseado na definição da grid e aproveitando os índices dos CUDA Blocos e CUDA threads na configuração de execução paralela do algoritmo de simulação. Como resultados alcançados, o tempo de processamento reduziu consideravelmente, obtendo uma melhora na ordem de escala entre 35 e 40 vezes mais rápidos que a versão sequencial original do algoritmo genético, executada em Python.
|
|
|
-
RAMON DA GAMA CORDEIRO
-
Metodologia de Avaliação de Aplicações Blockchain
-
Data: 19/08/2022
-
Mostrar Resumo
-
Blockchain é uma tecnologia emergente que, nos últimos anos, tem atraído a atenção da indústria e da academia. O interesse se justifica pelo fato dela possibilitar a comunicação e troca de dados de maneira confiável em um ambiente descentralizado onde não há confiança entre os participantes. Recentemente, muitas blockchains e aplicações descentralizadas foram criadas como proposta para solucionar desafios específicos. Com a quantidade de propostas de soluções aumentando diariamente, torna-se necessário utilizar parâmetros padronizados para avaliar qual a mais adequada em determinado contexto. Este trabalho apresenta uma metodologia de avaliação para blockchain, tanto para atores que necessitam realizar tomada de decisão na escolha de tecnologias como para aqueles que desejam avaliar uma solução previamente escolhida ou implantada. A solução proposta é avaliada por meio de casos de usos em diferentes cenários. Os resultados obtidos demonstram a eficiência e flexibilidade da metodologia para avaliar blockchains de diferentes propósitos.
|
|
|
-
SAMARA LIMA DE SOUZA
-
Mineração de Dados em Bancos de Dados de Segurança Pública no Estado do Pará, Brasil
-
Data: 10/08/2022
-
Mostrar Resumo
-
O crime é um problema social comum enfrentado em todo o mundo, podendo afetar a qualidade de vida, o crescimento econômico e a reputação de uma nação. Assim, as autoridades de segurança pública precisam tomar medidas preventivas e um dos métodos que vem ganhando espaço na análise de crimes é a mineração de dados. Com isso, o objetivo desse trabalho é criar um conjunto de ferramentas de combate ao crime, utilizando técnicas de análise exploratória dos dados, extração de regras associativas e um classificador de crimes, por meio dos dados de boletins de ocorrências policiais na cidade de Belém e em todo o estado do Pará, Brasil nos anos de 2019, 2020 e 2021. Para guiar este estudo foi usado a metodologia CRISP-DM, onde foi possível através das duas primeiras técnicas extrair conhecimento para entender e analisar o cenário do crime no município de Belém, como o fato de um determinado crime ocorrer no período da noite implicar que sua natureza seja roubo para assim poder auxiliar os órgãos responsáveis nas investigações e estratégias para um combate mais eficaz à criminalidade, assim como utilizar a terceira técnica para otimizar processos manuais, fazendo a classificação de crimes a partir da leitura de um relato de boletins de ocorrências de todos os municípios do estado do Pará, com uma acurácia geral de aproximadamente 78%, beneficiando outras pesquisas e estatísticas do governo que necessitam da classificação correta do tipo de crime, além de reduzir o trabalho manual que é feito pelos analistas da Secretaria Adjunta de Inteligência e Análise criminal do estado do Pará, Brasil.
|
|
|
-
ANDRE MIRANDA PINHEIRO
-
Um Estudo Exploratório das Contribuições dos Eventos Colaborativos de Curta Duração para Fundadores de Startups
-
Data: 29/07/2022
-
Mostrar Resumo
-
Os eventos colaborativos de curta duração atraem diversos tipos de pessoas para trabalhar em pequenas equipes que desenvolvem um projeto de software para solucionar um deter- minado problema. Ao participar desses eventos, os seus participantes têm a oportunidade de adquirir novos conhecimentos, conhecer pessoas, enriquecer o seu portfólio, ganhar reconhecimento e conseguir propostas de emprego. Apesar de não ser muito comum, alguns dos projetos desenvolvidos nestes eventos podem ser o início de uma startup. Ainda assim, existem poucos estudos explorando o relacionamento desses eventos com startups. Esta dissertação tem o objetivo de entender como os fundadores de startups se beneficiam dos eventos de curta duração. Para verificar isso, uma pesquisa exploratória com abordagem qualitativa foi realizada. Os dados foram coletados por meio de entrevistas semiestrutu- radas com 16 fundadores de startups brasileiras. Os entrevistados residem e atuam em diversos estados do Brasil, incluindo Pernambuco, Pará, Paraná, Santa Catarina e São Paulo. Os dados coletados foram analisados usando algumas das técnicas de codificação da Teoria Fundamentada em Dados (codificação aberta e axial), em seguida os resultados da análise dos dados foram apresentados para outros fundadores de startup como uma forma de validar os resultados obtidos. Esta pesquisa revelou que as startups, através dos relatos de seus fundadores, se favoreceram tanto das participações que ocorreram antes da criação da empresa, bem como das que ocorreram após a criação dela. Os benefícios citados pelos entrevistados incluem o desenvolvimento de novos produtos, arrecadar dinheiro, ganhar visibilidade, perceber oportunidades de atuação, aprendizado e networking, sendo que o aprendizado pode ser de vários tipos incluindo conhecer metodologias, desenvolver soft skills e aprender a utilizar ferramentas. Enquanto que o networking pode beneficiar as startups ao permitir que as mesmas identifiquem fundadores, sócios, novos clientes, entre outros. Nossos resultados sugerem que a participação em eventos colaborativos de curta duração ajudam as startups a satisfazer algumas das necessidades que as mesmas possuem.
|
|
|
-
EDUARDO COSTA DE CARVALHO
-
Análise de detecção de fissuras em superestruturas de vagões com auxílio de visão computacional e redes neurais convolucionais
-
Data: 22/07/2022
-
Mostrar Resumo
-
Detecção de rachaduras é um problema para qualquer estrutura física, em que o desgaste ao longo do tempo pode gerar diversos tipos de problemas para as pessoas. Quando levado esse assunto ao contexto de veículos se tem a verificação de condições de pista e de equipamentos. Um vagão cargueiro pode chegar a capacidade de armazenamento de até 120 milhões de toneladas em um ano, além da utilização desse meio de transporte para pessoas. Nesse sentido a manutenção de vagões de trens é de suma importância para economia de um país, assim, estudos sobre o tempo de vida desses vagões são cada vez mais realizados de forma a aumentar seu tempo de uso sem impactar a segurança de todos os envolvidos com essas tarefas. A utilização de força humana para a verificação de peças de vagões tem sido realizada e ao longo do tempo a preocupação com a saúde delas tem sido levada em consideração, pois estudos sugerem que pessoas expostas a locais com alto nível de perigo têm gerado diversos tipos de doenças, bem como o apelo econômico em perda de parte de materiais transportados. Os vagões utilizados para esse trabalho foram vagões de carga de minério de ferro. Para tais vagões composições de 330 vagões divididos de 3 vezes foram estudados, portanto 110 vagões avaliados por vez. Assim, com posse desses números esta tese propõe uma forma de estruturação de dados para cada um tipo de algoritmos avaliados. Primeiramente um modelo de captura de dados é indicado e modificado para suas seguintes tarefas, em seguida essa estruturação realiza a aplicação de modelos de segmentação de imagens para servir de entrada para os algoritmos classificadores. Em seguida a tese indica a utilização de 2 tipos de bases de dados em avaliação de um modelo de método de machine learning. A proposta pela utilização de 2 formas de bases de dados para apenas um modelo nesse momento se dá devido a utilização prévia de tentativas em outros dois modelos de machine learning, com resultados não satisfatórios. A avaliação desta segunda contribuição se dá de forma a avaliar rachaduras de vagões presentes nas imagens reais que foram utilizadas para uma base de dados não balanceada e outra base de dados balanceada. Em seguida a tese indica a utilização de mais um método avaliativo e a criação de um ensemble baseado em votação para tentativa da melhora dos resultados encontrados por todos os algoritmos previamente avaliados. Os resultados obtidos nesta tese demonstram que a utilização de métodos de machine learning e visão computacional podem identificar rachaduras em vagões de trem de forma a oferecer uma economia as companhias que utilizam de tal métodos de transporte, bem como melhor segurança a todas as pessoas envolvidas direta ou indiretamente em atividades de manutenção de trens.
|
|
|
-
MATHEUS OLIVEIRA LEITE DE SA
-
Senhas Coloridas para Registro Seguro em Protocolos de Votação via Internet Resistentes à Coerção
-
Data: 15/07/2022
-
Mostrar Resumo
-
Coerção é um problema inerente a qualquer eleição realizada via Internet e é mitigada pelo uso de protocolos que empregam credenciais de votação. Entretanto, credenciais são usualmente compostas por extensos valores numéricos, o que dificulta sua utilização por usuários com menos conhecimento técnico em cenários de eleições reais. O uso incorreto das credenciais de votação debilita a resistência à coerção de um protocolo. Nesse contexto, este trabalho propõe a utilização de um novo modelo de senhas como alternativa ao uso direto de credenciais pelo usuário, abstraindo os extensos valores numéricos para senhas formadas por combinações de palavras e cores. Tais senhas são formadas utilizando os itens de um dicionário estruturado, inspirado na tecnologia BIP-39 do Bitcoin, e uma paleta de oito cores distintas. Como validação, foram realizadas avaliações de segurança teórica e da qualidade da interação do modelo proposto. Para a avaliação de segurança o modelo foi comparado com o protocolo de senhas de pânico 5-Dictionary, enquanto as avaliações de interação compararam-no com senhas alfanuméricas. As senhas coloridas atingiram melhores resultados que seus concorrentes em ambas as avaliações, o que aponta para um aumento tanto na segurança quanto na qualidade da interação do modelo em relação à literatura.
|
|
|
-
ROBERTO BARBOSA DE ALMEIDA JUNIOR
-
Identificação de Metodologias de Ensino-Aprendizagem na Programação Paralela com Placas Gráficas: Uma Revisão Sistemática da Literatura
-
Data: 11/07/2022
-
Mostrar Resumo
-
A Computação de Alto Desempenho (CAD) é hoje uma realidade nos grandes centros de pesquisa, pois ajuda na solução de problemas complexos que necessitam de um elevado poder de processamento. Com o avanço da tecnologia, esses sistemas passaram a utilizar uma forma híbrida de processar, ou seja, passaram a ser formados tanto por processadores multicores quanto por placas gráficas, onde o número de núcleos disponíveis para processamento pode chegar a algumas centenas. No entanto, nem sempre a pesquisa e o ensino caminham no mesmo compasso, isso porque, apesar do ensino da programação paralela já ser uma realidade na maioria dos cursos de graduação em Computação no Brasil, o uso das placas gráficas neste processo de ensino-aprendizagem, ainda se mostra como um objetivo a ser alcançado. Isso talvez, possa ser explicado, pela especificidade da tecnologia que requer arquiteturas e softwares próprios, mas principalmente, também, pela necessidade de profissionais capacitados que sejam capazes de definir metodologias que possam ser ao mesmo tempo, motivadoras e facilitadoras no processo de ensino-aprendizagem. Isso irá permitir com que os alunos possam adquirir as competências e as habilidades necessárias para a sua formação, mas também, irá despertar o interesse pela área, contribuindo para a formação de uma mão-de-obra qualificada e necessária. Este trabalho apresenta uma Revisão Sistemática da Literatura (RSL) com o objetivo de identificar abordagens no processo de ensino-aprendizagem da Programação Paralela, porém, especificamente, utilizando placas gráficas, afim de identificar metodologias que estejam sendo utilizadas no ensino deste eixo de formação da Computação. Para a RSL, foram selecionadas inicialmente 34 fontes, entre bases nacionais e internacionais, dentro das áreas de Computação de Alto Desempenho e Programação Paralela. Em seguida, essa pesquisa foi expandida para bases como ACM, IEEE, Science Direct, EI Compendex, ISI e Scopus. A pesquisa retornou 867 estudos, sendo que destes, apenas 5 trabalhos foram selecionados após a aplicação dos critérios de inclusão e exclusão, demonstrando, dessa forma, uma limitação de produções acadêmicas no tema proposto.
|
|
|
-
BHRUNNO BRITO MEDEIROS
-
As dificuldades no Gerenciamento de API: Um Estudo de caso em um órgão público brasileiro
-
Data: 07/07/2022
-
Mostrar Resumo
-
Com o avanço da tecnologia de software em diversas organizações, a utilização de Application Programming Interfaces (APIs) Representational State Transfer (REST) nos negócios está aumentando cada vez mais. Organizações estão caminhando rumo às transformações digitais, fornecendo ou consumindo informações e aumentando suas produtividades e assim, gerando conexões de negócio com produtos de software, permitindo criar novos negócios com mais facilidade, e através de integração entre organizações, proporcionando um ecossistema de APIs (Blosh, 2006).
De acordo com Fielding (2000), o Representational State Transfer (REST) é uma abstração da arquitetura de elementos dentro de um sistema hipermídia distribuído, ou seja, Protocolo de Transferência de Hipertexto (HTTP). Além disso, ele abrange as restrições fundamentais sobre os componentes, conectores e dados que definem a base da arquitetura da Web. Sendo, portanto, a essência de seu comportamento baseado em aplicações de rede (Fielding, 2000).
Uma API REST ajuda no alcance de um melhor desempenho, além de reduzir o acoplamento entre as aplicações. Isso faz com que haja o aumento da capacidade de integração de um sistema com o outro (Santana, 2019 apud Tilkov, 2009).
As APIs REST podem ser os maiores ativos de uma organização, isso se deve ao fato delas ajudarem a captar clientes devido ao investimento destes clientes em compras ou utilização de serviços. Dados de várias organizações, como WSO2, Oracle, Azure e Apigee, mostram que através do gerenciamento de APIs REST é possível conseguir gerar insights, incluindo os padrões de acesso geográfico, tipos de dispositivos e até latências dos principais usuários (Santana, 2019).
As APIs acabam envolvendo uma arquitetura que está ganhando cada vez destaque, que são os microsserviços. Estes permitem implementar novos serviços de uma maneira que haja a possibilidade de reaproveitamento em curto espaço de tempo, assim, permite que estes novos serviços sejam escaláveis e resilientes (Martins, Pires e Souza, 2021).
Os microsserviços trazem bastante benefícios, como a disponibilização e escalabilidade considerando as diferenças partes do sistema (Martins, Pires e Souza, 2021 apud Newman, 2015). Porém, apesar desses benefícios, é possível encontrar várias dificuldades, pois eles trazem mais complexidade para os sistemas, requerendo a utilização de novos componentes (Martins, Pires e Souza, 2021 apud Balalaie, Heydarnoori e Jamshidi, 2016).
Com a importância das APIs de serviços cada vez maior, torna-se necessária a utilização de plataformas adequadas para o seu gerenciamento. Grandes empresas como Facebook, Google, IBM, Microsoft, bancos nacionais e internacionais já utilizam APIs para disponibilizar seus serviços. O objetivo dessas plataformas ou ferramentas é justamente a disponibilização de serviços. Porém, como se tratam de grandes empresas e, consequentemente, de grandes sistemas, dificuldades são encontradas, que acabam atrasando o seu desenvolvimento. De acordo com Santana (2019), durante o processo de utilização e gestão de APIs REST, naturalmente acabam surgindo dificuldades e problemas e isso pode causar algum prejuízo no êxito da gestão destas APIs.
Assim, diante da grande importância das APIs para as organizações e da necessidade de gerenciar estas APIs (Santana, 2019), este trabalho descreve um estudo de caso em uma organização sobre os mecanismos de gestão de APIs adotados. A organização escolhida é um órgão público estadual, que possui sistemas conectados no estado do Pará e no Brasil. Esta organização possui diversas APIs em seu vasto ecossistema e mostra-se adequada para este estudo pelo tamanho da abrangência que o órgão possui no país.
Problemas e dificuldades da gestão de APIs foram identificados através de uma pesquisa de campo com dados coletados por meio de entrevistas. Além disso, este trabalho também mostra (i) como a ferramenta Sharingan pode ajudar a lidar com algumas das dificuldades que foram encontradas e (ii) propostas de extensões à ferramenta Sharingan para que a mesma possa atender as necessidades da organização estudada.
O objetivo geral dessa pesquisa é proposição de uma lista de requisitos funcionais e não-funcionais para o desenvolvimento de uma ferramenta de gestão de APIs. Isto é feito através da identificação e análise das dificuldades encontradas quando APIs REST são utilizadas dentro de um órgão público brasileiro. A organização estudada é um órgão público brasileiro responsável pela coleta de impostos e funções de gestão financeira para todo o estado, possuindo uma equipe de mais de 100 profissionais de TI distribuídos em diferentes equipes, com aproximadamente 500 APIs ativas. As questões levantadas no presente artigo são: (i) Como coletar insumos para o desenvolvimento de uma ferramenta de gestão de API? (ii) Quais os requisitos necessários para o desenvolvimento de uma ferramenta de gerenciamento de API?
Os objetivos específicos são: (i) coletar na literatura quais ferramentas são usadas para o gerenciamento de API, (ii) Coletar dados de ferramentas de gerenciamento de API que são utilizadas no mercado e (iii) Realizar pesquisa de campo realizada através de entrevistas. Por fim, realiza-se também uma análise da ferramenta Sharingan, que é utilizada para o gerenciamento de API no próprio órgão público, que possui como uma de suas principais características ser um módulo externo à aplicação principal, coletando dados de uma API sem a necessidade de modificações no código fonte da API WEB monitorada (Santana, 2019).
|
|
|
-
ADRIANO SILVA BARRETO
-
Uma técnica online de incorporação piramidal para visualização de big data em altas dimensões
-
Data: 06/07/2022
-
Mostrar Resumo
-
A tarefa de visualizar dados de grande dimensão é desafiadora em um contexto de aprendizado de máquina, onde conhecer o conjunto de dados é essencial para encontrar a técnica certa para criar modelos de classificação, clustering, previsão e outros. É de suma importância entender que esses conjuntos e inspeções visuais podem auxiliar nessa busca. Para enfrentar o problema de visualização de dados altamente dimensionais, podemos utilizar técnicas de DR (Dimensionality Reduction), produzindo representações de baixa dimensão (2D ou 3D) para obter conhecimento do comportamento desses dados. Muitas técnicas são capazes de produzir dados de baixa dimensão, mas são computacionalmente caras, atingindo a complexidade n^3. Isso, aliado à necessidade de carregar todos os dados na memória principal, inviabiliza o uso dessas técnicas para Big Data. Neste trabalho, apresentaremos o PES (Pyramidal Embedding System), uma técnica de DR incremental que permite o uso em Big Data, livre de hiperparâmetros, com complexidade linear no tempo O(n), capaz de realizar embedding tanto em 2D quanto em 3D.
|
|
|
-
LUCIANO RIBEIRO DUARTE
-
Uma Revisão Sistemática da Literatura Aplicada à Recuperação de Dados Armazenados em Nuvem.
-
Data: 04/07/2022
-
Mostrar Resumo
-
O acesso à informação, independentemente da localização, é algo necessário e essencial, assim como, o acesso aos arquivos pessoais através dos dispositivos móveis, que também se tornou algo imprescindível. Para isso, os serviços de armazenamento e processamento em nuvem evoluíram, tornando-se uma tecnologia confiável e em muitos casos, virtualmente ilimitada. Porém, como em todo dispositivo de armazenamento, os dados podem ser deletados de forma proposital ou acidental, havendo, com isso, a necessidade de recuperá-los. As técnicas utilizadas de recuperação de dados nestes dispositivos se mostram quase sempre ineficientes quando aplicadas em dados armazenados na nuvem. Por este motivo, o crescimento exponencial da computação em nuvem passou a ser uma das demandas mais debatidas entre os profissionais da computação forense digital na contemporaneidade, isso porque, trouxe vários desafios, entre eles: a identificação do proprietário de um arquivo deletado, a alocação dinâmica e eficiente da distribuição dos dados, a integridade e a segurança dos dados armazenados são alguns dos novos desafios a serem superados. A recuperação de dados nesses ambientes, além de necessitar de ferramentas especializadas para contribuir na análise, extração e recuperação de dados, pode necessitar, também, do trabalho conjunto de diversos profissionais como: especialistas em direito digital, peritos criminais e profissionais de Tecnologia da Informação (TI). Esse trabalho apresenta uma Revisão Sistemática da Literatura aplicada à recuperação de dados em servidores na nuvem com o objetivo de identificar e apresentar as abordagens existentes de recuperação de dados em nuvem. Durante a pesquisa foram 3.374 estudos retornados, sendo que apenas 13 trabalhos passaram nos critérios de inclusão e exclusão, onde foram apresentadas as principais ferramentas utilizadas para a recuperação de dados. Além disso, este trabalho descreve, também, as principais vantagens e desvantagens do armazenamento em nuvem, os modelos de implantação, tipos de serviços oferecidos pelos fornecedores e por fim, aborda as legislações brasileiras e internacionais que tratam do contexto deste estudo.
|
|
|
-
IVO DE ABREU ARAÚJO
-
Explicabilidade de modelos de caixa preta: Um estudo de caso em análise de sentimentos de mensagens do Twitter sobre a COVID-19
-
Data: 29/06/2022
-
Mostrar Resumo
-
A interpretação de predições realizadas por algoritmos de aprendizado de máquina é uma necessidade em aplicações inteligentes em que a confiabilidade nos resultados é essencial, principalmente quando se trata de decisões que afetam diretamente a vida humana, como na saúde e finanças. Nesse contexto, define-se a interpretabilidade como a capacidade de compreensão de modelos, enquanto que a explicabilidade utiliza de abordagens para tornar modelos complexos mais transparentes. Diante disso, este trabalho tem como objetivo desenvolver testes de explicabilidade utilizando o framework LIME (Local Interpretable Model-Agnostic Explanations) no contexto de NLP (Natural Language Processing) para interpretar predições de um SVM (Support Vector Machine) em classificações de sentimentos em mensagens do Twitter relacionadas a COVID-19 (Corona Vírus 19). Para otimizar o processo de compreensão de amostras, desenvolveu-se uma aplicação web integrada com o LIME para explorar essas predições de forma interativa através da escolha da quantidade de features explicadas. Com a análise dos resultados obtidos com o LIME, observou-se um ganho de transparência quanto ao processo de compreensão de decisões internas do modelo de caixa preta através de palavras determinantes que impactam predições. Por exemplo, na análise realizada nesta dissertação foi possível perceber na avaliação de amostras falso positivas, que o modelo SVM tende a falhar ao associar um teste positivo de COVID a um sentimento bom e ficar confuso em predições específicas que envolvem palavras relacionadas a variantes de COVID como a Ômicron.
|
|
|
-
FABRICIO WICKEY DA SILVA GARCIA
-
Uma Abordagem para o Ensino de Algoritmos usando Metodologias Ativas em Cursos Superiores de Computação
-
Data: 30/05/2022
-
Mostrar Resumo
-
O ensino de algoritmos vem se mostrando bastante desafiador nos últimos anos. A disciplina de algoritmos fornece uma base para todas as disciplinas subsequentes de programação em um curso de graduação. Os conteúdos relacionados à programação são considerados complexos e de difícil entendimento, o que acaba gerando elevadas taxas de reprovação nas disciplinas e, consequentemente, pode influenciar no aumento do índice de evasão nos cursos da área de computação. Diante disso, torna-se de grande importância explorar novas formas de intervenção pedagógica na sala de aula, como as metodologias ativas que vêm gerando resultados promissores, como a melhoria nas taxas de aprovação nas disciplinas de algoritmos ou equivalentes. Assim, o objetivo deste trabalho é apresentar uma forma de intervenção que foi incorporada a um plano de ensino voltado para a disciplina de algoritmos, elaborado com base em seis metodologias ativas: Ambientes Virtuais de Aprendizagem, Coding Dojo, Gamificação, Aprendizagem Baseado em Problema, Sala de Aula Invertida e Jogos Sérios; detalhando as etapas de elaboração do plano de ensino, assim como a avaliação técnica do material desenvolvido por meio de revisão por pares, que contou com a participação de especialistas no ensino de algoritmos e no uso de metodologias ativas. Como resultados, tem-se um plano de ensino que é inteiramente estruturado a partir de metodologias ativas, o qual é composto por 17 aulas teóricas e práticas, distribuídas em 5 módulos, sendo baseado em referenciais de curriculum, como a Sociedade Brasileira de Computação, Association for Computing Machinery e Institute of Electrical and Electronic Engineers. Além disso, dois estudos de caso foram executados, sendo: o primeiro para avaliar a aplicabilidade da proposta e seus efeitos a partir do ponto de vista dos alunos; e o segundo objetivando avaliar a efetividade da abordagem proposta versus o ensino tradicional, realizando uma análise estatística utilizando a distribuição t de Student bicaudal para amostras independentes, que apresentou ganhos estatísticos significativos ao utilizar a abordagem proposta.
|
|
|
-
IAGO LINS DE MEDEIROS
-
An Energy-Efficient Swarm-based Unmanned Aerial Vehicle System for Mobile Object Tracking and Video Delivery in Disaster Scenarios
-
Data: 25/03/2022
-
Mostrar Resumo
-
Floods are the most common disaster in the world and cause deaths, damages to houses, buildings, and possessions, as well as disruption to communications. In such scenarios, it is needed to search and track mobile objects transported by the water flows, such as humans, animals, vehicles, and debris. Unmanned Aerial Vehicles (UAVs) appears as an essential tool in disaster scenarios, in order to help first responders to determine correct procedures in terms of searching, tracking, and rescuing the victims, as well as in defining the actions to minimize the risks in a sustainable and timely manner. However, the tracking of mobile objects and the delivery of real-time video sequences from UAVs with energy constraints toward first responders is still a hard task. Therefore, it is necessary to orchestrate a swarm of UAVs for searching and tracking mobile objects while reacting fast to frequent changes in the topology and trajectory, as well as distributing real-time video flows with quality level support to the ground team. This thesis presents an energy-efficient swarm-based scheme for mobile object tracking, called SUAV (Swarm of UAVs). The SUAV provides a unique UAV-based system for rescue scenarios with mobile objects and with support for route and path planning, searching and tracking procedures, mobility prediction and multi-hop communication management, video delivery with quality level support, and energy-efficiency. Simulation results show that SUAV transmitted videos with at least 15% better QoE support while minimizing the energy consumption by at least 22% when compared to related works.
|
|
|
-
LUCAS FELIPE FERRARO CARDOSO
-
Teste de classificadores e benchmarks de aprendizado de máquina pela Teoria de Reposta ao Item
-
Data: 11/03/2022
-
Mostrar Resumo
-
Os experimentos cobertos pelo Aprendizado de Máquina devem considerar dois aspectos importantes para avaliar o desempenho de um modelo: conjuntos de dados e algoritmos. São necessários benchmarks robustos para avaliar os melhores classificadores. Para isso, pode-se adotar benchmarks padrão-ouro disponíveis em repositórios públicos. No entanto, é comum não considerar a complexidade do conjunto de dados ao se avaliar um algoritmo. Este trabalho propõe uma metodologia de avaliação baseada na combinação da Teoria de Resposta ao Item (TRI) e Glicko-2, um mecanismo de sistema de rating geralmente adotado para medir a força dos jogadores (e.g., Xadrez). Para cada conjunto de dados em um benchmark, a TRI é usada para estimar a habilidade dos classificadores, no qual bons classificadores são capazes de acertar as instâncias de teste mais difíceis. Então são realizados disputas para cada par de classificadores para que o Glicko-2 atualize as informações de desempenho, como valor de rating, desvio de rating e volatilidade para cada classificador. Foi realizado um estudo de caso que adotou o benchmark OpenML-CC18 como a coleção de conjuntos de dados e vários algoritmos de classificação para avaliação. Como resultado foi visto que nem todos os conjuntos de dados foram considerados realmente úteis para avaliar algoritmos, os quais apenas 10% foram considerados realmente difíceis. Além disso, verificou-se a existência de um subconjunto contendo apenas 50% do tamanho original de OpenML-CC18, mas que é igualmente bom para uma avaliação de algoritmos. Em relação aos algoritmos, a metodologia proposta identificou o Random Forest como o algoritmo com a melhor habilidade inata.
|
|
|
-
DERIAN FERNANDO ALVES DE ALENCAR
-
Dynamic allocation of microservices for virtual reality content delivery to provide quality of experience support in a fog computing architecture
-
Data: 25/02/2022
-
Mostrar Resumo
-
O conteúdo de Realidade Virtual (RV) vem se expandindo nos últimos anos, exigindo soluções para sua distribuição eficiente pela Internet. Os microsserviços apresentam um modelo ideal para implantar serviços em diferentes níveis de uma arquitetura de computação em névoa para gerenciamento de tráfego e fornecimento de qualidade de experiência (QoE) para conteúdo de RV. No entanto, é crucial encontrar o nó de névoa de forma eficiente para alocar os microsserviços, o que impacta diretamente a QoE dos usuários de serviços de VR. Portanto, esta tese propõe um mecanismo para alocar microsserviços em uma arquitetura de computação em névoa para melhorar a QoE com base em parâmetros de rede como atraso, tempo de migração e taxa de utilização de recursos. Na avaliação de nossa proposta, os resultados foram obtidos em diferentes cenários usando um ambiente de simulação para demonstrar e comparar a eficiência dos mecanismos existentes em termos de custo, tempo de migração, balanceamento de carga e QoE.
|
|
|
|
|
|
-
RODRIGO HENRIQUE BARBOSA MONTEIRO
-
FRAGAMES: Um Framework para Avaliação da Gamificação em Engenharia de Software
-
Data: 11/02/2022
-
Mostrar Resumo
-
A gamificação tem sido usada para motivar e envolver os participantes nas atividades de ensino e prática de engenharia de software. Existe uma demanda significativa por estudos empíricos para a compreensão dos impactos e da eficácia da gamificação. No entanto, a falta de procedimentos e modelos padronizados para a avaliação da gamificação é um desafio ao planejamento, à comparação e ao relato de resultados relacionados à avaliação das abordagens de gamificação. Por isso, o objetivo principal desta pesquisa é definir e propor procedimentos padronizados para a avaliação da gamificação em engenharia de software. Para isso, realizou-se uma revisão sistemática da literatura com o intuito de analisar o estado-da-prática da avaliação da gamificação em engenharia de software. A partir desta análise, e do modelo de avaliação GQiM, construi-se um framework para a avaliação da gamificação em engenharia de software, composto por entidades genéricas e fases de avaliação. Em seguida, foram realizadas duas provas de conceito e uma revisão por pares, para verificar e avaliar a adequabilidade do framework na instanciação de avaliações por meio de uma análise reversa da avaliação de dois estudos primários. Por último, foram realizados dois estudos de casos, onde foram aplicadas duas abordagens gamificadas que utilizaram o framework para desenhar suas abordagens avaliativas, para validar o uso do framework. Com a realização desta pesquisa, viu-se que: (1) não há modelos em uso para apoiar a avaliação da gamificação, e portanto não há padronizaçao no design, análise de dados e reporte da avaliação da gamificação em engenharia de software; (2) devido a isso, foi necessário desenvolver um framework para a avaliação da gamificação; (3) o framework desenvolvido é adequado para a instanciação de avaliações antigas e novas. No entanto, ainda é preciso: (1) realizar novas instanciações do framework para que ele seja validado, e que se confirme sua utilidade quanto a geração de dados empíricos replicáveis e comparáveis; (2) investigar e recomendar formas de análise de resultados; e (3) construir uma base de dados comum, para agilizar as etapas de sumarização e análise de resultados, bem como permitir a comparação de diferentes estudos.
|
|
|
-
IAN CAMPOS BEZERRA REGO
-
Estruturação e Aplicação de um Padrão de Game Design Document
-
Data: 10/02/2022
-
Mostrar Resumo
-
Os projetos de jogos apresentam características únicas em sua metodologia em comparação ao demais projetos de software, entre essas destaca-se a presença da etapa de game design, responsável por projetar todos os elementos que o jogo terá futuramente, como: sons, imagens, personagens, enredo, entre outras informações que são fundamentais para que se possa ter uma visão sobre o produto que será desenvolvido. A documentação dessa etapa tão importante também requer um documento específico para o mesmo, o game design document (GDD). Apesar da importância da execução de uma boa etapa de game design e documentação por intermédio do GDD, equipes de jogos, principalmente as menos experientes, podem encontrar dificuldades nessas etapas devido a falta de um modelo que possa orientar os itens a serem desenvolvidos, haja vista que as metodologias das grandes empresas geralmente não são compartilhadas. Nesse contexto, essa pesquisa apresenta um conjunto de etapas que contribuíram para a produção de um padrão de Game Design Document que possui metodologia, etapas, papéis e estruturas que consiguem auxiliar e orientar equipes de projetos de jogos a desenvolverem de maneira correta o seu GDD. Para a avaliação, foi aplicado um estudo de caso para a construção de um jogo.
|
|
|
-
REINALDO JUNIOR LOPES CARDOSO
-
Comunicação Informal e Produtividade: Impactos da pandemia de COVID-19 em profissionais de TIC
-
Data: 07/02/2022
-
Mostrar Resumo
-
A comunicação informal desempenha um papel importante na colaboração entre indivíduos. A sua existência está intimamente relacionada à proximidade física entre os envolvidos. A literatura atribui essa relação entre proximidade física e comunicação informal às oportunidades de interações e awareness (percepção/consciência) que o ambiente físico oferece. A decretação do estado de pandemia (COVID-19) provocou um cenário de home office em larga escala pelo mundo. Durante a pandemia, estudos iniciais mostraram que a comunicação informal e a colaboração, no cenário remoto, foram descritos como um dos desafios encontrados durante a pandemia. Consoante ao apresentado, este trabalho visa investigar a relação entre comunicação informal e produtividade percebida durante o período de home office e isolamento social provocado pela pandemia de COVID-19. Ele se baseia na seguinte hipótese: “SE o isolamento social afetou negativamente a comunicação informal, ENTÃO a produtividade também sofreu impactos negativos”. Para responder aos objetivos de pesquisa, o método utilizado foi o survey, através da realização de um questionário auto administrado. Respostas de 244 profissionais de tecnologia da informação e comunicação (TIC) que exerceram suas atividades em home office durante a pandemia foram coletadas. Para validação dos dados foram utilizadas técnicas estatísticas como a análise fatorial confirmatória do modelo de mensuração. Os resultados mostraram que houve prejuízo para comunicação informal durante o home office e ficou comprovado o impacto da comunicação informal na produtividade através da mediação total das variáveis interação social e bem estar emocional. Tais resultados permitem por inferência logica afirmar que a hipótese principal de pesquisa é verdadeira.
|
|
|
-
SEBASTIAO RODRIGUES DA COSTA NETO
-
Ferramenta de Alto Desempenho para Identificação e Remoção de Adaptadores de Dados NGS
-
Data: 07/02/2022
-
Mostrar Resumo
-
A remoção de adaptadores e regiões de baixa qualidade vindas de leituras brutas de dados gerados por plataformas NGS, é a etapa inicial dos pipelines de montagem de genomas. A remoção dessas sequências visa melhorar a qualidade dos dados na fase de montagem, permitindo melhor alinhamento entre as sequências. Além disso, desempenho em processamento é uma característica importante já que a quantidade de dados gerados pelas plataformas de alto rendimento é muito superior à quantidade real, por conta da busca por alta cobertura de regiões genômicas. Para isso, desenvolvemos o FAIR, uma ferramenta de corte de adaptadores para dados de extremidade única e emparelhada, que utiliza dois algoritmos de casamento de cadeias que se aproveitam do paralelismo intrínseco das operações sobre bits a fim, de encontrar regiões contaminantes com eficiência em processamento.
|
|
|
-
JAILTON WAGNER RODRIGUES TAVARES
-
Aplicação de inteligência computacional para predição de parâmetros físico-químicos da água e detecção de anomalias na piscicultura de Tambaqui na fase de juvenil
-
Data: 07/02/2022
-
Mostrar Resumo
-
Nas últimas décadas ocorreu um aumento significativo do consumo global de alimentos de peixes, paralelamente com crescimento populacional. A produção de pescado se dá de duas formas: por meio do extrativismo animal e da piscicultura. Na primeira forma, ocorre a captura em mares e rios e a segunda é baseada no cultivo de peixes em um espaço confinado e controlado. Na piscicultura se devidamente projetado e monitorado, é possível controlar com eficiência o custo de produção e tempo para comercialização dos pescados, o que não ocorre na pesca extrativista, haja vista, que o peixe encontra-se em seu habitat natural. Porém, para se alcançar a eficiência na piscicultura, o desenvolvimento tecnológico desempenha um papel importante, como exemplo, o uso de tecnologia de Internet das Coisas (IoT) neste contexto, que sensores capturem dados como temperatura, umidade e qualidade da água para monitorar de forma automatizada a piscicultura. Esses dados capturados dos sensores de IoT podem ser usados para análise, através de algoritmos de aprendizado de máquina, e fazer previsões para melhorar a qualidade do produto trazendo novas soluções com diferentes abordagens, assim minimizando o risco e desperdícios, O objetivo desse trabalho consiste em investigar algoritmos de aprendizado de máquina, e aplica-los em dados relacionados a parâmetros físico-químicos relevantes a piscicultura, obtidos por sensores de IoT, e como resultado desenvolver um modelo de aprendizado de máquina capaz de generalizar o problema de predição da qualidade da água e detecção de anomalias para piscicultura de tambaqui, em sistema de recirculação de água (SRA) fechado.
|
|
|
-
TIAGO DAVI OLIVEIRA DE ARAUJO
-
A model for automated support for recognition, extraction, customization and reconstruction of static charts
-
Data: 02/02/2022
-
Mostrar Resumo
-
Data charts are widely used in our daily lives, being present in regular media, such as newspapers, magazines, web pages, books, and many others. A well-constructed data chart leads to an intuitive understanding of its underlying data and in the same way, when data charts have wrong design choices, a redesign of these representations might be needed. However, in most cases, these charts are shown as a static image, which means that the original data are not usually available. Therefore, automatic methods could be applied to extract the underlying data from the chart images to allow these changes. The task of recognizing charts and extracting data from them is complex, largely due to the variety of chart types and their visual characteristics. Computer Vision techniques for image classification and object detection are widely used for the problem of recognizing charts, but only in images without any disturbance. Other features in real-world images that can make this task difficult are not present in most literature works, like photo distortions, noise, alignment, etc. Two computer vision techniques that can assist this task and have been little explored in this context are perspective detection and correction. These methods transform a distorted and noisy chart in a clear chart, with its type ready for data extraction or other uses. The task of reconstructing data is straightforward, as long the data is available the visualization can be reconstructed, but the scenario of reconstructing it on the same context is complex. Using a Visualization Grammar for this scenario is a key component, as these grammars usually have extensions for interaction, chart layers, and multiple views without requiring extra development effort. This work presents a model for automated support for custom recognition, and reconstruction of charts in images. The model automatically performs the process steps, such as reverse engineering, turning a static chart back into its data table for later reconstruction, while allowing the user to make modifications in case of uncertainties. This work also features a model-based architecture along with prototypes for various use cases. Validation is performed step by step, with methods inspired by the literature. This work features three use cases providing proof of concept and validation of the model. The first use case features usage of chart recognition methods focused on documents in the real-world, the second use case focus on vocalization of charts, using a visualization grammar to reconstruct a chart in audio format, and the third use case presents an Augmented Reality application that recognizes and reconstructs charts in the same context (a piece of paper) overlaying the new chart and interaction widgets. The results showed that with slight changes, chart recognition and reconstruction methods are now ready for real-world charts, when taking time, accuracy and precision into consideration.
|
|
|
-
IURI VICTOR FERREIRA COSTA
-
EmojiText: Uma Técnica de Visualização de Informação Para Análise de Frases e Sentimentos
-
Data: 21/01/2022
-
Mostrar Resumo
-
Este trabalho propõe uma visualização de texto com representação de frases e sentimentos. Dentre as técnicas mais clássicas de visualização de texto, cita-se a nuvem de palavras, a qual não apresenta relações entre as palavras tornando-as difícil para analisar os dados gerados por essa visualização, por exemplo, a visualização de uma frase, qual momento uma palavra/frase foi mencionada no texto, etc. No EmojiText, tem-se um gráfico de nós e arestas, onde os nós são as palavras e as arestas são as relações entre as palavras. Cada nó possui uma dimensão e um emoji, sendo a dimensão a representação da frequência da palavra, e o emoji representa a maioria dos sentimentos associados nesta palavra. Além disso, existe também uma borda nos emojis que representam o sentimento de um conjunto de palavras inter-relacionadas que formam uma frase, ou seja, o sentimento do caminho ou ainda da frase. Enfatiza-se que a ferramenta proposta permite as interações: zoom, filtros, detalhes sob demanda, configuração de mapeamento visual e funcionalidades de análise temporal, isso através de animações e múltiplas visualizações para comparações. O EmojiText foi desenvolvido utilizando as seguintes tecnologias: javascript, HTML, CSS com auxílio dos Frameworks D3js e Bootstrap. Para avaliar a técnica proposta serão aplicadas aos usuários tarefas de entendimento do texto e seu contexto e tarefas comuns de técnicas baseadas em grafos, por exemplo, localização de nós e caminhos. As respostas dos testes serão avaliadas para confirmar a eficácia da proposta.
|
|