Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPA

2024
Descrição
  • PAULO SENA FERREIRA FILHO
  • Políticas de Armazenamento de Dados em Cache de Redes com Canais Não Confiáveis

  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 17/04/2024
  • Mostrar Resumo
  • Recentemente, houve progressos substanciais no entendimento analítico de como os recursos de armazenamento em cache devem ser alocados quando as mesmas são implementadas com a política tradicional LRU. Entretanto, a função desempenhada pelas políticas de armazenamento além da LRU, em configurações de rede onde os conteúdos podem ser replicados através de múltiplas caches particionadas e onde os canais não são confiáveis ainda é pouco compreendida. A correta compreensão da função destas políticas, nestes cenários, é fundamental para determinar o compromisso entre redundância e diversidade nas caches. Como a confiabilidade do canal pode variar, ocasionando falhas nas entregas das requisições  às caches, manter redundância de conteúdos armazenados nas caches pode melhorar o desempenho do sistema, reduzindo a probabilidade de falhas nas caches (cache miss). No entanto, se em um dado momento, a rede apresentar baixa carga de tráfego, com canais ociosos ou pouco congestionados, a confiabilidade do canal aumenta e reduz a probabilidade de perdas e ocasionando assim, a sincronização das caches. Neste caso, se as caches não estiverem diversificadas o suficiente, a rede não consegue se beneficiar de forma eficiente do particionamento delas. Portanto, nesta tese foram utilizadas técnicas matemáticas, como Cadeias de Markov, e um modelo de brinquedo (toy model) para investigar diferentes combinações de políticas e cenários e dessa forma, propor um trade-off entre redundância e diversidade de caches. É mostrado formalmente e evidenciado experimentalmente as condições sob as quais caches em rede tendem a sincronizar ao longo do tempo. Também é apresentada a existência de um limiar (threshold) que delimita o trade-off, indicando quando deve ser priorizada a redundância e quando deve ser dado primazia a diversidade para combater os efeitos da sincronização nas caches. Essa sincronização, por sua vez, leva à degradação do desempenho e ao envelhecimento da cache, ou seja, a cache passa a manter armazenados conteúdos antigos e pouco utilizados. Este fato motivou o monitoramento dos sistemas de cache para eventual rejuvenescimento, isto é, a implantação de diversas políticas de armazenamento entre as caches para promover a diversidade e impedir a sincronização e os efeitos do envelhecimento. Com base em testes realizados com cargas de trabalho sintéticas e reais, foi possível validar a modelagem feita das caches com Cadeias de Markov e por meio do modelo de brinquedo, como também mostrar como a taxa de falhas nas caches é sensível às variações na confiabilidade do canal, aos tamanhos diferentes de cache e ao particionamento das caches, indicando que a combinação de políticas simples, como LRU e LFU, proporcionam desempenho competitivo em relação às outras políticas avaliadas. Os resultados sugerem que a variação das políticas de armazenamento, o rejuvenescimento e, contra intuitivamente, o descarte intencional de requisições são estratégias que criam diversidade entre as caches, prevenindo e/ou mitigando a perda de desempenho devido a sincronização das cache. Esta última descoberta por sua vez, motivou o desenvolvimento de uma nova política chamada LFU Probabilística (ProbLFU), esta política realiza o descarte, de forma aleatória, de 10% das requisições que chegam nas caches sempre que os canais não confiáveis atingem o limiar de confiabilidade, evitando, sobretudo, que as caches sincronizem e envelheçam, promovendo diversidade e rejuvenescendo as caches. Os resultados mostram que a política ProbLFU consegue melhorar em até 10% o desempenho da LFU quando os canais estão confiáveis.

  • LEONARDO PATRICIO FERREIRA BARBOSA
  • Um estudo empírico sobre a aplicação de técnicas de refatoração guiada por CDD na melhoria da legibilidade de código

  • Orientador : GUSTAVO HENRIQUE LIMA PINTO
  • Data: 27/03/2024
  • Mostrar Resumo
  • Background: Cognitive-Driven Development (CDD) é uma técnica de design de codificação que visa reduzir o esforço cognitivo dos desenvolvedores na compreensão de uma determinada unidade de código (por exemplo, uma classe). Seguindo as práticas de design do CDD, espera-se que as unidades de codificação sejam menores e, portanto, mais fáceis de manter e evoluir. No entanto, é tão desconhecido se essas unidades de código menores codificadas usando padrões CDD são mais fáceis de entender. Objetivos: Este trabalho visa avaliar o quanto o CDD melhora a legibilidade do código. Método: Para atingir esse objetivo, realizamos um estudo em duas fases. Começamos convidando desenvolvedores de software profissionais a votar (e justificar sua justificativa) no par de trechos de código mais legível (de um conjunto de 10 pares); um dos pares foi codificado usando práticas de CDD. Recebemos 133 respostas. Na segunda fase, aplicamos o modelo de legibilidade de última geração aos 10 pares de CDD-driven refactorings. Results: Observamos alguns resultados conflitantes. Por um lado, os desenvolvedores perceberam que sete (de 10) CDD-driven refactorings eram mais legíveis do que suas contrapartes; para outros dois CDD-driven refactorings, os desenvolvedores ficaram indecisos, enquanto apenas em um dos CDD-driven refactorings, os desenvolvedores preferiram o trecho de código original. Por outro lado, notamos que apenas um CDD-driven refactorings possui melhor legibilidade de desempenho, avaliada por modelos de legibilidade de última geração. Conclusões: Nossos resultados fornecem evidências iniciais de que o CDD pode ser uma abordagem empolgante para o design de software.

  • ANDERSON JORGE SERRA DA COSTA
  • Um Framework para Implementação de Concepção de Software com Design Thinking em um Programa de Intraempreendedorismo 

  • Data: 01/03/2024
  • Mostrar Resumo
  • As empresas precisam encontrar meios para inovar e garantir a própria sobrevivência. No entanto, é necessário investir em inovação de forma assertiva. Para que isso seja possível, as empresas de desenvolvimento de software estão cada vez mais aderindo às abordagens centradas no usuário. Essas abordagens permitem direcionar as atenções às reais necessidades dos clientes e usuários e, assim, desenvolver soluções mais adequadas. Neste contexto, o Design Thinking(DT) se destaca por vários motivos. Ele propicia a empatia com usuários e clientes, a imersão no problema e validações das ideias propostas com protótipos. Tudo isto também auxilia na criação de soluções de software inovadoras. Apesar disso, a literatura relata a necessidade de diretrizes claras de como adotar abordagens para desenvolver soluções com DT e a necessidade de identificar meios para superar barreiras culturais na adoção do DT. Para endereçar estas necessidades, uma pesquisa-ação em uma empresa de desenvolvimento de software brasileira foi realizada. A empresa estudada apresentou interesse em aplicar o DT dentro do contexto de inovação por meio do intraempreendedorismo. Com isso, o intraempreendedorismo foi utilizado para minimizar barreiras culturais na adoção do DT, pois os intraempreendedores têm motivação para desenvolver suas próprias ideias de negócios. Assim, este trabalho apresenta uma proposta de framework que orienta a implementação de Design Thinking para a concepção de soluções de software inovadoras em um programa de intraempreendedorismo de uma empresa de desenvolvimento de software brasileira. Este trabalho foi desenvolvido por meio de uma pesquisa-ação em dois ciclos dentro de uma empresa de desenvolvimento de software brasileira. Dentre os resultados, o framework proposto conseguiu orientar de forma clara a concepção de software com DT. Além disso, a utilização do framework proposto em um programa de intraempreendedorismo reduziu a resistência na adoção do DT previamente percebida. No entanto, ainda foram identificados problemas relacionados à falta de investimento adequado para a adoção do DT.

  • JEAN CARLOS DE CARVALHO COSTA
  • Sistema de Orientação Vocacional Automatizado e Inteligente com Base na Análise dos Microdados do POSCOMP

  • Orientador : REGINALDO CORDEIRO DOS SANTOS FILHO
  • Data: 29/02/2024
  • Mostrar Resumo
  • Os progressos da tecnologia da informação têm o potencial de transformar significativamente a educação, oferecendo metodologias inovadoras que aprimoram o processo de ensino e aprendizagem. No entanto, acompanhar o desenvolvimento dos discentes em sala de aula ou durante o processo acadêmico torna-se uma tarefa desafiadora para instituições de ensino superior. Nesse contexto, o Exame Nacional para Ingresso na Pós-Graduação em Computação (POSCOMP) é uma ferramenta que avalia o conhecimento de candidatos e discentes dos cursos na área da computação, sendo utilizado como critério de avaliação para a admissão em programas de mestrado e doutorado. É fundamental mencionar que os dados do POSCOMP revelam quais áreas de conhecimento do exame os participantes possuem melhor desempenho e quais especialidades são mais comuns para o desenvolvimento de pesquisas na pós-graduação. Estas descobertas colaboram e modernizam os Programas de Pós-Graduação (PPG) em todos os aspectos, além de contribuir para atrair mais alunos qualificados. Além disso, o desempenho do candidato na prova pode revelar um perfil característico de um pesquisador de uma determinada especialidade. Por esse motivo, este trabalho analisa os microdados do POSCOMP, entre 2016 a 2019, por meio de análises estatísticas descritivas e tecnologias do processo de descoberta do conhecimento, para desenvolver um sistema de orientação vocacional automatizado e inteligente capaz de sugerir a especialidade de um participante com base nas notas obtidas em cada área de conhecimento do exame.

  • WILTON FREITAS RIBEIRO
  • PRÁTICAS ÁGEIS: UM ESTUDO EXPLORATÓRIO COM FOCO NO MAPA DO METRÔ DA AGILE ALLIANCE

  • Data: 16/02/2024
  • Mostrar Resumo
  • O cenário competitivo e em constante evolução, especialmente no setor de Tecnologia da Informação (TI), impulsiona a necessidade de abordagens ágeis para o desenvolvimento de software. Diante das limitações dos modelos tradicionais em acompanhar as rápidas mudanças nos projetos, um grupo de especialistas criou a Agile Alliance e o manifesto ágil, fundamentados em valores e princípios de colaboração e entrega contínua de valor. Essa iniciativa deu origem às práticas ágeis, visando otimizar o desenvolvimento de software. O objetivo desta dissertação é mapear e analisar as práticas ágeis do mapa do metrô da Agile Alliance, respondendo à pergunta central: "Como as práticas ágeis são aplicadas com base nos trabalhos publicados na literatura especializada?". A metodologia adotada envolveu uma abordagem exploratória e descritiva, incorporando a catalogação das práticas ágeis, pesquisa survey e mapeamento sistemático da literatura (MSL). A MSL, em particular, adicionou uma camada valiosa à compreensão das práticas ágeis na literatura, destacando padrões, lacunas de pesquisa e tendências emergentes. Observou-se uma riqueza de informações nos estudos publicados, abrangendo desde a aplicação de práticas específicas até tendências recentes e futuras, contextos, benefícios, desafios, avaliações de eficácia e impacto, além da disponibilização dos dados bibliométricos referentes a esta pesquisa. Os resultados revelam uma ampla aplicação das práticas ágeis em diversos contextos, indo além do desenvolvimento de software, abrangendo setores públicos, empresas de telecomunicação e outros contextos. Identificaram-se desafios, como resistência cultural em organizações tradicionais. Este estudo contribui significativamente para a compreensão das práticas ágeis, fornecendo achados valiosos para pesquisas futuras, indicando áreas de sucesso e promovendo direções promissoras para a aplicação eficaz das práticas ágeis em diversos ambientes.

  • IGOR ERNESTO FERREIRA COSTA
  • UM PROGRAMA DE ESTUDO BASEADO EM METODOLOGIA ATIVA PARA O ENSINO E APRENDIZAGEM DE TESTE EXPLORATÓRIO DE SOFTWARE

  • Data: 02/02/2024
  • Mostrar Resumo
  • A necessidade de entrega rápida dos produtos e serviços provocou um crescimento no processo de desenvolvimento de software mais ágil. Consequentemente, novas abordagens de teste, consideradas ágeis na literatura especializada, têm se tornado protagonistas na indústria para que os produtos e serviços sejam oferecidos com qualidade à medida que ocorrem seu desenvolvimento. Nesse contexto, o uso de Teste Exploratório (TE) tem sido bastante difundido na indústria, pelo menos nos últimos anos, conforme observado no relatório denominado State of Testing. Entretanto, nota-se que o teste exploratório ainda não é comumente utilizado de forma estruturada. Em corroboração a isso, foi identificado em uma revisão da literatura, realizada pelo autor, trabalhos que direcionam seus esforços somente à execução do teste exploratório, resumindo à exploração aleatória dos fluxos pré-identificados em um modelo. Dessa maneira, pressupõe-se que o teste exploratório pode estar sendo utilizado sempre na forma free style (técnica informal, sem documentação), conforme é percebido no conceito presente no SWEBOK. Por esses e outros motivos, este trabalho objetiva apresentar uma proposta de abordagem para aprendizagem de teste exploratório que possa prover a uso deste tipo de teste de maneira sistemática para atender, principalmente, as necessidades das atividades de gerenciamento do processo de teste utilizando tal abordagem, bem como proporcionar ao aluno a obtenção de habilidades mais próximas da realidade vivenciada na indústria de software. Nessas circunstâncias, este trabalho inclui também a descrição de um plano de ensino envolvendo o uso de metodologias ativas por meio de tecnologias digitais para prover ao aluno o protagonismo desse processo de aprendizado. Como contribuição, este trabalho espera ajudar a fortalecer os vínculos entre as universidades e a indústria de software a partir da proposta, almejando criar profissionais mais adaptados a estas organizações.

  • CLEYTON LUIZ RAMOS BARBOSA
  • Otimizando Automaticamente Escala de Cores para Fisicalização de Dados Ativas


  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 01/02/2024
  • Mostrar Resumo
  • A fisicalização de dados é a área que investiga como objetos físicos podem codificar dados através de suas características físicas (geometria e materiais) e visuais. Na visualização da informação, a cor desempenha um papel fundamental na comunicação e codificação dos dados, não havendo diferença para área de fisicalização des dados. Porém, no mundo real, a percepção das cores pode ser influenciada pelo material que compõe o artefato físico, pela luminosidade do ambiente e pelas características do dispositivo emissor de luz da fisicalização. Desta forma, paletas de cores comumente utilizadas em cenários digitais podem falhar na comunicação e codificação de dados quando aplicadas diretamente na fisicalização de dados sem qualquer ajuste ou avaliação devido a esta alteração na percepção de cores. Assim, esta tese tem como objetivo produzir automaticamente paletas de cores para fisicalização de dados ativas, considerando suas características físicas e de emissão de luz únicas. Para tanto, foi realizado um processo de avaliação do espaço de cores do artefato físico com a adaptação do teste de cores Farnsworth Munsell. O teste foi aplicado nas versões física e digital, e os resultados obtidos foram comparados e identificadas cores inadequadas ao cenário físico. O artefato físico utilizado foi um gráfico de barras 3D físico composto por faixas de LED configuráveis. Com os resultados dos testes também foi possível criar manualmente paletas de cores (categóricas, sequenciais e divergentes), considerando para isso principalmente a métrica de distância perceptual entre as cores escolhidas. A paleta de cores proposta foi validada em relação às paletas de cores digitais através da realização de tarefas básicas do InfoVis, como identificação, comparação e ordenação. Na segunda etapa, foi proposto um método automatizado para avaliação do espaço de cores para fisicalização de dados e geração automática de paletas de cores. Uma visão geral do processo automático começa com o usuário fornecendo imagens de cores pré-determinadas coletadas diretamente da fisicalização de dados; as imagens são processadas e são estimadas matiz, saturação, luminância, etc. O conjunto de dados inicial é ampliado adicionando interpolações e ruído para aplicar um algoritmo de agrupamento, buscando agrupamentos de cores com maior distância entre elas para compor as paletas de cores categóricas. As paletas de cores sequenciais e divergentes são calculadas a partir de uma das cores selecionadas para a paleta de cores categórica. Além disso, os usuários podem escolher entre diversas sugestões de paletas de cores geradas. Os resultados mostraram que o método automático pode ser reutilizado para outras fisicalizações ativas de dados, que alteram dinamicamente as cores. As etapas realizadas culminaram em um pipeline de avaliação e criação de escalas de cores para fisicalização de dados, considerando suas características físicas e emissão de luz únicas.

  • MARCELL SERRA DE ALMEIDA MARTINS
  • MARCADOR FIDUCIAL MULTI-ESCALAR PARA LOCALIZAÇÃO EM AMBIENTES INTERNOS

  • Data: 31/01/2024
  • Mostrar Resumo
  • Os sistemas projetados para localizar pessoas em ambientes internos geralmente utilizam sensores (como bluetooth e Wi-Fi) ou câmeras digitais. A abordagem baseada em câmeras digitais possibilita aplicar técnicas de visão computacional que tendem a reduzir os custos de implementação do sistema de localização, principalmente quando esse sistema utiliza as infraestruturas existentes, como as câmeras digitais integradas aos smartphones e à Internet. Os marcadores fiduciais apresentam-se como elementos visuais detectáveis por câmeras, podem ter um caráter único, sinal ou cor em uma imagem que tornam a sua detecção e leitura rápida. Neste sentido, o presente estudo disserta sobre o desenvolvimento de um marcador fiducial em forma de fita para atender um sistema de localização e mobilidade interna em imóveis. Essa morfologia do marcador em forma de fita, permite a leitura dos seus segmentos de forma contínua, utilizando algoritmos de detecção e leitura de modo multi-escalar. Para validar essa característica de detecção e leitura de modo multi-escalar, foram realizados testes para três dimensões de marcadores em forma de fita, objetivando saber qual das dimensões do marcador fita, obteria sucesso de leitura para as distâncias estabelecidas entre 0,5 até 10 metros de distâncias. O marcador proposto com dimensões de 6x160,8 cm foi lido dentro da faixa de distância estabelecida no teste. Diante dos testes realizados, foi possível verificar que o serviço de leitura do marcador fita permaneceu ativo, mesmo quando a distância de captura da imagem variou dentro da margem estabelecida. Assim, observou-se que a leitura do marcador em forma de fita mostrou ser robusta a oclusões parciais e sua leitura foi eficaz em relação à variação de distância entre o marcador e a câmera de leitura. Outro teste realizado, foi o teste comparativo da distância de leitura entre o marcador proposto em relação aos marcadores fiduciais ARUCO e QRCode, ambos com dimensões de 6x6 cm. Os marcadores ARUCO e QRCode, apresentaram limitações de detecção e leitura, a distância máxima alcançada foi de 5,5 m para dimensão 6x6 cm. Havendo a necessidade de ampliar os marcadores ARUCO e QRCode para atingir a leitura dentro da margem de distância de 10 metros. Porém, a ampliação dos marcadores, comprometerá suas leituras a uma distância de 0,5 metro. O marcador proposto utiliza a característica de leitura multi-escalar, portanto, garante a leitura dentro a da faixa de teste sem reescala do marcador.

  • AILSON MEDEIROS VASCONCELOS
  • Ecossistema de software SIG-UFRN: Um Estudo Exploratório sobre os fatores Determinantes à sua Adoção

  • Data: 16/01/2024
  • Mostrar Resumo
  • Ecossistemas de software (ECOS) são meios para o desenvolvimento de software em larga escala, que abrangem a mistura complexa de aspectos técnicos, de negócios e sociais. Estes são evidenciados na cooperação sinérgica dos atores (plataforma tecnológica, desenvolvedores, usuários, etc.), que integram os ECOS na produção de soluções. Os Sistemas Integrados de Gestão da Universidade Federal do Rio Grande do Norte (SIG-UFRN) fazem parte de uma plataforma tecnológica integrante do ecossistema de software SIG-UFRN que é utilizada por um número considerável de Instituições Federais de Ensino (IFE) distribuídas pelo território nacional. Neste contexto de utilização, existem vários cenários de adoção do ecossistema SIG-UFRN que delimitam a situação atual de implantação da plataforma. Estes cenários são determinados por fatores técnicos, negociais e sociais que precisam ser identificados para esclarecer quais motivos direcionam para o sucesso na adoção deste ecossistema, pois senão observados, podem prejudicar as atividades de negócio das IFE, ocasionar desperdício de recursos e também provocar penalidades aos gestores públicos por decisões equivocadas. O objetivo deste trabalho é identificar estes fatores que direcionam para o sucesso ou fracasso na adoção deste ecossistema. Para tanto, este trabalho foi desenvolvido em três etapas. Na primeira etapa foi conduzida uma Revisão Sistemática da Literatura (RSL), que teve por objetivo identificar métodos e/ou técnicas utilizados por pesquisadores para coletar e analisar dados nos seus aspectos técnicos, sociais e de negócio dos diferentes ecossistemas de software pesquisados. Na segunda etapa foram conduzidas entrevistas semiestruturadas aplicadas aos desenvolvedores de software que atuam no processo de implantação da plataforma SIG-UFRN em suas respectivas IFE, cujo objetivo foi identificar as percepções e experiências neste processo. Por fim, na terceira etapa, foram utilizadas as técnicas de codificação aberta e axial da teoria fundamentada em dados (TFD) sobre os dados coletados nas entrevistas, que nos permitiu identificar os fatores inerentes à adoção deste ecossistema. Como resultado desta pesquisa obtivemos trinta e uma redes de códigos constituídas por fatores que podem influenciar no sucesso ou fracasso na  adoção deste ecossistema.

2023
Descrição
  • VITOR CIRILO ARAUJO SANTOS
  • Estudo sobre a Teoria de Medição e Generalização de Modelos de Aprendizado de Máquina

  • Data: 12/12/2023
  • Mostrar Resumo
  • O aprendizado de máquina está sendo cada vez mais utilizado e evoluiu consideravelmente nos últimos anos, permitindo que ela alcance o estado da arte na resolução de várias tarefas. No entanto, com o seu uso intensificando-se, tornaram-se mais evidentes lacunas relacionadas às avaliações e procedimentos de aprendizagem dos modelos. Existem várias técnicas distintas que são utilizadas para avaliar modelos, como precisão, Pontuação F1 e outras. No entanto, esses procedimentos não estão ligados à avaliação da própria aprendizagem, mas apenas ao número de respostas corretas apresentadas pelo modelo. Essa característica torna impossível avaliar se um modelo foi capaz de aprender por meio de elementos que façam sentido no contexto em que está inserido. Portanto, o modelo pode obter bons resultados na fase de treinamento, mas resultados ruins quando precisa ser generalizado. Quando existem muitos modelos diferentes que alcançam desempenho semelhante, escolher o modelo que apresentou o maior número de acertos no treinamento não significa escolher o melhor modelo. Por isso, foi desenvolvida uma metodologia fundamentada na Teoria de Resposta ao Item para criar um modelo de Aprendizado de Máquina capaz de identificar se um determinado ambiente de treinamento não é confiável, fornecendo uma validação adicional e única para o contexto de aprendizado de máquina. Foram empregadas 126 partições de dados originadas de 21 conjuntos distintos para conceber um modelo capaz de identificar contextos não confiáveis com uma precisão de 0,935 e uma pontuação F1 de 0,930.

  • RONALDD PATRIK SILVA PINHO
  • Operador de Cruzamento Guloso para Problemas de Roteamento de Veículos com Capacidade

  • Data: 30/11/2023
  • Mostrar Resumo
  • Atualmente, com as pessoas cada vez mais conectadas virtualmente através da internet, cresce a importância da eficiência logística no setor de transportes, que impacta diretamente na economia de um país. Da perspectiva da ciência da computação, o Problema do Roteamento de Veículos com Capacidade (PRVC) é capaz de representar algumas das necessidades da indústria de transportes. Esse é um problema de otimização cuja solução não é nada trivial, demandando técnicas algorítmicas mais elaboradas que as tradicionais para obter soluções sub-ótimas. É comum a utilização de metaheurísticas para otimizar esse tipo de problema, como por exemplo Algoritmos Genéticos (AG) ou GRASP. Além desses, muitas pesquisas tem sido feitas em torno de metaheurísticas para melhorar a otimização desse problema. Neste trabalho, o Algoritmo Genético é aplicado ao PRVC utilizando instâncias baseadas em dados geoespaciais e demográficos e, são feitas discussões sobre seu processo de otimização conectando os conceitos do algoritmo, do problema e outros conceitos comuns da área de otimização. Com isso, é apresentado um novo operador de cruzamento para o AG baseado no conceito de gulosidade empregado em outros algoritmos. Esse operador apresenta resultados melhores em comparação com os operadores de cruzamento mais comuns encontrados na literatura que são utilizados para a otimização do PRVC.

  • ANDRE DEFREMONT
  • OTTx: Transações de Uso Único para Registro de Dados por Meio de Outras Identidades em Redes Blockchain


  • Data: 23/11/2023
  • Mostrar Resumo
  • As tecnologias de redes de computadores em ambientes empresariais possibilitaram que organizações com um mesmo objetivo em comum troquem informações e registrem dados de forma segura, mesmo que não sejam confiáveis entre si. Nessas redes, os usuários possuem identidades únicas para acessar os recursos disponíveis por meio de aplicações confiáveis. Entretanto, em redes blockchain permissionadas, há a necessidade de permitir o envio de transações por meio de aplicações de organizações que não possuem infraestrutura blockchain, mas se comunicam com a rede blockchain através de alguma identidade. Para que os usuários utilizem aplicações para interagir com a rede blockchain e manter a privacidade, integridade e não repúdio das transações enviadas através de outras identidades, são necessários mecanismos adicionais. Nesse sentido, este trabalho propõe um esquema para transações de uso único (One-Time Transactions - OTTx) em redes blockchain permissionadas, que permite o envio de transações por meio de outras identidades de forma segura e eficiente. O OTTx é um esquema para autenticação de transações em blockchain baseado em senhas de uso único (One-Time Password - OTP) implementadas em contrato inteligente. O estudo aponta as necessidades para criação desse tipo de solução, descreve o estado da arte e avalia a implementação do esquema OTTx em uma rede blockchain permissionada. Os resultados obtidos mostram que o OTTx é capaz de prover segurança, privacidade, integridade e não repúdio para as transações enviadas por meio de identidades externas em redes blockchain permissionadas. Além disso, o OTTx apresenta um desempenho satisfatório e uma baixa sobrecarga na rede, comparada com outras soluções existentes. O trabalho também contribui para o avanço do conhecimento na área de blockchain e suas aplicações, fornecendo uma solução eficaz para o envio de transações autenticadas.

  • TAYRINE DE SOUZA ROCHA
  • Análise de visualização multidimensional para dados multi-ômicos 

     
     
  • Data: 13/11/2023
  • Mostrar Resumo
  • Com o rápido avanço da tecnologia os problemas estão cada vez mais complexos e com um grande volume de dados que exigem alto poder de processamento. Esses dados levaram à produção de diferentes tipos de dados biológicos e permitiram a construção de redes extensas com vários tipos de interações entre diversas entidades biológicas. O aumento da quantidade de informação disponível pode gerar alguns problemas na análise e compreensão de dados pela enormidade e heterogeneidade desses dados que ameaçam tornar os problemas que surgem computacionalmente inviáveis. Neste contexto, diversas ferramentas de bioinformática têm sido desenvolvidas, muitas delas sem uma avaliação detalhada e aprofundada tanto de eficiência como de utilidade no suporte às necessidades dos usuários. Contudo, há relativamente muito o que se questionar sobre essas ferramentas e como seria a melhor forma de promover sua utilização eficiente. Deste modo, esta dissertação procura demonstrar a importância da visualização da informação sobre um grande volume de dados e, desta forma, apoiar os sistemas com foco em dados multi-ômicos sugerindo critérios de avaliação para o desenvolvimento de novas ferramentas ou melhorias utilizando visualização de dados, usabilidade e interatividade como princípio avaliativo.

  • LEONARDO BARBOSA DA COSTA
  • Sec-Health: A Decentralized Protocol for Secure Storage and Sharing of Health Records

  • Data: 31/10/2023
  • Mostrar Resumo
  • Atualmente, os formulários digitais de registros de saúde são recursos indispensáveis. Oferecem comodidade para pacientes e colaboradores (por exemplo, enfermeiros, médicos) devido ao alto grau de disponibilidade e facilidade para gerenciá-los. Contudo, o armazenamento e a partilha de tais registos através de diferentes sistemas e redes online, apoiados por tecnologias como a computação em nuvem, representam riscos de segurança. Por exemplo, se não forem devidamente protegidos, os registos de saúde podem ser acedidos por entidades não autorizadas, causando sérias preocupações ao paciente, tais como seguros, emprego e discriminação social, bem como constrangimento e outros danos dignitários. Para resolver estas questões, vários países estabeleceram regulamentos que incluem estes registos num conjunto de dados sensíveis. Isto implica que, ao implementar um sistema de informação em saúde, as organizações devem cumprir diversas propriedades de segurança dos registos de saúde, nomeadamente confidencialidade, controlo de acesso, integridade, revogação e anonimato. Além disso, também devem ser satisfeitas propriedades complementares relacionadas a cenários específicos (situações de emergência e interoperabilidade). Várias propostas anteriores visam cumprir propriedades dos registros de saúde. No entanto, a maioria deles apresenta limitações de segurança (por exemplo, por serem altamente centralizados, contendo pontos únicos de falha) e/ou abordarem apenas propriedades específicas. Outros, baseados em tecnologias descentralizadas, carecem de mecanismos para abordar algumas propriedades. Portanto, neste trabalho propomos o Sec-Health, um protocolo descentralizado de segurança de registros de saúde que atende às propriedades de segurança definidas pela regulamentação vigente, além de fornecer mecanismos que satisfaçam propriedades complementares. O Sec-Health compreende um conjunto de esquemas descentralizados e é baseado em tecnologias descentralizadas (por exemplo, blockchain e Sistema de Arquivos Interplanetários), apresentando vantagens de segurança em comparação com propostas relacionadas que apresentam mecanismos altamente centralizados. Além disso, em comparação com outras soluções descentralizadas, o nosso protocolo aborda o problema desafiador de cumprir todas as propriedades principais dos registos de saúde, enquanto outras soluções se concentram em oferecer mecanismos apenas para propriedades específicas. De acordo com avaliações experimentais com Prova de Conceito Sec-Health, nosso protocolo reduz em pelo menos 21,87% o tempo de execução de diversas propostas relacionadas para cadastro de usuários. Além disso, o Sec-Health pode reduzir em pelo menos 28% o tempo de armazenamento dos registros de saúde e em pelo menos 26% o tempo de acesso aos registros. Mostramos também que faltam propostas na literatura que avaliem o uso de memória do lado do cliente. Em contrapartida, fornecemos tais resultados, demonstrando que, no pior caso testado, o Sec-Health utiliza aproximadamente 220 MB de memória. Por fim, avaliamos a segurança do Sec-Health empregando cerimônias de segurança, que são extensões de protocolos, incluindo entidades humanas nas etapas do protocolo e na avaliação de segurança. Como resultados, descrevemos os pontos fortes do nosso protocolo em diversos cenários de ataque e apontamos suas limitações.

  • MANOEL GARCIA DE SOUSA NETO
  • Uso de Word Embeddings na Língua Portuguesa em Tarefas de E-Recruiting

  • Data: 30/10/2023
  • Mostrar Resumo
  • Realizar a seleção dos melhores currículos para uma vaga de emprego dentre um número grande de candidatos é uma tarefa que exige tempo e esforço das equipes de recrutadores no setor de recursos humanos, analisar os currículos dos pleiteantes à vaga é uma prática muito comum nos processos de seleção e é nesse âmbito que podemos utilizar de técnicas de processamento de linguagem natural para ajudar nessas análises. Para enfrentar os problemas com o tempo e os esforços gastos nas análises, é apresentado neste trabalho o uso de Word Embeddings em língua portuguesa que atuarão na análise dos textos, gerando pontuações de similaridade semântica dentre a vaga ofertada e os currículos dos candidatos, também o uso de lógica Fuzzy para constituir um sistema de suporte à decisão para ponderar as características analisadas e classificar os melhores candidatos.

  • ANTONIO BORGES DE SOUZA RUFINO
  • Algoritmo Augmented Randon Search como alternativa a algoritmos baseados em redes neurais no controle de topologia ativa em sistemas de potência

  • Data: 27/10/2023
  • Mostrar Resumo
  • O avanço dos problemas climáticos nos últimos anos vem contribuindo fortemente para mudanças nas matrizes energéticas no mundo todo, isso se dá em consequência de que as principais fontes de energia no mundo são baseadas em carbono e sua queima contribui diretamente para a rápida degradação climática. Com isso, diversos países vêm traçando metas para diversificar sua matriz energética e diminuir a dependência do carbono, implementando em sua planta fontes de energias mais renováveis e limpas, com ênfase para a energia eólica e solar. Entretanto, a inserção de fontes de energia renovável pode causar grandes danos a rede elétrica existente devida a sua extrema intermitência, fator esse que os sistemas de distribuição convencionais não foram projetados para lidar. Com isso, esse trabalho lança luz sobre a utilização de algoritmos que não são baseados em redes neurais para realizar o controle de topologia ativa nas redes elétricas e mitigar os danos causados pelas fontes de energia renováveis. Ao todo, quatro algoritmos foram testados, sendo os algoritmos PPO, DQN e DDQN baseados em redes neurais e o algoritmo ARS baseado em otimização combinatória através de gradiente, com tais algoritmos sendo dispostos a testes em dois ambientes diferentes do framework grid2op, sendo eles, “2rpn_wcci_2020” e “l2rpn_case14_sandbox”. Os resultados mostraram que o algoritmo ARS foi competitivo com os algoritmos baseados em redes neurais em basicamente todos os cenários, superando-os em diversas ocasiões, os resultados também mostraram que mesmo o ambiente “l2rpn_case14_sandbox” sendo menos complexo, os agentes tiveram muito mais dificuldade de realizar um controle continuo nele, indicando um nível a mais de dificuldade oculto nesse ambiente. A pesquisa finaliza com uma discussão sobre as lacunas deixadas aqui e a partir de tais lacunas indicam trabalhos futuros que podem trabalha-las.

  • DAVI AUGUSTO GALUCIO FRAZAO
  • Geração e otimização de dashboards baseada nos dados utilizando uma composição de meta-heurísticas

  • Data: 27/10/2023
  • Mostrar Resumo
  • A visualização da informação está cada vez mais inserida em diversas áreas do conhecimento. Apesar de ser amplamente utilizada em pesquisas e processos acadêmicos, o auxílio de ferramentas na tomada de decisão vem em uma crescente utilização em diversas empresas, independente de sua natureza e fim comercial. Essas ferramentas tendem a agilizar diversos procedimentos internos, bem como melhorar processos de produção e visualizar perdas econômicas em um cenário empresarial e de negócio. Assim como para a área acadêmica, traz uma consolidação da evolução das pesquisas e seus resultados. Perante esse cenário, o presente trabalho foca em demonstrar um esforço na união de duas áreas, a visualização da informação e a inteligência artificial. Para a concepção dessa ideia, foi realizado uma revisão da literatura que identificou a carência do uso de IA para automação na construção de visualizações eficientes dentro de layouts objetivos. A automação utiliza o algoritmo de otimização por enxame de partículas denominado PSO para tratar as métricas visuais, onde será capaz de acrescentar as características ideais para a construção de uma visualização através de sua função fitness. Essa função será responsável pela escolha ideal de cada característica proposta na pesquisa. Por outro lado, o Algoritmo Genético foi adicionado para criar a possibilidade da escolha de um layout objetivo e ideal dado uma determinada base de dados. A junção dessas técnicas de inteligência artificial trará a concepção inicial sobre a construção de um dashboard de forma automática, demonstrando ao utilizador visualizações e um layout próximo ao ideal.  Com o auxílio da inteligência artificial, o objetivo é tornar o processo de produção de dashboards mais factível e acessível. Com isso, o trabalho visa apresentar uma visão geral sobre o relacionamento dessas áreas para demonstrar uma base de possibilidades na construção de visualizações ideais juntamente com layouts objetivos.

  • EDSON MARQUES DA SILVA
  • Detecção de Alvos de Desmatamento em Imagens de Radar Orbital Utilizando Redes Neurais Artificiais

  • Data: 27/10/2023
  • Mostrar Resumo
  • O desmatamento é responsável por grande parcela da degradação dos ecossistemas naturais brasileiros. Para mitigar esse problema, nas últimas décadas surgiram soluções baseadas em satélites artificiais para observação da superfície
    terrestre que auxiliam na detecção de áreas desmatadas por meio de tecnologia predominantemente óptica. Entretanto, tal abordagem é prejudicada pelas condições climáticas típicas da Amazônia, onde a nebulosidade dificulta a visibilidade de algumas
    regiões de interesse. O uso de satélites equipados com sensores de radar de abertura sintética é uma opção viável para contornar esse inconveniente, uma vez que são capazes de transpassar obstáculos, já que utilizam micro-ondas para realizar o
    imageamento. Mais recentemente, nota-se também a ampliação do uso de inteligência artificial na tarefa de análise dessas imagens a fim de identificar diferentes tipos de uso e cobertura da terra. Nesse sentido, o presente trabalho propõe o desenvolvimento de
    uma ferramenta computacional inteligente, utilizando redes neurais, capaz de contribuir com o monitoramento de grandes áreas da floresta amazônica através do emprego de técnicas de aprendizado de máquina com o objetivo de detectar automaticamente
    padrões de desflorestamento em imagens de radar orbital. Será apresentado o estado de conhecimento atual nessa área, assim como a metodologia adotada no desenvolvimento da solução, buscando comparar o método proposto com as abordagens clássicas da literatura.

  • JHERSON HARYSON ALMEIDA PEREIRA
  • Estudo e Definição de Recomendações para Refatoração de Código guiada pelo Cognitive-Driven Development

  • Data: 20/10/2023
  • Mostrar Resumo
  • A complexidade do sistema aumenta à medida que novas funcionalidades são naturalmente incorporadas. Com este cenário, surgem diversas estratégias com o foco na redução da complexidade de código que ao mesmo tempo tentam manter o sistema economicamente viável ao longo de sua vida útil. Apesar da utilização de diversas estratégias que, comprovadamente, melhoram o software, ainda assim, códigos que necessitam um com alto grau de esforço para serem compreendidos são recorrentemente encontrados na indústria. O CDD (Cognitive Driven-Developmente) se baseia na Teoria da Carga Cognitiva, tendo como princípio a ideia de que todo objeto de estudo possui uma determinada complexidade para ser compreendida. A abordagem adotada pelo CDD de identificar o que é complexo e gerenciar os pontos de complexidade ao longo do processo de desenvolvimento software está sendo testada em diversos trabalhos recentes e vem sendo uma abordagem diferente mostrando resultados animadores quanto a gestão da complexidade de um projeto de software. No presente trabalho, estamos propondo aplicar os princípios do Cognitive Driven-Developmente para sugerir refatorações em códigos com Code Smells, e identificar se o CDD é uma estratégia viável para facilitando o processo desenvolvimento,  proporcionando ao programador a identificação de pontos de complexidade bem como sugestões para removê-los do código. A metodologia proposta será através de um ambiente controlado, utilizando um plugin construído neste trabalho para a plataforma do Intellij IDEA rodando em cima da linguagem JAVA, onde através de experimentos com desenvolvedores iremos avaliar uma série de tarefas predeterminadas a fim de identificar a efetividade da construção de códigos menos complexos a partir da perspectiva do CDD.

  • LUCAS BORGES DE OLIVEIRA
  •  

     

     Gerenciamento Dinâmico de Redes Definidas por Software por meio de Gêmeos Digitais

     


  • Data: 20/10/2023
  • Mostrar Resumo
  • A demanda por transmissão massiva de dados, baixa latência, resiliência e alta disponibilidade exige um gerenciamento ágil e eficiente das redes. As Redes Definidas por Software (SDN) têm sido amplamente adotadas para proporcionar aos operadores de rede um controle centralizado, melhorando a capacidade de gerenciamento desses ambientes. No entanto, a evolução das redes ocorre para garantir alta disponibilidade, agilidade e confiabilidade, então ações como manutenção e gerenciamento tornam-se desafiadoras, inclusive em redes SDN, devido às limitações das ferramentas utilizadas, o que pode levar a atividades complexas e propensas a erros. Nesse contexto, a abordagem do Gêmeo Digital de Redes pode ser uma alternativa viável para representar virtualmente a infraestrutura real da rede, permitindo a validação de novas configurações e testes de cenários em ambientes virtuais realistas. O Gêmeo Digital de Redes integra continuamente o ambiente real ao ambiente virtual, possibilitando análises, diagnósticos, emulações, criação de cenários hipotéticos e controle do ambiente real a partir do ambiente virtual. No entanto, a integração entre as redes SDN e o Gêmeo Digital é um desafio que este trabalho busca superar. Este trabalho propõe uma arquitetura baseada em Gêmeos Digitais de Redes para gerenciar dinamicamente redes SDN, visando aprimorar a engenharia de tráfego e oferecer suporte a uma operação SDN autônoma, personalizável e resiliente. Os resultados obtidos mostram que o uso do Gêmeo Digital de Redes é uma proposta promissora para cenários de validação de configurações e de intervenções humanas na rede.

  • ALFREDO LIMA DA COSTA JUNIOR
  • Aprendizagem Tangencial e Videogames como Ferramenta para o Ensino dos Fundamentos da Computação na Educação Básica

  • Data: 27/09/2023
  • Mostrar Resumo
  • Os processo de aprendizagem das escolas guardam raízes em um sistema transmissionista que coloca a responsabilidades nos professores, tornando este processo pouco interessante para um nativo digital que está acostumado a vivenciar experiências em jogos digitais, por exemplo, mais participativas e projetadas para estar ao limite de suas habilidades, mantendo-os focados e ativos. Com a adição dos fundamentos da computação como parte da Base Nacional Comum Curricular (BNCC), passa a existir um novo cenário de adaptação para as escolas, mas também possibilita criar um ambiente mais interessante para estes alunos. Observando este cenário, considerou-se a aprendizagem tangencial associada a jogos digitais um recurso com o potencial de tornar o ensino mais atrativo. A aprendizagem tangencial é um conceito relativamente novo, tendo registros iniciais datando do ano de 2012, surgindo da percepção de alguns desenvolvedores de jogos ao notarem a divisão da indústria dos jogos digitais entre o entretenimento e a educação, cada uma dessas partes parece ter esquecido como criar jogos de forma que eles sejam efetivos em gerar boas
    experiências de imersão enquanto fornecem benefícios educacionais. A pesquisa dentro desta área encontra-se em um estado inicial de amadurecimento, onde mais da metade das pesquisas realizadas com foco neste assunto estão voltadas a entender os jogos e os processos de interação com o jogador que possibilitem a aprendizagem tangencial ocorrer.
    Levando em consideração este contexto, este trabalho apresenta um jogo projetado com base no conceito da aprendizagem tangencial, de forma que este possa servir como um incentivador para aprendizagem dos conceitos da computação, contextualizados ao folclore amazônico, para o ciclo do Ensino Básico considerando os assuntos sugeridos pelas diretrizes da Sociedade Brasileira de Computação (SBC) para serem apresentados durante a 5ª e 6ª séries, divididos em três eixos: pensamento computacional, cultura e
    mundo digitais.


  • RAFAEL VEIGA TEIXEIRA E SILVA
  • Federated Learning for User Identification based on Accelerometer and Gyroscope Sensors

  • Data: 22/09/2023
  • Mostrar Resumo
  • A smartphone can seamlessly collect user behavioral data without requiring additional actions or hardware. Integrated sensors, such as touch and gyroscope, are used in an active or continuous user authentication process to continuously monitor the user and capture behavioral (touch patterns, accelerometer) or physiological (fingerprint, face) data as the user naturally interacts with the device. However, it is not recommended due to privacy concerns related to data transfer from multiple users' mobile devices to a server. This paper presents a Federated Learning (FL) approach that defines a user's biometric behavior pattern for continuous user identification and authentication. The study also evaluates the potential of FL in behavioral biometrics, comparing the performance of Convolutional Neural Networks (CNNs) at different epochs using FL and a centralized method, with minimal chances of incorrect predictions in user identification by the gyroscope. In the era of mobile devices with various sensors, IoT, and other data-sensitive devices, a significant amount of data is shared for application purposes. Smartphones can collect and utilize this data in machine learning approaches, but there is a growing demand for enhanced user security. These sensors can collect user biometric behaviors during their interactions, making it possible to develop a behavioral identification system that uses mobile device data without sharing, focusing on data security and user authentication. This dissertation introduces two Federated Learning approaches that utilize gyroscope data and another with gyroscope and accelerometer data as the unique identifier for continuous user identification. The study employs several CNNs to evaluate their performance for IoT devices, including runtime analysis and identification accuracy within 2 seconds, achieved in just eleven rounds with five epochs. 

  • WANDERLANY FIALHO DE ABREU
  • Gerador de Imagens Sintéticas de Azulejos Históricos de Belém do Pará

  • Data: 22/09/2023
  • Mostrar Resumo
  • O patrimônio cultural é uma atividade econômica visto que remonta a história da cidade, valoriza o patrimônio conservado e potencializa o turismo. Belém do Pará é uma das cidades do mundo com maior riqueza de patrimônio de azulejos seculares em sua arquitetura civil e religiosa. O uso de tecnologias permite maior interação e divulgação do patrimônio cultural. Nesse sentido, essa dissertação se propôs a geração de imagens sintéticas de tapetes de azulejos via técnicas de processamento digital de imagens a partir de um único elemento de azulejo, com objetivo de não precisar ir ao local gerar fotos para construir uma base, economizando tempo e recursos. Dessa forma, foi possível gerar uma base de dados sintética para ser utilizada no treinamento de classificadores, sendo estes validados por uma base de dados composta de imagens de azulejos reais (recortes de paredes e fachadas com azulejos). Foram usados três classificadores, uma Rede Neural Convolucional, Árvore de Decisão e Floresta Aleatória, onde os dois últimos usam características extraídas por meio da técnica bag-of-features. Os resultados foram validados estatisticamente, usando o teste de Correlação de Pearson e Spearman, indicando uma forte correlação positiva entre as acurácias dos dados sintéticos e reais, mostrando que os resultados de treinamento com um conjunto de dados 100% sintético têm precisão estatisticamente semelhante (t<0,05) quando prevendo os reais. Ou seja, o estudo mostra que as fotos sintéticas podem ser usadas para treinar um classificador que, após esse treinamento, classifica fotos reais de azulejos.

  • VANESSA LOPES ABREU
  • Definição e implantação de uma aceleradora para projetos intraempreendedores inovadores em uma empresa de tecnologia

  • Data: 18/09/2023
  • Mostrar Resumo
  • Com o advento das tecnologias e o surgimento de novos modelos de negócios, o mercado tem se tornado cada vez mais competitivo. Nesse contexto, para se destacarem e manterem uma vantagem competitiva, as empresas precisam adotar estratégias de inovação. Uma dessas estratégias é a parceria entre organizações estabelecidas e startups. Esta estratégia é conhecida como aceleradora corporativa.

    As aceleradoras corporativas têm o potencial de impulsionar a inovação e promover o desenvolvimento de novos produtos e serviços dentro da empresa. No entanto, apesar da relevância desse assunto, os estudos relacionados a aceleradoras corporativas na engenharia de software ainda são limitados. 

    Assim, este estudo tem como objetivo definir e implantar uma aceleradora corporativa interna em uma empresa brasileira de tecnologia. Além disso, este trabalho identifica os aspectos negativos e positivos dessa implantação. Para alcançar esses objetivos, foram adotados os métodos de pesquisa-ação e teoria fundamentada em dados. O método de pesquisa-ação foi utilizado como estratégia geral de condução do estudo. Já a teoria fundamentada em dados serviu como referência para o processo de análise dos dados coletados, que incluíram entrevistas semi-estruturadas e observações diretas, para a construção da aceleradora corporativa.

    Como resultado, a estrutura desenvolvida para a aceleradora corporativa é composta por cinco etapas: planejamento, divulgação, submissão, aceleração e pós aceleração.  Esta estrutura foi implantada em uma empresa de desenvolvimento de software de médio porte localizada em Belém, PA durante os meses de janeiro a novembro do ano de 2022. Esta  implantação resultou em diversos aspectos positivos, destacando-se o apoio da alta administração, que impulsionou a criatividade e fomentou a criação de uma mentalidade empreendedora entre os participantes, promovendo também a diversidade no grupo. Entretanto, um desafio significativo identificado foi a limitada disponibilidade de tempo dos participantes. Estes  resultados são comparados com pesquisas anteriores à literatura o que resultou na definição de estratégias que visam mitigar os desafios enfrentados durante a implantação da aceleradora corporativa.

    Os achados deste estudo podem ser aplicados em outras empresas, contribuindo para o aprimoramento e adaptação de programas similares que visam promover a inovação interna e alcançar vantagens competitivas sustentáveis.

  • RAIMUNDA NONATA CONSOLACAO E BRANCO
  • Sistema Fuzzy para Otimizar a Utilização de Energia Elétrica Solar Fotovoltaica em um Cenário de Tarifa Branca em Unidades Residenciais

  • Data: 13/09/2023
  • Mostrar Resumo
  • Um dos assuntos mais recorrentes da atualidade é a geração energética a partir de fontes não tradicionais. Dentro deste contexto, a produção de energia a partir de fontes renováveis se tornou uma das alternativas mais sustentáveis e ambientalmente correta, onde se evidencia o uso de energia solar através de sistemas fotovoltaicos. Destaca-se como um dos principais problemas na utilização de sistemas fotovoltaicos o alto custo de instalação e manutenção deste sistema, além de custos provenientes da taxa de energia elétrica residencial, o que faz com que essa tecnologia se torne cara para boa parte dos consumidores residenciais do Brasil. Uma alternativa para os consumidores contornarem os altos valores pagos na fatura de energia é optarem pelo uso da modalidade tarifária branca, que se caracteriza por oferecer a variação do valor da energia de acordo com o dia e horário de consumo. O presente trabalho tem por objetivo desenvolver um sistema fuzzy para gerenciar a produção de energia de um sistema fotovoltaico, otimizando o uso de energia produzida entre o consumidor, a bateria e a rede elétrica em um cenário de tarifa branca em uma realidade simulada para unidades residenciais no Brasil. Com base nas simulações, o sistema fuzzy apresentado é eficiente, com significativa redução econômica na conta de energia em comparação a um sistema fotovoltaico simples sem capacidade de tomada de decisões inteligentes e utilizado comercialmente nas indústrias.

  • HELDER DANIEL DE AZEVEDO DIAS
  • O Ensino da Programação Paralela Aplicado aos Alunos da Educação Profissional Técnica em Informática do IFPA - Campus Abaetetuba: Um Estudo de Caso da TI Verde à Computação em Cluster

  • Data: 01/09/2023
  • Mostrar Resumo
  • A área de Tecnologias da Informação (TI) é responsável por uma grande parcela da poluição mundial, como a emissão de CO2, o descarte de lixo tóxico, entre outros. Com a chegada da Indústria 4.0 o descarte de equipamentos de TI tende a crescer e o profissional desta área deverá, também, assumir a tarefa de gerir e/ou evitar esses impactos.
    Neste sentido, o reaproveitamento de equipamentos de TI usados para aplicação em áreas como Computação de Alto Desempenho (CAD) é uma tarefa altamente viável, principalmente em locais onde há uma carência de recursos para a aquisição de novos equipamentos, como por exemplo, nas instituições de ensino públicas. Essas instituições acabam deixando, muitas vezes, de incluir determinados conteúdos práticos por falta de equipamentos próprios para o ensino de disciplinas que surgem como inovações ou consolidações tecnológicas. E quando se trata de ensino técnico, essas inovações demoram ainda mais para serem incluídas nas matrizes curriculares. Levantar o debate para a atualização e inserção de inovações tecnológicas nos cursos técnicos em Informática é necessário, tanto para incentivar os alunos, como para manter o interesse deles até o final do curso. Este trabalho tem como objetivo inserir os conceitos de TI verde e inovações tecnológicas nas matrizes curriculares dos cursos técnicos de Informática, e incentivar, também, a reutilização de computadores, que seriam descartados, para a montagem de arquiteturas de alto desempenho com o propósito de serem aplicados no processo de ensino e aprendizagem dos cursos técnicos em Informática. Para isso, foi realizada uma oficina com os alunos do curso técnico de Informática do IFPA - Campus Abaetetuba onde foram apresentados e discutidos conceitos de TI Verde, Computação em Cluster e Programação Paralela. Foram aplicados dois formulários, um pré e outro pós-oficina, para avaliar os conhecimentos e expectativas dos alunos. Para a realizar a avaliação do aprendizado foi utilizada a Gamificação.

  • ADRIANO MENDES BORGES
  • Utilização do Instrumento de Avaliação ELADEB em Múltiplas Plataformas

  • Data: 31/08/2023
  • Mostrar Resumo
  • Avaliar as dificuldades e necessidades de pacientes psiquiátricos é o primeiro passo em um processo de intervenção. Nesse contexto, foi desenvolvido um instrumento de autoavaliação denominado ELADEB (Échelles Lausannoises d’Auto-évaluation des Difficultés Et des Besoins). Este permite mensurar quantitativamente as dificuldades e necessidades de pacientes psiquiátricos bem como traçar perfis clínicos individualizados para utilização no atendimento ao paciente de forma presencial. Cenários de isolamento social, como os causados pela pandemia de covid-19, ou de distância geográfica demandam o uso remoto de aplicações computacionais que possam evitar que pacientes fiquem desassistidos. O ELADEB é um instrumento de avaliação originalmente aplicado de forma  presencial por meio de cartas físicas, e esta dissertação apresenta novas possibildiades de aplicação do instrumento ELADEB para plataformas WEB, RA e RV que. Essas novas  propostas possibilitam o acesso remoto, e podem aumentar o engajamento do paciente por meio da personalização da avaliação que esses ambientes podem proporcionar. Assim, esta dissertação objetiva apresentar versões computacionais do instrumento ELADEB em para plataformas WEB, Realidade Aumentada (RA) e Realidade Virtual (RV), incluindo a construção de cenários de avaliação do ELADEB padrão, e cenários personalizados com conteúdo de mídia familiarizado ao paciente (imagens, animações e vídeos). Além disso, completam o escopo desta dissertação uma avaliação de usabilidade das aplicações propostas, que apresentou resultados satisfatorios para uma aplicação de auto avaliação pode proporcionar acesso ao instrumento ELADEB de forma remota, conteúdo personalizado ao paciente, podendo implicar em maior engajamento e respostas mais precisas dos pacientes, em virtude do conteúdo ser mais familiar e dinâmico.


  • ALLYSON ANDRADE BRITO
  • Um Estudo Exploratório para a Identificação de Requisitos Não Funcionais sobreProteção de Privacidade & Dados

  • Data: 31/08/2023
  • Mostrar Resumo
  • A privacidade e proteção de dados emergiram como fatores cruciais para o êxito ou fracasso de diversos modelos de negócio contemporâneos. A evolução do perfil dos usuários, juntamente com seu crescente entendimento acerca da importância de seus dados pessoais, tem impulsionado a demanda por serviços que enfatizam a salvaguardada privacidade e segurança. Empresas que não se adaptam a esses requisitos correm o risco de perder a confiança de seus clientes, resultando na diminuição de sua base de usuários. Incidentes de violação de dados e a gestão inadequada da privacidade podem ocasionar danos à reputação e credibilidade das empresas, conduzindo a uma considerável perda de clientes e, em última instância, ao encerramento das operações.Adicionalmente, governos têm exercido crescente pressão sobre as organizações para assegurar a conformidade com as leis de proteção de dados. Regulamentações como aLei Geral de Proteção de Dados (LGPD) e o Regulamento Geral de Proteção de Dados(GDPR) estabelecem penalidades rigorosas para violações, o que amplifica a necessidade das empresas adequarem-se a esses requisitos. No contexto de empresas de software, a gestão efetiva da privacidade e proteção de dados está intrinsicamente ligada à engenharia de software. A implementação de práticas de proteção de dados deve ser considerada desde as fases iniciais do ciclo de vida do software. Isso abarca a adoção de princípios de privacidade por design, o desenvolvimento de requisitos de segurança e privacidade, a implementação de técnicas de criptografia e controle de acesso, bem como a realização de testes de segurança. Diante desse cenário, este estudo visa identificar requisitos não funcionais pertinentes à proteção de privacidade e dados, fornecendo uma análise abrangente desses requisitos. O trabalho servirá como ponto de partida para projetos que envolvam o desenvolvimento de novos sistemas ou a adaptação de sistemas legados. Para isso, foi realizado uma revisão da literatura a fim de identificar os principais conceitos relacionados à privacidade e proteção de dados.Posteriormente, foi conduzido um levantamento para coletar informações acerca das percepções e necessidades dos usuários em relação à proteção de privacidade e dados em uma empresa de software. Com base nos resultados do levantamento, foram identificadas as principais lacunas e, para atenuar a principal delas, buscou-se propor requisitos não funcionais relevantes para a proteção de privacidade e dados com base na LGPD. Essa proposta foi apresentada e avaliada por um grupo de desenvolvedores de software, e os resultados dessa avaliação serão apresentados e discutidos, analisando a eficácia dos requisitos identificados. Como resultado, foi possível identificar que os requisitos não funcionais levantados constituem uma contribuição significativa, que pode servir como base inicial para a aplicação em projetos voltados ao desenvolvimento de sistemas seguros e em conformidade com a LGPD, bem como para projetos de adequação.

  • ALAN TRINDADE DE ALMEIDA SILVA
  • Proposta e Avaliação de um Método Baseado em Design Thinking para Ensino de Acessibilidade em Cursos de Computação

  • Data: 30/08/2023
  • Mostrar Resumo
  • Apesar dos avanços na área de acessibilidade de software ao longo das últimas décadas, ainda existem muitos problemas que interferem na ampla disponibilidade de softwares acessíveis. Esses problemas variam desde a preocupação com os custos de inclusão de acessibilidade no desenvolvimento de software, e o receio de que o trabalho de incluir acessibilidade em funcionalidades desenvolvidas possa ter um impacto financeiro muito grande, até a falta de motivação dos responsáveis pelo software para priorizar a acessibilidade, por não entenderem sua importância ou considerarem que a acessibilidade não é essencial, mas sim uma algo secundária para o software. Estes problemas também incluem um aspecto educacional, como expresso por profissionais de desenvolvimento de software que concluíram cursos de ensino superior em computação. Eles destacaram que a acessibilidade não foi adequadamente abordada durante seus estudos, sendo completamente negligenciada ou apenas superficialmente discutida quando mencionada. Essa lacuna educacional resulta na formação de profissionais de desenvolvimento de software que saem da faculdade ou universidade sem um sólido entendimento de como atender às diversas necessidades dos usuários e implementar adaptações para atender a diferentes requisitos. Além dos desafios associados à implementação de acessibilidade sem treinamento adequado, esses profissionais, quando educados adequadamente em questões de acessibilidade, têm o potencial de se tornarem mais empáticos em relação aos problemas enfrentados por indivíduos e podem contribuir para equipes de desenvolvimento de software mais propensas a criar produtos acessíveis. Este trabalho propõe um método para ensinar acessibilidade com base no Design Thinking para ser incluído como um módulo dentro das disciplinas de cursos de computação e o avalia em três ciclos de implementação em diferentes disciplinas na Universidade Federal do Pará. Os resultados indicam que o método proposto foi eficaz e conseguiu aumentar significativamente a percepção dos alunos sobre acessibilidade, tornando-os mais sensíveis e empáticos em relação ao tema, ao mesmo tempo que o consideraram interessante. Os professores que executaram as aulas implementando o método proposto também o avaliaram positivamente, manifestando disposição para aplicá-lo novamente em outras aulas e recomendá-lo a outros professores.

  • VINICIUS FAVACHO QUEIROZ
  • Adicionando Dados Visuais e Interações em Fisicalizações de Dados Ativas através de Realidade Aumentada


  • Data: 25/08/2023
  • Mostrar Resumo
  • A área de fisicalização de dados tem se desenvolvido rapidamente nos últimos anos e tem sido aplicada em diversos contextos, principalmente em grandes espaços públicos abertos ou locais relacionados aos dados. Algumas limitações apresentadas pela maioria das fisicalizações de dados são a pequena quantidade de dados representados fisicamente e a falta de interação. Como resultado, para mitigar os problemas mencionados anteriormente, diversas tecnologias têm sido aplicadas em conjunto às visualizações físicas, entre as quais se destaca a realidade aumentada (RA). Esta proposta de dissertação apresenta uma fisicalização ativa e aumentada de dados, que é uma fisicalização dinâmica de dados acrescida de conteúdo virtual (itens de dados visuais) em realidade aumentada. A fisicalização usada é um gráfico de barras dinâmico, que mapeia dados numéricos para altura, dados categóricos para cor e dados categóricos para o eixo X de cada barra. Todas as barras são impressas em 3D e movidas por motores de passo, as cores são representadas por fitas de LED e embutidas nas barras, os rótulos do eixo X são apresentados em LCDs e uma placa Arduíno controla todos os componentes. O conteúdo aumentado é visto por meio de um aplicativo de realidade aumentada móvel (MAR) e também permite interação com fisicalização dinâmica. O aplicativo foi desenvolvido em C\#, Unity e ARCore e suporta as principais tarefas de visualização de informações, como configurações, filtros, detalhes sob demanda, entre outras. Tarefas como seleção de dados, cálculos para criação de itens visuais ou visualizações adicionais e cálculo de escalas para representação de dados na fisicalização são realizados em um servidor na nuvem. Por fim, para validar o aplicativo desenvolvido, esta proposta de dissertação apresenta uma avaliação de usabilidade onde são analisados os benefícios de utilizar RA para aumentar a codificação de dados de uma fisicalização.

  • ALEXANDRE ABREU DE FREITAS
  • Mitigando o Problema do Toque de Midas em Cenários Web com Interações Não Convencionais.


  • Data: 23/08/2023
  • Mostrar Resumo
  • Os cenários de interação estão mais diversificados com a evolução da tecnologia. Essa diversidade traz consigo novos meios de interação com os sistemas computacionais. Denominados de interações não convencionais (INC), esses novos meios se diferenciam dos dispositivos tradicionais, como mouse, teclado e telas sensíveis ao toque, com suas peculiaridades para interagir. No entanto, a rápida inclusão dessas tecnologias nos sistemas, não é acompanhada por uma análise da adaptação do ambiente, para receber uma interação não convencional. Surgindo assim, problemas que afetam a experiência do usuário (User Experience - UX), entre estes, destaca-se o Problema do Toque de Midas (PTM) que consiste na seleção involuntária de elementos gráficos na interface de usuário (IU), causando erros na interação e afetando a usabilidade do sistema. Neste contexto, o objetivo desta tese é propor um modelo voltado para mapear as principais características de uma IU com Interação Não Convencional, sendo possível elaborar uma possível estratégia para mitigar o PTM. Para avaliar o modelo proposto, foi definido a utilização interfaces de websites como cenários de testes e como meios de interação não convencional o rastreamento de cabeça e rastreamento de olhos. Com o modelo, foi elaborado um elemento gráfico denominado de Barra de Pactolo (BP), sendo inserido na interface e com interação a partir do posicionamento sobre o elemento gráfico. A Barra de Pactolo proporciona aos usuários segurança ao prevenir o problema do toque de midas, por meio do controle do evento de seleção na interface. Isso permite uma navegação sem interrupções indesejadas, suas principais características são a facilidade de uso, a segurança oferecida e a forma de interação. A BP foi avaliada em duas etapas: Primeira etapa, para definir qual a melhor configuração da barra na interface, através da coleta dos dados quantitativos de participantes; Segunda etapa, através da análise da usabilidade com dados quantitativos e qualitativos de dois grupos diferentes de participantes. Os resultados obtidos nos cenários que utilizam a BP foram promissores, a análise dos dados quantitativos apontam para uma prevenção significativa de cliques involuntários na interface. A análise dos dados qualitativos apresentam o desenvolvimento de uma melhor experiência do usuário devido à facilidade de uso, o que pode ser percebido em características como: tamanho e localização da Barra e forma de interação.


  • ANDRE LUIZ COELHO PINHEIRO
  • Um estudo de caso sobre inovações não sistemáticas em uma empresa de serviços de software

  • Data: 16/08/2023
  • Mostrar Resumo
  • Este estudo investiga como uma pequena e média empresa (PME) de software brasileira de uma região com menor vitalidade inovadora desenvolve suas atividades inovadoras para melhorar seus processos de desenvolvimento de software. Realizamos um único estudo de caso exploratório e coletamos dados por meio de entrevistas semiestruturadas com os parceiros e funcionários da empresa. Analisamos os dados usando técnicas de codificação qualitativa.

    Nossos resultados sugerem que a empresa adotou inovações incrementais em seus processos de desenvolvimento de software, bem como novos métodos de desenvolvimento e gerencia- mento. Essas inovações tiveram impactos positivos, como melhoria no gerenciamento de projetos, aumento da colaboração, produtividade e motivação. Além disso, identificamos que a interação da empresa com atores de regiões mais inovadoras criou oportunidades para desenvolver novos negócios e melhorar seus processos, promovendo uma mentalidade mais inovadora.

    Este estudo contribui para a literatura sobre inovação em empresas de software em regiões com menor vitalidade inovadora, destacando a importância do networking com regiões mais inovadoras para fomentar a inovação nos processos de desenvolvimento de software.

  • JOSE AUGUSTO DE SENA QUARESMA
  • Um Plano de Estudos para o Ensino de Processo de Desenvolvimento de Software em Cursos de Computação

  • Data: 01/08/2023
  • Mostrar Resumo
  • Contexto. O advento da revolução técnica, científica e informacional trouxe a necessidade de informatização das organizações e vemos surgir a necessidade de desenvolvimentos de softwares de maneira cada vez mais rápida e com altas taxas de alterações em projetos. Dentro dessa realidade, a área de processo de desenvolvimento de software, que permite mapear e definir um conjunto de atividades para o desenvolvimento de softwares, possibilitou a identificação das etapas necessárias, bem como pontos de melhoria no processo. Porém, no decorrer da literatura é possível identificar diferenças entre o conhecimento estudado em sala de aula e a necessidade dos profissionais nas aplicações destes processos de desenvolvimento. Objetivo. Logo, o objetivo dessa tese de doutorado é o de elaborar e avaliar um plano de estudos usando de aprendizagem centrada no aluno para a área de Processo de Software e seu uso em cursos de computação nas disciplinas de graduação e pós-graduação. Metodologia. O caminho percorrido para o desenvolvimento dessa pesquisa perpassou por três etapas: Concepção, Elaboração e Avaliação. Dentro de cada uma das etapas constituídas foram desenvolvidos diversos procedimentos, são eles: (i) Revisão da Literatura; (ii) Mapeamento dos ativos; (iii) Survey; (iv) Revisão por pares; (v) Painel de especialistas; (vi) Experimento; e (vii) Grupo de controle e experimental. Resultado. Como principal resultado dessa tese de doutorado tem-se a construção e avaliação do plano de estudos em Processo de Software com aprendizagem centrada no aluno a partir de um experimento com grupo de controle e experimental, sendo analisados segundo a técnica Student-t bicaudal. O plano de estudos contou com as seguintes estratégias de ensino: (i) Aula teórica e prática; (ii) Sala de aula invertida; (iii) Gamificação; (iv) Sala de aula estendida; (v) Mapas conceituais/Mental; (vi) Revisão por pares; (vii) Dinâmica. O uso do plano de estudos permitiu aos estudantes um ganho considerável na aprendizagem no uso do plano de estudos, em comparação com o grupo de controle, e também: (i) Aceitação e participação dos alunos nas dinâmicas; (ii) Feedback sobre o desenvolvimento das atividades; (iii) Identificação com prática do mercado através da aprendizagem baseada em projetos; (iv) Apontamento pelos alunos do crescimento de conhecimento através da aprendizagem baseada em projetos; (v) Visualização por parte dos alunos de possibilidades de melhoria nas primeiras atividades do projeto; (vi) Diversão na descrição narrativa de um Processo de Software; (vii) Busca de conhecimentos fora das bibliográficas de referência para a sala de aula invertida; (viii) Verificação da importância da descrição e aprimoramento do Processo de Software no contexto de empresas.

  • ABNER LUCAS ALVES PEREIRA
  • DEEP LEARNING NA CLASSIFICAÇÃO DE ERP VISUAL ASSOCIADO AO GRAU DE INTELIGÊNCIA ESPACIAL

  • Data: 12/07/2023
  • Mostrar Resumo
  • A neurociência a cada dia visa descrever melhor o comportamento dos sujeitos via soluções mais assertivas para os seus problemas, como o de classificação com dados de EEG, técnicas como o aprendizado profundo têm sido amplamente utilizadas, tornando viável a implementação de modelos para processamento automático de biosinais. Com esse sentido, nesta pesquisa foram utilizadas arquiteturas de redes neurais artificias profundas (RNAPs) que receberam dados de séries temporais geradas por ERP visuoespacial, coletados por exames não invasivos nas regiões frontal e parietal do córtex cerebral, para identificar padrões em assinaturas nesses tipos de biosinais associando-os ao grau de inteligência espacial de um sujeito e classificando-os com alta inteligência espacial ou com inteligência espacial típica. Seguindo essa abordagem, avançou-se para um diagnóstico automatizado, em alternativa aos testes de QI tradicionais baseados em tarefas, como um biomarcador comportamental e eletrofisiológico associado à capacidade visuoespacial a partir das hipóteses: que esses tipos de sinais de ERP contém um padrão de assinatura da inteligência espacial do sujeito, e que RNAPs possuem maior desempenho de classificação para realizar este tipo de tarefa. Dessa forma foram utilizadas arquitetura de redes neurais artificiais deep feedforward (totalmente conectada) e Conv1D com autoajuste de hiper parâmetros, treinadas e validadas com método de validação cruzada (k-fold, com k = 10). Os dados foram coletados durante a realização de uma tarefa clássica de rotação mental tridimensional e pré-processados, em etapas, para remoção de ruídos e seleção de características por meio do uso de wavelets (DWT). Os resultados deste estudo sugerem que a análise automatizada com RNAPs com dados de EEG pode ser uma alternativa viável aos testes neuropsicológicos tradicionais na avaliação da inteligência espacial, uma vez que: dois modelos de RNAPs apresentaram desempenho superior na classificação dos sinais com dados de teste (com acurácia média de 93,7% para o modelo MLP, e 94,8% para o modelo Conv1D) em comparação com outros classificadores como KNN e SVM (que respectivamente apresentaram acurácia média de 88,1% e 87,5%), e ainda, para a escolha de um modelo final utilizou-se o Teste t Reamostrado Corrigido com as 10 amostras de acurácia de teste dos dois melhores modelos (por apresentarem desempenhos médios próximos com diferença mínima de 5% em relação aos demais modelos comparados) nos indicando que estatisticamente estes possuem desempenho iguais, concluindo que o MLP se destaca considerando o tempo de processamento dos dados para todas as etapas de autoajuste, treinamento e teste.

  • ANTONILSON DA SILVA ALCANTARA
  • UMA ABORDAGEM BASEADA EM GAMIFICAÇÃO E CARACTERÍSTICAS DAS ABORDAGENS PEDAGÓGICAS PARA O ENSINO DA GESTÃO DO CONHECIMENTO

  • Data: 30/06/2023
  • Mostrar Resumo
  • Apesar da grande notoriedade que o conhecimento adquiriu, muitas organizações ainda não sabem como gerenciá-lo, pois esse novo conceito tem causado mudanças significativas nos processos organizacionais, com novos desafios e barreiras a serem superadas. Cabe também a escola acompanhar essas mudanças, ou seja, precisa reinventar-se para melhorar a qualidade do processo de ensino e aprendizagem e formar seus alunos. Portanto, os debates sobre como a escola está lidando com essas mudanças, bem como a efetivação das práticas pedagógicas, devem ser constantes. O número de métodos alternativos de ensino que estão sendo explorados no ensino de Tecnologia da Informação (TI) estão aumentando na tentativa de enfrentar os desafios pedagógicos contemporâneos. Assim, este trabalho visa adaptar uma gamificação para atender os aspectos das principais abordagens pedagógicas, selecionadas em trabalho anterior, visando aprimorar a abordagem gamificada para a resolução de problemas no âmbito do curso de Computação. Para isso, foi feita uma adaptação no fluxo de uma gamificação cujas principais características são estimular o processo de geração, disseminação, captura, absorção e socialização do conhecimento, contemplando os personagens principais do processo de Gestão do Conhecimento, como os geradores de conhecimento e o especialista. Dessa forma, cada etapa foi detalhada com base nos seguintes critérios: "atendimento aos aspectos das abordagens pedagógicas", onde é apresentado o motivo da adoção deste item, as alterações realizadas nas etapas e acréscimos ao fluxo de gamificação, além de apontar os problemas e como eles são abordados nessa proposta; "como será realizada essa etapa", onde é detalhada a execução da gamificação, com os papéis de cada participante e suas atribuições, e as regras de cada etapa do fluxo (regras de pontuação, bônus, objetivos a serem alcançados, modos de jogo, etc.), e as ações práticas realizadas para atender os aspectos das abordagens pedagógicas utilizadas nessa etapa; e "os instrumentos a serem utilizados", onde descrevemos os produtos de trabalho utilizados na dinâmica e o guia para sua utilização. Ao final dessas etapas, foi elaborado o plano de execução da gamificação, que foi submetido à avaliação de outros especialistas em gestão do conhecimento e gamificação, a partir da técnica de revisão por pares, a fim de se ter diferentes visões sobre o objeto analisado, resultando em sugestões para melhorias ao final do processo. Após esta etapa deu-se início a aplicação da proposta de gamificação, por meio de um Estudo de Caso em um Laboratório de Qualidade de Software, conforme planejamento elaborado nas etapas anteriores. Os resultados foram analisados de duas formas: qualitativa, onde foram aplicadas a Computação Afetiva, a Análise das Medalhas conquistadas, e a Análise SWOT; e, Quantitativa, onde foram analisados a Planilha de Gamificação e o Questionário Pós Gamificação, respondido pelos participantes ao final da dinâmica. Assim, este trabalho contribui ao apresentar uma abordagem gamificada para o ensino-aprendizagem da gestão do conhecimento a partir da adoção de diferentes recursos incluídos nas abordagens pedagógicas.

  • ELZIANE MONTEIRO SOARES
  • Uma Abordagem Gamificada para a Resolução de Problemas de Melhoria do Processo de Software

  • Data: 23/06/2023
  • Mostrar Resumo
  • A literatura define a Melhoria do Processo de Software (MPS) como a abordagem fundamental para melhorar produtos de software em organizações de desenvolvimento de software. Nesse contexto, estudos relatam diversos problemas e dificuldades que as organizações enfrentam durante as implementações das melhorias. Apesar de haver estudos que abordam os problemas evidenciados nos programas de melhorias, poucos trabalhos ainda buscam identificar práticas no sentido de mitigar os efeitos negativos dos fatores críticos. Dessa forma, o objetivo deste trabalho é propor uma dinâmica de aplicação dos elementos da gamificação em um contexto de MPS. Ressalta-se que a dinâmica pode ser desenvolvida nas organizações (comerciais e acadêmicas) independentemente do modelo ou padrão de melhoria almejado, uma vez que foi elaborado em relação às problemáticas comuns vivenciadas e identificadas no cenário de implementações de MPS.Para a criação da dinâmica foi necessário realizar as etapas de identificação dos problemas de MPS e identificação dos elementos de gamificação, o que possibilitou elaborar dinâmicas de uso dos elementos de gamificação e, posteriormente, contribuiu para a definição da dinâmica que integra todos os elementos gamificados, com o uso inter-relacionado dos elementos da gamificação aos problemas de MPS elencados. A partir disso, ocorreu a aplicação da dinâmica para resolução dos problemas, em um Relato de Experiência, e ao término da aplicação ocorreu a discussão e análise dos dados obtidos. Essa análise foi realizada com o uso de um Framework de avaliação para gamificação em Engenharia de Software, o qual forneceu uma estrutura padrão para o projeto de estudos de avaliação para casos de gamificação, a partir da percepção dos participantes. Os resultados deste trabalho podem ser considerados significativos, uma vez que os resultados esperados com a aplicação dos elementos aos problemas foram favoráveis para tratar ou minimizar os problemas vivenciados no contexto de MPS.

  • YURI MELO E SILVA DO ESPIRITO SANTO
  • Detecção de Falhas Baseada em Aprendizado de Máquina e Comunicação Adaptativa para Estado de Alerta em Redes IoT Industriais

  • Data: 30/05/2023
  • Mostrar Resumo
  • Diante da perspectiva de melhorar a produtividade, eficiência e segurança, os sistemas de produção e manufatura industriais exigem um nível cada vez maior de automação, confiabilidade e controle inteligente. Neste contexto, a Internet das Coisas Industrial (IIoT) é um paradigma emergente que permite agregar computação precisa, inteligente e de baixa latência ao ambiente industrial. Apesar desses benefícios, a presença de falhas em dispositivos IIoT ainda é um obstáculo a ser enfrentado. Tais anomalias podem implicar em acidentes, gerar perdas financeiras, afetar a produtividade e  mobilizar a equipe ao produzir alarmes falsos. Diante disso, este trabalho propõe um mecanismo que executa modelos de Aprendizado de Máquina precisos e de baixa latência para detecção de falhas em IIoT. Além disso, a solução proposta aplica uma política de comunicação adaptativa, acionando um estado alerta em caso de ocorrência de falha. Este estado de alerta caracteriza-se por um estágio em que a rede aumenta a confiabilidade da comunicação, alicerçando-se em um tráfego que utiliza múltiplos caminhos. O desempenho da proposta está considerando uma simulação da rede IIoT e um conjunto de dados de uma indústria de refinaria de petróleo.

  • THIAGO AUGUSTO SOARES DE SOUSA
  • Concepção, Design e Avaliação de Fisicalização Ativa de Dados


  • Data: 09/02/2023
  • Mostrar Resumo
  • O design e a construção de fisicalizações ativas (visualizações físicas dinâmicas ativas) ainda é bastante complexa, pois além do conhecimento sobre a criação de visualizações é necessário outros conhecimentos para renderizá-la fisicamente, como modelagem de materiais, prototipagem eletrônica e programação de microcontroladores. Além disso, a maioria destas fisicalizações são criadas para apresentar dados de contextos específicos e não podem apresentar bases de dados diferentes de seu contexto original. Revisões da literatura apontam que a maioria das avaliações sobre fisicalizações são realizadas com base na percepção e na análise das tarefas realizadas pelas pessoas que interagiram com as mesmas. E não foram encontrados trabalhos que relataram avaliações de precisão realizadas com este tipo de fisicalização. Com base neste contexto, esta dissertação aborda o processo de concepção e design de uma fisicalização de dados ativa, de baixo custo, que pode representar bases de dados diferentes com o mapeamento visual baseado em altura e cor. Este trabalho também aborda uma avaliação de precisão desta fisicalização baseada nestas duas variáveis físicas e visuais.


  • ADIEL DOS SANTOS NASCIMENTO
  • Detecção Inteligente de Ataques em Redes SDN: Uma Abordagem Híbrida Utilizando Aprendizado de Máquina e Linguagem P4

  • Data: 30/01/2023
  • Mostrar Resumo
  • As redes definidas por software (SDN) vêm sendo consideradas a evolução das redes tradicionais, facilitando a inovação no desenvolvimento de novos mecanismos, como por exemplo, na detecção e mitigação de ataques em redes. Nesse contexto, os algoritmos de aprendizado de máquina (AM) têm sido cada vez mais utilizados, devido à robustez e à autonomia que tais sistemas apresentam para aprender, tanto o comportamento do tráfego como a correlações complexas nos dados de tráfego analisados. O uso da telemetria de rede para fornecer informações obtidas sobre a rede para aplicações de AM executadas no controlador, ou em um agente externo central, vem sendo a solução mais adotada.  No entanto, a concentração do processamento para encontrar os padrões em meio a grande quantidade de dados e informações gerados pela rede no plano de controle é um desafio que pode comprometer a adoção de tais soluções em ambientes de produção, em função do maior atraso para a detecção e mitigação do problema. Outra abordagem consiste na distribuição de modelos treinados de AM nos switches das redes SDN para executar a classificação de tráfego diretamente no plano de dados com apoio da linguagem P4, possibilitando melhorias no tempo de detecção de ataques e diminuição do número de requisições ao controlador. Este trabalho propõe uma arquitetura híbrida para aplicar soluções de classificação de pacotes baseadas em AM para redes SDN, combinando o uso do pipeline P4 e agentes estratégicos na rede para fornecer detecção de ataques multinível.

  • JEFFSON CELEIRO SOUSA
  • Auditoria de Acordos de Nível de Serviço baseada em Blockchain para Fatiamento de Recursos de Nuvem

  • Data: 26/01/2023
  • Mostrar Resumo
  • Uma relação de confiança no tratamento de acordos de nível de serviço entre grandes provedores de recursos de rede oferece monitoramento justo e transparente desses acordos em mercados distribuídos de fatiamento de nuvem. A integração da tecnologia de fatiamento de recursos em nuvem com Blockchain pode solucionar o problema de lidar com diferentes tipos de acordos de serviço, bem como permitir a criação e utilização de métricas específicas de tratamento programável da rede para facilitar o gerenciamento e monitoramento destes acordos entre fatias que são fornecidas em uma rede que possui diferentes domínios administrativos. Neste contexto, este trabalho propõe uma solução baseada em blockchain para conformidade e auditoria de acordos de nível de serviço. Por meio desta integração, é possível otimizar o processo de alocação de recursos através de fatias na rede, além de promover segurança dessas requisições sem a necessidade da intervenção de um terceiro ator neste processo. As métricas de acordos de nível de serviço são inseridas em contratos inteligentes de um registro distribuído, para gerenciar e avaliar disponibilidade, penalidade, custo, receita, lucro. Avaliamos o desempenho do sistema com diferentes métricas de desempenho, em termos de tempo de resposta e taxa de transferência de transações. Os resultados obtidos sinalizam que para monitorar 120 provedores de recursos, mantendo uma taxa média de atraso de transação de 300 ms, são necessários pelo menos 8 vCPUs de 4 GB de RAM. Isso mostra que há um custo computacional para executar o monitoramento de SLA. No entanto, apesar do aumento da carga de trabalho observada nos resultados apresentados, agregar essa camada de conformidade fornecida pelo blockchain traz transparência ao negócio, evitando consumo indevido de recursos, multas onerosas e danos à reputação.

  • ANDERSON DOS SANTOS GUERRA
  • CONES: Um Jogo de RPG como Instrumento de Apoio ao Ensino da Construção de Produto de Software

  • Data: 18/01/2023
  • Mostrar Resumo
  • A Engenharia de software é uma das disciplinas que permite que acadêmicos consigam realizar o desenvolvimento de software. Apesar da sua importância, algumas das dificuldades em relação ao seu ensino incluem identificar formas de aprendizagem que consigam motivar os acadêmicos e fazer com que eles efetivem o conhecimento necessário para ser utilizado na indústria. Com base nisso, este trabalho apresenta um jogo de um role-playing game que pode ser utilizado como ferramenta para auxiliar no ensino da construção de produtos de software. Para a sua elaboração, inicialmente foi realizado um mapeamento sistemático da literatura com o intuito de encontrar os principais tipos de jogos utilizados no ensino de Engenharia de Software e mapear com a taxonomia revisada de Bloom. Posteriormente, foi realizado um estudo do sistema de RPG chamado GURPS Lite, para poder entender os diferentes tipos de regras existentes em um jogo de RPG, após isso o jogo de RPG ConES foi elaborado e, para validar suas mecânicas e dinâmicas, foram realizadas duas avaliações com estudantes de diferentes níveis de experiência na área de Engenharia de Software, onde todos cursavam graduação em Ciência da Computação. As avaliações do protótipo indicaram que as mecânicas elaboradas são satisfatórias e indicaram pontos de correção. Após as alterações necessárias o jogo foi testado em uma de sala de aula com 20 alunos estudantes do Curso de Ciência da Computação da Universidade Federal do Amapá. Como resultado foi possível identificar a eficácia do ConES como ferramenta de apoio, bem como avaliar a sua aplicabilidade em um ambiente de ensino.

  • ELIELTON DA COSTA CARVALHO
  • Abordagens para Apoiar o Gerenciamento de Projetos de Software no Contexto Ágil: Uma Pesquisa Exploratória e Descritiva

  • Data: 18/01/2023
  • Mostrar Resumo
  • A competição no mercado é acirrada, as mudanças são cada vez mais rápidas e o desenvolvimento tecnológico é constante. Nesse contexto, o gerenciamento de projetos é inevitável, pois há uma necessidade de obter melhorias contínuas por meio de diferentes tipos de projetos. No entanto, gerenciar projetos não é uma tarefa trivial, tendo em vista a multiplicidade de fatores que precisam ser levados em consideração, principalmente no contexto de desenvolvimento ágil de software, onde as mudanças são ainda mais rápidas e frequentes. Com isso, as abordagens de gerenciamento de projetos se tornaram indispensáveis no dia a dia das equipes de desenvolvimento ágil de software e ao longo do tempo passaram por mudanças e evoluções que as deram ainda mais relevância e destaque nesse contexto. No entanto, essas mudanças, com o decorrer do tempo, trouxeram desafios para as organizações ao escolherem a abordagem mais adequada para os objetivos e necessidades do projeto. Por isso, é fundamental conhecer abordagens eficientes de gestão que ajudem as organizações a se anteciparem e terem resultados cada vez mais satisfatórios frente à concorrência. Vários estudos foram realizados com o intuito de demonstrar o quão é relevante para a indústria de desenvolvimento ágil de software um gerenciamento bem feito e como as abordagens podem auxiliar nesse processo. Porém, embora os estudos se concentrem em apresentar o desenvolvimento de novas abordagens de gerenciamento de projetos ou a avaliação das que já existem, não foi verificado um estudo que reúna de forma ampla essas abordagens, incluindo características como: pontos fortes, limitações e onde essas abordagens são aplicadas no gerenciamento de projetos de software dentro do contexto ágil. Assim, este trabalho tem como objetivo identificar quais são as abordagens de gerenciamento de projetos usadas no desenvolvimento ágil de software. Para atingir o objetivo desta pesquisa, foi realizado um estudo exploratório e descritivo, mediante  a condução de um Mapeamento Sistemático da Literatura, seguido de um Survey e, ao final, foi desenvolvido um catálogo com as abordagens identificadas na pesquisa. Com isso, espera-se contribuir com o estado da arte, gerentes de projetos e entusiastas na hora de selecionar uma abordagem que melhor se adeque às suas necessidades diárias.

2022
Descrição
  • LUCIANO ARRUDA TERAN
  • Considerações de Design para Sistemas de Pagamentos Instantâneos e Usuários Emergentes

  • Data: 20/12/2022
  • Mostrar Resumo
  • As tecnologias digitais de informação e comunicação remodelaram diversos serviços presentes na vida das pessoas. Todavia, alguns serviços implementados em sistemas interativos tem considerado fatores educacionais da sociedade, onde a migração dos serviços presenciais para as plataformas digitais fortificaram a necessidade de letramento e experiências de ensino formal das pessoas. Relacionado aos sistemas financeiros, o pagamento instantâneo brasileiro (Pix) gerou um novo método de transferência eletrônica para a acessibilidade financeira e digital entre prestadores e clientes. Contudo, ainda existem desafios de desenvolvimento que amenizem as barreiras ao acesso digital de diversos públicos, principalmente por usuários que emergem suas necessidades de interação a partir de aspectos educacionais, renda e cultura. Neste contexto, este trabalho busca desenvolver um conjunto de considerações de design que precisam ser utilizados na construção de sistemas de pagamento instantâneo e atendam às expectativas de usuários emergentes de software. A pesquisa foi realizada por meio de levantamento da literatura e estudos com o público-alvo. Logo, foi realizado um questionário com profissionais de desenvolvimento de software, um mapeamento sistemático para identificar lacunas de contextos de usos e usuários a serem beneficiados por softwares inclusivos, uma inspeção de uma proposta bancária e um levantamento de recomendações de design e avaliação de sistemas interativos para usuários emergentes. Em seguida, realizaram-se dois estudos de caso em um contexto 12 para 12: o primeiro foi realizado com 12 residentes de uma comunidade ribeirinha amazônica para construir as considerações e o segundo foi realizado com 14 usuários que possuem ensino fundamental ou médio incompleto para validar e evoluir as considerações anteriores. Cada estudo de caso foi analisado por meio de aspectos sociais dos participantes e método de inspeção semiótica. Portanto, como resultados, o estudo apresenta um conjunto de considerações que possam ser utilizado por instituições financeiras para tornar suas interfaces de sistemas de pagamentos mais acessíveis para usuários que utilizam o celular como meio de compartilhamento e aquisição renda.

  • WANDER WILSON DE LIMA CARDOSO
  • Uso da Teoria da carga cognitiva na elaboração do conteúdo de uma disciplina de Introdução a Programação

  • Data: 20/12/2022
  • Mostrar Resumo
  • A Teoria da Carga Cognitiva (TCC) apresenta diretrizes que tem o objetivo de otimizar o processo de aprendizagem, baseados em pesquisas relacionadas ao funcionamento do cérebro. Estudos revelam que a memória humana é subdividida em memória de trabalho e a de longo prazo. Durante a aprendizagem é a memória de trabalho que processa as novas informações, e esta possui um número limitado de novas informações que podem ser processados durante a aquisição de novos conhecimentos, portanto, torna-se necessário gerenciar o número de novas informações a serem transmitidas ao aprendiz. A teoria da carga cognitiva afirma que a aprendizagem acontece melhor quando os materiais didáticos (quantidade de informação) se alinham com a arquitetura cognitiva humana. Sweller e seus seguidores estudaram o alinhamento simultaneamente da estrutura da informação com a arquitetura cognitiva, desvendando efeitos cognitivos que são associados a novos princípios instrucionais que visam aprimorar o processo de aprendizagem. Considerando o alto índice de retenção de discentes vinculados a disciplinas que abordam estudos sobre algoritmos, verifica-se a necessidade de buscar soluções que busquem facilitar a aprendizagem deste tipo de conteúdo. Este trabalho tem como objetivo otimizar a aprendizagem de algoritmos através do desenvolvimento de materiais didáticos com base na TCC (uma guia de desenvolvimento de algoritmos, uma guia de labortório de programação em Python e um conjunto de slides).   Após desenvolvidos, estes materiais foram aplicados em uma turma real. Como resultados, verificou-se melhora na aprendizagem, refletida na redução das taxas de retenção.

  • CASSIO TRINDADE BATISTA
  • Experiments on Forced Phonetic Alignment for Brazilian Portuguese Using Kaldi Tools

  • Data: 07/10/2022
  • Mostrar Resumo
  • Phonetic analysis of speech, in general, requires the alignment of audio samples to its phonetic transcription. This could be done manually for a couple of files, but as the corpus grows large it becomes infeasibly time-consuming. This paper describes the evolution process towards creating free resources for phonetic alignment in Brazilian Portuguese (BP) using Kaldi, a toolkit that achieves state of the art for open-source speech recognition, within a toolkit we call UFPAlign. The contributions of this work are then twofold: developing resources to perform forced alignment in BP, including the release of scripts to train acoustic models via Kaldi, as well as the resources themselves under open licenses; and bringing forth a comparison to other two phonetic aligners that provide resources for BP, namely EasyAlign and Montreal Forced Aligner (MFA), the latter being also Kaldi-based. Evaluation took place in terms of phone boundary and intersection over union metrics over a dataset of 385 hand-aligned utterances, and results show that Kaldi-based aligners perform better overall, and that UFPAlign models are more accurate than MFA’s. Furthermore, complex deep-learning-based approaches still do not improve performance compared to simpler models.

  • EDUARDO GABRIEL LIMA DA SILVA
  • Resource Allocation for Long Range Wide-Area Network

  • Data: 30/09/2022
  • Mostrar Resumo
  • O conceito de IoT trouxe diversas facilidades e conectividade para o mundo de hoje. Nas cidades inteligentes as pessoas tendem a estar conectadas o tempo todo e as tecnologias de conexão sem fio passam ser uma necessidade nas suas rotinas. Porém, para a ciência o desafio de manter essa conectividade confiável aumenta. A tecnologia LoRa foi desenvolvida visando transmitir dados sem fio em longo alcance e baixo custo. A partir do protocolo LoRaWAN, dispositivos LoRa conseguem enviar pacotes à dezena de quilômetros. Porém, para que essa conectividade cumpra o seu propósito, é importante que os parâmetros de transmissão sejam alocados de forma hierárquica e se adaptem ao contexto da rede. O protocolo LoRaWAN disponibiliza um mecanismo de alocação de recursos chamado ADR LoRaWAN que aloca os parâmetros de transmissão SF e TP para aumentar a escalabilidade e reduzir o consumo de energia dos dispositivos. Porém, o ADR LoRaWAN possui falhas por priorizar escalabilidade ao custo de baixa confiabilidade. Nesta dissertação de mestrado propomos os mecanismos de alocação de recursos PRA e APRA. O principal objetivo de ambos é criar uma hierarquia entre os dispositivos e garantir melhor desempenho para dispositivos de alta prioridade em redes LoRa. Enquanto o PRA tem maior foco em diminuir o ToA e o consumo de energia, o APRA possui como objetivo reduzir a perda de pacotes e o consumo de energia, enquanto aumenta a vida útil da bateria dos dispositivos. Nós comparamos PRA e APRA com mecanismos do estado da arte no simulador LoRaSim. Os resultados mostraram que o mecanismo PRA reduziu o ToA e o consumo de energia dos dispositivos de alta prioridade em até 85%. APRA obteve um aumento de até 5% em entrega de pacotes e 85% de economia de energia. Além disso, o mecanismo de alocação de TP do APRA garantiu aumento de até 28 anos na duração de bateria do dispositivo.

  • ISAAC SOUZA ELGRABLY
  • Uma Abordagem para o Ensino de Testes de Software utilizando Metodologias Ativas em Cursos Superiores de Computação

  • Data: 20/09/2022
  • Mostrar Resumo
  • O teste de software é considerado uma atividade chave no ciclo de desenvolvimento de software, pois ajuda os profissionais de computação a projetar software de boa qualidade. Assim, esta é uma atividade essencial para a indústria de software, embora com todas as suas nuances ainda não seja dada alta prioridade ao aprendizado em nível acadêmico. Tendo em vista que é um conteúdo que precisa de uma boa quantidade de elementos de conhecimentos prévios e grande parte do seu conhecimento necessita de intervenções práticas, viu-se a importância de se utilizar as metodologias ativas, que vem tendo uma boa aceitação em disciplinas mais práticas de computação. Assim, o principal objetivo deste trabalho é apresentar uma abordagem de ensino utilizada com um currículo, e um plano de ensino de uma disciplina de testes de software, elaborado com base em metodologias ativas. Como resultados, tem-se um plano de ensino que é construído a partir de metodologias ativas, o qual é composto por 32 aulas teóricas e práticas, distribuídas em 4 módulos, o qual é baseado em referenciais de um currículo especializado em testes de software, construído a partir de um mapeamento em diferentes ativos relacionados a testes de software, sendo os principais deles o Guia de Referencias Curriculares da SBC, o guia curricular da ACM/IEEE e o Guia dos conhecimentos de Engenharia de Software SWEBOK. Além disso, dois quase-experimentos foram executados por completo, o primeiro avaliou a efetividade da abordagem de ensino de testes em comparação com uma abordagem tradicional e o segundo além de avaliar a efetividade da abordagem de ensino perante uma abordagem tradicional também fez uma análise da eficiência da aprendizagem na turma, ambos os quase-experimentos foram analisados com uma análise estatística utilizando a distribuição t de Student bicaudal, que apresentou um certo ganho de aprendizagem para a abordagem apresentada.

  • HUMBERTO CAIO CAMILO LEAO
  • Desagregação de Dados IoT em Redes Definidas por Software de Próxima Geração

  • Data: 19/09/2022
  • Mostrar Resumo
  • Redes Low-Power Internet-of-Things (LPIoT) geralmente são projetadas para aplicações como cidades inteligentes, monitoramento de edifícios e medição inteligente. São caracterizadas por volumosa quantidade de nós IoT com limitações de recursos, como energia, processamento e transmissão de dados. Por conta de suas limitações, é comum a utilização de técnicas que buscam amenizá-las. Uma dessas técnicas é a agregação de dados, cujo propósito é reduzir o tráfego na rede, o que traz benefícios como a redução do consumo de energia destes dispositivos LPIoT. No entanto, toda carga útil agregada precisa ser desagregada antes que os pacotes sejam entregues às aplicações IoT. Neste trabalho consideramos que switches programáveis devem realizar a desagregação de pacotes agregados por dispositivos LPIoT, no entanto o processo de desagregação pode causar redução na taxa de transferência, por se tratar de um processo computacionalmente custoso. Diante disto propomos a implementação de uma estratégia de desagregação de pacotes IoT em redes definidas por software (SDN), com processamento de pacotes no plano de dados, utilizando a linguagem P4.

  • ADAILTON MAGALHAES LIMA
  • UNDERSTANDING THE CORRELATION OF TRAVELS AND REMOTE MEETINGS IN DISTRIBUTED SOFTWARE DEVELOPMENT

     

  • Data: 14/09/2022
  • Mostrar Resumo
  • Contexto: Comunicação remota é uma atividade crítica em qualquer projeto de desenvolvimento de software distribuído. Apesar de estudos anteriores, ainda é necessário identificar, entender e caracterizar os fatores que podem afetar a comunicação remota e seus impactos em projetos de desenvolvimento distribuído de software. Objetivos: Assim, nesta tese, busca-se um avanço para melhor entendimento sobre a dinâmica de práticas de colaboração entre membros de projetos distribuídos, e como métricas corriqueiras de projetos, especialmente métricas relacionadas às viagens e reuniões remotas, estão correlacionadas ao processo de teste de software. Método: Começamos esta pesquisa por um estudo quantitativo utilizando dados históricos de uma base de gerenciamento de um projeto distribuído, onde investigamos a correlação de viagens para reuniões presenciais e reuniões remotas no tempo de tarefas de correção de bugs. Adicionalmente, na etapa qualitativa foram entrevistados desenvolvedores de software trabalhando em projetos distribuídos e coletada a percepção de suas práticas de trabalhos e o impacto da distância em seus projetos. Resultados: Baseado nos resultados da etapa quantitativa, encontramos que viagens estão associadas com três mil porcento mais horas do time corrigindo bugs (de 1 para 31.1 horas) em um release se comparado a outros releases onde não tiveram viagens, o que significa que as viagens estão correlacionadas com maior tempo total no mesmo release corrigindo bugs. Buscamos uma explanação mais contextualizada para estes resultados através de um estudo com diferentes empresas, onde entrevistamos dez engenheiros de software de sete empresas que sugeriram que as viagens para realizarem reuniões presenciais auxiliam seus times a melhorar a comunicação em etapas críticas dos seus projetos. Eles também explicaram como ferramentas podem prover comunicação contínua e em diferentes formas entre os membros do projeto para ajudar na segmentação da comunicação, a encontrar as pessoas certas para responder dúvidas ou ainda ajudar a resolver problemas em ambientes de testes ou produção. Conclusões: Nosso estudo quantitativo mostra a correlação de viagens para encontros presenciais e do tempo com reuniões remotas com o tempo empregado na correção de bugs durante um mesmo release de projeto. Os resultados qualitativos apontam para a importância de viagens e de suporte de ferramentas para se comunicar com outros membros remotos do mesmo projeto. Adicionalmente, foi observado que a diferença de fuzo horário em projetos do tipo innersourcing tem diferente correlação com o tempo empregado na correção de bugs dependendo da localização geográfica dos times envolvidos. 

  • WENDY MENDES GALENO
  • Restrições Sociotécnicas e Possibilidade de Colaboração Virtual - Um Estudo de Quatro Hackathons Online

  • Data: 02/09/2022
  • Mostrar Resumo
  • Hackathons e eventos semelhantes com limite de tempo tornaram-se uma forma popular de colaboração em vários domínios. Eles são comumente organizados como eventos presenciais durante os quais as equipes se envolvem em intensa colaboração durante um curto período para concluir um projeto de seu interesse. A maioria das pesquisas, até o momento, consiste em estudar como as equipes colaboram em um ambiente co-located, apontando para as vantagens da radical co-location. A pandemia global de 2020, no entanto, levou ao surgimento de muitos hackathons online, o que desafia nossa compreensão atual de como eles funcionam. Neste trabalho, abordamos essa lacuna apresentando resultados de um estudo de caso múltiplo de 10 equipes de hackathon que participaram de 4 eventos de hackathon em dois continentes. Ao analisar os dados coletados, descobrimos que as equipes mesclaram meios de comunicação síncronos e assíncronos para manter um entendimento comum do andamento do trabalho, bem como manter o conhecimento das tarefas uns dos outros. A divisão de tarefas era auto atribuída com base nas habilidades ou interesses individuais, enquanto os líderes emergiam de diferentes estratégias (por exemplo, experiência do participante, responsabilidade de inscrever a equipe em um evento). Algumas das possibilidades dos hackathons presenciais, como a radical colocation dos membros da equipe, poderiam ser parcialmente reproduzidas em equipes que mantinham canais de comunicação síncronos abertos enquanto trabalhavam (ou seja, territórios compartilhados de áudio), em uma espécie de “radical virtual co-location ". No entanto, outros, como interações com outras equipes, fácil acesso a mentores e Networking com outros participantes, diminuíram. Além disso, os constrangimentos técnicos das diferentes ferramentas e plataformas de comunicação trouxeram problemas técnicos e foram avassaladores para os participantes. Diante disso, o trabalho contribui para entender a colaboração virtual de pequenas equipes no contexto de hackathons online e como as tecnologias e estrutura dos eventos propostas pelos organizadores implicam nessa colaboração. 

  • MARLON SILVA PIMENTEL CRUZ
  • Metodologia para Utilizar Cópias Digitais em Redes de Computadores: Estudo de Caso da Rede Metropolitana de Belém (METROBEL) 

  • Data: 30/08/2022
  • Mostrar Resumo
  • O conceito de cópia digital (digital shadow), uma representação digital de um objeto do mundo real que tem um fluxo unilateral entre o objeto físico e o digital, vem ganhando popularidade na indústria e começa a ser empregado em cenários diversos. Essa abordagem explora o potencial da cópia digital para representar o objetivo real e assim facilitar experimentos em torno de um determinado ambiente de produção. Este trabalho propõe uma estratégia dividida em quatro etapas para utilizar a cópia digital no contexto de redes de computadores, com objetivo de ser uma alternativa de baixo custo para ajudar no planejamento e avaliação de operações inerentes à gerência de redes reais. Como estudo de caso, a proposta será aplicada para criar uma cópia digital da rede MetroBel - Rede Metropolitana de Ensino e Pesquisa de Belém, para facilitar o planejamento e evolução desta.

  • ADRIANNE VERAS DE ALMEIDA
  • Introdução ao Pensamento Computacional na Educação Básica: Formação Inicial Docente Utilizando uma Ferramenta Educacional Chatbot com Inteligência Artificial

  • Data: 22/08/2022
  • Mostrar Resumo
  • De acordo com as diretrizes da SBC (Sociedade Brasileira de Computação), os fundamentos da Computação são base para o Pensamento Computacional (PC), o qual tem por objetivo desenvolver uma série de habilidades tais como o pensamento crítico, criatividade, adaptabilidade entre outras. Como também, pode ser aplicado para resolver problemas em diversas áreas de conhecimentos, o que torna uma habilidade essencial na formação dos profissionais de todas as áreas. Sob este contexto, o presente artigo tem como objetivo relatar a experiência de uma formação inicial online, realizada com professores de matemática e computação/informática na educação básica no Brasil, que desejem incorporar temas relacionados ao PC às suas atividades didáticas desenvolvendo habilidades para resolução de problemas. Com isso, essa formação uniu as metodologias da aprendizagem baseada em computação des(plugada), jogos digitais e programação em bloco. Além disso, foi desenvolvido e utilizado um chatbot com técnicas de Inteligência Artificial (IA) e Processamento de Linguagem Natural (PLN) para auxiliar no processo de ensino-aprendizagem do PC. Os resultados preliminares, indicaram que os professores adotaram novas estratégias no seu ambiente de trabalho, elaborando e aplicando práticas educativas integradas à temática em escolas da rede de ensino. Sendo assim, a formação foi validada pelos participantes e se mostrou relevante para ser inserido em formações maiores no contexto da educação básica. Portanto, espera-se contribuir para que redes de ensino e escolas reestruturarem seus currículos, visando a integração do PC nas disciplinas do ensino básico, de acordo com as novas diretrizes da Base Nacional Comum Curricular (BNCC).

  • ESDRAS ROBERTO ALVES DE LA ROQUE
  • Uma Otimização em GPU para RWA com Algoritmo Genético e Roteamento Estático em Redes Ópticas WDM

  • Data: 19/08/2022
  • Mostrar Resumo
  • A demanda por largura de banda vem aumentando exponencialmente nos últimos anos, com residências, empresas, indústrias, dispositivos móveis, dispositivos de internet das coisas, dispositivos vestíveis entre outros, cada vez mais conectados à internet através de aplicações que também seguem evoluindo e exigindo maior velocidade para troca de dados, muitas vezes, com modelos de sistemas de tempo real, exigindo cada vez mais, não só velocidade, mas também qualidade nos meios físicos de acesso à rede. Neste contexto, temos as redes ópticas como melhor meio de acesso. Entretanto, o meio óptico suporta uma largura de banda que possibilita a utilização de diversas aplicações ao mesmo tempo, através da multiplexação do sinal, ou seja, dividindo a banda para várias aplicações e, ainda, evitando a subutilização do recurso físico. Porém, o roteamento desses sinais divididos requer conversão opto-elétrica, reduzindo a capacidade total no tempo de resposta, visto que o sinal sai do campo luminoso para o elétrico, sendo demodulado, processado por algoritmo de roteamento e novamente modulado para sinal luminoso, cada vez que encontra um roteador transitório no qual precisa decidir qual rota tomar até o destino. Este é o problema de redes conhecido como Problema RWA em redes WDM e para resolvê-lo, diversas propostas envolvem algoritmos de inteligência computacional que, em geral, são algoritmos que processam modelos preditivos e requerem algum tempo de computação até entregarem uma solução aceitável. No entanto, esta computação demora mais que a própria conversão opto-elétrica, inviabilizando sua aplicação em um cenário real de roteamento. Este trabalho apresenta uma estratégia paralela com uma abordagem heurística para reduzir o gargalo no tempo de processamento do problema de roteamento e atribuição de comprimento de onda em redes multiplexadas por divisão no comprimento de onda baseado em trabalho prévio que utiliza um algoritmo genético sequencial. Como solução de paralelização, o processamento em hardware GPU com arquitetura CUDA e linguagem de programação CUDA C foram adotados. Um código de programa, escrito originalmente, em linguagem de programação Python e executado de maneira sequencial foi portado, primeiramente, para a linguagem de programação C-99, também executando no modelo sequencial. E então, esta última versão foi portada para a linguagem de programação CUDA C, e nesta, já executando um modelo de programa paralelo em arquitetura de computação em GPU. Uma estratégia de paralelização do algoritmo da simulação é apresentada, baseado na definição da grid e aproveitando os índices dos CUDA Blocos e CUDA threads na configuração de execução paralela do algoritmo de simulação. Como resultados alcançados, o tempo de processamento reduziu consideravelmente, obtendo uma melhora na ordem de escala entre 35 e 40 vezes mais rápidos que a versão sequencial original do algoritmo genético, executada em Python.

  • RAMON DA GAMA CORDEIRO
  • Metodologia de Avaliação de Aplicações Blockchain 

  • Data: 19/08/2022
  • Mostrar Resumo
  • Blockchain é uma tecnologia emergente que, nos últimos anos, tem atraído a atenção da indústria e da academia. O interesse se justifica pelo fato dela possibilitar a comunicação e troca de dados de maneira confiável em um ambiente descentralizado onde não há confiança entre os participantes. Recentemente, muitas blockchains e aplicações descentralizadas foram criadas como proposta para solucionar desafios específicos. Com a quantidade de propostas de soluções aumentando diariamente, torna-se necessário utilizar parâmetros padronizados para avaliar qual a mais adequada em determinado contexto. Este trabalho apresenta uma metodologia de avaliação para blockchain, tanto para atores que necessitam realizar tomada de decisão na escolha de tecnologias como para aqueles que desejam avaliar uma solução previamente escolhida ou implantada. A solução proposta é avaliada por meio de casos de usos em diferentes cenários. Os resultados obtidos demonstram a eficiência e flexibilidade da metodologia para avaliar blockchains de diferentes propósitos.

  • SAMARA LIMA DE SOUZA
  • Mineração de Dados em Bancos de Dados de Segurança Pública no Estado do Pará, Brasil

  • Data: 10/08/2022
  • Mostrar Resumo
  • O crime é um problema social comum enfrentado em todo o mundo, podendo afetar a qualidade de vida, o crescimento econômico e a reputação de uma nação. Assim, as autoridades de segurança pública precisam tomar medidas preventivas e um dos métodos que vem ganhando espaço na análise de crimes é a mineração de dados. Com isso, o objetivo desse trabalho é criar um conjunto de ferramentas de combate ao crime, utilizando técnicas de análise exploratória dos dados, extração de regras associativas e um classificador de crimes, por meio dos dados de boletins de ocorrências policiais na cidade de Belém e em todo o estado do Pará, Brasil nos anos de 2019, 2020 e 2021. Para guiar este estudo foi usado a metodologia CRISP-DM, onde foi possível através das duas primeiras técnicas extrair conhecimento para entender e analisar o cenário do crime no município de Belém, como o fato de um determinado crime ocorrer no período da noite implicar que sua natureza seja roubo para assim poder auxiliar os órgãos responsáveis nas investigações e estratégias para um combate mais eficaz à criminalidade, assim como utilizar a terceira técnica para otimizar processos manuais, fazendo a classificação de crimes a partir da leitura de um relato de boletins de ocorrências de todos os municípios do estado do Pará, com uma acurácia geral de aproximadamente 78%, beneficiando outras pesquisas e estatísticas do governo que necessitam da classificação correta do tipo de crime, além de reduzir o trabalho manual que é feito pelos analistas da Secretaria Adjunta de Inteligência e Análise criminal do estado do Pará, Brasil.

  • ANDRE MIRANDA PINHEIRO
  • Um Estudo Exploratório das Contribuições dos Eventos Colaborativos de Curta Duração para Fundadores de Startups


  • Data: 29/07/2022
  • Mostrar Resumo
  • Os eventos colaborativos de curta duração atraem diversos tipos de pessoas para trabalhar em pequenas equipes que desenvolvem um projeto de software para solucionar um deter- minado problema. Ao participar desses eventos, os seus participantes têm a oportunidade de adquirir novos conhecimentos, conhecer pessoas, enriquecer o seu portfólio, ganhar reconhecimento e conseguir propostas de emprego. Apesar de não ser muito comum, alguns dos projetos desenvolvidos nestes eventos podem ser o início de uma startup. Ainda assim, existem poucos estudos explorando o relacionamento desses eventos com startups. Esta dissertação tem o objetivo de entender como os fundadores de startups se beneficiam dos eventos de curta duração. Para verificar isso, uma pesquisa exploratória com abordagem qualitativa foi realizada. Os dados foram coletados por meio de entrevistas semiestrutu- radas com 16 fundadores de startups brasileiras. Os entrevistados residem e atuam em diversos estados do Brasil, incluindo Pernambuco, Pará, Paraná, Santa Catarina e São Paulo. Os dados coletados foram analisados usando algumas das técnicas de codificação da Teoria Fundamentada em Dados (codificação aberta e axial), em seguida os resultados da análise dos dados foram apresentados para outros fundadores de startup como uma forma de validar os resultados obtidos. Esta pesquisa revelou que as startups, através dos relatos de seus fundadores, se favoreceram tanto das participações que ocorreram antes da criação da empresa, bem como das que ocorreram após a criação dela. Os benefícios citados pelos entrevistados incluem o desenvolvimento de novos produtos, arrecadar dinheiro, ganhar visibilidade, perceber oportunidades de atuação, aprendizado e networking, sendo que o aprendizado pode ser de vários tipos incluindo conhecer metodologias, desenvolver soft skills e aprender a utilizar ferramentas. Enquanto que o networking pode beneficiar as startups ao permitir que as mesmas identifiquem fundadores, sócios, novos clientes, entre outros. Nossos resultados sugerem que a participação em eventos colaborativos de curta duração ajudam as startups a satisfazer algumas das necessidades que as mesmas possuem.

  • EDUARDO COSTA DE CARVALHO
  • Análise de detecção de fissuras em superestruturas de vagões com auxílio de visão computacional e redes neurais convolucionais

  • Data: 22/07/2022
  • Mostrar Resumo
  • Detecção de rachaduras é um problema para qualquer estrutura física, em que o desgaste ao longo do tempo pode gerar diversos tipos de problemas para as pessoas. Quando levado esse assunto ao contexto de veículos se tem a verificação de condições de pista e de equipamentos. Um vagão cargueiro pode chegar a capacidade de armazenamento de até 120 milhões de toneladas em um ano, além da utilização desse meio de transporte para pessoas. Nesse sentido a manutenção de vagões de trens é de suma importância para economia de um país, assim, estudos sobre o tempo de vida desses vagões são cada vez mais realizados de forma a aumentar seu tempo de uso sem impactar a segurança de todos os envolvidos com essas tarefas. A utilização de força humana para a verificação de peças de vagões tem sido realizada e ao longo do tempo a preocupação com a saúde delas tem sido levada em consideração, pois estudos sugerem que pessoas expostas a locais com alto nível de perigo têm gerado diversos tipos de doenças, bem como o apelo econômico em perda de parte de materiais transportados. Os vagões utilizados para esse trabalho foram vagões de carga de minério de ferro. Para tais vagões composições de 330 vagões divididos de 3 vezes foram estudados, portanto 110 vagões avaliados por vez. Assim, com posse desses números esta tese propõe uma forma de estruturação de dados para cada um tipo de algoritmos avaliados. Primeiramente um modelo de captura de dados é indicado e modificado para suas seguintes tarefas, em seguida essa estruturação realiza a aplicação de modelos de segmentação de imagens para servir de entrada para os algoritmos classificadores. Em seguida a tese indica a utilização de 2 tipos de bases de dados em avaliação de um modelo de método de machine learning. A proposta pela utilização de 2 formas de bases de dados para apenas um modelo nesse momento se dá devido a utilização prévia de tentativas em outros dois modelos de machine learning, com resultados não satisfatórios. A avaliação desta segunda contribuição se dá de forma a avaliar rachaduras de vagões presentes nas imagens reais que foram utilizadas para uma base de dados não balanceada e outra base de dados balanceada. Em seguida a tese indica a utilização de mais um método avaliativo e a criação de um ensemble baseado em votação para tentativa da melhora dos resultados encontrados por todos os algoritmos previamente avaliados. Os resultados obtidos nesta tese demonstram que a utilização de métodos de machine learning e visão computacional podem identificar rachaduras em vagões de trem de forma a oferecer uma economia as companhias que utilizam de tal métodos de transporte, bem como melhor segurança a todas as pessoas envolvidas direta ou indiretamente em atividades de manutenção de trens.

  • MATHEUS OLIVEIRA LEITE DE SA
  • Senhas Coloridas para Registro Seguro em Protocolos de Votação via Internet Resistentes à Coerção

  • Data: 15/07/2022
  • Mostrar Resumo
  • Coerção é um problema inerente a qualquer eleição realizada via Internet e é mitigada pelo uso de protocolos que empregam credenciais de votação. Entretanto, credenciais são usualmente compostas por extensos valores numéricos, o que dificulta sua utilização por usuários com menos conhecimento técnico em cenários de eleições reais. O uso incorreto das credenciais de votação debilita a resistência à coerção de um protocolo. Nesse contexto, este trabalho propõe a utilização de um novo modelo de senhas como alternativa ao uso direto de credenciais pelo usuário, abstraindo os extensos valores numéricos para senhas formadas por combinações de palavras e cores. Tais senhas são formadas utilizando os itens de um dicionário estruturado, inspirado na tecnologia BIP-39 do Bitcoin, e uma paleta de oito cores distintas. Como validação, foram realizadas avaliações de segurança teórica e da qualidade da interação do modelo proposto. Para a avaliação de segurança o modelo foi comparado com o protocolo de senhas de pânico 5-Dictionary, enquanto as avaliações de interação compararam-no com senhas alfanuméricas. As senhas coloridas atingiram melhores resultados que seus concorrentes em ambas as avaliações, o que aponta para um aumento tanto na segurança quanto na qualidade da interação do modelo em relação à literatura.
  • ROBERTO BARBOSA DE ALMEIDA JUNIOR
  • Identificação de Metodologias de Ensino-Aprendizagem na Programação Paralela com Placas Gráficas: Uma Revisão Sistemática da Literatura

  • Data: 11/07/2022
  • Mostrar Resumo
  • A Computação de Alto Desempenho (CAD) é hoje uma realidade nos grandes centros de pesquisa, pois ajuda na solução de problemas complexos que necessitam de um elevado poder de processamento. Com o avanço da tecnologia, esses sistemas passaram a utilizar uma forma híbrida de processar, ou seja, passaram a ser formados tanto por processadores multicores quanto por placas gráficas, onde o número de núcleos disponíveis para processamento pode chegar a algumas centenas. No entanto, nem sempre a pesquisa e o ensino caminham no mesmo compasso, isso porque, apesar do ensino da programação paralela já ser uma realidade na maioria dos cursos de graduação em Computação no Brasil, o uso das placas gráficas neste processo de ensino-aprendizagem, ainda se mostra como um objetivo a ser alcançado. Isso talvez, possa ser explicado, pela especificidade da tecnologia que requer arquiteturas e softwares próprios, mas principalmente, também, pela necessidade de profissionais capacitados que sejam capazes de definir metodologias que possam ser ao mesmo tempo, motivadoras e facilitadoras no processo de ensino-aprendizagem. Isso irá permitir com que os alunos possam adquirir as competências e as habilidades necessárias para a sua formação, mas também, irá despertar o interesse pela área, contribuindo para a formação de uma mão-de-obra qualificada e necessária. Este trabalho apresenta uma Revisão Sistemática da Literatura (RSL) com o objetivo de identificar abordagens no processo de ensino-aprendizagem da Programação Paralela, porém, especificamente, utilizando placas gráficas, afim de identificar metodologias que estejam sendo utilizadas no ensino deste eixo de formação da Computação. Para a RSL, foram selecionadas inicialmente 34 fontes, entre bases nacionais e internacionais, dentro das áreas de Computação de Alto Desempenho e Programação Paralela. Em seguida, essa pesquisa foi expandida para bases como ACM, IEEE, Science Direct, EI Compendex, ISI e Scopus. A pesquisa retornou 867 estudos, sendo que destes, apenas 5 trabalhos foram selecionados após a aplicação dos critérios de inclusão e exclusão, demonstrando, dessa forma, uma limitação de produções acadêmicas no tema proposto.

  • BHRUNNO BRITO MEDEIROS
  • As dificuldades no Gerenciamento de API: Um Estudo de caso em um órgão público brasileiro

  • Data: 07/07/2022
  • Mostrar Resumo
  • Com o avanço da tecnologia de software em diversas organizações, a utilização de Application Programming Interfaces (APIs) Representational State Transfer (REST) nos negócios está aumentando cada vez mais. Organizações estão caminhando rumo às transformações digitais, fornecendo ou consumindo informações e aumentando suas produtividades e assim, gerando conexões de negócio com produtos de software, permitindo criar novos negócios com mais facilidade, e através de integração entre organizações, proporcionando um ecossistema de APIs (Blosh, 2006).

    De acordo com Fielding (2000), o Representational State Transfer (REST) é uma abstração da arquitetura de elementos dentro de um sistema hipermídia distribuído, ou seja, Protocolo de Transferência de Hipertexto (HTTP).  Além disso, ele abrange as restrições fundamentais sobre os componentes, conectores e dados que definem a base da arquitetura da Web. Sendo, portanto, a essência de seu comportamento baseado em aplicações de rede (Fielding, 2000).

    Uma API REST ajuda no alcance de um melhor desempenho, além de reduzir o acoplamento entre as aplicações. Isso faz com que haja o aumento da capacidade de integração de um sistema com o outro (Santana, 2019 apud Tilkov, 2009).

    As APIs REST podem ser os maiores ativos de uma organização, isso se deve ao fato delas ajudarem a captar clientes devido ao investimento destes clientes em compras ou utilização de serviços. Dados de várias organizações, como WSO2, Oracle, Azure e Apigee, mostram que através do gerenciamento de APIs REST é possível conseguir gerar insights, incluindo os padrões de acesso geográfico, tipos de dispositivos e até latências dos principais usuários (Santana, 2019).

    As APIs acabam envolvendo uma arquitetura que está ganhando cada vez destaque, que são os microsserviços. Estes permitem implementar novos serviços de uma maneira que haja a possibilidade de reaproveitamento em curto espaço de tempo, assim, permite que estes novos serviços sejam escaláveis e resilientes (Martins, Pires e Souza, 2021). 

    Os microsserviços trazem bastante benefícios, como a disponibilização e escalabilidade considerando as diferenças partes do sistema (Martins, Pires e Souza, 2021 apud Newman, 2015). Porém, apesar desses benefícios, é possível encontrar várias dificuldades, pois eles trazem mais complexidade para os sistemas, requerendo a utilização de novos componentes (Martins, Pires e Souza, 2021 apud Balalaie, Heydarnoori e Jamshidi, 2016). 

    Com a importância das APIs de serviços cada vez maior, torna-se necessária a utilização de plataformas adequadas para o seu gerenciamento. Grandes empresas como Facebook, Google, IBM, Microsoft, bancos nacionais e internacionais já utilizam APIs para disponibilizar seus serviços. O objetivo dessas plataformas ou ferramentas é justamente a disponibilização de serviços. Porém, como se tratam de grandes empresas e, consequentemente, de grandes sistemas, dificuldades são encontradas, que acabam atrasando o seu desenvolvimento. De acordo com Santana (2019), durante o processo de utilização e gestão de APIs REST, naturalmente acabam surgindo dificuldades e problemas e isso pode causar algum prejuízo no êxito da gestão destas APIs.

    Assim, diante da grande importância das APIs para as organizações e da necessidade de gerenciar estas APIs (Santana, 2019), este trabalho descreve um estudo de caso em uma organização sobre os mecanismos de gestão de APIs adotados. A organização escolhida é um órgão público estadual, que possui sistemas conectados no estado do Pará e no Brasil. Esta organização possui diversas APIs em seu vasto ecossistema e mostra-se adequada para este estudo pelo tamanho da abrangência que o órgão possui no país.

    Problemas e dificuldades da gestão de APIs foram identificados através de uma pesquisa de campo com dados coletados por meio de entrevistas. Além disso, este trabalho também mostra (i) como a ferramenta Sharingan pode ajudar a lidar com algumas das dificuldades que foram encontradas e (ii) propostas de extensões à ferramenta Sharingan para que a mesma possa atender as necessidades da organização estudada. 

    O objetivo geral dessa pesquisa é proposição de uma lista de requisitos funcionais e não-funcionais para o desenvolvimento de uma ferramenta de gestão de APIs. Isto é feito através da identificação e análise das dificuldades encontradas quando APIs REST são utilizadas dentro de um órgão público brasileiro. A organização estudada é um órgão público brasileiro responsável pela coleta de impostos e funções de gestão financeira para todo o estado, possuindo uma equipe de mais de 100 profissionais de TI distribuídos em diferentes equipes, com aproximadamente 500 APIs ativas. As questões levantadas no presente artigo são: (i) Como coletar insumos para o desenvolvimento de uma ferramenta de gestão de API? (ii) Quais os requisitos necessários para o desenvolvimento de uma ferramenta de gerenciamento de API? 

    Os objetivos específicos são: (i) coletar na literatura quais ferramentas são usadas para o gerenciamento de API, (ii) Coletar dados de ferramentas de gerenciamento de API que são utilizadas no mercado e (iii) Realizar pesquisa de campo realizada através de entrevistas. Por fim, realiza-se também uma análise da ferramenta Sharingan, que é utilizada para o gerenciamento de API no próprio órgão público, que possui como uma de suas principais características ser um módulo externo à aplicação principal, coletando dados de uma API sem a necessidade de modificações no código fonte da API WEB monitorada (Santana, 2019).

  • ADRIANO SILVA BARRETO
  • Uma técnica online de incorporação piramidal para visualização de big data em altas dimensões
  • Data: 06/07/2022
  • Mostrar Resumo
  • A tarefa de visualizar dados de grande dimensão é desafiadora em um contexto de aprendizado de máquina, onde conhecer o conjunto de dados é essencial para encontrar a técnica certa para criar modelos de classificação, clustering, previsão e outros. É de suma importância entender que esses conjuntos e inspeções visuais podem auxiliar nessa busca. Para enfrentar o problema de visualização de dados altamente dimensionais, podemos utilizar técnicas de DR (Dimensionality Reduction), produzindo representações de baixa dimensão (2D ou 3D) para obter conhecimento do comportamento desses dados. Muitas técnicas são capazes de produzir dados de baixa dimensão, mas são computacionalmente caras, atingindo a complexidade n^3. Isso, aliado à necessidade de carregar todos os dados na memória principal, inviabiliza o uso dessas técnicas para Big Data. Neste trabalho, apresentaremos o PES (Pyramidal Embedding System), uma técnica de DR incremental que permite o uso em Big Data, livre de hiperparâmetros, com complexidade linear no tempo O(n), capaz de realizar embedding tanto em 2D quanto em 3D.
  • LUCIANO RIBEIRO DUARTE
  • Uma Revisão Sistemática da Literatura Aplicada à Recuperação de Dados Armazenados em Nuvem.

  • Data: 04/07/2022
  • Mostrar Resumo
  • O acesso à informação, independentemente da localização, é algo necessário e essencial, assim como, o acesso aos arquivos pessoais através dos dispositivos móveis, que também se tornou algo imprescindível. Para isso, os serviços de armazenamento e processamento em nuvem evoluíram, tornando-se uma tecnologia confiável e em muitos casos, virtualmente ilimitada. Porém, como em todo dispositivo de armazenamento, os dados podem ser deletados de forma proposital ou acidental, havendo, com isso, a necessidade de recuperá-los. As técnicas utilizadas de recuperação de dados nestes dispositivos se mostram quase sempre ineficientes quando aplicadas em dados armazenados na nuvem. Por este motivo, o crescimento exponencial da computação em nuvem passou a ser uma das demandas mais debatidas entre os profissionais da computação forense digital na contemporaneidade, isso porque, trouxe vários desafios, entre eles: a identificação do proprietário de um arquivo deletado, a alocação dinâmica e eficiente da distribuição dos dados, a integridade e a segurança dos dados armazenados são alguns dos novos desafios a serem superados. A recuperação de dados nesses ambientes, além de necessitar de ferramentas especializadas para contribuir na análise, extração e recuperação de dados, pode necessitar, também, do trabalho conjunto de diversos profissionais como: especialistas em direito digital, peritos criminais e profissionais de Tecnologia da Informação (TI). Esse trabalho apresenta uma Revisão Sistemática da Literatura aplicada à recuperação de dados em servidores na nuvem com o objetivo de identificar e apresentar as abordagens existentes de recuperação de dados em nuvem. Durante a pesquisa foram 3.374 estudos retornados, sendo que apenas 13 trabalhos passaram nos critérios de inclusão e exclusão, onde foram apresentadas as principais ferramentas utilizadas para a recuperação de dados. Além disso, este trabalho descreve, também, as principais vantagens e desvantagens do armazenamento em nuvem, os modelos de implantação, tipos de serviços oferecidos pelos fornecedores e por fim, aborda as legislações brasileiras e internacionais que tratam do contexto deste estudo.

  • IVO DE ABREU ARAÚJO
  • Explicabilidade de modelos de caixa preta: Um estudo de caso em análise de sentimentos de mensagens do Twitter sobre a COVID-19

  • Data: 29/06/2022
  • Mostrar Resumo
  • A interpretação de predições realizadas por algoritmos de aprendizado de máquina é uma necessidade em aplicações inteligentes em que a confiabilidade nos resultados é essencial, principalmente quando se trata de decisões que afetam diretamente a vida humana, como na saúde e finanças. Nesse contexto, define-se a interpretabilidade como a capacidade de compreensão de modelos, enquanto que a explicabilidade utiliza de abordagens para tornar modelos complexos mais transparentes. Diante disso, este trabalho tem como objetivo desenvolver testes de explicabilidade utilizando o framework LIME (Local Interpretable Model-Agnostic Explanations) no contexto de NLP (Natural Language Processing) para interpretar predições de um SVM (Support Vector Machine) em classificações de sentimentos em mensagens do Twitter relacionadas a COVID-19 (Corona Vírus 19). Para otimizar o processo de compreensão de amostras, desenvolveu-se uma aplicação web integrada com o LIME para explorar essas predições de forma interativa através da escolha da quantidade de features explicadas. Com a análise dos resultados obtidos com o LIME, observou-se um ganho de transparência quanto ao processo de compreensão de decisões internas do modelo de caixa preta através de palavras determinantes que impactam predições. Por exemplo, na análise realizada nesta dissertação foi possível perceber na avaliação de amostras falso positivas, que o modelo SVM tende a falhar ao associar um teste positivo de COVID a um sentimento bom e ficar confuso em predições específicas que envolvem palavras relacionadas a variantes de COVID como a Ômicron.

  • FABRICIO WICKEY DA SILVA GARCIA
  • Uma Abordagem para o Ensino de Algoritmos usando Metodologias Ativas em Cursos Superiores de Computação

  • Data: 30/05/2022
  • Mostrar Resumo
  • O ensino de algoritmos vem se mostrando bastante desafiador nos últimos anos. A disciplina de algoritmos fornece uma base para todas as disciplinas subsequentes de programação em um curso de graduação. Os conteúdos relacionados à programação são considerados complexos e de difícil entendimento, o que acaba gerando elevadas taxas de reprovação nas disciplinas e, consequentemente, pode influenciar no aumento do índice de evasão nos cursos da área de computação. Diante disso, torna-se de grande importância explorar novas formas de intervenção pedagógica na sala de aula, como as metodologias ativas que vêm gerando resultados promissores, como a melhoria nas taxas de aprovação nas disciplinas de algoritmos ou equivalentes. Assim, o objetivo deste trabalho é apresentar uma forma de intervenção que foi incorporada a um plano de ensino voltado para a disciplina de algoritmos, elaborado com base em seis metodologias ativas: Ambientes Virtuais de Aprendizagem, Coding Dojo, Gamificação, Aprendizagem Baseado em Problema, Sala de Aula Invertida e Jogos Sérios; detalhando as etapas de elaboração do plano de ensino, assim como a avaliação técnica do material desenvolvido por meio de revisão por pares, que contou com a participação de especialistas no ensino de algoritmos e no uso de metodologias ativas. Como resultados, tem-se um plano de ensino que é inteiramente estruturado a partir de metodologias ativas, o qual é composto por 17 aulas teóricas e práticas, distribuídas em 5 módulos, sendo baseado em referenciais de curriculum, como a Sociedade Brasileira de Computação, Association for Computing Machinery e Institute of Electrical and Electronic Engineers. Além disso, dois estudos de caso foram executados, sendo: o primeiro para avaliar a aplicabilidade da proposta e seus efeitos a partir do ponto de vista dos alunos; e o segundo objetivando avaliar a efetividade da abordagem proposta versus o ensino tradicional, realizando uma análise estatística utilizando a distribuição t de Student bicaudal para amostras independentes, que apresentou ganhos estatísticos significativos ao utilizar a abordagem proposta.

  • IAGO LINS DE MEDEIROS
  • An Energy-Efficient Swarm-based Unmanned Aerial Vehicle System for Mobile Object Tracking and Video Delivery in Disaster Scenarios

  • Data: 25/03/2022
  • Mostrar Resumo
  • Floods are the most common disaster in the world and cause deaths, damages to houses, buildings, and possessions, as well as disruption to communications. In such scenarios, it is needed to search and track mobile objects transported by the water flows, such as humans, animals, vehicles, and debris. Unmanned Aerial Vehicles (UAVs) appears as an essential tool in disaster scenarios, in order to help first responders to determine correct procedures in terms of searching, tracking, and rescuing the victims, as well as in defining the actions to minimize the risks in a sustainable and timely manner. However, the tracking of mobile objects and the delivery of real-time video sequences from UAVs with energy constraints toward first responders is still a hard task. Therefore, it is necessary to orchestrate a swarm of UAVs for searching and tracking mobile objects while reacting fast to frequent changes in the topology and trajectory, as well as distributing real-time video flows with quality level support to the ground team. This thesis presents an energy-efficient swarm-based scheme for mobile object tracking, called SUAV (Swarm of UAVs). The SUAV provides a unique UAV-based system for rescue scenarios with mobile objects and with support for route and path planning, searching and tracking procedures, mobility prediction and multi-hop communication management, video delivery with quality level support, and energy-efficiency. Simulation results show that SUAV transmitted videos with at least 15% better QoE support while minimizing the energy consumption by at least 22% when compared to related works.

  • LUCAS FELIPE FERRARO CARDOSO
  • Teste de classificadores e benchmarks de aprendizado de máquina pela Teoria de Reposta ao Item

  • Data: 11/03/2022
  • Mostrar Resumo
  • Os experimentos cobertos pelo Aprendizado de Máquina devem considerar dois aspectos importantes para avaliar o desempenho de um modelo: conjuntos de dados e algoritmos. São necessários benchmarks robustos para avaliar os melhores classificadores. Para isso, pode-se adotar benchmarks padrão-ouro disponíveis em repositórios públicos. No entanto, é comum não considerar a complexidade do conjunto de dados ao se avaliar um algoritmo. Este trabalho propõe uma metodologia de avaliação baseada na combinação da Teoria de Resposta ao Item (TRI) e Glicko-2, um mecanismo de sistema de rating geralmente adotado para medir a força dos jogadores (e.g., Xadrez). Para cada conjunto de dados em um benchmark, a TRI é usada para estimar a habilidade dos classificadores, no qual bons classificadores são capazes de acertar as instâncias de teste mais difíceis. Então são realizados disputas para cada par de classificadores para que o Glicko-2 atualize as informações de desempenho, como valor de rating, desvio de rating e volatilidade para cada classificador. Foi realizado um estudo de caso que adotou o benchmark OpenML-CC18 como a coleção de conjuntos de dados e vários algoritmos de classificação para avaliação. Como resultado foi visto que nem todos os conjuntos de dados foram considerados realmente úteis para avaliar algoritmos, os quais apenas 10% foram considerados realmente difíceis. Além disso, verificou-se a existência de um subconjunto contendo apenas 50% do tamanho original de OpenML-CC18, mas que é igualmente bom para uma avaliação de algoritmos. Em relação aos algoritmos, a metodologia proposta identificou o Random Forest como o algoritmo com a melhor habilidade inata.

  • DERIAN FERNANDO ALVES DE ALENCAR
  • Dynamic allocation of microservices for virtual reality content delivery to provide quality of experience support in a fog computing architecture

  • Data: 25/02/2022
  • Mostrar Resumo
  • O conteúdo de Realidade Virtual (RV) vem se expandindo nos últimos anos, exigindo soluções para sua distribuição eficiente pela Internet. Os microsserviços apresentam um modelo ideal para implantar serviços em diferentes níveis de uma arquitetura de computação em névoa para gerenciamento de tráfego e fornecimento de qualidade de experiência (QoE) para conteúdo de RV. No entanto, é crucial encontrar o nó de névoa de forma eficiente para alocar os microsserviços, o que impacta diretamente a QoE dos usuários de serviços de VR. Portanto, esta tese propõe um mecanismo para alocar microsserviços em uma arquitetura de computação em névoa para melhorar a QoE com base em parâmetros de rede como atraso, tempo de migração e taxa de utilização de recursos. Na avaliação de nossa proposta, os resultados foram obtidos em diferentes cenários usando um ambiente de simulação para demonstrar e comparar a eficiência dos mecanismos existentes em termos de custo, tempo de migração, balanceamento de carga e QoE.

  • DIEGO MEDEIROS DE ABREU
  • Seleção de Características Baseada em Clusterização para Melhorar a Detecção de Ataques em Redes de Computadores

  • Data: 17/02/2022
  • Mostrar Resumo
  • Com o grande crescimento das ameaças à segurança de redes de computadores, protegê-las tem se mostrado uma tarefa cada vez mais desafiadora. Diversas abordagens de sistemas de detecção intrusão (IDSs) baseadas em Aprendizado de Máquina (AM) tem sido propostas para melhorar o desempenho de detecção de vários tipos de ataques de rede. No entanto, muitas das características extraídas e usadas por um IDS são redundantes e podem ser substituídas por outras, ou são irrelevantes e não contribuem para o processo de Aprendizado de Máquina. Os métodos tradicionais de seleção de características são baseados em abordagens supervisionadas e requerem uma grande quantidade de dados rotulados para serem aprendidos. Entretanto, no contexto de segurança, essas informações muitas vezes não estão disponíveis ou são muito difíceis de obter. Assim, reduzir a dimensionalidade das características sem usar rótulos permite que o AM seja uma opção mais viável para cenários do mundo real. Este trabalho propõe um método de seleção de caraterística não supervisionado baseado em clusterização que busca lidar com o problema da dimensionalidade, removendo características redundantes e irrelevantes no contexto de detecção de ataques de rede. Com a busca bidirecional, nossa proposta usa o k-Means e a métrica Sillhouette para selecionar as melhores características de rede. Além disso, esta pesquisa objetiva investigar o comportamento da seleção de característica proposta e de outros métodos tradicionais, em diferentes cenários de aplicação, descobrindo inferências sobre os ataques de redes e identificando as características que possibilitem uma melhor detecção destes ataques. Os resultados obtidos em três estudos de casos demonstram que a proposta melhora o desempenho de classificadores em diversos cenários de segurança, como a detecção e identificação de ataques de rede, inclusive para ataques com poucos dados disponíveis.

  • RODRIGO HENRIQUE BARBOSA MONTEIRO
  • FRAGAMES: Um Framework para Avaliação da Gamificação em Engenharia de Software

  • Data: 11/02/2022
  • Mostrar Resumo
  • A gamificação tem sido usada para motivar e envolver os participantes nas atividades de ensino e prática de engenharia de software. Existe uma demanda significativa por estudos empíricos para a compreensão dos impactos e da eficácia da gamificação. No entanto, a falta de procedimentos e modelos padronizados para a avaliação da gamificação é um desafio ao planejamento, à comparação e ao relato de resultados relacionados à avaliação das abordagens de gamificação. Por isso, o objetivo principal desta pesquisa é definir e propor procedimentos padronizados para a avaliação da gamificação em engenharia de software. Para isso, realizou-se uma revisão sistemática da literatura com o intuito de analisar o estado-da-prática da avaliação da gamificação em engenharia de software. A partir desta análise, e do modelo de avaliação GQiM, construi-se um framework para a avaliação da gamificação em engenharia de software, composto por entidades genéricas e fases de avaliação. Em seguida, foram realizadas duas provas de conceito e uma revisão por pares, para verificar e avaliar a adequabilidade do framework na instanciação de avaliações por meio de uma análise reversa da avaliação de dois estudos primários. Por último, foram realizados dois estudos de casos, onde foram aplicadas duas abordagens gamificadas que utilizaram o framework para desenhar suas abordagens avaliativas, para validar o uso do framework. Com a realização desta pesquisa, viu-se que: (1) não há modelos em uso para apoiar a avaliação da gamificação, e portanto não há padronizaçao no design, análise de dados e reporte da avaliação da gamificação em engenharia de software; (2) devido a isso, foi necessário desenvolver um framework para a avaliação da gamificação; (3) o framework desenvolvido é adequado para a instanciação de avaliações antigas e novas. No entanto, ainda é preciso: (1) realizar novas instanciações do framework para que ele seja validado, e que se confirme sua utilidade quanto a geração de dados empíricos replicáveis e comparáveis; (2) investigar e recomendar formas de análise de resultados; e (3) construir uma base de dados comum, para agilizar as etapas de sumarização e análise de resultados, bem como permitir a comparação de diferentes estudos.

  • IAN CAMPOS BEZERRA REGO
  • Estruturação e Aplicação de um Padrão de Game Design Document

  • Data: 10/02/2022
  • Mostrar Resumo
  • Os projetos de jogos apresentam características únicas em sua metodologia em comparação ao demais projetos de software, entre essas destaca-se a presença da etapa de game design, responsável por projetar todos os elementos que o jogo terá futuramente, como: sons, imagens, personagens, enredo, entre outras informações que são fundamentais para que se possa ter uma visão sobre o produto que será desenvolvido. A documentação dessa etapa tão importante também requer um documento específico para o mesmo, o game design document (GDD). Apesar da importância da execução de uma boa etapa de game design e documentação por intermédio do GDD, equipes de jogos, principalmente as menos experientes, podem encontrar dificuldades nessas etapas devido a falta de um modelo que possa orientar os itens a serem desenvolvidos, haja vista que as metodologias das grandes empresas geralmente não são compartilhadas. Nesse contexto, essa pesquisa apresenta um conjunto de etapas que contribuíram para a produção de um padrão de Game Design Document que possui metodologia, etapas, papéis e estruturas que consiguem auxiliar e orientar equipes de projetos de jogos a desenvolverem de maneira correta o seu GDD. Para a avaliação, foi aplicado um estudo de caso para a construção de um jogo.
  • REINALDO JUNIOR LOPES CARDOSO
  • Comunicação Informal e Produtividade: Impactos da pandemia de COVID-19 em profissionais de TIC

     

     

     

     

  • Data: 07/02/2022
  • Mostrar Resumo
  • A comunicação informal desempenha um papel importante na colaboração entre indivíduos. A sua existência está intimamente relacionada à proximidade física entre os envolvidos. A literatura atribui essa relação entre proximidade física e comunicação informal às oportunidades de interações e awareness (percepção/consciência) que o ambiente físico oferece. A decretação do estado de pandemia (COVID-19) provocou um cenário de home office em larga escala pelo mundo. Durante a pandemia, estudos iniciais mostraram que a comunicação informal e a colaboração, no cenário remoto, foram descritos como um dos desafios encontrados durante a pandemia. Consoante ao apresentado, este trabalho visa investigar a relação entre comunicação informal e produtividade percebida durante o período de home office e isolamento social provocado pela pandemia de COVID-19. Ele se baseia na seguinte hipótese: “SE o isolamento social afetou negativamente a comunicação informal, ENTÃO a produtividade também sofreu impactos negativos”. Para responder aos objetivos de pesquisa, o método utilizado foi o survey, através da realização de um questionário auto administrado. Respostas de 244 profissionais de tecnologia da informação e comunicação (TIC) que exerceram suas atividades em home office durante a pandemia foram coletadas. Para validação dos dados foram utilizadas técnicas estatísticas como a análise fatorial confirmatória do modelo de mensuração. Os resultados mostraram que houve prejuízo para comunicação informal durante o home office e ficou comprovado o impacto da comunicação informal na produtividade através da mediação total das variáveis interação social e bem estar emocional. Tais resultados permitem por inferência logica afirmar que a hipótese principal de pesquisa é verdadeira.

  • SEBASTIAO RODRIGUES DA COSTA NETO
  • Ferramenta de Alto Desempenho para Identificação e Remoção de Adaptadores de Dados NGS

  • Data: 07/02/2022
  • Mostrar Resumo
  • A remoção de adaptadores e regiões de baixa qualidade vindas de leituras brutas de dados gerados por plataformas NGS, é a etapa inicial dos pipelines de montagem de genomas. A remoção dessas sequências visa melhorar a qualidade dos dados na fase de montagem, permitindo melhor alinhamento entre as sequências. Além disso, desempenho em processamento é uma característica importante já que a quantidade de dados gerados pelas plataformas de alto rendimento é muito superior à quantidade real, por conta da busca por alta cobertura de regiões genômicas. Para isso, desenvolvemos o FAIR, uma ferramenta de corte de adaptadores para dados de extremidade única e emparelhada, que utiliza dois algoritmos de casamento de cadeias que se aproveitam do paralelismo intrínseco das operações sobre bits a fim, de encontrar regiões contaminantes com eficiência em processamento.

  • JAILTON WAGNER RODRIGUES TAVARES
  • Aplicação de inteligência computacional para predição de parâmetros físico-químicos da água e detecção de anomalias na piscicultura de Tambaqui na fase de juvenil

  • Data: 07/02/2022
  • Mostrar Resumo
  • Nas últimas décadas ocorreu um aumento significativo do consumo global de alimentos de peixes, paralelamente com crescimento populacional. A produção de pescado se dá de duas formas: por meio do extrativismo animal e da piscicultura. Na primeira forma, ocorre a captura em mares e rios e a segunda é baseada no cultivo de peixes em um espaço confinado e controlado. Na piscicultura se devidamente projetado e monitorado, é possível controlar com eficiência o custo de produção e tempo para comercialização dos pescados, o que não ocorre na pesca extrativista, haja vista, que o peixe encontra-se em seu habitat natural. Porém, para se alcançar a eficiência na piscicultura, o desenvolvimento tecnológico desempenha um papel importante, como exemplo, o uso de tecnologia de Internet das Coisas (IoT) neste contexto, que sensores capturem dados como temperatura, umidade e qualidade da água para monitorar de forma automatizada a piscicultura. Esses dados capturados dos sensores de IoT podem ser usados para análise, através de algoritmos de aprendizado de máquina, e fazer previsões para melhorar a qualidade do produto trazendo novas soluções com diferentes abordagens, assim minimizando o risco e desperdícios, O objetivo desse trabalho consiste em investigar algoritmos de aprendizado de máquina, e aplica-los em dados relacionados a parâmetros físico-químicos relevantes a piscicultura, obtidos por sensores de IoT, e como resultado desenvolver um modelo de aprendizado de máquina capaz de generalizar o problema de predição da qualidade da água e detecção de anomalias para piscicultura de tambaqui, em sistema de recirculação de água (SRA) fechado.

  • TIAGO DAVI OLIVEIRA DE ARAUJO
  • A model for automated support for recognition, extraction, customization and reconstruction of static charts

  • Data: 02/02/2022
  • Mostrar Resumo
  • Data charts are widely used in our daily lives, being present in regular media, such as newspapers, magazines, web pages, books, and many others. A well-constructed data chart leads to an intuitive understanding of its underlying data and in the same way, when data charts have wrong design choices, a redesign of these representations might be needed. However, in most cases, these charts are shown as a static image, which means that the original data are not usually available. Therefore, automatic methods could be applied to extract the underlying data from the chart images to allow these changes. The task of recognizing charts and extracting data from them is complex, largely due to the variety of chart types and their visual characteristics. Computer Vision techniques for image classification and object detection are widely used for the problem of recognizing charts, but only in images without any disturbance. Other features in real-world images that can make this task difficult are not present in most literature works, like photo distortions, noise, alignment, etc. Two computer vision techniques that can assist this task and have been little explored in this context are perspective detection and correction. These methods transform a distorted and noisy chart in a clear chart, with its type ready for data extraction or other uses. The task of reconstructing data is straightforward, as long the data is available the visualization can be reconstructed, but the scenario of reconstructing it on the same context is complex. Using a Visualization Grammar for this scenario is a key component, as these grammars usually have extensions for interaction, chart layers, and multiple views without requiring extra development effort. This work presents a model for automated support for custom recognition, and reconstruction of charts in images. The model automatically performs the process steps, such as reverse engineering, turning a static chart back into its data table for later reconstruction, while allowing the user to make modifications in case of uncertainties. This work also features a model-based architecture along with prototypes for various use cases. Validation is performed step by step, with methods inspired by the literature. This work features three use cases providing proof of concept and validation of the model. The first use case features usage of chart recognition methods focused on documents in the real-world, the second use case focus on vocalization of charts, using a visualization grammar to reconstruct a chart in audio format, and the third use case presents an Augmented Reality application that recognizes and reconstructs charts in the same context (a piece of paper) overlaying the new chart and interaction widgets. The results showed that with slight changes, chart recognition and reconstruction methods are now ready for real-world charts, when taking time, accuracy and precision into consideration.

  • IURI VICTOR FERREIRA COSTA
  • EmojiText: Uma Técnica de Visualização de Informação Para Análise de Frases e Sentimentos

  • Data: 21/01/2022
  • Mostrar Resumo
  • Este trabalho propõe uma visualização de texto com representação de frases e sentimentos.  Dentre as técnicas mais clássicas de visualização de texto, cita-se a nuvem de palavras, a qual não apresenta relações entre as palavras tornando-as difícil para analisar os dados gerados por essa visualização, por exemplo, a visualização de uma frase, qual momento uma palavra/frase foi mencionada no texto, etc.  No EmojiText, tem-se um gráfico de nós e arestas, onde os nós são as palavras e as arestas são as relações entre as palavras.  Cada nó possui uma dimensão e um emoji, sendo a dimensão a representação da frequência da palavra, e o emoji representa a maioria dos sentimentos associados nesta palavra. Além disso, existe também uma borda nos emojis que representam o sentimento de um conjunto de palavras inter-relacionadas que formam uma frase, ou seja, o sentimento do caminho ou ainda da frase.  Enfatiza-se que a ferramenta proposta permite as interações: zoom, filtros, detalhes sob demanda, configuração de mapeamento visual e funcionalidades de análise temporal, isso através de animações e múltiplas visualizações para comparações. O EmojiText foi desenvolvido utilizando as seguintes tecnologias: javascript, HTML, CSS com auxílio dos Frameworks D3js e Bootstrap. Para avaliar a técnica proposta serão aplicadas aos usuários tarefas de entendimento do texto e seu contexto e tarefas comuns de técnicas  baseadas em grafos, por exemplo, localização de nós e caminhos. As respostas dos testes serão avaliadas para confirmar a  eficácia da proposta.

2021
Descrição
  • SANDRO DE PAULA MENDONÇA
  • Arquitetura para Geração de Modelos de Dados Sintéticos através de Cadeia de Blocos Geradores

  • Data: 23/12/2021
  • Mostrar Resumo
  • Geradores de dados são ferramentas que produzem conjuntos de dados sintéticos, e seu uso é motivado principalmente devido o acesso restrito a dados reais, seja por privacidade, inexistência ou quantidade insuficiente de dados. Os dados sintéticos podem ser úteis na tomada de decisões, no treinamento de modelos inteligentes ou no teste de técnicas de visualização de dados, entre outros cenários de uso. A literatura aponta que embora vários tipos de geradores de dados sintéticos estejam disponíveis, a maioria deles é aplicada para contextos específicos, ou seja, cada gerador apresentará lacunas de funcionalidade para alguns cenários de uso. Esta tese propõe apresentar uma arquitetura de um gerador de modelos de dados sintéticos que agrega diversos recursos para a geração de dados tabulares genéricos, a partir de uma cadeia de blocos geradores, onde cada bloco implementa um recurso. Além disso, funcionalidades de gráfico de dados também estão disponíveis para auxiliar os usuários na análise dos dados gerados. Outra contribuição é a concepção de uma interface alternativa com metáforas visuais e interativas com novas funcionalidades de visualização de informações. Esta nova interface pretende ser mais intuitiva ao usuário, permitindo facilitar entendimento e acompanhar as alterações nos dados após cada adição e configuração de um novo gerador através de gráficos de dados. A arquitetura também suporta o processo de replicação de dados, e a ideia principal é oferecer um conjunto de gráficos de dados e índices de similaridade para ajudar os usuários a gerar conjuntos de dados sintéticos. A arquitetura proposta apresenta as seguintes características: escalabilidade (é possível adicionar novos geradores), flexibilidade (é possível adicionar novas características aos dados) e reusabilidade (é possível reutilizar os componentes do gerador em outras aplicações, como a interface proposta). Por fim, é proposta uma avaliação com base em cenários de análise de tarefas dos usuários para criação de dados sintéticos comparando as aplicações geradoras Blocks, identificando melhorias e contribuições do trabalho. 

  • MATHEUS FERREIRA VASCONCELOS
  • Melhorando a Otimização por Enxame de Partículas Com Parâmetros Auto-adaptativos, Invariância Rotacional e Controle de Diversidade

  • Data: 13/12/2021
  • Mostrar Resumo
  • Particle Swarm Optimization (PSO) é uma técnica de inteligência de enxame baseada no comportamento coletivo de cardume de peixes e bando de pássaros, que se mostra eficaz na resolução de problemas de otimização. Porém, possuem versões que são dependentes da rotação do sistema de coordenadas do problema, apresentando variância rotacional ou falta de diversidade direcional no movimento das partículas, além da sensibilidade elevada quanto à configuração de seus parâmetros e convergência prematura com perda rápida da diversidade do enxame. Este trabalho aborda essas questões, apresentando o Rotationally Invariant Attractive and Repulsive eXpanded PSO (RI-AR-XPSO) e Rotationally Invariant Semi-Autonomous eXpanded PSO (RI-SAXPSO) como melhorias das variantes Rotationally Invariant Semi-Autonomous PSO (RI-SAPSO) e eXpanded PSO (XPSO) respectivamente. São feitas avaliações na invariância rotacional dos algoritmos e no comportamento do enxame, utilizando funções clássicas da literatura e ambas propostas são testadas com os problemas de otimização do benchmark Congress on Evolutionary Computation (CEC) 2017. O estudo leva em conta testes de significância estatística dos resultados obtidos e mostra que utilizar estratégias, como realizar o controle de diversidade e ajustes automáticos de parâmetros durante a execução, bem como possuir diversidade direcional e invariância rotacional, resultam em melhorias de desempenho sem perda de eficiência da técnica.

  • ELDER BRUNO EVARISTO CORREA
  • GERÊNCIA DE PROCESSOS EDITORIAIS SOBRE BLOCKCHAIN PERMISSIONADA

  • Data: 13/12/2021
  • Mostrar Resumo
  • O cenário de governança de sistemas computacionais para submissões, revisões e compartilhamento de dados de publicações científicas, funciona por métodos com alta intermediação e centralização no controle de informações e dados. O envolvimento de entes, como, autor, revisor e editor (ou, em determinados casos, um conselho editorial), tornam os processos complexos, as operações e o fluxo de informações contidas nesses ambientes hierarquizados. Tais questões ensejam debates sobre as “ciências abertas” e métodos distribuídos, os quais apresentam abordagens para o processo científico baseadas em cenários mais cooperativos e visando novas formas de difusão do conhecimento, utilizando tecnologias digitais e novas ferramentas colaborativas, adotando ampla governança para todo o ciclo de publicações e compartilhamento de artigos científicos. Alinhado com tais princípios, este trabalho apresenta a DASP, uma solução de Editora Científica Autônoma Distribuída, executada sobre uma rede blockchain permissionada, organizada automaticamente através de contratos inteligentes, possibilitando a auditoria de todo o processo e garantindo o respeito aos direitos autorais dos entes envolvidos no processo editorial, além de diminuir os custos de implementação e complexidade dos mecanismos editoriais. Para avaliação da proposta foi desenvolvido um cenário de gerenciamento editorial com os processos básicos de submissão, revisão e avaliação de artigos, com a aplicação da ISO 25023, onde definimos fases de coleta, especificando os indicadores definidos de acordo com funcionalidades desenvolvidas na proposta. A avaliação indicou as virtudes e os pontos que necessitam de melhorias, seja na implementação ou mesmo na edição de regras do contrato que organiza a lógica de negócio, filtros de acesso, regras de hierarquização entre autor, revisor e comunidade acadêmica.

  • DIEGO ASSIS DA SILVA LISBOA
  • Um Estudo Observacional sobre as Adaptações de uma Equipe de Desenvolvimento de Software Ágil ao Trabalho Remoto no Contexto da Pandemia de COVID-19

  • Data: 06/12/2021
  • Mostrar Resumo
  • As restrições do isolamento social adotadas para conter a disseminação da pandemia da COVID-19 levaram muitas empresas a adotar o trabalho remoto de maneira obrigatória e não planejada. Esta transição repentina tem causado profundas mudanças nas relações pessoais e profissionais. Nesta dissertação, serão apresentados os resultados de um estudo observacional qualitativo sobre as adaptações realizadas nas atividades do processo de desenvolvimento de software de uma coordenação de tecnologia da informação de uma pró-reitoria de uma universidade brasileira. Estas adaptações visaram apoiar a transição para o trabalho remoto durante a pandemia. Elas foram analisadas com base no framework teórico de Olson e Olson (2000) para colaboração distribuída. As motivações para as adaptações e os desafios observados também são apresentados. Adicionalmente, também são mostradas adaptações aos aspectos técnicos (hard skills) e comportamentais (soft skills) observados entre os membros da organização pesquisada e as principais adaptações em relação as práticas ágeis adotadas. A partir destes resultados, essa pesquisa apresenta recomendações para facilitar a adaptação ao trabalho remoto em equipes que atuam com desenvolvimento de software.

  • MAYKON ARAUJO DE SOUZA
  • Uma Abordagem para a Implementação do Capítulo VII da LGPD a partir dos Ativos do MOSE Competence

  • Data: 06/12/2021
  • Mostrar Resumo
  • A Lei Geral de Proteção de Dados (LGPD) foi promulgada em sua plenitude em agosto de 2021, mas relatórios apontaram que a maioria das organizações brasileiras ainda não está aderente à Lei. Diante disso, procurou-se formular uma série de hipóteses que se provaram verdadeiras e, assim permitiu a construção de um conjunto de orientações para ajudar na implementação da LGPD nas organizações com o objetivo de prover uma melhora no cenário apontado pelas pesquisas. A primeira etapa dessa dissertação conseguiu provar uma relação entre os ativos do Capítulo VII da LGPD e o Modelo de Qualidade MOSE (Modelo Orientador para Sucesso do Empreendimento) Competence, enquanto que na segunda fase deste trabalho foi apresentado um conjunto de orientações para a implementação do Capítulo VII nas organizações a partir das práticas do MOSE. Por fim, para a validação completa da dissertação, foi construído um cenário simulado que foi avaliado utilizando a análise SWOT (Strengths, Weakenesses, Opportunities, Threats).

  • MICHEL PINHEIRO MONTENEGRO
  • Aplicação de índices de qualidade de cluster no processo de geração automática de algoritmos de agrupamento

  • Data: 02/12/2021
  • Mostrar Resumo
  • O AutoClustering é uma ferramenta computacional para a geração automática de algoritmos de agrupamento, que combina e avalia as principais partes dos algoritmos para gerar soluções mais apropriadas para um determinado conjunto de dados no que se refere a tarefas de agrupamento. O AutoClustering usa a técnica evolutiva conhecida como Algoritmos de Estimativa de Distribuição (Estimation of Distribution Algorithms-EDA) para criar os algoritmos de agrupamento (considerados como indivíduos pelo EDA) e o método Clest adaptado para calcular de forma objetiva o fitness usando um classificador (Ex.: árvore de decisão) e determinando a qualidade dos algoritmos de agrupamento. Este trabalho propõe melhorar a eficiência do processo de avaliação do AutoClustering, adicionando uma métrica que une três índices de qualidade de clusters. Os três índices de qualidade são cluster Dunn IndexSilhouette Index e Davies-Bouldin Index, que avaliam a situação Intra e Inter clusters, com algoritmos baseados na distância e independentes da geração dos grupos. Na avaliação da abordagem proposta foram realizados testes comparativos com o modelo original proposto na ferramenta Autoclustering. Para isso foram utilizadas quatro bases de domínio público e pertencentes ao repositório de dados públicos da UCI, tendo neste experimento 10 rodadas com cada rodada tendo 500 gerações a serem executadas. Para demonstrar os resultados do modelo implementado com o do Autoclustering, foram utilizadas técnicas de visualização da informação tais como Aluvial e Treemap. Os resultados obtidos indicam que o modelo proposto tem o fitness mais elevado e maior diversidade de indivíduos gerados (algoritmos de agrupamento) quando comparados com o modelo original.

  • IGOR FURTADO CARVALHO
  • HOD-VNF: A VNF PLACEMENT SCHEME BASED ON HIGHER-ORDER DEPENDENCIES TO IMPROVE SERVICE FUNCTION CHAINING

  • Data: 08/10/2021
  • Mostrar Resumo
  • A Virtualização de Funções de Rede (Network Function Virtualization - NFV) permite instanciar e executar Funções Virtuais de Rede (Virtual Network Functions} - VNFs) em servidores de propósito geral para o fornecimento de serviços por meio do Encadeamento de Funções (Service Function Chaining - SFC). Com base nisso, um grande desafio neste domínio é projetar um esquema de alocação de VNFs que otimize o uso de recursos e forneça serviços, tanto eficazmente quanto eficientemente. Desta forma, os operadores da infraestrutura geralmente tendem a selecionar os servidores com base nas informações sobre uso e consumo de recursos das VNFs, prazo para a execução do serviço ou alguma informação topológica, como caminhos mais curtos com restrição de atraso. No contexto da alocação das VNFs, as abordagens existentes tratam as SFCs como um conjunto de requisitos de recursos de hardware mais conectividade, buscando alocá-las em nodos da topologia a fim de otimizar métricas de desempenho dos serviços executados. Tais abordagens, no entanto, desconsideram uma característica fundamental de SFC, que é o relacionamento entre as VNFs dentro da cadeia. Este relacionamento é expresso por dependências de mais alta ordem (Higher-Order Dependencies - HODs), o qual permite identificar quais sequências de VNFs compartilham os mesmos serviços ou serviços similares. Quando tal característica é desconsiderada na concepção de um mecanismo de alocação de VNFs, é possível que elas sejam alocadas distantes uma das outras, resultando em um maior uso de recursos e um maior tempo para execução dos serviços. Desta feita, esta tese propõe um mecanismo de alocação de VNFs baseado no relacionamento das VNFs dentro da cadeia, expresso pelas HODs. A partir delas, é possível identificar quais sequências de VNFs tendem a compor os serviços executados e, com isso, realizar a alocação das mesmas em nodos estratégicos, a fim de maximizar a taxa de serviços aceitos e minimizar o tempo médio dos serviços executados. Isso permite que os provedores de serviços tenham uma visão mais precisa da dinâmica do seu ambiente, resultando em uma melhor gestão dos recursos disponíveis e provendo serviços com o melhor desempenho possível. Como forma de validar a proposta apresentada nesta tese, três cenários foram utilizados para comparar o desempenho da proposta HOD-VNF com outras quatro. Os resultados mostraram que a HOD-VNF superou as demais na taxa de aceitação de serviços (63 % melhor que a segunda melhor proposta), além de obter um tempo médio de atraso-fim-a-fim duas vezes menor que a segunda melhor proposta. 

  • EDWIN JAHIR RUEDA ROJAS
  • Identificação de candidatos a genes de referência utilizando Redes Geradoras Adversárias

  • Data: 30/09/2021
  • Mostrar Resumo
  • Os Genes de referência (GR) são genes constitutivos necessários para a manutenção das funções celulares básicas. Estes genes são usados como controle interno em técnicas de análise de expressão gênica, como qRT PCR, pois seu nível de expressão permanece constante ou sua variação é insignificante em diferentes condições de estresse. Estes genes devem mostrar a variabilidade resultante das imperfeições da tecnologia empregada e dos procedimentos de preparo, o que garante que qualquer variação na quantidade de material genético estará relacionada à mesma medida do objeto de investigação e controle, daí sua importância para identificá-los. iferentes tecnologias de alto rendimento são utilizadas para identificar estes tipos de genes, incluindo o sequenciamento de RNA (RNA-seq), o qual permite medir os níveis de expressão gênica em um tecido específico ou em uma célula isolada. Assim, também existem técnicas de identificação in-silico baseadas principalmente em algoritmos de agrupamento, onde o principal obstáculo é o baixo número de genes de referência identificados na literatura, o qual varia dependendo da célula ou tecido estudado. É por esta razão que nesta pesquisa é apresentado um método proposto baseado em algoritmos de geração de dados sintéticos (modelos adversários) para mitigar o obstáculo descrito acima. O método proposto para a identificação in-silico de candidatos a genes de referência consiste em quatro etapas principais. Primeiramente, o conjunto de dados RNA-seq é pré-processado para posteriormente (na segunda etapa) empregar redes adversárias para aumentar o conjunto de genes de referência. Assim, na terceira etapa é treinado um detector de novidades com o conjunto de genes aumentados para a identificação de genes candidatos. Finalmente, Na quarta etapa, usando a pontuação recall, validamos o desempenho do detector de novidades proposto na terceira etapa. O método proposto foi validado com o conjunto de dados Escherichia coli, identificando 691 genes candidatos de um total de 4.168 genes não classificados. Os resultados mostram que aumentar o conjunto de dados usando o modelo adversário proposto melhora a pontuação do classificador em um 20% nos dados de teste. A principal contribuição da metodologia proposta foi reduzir em até 3% a quantidade de genes a serem testados no laboratório como genes de referência ou não.

  • ALEXANDRE HENRIQUE ICHIHARA PIRES
  • Gráficos de Sumarização para Grupos com Alta Densidade de Itens Visuais no Treemap Squarified

  • Data: 24/09/2021
  • Mostrar Resumo
  • O objetivo desta dissertação é investigar a utilização de técnicas e codificações visuais que apresentam dados sumarizados para mitigar a limitação de apresentação de dados em Treemaps com alta densidade de dados, impondo dificuldade de interpretação dos dados ao usuário. Por exemplo, gráficos barras simples e box plots foram adicionados em cenários de Treemaps Squarified. A hipótese geral é que os gráficos de sumarização permitirão obter informações úteis de um grupo de itens, possibilitando realizar tarefas de comparação entre grupos e análise de distribuição de valores nos grupos sem comprometer a leitura hierárquica da técnica. Para avaliação da proposta, cenários de análise de dados são apresentados a dois grupos de usuários com perfils semelhante, cenários com sem gráficos de sumarização, para realização de tarefas de visualização, tais como: identificação de máximos e mínimos, comparação de grupos, navegação etc. Para a comparação entre os grupos, informações quantitativas e qualitativas foram coletadas, tais como: tempo e resposta de tarefas, realização de entrevista e aplicação de formulários. Por fim, os resultados serão analisados por meio de métodos estatísticos para confirmar ou não a hipótese de eficácia do uso de gráficos de resumo no Treemap Squarified.

  • KLEBER PADOVANI DE SOUZA
  • Uma abordagem de aprendizado por reforço para o problema da montagem de novo de fragmentos de DNA

  • Data: 13/09/2021
  • Mostrar Resumo
  • A montagem de genomas é uma das tarefas mais relevantes e computacionalmente complexas dos projetos genômicos. A qualidade do genoma obtido é altamente relevante porque quanto mais confiável o genoma alcançado mais acuradas são as compreensões possíveis dos comportamentos e características dos seres vivos analisados - o que, por sua vez, gera diversos impactos positivos na sociedade, incluindo a melhoria de diagnósticos, prevenção e tratamento de doenças. Apesar de existirem diversos montadores disponíveis, não existe um único montador que seja adequado para a montagem de genomas de quaisquer organismos e, adicionalmente, os resultados produzidos pelos montadores ainda podem apresentar erros e estão sujeitos a melhorias. O uso de aprendizado por reforço tem se mostrado muito promissor para resolução de atividades complexas sem requerer supervisão humana durante o treinamento dos agentes inteligentes. No entanto, as aplicações de aprendizado por reforço estão predominantemente focadas em problemas de entretenimento - como é o caso dos jogos. Assim, um dos grandes desafios atuais da ciência da computação é a aplicação de aprendizado por reforço em problemas do mundo real. Com base nisso, esse trabalho tem como objetivo lançar luz sobre a aplicação do aprendizado por reforço para resolução do problema da montagem de fragmentos de DNA, um problema do mundo real para o qual ainda inexistem soluções robustas baseadas em aprendizado por reforço para sua resolução. Por meio da expansão da única abordagem disponível na literatura, foram cuidadosamente explorados os aspectos do treinamento do agente inteligente, realizado pelo algoritmo Q-learning, para avaliação de sua adequação para ser aplicado em cenários cujas características são mais similares às realidades enfrentadas por projetos genômicos reais. As melhorias propostas neste trabalho incluem a mudança do sistema de recompensas anteriormente proposto, a inclusão de estratégias de otimização de exploração do espaço de estados baseadas em podas dinâmicas de ações e na colaboração mútua entre aprendizado por reforço e computação evolucionária. Foram produzidos e disponibilizados livremente 23 ambientes de aprendizado por reforço, que foram utilizados para a experimentação. Os resultados obtidos sugerem uma melhoria consistente de desempenho com as estratégias propostas, contudo, eles também demonstraram suas limitações ao cenário real, especialmente considerando as altas dimensionalidades dos espaços de estados e ações.

  • ABRAHAM LINCOLN RABELO DE SOUSA
  • Um Método de Apoio a Modelagem e Simulação de Redes Bayesianas para o Gerenciamento de Projetos de Desenvolvimento de Software

  • Data: 31/08/2021
  • Mostrar Resumo
  • Nos últimos anos, muitos pesquisadores de Engenharia de Software têm se concentrado em métodos, técnicas, ferramentas e processos para apoiar o Gerenciamento de Projetos de Desenvolvimento de Software (GPDS). Apesar dos avanços na área, a literatura especializada indica a necessidade de estudos que permitam a investigação, racionalização e a ampliação do nosso entendimento sobre os fenômenos que afetam todo o processo de desenvolvimento de software. Assim, a modelagem e simulação de projetos de software tem se destacado em relação a outros tipos de estudos experimentais por viabilizar a experimentação virtual proporcionando menor consumo de recursos e tempo, além de agilizar o tempo de resposta ao fenômeno investigado. Nesse sentido, o uso de redes de Bayesianas (RB) ganhou atenção por fornecer um mecanismo poderoso de modelagem e simulação que permite a análise de causa-efeito com dados qualitativos e/ou quantitativos e, assim, fornece apoio à tomada de decisões sob incerteza. O objetivo principal deste trabalho é propor um método de apoio a modelagem e simulação com redes Bayesianas aderente ao gerenciamento de projetos de desenvolvimento de software. Para isso, foram desenvolvidos um método de apoio a modelagem e simulação e um modelo conceitual que contextualiza o uso das redes Bayesianas durante o gerenciamento de projetos. Este trabalho adotou a Design Science Research (DSR) como arcabouço metodológico para a condução do estudo e contou com a colaboração de duas empresas de desenvolvimento de software sediadas em Belém – PA. Para avaliar o método proposto foi realizado um estudo piloto em ambiente laboratorial e um estudo em ambiente real que resultaram na definição de duas redes Bayesianas. O método proposto contribuiu para a área de gerência de projetos de desenvolvimento de software preenchendo a lacuna identificada na literatura a respeito da falta de detalhes sobre os procedimentos metodológicos que orientam a modelagem e simulação de redes Bayesianas para a gestão de projetos reais de desenvolvimento de software. 

  • LENNON SALES FURTADO
  • Um Método para Apoio ao Ensino de Medição de Software Baseado em Gamificação e Jogos Sérios

  • Data: 30/08/2021
  • Mostrar Resumo
  • Programas de melhoria de processos de software têm um dos fundamentos no processo de medição de software. Mesmo com tamanha importância, a literatura ressalta que muitos alunos estão deixando a academia sem a capacidade de conduzir tal processo. E isso pode ser entendido pela maneira como esse processo é encarado, a saber, demorado e difícil de entender. Ademais, é notório a ausência de fatores que motivem o domínio do processo de mensuração de software durante a vida acadêmica dos alunos. Neste contexto, a aplicação de jogos sérios e gamificação, tem se mostrado como alternativas interessantes no contorno desta problemática. Porque tais abordagens são bem aceitas pelos distintos perfis de estudantes e podem ter um efeito motivador e engajador para estes. Um dos objetivos deste trabalho é identificar diferentes abordagens no ensino de medição de software e melhoria de processos de software por propostas de gamificação e jogos sérios através de uma revisão sistemática da literatura. Buscando caracterizar o estado da arte sobre o uso de métodos relacionados à gamificação e jogos sérios nos referidos assuntos. Ademais, a revisão sistemática foi realizada para identificar estudos primários que abordam o uso, proposta ou avaliação de gamificação ou jogos sérios, seus elementos e mecânica de jogo aplicados em engenharia de software. Para assim, apresentar um método para apoio ao ensino de medição de software baseado em gamificação e jogos sérios. Sendo que este método tem por finalidade incentivar a interação em sala de aula e com isso fomentar o interesse pelo referido processo. Este método de apoio foi validado por meio de dois estudos de casos aplicados com o total de 22 estudantes, onde os alunos aplicavam diferentes critérios para avaliar os módulos da abordagem. Como resultados, foi possível identificamos 137 estudos primários, publicados entre 2000 e 2019. E foi obtido um nível de mais de 80% de avaliações com os critérios bom e excelente em um dos estudos de casos. Sendo que o método de apoio ao ensino de medição proposto ajudou através da criação de um ambiente competitivo e colaborativo com o cerne nas interações em sala de aula.

  • ITALO RAMON DA COSTA CAMPOS
  • Sistema Multiagente Reativo Aplicado à Autorrecuperação de Smart Grids com Balanceamento de Tensão

  • Data: 30/08/2021
  • Mostrar Resumo
  • Este texto apresenta uma proposta de Sistema Multiagente do tipo reativo aplicado ao problema de autorrecuperação de smart grids, utilizando coordenação por troca de mensagens para reconfigurar a topologia da rede. Esta abordagem utiliza o balanceamento de tensão como ferramenta para auxílio na tomada de decisão dos agentes, favorecendo conexões que possuam perfis de tensão mais adequados no contexto local de cada agente. O trabalho também apresenta o algoritmo utilizado para coordenar, de maneira descentralizada, as ações dos agentes durante o processo de reconfiguração. A abordagem proposta leva em conta três restrições para validar as soluções geradas: a) restrição de nível de corrente; b) restrição de nível de tensão e; c) restrição de radialidade. O Sistema Multiagente foi implementado utilizando o framework de desenvolvimento PADE e teve seus resultados avaliados mediante a comparação com dois outros métodos, os quais foram empregados como uma espécie de benchmark: uma implementação de Busca Tabu e uma implementação de busca por Força Bruta. A busca por Força Bruta serviu como um limite superior para as comparações dos resultados produzidos pelo Sistema Multiagente e pela Busca Tabu, de modo a medir o desempenho desses métodos frente aos resultados ótimos nos cenários. Os métodos foram executados em 39 cenários distintos, utilizando três sistemas de teste: o IEEE 16-bus, o IEEE 33-bus e o IEEE 119-bus. Devido a limitações computacionais, foi possível executar a busca por Força Bruta apenas nos cenários com o modelo IEEE 16-bus. Os resultados do trabalho foram colhidos por meio de simulação computacional em cenários idênticos para os três métodos, sendo estes tabulados para posterior análise e comparação. Os resultados mostraram que o Sistema Multiagente obteve melhor desempenho que a Busca Tabu em quatro tipos de comparação: valor na função-objetivo, percentual de barras recuperadas, tempo de resposta e número de operações de chaveamento. Além disso, constatou-se que, para cenários onde o espaço de busca é consideravelmente maior, a diferença de desempenho dos métodos cresce notavelmente, favorecendo a abordagem com Sistema Multiagente.

  • RODRIGO SANTOS DO AMOR DIVINO LIMA
  • Uma Técnica de Visualização e Derivação de Dados para Auxiliar no Diagnóstico de Mecanismos de Dados Faltantes

  • Data: 23/07/2021
  • Mostrar Resumo
  • Valores faltantes são um problema generalizado e presente na maioria dos processos de coleta de dados. Há vários métodos para lidar com esse problema, e a escolha de um depende do diagnóstico do mecanismo de dados faltantes — a maneira como dados faltantes se correlacionam com as variáveis observadas. Uma forma de diagnosticar o mecanismo é comparando pares de variáveis usando visualizações de dados. No entanto, as visualizações comumente usadas para essa tarefa usam codificações visuais que não foram projetadas especificamente para isso, fazendo com que os usuários busquem ativamente pistas nos dados para auxiliar o raciocínio, ao invés de mostrar explicitamente essas dicas. Assim, esta dissertação propõe um idioma visual-interativo que auxilia proativamente no diagnóstico de mecanismos de dados perdidos por meio da quantificação e exibição de pistas de análise. O idioma inclui escolhas de design para codificações visuais e interações para auxiliar o diagnóstico, e um algoritmo de derivação de dados que quantifica duas métricas (pistas) para auxiliar o raciocínio: plausibilidade de distribuição (a probabilidade de que a distribuição de dados faltantes se correlaciona com os valores observados) e plausibilidade de co-ocorrência (a probabilidade de que os dados faltantes nas variáveis sejam causados pelo mesmo processo ou por processos relacionados). Esta dissertação mostra a técnica proposta e apresenta um teste de usabilidade realizado para avaliá-la em comparação com a matriz de nulidade, a visualização mais comum usada para a tarefa de diagnóstico de dados faltantes.

  • ANA LARISSA DA SILVA DIAS
  • Towards a Free, Forced Phonetic Aligner for Brazilian Portuguese Using Kaldi Tools

  • Data: 09/07/2021
  • Mostrar Resumo
  • Phonetic analysis of speech, in general, requires the alignment of audio samples to its phonetic transcription. This task could be performed manually for a couple of files, but as the corpus grows large it becomes unfeasibly time-consuming, emphasizing the need for computational tools that perform such speech- phonemes alignment automatically. Currently, there are several open-source forced alignment tools available. The majority of them is build upon HTK, a widespread speech recognition toolkit, but the most recent aligners use Kaldi, a toolkit that has been the state of the art for open-source speech recognition providing deep neural network (DNN) framework to acoustic modeling among others advantages over HTK. Although there are several free forced aligners available, they often provide acoustic models only for languages that have more available free speech resources, such as English. Therefore, the Falabrasil, a research group on speech processing and natural language for Brazilian Portuguese (BP) from Federal University of Pará, works hard in order to mitigate the gap of resources for BP providing phonetic dictionaries, language models, acoustic models, voice and text corpora, and among others, a HTK-based automatic phonetic alignment tool for BP called UFPAlign. Hence, due to the scarce availability of tools for BP and to update the FalaBrasil’s HTK-based aligner, we describe the evolution process towards creating a free phonetic alignment tool for BP using Kaldi toolkit. The updated UFPAlign works under Linux environments and provides a user-friendly graphical interface as a plugin to Praat, a free software package for speech analysis in phonetics. The contributions of this work are then twofold: developing resources to perform forced alignment in BP through UFPAlign, including five acoustic models build via Kaldi, under open licenses; and bringing forth a comparison to other two phonetic aligners that provide resources for BP, the outdated HTK-based UFPAlign and Montreal Forced Aligner (MFA), the latter being also Kaldi-based. Evaluation took place in terms of the phone boundary metric over a dataset of 200 hand- aligned utterances, and results show that Kaldi-based aligners perform better overall, and that the models from the updated UFPAlign are more accurate than MFA’s. Furthermore, complex deep-learning-based approaches did not seem to improve performance compared to simpler models.

  • FLÁVIO RAMON ALMEIDA DE SOUZA
  • Uma Proposta para o Reconhecimento de Imagens Faciais Digitais Aplicada às Redes Neurais Artificiais

  • Data: 02/07/2021
  • Mostrar Resumo
  • Os sistemas de controle de tráfego humano são utilizados em cidades que possuem um grande fluxo de pessoas, principalmente em locais como aeroportos, praças, shoppings e trânsito, sendo, por isso, cada vez mais comum o uso em aplicações de autenticação biométrica onde a imagem facial é usada para identificar pessoas previamente cadastradas, em alguns casos, localizando suspeitos em meio a uma multidão ou até mesmo, auxiliando na busca de pessoas desaparecidas. Para isso, são utilizados softwares que filtram a imagem usando técnicas de Processamento de Imagem afim de definir padrões e simplificar a busca, agilizando dessa forma, o processamento. Em muitos casos, com o objetivo de automatizar a detecção, são utilizados algoritmos de aprendizado de máquina, como por exemplo, as Redes Neurais Artificiais. Soluções como estas, realizam comparações em tempo real, desconsiderando mudanças simples, como envelhecimento, barba, bronzeamento e acessórios, como o uso de óculos ou chapéus. Neste trabalho, é proposta uma metodologia para reconhecimento facial que, após realizar o tratamento da imagem através de filtros como o Gaussiano, Mediana, Bilateral e Equalizador de Histograma, aplica-se o algoritmo bordas Canny, e transforma a imagem resultante, em um vetor binário o qual é utilizado como entrada em uma Rede Neural para extrair padrões da face e realizar a detecção facial. A proposta se mostrou promissora com acertos superiores a 80%, o que permite, dessa forma, que a metodologia proposta seja utilizada, independente do filtro aplicado na imagem.

  • SARA DAS MERCES SILVA
  • Uso da Realidade Aumentada no Ensino Médio: Um Estudo de Caso aplicado às Ciências Exatas contextualizado ao Ciclo de Queimadas na Amazônia.

  • Data: 30/06/2021
  • Mostrar Resumo
  • A Realidade Aumentada vem sendo utilizada em diferentes áreas de conhecimento, tais como: medicina e saúde, arquitetura e projetos, artes e educação, onde surge como um recurso da Computação para atender as possíveis necessidades dos professores, pois possibilita a mescla de informações virtuais em objetos do mundo real. Sendo assim, a Realidade Aumentada pode ajudar no ensino de disciplinas que abrangem conteúdos mais abstratos das Ciências Exatas. Este trabalho apresenta um projeto interdisciplinar para o ensino de Ciências no ensino médio, através de recursos de Realidade Aumentada nas disciplinas de Química, Física e Matemática. O projeto é baseado na abordagem Ciência-TecnologiaSociedade-Ambiente que objetiva desenvolver o senso crítico dos estudantes sobre a Ciência, a Tecnologia, a Sociedade e o Meio Ambiente. As atividades são contextualizadas à realidade dos alunos, por meio de uma sequência didática focada no ciclo de queimadas na Amazônia, considerando que o público alvo do projeto são estudantes e professores de escolas públicas da região amazônica. Para subsidiar a execução do projeto junto aos alunos e professores, construiu-se uma ferramenta online de Realidade Aumentada, intitulada CiênciAR. A ferramenta passou por avaliação com especialistas, por meio do teste educacional PETESE. Os resultados mostraram que, segundo mais de 80% dos especialistas, o CiênciAR pode ser aplicado nas aulas remotas e presenciais, promover a interdisciplinaridade e contribuir para melhorar a visualização de conteúdos abstratos, além de permitir a discussão do ciclo de queimadas na Amazônia.

  • EMANUEL AMORAS RODRIGUES
  • UM ESTUDO EXPLORATÓRIO DOS FATORES DE ADOÇÃO DE ECOSSISTEMAS DE SOFTWARE EM NUVEM

  • Data: 26/05/2021
  • Mostrar Resumo
  • Nos últimos anos, um número crescente de empresas de software tem adotado estratégias diferenciadas para atrair desenvolvedores externos para suas plataformas. Essas empresas tornam suas plataformas mais flexíveis e atraentes, de modo que tal flexibilização proporciona o surgimento dos chamados ecossistemas de software. Devido ao crescente mercado para a nuvem, as plataformas tornaram-se particularmente interessantes para estas empresas.Na literatura, estudos anteriores tratam da adoção de ecossistemas de software em relação ao desenvolvimento mobile e desktop (DE SOUZA, 2016), deixando inexplorado o desenvolvimento na nuvem. Nesse sentido, esta pesquisa busca preencher tal lacuna ao buscar compreender os critérios utilizados pelos desenvolvedores de aplicações para nuvem a adotar determinada plataforma. Mais especificamente, busca-se verificar os aspectos técnicos, de negócios, sociais e individuais que influenciam os desenvolvedores a escolher uma determinada plataforma para nuvem. Para isso, esta pesquisa qualitativa de cunho exploratório deu-se em duas fases: na primeira, um questionário foi administrado com 63 participantes de comunidade de desenvolvedores em nuvem e, na segunda, entrevistas semiestruturadas foram conduzidas com 16 participantes. A análise dos dados baseou-se nas técnicas de codificação da Teoria Fundamenta nos Dados (CHARMAZ, 2006; STRAUSS; CORBIN, 2008).

  • RAFAEL MARTINS FEITOSA
  • Um Modelo de Ambiente Inteligente de Aprendizagem para Auxiliar a Curadoria Educacional

  • Data: 05/04/2021
  • Mostrar Resumo
  • A sobrecarga de informação é um fenômeno que resulta na perda de tempo na busca de material de estudo relevante, escassez de atenção e falta de retenção do conteúdo aprendido, entre outros fatores prejudiciais para a aprendizagem. Considerando este grande volume de informações em um contexto educacional, diversos autores apontam para o uso da curadoria como atividade essencial para o tratamento deste excesso. Como a curadoria é uma tarefa que requer investimento contínuo de tempo e esforço, Sistemas de Recomendação e de Recuperação da Informação tem sido empregados para ajudar a encontrar e sugerir itens relevantes baseados no objetivo dos usuários. Neste processo de recomendação, as opiniões de outros usuários também são percebidas como importantes para a escolha de itens relevantes. Dessa forma, este trabalho tem como objetivo propor um modelo computacional que integra técnicas de Recuperação da Informação, Sistemas de Recomendação e Mineração de Opinião, visando apoiar a realização de curadoria educacional e orientação de estudos em ambientes inteligentes de aprendizagem. No modelo proposto os materiais educacionais disponíveis, além de serem cadastrados pelos usuários também são sugeridos automaticamente a partir de repositórios de objetos de aprendizagem, plataformas de conteúdo e web crawling. Para identificar lacunas de conhecimento do estudante é realizado um teste de nivelamento para uma disciplina escolhida. A partir dessas necessidades identificadas são sugeridos tópicos e materiais de estudos de forma adaptada. Essa recomendação também leva em consideração os comentários de outros usuário sobre estes materiais através de processamento automático pela Mineração de Opinião. Para validação desta abordagem foi desenvolvido um ambiente virtual inteligente de aprendizagem baseado no modelo proposto. Este ambiente foi utilizado em uma sessão de treinamento profissional de curto período com 13 participantes e em seguida foi aplicado um questionário com seis itens sobre o tema de estudo antes e após o uso do ambiente e houve um aumento na média de acertos após o estudo pelo ambiente. Para avaliação do módulo de Mineração de Opinião foi utilizado um dataset criado a partir da avaliação semestral respondida por estudantes, no qual foi comparado o resultado do processamento automático com a anotação manual de uma pessoa, alcançando um resultado de Medida F1 de 0,787. Posteriormente o sistema foi avaliado por 23 alunos universitários quanto a recomendação e usabilidade do sistema, alcançando 84,3 pontos na escala de usabilidade do sistema (SUS). Portanto, com base nos resultados encontrados o uso do ambiente baseado no modelo proposto se mostra promissor para auxiliar a curadoria educacional e assim contribuir para um melhor processo de ensino-aprendizagem.

  • ALAN TONY SOUZA VELOSO
  • Padrões de Projeto para Estruturas Organizacionais de Multi-Contratos Inteligentes

  • Data: 26/03/2021
  • Mostrar Resumo
  • Atualmente, diferentes áreas de pesquisa e aplicações estão usando blockchain e contratos inteligentes para fornecer segurança, transparência, imutabilidade, inviolabilidade, resiliência e outros atributos aos sistemas. Esses sistemas podem usar múltiplos contratos inteligentes que interagem diretamente uns com os outros para atingir seus objetivos -- em outras palavras, eles formam um sistema de Multi-Contratos Inteligentes (Multi-Smart Contracts - MSC). Decorrente da semelhança de MSC com Sistemas Multiagente (Multiagent System - MAS), este estudo apresenta padrões de projeto das estruturas organizacionais baseado na literatura de MAS adaptados para MSC, que são Hierarchy, Team, Federation, Market e Matrix. O estudo descreve em detalhes esses padrões de projeto e como eles são empregados na MSC, a fim de facilitar a avaliação comparativa dos mesmos. O objetivo é permitir que os projetistas de MSC conheçam o espectro atual de possibilidades e, então, guie a seleção de uma estrutura organizacional apropriada, considerando seus prós e contras para um determinado domínio de aplicação.

     

  • LUCAS TAVARES MONTEIRO
  • UMA ABORDAGEM BASEADA EM PROCESSO E FERRAMENTA DE SOFTWARE PARA APOIO À GERÊNCIA DE RECURSOS HUMANOS NO CONTEXTO DE SOFTWARE

  • Data: 22/02/2021
  • Mostrar Resumo
  • Atualmente, várias empresas estão buscando por métodos para melhorar seus processos de desenvolvimento de software, utilizando modelos de qualidade como base. Dentro desses modelos de qualidade, existe um processo chamado Gerência de Recursos Humanos (GRH), que embora seja extremamente importante para o ciclo de vida do processo, muitas empresas ainda têm dificuldades em implementá-lo. Portanto, este trabalho tem o propósito de criar um processo de GRH utilizando uma abordagem multi-modelo para realizar sua adaptação à uma ferramenta de apoio. Para tal, foi realizado um mapeamento entre ambos os processos de GRH do MR-MPS-SW e da ISO/IEC 12207, para servir de fundamento para a modelagem do processo de GRH. Após isso, o processo foi modelado e verificado, servindo de orientação para sua adaptação em uma ferramenta de apoio, sob o qual foi feito um estudo de caso como validação. Como resultado, foi criado um processo que atende os processos de GRH de ambos os modelos, juntamente com um guia de adaptação a um software livre de gestão, podendo ser utilizado para dar suporte à criação ou melhoria dos processos de desenvolvimento das organizações.

  • LEONARDO CHRISTIAN FERREIRA DA COSTA
  • Uma Abordagem baseada em Processo e Ferramenta de Software para apoio à Verificação e Validação de Software

  • Data: 22/02/2021
  • Mostrar Resumo
  • Os processos de validação e verificação mostram-se cada vez mais fundamentais no mercado de desenvolvimento de software, uma vez que são base para as atividades de garantia de qualidade dos produtos e, consequentemente, para a maior satisfação dos usuários. Visando também a garantia de qualidade, grande parte das produtoras de software buscam aderir aos diversos normativos para melhoria no processo de software, uma vez que estes servem como suporte e guia para a aplicação das melhores práticas quando a questão é a produção de software. Neste contexto, este trabalho teve como objetivo apresentar um material guia para a aplicação de um processo de validação e verificação baseado em dois normativos amplamente conhecidos no cenário mundial, a norma ISO/IEC/IEEE 29119 e o modelo CMMI-DEV. Para isso, esta pesquisa utilizou-se da técnica de harmonização de modelos com a finalidade de identificar semelhanças entre os normativos selecionados. A partir dessa técnica, gerou-se um mapeamento que apontava o nível de aderência entre os normativos e, por meio desse mapeamento, atividades e artefatos de Validação e Verificação (V&V) foram propostos e organizados em um processo. Além disso, este estudo teve como objetivo apresentar, também, uma ferramenta adequada para dar suporte ao processo de V&V, provendo mais velocidade, eficiência e eficácia às atividades levantadas pelo estudo. Para tal, esta pesquisa propôs a realização de uma análise de ferramentas open source de suporte à execução e gerência de processos associados a testes de software e, por meio dessa análise, selecionou a fermenta mais aderente ao processo. Baseado na ferramenta selecionada, uma forma de uso da ferramenta foi proposta de tal forma que todos os objetivos das atividades do processo fossem atendidos de maneira completa e total. Como resultados, o trabalho obteve um conjunto de materiais e análises que viabilizam e dão suporte à aplicação de um processo de validação e verificação originado de uma harmonização de modelos. Desta forma, o estudo apresentado entrega à comunidade acadêmica e à indústria um processo para aplicação de práticas de validação e verificação aderente aos normativos CMMI-DEV e a ISO/IEC/IEEE 29119, determina uma ferramenta de suporte ao processo proposto, entrega um manual de uso da ferramenta indicada, bem como uma análise geral sobre a ferramenta e processo de V&V.

2020
Descrição
  • ERICK MODESTO CAMPOS
  • Desenvolvimento e Avaliação de Interfaces Alternativas Baseadas em Interações Não Convencionais Para o Clique do Mouse.

  • Data: 30/11/2020
  • Mostrar Resumo
  • A constante renovação da tecnologia implica na criação de maneiras inovadoras de interagir com ela. Os pesquisadores trabalham arduamente para aproximar os sistemas computacionais do comportamento humano no sentido de realizar tarefas semelhantes, como ouvir, compreender, pensar e falar. Embora as formas de interação com os sistemas computacionais também tenham evoluído, os mouses e teclados de computador continuam a desempenhar um papel fundamental como ponte entre humanos e computadores. Esses dispositivos impõem barreiras ao forçar seus usuários a usar as mãos para manuseá-los, tendo em vista que esta forma de interação pode impossibilitar o uso do sistema por uma grande parcela da sociedade. Esse problema já é reconhecido na literatura e inúmeras soluções já foram propostas, porém o entrave reside na definição de que solução é mais adequada para cada caso e problema específico, isso ocorre porque os trabalhos existentes raramente apresentam comparações entre métodos propostos para resolver o mesmo problema. Nesse sentido a proposta deste trabalho consistiu em desenvolver três dispositivos baseados em interações não convencionais para serem utilizados como métodos alternativos de baixo custo para o clique do mouse. Esses dispositivos são baseados em sopro, eletromiografia e em aproximação e todos os processos de desenvolvimento estão documentados e disponíveis para a comunidade. Além disso, foram conduzidas análises quantitativas e qualitativas sobre os três dispositivos desenvolvidos e também sobre o método alternativo mais utilizado atualmente: o dwell time. Os resultados de ambas as análises mostraram que as ferramentas baseadas em sopro, eletromiografia e aproximação são melhores que o método dwell time.

  • PAULO TADEU RESQUE DE SOUZA
  • A Machine Learning Framework to detect epileptic seizures and prioritize data transmission in Internet of Medical Things

  • Data: 30/11/2020
  • Mostrar Resumo
  • New technologies come on stage every day, and the technological advances en-hance the user’s experience. In this context, wearable devices are an emerging technologythat delivers better user experience in many daily activities. In the healthcare indus-try, the Internet of Medical Things (IoMT) relies on wearable devices to sense, collect,and continuously transmit the patient’s physiological information to a medical crew. Inthis scenario, chronic patients, such as people with epilepsy, are continuously monitoredoutside hospital premises. However, medical diagnosis and treatment for syndromes likeepilepsy require data availability, transmission reliability, low network latency, and fastdetection procedure. Thus, epileptic seizure detection in-device or on the edge nodes us-ing Machine Learning (ML) algorithms fulfill such requirements. Furthermore, ML in thecontext of the wireless network provides traffic type awareness and prioritization, enhanc-ing the Quality of Service (QoS) for IoMT application. In this thesis, we propose an MLframework to identify a physiological traffic flow, proceed with a clinical diagnostic on anedge node, and prioritize the data transmission in a Wireless Fidelity (WiFi) network toa hospital cloud server. Our proposal achieve 91.57% accuracy in detecting and assigninga priority tag to a physiological stream, 97.76% accuracy in detecting epileptic seizuresfrom Electroencephalography (EEG) signal, and 60% improvement in Packet DeliveryRate (PDR) for physiological data transmission in a WiFi.

  • JULIO CEZAR COSTA FURTADO
  • Uma Abordagem para o Ensino do Controle Estatístico de Processos em Cursos Superiores de Computação

  • Data: 17/06/2020
  • Mostrar Resumo
  • Um processo considerado sob controle estatístico deve ser estável e repetível. A importância do Controle Estatístico de Processos (CEP) para a indústria de software cresceu nos últimos anos, muito devido ao uso de modelos de qualidade. Para entender a importância do CEP para a indústria de software, um survey foi aplicado para engenheiros de software. Neste contexto, este trabalho tem como objetivo propor uma abordagem de ensino para o CEP, onde o processo de ensino-aprendizagem é centrado no aluno. A abordagem adotada para esta pesquisa envolve: leitura de artigos e relatos de desempenho de experiências, casos práticos, discussão, uso de jogos e simuladores, projetos práticos e reflexão dos alunos sobre os conhecimentos aprendidos e as atividades realizadas. Uma avaliação foi realizada com estudantes de graduação matriculados em um programa de bacharelado em Ciência da Computação, que foram divididos em um grupo controle e um grupo experimental. Ao final, os dois grupos realizaram um projeto prático para avaliar a eficácia do aprendizado adquirido pelos alunos. Os resultados do estudo sugerem que houve uma diferença na eficácia do aprendizado resultante da abordagem de ensino e do ensino tradicional. Um ganho médio de 30,06% foi observado no grupo experimental, o que é evidência de um aumento significativo na eficácia da aprendizagem.

  • ANDERSON GREGÓRIO MARQUES SOARES
  • Expandindo a Visualização de Dados Multidimensionais em Treemaps com Glifos

  • Data: 12/06/2020
  • Mostrar Resumo
  • A Visualização da Informação (InfoVis) é a área que estuda representações visuais interativas para dados abstratos com objetivo de potencializar a percepção dos usuários sobre os dados. A técnica Treemap é uma técnica de InfoVis consolidada e difundida, que possui como principais características a visualização de dados hierárquicos e o uso de todo o espaço visual disponível de tela. No entanto, tal técnica apresenta alguns desafios para a representação de dados, entre eles destacam-se: poucas opções para representação visual dos dados, limitada a tamanho, cor e rótulo; e para aumentar a dimensionalidade de dados utiliza-se os níveis hierárquicos, mas a representação visual de um número elevado de hierarquias pode dificultar a percepção dos usuários ao analisarem os dados. Desta forma, para mitigar os desafios da técnica squarified Treemap, essa tese utiliza glifos aos itens de dados visuais do Treemap. No contexto de InfoVis, glifos são objetos visuais que codificam individualmente os atributos de uma base de dados a uma ou mais características visuais (variáveis visuais). Os glifos desta pesquisa são compostos por camadas, os quais possuem N camadas parcialmente visíveis, ou seja, uma camada sobrepõe a outra, e cada camada mapeia uma dimensão de dados para uma variável visual. O design do glifo foi projetado com a área das camadas superiores sempre menor que as inferiores, assim as camadas podem ser empilhadas para compor um glifo multidimensional. Adicionalmente, essa tese propõe o uso de glifos adaptativos, que são glifos que estão em itens do Treemap com áreas muito pequenas, e por esta razão é realizada uma análise de qual parte do glifo deve ser apresentada para ainda ser uma informação visual útil. Para avaliar este estudo, realizou-se testes de usuários para comparar cenários de mapeamentos de dados visuais em Treemaps, sendo estes: somente Glifos (G), somente Hierarquia (H), Glifos e Hierarquia (GH) e Glifo Adaptativo (GA). Para tal, foi desenvolvido um protótipo computacional que permite criar os cenários citados para análise de dados multidimensionais. Os resultados apontaram que o cenário GH apresentou a melhor acurácia, tendo um tempo de resolução de tarefas semelhante ao cenário H, o que sugere que a representação de mais dados nos Treemaps com glifos em camadas enriqueceu os recursos de visualização do Treemap sem prejudicar a legibilidade dos dados. Os resultados dos experimentos mostraram que o glifo adaptativo mantém a acurácia para o cenário GH, porém com um acréscimo no tempo de resolução de tarefas, desta forma esse cenário mostra que é possível entregar informação útil nos casos de itens do Treemap com área visível reduzida.

  • ALLAN DOUGLAS BENTO DA COSTA
  • ALGORITMO DE GESTÃO DE MOBILIDADE PARA DISSEMINAÇÃO DE VÍDEOS EM REDES VEICULARES ULTRADENSAS

  • Data: 10/06/2020
  • Mostrar Resumo
  • As redes de próxima geração têm como objetivo iniciar o caminho para a distribuição de vídeo por redes ad-hoc veiculares (VANET), as quais serão compostas por redes heterogêneas ultradensas. Essas redes levarão em conta a infraestrutura de comunicação existente, com o intuito de obter maior eficiência espectral, tal como, a reutilização de taxas do espectro. No entanto, o aumento do número de células acaba por tornar o processo de gerenciamento de mobilidade (ou seja, handover) uma tarefa desafiadora em VANETs ultradensas. Considerando que, os veículos alternam frequentemente entre redes distintas, levando ao aumento de handover desnecessário e uma maior sobrecarga na rede, chamado de efeito ping-pong. Nesse sentido, um algoritmo de handover ineficiente acaba por fornecer vídeos com baixa Qualidade de Experiência (QoE), sendo esta causada por handover considerado ping-pong, que geram inúmeras perdas de pacotes e/ou quadros de vídeo. Esta tese de doutorado apresenta um algoritmo de handover para distribuição de conteúdo de vídeo em VANET ultradenso, o qual será chamado de Skip-HoVe. O algoritmo proposto apresenta as seguintes características: um mecanismo de handover ciente de Predição de Mobilidade e QoE, bem como qualidade de serviço, resultando em handover entre as células com maior confiabilidade e menor frequência. Os resultados da simulação mostram a eficiência do algoritmo Skip-HoVe para entregar vídeos com desempenho 30% superior em comparação com os algoritmos de handover existentes, mantendo uma taxa de ping-pong em torno de 2%.

  • JEANNE DE OLIVEIRA PEREIRA
  • Técnicas de Balanceamento de Dados para Métodos de Aprendizado de Máquina Aplicados à Detecção de Anomalias no Consumo de Energia Elétrica

  • Data: 05/06/2020
  • Mostrar Resumo
  • O furto ou fraude de eletricidade são as principais causas de perdas não técnicas de energia elétrica, algumas consequências dessas perdas são: danos às concessionárias de energia, redução de lucros e aumento do preço da energia para outros consumidores. Os métodos de Aprendizado de Máquina e \textit{Deep Learning} tem ganhado destaque na detecção de anomalias no consumo de energia elétrica. Uma base de dados que contém anomalias no consumo em geral está desbalanceada, o que abre possibilidade para explorar técnicas de balanceamento de dados que não foram exploradas em trabalhos anteriores. Assim neste trabalho os classificadores Regressão Logística (RL), \textit{Random Forest} (RF), Máquina de Vetores de Suporte (\textit{Support Vector Machine} - SVM), Rede Neural Artificial (RNA) e Rede Neural Convolucional (\textit{Convolutional Neural Network} - CNN) foram aplicados sem balanceamento e com diferentes estratégias para balancear os dados: aprendizado sensível ao custo, sobreamostragem aleatória, subamostragem aleatória, subamostragem baseada em k-\textit{medoids}, \textit{Synthetic Minority Oversampling Technique} (SMOTE) e sobreamostragem baseada em \textit{cluster}. Os classificadores combinados com essas estratégias foram avaliados usando métricas como \textit{Area Under ROC Curve} (AUC) e F1-\textit{score}, porque somente a acurácia não é suficiente para dados desbalanceados. Nos resultados, ao se comparar os diferentes métodos de Aprendizado de Máquina e \textit{Deep Learning} ou o mesmo método com diferentes técnicas de balanceamento de dados, determinadas combinações atingiram resultados consideravelmente melhores do que outras.

  • CAIO MARCOS FLEXA RODRIGUES
  • Sistema de Coordenadas Poligonais: uma abordagem geométrica para visualização de dados em altas dimensões

  • Data: 03/04/2020
  • Mostrar Resumo
  • A Redução de Dimensionalidade (Dimensionality Reduction - DR) é bastante útil na aquisição de informações relevantes a partir de dados de alta dimensão, com enfoque na obtenção de entendimento e insights úteis à análise exploratória e ciência de dados. Ela atraiu grande atenção da indústria e academia, sendo empregada em várias áreas do conhecimento humano manifesto em campos da computação, como o aprendizado de incorporação (do inglês, embedding learning), aprendizado de máquina, mineração de dados e reconhecimento de padrões estatísticos. Nesse contexto, este trabalho apresenta uma abordagem geométrica para DR chamada de Sistema de Coordenadas Poligonais (Polygonal Coordinate System - PCS), capaz de representar de modo eficiente dados multidimensionais num plano 2D, preservando, desse modo, a estrutura global inerente a eles. Para este propósito, pela realização de operações matemáticas de rotação e translação, os dados são representados através de um polígono regular ou interface entre a alta dimensionalidade e os dados bidimensionais. O PCS pode manipular adequadamente grandes quantidades de dados no contexto de Big Data, adotando um DR geométrico de complexidade de tempo linear e incremental. Além disso, uma nova versão do algoritmo Incorporação Estocástica de Vizinhos t-Distribuída (t-Distributed Stochastic Neighbor Embedding - t-SNE), que é o estado-da-arte em DR, é fornecida. Essa versão emprega uma estratégia determinística com base no PCS, por isso chamada de Incorporação Determinística de Vizinhos t-Distribuída (t-Distributed Deterministic Neighbor Embedding - t-DNE). Diversos conjuntos de dados sintéticos e reais foram utilizados como arquétipos de problemas bem conhecidos no mundo real em nosso benchmark, perfazendo um modo apropriado de avaliar tanto o PCS quanto o t-DNE. Em relação a eles, quatro algoritmos de DR são também avaliados: dois lineares, Análise de Componentes Principais (Principal Component Analysis - PCA) e Fatoração de Matrizes Não-Negativas (Nonnegative Matrix Factorization - NMF); dois não lineares, t-SNE e Mapeamento de Sammon (Sammon's Mapping - SM). Nossa abordagem tende a superar técnicas anteriores sob diversos aspectos explorados neste trabalho, nomeadamente: complexidade assintótica de tempo e espaço, preservação da estrutura global inerente aos dados, número de hiperparâmetros e aplicabilidade a dados não observados no treinamento. Comparações estatísticas sobre os tempos de execução desses algoritmos, usando o teste de significância de Friedman, destacam a eficiência do PCS na tarefa de incorporar dados.

  • CARLOS TAKESHI KUDO YASOJIMA
  • Modelo de Krigagem Automática Baseada em Agrupamento

  • Data: 30/03/2020
  • Mostrar Resumo
  • A krigagem é uma técnica de interpolação da geoestatística que realiza a predição de medições e observações em localidades desconhecidas com base em dados previamente coletados. A qualidade da predição deste método é diretamente ligada à qualidade da modelagem do variograma teórico. O método convencional e muito utilizado da modelagem do variograma teórico, consiste na utilização de conhecimento especialista e estudo aprofundado para determinar quais são os parâmetros adequados para a modelagem. No entanto, essa situação não é sempre possível, e nesses casos, torna-se interessante a aplicação de um processo automático. Diante deste cenário, este trabalho propõe um modelo para automatizar etapas do processo de krigagem incluindo a modelagem do variograma teórico. O modelo proposto  baseia-se em técnicas de pré-processamento, clusterização de dados, algoritmos bioinspirados e a classificação via K-vizinhos mais próximos. O desempenho do modelo foi avaliado utilizando duas bases de dados, sendo os resultados comparados com de outras técnicas de otimização consolidadas na literatura de krigagem. Os impactos da etapa de clusterização na hipótese da estacionariedade também é investigada por meio da aplicação de técnicas de remoção de trends. Os resultados demonstraram que nesta proposta automatizada, a clusterização alcança os melhores resultados na predição da krigagem. No entanto, a divisão da base de dados em subgrupos por consequência gera dados não estacionários. Algoritmos genéticos e bioinspirados em geral são facilmente configurados com base em uma heurística para definir os ranges (limites máximos e mínimos) das variáveis em comparação com outras técnicas estudadas. A classificação via K-vizinhos mais próximos é satisfatória em solucionar problemas causados pela tarefa de clusterização e alocando pontos desconhecidos nos clusters previamente definidos.

  • EDDAS JOSUÉ BERTRAND MARTÍNEZ
  • Uma Metodologia de Avaliação para Middleware de Internet das Coisas



  • Data: 13/03/2020
  • Mostrar Resumo
  • Desde que o termo Internet of Things (IoT) foi cunhado por Kevin Ashton em 1999, várias plataformas de middleware foram desenvolvidas para lidar com desafios importantes para a integração de diferentes tecnologias. Nesse contexto, alguns estudos foram feitos com a intenção de avaliar aspectos de qualidade delas. No entanto, muitos deles falham em abordar de maneira holística outros aspectos cruciais que precisam ser avaliados para aplicativos de IoT. Este trabalho propõe uma abordagem metodológica para avaliar plataformas de middleware de IoT, com o objetivo de ajudar a comunidade científica, fornecendo a eles uma ferramenta teórica para todo o processo de avaliação. A metodologia baseia-se no conjunto de normas ISO / IEC 25000 SQuaRE e no processo de Raj Jain para avaliação de desempenho. Também desenvolve-se um estudo de caso para ilustrar a proposta com diferentes soluções de middleware, 12 brokers MQTT open source, validando assim a viabilidade de nossa metodologia.

  • WALBERT CUNHA MONTEIRO
  • Cenários de Análise Visual para Dados Oceânicos de Onda e Vento de Boias Oceanográficas

  • Data: 13/03/2020
  • Mostrar Resumo
  • Oceanografia é a área científica que estuda dados sobre as características físicas, químicas, geológicas e biológicas dos oceanos para prever seu comportamento. Os modelos de previsão podem auxiliar diretamente no processo de tomada de decisão para investimentos nas áreas econômica, social, ambiental e energética voltados a sociedade. Dentre os diversos dados de análise, destacamos os dados de ondas e ventos, pois são responsáveis pelo transporte de sedimentos, influenciando diretamente nas características do ambiente costeiro. No entanto, a análise de dados oceânicos não é uma tarefa fácil, principalmente devido ao seu grande volume e multidimensionalidade de dados. Entre as técnicas que podem auxiliar esse processo de análise, destacam-se as técnicas de Visualização da Informação (InfoVis), que ainda são pouco exploradas no contexto da oceanografia, geralmente usando gráficos simples para apresentar e correlacionar dados. Assim, a dissertação visa propor um conjunto de cenários de análise visual, com base nas técnicas da InfoVis, para dados oceanográficos de boias oceânicas. O foco principal do cenários está na análise da direção e intensidade do vento e na direção e altura da onda oceânica, incluindo outros dados associados. Foram utilizados dados da agência NOAA Data Buoy Center e as técnicas propostas do InfoVis foram hierárquicas, multidimensionais, múltiplos pequenos (múltiplos pequenos), matriz de correlação e múltiplas visualizações coordenadas. Os principais resultados são uma extensa revisão bibliográfica sobre análise de dados oceanográficos, incluindo técnicas de visualização, tipos de dados, fonte de dados, tarefas de análise etc., os cenários propostos e suas possíveis interações e a apresentação de padrões, relacionamentos e discrepâncias descobertos através do processo exploratório.

  • EMANUEL MONTERO ESPAILLAT
  • Deployment of Unmanned Aerial Vehicles as Base Station to Improve the Quality of the Service applying User Clusterization

  • Data: 27/02/2020
  • Mostrar Resumo
  • Unmanned aerial vehicle (UAV) is a promising technology for mitigating Terrestrial Base Stations failures or even becoming an ideal temporary solution to offloading. UAV as Base Stations (UABS) can be deployed to complement existing cellular systems by providing additional capacity to hotspot areas as well as to provide network coverage in emergency and public safety situations.  In terrestrial cellular networks, mobile devices at the cell edge often pose a performance bottleneck due to their long distances from the serving terrestrial base station (TBS), especially in the hotspot period when the TBS is heavily loaded.   Simulation results show the gains of the proposed offloading scheme (OS) by improving the throughput, and quality of service (QoS) compared with a conventional LTE overloaded network. 

  • ERIC FELIPE DE OLIVEIRA PEREIRA
  • UMA REVISÃO SISTEMÁTICA DA LITERATURA APLICADA À RECUPERAÇÃO DE DADOS NO CONTEXTO DA COMPUTAÇÃO FORENSE

  • Data: 21/02/2020
  • Mostrar Resumo
  • A Computação Forense tem como finalidade estabelecer a materialidade e autoria de ilícitos relacionados a Computação e é uma área que está em constante atualização devido, principalmente, a dois fatores: o primeiro, ao avanço de novas tecnologias, que acabam por proporcionar uma constante atualização dos métodos e técnicas que são utilizados, proporcionando resultados mais rápidos, precisos e confiáveis; e em segundo, a necessidade dos profissionais de investigar crimes ligados à tecnologia, através de uma coleta e recuperação de dados, acessando equipamentos bloqueados suspeitos, rastreando informações em uma rede de computadores, ou seja, qualquer
    atividade que necessite de uma investigação utilizando ferramentas tecnológicas. Entre os processos de investigação, está a Recuperação de Dados, que é de grande valia para a área Forense, pois tem o objetivo de recuperar informações, em mídias digitais, que foram deletadas de forma proposital ou acidental. O principal problema desta área é que durante o processo de recuperação de dados, são recuperados arquivos esperados, além dos arquivos corrompidos, denominados de falso-positivos, o que acaba por exigir um maior tempo, e um maior esforço de análise das informações geradas aos profissionais da área. Este trabalho tem como objetivo realizar uma
    Revisão Sistemática da Literatura para mapear técnicas ou métodos existentes que possam tratar ou reduzir a incidência dos arquivos falso-positivos no processo de recuperação de dados.

  • YVAN PEREIRA DOS SANTOS BRITO
  • Geração de Dados Sintéticos Combinando Blocos Geradores

  • Data: 20/02/2020
  • Mostrar Resumo
  • A geração de dados sintéticos tem sido bastante estudada recentemente, já que com dados sintéticos é possível construir perfis de dados que podem ser difíceis de serem obtidos. No entanto, muitos geradores propostos são de difícil utilização e exigem do usuário um conhecimento matemático avançado para construção de perfis de dados que satisfaçam seus requisitos, além disso, não fornecem meios de compartilhar os perfis de dados para eventuais replicações de experimentos. Este trabalho apresenta um gerador de dados sintéticos que constrói os perfis de dados através de blocos, que podem se relacionar entre si, onde cada um desses possui uma lógica e seus parâmetros para geração dos dados. Existem 34 geradores no total implementados na aplicação, e entre eles existem geradores do tipo Geométrico que permite que seja desenhado uma forma livre e os dados sejam gerados conforme o desenho, tornando mais intuitiva a construção do modelo gerador. Durante a criação do perfil de dados, o usuário pode visualizar o comportamento dos dados para analisar se os dados gerados já possuem as características desejadas. Por fim, são apresentados cenários de uso: um deles mostrando como é possível interagir com as ferramentas de desenho e como os dados gerados se distribuem no desenho a partir dessa interação; um para aprendizado de máquina; e outro para a utilização da ferramenta de desenho.

  • RAISSA LORENA SILVA DA SILVA

  • UM CLASSIFICADOR RANDOM FOREST PARA PREDIÇÃO DE GENES EM PROCARIOTOS

  • Data: 18/02/2020
  • Mostrar Resumo
  • A metagenômica realiza o estudo de comunidades microbianas, conhecidas como metagenomas, descrevendo-as por meio de suas composições e das relações e atividades dos microrganismos que ali coabitam, permitindo assim um maior conhecimento a respeito dos fundamentos da vida e da ampla—e ainda pouco conhecida—diversidade microbiológica. Uma das formas de se realizar tal tarefa é por meio da análise de informações de genes contidos em metagenomas, extraídas através do processo de identificação de genes em sequências de DNA, denominado predição de genes. Este trabalho apresenta uma nova abordagem de predição utilizando o classificador Random Forest, comparando os resultados de classificação à renomados preditores, e avaliando a importância de diferentes atributos no modelo de aprendizado de máquina proposto para a classificação de sequências codificadoras de proteína. Apresentado como geneRFinder, é um preditor de genes capaz de superar as ferramentas de previsão de genes consideradas estado-daarte. As taxas médias de predição do geneRFinder diferiram em termos percentuais em 54% e 64%, respectivamente, em relação ao Prodigal e FragGeneScan para testes em metagenomas de alta complexidade. A taxa de especificidade do geneRFinder teve a maior distância contra o FragGeneScan, 79 pontos percentuais e 66 a mais que o Prodigal. Adicionalmente, fornecemos um novo e abrangente benchmarck para a previsão de genes - baseados no desafio CAMI (Critical Assessment of Metagenome Interpretation), contendo dados rotulados de regiões genéticas com diferentes complexidades metagenômicas para testes de ferramentas de predição de gene.

  • IGOR ERNESTO FERREIRA COSTA
  • O USO DE GAMIFICAÇÃO PARA APOIAR O ENSINO-APRENDIZAGEM DE TESTE EXPLORATÓRIO

  • Data: 14/02/2020
  • Mostrar Resumo
  • O teste exploratório é uma abordagem que se tornou bastante relevante no processo de teste de software e, com isso, cresceu sua aplicação no cenário industrial, principalmente em razão da emergente utilização de práticas ágeis no processo de desenvolvimento de software para atender o Time to Market. Contudo, é um assunto pouco discutido no contexto acadêmico. Por esse motivo, este trabalho utiliza a gamificação como estratégia sistemática no ensino-aprendizagem de teste exploratório na forma de experimento com duas turmas, sendo uma turma com alunos da graduação em Ciência da Computação e na outra turma com alunos formados em Técnico em Informática, almejando manter um forte engajamento dos estudantes e estimular o bom desempenho, com isso, resultar na obtenção de estudantes preparados para utilizar esta abordagem de teste no contexto industrial e acadêmico. Como resultados finais, os participantes obtiveram bons desempenhos de modo geral, havendo relatos dos estudantes que a gamificação facilitou e colaborou bastante para alcançar o melhor desempenho convergindo com os dados quantitativos obtidos. Isto pode ser evidenciado, principalmente, pelo fato que ambas as execuções (turmas) do experimento alcançaram um percentual superior a 70% de aproveitamento, isto é, houve um ótimo desempenho de modo geral analisado pela relação das medalhas obtidas por participação.

  • ROBERTO BRITO XAVIER JUNIOR
  • Montagem de Genomas usando Aprendizado por Reforço

  • Data: 14/02/2020
  • Mostrar Resumo
  • O aprendizado por reforço é uma área do aprendizado de máquina que visa construir e treinar agentes inteligentes capazes de aprender a resolver uma determinada tarefa de forma autônoma e não-determinística. Essa abordagem tem sido aplicada com sucesso em várias áreas, entretanto, poucas pesquisas relacionadas a montagem de genomas investigaram o uso do aprendizado por reforço, especialmente ao lidar com conjuntos de dados reais. A montagem de genomas De novo é uma etapa crucial em inúmeros projetos genômicos, porém devido a sua alta complexidade, os resultados produzidos pelos montadores atuais ainda são insuficientes para auxiliar os pesquisadores a responder todas as suas questões científicas. Portanto, é necessário continuar desenvolvendo montadores melhores, e estudos preliminares sugerem que o aprendizado por reforço tem potencial em resolver essa tarefa computacional. Dessa forma, este trabalho apresenta uma análise empírica para avaliar essa hipótese, particularmente em maior escala, por meio da avaliação de desempenho, juntamente com a análise de complexidade de tempo e espaço, da abordagem teórica proposta por Bocicor, Czibula e Czibula (2011) para o problema da montagem de genomas usando o algoritmo de aprendizado por reforço Q-learning. Esta análise mostra que, embora essa abordagem possua limitações de espaço e tempo em problemas maiores, o aprendizado por reforço é visto como uma alternativa viável para resolver o problema da montagem de fragmentos de DNA.

  • SILVERIO SIROTHEAU CORREA NETO
  • Avaliação automática de textos na língua portuguesa baseada em atributos linguísticos em quatro dimensões

  • Data: 14/02/2020
  • Mostrar Resumo
  • Contexto: Juntamente com o desenvolvimento da educação a distância surgem ambientes virtuais com métodos de avaliação automática de exercícios. Gap: Neste contexto, dada a relevância das questões discursivas no processo avaliativo, emerge a demanda para avaliadores automáticos para esse tipo de questão. Na literatura já encontramos resultados promissores de avaliadores automáticos de questões discursivas para língua Inglesa. Objetivo: Esta pesquisa foca na avaliação automaticamente respostas discursivas, respostas curtas (até um parágrafo) e redações (mais de um parágrafo) na língua portuguesa.  Material: Nos experimentos utilizamos: 192 respostas curtas de Filosofia oriundas de uma plataforma virtual de ensino; 131 e 229 respostas curtas de Biologia e de Geografia de um processo seletivo para ingresso no ensino superior, respectivamente; 1000 redações de um processo seletivo para ingresso em concurso público, de nível técnico. Método: A abordagem baseada em técnicas de aprendizagem de máquina segue uma arquitetura de pipeline com cinco passos: seleção de corpus, pré-processamento, coleta de atributos, modelo preditivo e avaliação. No pré-processamento exploramos técnicas de limpeza/normalização, stemmer e remoção de stop word. Na coleta de atributos exploramos características linguísticas em quatro dimensões: léxicos, sintáticos, conteúdo e de coerência. Coletamos e avaliamos mais de 140 atributos. Para gerar o escore de cada resposta utilizamos o classificador Random Forest. Resultado: Como resultado para a prova de Biologia e de Geografia, respectivamente, o sistema alcançou um índice Kappa quadrático (KQ) de 0.82 e 0.86 (Sistema versus Humano - SxH), contra 0.94 e 0.85 (Humano versus Humano - HxH). Para as redações obtivemos um índice KQ de 0.68 SxH contra HxH de 0.56. Assim tanto para respostas curtas (em parte) como para redações conseguimos superar o índice de concordância obtido entre dois avaliadores humanos. Contribuição: Este estudo mostra que esta tecnologia está alcançando maturidade para ser utilizadas com grandes vantagens nos ambientes virtuais de ensino: baixo custo, feedback imediato, libera o professor do trabalho de correção e atende grandes turmas.

  • BLENO WILSON FRANKLIN VALE DA SILVA
  • REACT-M: UMA EVOLUÇÃO DA ABORDAGEM REACT PARA APOIO AO PROCESSO DE GERÊNCIA DE REQUISITOS DE SOFTWARE BASEADO EM EVIDÊNCIAS EMPÍRICAS

  • Data: 12/02/2020
  • Mostrar Resumo
  • A adoção de abordagens ágeis para o desenvolvimento de software vem crescendo na indústria desde o início da década de 2000, devido propor soluções alternativas para minimizar alguns problemas das abordagens tradicionais, bem como alguns desafios dos próprios métodos ágeis atuais. Uma área que está ganhando destaque é a Agile-RE, que busca aplicar os princípios e os valores dos métodos ágeis nas atividades de Engenharia de Requisitos, ou seja, permite desenvolver e gerenciar os requisitos de forma mais ágil. O Métodos o REACT (Requirements Evolution in Agile ContexT) é uma proposta de método ágil para o desenvolvimento de requisitos ágeis, no entanto não possui cobertura às atividades de Gerência de Requisitos que são fundamentais para controlar a evolução dos requisitos durante a vida do software. Neste contexto, o presente trabalho tem como objetivo apresentar o método REACT-M (REACT-Management), uma proposta de método ágil para apoio às atividades de gerência de requisitos que esteja fortemente fundamentado em evidências empíricas da indústria de software, nas práticas da Engenharia de Requisitos Ágil e nos resultados esperados do processo de Gerência de Requisitos constantes nos modelos de qualidade MR-MPS-SW e CMMI-DEV. As evidências empíricas foram extraídas de outras abordagens ágeis, as quais foram identificadas e analisadas a partir de uma Revisão Sistemática da Literatura. Com os resultados obtidos do estudo secundário, foi criado o método REACT-M que busca atender todas as atividades relacionadas à gerência de requisitos de software em um ambiente ágil. Embora este método possa ser considerado uma extensão do método REACT para desenvolvimento de software, o método pode ser usado de forma independente, o que facilita a adoção por interessados. O Método REACT-M foi avaliada por meio de Estudo de Caso, conduzido em um projeto real para o desenvolvimento de um produto destinado à aprendizagem de programação. Em síntese dos resultados, observou-se que o método proporcionou mais simplicidade, flexibilidade e maior comunicação entre os participantes ao longo do projeto. Desta forma, o estudo pretende ser uma contribuição à comunidade científica e indústria de software por fornecer uma abordagem ágil para uma área específica da engenharia de requisitos, que também está alinhada a modelos de qualidade voltados à Melhoria do Processo de Software. 

  • DIEGO OLIVEIRA ABREU
  • UMA ABORDAGEM PARA IMPLEMENTAÇÃO DO MOSE COMPETENCE EM EMPRESAS DE PEQUENO PORTE UTILIZANDO PRINCÍPIOS ÁGEIS

  • Data: 10/02/2020
  • Mostrar Resumo
  • O MOSE Competence é um modelo de qualidade recente para sucesso de empreendimentos e que vem crescendo no Brasil. Modelos de qualidade estão presentes no mercado competitivo atual, onde as empresas procuram diferenciar-se e melhorar em relação à concorrência. Entretanto, muitas vezes a implementação de modelos de qualidade torna-se um difícil obstáculo necessitando de consultorias e investimentos altos por parte das organizações. Este trabalho propõe uma abordagem de implementação do MOSE baseado em produtos de trabalho e cerimônias reais realizados em uma empresa de pequeno porte utilizando práticas e princípios ágeis, buscando assim ajudar organizações que desejam aderir a este modelo de qualidade e fornecendo direcionamento e exemplos reais de implementação do modelo. A abordagem desenvolvida busca utilizar dos princípios presentes nas atuais metodologias ágeis da engenharia de software para auxiliar na implementação do modelo MOSE Competence, a exemplo de princípios estão a Simplicidade, Objetividade, Adequação a Mudanças, dentre outros. Após a implementação do modelo utilizando a abordagem proposta, foram realizadas duas avaliações: uma quantitativa que buscou verificar a efetividade e os benefícios do MOSE no negócio da empresa de forma a demonstrar o impacto das práticas propostas nos processos da empresa; e uma avaliação qualitativa da abordagem, que se deu por entrevistas com os colaboradores envolvidos na implementação do MOSE e teve como objetivo avaliar as práticas propostas pela abordagem de implementação utilizando como critérios para a avaliação os princípios ágeis usados na definição das práticas. A técnica SWOT foi aplicada para identificar pontos fortes, fracos, oportunidades de melhoria e ameaças relacionadas aos princípios ágeis e as práticas propostas. O trabalho contribui como material de referência e apoio para organizações que desejam usar o MOSE em seus negócios, haja vista a carência de materiais sobre o MOSE na literatura, devido ao modelo ser recente no mercado.

  • CYNTHYA LETÍCIA TELES DE OLIVEIRA
  • Proposta e Avaliação de Modelos de Descrição Textual para Vocalização de Gráficos de Barras

  • Data: 09/01/2020
  • Mostrar Resumo
  • A descrição textual de gráficos de dados, que são gráficos gerados a partir de uma fonte de dados, como uma tabela, e podem ser, por exemplo, de linha, barra ou pizza, é uma tarefa importante em diversos contextos. A descrição textual pode auxiliar iniciantes no processo de ensino-aprendizagem do uso de gráficos de dados. Além disso, a descrição textual de gráficos de dados permite que estes sejam ``lidos'' por softwares leitores de tela, tornando-os acessíveis à pessoas com deficiência visual. Apesar do vasto uso da descrição de gráficos de dados em forma textual, esta não é uma tarefa trivial. Um gráfico apresenta diferentes características visuais para a informação representada, que pode ser influenciada pela técnica selecionada e pela combinação de elementos visuais. Existem iniciativas de \textit{crowdsourcing} para criar descrições de gráficos disponíveis na Web, mas as descrições podem ter falhas, considerando que elas surgem do entendimento das pessoas. No entanto, não existe uma maneira padronizada de vocalizar o conteúdo do gráfico. Para isso, a descrição textual deve ser baseada em um modelo, para que o gráfico possa ser completamente entendido. Assim, este trabalho apresenta modelos que permitem vocalizar os dados extraídos de gráficos de barras verticais e agrupadas de forma inteligível. Avaliações foram conduzidas com os usuários para verificar a facilidade de compreensão das descrições textuais vocalizadas. Os resultados mostraram indicativos que os modelos propostos foram adequados para vocalização do conteúdo de gráficos de barras.

  • CAIO PINHEIRO DE CARVALHO
  • Um Conjunto de Características de Personalização da Interação para Jogos Adaptáveis

  • Data: 03/01/2020
  • Mostrar Resumo
  • Grande parte dos jogos digitais disponíveis no mercado não leva em consideração o contexto de acessibilidade, o que exclui uma parcela da população, como crianças com deficiência. Existem pesquisas que apresentam jogos com opções de customização da interação, no entanto, geralmente pensados para deficiências específicas. A proposta desse trabalho é investigar características de personalização da interação em jogos, possibilitando que um profissional especializado possa adequar o jogo para um paciente específico em suas sessões de atendimento. Para isso, realizamos uma revisão sistemática da literatura sobre jogos adaptáveis e um estudo empírico onde investigamos três jogos que foram desenvolvidos e avaliados com profissionais de saúde especializados no atendimento de crianças com deficiência. Os resultados geraram um conjunto de características customizáveis para jogos adaptáveis.

2019
Descrição
  • ANDRE DE JESUS ARAUJO RAMOS
  • Simulação baseada em Dinâmica de Sistemas para o ensino da fisiologia do eixo Hipotálamo-hipófise-tireoide no contexto da graduação em medicina

  • Data: 18/12/2019
  • Mostrar Resumo
  • O uso de simuladores na saúde para fins educacionais e de treinamento tem sido uma prática bastante desenvolvida e incentivada. Sua implementação tem seguido diversas metodologias dentre elas a simulação auxiliada por computador. Na endocrinologia, faltam estudos utilizando simuladores como ferramenta de ensino em nível de graduação. Assim, foi desenvolvido um protótipo de simulador para ensino do eixo hipotálamo-hipófise-tireoide (HHT), denominado EndoSim-LZ, que executa um modelo de Dinâmica do Sistema (DS) para esse eixo, baseado nas relações e valores encontrados em Martins and Monteiro (2010). A DS é uma metodologia de modelagem e simulação assistida por computador que implementa o pensamento sistêmico, buscando explicações endógenas para o comportamento gerado pela estrutura de qualquer sistema que contenham estoque e fluxo. Assim, o EndoSim-LZ explora ainda mais o potencial da metodologia, representando graficamente as glândulas envolvidas no eixo HHT e suas inter-relações de estímulo, produção e feedback. O funcionamento básico do EndoSim-LZ consiste que o aluno possa controlar os valores de qualquer hormônio do eixo e verificar a repercussão na produção dos demais. Objetivo: Avaliar a percepção dos endocrinologistas sobre o potencial do EndoSim-LZ como uma ferramenta para auxiliar no ensino do eixo HHT na graduação médica. Métodos: O EndoSim-LZ foi avaliado por nove endocrinologistas. Esta avaliação utilizou um survey adaptado de Savi et al. (2010) sobre a eficácia educacional dos jogos, uma vez que as simulações são um tipo de jogo educativo. Resultados: Os principais pontos negativos estão relacionados ao interesse em aprender mais sobre o eixo HHT; os principais pontos positivos estão relacionados à interface, interação, à relevância e utilidade. Conclusão: Devido a essas descobertas iniciais, melhorias de interface e interação estão sendo feitas para se tornarem mais simples e intuitivas. Eventualmente, o EndoSim-LZ será avaliado experimentalmente em relação à sua eficácia educacional.

  • ROBERTO YURI DA SILVA FRANCO
  • Um Modelo para Classificação e Visualização Automática de Dados de Sentimentos

  • Data: 17/12/2019
  • Mostrar Resumo
  • Análise de sentimentos é o processo de associar um ou mais sentimentos a uma pessoa durante uma determinada atividade, por exemplo, utilizando um produto físico ou interagindo com um software. Técnicas de aprendizado de máquina têm sido aplicadas para a classificação de sentimentos considerando os mais variados tipos de dados, tais como: vídeo, áudio, texto, dados fisiológicos, logs de interação, entre outros. A complexidade das técnicas de aprendizado de máquina e da interpretação dos resultados da análise de sentimentos torna, muitas vezes, a utilização dessas tecnologias inacessíveis a muitos profissionais que querem associar esses dados em suas análises. Além disso, apresentar os resultados obtidos e extrair alguma informação útil também é uma tarefa complexa, principalmente em função da grande quantidade de dados geradas, como o fluxo do tempo, fala, atividades e os sentimentos associados, tornando-se difícil buscar padrões e apresentá-los de modo a ajudar na tomada de decisões. A partir deste contexto, esta tese de doutorado apresenta um modelo que integra e abstrai a utilização das técnicas de aprendizado de máquina aplicadas à análise de sentimentos multimodal, incluindo o pré-processamento necessário, e propõe os resultados através de técnicas de visualização. Como cenário de utilização, o modelo foi aplicado em dados reais relativos a um processo de avaliação de usabilidade e experiência do usuário na interação com um software de visualização. Esta implementação do modelo gerou a ferramenta UXmood, que realiza a análise de sentimentos combinando dados de vídeo, áudio, texto em abordagem multimodal, e associando-os aos logs de interação do mouse, rastreador de olhos e a fala do usuário durante as tarefas que foram realizadas pelos participantes do teste, apresentando-os em um \textit{dashboard} de visualizações coordenadas. Além disso, foram analisadas a viabilidade de utilização de arquiteturas de redes neurais convolucionais para as tarefas de análise de sentimento em diversos tipos de mídia.  Para a validação do modelo e sua implementação foram realizados as seguintes etapas: 1 - foram testadas e comparadas arquiteturas de redes neurais convolucionais para análise de sentimentos em vídeo, áudio e texto, de forma individual, e, posteriormente, aplicadas a uma abordagem multimodal baseada em pesos (fusão por nível de decisão);  2- foram desenvolvidos cenários de visualização de dados e avaliadas por meio de questionários  on-line com o objetivo de identificar os principais problemas de usabilidade; 3 – após realizar o redesign da ferramenta com os resultados da etapa 2, a ferramenta foi testada junto a usuários especialistas no contexto do teste. Por fim, os resultados da aplicação das técnicas de aprendizado de máquina e abordagem multimodal se mostraram compatíveis com a literatura e a utilização por especialistas apresentou boa aceitação da ferramenta e ótima avaliação na facilidade de uso para geração e visualização dos dados de sentimento.

  • ARUANDA SIMOES GONCALVES
  • Programação Automática Aplicada à Geração de Algoritmos de Agrupamento
  • Data: 13/12/2019
  • Mostrar Resumo
  • A programação automática estuda mecanismos para geração automatizada de programas de computador. Este trabalho busca produzir automaticamente algoritmos de mineração de dados, em particular os algoritmos de agrupamento baseados em densidade. Esta classe de algoritmos de agrupamento suporta a identificação de grupos de forma arbitrária, no lugar do formato tipicamente esférico de outras abordagens de agrupamento. Para a geração dos algoritmos, usou-se a técnica de Computação Evolutiva chamada "Algoritmos de Estimativa de Distribuição'' (EDA, do inglês Estimation of Distribution Algorithms). De forma a garantir a geração de algoritmos válidos de agrupamento, definiu-se um grafo acíclico direcionado, onde cada nó representa um bloco de construção – um procedimento representativo de um algoritmo de agrupamento; e cada aresta representa uma possível sequência de execução entre dois nós. O grafo especifica o alfabeto do EDA, ou seja, cada caminho representa um potencial algoritmo resultante. Os resultados apresentados avaliam  os algoritmos de agrupamento automaticamente produzidos para bases de dados de domínio público.

  • FERNANDO NAZARENO NASCIMENTO FARIAS
  • vSDNLight: Uma Arquitetura Leve para Provisionamento de Redes Virtuais Definidas por Software

  • Data: 12/11/2019
  • Mostrar Resumo
  • O surgimento das redes definidas por softwares (SDN) e características como programabilidade e abstração na infraestrutura possibilitaram criar novas soluções de virtualização de redes, não apenas compartilhando utilização de um recurso específico da infraestrutura, mas também, compartilhando parte ou toda visão topológica da mesma, ou seja, qualquer recurso disponível da infraestrutura. Para construção de redes virtuais definidas por softwares (vSDN), também conhecidas como slices da infraestrutura física, é necessário a utilização de soluções de hipervisores SDN. No entanto, essas soluções vêm apresentando limitações de escalabilidade e desempenho, por causa de sua arquitetura baseada em proxy de serviços. Esta tese apresenta uma arquitetura de provisionamento de vSDNs através da orquestração da alocação de instancias de switches virtuais sob demanda diretamente em dispositivos de comutação de baixo custo. Resultados mostram que a adoção da arquitetura reduziu os impactos de desempenho aplicados pelos hypervisores SDN.

  • RENATO HIDAKA TORRES
  • Investigação em Aprendizado de Máquina Sobre Distração de Motoristas Devido à Utilização de Telefone Celular

  • Data: 25/10/2019
  • Mostrar Resumo
  • A distração de motorista é um problema de escala mundial que tem contribuído para um número cada vez maior de acidentes e mortes no trânsito. Dos motivos que levam a distração, a utilização do telefone celular tem chamado a atenção devido ao crescente aumento de usuários que utilizam enquanto estão dirigindo. Leis e campanhas educativas são políticas públicas adotadas no mundo todo para coibir o manuseio do telefone celular por motoristas. Entretanto, relatórios da Organização Mundial da Saúde demonstram que essas medidas, embora necessárias, não são suficientes, pois os motoristas continuam utilizando os smartphones enquanto estão dirigindo. Esse comportamento demonstra que a necessidade de utilização do smartphone é maior do que a consciência dos riscos que esse ato pode ocasionar. Por esse motivo, pesquisas e soluções tecnológicas estão sendo desenvolvidas para assistir a distração dos motoristas. As soluções desenvolvidas capturam informações e realizam tomadas de decisões para prevenir possíveis falhas humanas. Nesta tese, propõem-se três abordagens de construção de modelos de aprendizado de máquina, cujo objetivo é prevenir a distração do motorista em decorrência da utilização do telefone celular. Na primeira abordagem, foi desenvolvida uma rede neural convolucional a partir da metodologia de observação do comportamento do condutor. As imagens capturadas por meio de uma câmera acoplada ao veículo foram utilizadas no desenvolvimento e análise do modelo. Na segunda abordagem, foram desenvolvidos diferentes modelos de aprendizado de máquina para classificar motoristas e passageiros durante a escrita de mensagens de texto. Nesse experimento, foi utilizada a metodologia de observação dos efeitos do comportamento do condutor. Dados sensoriais foram coletados e utilizados na construção e validação dos modelos. Por fim, na terceira abordagem, foram desenvolvidos diferentes modelos de aprendizado de máquina para classificar motoristas e passageiros durante a leitura de mensagens/notificações. Nessa abordagem também foi utilizada a metodologia de observação dos efeitos do comportamento do condutor. Os resultados obtidos nesta tese demonstram que as abordagens propostas são eficientes para o desenvolvimento de soluções não intrusivas que previnam a distração de motorista em decorrência da utilização do telefone celular.

  • MARCOS FELIPE CARVALHO NAZÁRIO
  • Detecting and Reporting Object-Relational Mapping Problems: An Industrial Report

  • Data: 11/09/2019
  • Mostrar Resumo
  • Background: Object-Relational Mapping (ORM) frameworks are regarded as key tools in the software engineer arsenal. However, developers often face ORM problems, and the solution to these problems are not always clear. To mitigate these problems, we created a framework that detects and reports a family of ORM problems. Aims: The aim of this work is to assess how practitioners perceive our framework, the problems they face, and the eventual points for improvements. Method: We f irst report an observational study in which we curated 12 ORM related problems, which are implemented in our framework. We then conducted a developer experience (DX) study with 13 developers (10 well-experienced and 3 students) to assess their experience with our framework to implement six ORM related tasks. Results: All participants agreed that our framework helped them to finish the programming tasks. The participants perceived that our framework eases the ORM modeling, has precise error messages, and employs ORM best practices. As a shortcoming, however, one participant mentioned that some custom annotations are not very intuitive. Conclusions: Our findings indicate that developers are willing to use frameworks that catch ORM problems, which create opportunities for new research and tools.

  • SAMUEL LINHARES SANTANA
  •  Sharingan: Uma Ferramenta de Gerenciamento de API RESTful Utilizando Programação Orientada a Aspecto

     
  • Data: 22/08/2019
  • Mostrar Resumo
  • Em um cenário global, as APIs estão se tornando uma parte cada vez mais importante da Web. Há um conjunto cada vez maior de serviços disponíveis, originários de cenários globais e de crescimento explosivos, como mobilidade conectada, cidades inteligentes ou a internet das coisas. Em um cenário de mercado, a competição baseada em inovação vem ganhando maior importância nos últimos anos, uma questão central para os pesquisadores é como a Tecnologia da Informação (TI) pode ajudar as empresas a fortalecer sua capacidade inovadora. Nesse contexto, as APIs são uma parte muito importante das empresas de software modernas, pois permitem que diferentes empresas interajam oferecendo produtos mais inovadores. Através desses dois cenários é possível observar a grande relevância que as APIs estão ganhando no contexto de tecnologia, isso significa que as empresas precisam valorizar mais as suas APIs, pois, de acordo com alguns autores, as APIs podem ser o destaque de uma empresa, responsável direto por gerar a principal fonte de lucro financeiro. Uma das formas de valorizar a importância das APIs é através de uma boa documentação e da prática de gerenciamento de API, ou seja, ter informações de usabilidade, acessos, erros, consumo e usuários são fundamentais para uma API de sucesso. Este trabalho descreve o Sharingan, um módulo de gerenciamento para documentação e gerenciamento da API RESTful implementado usando Programação Orientada a Aspectos. (AOP). O Sharingan monitora as solicitações HTTP direcionadas para a API, bem como suas respostas aos clientes, e extrai e persiste as informações compostas nos corpos dessas solicitações. Essas informações são usadas para criar um painel de análise que permite aos usuários entender e tomar decisões sobre a API gerenciada. O módulo de gerenciamento foi avaliado em um estudo de caso e, devido aos seus resultados, foi aplicado a outras APIs dentro de uma organização pública brasileira.

     
  • ANTONILSON DA SILVA ALCANTARA
  • O USO DE ELEMENTOS DE GAMIFICAÇÃO PARA O ENSINO E APRENDIZAGEM DO PROCESSO DE GERÊNCIA DE CONHECIMENTO

  • Data: 13/08/2019
  • Mostrar Resumo
  • Considerando a relevância do conhecimento para as organizações e para outros setores da sociedade, este trabalho apresenta um FrameworkGamificado usado como parte do planejamento de uma Gamificação proposta por Alcantara e Oliveira (2018), para apoio ao ensino dos ativos e do processo de gestão do conhecimento, visando a criação de um cenário que estimule os participantes.  São feitos detalhamentos do Framework, descrevendo as Dinâmicas selecionadas para compor esta proposta, as Mecânicas presentes no Framework, enfatizando: o detalhamento das formas de bonificações, juntamente com os diferentes tipos de Medalhas e suas características, que podem ser conquistadas ao longo da dinâmica; a forma de composição do Ranking; e, os Elementos de Jogos usados ao longo da Gamificação. Também são definidas as atividades, que compõem cada etapa do fluxo, com suas respectivas Pontuações, além de ser apresentado o Plano de Execução do Framework, onde é mostrado o planejamento elaborado com base na proposta apresentada por Alcantara e Oliveira (2018), para ensino e aprendizagem da Gestão do Conhecimento. Em seguida são apresentados os materiais de apoio tais como Planilha de Gamificação, Cardsde Conhecimento, Ficha Individual de Acompanhamento, e Quadro de Conhecimento. Por fim, detalhamos a aplicação desse Frameworkem três Estudos de Caso, seguido de uma avaliação qualitativa por meio de uma análise SWOT do FrameworkGamificado e, logo após, é apresentado a análise quantitativa dos dados coletados em cada estudo de caso, além de apresentar as considerações finais.

  • MARCOS VENICIOS CORREA DE SOUSA
  • Agente Fuzzy para Redução da Fatura de Energia Elétrica em Cenários de Geração Distribuída

  • Data: 08/07/2019
  • Mostrar Resumo
  • De problemas climáticos à necessidade de diversificação da matriz energética pelos países do mundo, a produção de energia a partir de fontes renováveis vem sendo um tema bastante recorrente. A tecnologia existente permite a conexão com a rede elétrica dessa energia em nível de geração, transmissão e distribuição. Ao nível de redes de distribuição existe o maior dos benefícios que as fontes de energias renováveis podem oferecer: o consumidor gerar sua própria energia e adicioná-la à rede elétrica de distribuição. Mas essa conexão distribuída, sem os devidos cuidados, pode ocasionar problemas para a rede de distribuição, comprometendo a qualidade de energia oferecida pela rede elétrica a outros usuários. As conexões de geradores de fontes renováveis podem causar os seguintes problemas de energia: variação de tensão, intermitência de geração que afetam a qualidade da energia e frequências de corrente elétricas com harmônicos. Outro contraponto de fontes renováveis, como sistemas fotovoltaicos, é o alto custo inicial de instalação sendo essa tecnologia inacessível para a maioria dos consumidores. O trabalho proposto visa desenvolver um agente controlador com tomada de decisão fuzzy que tenha a capacidade de administrar a produção de energia de fonte renovável, como sistema fotovoltaico, direcionando a energia produzida entre o consumidor, a bateria e a rede elétrica. Será realizada uma simulação comparativa entre o agente proposto e uma proposta mais simples baseada nas instalações reais aplicadas, onde será identificado o agente que gera o menor custo com faturas em um período de um ano. Os dados reais de entrada das simulações são de datasets de leitura de produção fotovoltaica e consumo residencial para o período de um ano. Segundo as simulações, o agente fuzzy se mostrou mais eficiente, de maior retorno econômico e de menor impacto para rede.

  • HUGO BRITO LIMA
  • SongVis: Visualising the Semantics of Music

  • Data: 26/06/2019
  • Mostrar Resumo
  • Can a picture accurately represent the contents of a song? In this work we introduce SongVis: an interactive, web-based, visualisation tool that represents semantic features of music. Music, despite being an aural phenomenon, is often depicted by visual means, from the ancient Greeks associating sounds with colors to virtual reality tools nowadays. To develop SongVis we considered: which features are the most important, how to extract them from music files, how to graphically represent these features, how to assemble them into a unique visualisation, how interactions could yield insights and, finally, how successful was this work considering the views of the general public. SongVis allows the comparison of songs by the inspection of their visuals, and this quality can be exploited at tasks such as: browsing music libraries for similar tracks, filtering queries based on visual features, management of music collections or playlists according to the desired visual attributes, etc. Hence, this work looks forward to benefiting the Music Information Research (MIR) field, the Information Visualisation (InfoVis) field and users in general, by providing a useful tool and a step forward at the representation of music semantics.
  • DIEGO HORTENCIO DOS SANTOS
  • Analisando o Efeito de Diferentes Níveis de Sobreposição Parcial na Percepção de Variáveis Visuais para Dados Categóricos

  • Data: 30/05/2019
  • Mostrar Resumo
  • A sobreposição de itens visuais em diversas técnicas de visualização é um problema conhecido, potencializado por questões como quantidade de dados e espaço visual disponível. Várias abordagens já foram aplicadas para diminuir o nível de oclusão em visualização de dados, tais como: jitter randômico, utilização de transparência, rearranjo no layout de visualizações, utilização de técnicas de foco+contexto, entre outras. Esta dissertação objetiva apresentar um estudo comparativo do limite percentual de sobreposição parcial e quantidade de valores distintos para diferentes variáveis visuais na representação de dados categóricos. O estudo utilizou um layout em grade onde foram analisadas as variáveis visuais: matiz da cor, luminosidade da cor, saturação da cor, forma, texto, orientação e textura, tendo a quantidade de valores distintos codificados variando de 3 a 5 valores para cada variável visual e os percentuais de sobreposição parcial estudados foram de 0%, 50%, 60% e 70%. Adicionalmente uma ferramenta foi desenvolvida para geração de cenários de visualização de forma automática, captura do tempo de resolução das tarefas e coleta das respostas dos participantes do estudo. Nos cenários gerados os participantes realizaram tarefas de localização de um padrão visual alvo gerado aleatoriamente pela ferramenta. A análise dos resultados mostrou que as variáveis visuais Matiz, Luminosidade e Forma como robustas a percentuais altos de oclusão e aumento gradativo de valores visuais codificados, destaca-se a variável visual Texto com bons resultados para a acurácia e tempo de resolução, a variável visual Textura apresentou problemas de identificação com o aumento do nível de oclusão e quantidade de valores distintos e por fim, as variáveis visuais Orientação e Saturação apresentaram o maior quantitativos de erros durante a realização dos testes marcando, com isso, os piores desempenhos entre as variáveis visuais analisadas.

  • FELIPE ROCHA DE ARAUJO
  • Mobility Prediction based on Markov Model with User Similarity using Location-Based Social Networks data

  • Data: 29/04/2019
  • Mostrar Resumo
  • The increasing availability of location-acquisition technology, e.g., embed GPS in smartphones, has created a new specificity of social networks, known as Location-Based Social Networks (LBSNs). It enables users to add a location dimension to existing online social networks in a variety of ways. In this context, LBSNs users stopped being only consumers to become data producers, offering various research opportunities such as mobility prediction and recommendation systems. In addition, LBSN data contains spatial, temporal, and social features of user activity, providing valuable information that is currently available on a large scale and low-cost form via traditional data collection methods. Several models have been proposed for mobility prediction based on LBSN, where most of them use historical records to identify user and group movements. In this sense, Markov Chain (MC) is one of the statistical models used in user mobility prediction, which aims to find the probability of an event happening given $n$ past events conforming to the order of the model. In this master thesis, we introduce the TEmporal Markov Model with User Similarity (TEMMUS) mobility prediction model. It considers an MC of variable order based on the day of the week (weekday or weekend) and the user similarity to predict the user's future location. The results highlight a higher performance of TEMMUS compared to other predictors.

  • FABIO ROCHA DE ARAUJO
  • ESBA: hybrid Energy-Saving video Bitrate Adaptation algorithm to deliver videos with high Quality of Experience and energy-efficiency for mobile users

  • Data: 29/04/2019
  • Mostrar Resumo
  • The number of mobile devices that use video streaming applications has been steadily rising year after year. Platforms responsible for providing multimedia service face great challenges in delivering high-quality content for mobile users due to frequent disconnections, often caused by user movements and heavily energy-dependence of mobile devices. A video adaptation approach with Quality of Experience (QoE) and Energy-saving support is a key issue to mitigate these problems, enhancing user QoE, as well as reducing the energy consumption in mobile devices. In this master thesis, we propose a hybrid Energy-Saving video Bitrate Adaptation algorithm (ESBA) to deliver videos with high QoE and energy-efficiency for mobile users. In addition, we consider an Artificial Neural Network (ANN) approach for individual network throughput prediction. Simulation results show the efficiency of ESBA compared to existing adaptation video bitrate algorithms, reducing the number and duration of player stalls, as well as saving energy of mobile devices. Moreover, observing results, we notice that the ANN approach overcomes current throughput prediction approaches present in literature in specific scenarios, permitting the adaptation algorithm to respond more efficiently to network changes.

  • WALISSON CARDOSO GOMES
  • Colônia Artificial de Abelhas com Parametrização Adaptativa

  • Data: 15/03/2019
  • Mostrar Resumo
  •  

    Não há dúvidas de que a otimização numérica rendeu vários frutos às ciências e engenharias, e dentre os algoritmos para otimização, as meta-heurísticas têm galgado seu caminho, figurando como um dos ramos mais prolíficos em termos de publicações. Esta dissertação se foca em uma destas meta-heurísticas, o algoritmo Colônia Artificial de Abelhas, que alcançou destaque nas últimas duas décadas pela sua eficiência e simplicidade de configuração. Mais precisamente, dá continuidade à pesquisa de auto-determinação de parâmetros do ABC, iniciada com a versão dotada de controle de diversidade, chamada ABCD. Esta pesquisa concentra-se em pontos específicos do algoritmo, o número de dimensões modificadas simultaneamente na equação de busca e a relação entre o tamanho da população e o número de iterações. Utilizando funções de teste bem conhecidas na literatura, o trabalho determina empiricamente regras lineares que funcionem relativamente bem para problemas com diferentes características. Como resultado, com base no número de consultas máximo à função objetivo, determinado pelo usuário, o algoritmo estima automaticamente todos os parâmetros para sua execução. Esta metodologia introduz simultaneamente facilidade de uso por parte do operador do algoritmo, ao reduzir a necessidade de configuração, e segurança pela maior estabilidade dos resultados.

     

  • GILSON ROCHA SILVA
  • MODIFICAÇÕES EM CONSTRUÇÕES DE CÓDIGO DE ACESSO A DADOS PARA MELHORAR O CONSUMO DE ENERGIA DE SOFTWARE

  • Data: 27/02/2019
  • Mostrar Resumo
  • Com as aplicações Big Data em ascensão, uma perspectiva orientada a dados no estudo do consumo de energia em sistemas de software pode constribuir para o desenvolvimento de software eficiente do ponto de vista energético. Apesar da crescente necessidade, ainda são poucos os recursos (ferramentas, livros, cursos, guias e etc) para dar suporte aos desenvolvedores na criação código com melhor eficiência no consumo de energia. Com isso, este trabalho busca apresentar um estudo sobre as diversas classes da linguagem de programação Java que fazem leitura e escrita de dados, através de experimentos em diferentes ambientes. O objetivo é estudar variados métodos de acesso a dados para propor refatorações entre esses métodos visando uma maior eficiência energética. E através dos resultados obtidos, espera-se dar mais subsídios aos engenherios de software na construção de aplicações com maior eficiência no consumo de energia. 

  • PEDRO LUIZ MAGALHAES CUMINO
  • Energy Efficient Video Dissemination in Software Defined Unmanned Aerial Networks

  • Data: 26/02/2019
  • Mostrar Resumo
  • Título: Energy Efficient Video dissemination in Software Defined Unmanned Aerial Networks
     
    Resumo: Collaboration among multiple Unmanned Aerial Vehicles (UAVs) to set up a Flying Ad-Hoc Network (FANET) is a growing trend due to its capacity to support a wide range of application. Applications that work with video transmission in FANETs should always deliver a satisfactory video quality to the users even under influence of network topology changes caused by the energy consumption of UAVs. However, one of the main challenges in FANET is how the impact of limited energy resources of UAVs can be mitigated on the FANET operation in order to monitor the environment for a long period of time. In this sense, it is required UAV replacement in order to avoid the premature death of nodes, network disconnections, route failures, void areas, and low-quality video transmissions. This work proposes a cooperative UAV scheme for enhancing video transmission and global energy efficiency, called VOEI. Based on a Software Defined Network (SDN) paradigm, the VOEI assumes the existence of a centralized controller node to compute reliable and energy-efficient routes, as well as detects the appropriate moment for UAV replacement by considering global FANET context information to provide energy-efficient operations. Based on simulation results, we conclude that VOEI can effectively mitigate the energy challenges of FANET, since it provides energy-efficiency operations, avoiding network death, route failure, and void area, as well as network partitioning compared to state of the art algorithm.
  • YURI SANTA ROSA NASSAR DOS SANTOS
  • Cenários para Análise Visual do Comportamento de Técnicas Computacionais Evolucionárias

  • Data: 25/02/2019
  • Mostrar Resumo
  • Os algoritmos de aprendizado de máquina e técnicas evolutivas são usados em muitas
    aplicações para geração automática de modelos de decisão. Às vezes, é necessário descrever
    como os modelos de decisão dessas abordagens funcionam e isso pode não ser uma tarefa
    fácil. Essa tarefa pode ser complexa porque a maioria desse tipo de modelos não apresentam
    claramente seus procedimentos internos para tomada de decisão. Dessa forma, cenários
    de visualização da informação foram propostos neste trabalho para análise do processo
    evolutivo da ferramenta AutoClustering. Esta ferramenta gera automaticamente algoritmos
    de agrupamento baseados em densidade para um dado conjunto de dados utilizando a
    técnica evolucionária Algoritmo de Estimativa de Distribuição. Alguns dos cenários foram
    sobre fitness e evolução populacional (algoritmos de agrupamento) ao longo do tempo,
    parâmetros de algoritmos gerados, número de ocorrências do indivíduo nas gerações e
    outros. Com isso, essas análises podem auxiliar em, por exemplo, possibilitar a utilização de
    parâmetros otimizados para o Autolclustering e seus algoritmos, impactando diretamente
    no tempo de processamento e na qualidade dos algoritmos gerados.

  • RENATA KELLY DANTAS CASCAES
  • Adaptação e Automatização de um Teste de Cancelamento para Avaliação do Comportamento Visual Exploratório

  • Data: 25/02/2019
  • Mostrar Resumo
  • Testes que avaliam estratégias individuais de exploração visual podem ser úteis para descobrir desvios do desenvolvimento típico, como o transtorno do espectro autista e a dislexia. Um subgrupo de testes de exploração visual, chamados de testes de cancelamento, exige a identificação de alvos específicos cercados por distratores. No entanto, a falta de versões automatizadas desses testes limita sua disponibilidade a um público maior. No presente trabalho, apresentamos uma versão automatizada de um teste de cancelamento: o teste dos carros. Embora o teste seja projetado para ser usado por especialistas, é de fácil utilização, otimizando tanto a aplicação quanto a análise dos dados coletados. Primeiramente, foi avaliado o teste dos carros em um grupo de crianças de seis a nove anos matriculadas em uma escola particular. Então, após algumas modificações baseadas nas observações feitas durante o primeiro teste, um segundo teste foi realizado em uma escola pública com um grupo maior de crianças permitindo uma análise estatística dos dados coletados. Os resultados sugerem que o teste dos carros é eficaz em fornecer informações sobre estratégias de exploração visual adotadas por crianças e está de acordo com os resultados de testes similares encontrados na literatura.

  • FERNANDO JARDEL JARDIM DOS SANTOS
  • UMA FERRAMENTA PARA A ANÁLISE DO COMPORTAMENTO DE INDIVÍDUOS NÃO VERBAIS (SAPAJUS SPP.)

    AO ARRASTAREM E RELACIONAREM OBJETOS EM AMBIENTES VIRTUAIS POR MEIO DE TELAS TOUCHSCREEEN

  • Data: 22/02/2019
  • Mostrar Resumo
  • A tecnologia exerce papel preponderante na inserção de novas ações ao repertório de movimentos humano, visto a velocidade com que novos equipamentos e paradigmas de interação são criados. Com o surgimento das telas touchscreen, telas que são sensíveis ao toque, diversas ações foram aprimoradas e outras inseridas ao repertório de movimentos da mão humana. A inclusão da tecnologia touchscreen em pesquisas científicas sobre cognição e análise do comportamento já ocorre, visto que muitos estudos foram desenvolvidos utilizando estas interfaces de interação, contudo, dentre tais pesquisas, o comportamento de “tocar” ainda é o mais utilizado. Com o intuito de ampliar o espaço amostral destas pesquisas investigando a aquisição do comportamento de “arrastar” estímulos visuais em indivíduos não verbais, especificamente macacos-prego do gênero Sapajus spp., este trabalho propõe o desenvolvimento do Arrasta!, uma ferramenta computacional que possibilita a criação de cenários de testes virtuais, com objetos interativos, que adicionalmente captura dados relativos às interações do usuário para análise posterior. O objetivo principal desta pesquisa consiste em verificar se o comportamento de “arrastar” pode ser inserido ao repertório de movimento destes indivíduos não verbais, assim como, se estes são capazes de relacionar tais estímulos e seguir uma programação de testes especifica. A partir dos dados obtidos com a aplicação do Arrasta! em Sapajus spp. será possível investigar a aquisição de repertórios relacionais generalizados em humanos com atraso no desenvolvimento cognitivo.

  • PEDRO MONTIBELER SALVADOR
  • AVALIAÇÃO E APRIMORAMENTO DE RESILIÊNCIA TOPOLÓGICA EM REDES DEFINIDAS POR SOFTWARE

  • Data: 20/02/2019
  • Mostrar Resumo
  • Redes Definidas por Software desacoplam os planos de controle e encaminhamento, facilitando e flexibilizando a gerência em redes de computadores. Essa separação de planos introduz novas preocupações quanto a resiliência da rede, devido a dependência dos comutadores aos dispositivos controladores. Falhas que comprometam o funciona- mento do plano de controle, ou que prejudiquem a comunicação entre os planos, impactam o funcionamento da rede. Além disso, por serem responsáveis pela detecção de quedas de nó ou de enlace e recálculo de rotas, uma comunicação ineficiente com os dispositivos controladores pode comprometer a recuperação de falhas na rede. Durante a fase de planejamento de uma Rede Definida por Software, projetar uma topologia com redundâncias, onde a conectividade entre os planos seja eficiente e tolerante a falhas, aprimora a resiliência da rede a cenários de falhas. Trabalhos relacionados tipicamente analisam apenas a redundância da conectividade entre os planos, e propõe o aprimoramento da resiliência através somente de otimizações na configuração topológica do plano de controle, alterando a quantidade e posicionamento dos dispositivos controladores na rede, observando através de experimentação que a estrutura topológica do plano de encaminhamento influencia diretamente os resultados. Propõe-se um fator de resiliência, que analisa múltiplas características intrínsecas da topologia, tais como a redundância no plano de controle, e a conectividade, eficiência e vulnerabilidade de comunicação entre os planos, para servir como um indicativo objetivo de sua resiliência. Também é proposta a aplicação de algoritmos de aprimoramento topológico para aumentar a resiliência de topologias, conforme indicado pelo fator proposto, realizando otimizações em ambos os planos das topologias. Um algoritmo de aprimoramento topológico baseado em algoritmo genético é introduzido, sendo aplicado em um conjunto de topologias teste juntamente com diferentes algoritmos da literatura. Em paralelo, um algoritmo de posicionamento de controlador é aplicado, para comparação de desempenho. Os ganhos obtidos nas di- ferentes características de resiliência demonstram que o aprimoramento das topologias obtida pela otimizacção conjunta de ambos os planos supera o posicionamento ótimo de controlador.

  • PAULO SENA FERREIRA FILHO
  • RatioCache: Uma Política de Decisão Para Ocupação de Cache Baseada na Taxa de Reposição de Conteúdos Para Redes Centradas em Informação


     

     
  • Data: 18/02/2019
  • Mostrar Resumo
  • Redes Centradas em Informação (Information-Centric Network- ICN) caracterizam-se por armazenar conteúdos nos roteadores ao longo da rede, reduzindo o consumo da largura de banda, carga no servidor e aumentando a Qualidade de Experiência (QoE - Quality of Experience) dos usuários finais. O comportamento de ICN é determinado por uma tupla de três estratégias, as quais são: Roteamento, Inserção e Reposição de conteúdo, onde os algoritmos de roteamento influenciam no desempenho da inserção de conteúdo, os quais por sua vez influenciam o desempenho das políticas de reposição. Também já foi provado que as políticas de inserção influenciam em um sentido inverso o desempenho do roteamento, todavia, não há trabalho focado em provar a influência dos algoritmos de reposição na inserção de conteúdo. Portanto, esta dissertação propõe uma nova métrica chamada Taxa de Reposição (Replacement Ratioe uma nova política de inserção chamada Ratio-Cache, para provar que a reposição de conteúdo, a qual é fortemente ligada ao sistema de armazenamento, influencia o processo de armazenamento no sentido reverso. Os resultados aumentaram a probabilidade de encontrar conteúdo (cache hit probability), ao mesmo tempo que a sobrecarga no servidor e a latência na rede foram reduzidas. Portanto, o desempenho da estratégia RatioCache mostra que as políticas de reposição de conteúdo influenciam as políticas de inserção (caching) e melhoram o desempenho da rede.

     

  • REGINALDO CORDEIRO DOS SANTOS FILHO
  • Otimização contínua global com melhoramentos para o enxame de partículas.

  • Data: 18/02/2019
  • Mostrar Resumo
  • Muitos algoritmos de otimização têm sido propostos para resolver problemas da engenharia e da computação que envolvem a otimização de um conjunto de parâmetros reais. Um problema de otimização contínua é geralmente classificado como NP-difícil, o que o torna uma tarefa complexa de encontrar a solução ótima global. Neste contexto, abordagens populares de metaheurísticas baseadas em população de estruturas simples têm surgido durante os últimos anos. Uma delas é o algoritmo de Otimização por Enxame de Partículas (PSO) que é não determinístico, randômico, inspirado na natureza e especializado em resolver problemas de otimização ``caixa-preta''. PSO tem sido usado por muitos especialistas de diferentes áreas da ciência, uma vez que o algoritmo tem potencial para resolver problemas complexos por meio de formulações matemáticas simples. Embora este método seja amplamente utilizado em aplicações reais, existem desvantagens intrínsecas embarcadas na estrutura do algoritmo. Algumas delas são bem conhecidas, a citar o mecanismo de busca desperdiça tempo computacional devido ao \textit{random walk}, o processo de convergência é geralmente lento, alguns pontos são revisitos durante o processo de busca, áreas promissoras não são apropriadamente investigadas, o algoritmo está propenso a convergência prematura e os parâmetros do algoritmo são dependentes do problema. Nesta tese, o autor apresenta melhorias para o PSO original através da incorporação de características determinísticas e matrizes de rotação, além de realizar análises empíricas sobre rotação e troca de informação entre as partículas. Um otimizador por enxame de partículas semi-autônomas, cunhado de SAPSO, que usa informações de gradiente e controle de diversidade para otimizar funções multimodais é fornecido. O algoritmo proposto previne as desvantagens de abordagens não determinísticas e determinísticas, reduzindo os esforços computacionais  de investigação local e escapando de ótimos locais. Esta tese também investiga se a rotação e a troca de informação entre partículas impactam o desempenho do PSO. Quatro versões do PSO que incluem a presença e ausência da propriedade \textit{rotation variance}, além da troca rápida e lenta de informações entre partículas são avaliadas. Outro algoritmo chamado ISAPSO é também proposto com o objetivo de unir as característica promissoras encontradas por ambas contribuições. As simulações numéricas revelaram resultados convincentes quando os algoritmos SAPSO e ISAPSO são avaliados em um conjunto de problemas de otimização e comparados com outros algoritmos PSOs. Além disso, uma metodologia rigorosa baseado em um número confiável de execuções e testes de hipóteses estatísticas é conduzida para fortalecer as discussões.

  • ELZIANE MONTEIRO SOARES
  • IDENTIFICAÇÃO DO PERFIL DAS EMPRESAS DE TECNOLOGIA DE INFORMAÇÃO E COMUNICAÇÃO DO ESTADO DO PARÁ UTILIZANDO OS MÉTODOS EXPERIMENTAIS SURVEYGROUNDED THEORY

  • Data: 31/01/2019
  • Mostrar Resumo
  • Nos últimos anos tem-se intensificado a utilização de métodos voltados para o estudo experimental, estudos de caso, pesquisas de opinião e experimentos controlados, métodos estes inseridos no contexto da Engenharia de SoftwareExperimental, a qual investiga teorias, métodos e técnicas pela experimentação. Este estudo tem como objetivo investigar como as empresas de Tecnologia de Informação e Comunicação (TIC) no estado do Pará executam em suas rotinas de trabalho os objetivos descritos na competência de Cliente e Mercado (CM) do Modelo Orientador para Sucesso de Empreendimentos (MOSE). Como forma de se atingir este objetivo, os métodos experimentais surveygrounded theory foram utilizados neste trabalho, sendo o primeiro definido e aplicado com representantes das empresas de TIC da capital paraense, e posteriormente a utilização do segundo método para auxiliar nas análises realizadas nos dados coletados, o que consequentemente permitiu a criação da teoria substantiva referente ao perfil das empresas. A pesquisa teve como resultados o fornecimento de uma visão mais consistente do modo de atuação que estas empresas operam sob a perspectiva (competência) de CM, o que pode contribuir como vantagem competitiva diante do mercado, pois atualmente o cenário de tecnologia do estado tem pouca visibilidade em relação a outros estados, muito pela falta de conhecimento que se tem da realidade das empresas de TIC paraenses.

  • ANDRE AVELINO DA SILVA NETO
  • Considerações de usabilidade para sistemas eleitorais resistentes à coerção

  • Data: 21/01/2019
  • Mostrar Resumo
  • Eleições via Internet oferecem mais comodidade aos eleitores, possibilitando-os votar de qualquer lugar conectado a grande rede mundial. No entanto, devido a inexistência de um ambiente controlado, estas eleições podem potencializar ataques coercivos. Nestes ataques, opressores (adversários) podem facilmente influenciar eleitores na escolha de seus candidatos. Embora não exista uma solução ótima para esse problema, modernos sistemas para eleições via Internet possuem meios para mitigá-lo e são denominados resistentes à coerção. De forma a resistirem a ataques coercivos, tais sistemas dependem fortemente da participação direta do eleitor. Essa dependência pode resultar em ineficácia caso o usuário encontre dificuldades para utilizar os mecanismos de resistência à coerção. Diante disso, o presente trabalho objetiva investigar problemas de usabilidade relacionados a interação entre eleitor e sistemas resistentes à coerção. Para isso, um destes sistemas foi utilizado como estudo de caso, no qual uma série de testes de usabilidade foi executada. O sistema foi alterado três vezes, visando encontrar problemas que pudessem ser generalizados a outros sistemas eleitorais que ofereçam resistência à coerção. Como resultado, o trabalho propõe uma série de considerações de usabilidade, que discutem os principais problemas encontrados e indicam possíveis soluções que podem ser adotadas. Tais considerações pretendem auxiliar no design de interface e interação de sistemas resistentes à coerção práticos e capazes de equilibrar requisitos de segurança e usabilidade.

2018
Descrição
  • ERICSON SARMENTO COSTA
  • Ferramentas e recursos gratuitos para conversão texto-fala baseada em modelos ocultos de Markov no Português do Brasil.

  • Data: 11/12/2018
  • Mostrar Resumo
  • A conversão texto-fala (TTS) é atualmente uma tecnologia madura usada em muitas áreas como a educação e a acessibilidade. Alguns módulos destes sistemas dependem de conhecimento prévio da linguagem alvo, e enquanto existe muitos recursos públicos para algumas línguas (por exemplo: Inglês e Japonês), os recursos para o Português do Brasil (PB) ainda são muito limitados. Assim, este trabalho descreve o desenvolvimento de um sistema TTS completo baseado em modelos ocultos de Markov (HMM) utilizando o toolkit HTS (HMM Text to Speech toolkit) para PB, o qual pode ser aplicado ao ambiente desktop e embarcado, incluindo os scripts de treinamento com uma interface gráfica, uma base de dados de treinamento para demonstração, e uma interface de programação para aplicações com o motor de síntese HTS_engine. Também foi incluído nos scripts de treinamento um grande conjunto de ferramentas de processamento de linguagem natural (NLP), dentre elas um módulo específico e inédito de rotulação de texto para gerar entradas para o HTS_engine, o que expande de forma considerável os recursos publicamente disponíveis para o PB em relação aos sistemas TTS baseados em HMM, permitindo novas pesquisas acadêmicas e aplicações pela indústria. Todas estas ferramentas juntas foram chamadas de UFPAT2S Framework. Para validar o desempenho do UFPAT2S foram desenvolvidos testes que permitem comparar o sistema proposto com outros sistemas disponíveis no mercado através de avaliações subjetivas e objetivas com ouvintes voluntários.

  • ESTÊVÃO DAMASCENO SANTOS
  • A UTILIZAÇÃO DE ELEMENTOS DE GAMIFICAÇÃO PARA O ENSINO DA TÉCNICA DE ANÁLISE DE PONTOS DE FUNÇÃO

  • Data: 10/12/2018
  • Mostrar Resumo
  • Com o desenvolvimento de novas tecnologias a todo momento e o aumento da concorrência entre as organizações, é essencial que estas busquem alcançar a qualidade no desenvolvimento de suas aplicações. Uma ferramenta essencial para isso é a Análise de Pontos de Função (APF). Mediante a isto torna-se essencial que os alunos tenham contato com essa técnica o mais cedo possível. Assim, este estudo tem como objetivo utilizar os conceitos de gamificação para estimular o apoio ao ensino e engajamento da motivação dos alunos na disciplina de Qualidade em Software ministrada no curso de pós-graduação em ciência da computação da UFPA. Para isso, foram definidas aulas para ensinar a técnica de APF que utilizavam elementos de jogos como motivação para os alunos. Portanto, esta pesquisa resultou em um enriquecimento do conhecimento desses alunos na prática de estimativa, comumente presente e recomendada o uso em modelos de qualidade de software. Este trabalho visa contribuir para o ensino da técnica de APF para estudantes, visando uma melhor preparação para o mercado de desenvolvimento de software. Verificou-se também que a utilização de elementos de gamificação para o ensino desta técnica de estimativa foi eficiente, pois os alunos participantes dedicaram-se mais às tarefas e foram participativos em todos os diferentes tipos de aula.

  • EDSON COSTA DIAS
  • PROCESSO DE SOLUÇÃO TÉCNICA DO CMMI-DEV PARA PROJETOS DE MANUTENÇÃO DE SOFTWARE: UM ESTUDO DE CASO DE IMPLEMENTAÇÃO

  • Data: 25/10/2018
  • Mostrar Resumo
  • Organizações que atuam no segmento de desenvolvimento de software desempenham papéis importantes no contexto econômico mundial, isso é um fato evidente nos dias atuais. Parte dessas organizações são caracterizadas como Pequenas e Médias Empresas (PME) e elas reconhecem que para produzirem softwares com qualidade e concentrarem esforços para serem competitivas na indústria, precisam melhorar seus processos das atividades de produção de software. Há ainda um segmento das PME de softwares que concentram grande parte de suas atividades na manutenção de software e enfrentam dificuldades nas tarefas para correção de erros no código ou mesmo para adaptação ou evolução dos requisitos dos softwares. Neste contexto, esta dissertação apresenta uma abordagem de um processo de Solução Técnica (Technical Solution– TS) para projetos de manutenção de software tendo como referência o modelo CMMI-DEV. O propósito da área TS é projetar e implementar os requisitos quando estes já estão desenvolvidos e prontos. O caso de implementação dessa área foi realizado no Centro de Tecnologia da Informação e Comunicação (CTIC) da Universidade Federal do Pará (UFPA). O CTIC tendo o perfil de uma PME, é o órgão da instituição que possibilita soluções de tecnologias de informação e comunicação para a comunidade universitária da UFPA, incluindo serviços de desenvolvimento e manutenção dos produtos de softwares utilizados na pela instituição. A implementação da TS no CTIC partiu de um mapeamento da área na organização, seguido da modelagem e finalizando com uma avaliação para ter a evidência de que a implementação realizada na organização estivesse aderente às práticas descritas no modelo CMMI-DEV. Após a avaliação, foi possível constatar que o objetivo pretendido foi alcançado, uma vez que a organização teve seu processo de Solução Técnica mapeado, modelado e melhoradopara as atividades de manutenção de software, tornando a proposta do processo viável e útil, contribuindo como um método para implementar áreas de processo seguindo a representação contínua do CMMI-DEV em PME.

  • DIEGO BENTO AIRES TEIXEIRA
  • Algoritmo Genético para Roteamento e Alocação de Comprimento de Onda em Redes Ópticas WDM com Tráfego Estático


  • Data: 10/10/2018
  • Mostrar Resumo
  • Para transmitir dados de forma eficiente através de uma rede de fibra óptica, muitos algoritmos de roteamento e alocação de comprimento de onda (RWA) têm sido propostos. Este trabalho apresenta um algoritmo genético que objetiva resolver os subproblemas do RWA, que consistem em escolher o caminho ótico mais adequado (ou seja, uma combinação de uma rota e um canal de comprimento de onda) entre um par origem-destino de nós em redes ópticas transparentes. Uma comparação com algumas abordagens já conhecidas em termos de probabilidade de bloqueio foi realizada. Os resultados mostram um desempenho satisfatório, uma vez que a probabilidade média de bloqueio atingida pelo algoritmo genético foi menor do que, ou relativamente equivalente, às das técnicas comparadas.

  • LEONARDO BARBOSA DA COSTA
  • DLCP: Um Protocolo para a Operação Segura de Clientes Leves em Blockchain
  • Data: 03/10/2018
  • Mostrar Resumo
  • Em blockchain, nodos completos são pares que armazenam cadeias completas de blocos --- que, em essência, incluem os cabeçalhos dos blocos e as transações neles contidas --- para, assim, validarem todas as novas transações inseridas. Em contrapartida, clientes leves são pares que possuem recursos limitados e, por esse motivo, eles requisitam aos nodos completos apenas os cabeçalhos dos blocos, que são suficientes para permitir a verificação de transações específicas através do uso de protocolos mais simples, como o Simple Payment Verification. Como uma abordagem convencional para impedir ações maliciosas de nodos completos durante a verificação de transações (falhas bizantinas), os clientes leves requisitam os cabeçalhos dos blocos para múltiplos nodos e comparam as respostas recebidas para validar os blocos. Um problema com essa abordagem é que um cliente leve deve conectar-se com cada nodo completo e executar as mesmas operações criptográficas para cada conexão repetidamente, o que resulta em sobrecarga no lado do cliente e tempos de resposta maiores. Nesse trabalho, propõe-se uma abordagem alternativa para tratar esse problema, no qual os clientes leves são capazes de criptografar uma requisição de cabeçalhos dos blocos apenas uma vez e enviar tal requisição para um conjunto pre-determinado de nodos. Estes são então capazes de acessar, processar e responder de volta ao cliente com uma única resposta. Essa abordagem, chamada de Distributed Lightweight Client Protocol (DLCP), permite aos clientes leves verificar com baixa complexidade se os nodos completos concordaram sobre uma dada resposta. A partir de avaliações experimentais, observou-se que o DLCP provê menor latência e reduz a sobrecarga de computação e comunicação em comparação com a abordagem convencional existente.
  • MICHELL COSTA OLIVEIRA DA CRUZ
  • MODELO PARA TOMADA DE DECISÃO NO PROCESSO DE IMPUTAÇÃO DE DADOS FALTANTES

  • Data: 19/09/2018
  • Mostrar Resumo
  • Dados geralmente contêm valores ausentes e as razões são diversas. Valores ausentes ocorrem quando as medições falham, quando os resultados da análise são perdidos ou quando as medições são incompreensíveis. Logo, os registros de dados estão incompletos, o que pode causar análises de dados ineficientes e decisões imprecisas. A forma que analistas lidam com dados incompletos pode ser um trabalho difícil, sendo a diferença entre estudos enviesados e não-enviesados. Técnicas de imputação são umas das principais maneiras de tratar dados faltantes. No entanto, vários fatores devem ser considerados na hora de se decidir o método mais indicado para uma base específica. Desse modo, este trabalho desenvolveu um modelo de decisão cujo objetivo é auxiliar no processo de imputação de dados, guiando o analista através de quatro etapas. Elas permitem (a) determinar, através de técnicas de visualização, os mecanismos geradores de dados faltantes, (b) realizar o tratamento de outliers, (c) executar simulações em amostras completas da base para definir, por meio de métricas de avaliação, qual a técnica de imputação mais eficiente para um conjunto de dados, e (d) realizar a imputação com a técnica selecionada como melhor opção. A metodologia proposta foi avaliada simulando a ocorrência de dados faltantes e seus mecanismos em cinco bases de dados reais através de cinco técnicas (Média, Hot-Deck, KNN Imputation, IRMI, MICE) de imputação considerando as métricas RMSE, MAE, MPE, Acurácia Categórica e Tempo de Execução. Seguindo o modelo de decisão proposto, os resultados mostraram a influência negativa dos outliers na imputação e a escolha da melhor técnica para cada cenário. Com isso, conclui-se que o modelo de tomada de decisão desenvolvido consegue orientar o analista nas etapas do processo de imputação de dados faltantes.

  • FABIO MALCHER MIRANDA
  • Aprimorando montagens metagenômicas através do particionamento de dados de sequenciamento pelo conteúdo GC

  • Data: 31/08/2018
  • Mostrar Resumo
  • A montagem de dados metagenômicos sequenciados por plataformas NGS acarreta em grandes desafios computacionais, especialmente devido ao grande volume de dados, erros de sequenci- amento – tais como a inserção, a deleção e a substituição de bases – e variações de tamanho, complexidade, diversidade e abundância dos organismos presentes em um determinado metage- noma. Embora existam diversas soluções computacionais que realizam o particionamento de dados para reduzir o uso de recursos computacionais durante a montagem de metagenomas, estas ferramentas não utilizam a composição de nucleotídeo das leituras – ou seja, a quantidade de bases Adenina, Guanina, Citosina e Timina presentes nas sequências de DNA – para aprimorar a qualidade das montagens. Assim, neste trabalho é proposto o desenvolvimento de uma ferramenta de bioinformática de código aberto chamada GCSplit, que foi implementada na linguagem de programação C++ e divide as sequências metagenômicas em subconjuntos usando uma métrica pouco dispendiosa computacionalmente: o conteúdo GC (percentual de bases Guanina e Citosina) das sequências. O algoritmo proposto utiliza como entrada arquivos no formato FASTQ contendo as leituras curtas sequenciadas pela plataforma Illumina e em seguida computa os melhores valores de k-mer para realizar a montagem por meio do software KmerStream. Posteriormente, o conteúdo GC de cada uma das sequências é calculado em paralelo, através da paralelização possibilitada pela biblioteca OpenMP e as sequências são ordenadas em ordem crescente de acordo com o conteúdo GC pelo algoritmo intro sort, que possui implementação paralelizada na biblioteca STL do C++. As sequências são então particionadas em n subconjuntos e cada uma dessas partições é montada individualmente pelo programa metaSPAdes. Por último, essas n montagens são concatenadas em uma montagem final realizada pelo montador SPAdes e é gerado um arquivo de saída no formato FASTA, que pode ser utilizado em análises posteriores como a predição gênica ou binning. Experimentos realizados em dados reais – cujas amostras foram extraídas dos seguintes ambientes: do rúmen de um alce, de fontes termais na Califórnia, de uma estação de tratamento de esgoto na Argentina, do intestino humano e do lago Lanier, que fica localizado no sudeste dos Estados Unidos – mostram que o pré-processamento de leituras curtas com o GCSplit antes da montagem reduz o consumo de memória e gera resultados de maior qualidade, como aumento no tamanho do maior contig e na métrica N50, enquanto tanto o valor L50 quanto o número total de contigs produzidos na montagem foram reduzidos. O GCSplit está disponível para download através do endereço <https://github.com/mirand863/gcsplit> e requer a instalação do compilador GCC na versão 4.4.7 ou superior, da biblioteca OpenMP e dos programas KmerStream e metaSPAdes.

  • CAIO MARCOS FLEXA RODRIGUES
  • Um novo índice de validade de cluster baseado no espalhamento equidistante mútuo para clusterização crisp

  • Data: 22/08/2018
  • Mostrar Resumo
  • A clusterização de dados tem sido amplamente utilizada na descoberta do conhecimento para revelar estruturas de dados úteis ao analista. Como uma das tarefas mais importantes do reconhecimento de padrões, a clusterização particiona um conjunto de dados em grupos cujos elementos do mesmo cluster são semelhantes e elementos de clusters diferentes são dissimilares. Algoritmos de clusterização em geral supõem que o número de clusters K é conhecido, embora não haja conhecimento prévio sobre o conjunto de dados. Consequentemente, o significado dos grupos definidos precisa ser validado. Índices de validade de cluster são comumente usados para realizar a validação de resultados da clusterização. No entanto, a maioria deles é considerada dependente do número de objetos de dados e, geralmente, tende a ignorar grupos pequenos e de baixa densidade. Além disso, soluções de cluster subótimas são frequentemente selecionadas quando os clusters estão em um certo grau de sobreposição ou baixa separação. Assim sendo, propomos um novo índice de validade interna não paramétrico baseado no espalhamento equidistante mútuo dentro do cluster para clusterização crisp. Sete diferentes índices de validade foram analisados em comparação com o índice proposto, a fim de detectar o número de clusters em conjuntos de dados. Experimentos em dados sintéticos e do mundo real mostram a eficácia e confiabilidade de nossa abordagem para validar o hiperparâmetro K.

  • ISAAC SOUZA ELGRABLY
  • O USO DE ELEMENTOS DE GAMIFICAÇÃO PARA O ENSINO DA TÉCNICA DE TDD

  • Data: 29/06/2018
  • Mostrar Resumo
  • Com a maior imersão das equipes de desenvolvimento de software aos métodos e práticas ágeis, tornou-se necessário que os alunos tenham cada vez mais cedo o contato com práticas oriundas dos Testes Ágeis. Assim, este estudo tem como objetivo utilizar conceitos de gamificação para estimular o apoio ao ensino e engajar a motivação de um grupo de alunos na disciplina de Qualidade de Software ministrada na graduação e pós-graduação. Para isso, foram separadas aulas para o ensino de testes ágeis que utilizaram elementos de jogos como motivação para os alunos. Diante disso, esta pesquisa teve como resultado um enriquecimento do conhecimento destes alunos em práticas de testes. Este trabalho busca contribuir com o ensino de práticas de testes ágeis para alunos, visando um melhor preparo para o mercado de desenvolvimento de software. Pôde-se constatar, ainda, que a utilização de elementos da gamificação para o ensino de testes ágeis foi eficiente, pelo fato de que os alunos participantes dedicaram-se mais às tarefas e foram participativos em todos os diferentes cenários de aprendizagem que foram ministrados.

  • VITOR CIRILO ARAUJO SANTOS
  • MGCOMP: Sistema computacional multiplataforma para análise comparativa de metagenoma

  • Data: 04/05/2018
  • Mostrar Resumo
  • A metagenômica estuda comunidades de microrganismos, não cultiváveis em laboratório, a partir da seleção de amostras do meio ambiente. As amostras ou metagenomas são submetidas a um sequenciamento em larga escala e posteriormente analisadas por pipelines de bioinformática. A análise das sequencias permite estimar o impacto da presença ou ausência desses microrganismos nos respectivos metagenomas. Assim, dados metagenômicos permitem a identificação das assinaturas taxonômicas e funcionais disponíveis em uma metagenoma. As assinaturas geralmente não são exploradas de forma integrada e a falta de metadados ambientais limitam inferências de contexto na análise de dados. Neste trabalho propomos uma ferramenta computacional (MGCOMP) que fornece um conjunto de funcionalidades para análise comparativa de metagenomas. Além disso, como proposta principal, oferecemos uma nova abordagem de comparação metagenômica baseada em uma metodologia integrada para identificar e comparar assinaturas metagenômicas, correlacionando-as com fatores ambientais (quando disponíveis). As assinaturas são apresentadas de forma hierárquica (estruturada em árvore), uma espécie de conjunto de clusters aninhados. Estes clusters são calculados através de uma estratégia computacional desenvolvida para avaliar de forma ótima as partições de clusterização. Foi desenvolvida também uma visualização em árvore de bolhas (por Javascript) para guiar a exploração interativa das assinaturas metagenômicas. No que nos diz respeito, a análise integrada das assinaturas ambientais e visualização interativa nunca foram explorados anteriormente.

  • RAFAEL NASCIMENTO DE SOUZA
  • UFAHAMU: UM FRAMEWORK PARA APLICAÇÕES MÓVEIS ANDROID CONSCIENTES DE CONTEXTO

  • Data: 12/04/2018
  • Mostrar Resumo
  • Um campo da Computação Ubíqua tem se destacado significativamente na última década: a Computação Consciente de Contexto. Sistemas conscientes de contexto podem adaptar suas funcionalidades ao ambiente em que estão inseridos sem a intervenção direta do usuário. Este trabalho apresenta o Ufahamu, um framework Java para Android que facilita o desenvolvimento de aplicações conscientes de contexto. Este framework foi construído utilizando a abordagem Contexto-Regra-Ação com o objetivo de complementar limitações de frameworks anteriores. A contextualização, a motivação e o projeto do Ufahamu são apresentados em detalhes, bem como sua implementação e as suas validações. Três validações foram conduzidas, uma através do desenvolvimento de um app utilizando o próprio framework, uma comparando o framework proposto com 3 outros frameworks sob um ponto de vista de complexidade de código e, por último, uma validação  através de um experimento conduzido com engenheiros de software. Os resultados são promissores e sugerem que o framework Ufahamu, de fato, facilita o desenvolvimento de aplicações conscientes de contexto.

  • PEDRO ALBERTO BENTO GOMES
  • Previsão do Nível de Atividade de Abelhas com Redes Neurais Recorrentes e Seleção de Atributos

  • Data: 06/04/2018
  • Mostrar Resumo
  • Um terço dos alimentos consumidos pela humanidade depende, até certo ponto, da polinização das abelhas. Houve vários relatórios nos últimos anos ilustrando a diminuição da população de abelhas em todo o mundo. Uma compreensão de seu comportamento, discutido aqui do ponto de vista do nível de atividade da colônia, pode auxiliar na detecção de situações adversas e melhorar a utilização de abelhas como polinizadores nas culturas. Neste trabalho, várias arquiteturas de Redes Neurais Recorrentes são exploradas na tarefa
    de prever o nível de atividade das abelhas com base nos valores dos níveis de atividade passados e dados ambientais como: temperatura, radiação solar e pressão barométrica. Também mostramos como melhorar a acurácia do nosso modelo usando diferentes tamanhos de janelas de tempo dos dados de entrada, algoritmos de seleção de atributos e análise de correlação entra as variáveis.

  • PHELIPE LUIZ DIAS FEIO
  • PROPOSTA DE METODOLOGIA DE CLASSIFICAÇÃO E AVALIAÇÃO DE BROKERS PARA INTERNET DAS COISAS

  • Data: 28/02/2018
  • Mostrar Resumo
  • Passados 18 anos desde que o termo Internet das Coisas (Internet of Things - IoT) foi cunhado por Kevin Ashton, uma gama de softwares para atender as mais diversas funcionalidades foi desenvolvida. Nesse contexto, os brokers (intermediadores) e os gateways (elementos de ligação) de IoT são ferramentas essenciais para o bom funcionamento da infraestrutura base de um ambiente de IoT.  Esta dissertação tem como objetivo principal propor uma metodologia para classificação e avaliação de brokers e gateways para IoT, utilizado métodos quantitativos e qualitativos, possibilitando aos interessados a escolha e adoção da solução mais apropriada para diferentes cenários. A metodologia proposta utiliza como base a ISO/IEC 2050, que trata da qualidade de software, para definir as métricas quantitativas e considerou aspectos relativos à experiência do usuário para definir aspectos mais qualitativos. Após a avaliação é realizado um processo de benchmarking para classificar comparativamente as ferramentas analisadas. Para validar a proposta, a metodologia desenvolvida foi aplicada para avaliar e classificar nove dos principais brokers e gateways IoT do mercado, baseados em código aberto.

  • ANDRE LUIZ DE GUSMAO
  • UMA PROPOSTA DE PROCESSO PARA CONSTRUÇÃO DE ECOSSISTEMAS DE SOFTWARE BASEADA NA EVOLUÇÃO ARQUITETURAL DE PRODUTOS 

  • Data: 28/02/2018
  • Mostrar Resumo
  • Ecossistemas de software tem tido uma grande popularidade na última década. É perceptível que grandes empresas com Apple, Google e Facebook tem contribuído para a popularidade dessa abordagem, influenciando diversas empresas a construir ou converter produtos em ecossistemas de software. Pode-se observar também uma tendência na indústria de software pela transição de produtos para ecossistemas de software a partir de mudanças na arquitetura para permitir o envolvimento de atores externos à organização no desenvolvimento de extensões para o ecossistema. Apesar da popularidade, na literatura é possível encontrar relatos de desafios ao construir um ecossistema a partir de um produto de software. Esses desafios são categorizados como desafios de negócios, técnicos, organizacionais e sociais. Esses relatos da literatura em sua maioria acabam sendo bastante acoplados com o contexto em que o ecossistema foi construído, o que torna difícil reproduzir o processo de construção de ecossistemas presentes em alguns trabalhos. Dessa forma, este trabalho tem como objetivo propor um processo para a construção de ecossistemas. O processo proposto visa permitir a reprodução da construção de ecossistemas. Para validar o processo proposto foi realizado um estudo de caso com o software WebAPSEE aplicando a processo para a construção de um ecossistema, focando na evolução arquitetural do produto para uma plataforma. 

  • DANIEL HANNEMANN
  • "Uma Solução Para a Predição do Índice Fluviométrico do Rio Amazonas em Santarém Utilizando Abordagem Neuro-Fuzzy" 
     
        

     

  • Data: 28/02/2018
  • Mostrar Resumo
  • Este trabalho apresenta uma proposta para monitoramento e previsão do nível das águas do rio Amazonas na cidade de Santarém, utilizando abordagem Neuro-Fuzzy e dados históricos sobre o ciclo anual fluviométrico. Os dados foram coletados em três estações, nas cidades de Santarém, Manaus e Itaituba, e foram filtrados ao período de março de 2003 ao final de fevereiro de 2017. Foram realizadas análises dos dados para estabelecer valores limítrofes de alertas de situações emergentes para o monitoramento da cota do rio, compreendendo cinco importantes momentos acerca dos volumes de água: seca, seca-normal, normal, normal-cheia e cheia. A série histórica pode ser considerada como confiável, uma vez que é possível identificar claramente os ciclos anuais hidrológicos dos rios. Soluções preditivas utilizando técnicas estatísticas e computacionais são capazes de automatizar tais previsões com taxas relativamente baixas de erro do nível de um rio. Com isso, considera-se que a solução proposta no presente trabalho pode ser utilizada para nortear ações que minorem os transtornos causados à população da cidade de Santarém nas situações extremas dos volumes de água do rio Amazonas. Ainda mais importante, a abordagem proposta demonstrou poder ser aplicável em qualquer ambiente com diferentes ciclos hidrológicos e, assim, possível aplicabilidade global.

  • DANILENO MEIRELES DO ROSARIO
  • Uma Análise Comparativa de Transmissão de Stream de Vídeo em Flying Ad Hoc Networks em uma Perspectiva Sobre Múltiplos Fluxos

  • Data: 28/02/2018
  • Mostrar Resumo
  • A experiência do usuário em assistir vídeos em tempo real transmitidos por veículos aéreos não tripulados (VANTs) deve ser satisfatória, mesmo sob a influência de alterações de topologia causadas pela mobilidade desses VANTs em Flying Ad Hoc Networks (FANETs). No entanto, um dos principais desafios para rotear pacotes em FANETs é como amenizar os efeitos da mobilidade dos VANTs para evitar falhas de comunicação, atrasos e “áreas isoladas”, o que aumenta a perda de pacotes durante as transmissões de vídeo. Desta forma, os protocolos de roteamento devem considerar um mecanismo de posicionamento de nós para encontrar a localização ideal de VANTs que atuam como nós de retransmissão e, assim, evitar os efeitos dessa mobilidade na transmissão de vídeos. Baseado em três protocolos bem conhecidos na literatura (BLR, XLinGo e MobiFANET), esta dissertação realiza uma análise comparativa de transmissão de stream de vídeos em FANETs sob uma perspectiva de múltiplos fluxos simultâneos. O objetivo é analisar a qualidade dos vídeos recebidos no destino a partir da transmissão em tempo real de múltiplos fluxos simultâneos de vídeo, ou seja, a partir de vários nós de origem, mantendo o bom desempenho da rede. 

  • KLEOSON BRUNO CORREA DOS SANTOS
  • REACT: UMA ABORDAGEM ÁGIL DE APOIO AO PROCESSO DE DESENVOLVIMENTO DE REQUISITOS DE SOFTWARE BASEADO EM EVIDÊNCIAS EMPÍRICAS

  • Data: 28/02/2018
  • Mostrar Resumo
  • Nos últimos anos, a adoção e a criação de novas abordagens ágeis na indústria de software cresceu consideravelmente diante da tentativa de minimizar alguns problemas das abordagens tradicionais, bem como, alguns desafios dos próprios métodos ágeis atuais. Neste sentido, a Engenharia de Requisitos Ágil surge como uma proposta promissora, a qual utiliza as práticas, princípios e valores dos métodos ágeis para serem aplicados nas atividades da Engenharia de Requisitos. Sobre este último, destaca-se o processo de Desenvolvimento de Requisitos, uma subárea da Engenharia de Requisitos essencial para a evolução criteriosa dos requisitos ao longo de um projeto de desenvolvimento de software. Neste cenário, a finalidade deste estudo é apresentar o REACT (Requirements Evolution in Agile ContexT), uma proposta de método ágil para o desenvolvimento dos requisitos de um produto de software, totalmente fundamentado em evidências empíricas da indústria de software, nas práticas da Engenharia de Requisitos Ágil e nos resultados esperados do processo de Desenvolvimento de Requisitos constante nos modelos de qualidade MR-MPS-SW e CMMI-DEV. Estas evidências empíricas consistem de outras abordagens ágeis de apoio às atividades de Desenvolvimento de Requisitos, as quais foram identificadas e analisadas por meio de uma Revisão Sistemática da Literatura. Em posse dos resultados deste estudo secundário, o REACT foi concebido a fim de atender a todas as atividades relacionadas ao desenvolvimento dos requisitos de software de forma completa, eficiente e ágil. Esta abordagem ágil proposta foi avaliada por meio de um Estudo de Caso, conduzido em um projeto real para o desenvolvimento de um produto destinado ao ensino na área da Engenharia de Software. Dentre os resultados, em síntese, observou-se que este método ágil proporcionou mais eficiência, simplicidade, completude, flexibilidade e organização na evolução dos requisitos ao longo deste projeto. Desta forma, este estudo contribui à comunidade científica e à indústria de software fornecendo uma nova abordagem ágil específica para requisitos, bem como, inserida no contexto da Engenharia de Requisitos Ágil e dos modelos de qualidade de processos de software.

  • RICARDO RODRIGO MARINHO MELO
  • CROWDSOURCING NO DESENVOLVIMENTO DE SOFTWARE: CARACTERIZAÇÃO DA COLABORAÇÃO NOS DESAFIOS DA PLATAFORMA TOPCODER

  • Data: 27/02/2018
  • Mostrar Resumo
  • Em crowdsourcing uma tarefa é divida em pequenas partes que são realizadas pela “crowd”. Crowdsourcing em engenharia de software significa que esta tarefa é uma tarefa de desenvolvimento de software. O TopCoder é maior plataforma de crowdsourcing do mundo na área de engenharia de software que realiza desafios de programação. O vencedor de um desafio recebe uma compensação financeira. Este trabalho descreve uma análise qualitativa da colaboração entre os coders que atuam na plataforma TopCoder. A análise foi feita a partir das mensagens trocadas entre os coders dos desafios que ocorreram nos meses de Julho e Agosto de 2017. Esta análise considerou dois tipos de codificação: a primeira identifica o tipo de mensagem e a segunda identifica o tema relacionado. Os resultados deste trabalho sugerem que, apesar desta ser uma competição, existem diferentes tipos de colaboração entre os coders. Estes resultados podem ser utilizados para sugerir mecanismos que permitam incentivar a colaboração dos coders na plataforma. 

  • PAULO ROBERTO SILVA CHAGAS JUNIOR
  • Avaliação de arquiteturas de Redes Neurais Convolucionais para classificação de imagens de gráficos

  • Data: 26/02/2018
  • Mostrar Resumo
  • Em uma era onde a quantidade de dados disponíveis cresce continuamente, formas de representar esses dados se fazem necessárias para que o ser humano possa entendê-los e fazer inferências a partir dos mesmos. No entanto, nem sempre é possível acessar esses dados, de modo que em vários cenários somente os gráficos estão disponíveis para análise. Assim, métodos automáticos de extração de dados de imagens de gráficos se fazem necessários, permitindo um posterior tratamento desses dados recuperados. Nesse contexto, o processo de extração de dados dos gráficos pode ser dividido em duas etapas: classificação e extração. Este trabalho foca na etapa de classificação, propondo uma avaliação de Redes Neurais Convolucionais para esta tarefa. Para treinamento e teste, foi utilizada uma base de imagens geradas automaticamente e de forma aleatória, para 10 tipos de gráficos (Arco, Área, Barra, Coordenadas Paralelas, Linha, Matriz, Pizza, Scatter Plot, Sunburst e Treemap). Da mesma forma, imagens foram coletadas da internet para compor uma base de validação, de modo que se possa verificar se os classificadores conseguem generalizar os 10 tipos de gráficos de forma satisfatória treinando somente com imagens sintéticas. Para validar a metodologia proposta, testes sistemáticos foram realizados utilizando diferentes arquiteturas de Redes Neurais Convolucionais que estão presentes na literatura (VGG-19, Resnet-50 e Inception-V3), e comparando as mesmas com classificadores convencionais (K-Nearest Neighbor, Naive Bayes, Support Vector Machine e Random Forest) combinados com o método de extração de características HOG. Os resultados mostraram que os modelos Resnet-50 e Inception-V3 obtiveram as maiores acurácias na base de validação, com 77,76% e 76,77% respectivamente. Além disso, as matrizes de confusão foram analisadas a fim de verificar não só as diferenças em desempenho dos classificadores mas também como cada um se comporta para cada classe.

  • ALESSANDRA PRISCILA ALVES DE OLIVEIRA
  • Um Pipeline para a Predição de Genes em Dados Metatranscriptômicos

  • Data: 26/02/2018
  • Mostrar Resumo
  • Através de estudos de dados metagenômicos, é possível definir quais
    organismos estão presentes em uma amostra e as suas atividades.
    Ferramentas para predição de genes em dados metagenômicos foram criadas
    para definir quais são os genes presentes na amostra, mas é necessário que
    mais ferramentas estudem os dados dos transcritos a fim de compreender o
    comportamento delas, como o TransGeneScan. Este artigo apresenta o
    GeneFinder-TR, um pipeline para predição de genes em dados
    metatranscriptômicos. O pipeline teve os melhores resultados em metade dos
    testes, obtendo até 95,14% de acurácia em suas predições.

  • ALEXANDRE ABREU DE FREITAS
  • Avaliação da Interação por Rastreamento de Cabeça em Aplicações Web para Ambiente Desktop

  • Data: 26/02/2018
  • Mostrar Resumo
  • Novos cenários interativos estão surgindo com o avanço tecnológico, como quiosques com displays sensíveis ao toque, aplicações de realidade aumentada e virtual, entre outros. Estes novos cenários estimulam o desenvolvimento de novos métodos de interação não convencionais, os quais fogem dos tradicionais mouse e teclado, como, por exemplo, o rastreamento de cabeça, o rastreamento dos olhos, a detecção de gestos, entre outros, que podem ser utilizados por diversos perfis de usuários, incluindo os com deficiência motora, por exemplo. Geralmente, quando estas novas tecnologias de interação são aplicadas como substitutas do mouse e teclado, e não como uma nova forma de interação, com suas particularidades e adequada de forma diferente, de acordo com o perfil do usuário e a interface. Com base neste contexto, esta dissertação busca avaliar a interação e navegação através do rastreamento de cabeça em aplicações web na plataforma desktop, incorporando uma metodologia de avaliação que combine uma análise no aspecto quantitativo e qualitativo. Foram realizados testes com algumas tecnologias de rastreamento de cabeça, e a escolhida para o desenvolvimento deste trabalho foi o software eViacam utilizando webcam comum. Serão feitos testes em web browser, com tarefas especificas de sites popularmente conhecidos, tais como: google.com, youtube.com, g1.com, entre outros. A avaliação busca identificar problemas de interação com o rastreamento de cabeça com as aplicações web, assim como na organização da interface. São coletados diversos dados, como: tempo para completar tarefas, número de cliques em componentes, quantidade de entradas no componente antes de interagir com o mesmo, localização de componentes, etc. Por fim, esses dados são pré-processados e analisados em busca de padrões e outleirs para indicação de boas práticas na utilização de rastreamento de cabeça em aplicações Web.

  • ELLTON SALES BARROS
  • Um Método de Classificação de Movimento Imaginado dos Braços Utilizando Emotiv EPOC+ e Openvibe.

  • Data: 26/02/2018
  • Mostrar Resumo
  • Este trabalho de dissertação mantém seu foco sobre brain-computer interfaces, processamento e classificação sinais eletroencefalográficos. O trabalho apresenta um método de classificação que tem como objetivo identificar qual membro é considerado durante a realização do movimento imaginado (MI), por exemplo, determinar se o indivíduo está imaginando o movimento do braço direito ou do braço esquerdo. Sinais de Eletroencefalografia (EEG) são utilizados como entrada para o classificador e métodos de processamento de sinais são utilizados para melhorar o resultado da classificação. O método criado tem como objetivo melhorar a acurácia da classificação desse processo através de uma análise e avaliação dos parâmetros que fazem parte das etapas de pré-processamento à classificação dos sinais de EEG. 

  • ANGELO LUIZ DA CRUZ OLIVEIRA
  • UMA ABORDAGEM PARA A IMPLEMENTAÇÃO DA GESTÃO DO CONHECIMENTO DOS RESULTADOS ESPERADOS DO MR-MPS-SW USANDO A REDE SOCIAL FACEBOOK

  • Data: 23/02/2018
  • Mostrar Resumo
  • Estudos mostram que a falta de práticas de gestão de conhecimento em uma organização pode comprometer seus processos de negócios gerando um conjunto de problemas, entre elas a perda de produtividade e qualidade em seus serviços. Assim, muitas empresas passaram a utilizar ferramentas que apoiam estas práticas, buscando aumentar suas vantagens competitivas no mercado. Logo, este trabalho tem como objetivo apresentar uma implementação dos resultados esperados da área de Gestão de Conhecimento do MR-MPS-SW usando as funcionalidades da rede social Facebook como ferramenta de apoio a essas práticas. Neste trabalho é relatado, também, o cenário no qual foi abordada a aplicação/avaliação e os resultados obtidos durante a pesquisa.

  • JOAHANNES BRUNO DIAS DA COSTA
  • Disseminação de Dados baseada em métricas de Redes Complexas para Sistemas de Transporte Inteligentes

  • Data: 23/02/2018
  • Mostrar Resumo
  • Serviços que visam tornar o sistema de transporte atual mais seguro, sustentável e eficiente constituem o arcabouço conhecido como Sistemas de Transporte Inteligentes (ITSs). Pelo fato dos serviços necessitarem de dados, comunicação e processamento para operação, as Redes Veiculares Ad-Hoc (VANETs) exercem forte influência nesse contexto, por possibilitar comunicação direta entre os veículos e, adicionalmente, que dados sejam trocados e processados entre eles. Diversos serviços em ITSs requerem informações disseminadas entre os veículos para tomada de decisões. Contudo, essa disseminação é uma tarefa desafiadora, devido características específicas das VANETs, tais como, comunicação de curto alcance e alta mobilidade dos nós, resultando em variações constantes em sua topologia. Diante dos desafios, neste trabalho é apresentado um protocolo para disseminação de dados em cenários urbanos que considera métricas de redes complexas em seu funcionamento, denominado DDRX. O DDRX toma proveito dos beacons que são trocados periodicamente na rede para coletar informações dos veículos e assim construir um grafo de diâmetro 2 para análise topográfica local da rede, onde os vértices são veículos e as arestas os links de comunicação entre veículos vizinhos. Com o grafo local criado, é possível identificar os melhores veículos para continuarem o processo de disseminação. Resultados de simulações mostram que o DDRX oferece alta eficiência em termos de cobertura, número de transmissões, atraso e colisões de pacotes em comparação aos protocolos amplamente conhecidos de disseminação de dados. Complementarmente, o DDRX oferece melhorias significativas a um sistema de gerenciamento de trânsito distribuído que necessita das informações de trânsito disseminadas de forma eficiente, possibilitando que os veículos fiquem menos tempo em congestionamentos, atinjam maiores velocidades médias e tenham menor tempo de viagem.

  • ALUIZIO RAMOS PEREIRA NETO
  • UM ESTUDO SISTEMÁTICO SOBRE O CONTROLE ESTATÍSTICO DE PROCESSOS E A DEFINIÇÃO DE UM CATALAGO DE ABORDAGENS

  • Data: 23/02/2018
  • Mostrar Resumo
  • O Controle Estatístico de Processos (CEP) tem sido utilizado em organizações de software (acadêmicas e industriais) para a análise dos processos fundamentais, aderentes aos objetivos estratégicos da organização. O CEP é utilizado na representação (gráficos de controle) e análise dos dados coletados (medição) dos processos da organização. Através desta análise, os desvios (falhas) dos processos são identificados e corrigidos. Assim, é definida a estabilidade e a capacidade do processo (baseline). Existem alguns estudos que falam sobre o CEP no contexto de software, entretanto, estes ainda não descrevem de forma aprofundada as abordagens relacionadas ao mesmo. O objetivo desta dissertação de mestrado é desenvolver uma Revisão Sistemática da Literatura (RSL) que identifique quais abordagens: frameworks, métodos, ativos, ferramentas que apoiam o Controle Estatístico de Processos. Com estes resultados, foi definido um catálogo de abordagens, descrevendo e exemplificando as formas de uso de cada delas. O catálogo pode auxiliar as organizações de software a compreender e aplicar melhor as abordagens nele descritas, facilitando, assim, a implementação do CEP nas organizações.

  • JAIR DA SILVA FERREIRA JUNIOR
  • Análise de Perfil de Motoristas: Uma Investigação com Diferentes Sensores e Técnicas de Aprendizado de Máquina

  • Data: 22/02/2018
  • Mostrar Resumo
  • O comportamento do motorista afeta a segurança do tráfego, o consumo de combustível/energia e as emissões de gases dos veículos. A Análise de Perfil de Motorista (APM) tenta entender e influenciar positivamente o comportamento do motorista. Geralmente, a APM envolve a coleta automatizada de dados de condução e a aplicação de modelos de computador para gerar uma classificação que caracterize o perfil de agressividade do motorista. Diferentes sensores e métodos de classificação têm sido empregados nesta tarefa, no entanto, soluções de baixo custo e alto desempenho ainda são alvos de pesquisa. Esta dissertação apresenta duas principais contribuições. A primeira é uma investigação com diferentes sensores de smartphones Android e algoritmos de classificação, a fim de avaliar quais combinações de sensor e método permitem a classificação de eventos agressivos de condução com maior desempenho. A segunda contribuição é uma proposta de máquina de comitê composta de um subconjunto dos modelos de aprendizado de máquina investigados. Os resultados mostram que (i) combinações específicas de sensores e métodos inteligentes permitem melhorar o desempenho da classificação; e (ii) a máquina de comitê proposta tem desempenhos de classificação e de tempo superior aos melhores modelos convencionais avaliados, tornando possível seu uso em tempo real em um smartphone.

2017
Descrição
  • GEORGE HAMILTON BARBOSA FERNANDES OTA
  • UMA HARMONIZAÇÃO DAS ATIVIDADES DO ITIL COM PRÁTICAS DO CMMI-SVC COM FOCO NA IMPLEMENTAÇÃO DOS PROCESSOS  DO LIVRO SERVICE DESIGN

  • Data: 20/12/2017
  • Mostrar Resumo
  • O mercado de Tecnologia da Informação é atualmente um dos pouco que se mantiveram em expansão de 2015 à 2016 no Brasil, essa fato decorre da constante atualização de seus produtos e serviços, assim como à percepção de seus clientes quanto aos benefícios estratégicos trazidos pelas ferramentas digitais que as empresas de TI podem desenvolver, comercializar e implementar. Segundo analista da Gatner Group, muitas empresas ainda buscam cortar custos, mas, em muitos casos, o que obtivem com a economia nesse processo foram redirecionadas para investimento em TI, para suportar as mudança da área de negócio em base digital com melhor performance e agregado valor a seus produtos e serviços. Provedores de serviço de TI, atendo a esse cenário, buscam obter certificações disponíveis no mercado que melhorem a credibilidade e confiança por empresas interessada em aquisição de produtos e serviços de qualidade. Entretanto, nem sempre uma certificação consegue atender por completo as necessidades desses provedores, isso as leva a adotar mais certificações. Quando isso acontece, surgem diversos problemas devido as diferentes estruturas e componentes dos modelos de certificações adotados, o que demanda mais tempo além de gerar custos extras com a implantação de dois ou mais modelos de certificação. Os desafios de implementar vários modelos em uma organização podem ser contornados com uso de implementações multimodelos, de forma que as divergências entre os modelos sejam harmonizadas por meio de um mapeamento entre os modelos selecionados. Nesse sentido, este trabalho apresenta uma proposta de harmonização entre as atividades dos processos do  framework  ITIL com práticas específicas do modelo de melhoria de processo de serviço utilizado na indústria, o CMMI-SVC. O foco desta harmonização reside nos processos do Livro da ITIL Service Design, que visa projetar, desenvolver e identificar o que é necessário para fornecer o serviço de TI com qualidade e que dê suporte à estratégia de negócio da organização. Os resultados da harmonização foram verificados passo a passo, incluindo uma revisão por pares da harmonização e foram assistidos por um especialista na estrutura ITIL e no modelo CMMI-SVC. Desta forma, o objetivo deste trabalho é correlacionar as estruturas desses padrões e assim obter benefícios com a redução de tempo e custos para implementação conjunta e estimular a execução de implementações de vários modelos para o gerenciamento de serviço de TI.

  • BRUNO GARCIA DA COSTA
  • CLASSIFICAÇÃO DE FALTAS DO TIPO CURTO CIRCUITO EM LINHAS DE TRANSMISSÃO UTILIZANDO KNN-DTW

  • Data: 15/12/2017
  • Mostrar Resumo
  • Os sistemas de classificação de faltas em linha de transmissão podem ser divididos em dois tipos: sistemas de classificação on-line e pós-falta. Este trabalho foca na classificação de sequências representado faltas do tipo curto-circuito em linhas de transmissão em um cenário pós-falta. Neste cenário as sequências possuem comprimento (duração) variável. Na classificação de sequência é possível utilizar classificadores convencionais tais como Redes Neurais artificiais. Neste caso, o processo de classificação requer um pré-processamento ou um estágio de front end que converta os dados brutos em parâmetros sensíveis para alimentar o classificador. Uma solução para este problema são as arquiteturas baseada em frames (FBSC). O problema da arquitetura FBSC é que esta possui muitos graus de liberdade na concepção do modelo (front end mais classificador) devendo este ser avaliado usando conjunto de dados completo e uma metodologia rigorosa para evitar conclusões tendenciosas. Alternativamente à arquitetura FBSC, este trabalho propõe o classificador K-Nearest Neighbor associado a medida de similaridade Dynamic Time Warping (DTW) denominado de KNN-DTW para classificação de faltas. Este classificador é capaz de lidar diretamente com as sequências de tamanhos diferentes, sem a necessidade do uso de um front end, diminuindo o pipeline imposto pela arquitetura FBSC. Nos experimentos foram utilizados dados simulados de faltas do tipo curto-circuito, oriundos de uma base de dados pública chamada UFPAFaults. Foi realizada uma comparação em termos de desempenho entre o classificador KNN-DTW e a arquitetura FBSC. No caso da arquitetura FBSC diferentes front ends (ex. wavelet e rms) e classificadores convencionais (ex. máquinas de vetores de suporte e redes neurais) foram testados. Os resultados obtidos indicam que o classificador KNN-DTW, mesmo em um cenário com ruído nas amostras, apresenta desempenho próximo à arquitetura FBSC, porém sem a necessidade do uso de front end o que diminui o custo computacional desse classificador.

  • FERNANDO FABIO DIAS GAMA DA MATA
  • Investigando Métodos Inteligentes para Detecção de Anomalias em Comportamento de Insetos Sociais

  • Data: 14/12/2017
  • Mostrar Resumo
  • Abelhas são um dos mais importantes polinizadores uma vez que auxiliam na reprodução das plantas assegurando a produção de sementes e frutos. Elas são importantes tanto na polinização quanto na produção de mel o que beneficia pequenos e grandes agricultores. No entanto, nos últimos anos, a população de abelhas vem diminuindo de maneira significativa em escala global. Neste cenário, a compreensão do comportamento das abelhas tornou-se uma questão de grande importância e preocupação na tentativa de encontrar as possíveis causas desta situação. Neste trabalho, nosso objetivo é propor, desenvolver e investigar metodologias que combinem métodos não supervisionados para detecção de anomalia baseado em distância e modelos supervisionados baseados em aprendizagem de máquina. Os resultados mostram que a combinação das técnicas permite a detecção de eventos anômalos em comportamento de insetos de forma satisfatória.

  • CASSIO TRINDADE BATISTA
  • Uma Proposta de Sistema de Controle Remoto Universal e Multimodal Baseado em Movimentos da Cabeça e Comandos de Voz.

  • Data: 06/12/2017
  • Mostrar Resumo
  • A evolução tecnológica, num sentido amplo, caminha para que as pessoas possam interagir com os equipamentos eletrônicos de forma mais fácil. Por outro lado, para pessoas com deficiência, essa interação torna-se algo mais do que simples: ela se torna possível.  Este trabalho apresenta uma proposta de um sistema de controle remoto universal, multimodal, livre e de baixo custo que permite o controle remoto de dispositivos eletrônicos através de comandos de voz e gestos da cabeça. Além disso, um circuito sensor de proximidade foi combinado a módulos de rádio-frequência para agir, em paralelo a um comando de voz, como um acionador externo sem fio.  Dentre as aplicações encontradas a respeito de controles remotos alternativos para aparelhos eletrônicos convencionais (que recebem informação remota via luz infravermelha), nenhuma dá suporte a gestos da cabeça como entrada, tampouco à combinação deste método de interação com a voz, o que certamente seria uma opção viável para pessoas cujos membros superiores são comprometidos. Uma avaliação objetiva foi realizada especificamente sobre as técnicas implementadas como método de entrada do sistema. Como resultado, foi possível constatar muitas vantagens e algumas desvantagens em relação a metodologia proposta. Um teste subjetivo, baseado em um questionário mean opinion score, também foi aplicado com objetivo de avaliar o protótipo do sistema de modo geral, o qual mostrou grande interesse da parte dos participantes em um possível produto final.

  • RENATO RENISON MOREIRA OLIVEIRA
  • GAVGA: Um Algoritmo Genético para Montagem de Genomas

  • Data: 11/10/2017
  • Mostrar Resumo
  • A bioinformática tem crescido consideravelmente desde o desenvolvimento do primeiro sequenciador de DNA, sendo bastante utilizada atualmente para análise e tratamento dos dados gerados pelos chamados sequenciadores de nova geração. Genomas virais representam um grande desafio para a bioinformática devido a apresentarem uma alta taxa de mutação, o que os permite formar quasi-espécies em um mesmo hospedeiro infectado, o que dificulta bastante a montagem e posterior análise desses genomas virais. Neste trabalho, foi implementado e avaliada a performance de um algoritmo genético, chamado GAVGA, que realiza a montagem de genomas virais. O processo de montagem do GAVGA primeiramente realiza a clusterização das sequências (reads) que compartilham uma substring comum (seed) e, para cada cluster, é utilizado um algoritmo genético para verificar se há sobreposição essas reads, dada uma porcentagem de similaridade mínima. Os resultados do GAVGA foram comparados aos montadores Newbler, SPAdes e ABySS, assim como também ao montador viral VICUNA. Tais resultados confirmaram que o GAVGA montou corretamente os dados, obtendo dados melhores que dos outros montadores. O GAVGA foi implementado em Python 2.7+ e pode ser baixado no endereço https://sourceforge.net/projects/gavga-assembler/.

  • HERNAN DARIO CARREÑO LAGUADO
  • Performance evaluation of platoon-based approaches for video dissemination in terms of quality of experience 

  • Data: 27/06/2017
  • Mostrar Resumo
  • Vehicular Ad-hoc NETworks (VANETs) promise a wide scope of multimedia services ranging from security and traffic announcements to entertainment and advertising videos. However, VANETs have a dynamic network topology with short contact time, which decreases the Quality of Experience (QoE) of transmitted videos due to frequent disconnections in the communication between neighbors vehicles. Live video dissemination is fundamental for services like smart-video surveillance, propagation of video in a emergency situation like an accident, and others. To mitigate those problems on VANETs, emerges a solution called platoon (platooning), where vehicles with similar interest form a platoon-driving pattern to move in same direction with similar speeds. However, most of the current approaches for platooning on VANETs does not focus in streaming of realtime videos. This master thesis make a performance evaluation in terms of QoE of two platooning approaches, one with a choosing mechanism based on game theory for video transmission with QoE support, called TJ2P, and other without a choosing mechanism with Control Cruise controller (CC) extended and modified to support video transmission, called Plexe. Simulation results confirm the efficiency of the T2JP approach, without increase the fuel consumption and CO2 emission compared to Plexe approach, and shows the importance to have a mechanism to select the best relay nodes to ensure video dissemination with adequate QoE.

  • ALEN COSTA VIEIRA
  • Estratégia Evolutiva para Parametrização de
    Modelos de Previsão: Um Estudo de Caso com
    Níveis Máximos Mensais do Rio Xingu em
    Altamira/PA
    Belém-Pará

  • Data: 19/06/2017
  • Mostrar Resumo
  • No desenvolvimento de modelos de previsão, uma das etapas muito importante é na seleção
    de variáveis, pois, algumas das variáveis utilizadas podem ser redundantes ou irrelevantes,
    prejudicando o desempenho da previsão. Dependendo da quantidade de variáveis, a busca
    pelo melhor conjunto de variáveis pode ser tornar um problema de difícil solução ou até
    mesmo intratável. Nesse trabalho foi utilizado um algoritmo evolutivo para selecionar um
    conjunto de variáveis entre 18 diferentes séries temporais de climáticas e seus tamanhos das
    janelas de tempo para a predição dos níveis mensais do Rio Xingu. Quatro cenários foram
    propostos para analisar os seguintes parâmetros evolutivos: tamanho da população, taxa
    de mutação e elitismo, política de inicialização da população e representações genéticas,
    de modo a otimizar os parâmetros do algoritmo. Os resultados obtidos indicaram melhor
    desempenho na previsão de níveis máximos mensais com as variáveis selecionadas pelo
    algoritmo genético do que outras abordagens testadas no trabalho.

  • BRUNELLI PINTO MIRANDA
  • Avaliação de um Vocabulário de Gestos para Aplicações de Visualização da Informação 2D

  • Data: 02/06/2017
  • Mostrar Resumo
  • Interação é a forma pela qual ocorre a comunicação entre seres humanos e dispositivos/máquinas. Dentro das interações não-convencionais, que dispensam teclado e mouse, as interações por gestos utilizam movimentos feitos pelos usuários, permitindo um aprendizado e utilização mais intuitivos, devido aos gestos serem utilizados com frequência nas atividades do ser humano. A área de Visualização da Informação (InfoVis) possui carência de estudos sobre interações por gestos, e uma vez que em InfoVis são as interações que permitem ao usuário encontrar padrões e formular suas teorias, há a abertura de espaço para trabalhos que explorem outros tipos de interações na área de InfoVis. Com base no contexto descrito, esta dissertação de mestrado apresenta uma proposta de Vocabulário de Gestos (conjunto de gestos reconhecidos), que possa ser utilizado em aplicações desktop de InfoVis 2D com diferentes técnicas de visualização, adaptando um vocabulário previamente proposto para o cenário 3D. O vocabulário visa utilizar gestos que necessitem de pouco esforço do usuário, e que possam ser reproduzidos em dispositivos de rastreamento de gestos baseados em visão. Para validar o vocabulário, foram realizados ensaios de interação com usuários, com cenários de testes sendo constituídos de tarefas comuns à InfoVis 2D em duas ferramentas de visualização, e com a utilização do dispositivo Leap Motion para o rastreamento dos gestos. Ao final são feitas considerações sobre os resultados obtidos e melhorias para o vocabulário e interação por gestos são propostas. 

  • CARLOS GUSTAVO RESQUE DOS SANTOS
  • Um Modelo adaptativo às Transições entre Ambientes Internos e Externos para Aplicações de Realidade Aumentada Móvel

  • Data: 19/05/2017
  • Mostrar Resumo
  • A adaptação às mudanças do ambiente físico para aplicações de Realidade Aumentada Móvel (RAM) é um dos desafios atuais da área, principalmente nas transições entre ambientes interiores e exteriores, pois causam mudanças nas características do ambiente, como na iluminação que dificulta o reconhecimento do ambiente, ou aumentando a imprecisão de sensores como GPS (Global Positioning System) em ambientes interiores. De maneira geral, as aplicações de RAM ou estão voltadas somente para ambientes exteriores com registro realizado com GPS e outros sensores, ou somente para ambientes interiores com registro realizado com base em algoritmos de visão computacional. Considerando o contexto exposto, esta tese apresenta um modelo adaptativo às transições entre ambientes interiores e exteriores para aplicações RAM, com base em um enfoque híbrido, elegendo a melhor combinação entre sensores de longo alcance (GPS), sensores de curto alcance (Wi-Fi, Beacons, etc), e técnicas de visão computacional, para mitigar sobretudo os problemas de localização e orientação do dispositivo e o registro da aplicação RAM de forma transparente para usuário.Para validar o modelo foi desenvolvida uma aplicação RAM, e foram realizadas as seguintes avaliações para ambientes exteriores e interiores: precisão na classificação dos ambientes, precisão da localização e orientação do dispositivo e qualidade do registro

  • MARISSA BRASIL DE CARVALHO
  • MECANISMOS DE INTERAÇÃO E VISUALIZAÇÃO DE DADOS TEMPORAIS
    BASEADA EM TREEMAP

  • Data: 01/03/2017
  • Mostrar Resumo
  • Explorar tendências, padrões e relacionamentos são tarefas importantes quando se
    trabalha com informações e dados dependentes do tempo. Nesse âmbito, ferramentas de
    visualização de informação têm sido amplamente utilizadas na prática dessas atividades.
    Entretanto, a complexidade de projeção de visualizações aliada à complexidade da dimensão
    temporal dificulta o desenvolvimento de mecanismos de análise temporal. Consequentemente,
    visualizações que não conseguem explorar os aspectos temporais são muito comuns, pois
    apresentam o tempo como mais um atributo quantitativo. Considerando isso, este trabalho
    desenvolveu uma ferramenta de visualização de informação de dados temporais chamada de
    TreemapTemporal baseada em treemap cujo objetivo é explorar os aspectos temporais
    existentes nas informações de maneira diferenciada. Para isso, a ferramenta possui, além das
    funcionalidades do treemap, funções específicas para a análise temporal, bem como uma
    visualização auxiliar chamada BarMap e a opção de adicionar múltiplas visões dos dados. Os
    resultados obtidos durantes os testes demostraram a eficiência da ferramenta, visto que as
    funções temporais facilitaram tanto a exploração dos dados temporais quanto o tempo de
    resposta dos usuários. Além disso, as funções temporais foram avaliadas como extremamente
    essenciais para a resolução dos testes.

  • EDIAN FRANKLIN FRANCO DE LOS SANTOS
  • Abordagem computacional para a identificação de candidatos a genes housekeeping por meio de técnicas de aprendizado de máquina em dados de RNA-seq de Corynebacterium pseudotuberculosis

  • Data: 24/02/2017
  • Mostrar Resumo
  • Os genes Housekeeping (HKG) ou genes de referência são necessários para a manutenção das funções celulares basais, as quais são essenciais para a sobrevivências das células. Assim, espera-se que sejam expressos em todas as células de um organismo, independentemente do tipo de tecido, estado ou condição a que está submetida a célula. Para o estudo deste tipo de genes são usadas diversificadas abordagens, uma das mais utilizadas no Sequenciadores de Nova Geração (NGS) é a RNA Sequence (RNA-seq), uma técnica de alto rendimento, a qual permite medir o perfil de expressão genica de um tecido ou célula isolada o organismo alvo. As análises são feitas por meio do sequenciamento do DNA complementar (cDNA) para descobrir os mecanismos de transcrição que estão presentes no tecido ou célula-alvo. Os HKG são usados como referências ou controle interno nas reações e experimento de a Quantitative real-time chain reaction PCR (RT-qPCR)

    Os métodos de aprendizado de máquinas (AM) são aplicados em diferentes áreas dentro da genética e genômica, permitindo a interpretação de grandes conjuntos de dados, como aqueles relacionados à expressão gênica. Uma das técnicas mais usadas são os algoritmos de agrupamento, técnica que permite definir grupos de genes com perfis de expressão similares, o que possibilita o estudo quanto à função e à interação dos genes. A corynebacterium pseudotuberculosis, um patógeno intracelular facultativo, foi utilizado como organismo de referência. Tal organismo infecta principalmente ovelhas, cabras, equinos, entre outros ocasionando a doença linfadenite caseosa.  Para o estudo, foram utilizados os conjuntos de dados de expressão de RNA-seq das linhagens 258 e 1002 desta bactéria.

    Neste trabalho, é apresentada uma nova metodologia para a identificação de genes Housekeeping in-silico através de técnicas de aprendizado de máquina e dados de expressão genica de RNA-seq. Para a aplicação desta nova abordagem, foram utilizadas técnicas não supervisionadas de clustering e métricas estatísticas de avaliação e distância para o processamento e análises dos dados genômicos. Como resultado, foram encontrados 16 genes candidatos a housekeeping no patógeno pesquisado, que apresentam fortes indícios de estabilidade e expressão constante, que indica que podem ser de ser possíveis genes housekeeping. 

  • LUIZ OTAVIO DANIN DE LIMA
  • Um Apoio Sistematizado para Apoiar a Implementação do Processo Gerência de Decisão em Projetos de Software orientada pela Abordagem sistemática dos Modelos CMMI-Dev e MR-MPS.BR

  • Data: 24/02/2017
  • Mostrar Resumo
  • O processo de gestão de decisão consiste em uma técnica gerencial com o propósito de fornecer uma estrutura para tomar decisões a partir de um processo formal para a avaliação de alternativas de solução em relação a critérios estabelecidos. O objetivo principal da gerência de decisão é facilitar a realização de escolhas, fornecendo mecanismos necessários à sua realização. Assim, o presente trabalho apresenta uma abordagem elaborada para dar suporte à execução do processo de gestão de decisão com base no modelo de qualidade CMMI-DEV, estando também em conformidade com o modelo MR-MPS-SW. Esta abordagem de gestão de decisão é otimizada pela ferramenta Spider-DAR, que atua como facilitadora automatizando o apoio à execução do modelo de processo de tomada de decisão, gerando indicadores de que a gerência está sendo executada de forma coerente com o esperado. Neste contexto, este trabalho visa contribuir com o suporte ao processo de Gestão de Decisão de Software, através da abordagem desenvolvida de fluxo de gestão de decisão e apoiado pela ferramenta, Spider-DAR, para auxílio à implementação e execução deste processo. Para atingir tais resultados, um mapeamento entre o processo Gerência de Decisão do modelo MRMPS-SW e a área de processo Decision Analysis anda Resolution do CMMI-DEV foi realizado, visando identificar equivalências ou descompasso entre eles, o qual poderão ser vistos com detalhes no decorrer do trabalho através do mapeamento realizado. 

  • ALINE FRANCIELLE DOS ANJOS LIMA
  • PROCESSO DE DESENVOLVIMENTO DE REQUISITOS DO CMMI-DEV e MR-MPS-SW PARA PROJETOS DE MANUTENÇÃO EVOLUTIVA: UM ESTUDO DE CASO DE IMPLEMENTAÇÃO

  • Data: 20/02/2017
  • Mostrar Resumo
  • As organizações, para satisfazerem a necessidades dos clientes e serem competitivas no mercado, buscam cada vez mais a melhoria dos seus processos e consequentemente a qualidade de seus produtos. Sendo assim, a qualidade é uma variável importante a ser considerada em todo o processo de produção de um software, desde a sua construção até a sua entrega. Para manter essa qualidade, diferentes técnicas e práticas podem ser adotadas, como por exemplo, as sugeridas pelos modelos de referência CMMI-DEV e MR-MPS-SW, que buscam proporcionar as empresas modelos para melhoria de seus processos de software. Diante disso, a manutenção de software torna-se uma importante aliada no processo de desenvolvimento de software, uma vez que a mesma possibilita que erros e inconsistências sejam corrigidos em diferentes fases do ciclo de vida de um software. A importância da manutenção evolutiva é tornar cada vez mais longa a vida de um software sem que ele perca sua qualidade e suas funcionalidades, no entanto realizar manutenções evolutivas em sistemas legados nem sempre é uma tarefa fácil, tendo em vista que esses sistemas muitas vezes apresentam documentação incompleta, inconsistente ou até mesmo que foi perdida ao longo do tempo. Este trabalho tem como objetivo apresentar uma abordagem de implementação da área de processo desenvolvimento de requisitos do CMMI-DEV e MR-MPS-SW na empresa Vibe Desenvolvimento, para projetos de manutenção evolutiva com coleta de dados a partir de engenharia reversa, assim como realizar a análise da aderência do modelo implementado em relação a área de processo estudada, por meio da aplicação de questionários à equipe técnica desta empresa, e pela análise dos produtos de trabalho gerados em cada Prática Específica desta área de processo. Os resultados das análises realizadas apresentam dados que apontam que o modelo implementado atende totalmente as exigências presentes nesta área do modelo CMMI, porém alguns ajustes fazem-se necessários para que o modelo atenda plenamente as necessidades da empresa.

  • LILIAN SANTOS FERREIRA DA SILVA
  • UMA ABORDAGEM DE IMPLEMENTAÇÃO ÁGIL DO PROCESSO DE GESTÃO DE PORTFÓLIO DE PROJETOS

  • Data: 17/02/2017
  • Mostrar Resumo
  • A gestão de portfólio é um processo essencial, pois auxilia na tomada de decisões quanto à identificação, priorização, autorização, gerência e controle de projetos, programas e outros trabalhos relacionados para atingir objetivos específicos da estratégia de negócio. Dessa forma, este processo precisa estar intimamente alinhado ao planejamento estratégico, propondo então projetos mais viáveis e estratégicos dentro das organizações. Além disso, com a importância que o processo de gestão de portfólio ganhou por sua inclusão em modelos e padrões de qualidade, a quantidade de organizações buscando implantar este processo de forma eficaz e eficiente aumentou. Desta forma, esta pesquisa busca auxiliar na implantação da gestão de portfólio de projetos em pequenas e médias empresas, reduzindo as dificuldades e a excessiva documentação exigida nos processos tradicionais. Para isso, foi feito um mapeamento entre a estrutura do processo de gerenciamento de portfólio e práticas ágeis. Em seguida, foi proposta uma abordagem ágil de como realizar cada atividade do framework de gestão de portfólio, bem como a definição dos papéis envolvidos, suas habilidades e competências exigidas e os artefatos sugeridos como evidência do processo.

  • KARLA SANTOS DE OLIVEIRA
  • VoxLaPS: Um Aplicativo Gratuito de Comunicação
    Aumentativa e Alternativa

  • Data: 16/02/2017
  • Mostrar Resumo
  • Este trabalho tem como objetivo desenvolver uma aplicação voltada para a
    Comunicação Aumentativa e Alternativa (CAA), que auxilie no tratamento de
    pessoas com limitações de fala, devendo ser gratuita e destinada a dispositivos
    móveis que utilizam a plataforma Android, com suporte para o idioma Português
    Brasileiro. A ideia é que a ferramenta proposta, denominada VoxLaPS, seja eficaz
    (em relação às tarefas previstas, realizar o que dela se espera), contextual (bemadaptada
    ao meio e ao contexto de utilização) e consonante (consistente com o
    modo de vida e personalidade do usuário). Para isso, a ferramenta foi submetida a
    estudos e testes de usabilidade, junto com outras aplicações destinadas à CAA e
    disponíveis no mercado, a fim de identificar pontos fortes, fracos e oportunidades de
    melhorias, que contribuam para o desenvolvimento de ferramentas mais adequadas
    ao contexto de uso de seu público-alvo, mais especificamente, pessoas que
    apresentam dificuldades de comunicação verbal, seja por necessidade física ou
    intelectual, mas sem comprometimento com relação aos membros superiores.
    O aplicativo CAA proposto foi desenvolvido e avaliado com o apoio de
    profissionais da área de saúde do Núcleo de Desenvolvimento em Tecnologias
    Assistivas e Acessibilidade da Universidade do Estado do Pará (UEPA/NEDETA) e
    por uma equipe multidisciplinar da área de reabilitação da Organização Não
    Governamental (ONG) Saber – Serviços de Atendimento em Reabilitação. Esses
    especialistas analisaram a ferramenta quanto às funcionalidades e usabilidade.
    Também participaram deste estudo pacientes que possuem deficiências múltiplas,
    atendidos pela ONG Saber, que a avaliaram positivamente, destacando-se em
    relação as demais ferramentas utilizadas nos testes por ser considerada de fácil
    utilização e apresentar funcionalidades que atendem as necessidades dos usuários,
    além de incluir funcionalidade inédita, que permite visualizar e repetir uma
    mensagem criada.

2016
Descrição
  • RAFAEL GOMES SOUSA
  • MÉTODO DE COMPOSIÇÃO DE RESULTADO PARA

    RESOLUÇÃO DE PROBLEMAS: MELHORIA NO
    DESEMPENHO DA APRENDIZAGEM DO ESTUDANTE EM
    ATIVIDADES PRÁTICAS DE PROGRAMAÇÃO

  • Data: 29/12/2016
  • Mostrar Resumo
  • O processo de ensino e aprendizagem de programação é uma tarefa bastante complexa,
    para tanto, defendemos a abordagem prática de resolução de problemas para o melhor
    aproveitamento acadêmico dos estudantes. Entretanto, a construção da resposta para
    um problema possui uma alta carga de subjetividade. Aqui, concebemos um método
    resolução de problemas de programação (Composição de Resultado), auxiliado por um
    ferramental de apoio (Ambiente de ensino LabProg Web). Para avaliar o método e o
    ferramental fizemos um experimento coletando informações sobre a satisfação dos estudantes
    e professores que participaram. Os resultados mostraram melhorias expressivas na
    atuação de estudantes que fizeram uso dos produtos de trabalho dessa dissertação, em
    atividades práticas de resolução de problemas de programação.

  • MÁRCIA SILVIA SALOMÃO HOMCI
  • UMA NOVA ABORDAGEM BASEADA EM SELEÇÃO DE PARÂMETROS PARA CLASSIFICAÇÃO DE FALTAS EM LINHAS DE TRANSMISSÃO

  • Data: 29/12/2016
  • Mostrar Resumo
  • No contexto de Sistemas Elétricos de Potência (SEPs), as linhas de transmissão são os elementos mais suscetíveis a faltas, e entre elas, as mais comuns são do tipo curtocircuito. Para evitar maiores problemas, é necessário um diagnóstico de faltas que possa categorizá-las e dar suporte no processo de restauração do sistema, ou seja, um classificador de faltas do tipo curto-circuito. A maioria dos trabalhos na literatura utilizam front ends de maneira isolada como forma de representar o sinal a ser classificado. Este trabalho aborda a utilização de um front end que é uma concatenação dos front ends raw, RMS e wavelet, chamado de concatfrontend. Nos experimentos foram utilizados dados simulados, oriundos de uma base de dados pública chamada UFPAFaults. Foi realizada uma comparação entre o concatfrontend e os outros front ends, utilizando diferentes classificadores (redes neurais artificiais, kvizinhos mais próximos, máquinas de vetores de suporte e Random Forest). Além disso, foram utilizadas técnicas de seleção de parâmetros, de forma que a dimensionalidade dos dados de entrada seja reduzida e os parâmetros não relevantes sejam descartados. Os resultados mostraram que o concatfrontend teve as menores taxas de erro para todos os classificadores com exceção da máquina de vetores de suporte. No contexto de seleção de parâmetros foi possível gerar melhores resultados com menos parâmetros.

  • DAVISON HOLANDA PACHECO
  • Q-PATH: UM ALGORITMO DE CÁLCULO DE CAMINHOS COM PARÂMETROS DE QUALIDADE DE SERVIÇO PARA REDES DEFINIDAS POR SOFTWARE.

  • Data: 28/12/2016
  • Mostrar Resumo
  • O paradigma de Redes Definidas por Software (SDN) vem sendo investigado como a solução mais promissora para o engessamento da Internet, uma vez que propõe a dissociação entre o plano de dados e o plano de controle, proporcionando maior programabilidade às redes. No entanto, há lacunas em serviços disponíveis nesse modelo, dentre as quais se observa o serviço de encaminhamento dos fluxos, baseados em critérios de qualidade de serviço (QoS). Por exemplo, a reserva de recursos, a partir dos requisitos necessários de cada aplicação, permanece como um desafio a ser vencido. Nesse contexto, o presente trabalho apresenta uma proposta de algoritmo de cálculo de caminhos para SDN chamada Q-Path. O algoritmo busca o melhor caminho, baseando-se em parâmetros de QoS da rede, possibilitando restrições determinísticas impostas pelas aplicações de usuário ou por parte do administrador da rede. A proposta fundamenta-se na utilização dos parâmetros de QoS de perda de pacotes e a latência, como condicionadores para a busca do melhor caminho. A análise dos resultados obtidos com extensas simulações demonstram que a proposta é capaz de reduzir o tempo de busca do caminho em aproximadamente 65%, quando comparado com o algoritmo Dijkstra, comumente utilizado como o algoritmo motriz de serviço de encaminhamento dos pacotes. Além disso, a proposta consegue melhorar o consumo de memória e processamento em torno de, respectivamente, 11% e 9%, durante a busca do melhor caminho.

  • NIELSEN ALVES GONÇALVES
  • AVALIAÇÃO DE DESEMPENHO DO USO DE ACELERADORES GRÁFICOS NA SOLUÇÃO DE MÉTODOS E TÉCNICAS NUMÉRICAS

  • Data: 22/12/2016
  • Mostrar Resumo
  • O desenvolvimento de plataformas computacionais heterogêneas tem tornado mais acessí- veis os recursos capazes de aumentar o desempenho de aplicações, porém, tais recursos por vezes não oferecem a escalabilidade desejada, tornando necessário o uso de soluções distribuí- das. No entanto, a implementação de soluções de computação heterogênea distribuída torna necessária a combinação de ferramentas de programação específicas, o que aumenta a complexidade e dificulta a implementação. O presente trabalho apresenta avaliações de desempenho de implementações de dois mé- todos comumente utilizados na Computação Científica: O método da Eliminação Gaussiana, implementado utilizando um modelo de programação para Aceleradores baseado em diretivas; e a Equação de Laplace, implementada utilizando múltiplos aceleradores por meio de uma arquitetura de rede cliente/servidor, que simplifica o processo de programação de uma solução heterogênea distribuída ao permitir a abstração da camada de rede ao programador. Os experimentos descritos neste trabalho foram executados em hardware commodity, com o objetivo de avaliar a performance da referida arquitetura nesta categoria de hardware. Os resultados obtidos com os experimentos indicam a possibilidade de ampliação de ganhos de desempenho no desenvolvimento de aplicações científicas, mesmo em hardware de baixo custo, por meio do uso de novos recursos de computação heterogênea em substituição a ferramentas baseadas em CPU. 

  • BRUNO PEREIRA BRITO
  • DESENVOLVIMENTO DE UM AMBIENTE DE APRENDIZAGEM DE VOCABULÁRIO VISANDO O APRENDIZ-SURDO

  • Data: 21/12/2016
  • Mostrar Resumo
  • A presente pesquisa descreve a realidade educacional do aluno surdo, destacando as dificuldades no que se refere ao aprendizado da língua portuguesa em sua modalidade escrita e evidencia as estratégias educacionais onde o aprendiz-surdo está inserido. Assim, a partir da análise de campo em uma escola especializada na educação de alunos surdos e pesquisas na literatura, desenvolveu-se um ambiente de aprendizagem de vocabulário da língua portuguesa que contemple um conjunto de características que auxiliam no processo de aprendizado de vocábulos de adjetivos, através da utilização da Língua Brasileira de Sinais, escrita do português e cenários ilustrados. A pesquisa foi segmentada em três fases que correspondem ao estudo, aplicação e análise. A fase de estudo representa o levantamento teórico relacionado a aquisição da linguagem e analisa as dificuldades do surdo em compreender a língua portuguesa. A fase de aplicação corresponde ao emprego da ferramenta na escola especializada Instituto Felipe Smaldone e se desmembra em três etapas sequenciais, coleta inicial, ensino-fixação e coleta final, por fim, a fase de análise que confronta os dados coletados na fase de aplicação e realiza a discussão e análise dos resultados. Deste modo, o emprego da ferramenta sinaliza um importante potencial do ambiente de aprendizado na ampliação de vocabulários, avanços na interpretação de texto e potencializa a comunicação desses alunos.

  • ELISIANE MONTEIRO SOARES
  • UMA ABORDAGEM PARA A IMPLEMENTAÇÃO DO PROCESSO DE GESTÃO DO FORNECEDOR USANDO PRÁTICAS E PRINCÍPIOS ÁGEIS

  • Data: 16/12/2016
  • Mostrar Resumo
  • Com o crescimento do mercado relacionado ao setor de desenvolvimento de software, faz-se necessária a adoção de práticas que auxiliem de forma mais ágil esse contexto. A adoção dessas práticas pode apoiar para que a gestão das atividades relacionadas à aquisição de software seja definida de forma mais efetiva, tanto para aqueles que fornecem o sistema como para aqueles que o adquirem. Assim, este trabalho propõe uma abordagem de boas práticas utilizando princípios e práticas ágeis para gerenciar o procedimento de aquisição no contexto de empresas de desenvolvimento de software, baseado na área de processo Supplier Agreement Management do CMMI-DEV e no processo de Aquisição do MR-MPS-SW. O objetivo desta abordagem é apoiar as organizações de software na definição e implementação do processo de gestão do fornecedor, bem como, contribuir para minimizar a lacuna existente entre clientes e fornecedores. Esta abordagem foi revisada e avaliada por meio da técnica de revisão por pares, a qual contou com a colaboração de um especialista da área de Engenharia de software com conhecimento em modelos de melhorias de processo de software e implementação de metodologias ágeis.

  • NAGILA NATALIA DE JESUS TORRES
  • MAPEAMENTO DO ECOSSISTEMA DE STARTUPS DE TECNOLOGIA DE BELÉM-PA

  • Data: 09/12/2016
  • Mostrar Resumo
  • C

    Existe um interesse em diversas regiões do mundo em incentivar startups visando estimular o crescimento e a capacidade criativa e inovadora dessas empresas. Esse interesse parte da expectativa de um crescimento econômico para as regiões onde elas estão localizadas. Entretanto, as startups não são entidades isoladas. Elas vivem em um ambiente que inclui outros elementos, tais como universidades, incubadoras e investidores. Ou seja, elas existem em um ecossistema e o entendimento deste possibilita a identificação de aspectos positivos e negativos, permitindo tomada de decisões sobre sua melhor fomentação. Baseado nisso, este trabalho apresenta um mapeamento do ecossistema de startups de tecnologia, da cidade de Belém (PA), bem como sua caracterização, incluindo aspectos positivos e negativos. Este trabalho foi realizado a partir de uma pesquisa qualitativa, utilizando a abordagem bola de neve e entrevistas semiestruturadas conduzidas com os principais elementos do ecossistema. A identificação dos elementos foi possível através do estudo de trabalhos na literatura, o que levou a criação de um modelo conceitual sobre ecossistemas globais de startups. O processo de análise de dados utilizou métodos de codificação da Teoria Fundamentada em Dados. Ao final do trabalho, há recomendações para ações de melhorias.

  • TIAGO DAVI OLIVEIRA DE ARAUJO
  • Interação por Voz em Ambientes de Realidade Aumentada Móvel:
    Avaliação e Sugestões de Boas Práticas

  • Data: 30/11/2016
  • Mostrar Resumo
  • O contexto tecnológico atual permite que haja interações por comandos de voz em dispositivos
    móveis, o que pode facilitar a interação do usuário, principalmente se uma de suas mãos não estiver
    livre, já que retira a necessidade de tocar na tela; contudo, o uso dessa interação ainda apresenta
    desafios, tais como: tratamento de ruídos no ambiente, interfaces mais intuitivas, reconhecimento
    com maior precisão, síntese de voz mais próxima da fala natural, entre outros desafios.
    A Realidade Aumentada em dispositivos móveis (RAM – Realidade Aumentada Móvel) tem
    proporcionado aos usuários uma nova experiência de interação, já que inserem objetos virtuais
    em ambientes reais de interesse do usuário, tornando-os mais dinâmicos, tais como: pontos turísticos
    de cidade, navegação em museus, manutenção de equipamentos, não limitando a tecnologia
    a um computador de mesa. Alguns desafios para uma boa integração do uso da voz em aplicações
    de RAM são a necessidade de padrões de desenvolvimento, orientações na interface das
    aplicações para escolha de palavras pelo usuário, projeto padrão para interface das aplicações de
    RAM, considerando ícones, elementos gráficos da interface, etc. Apresentados alguns desafios
    atuais da área de interação por voz e aplicações RAM, e principalmente sua integração; este trabalho
    propõe boas práticas de desenvolvimento, projeto de interface gráfica e de interface de voz
    para inclusão de um serviço de reconhecimento de voz considerando o contexto aplicação RAM,
    e para tal um serviço de voz ser integrado na aplicação, e serão realizadas avaliações de usabilidade
    e comunicabilidade.

  • LUCIANA ABDON ALMEIDA
  • ANÁLISE DE RISCOS EM ECOSSISTEMAS DE NEGÓCIOS USANDO A ABORDAGEM BLUEPRINT DE VALOR: UM ESTUDO EMPÍRICO 

  • Data: 16/11/2016
  • Mostrar Resumo
  • O crescimento acelerado do volume de informações, evidenciado desde a globalização e intensificado a partir da consolidação da Internet demandou uma grande transformação nos mercados. Muitas empresas surgiram em decorrência dos novos modelos digitais de negócios possibilitados pela Internet. O termo startup digital ganha, então, maior representatividade nesse contexto por representar negócios desenhados para serem escaláveis, repetíveis e lucrativos. Uma startup é uma empresa em fase inicial criada sobre extrema incerteza e riscos. Um rico conjunto de startups pode trazer benefícios econômicos para a região geográfica onde elas estão localizadas. Assim, diversas pesquisas visam auxiliar na criação e no sucesso destas startups. Além disso, ao longo dos anos, nota-se uma mudança de paradigma de negócios, culminando no que se tem hoje, os chamados ecossistemas de negócios. Com isso são evidenciadas mudanças claras de relacionamentos entre os atores de um negócio, em especial a observância de competitividade e colaboração. Para tanto, a visão de negócios se expande, emergindo a necessidade de uma visão holística sobre os riscos de um negócio, mudando o foco exclusivo na execução para incluir também a cadeia de valor do negócio. Em vista disso, cresce a necessidade da gerência de riscos. Porém, mesmo a Engenharia de Software, com suas muitas abordagens sobre gerência de riscos, não contempla a identificação de riscos adicionais em negócios de software. Por outro lado, a área de Administração já conta com um arcabouço teórico para analisar ecossistemas de negócios. Mais especificamente, Adner (2012) propõe uma abordagem denominada blueprint de valor que visa auxiliar na identificação desses riscos adicionais e na criação de ecossistemas de negócios a partir de um produto inovador. Assim, este trabalho tem como objetivo a aplicação e análise da abordagem blueprint de valor no contexto de ecossistemas de negócios digitais. Isto é importante pois, na Engenharia de Software tanto tradicional quanto ágil, as abordagens atuais de gerência de riscos são limitadas para a identificação de riscos e visualização de ecossistemas de negócios. Este trabalho teve como resultado três grandes categorias de análise: as vantagens, desvantagens e sugestões de utilização da abordagem blueprint de valor, do ponto de vista dos empreendedores de startups digitais. A pesquisa realizada neste trabalho é empírica e qualitativa. Os instrumentos de coleta foram as entrevistas semiestruturadas e análise dos dados foi baseada na utilização de codificação de dados e criação de categorias. Os resultados deste trabalho indicam que a abordagem blueprint de valor traz relevantes contribuições para as startups digitais ao facilitar a identificação de riscos, a visualização do ecossistema de negócios e facilitar a comunicação entre os empreendedores. Entretanto, também foram identificadas limitações desta abordagem e a necessidade de adaptações da mesma para melhor representar negócios digitais. 

  • NIKOLAS JORGE SANTIAGO CARNEIRO
  • Um Processo para Definição e Avaliação de um Vocabulário
    de Gestos para Aplicações de Visualização de Informação

  • Data: 01/11/2016
  • Mostrar Resumo
  • O desenvolvimento tecnológico para sensores tem permitido a concretização do uso da interação
    não convencional nos mais variados produtos, tais como: jogos, aparelhos de TV, automação
    residencial e industrial, medicina, etc. Entretanto a utilização destas interfaces introduz uma série
    de novos e atuais desafios, tanto técnicos (fácil de instalar, adaptável a diversos produtos, precisão,
    etc.) quanto subjetivos (intuitivo, confortável, etc.), bem como questionamentos que acompanham
    esses desafios, como: é possível definir um padrão de interação para um determinado tipo de
    interação não convencional? O padrão encontrado pode ser generalizado a problema de outros
    domínios? Existem muitas outras perguntas e esta dissertação não pretende responder todas elas,
    mas contribuir na elaboração de algumas respostas, uma vez que em muitos casos não há padrões
    de interação para modos não convencionais. Assim, o objetivo desta dissertação de mestrado é
    apresentar um processo para seleção de gestos para interação com ferramentas de Visualização da
    Informação 3D (InfoVis 3D). O vocabulário de gestos adaptado para InfoVis 3D deve considerar
    tarefas comuns de visualização, como: filtros contínuos e discretos, navegação, configurações,
    entre outros. O processo de seleção de gestos é descrito abordando sua elaboração, levantamento
    e benchmark, bem como uma proposta de tradução do vocabulário selecionado para uma
    implementação utilizando sensores livremente comercializados e acessíveis. O levantamento do
    vocabulário e seu benchmark foi realizado com usuários que atendem ao perfil de ter alguma
    experiência acadêmica com Visualização da Informação e ter utilizado um número mínimo de
    ferramentas de análise de dados. Um protótipo foi desenvolvido em Unity 3D e os gestos
    implementados considerando os sensores Myo e Leap Montion. Ao final foram realizados ensaios
    de interação com usuários onde os cenários de testes foram compostos por tarefas típicas de
    InfoVis 3D.

  • LEONARDO SARRAFF NUNES DE MORAES
  • UMA PROPOSTA ARQUITETURAL DE HARDWARE EM FPGA PARA OS ALGORITMOS PSO E BPSO APLICADA A OTMIZAÇÃO DE FUNÇÕES COM RESTRIÇÕES

  • Data: 27/10/2016
  • Mostrar Resumo
  • No que diz respeito à ciência e tecnologia, a busca por soluções ótimas representa um dos maiores desafios que se enfrenta, uma vez que a otimização de desempenho, principalmente em sistemas complexos, é frequentemente ponderada por variáveis antagônicas tais como restrições orçamentárias, requisitos de segurança e respostas em tempo real. Esta dissertação propõe uma arquitetura de computação paralela com o FPGA para a implementação do algoritmo de PSO (Particle Swarm Intelligence) e uma versão modificada deste algoritmo, chamado BPSO, para minimizar o custo de produção de um problema de engenharia com restrições para o projeto de um vaso de pressão. A arquitetura proposta foi totalmente implementada em VHDL (Very High Speed Integrated Circuit Hardware Description Language) e simulações foram feitas no programa ModelSim da Altera. Os resultados alcançados com os algoritmos PSO e BPSO foram comparados aos de outros trabalhos que também lidaram com o mesmo problema e melhorias foram obtidas como custos de produção menores, resultados que obedeceram a todas as restrições do problema e redução no tempo de resposta do algoritmo.

  • MARCELO MAIA DA SILVA
  • Aprimorando o entendimento de padrões de poluição do
    ar por meio de plataformas móveis

  • Data: 05/08/2016
  • Mostrar Resumo
  • Atividades humanas, como geração de energia, movimentação de veículos e queimadas
    são grandes emissoras de poluentes atmosféricos. Muitos destes elementos poluidores são
    prejudiciais ao meio ambiente e aos seres humanos. Ainda, é comum o desconhecimento
    dos níveis de poluição do ar dentro e fora de casa; se o ser humano tiver conhecimento
    do quanto tem contato com a poluição, e for alertado disso, ele pode mudar sua atitude
    e, assim, podemos ter maior chance de evitar problemas decorrentes da poluição. Essa
    dissertação está inserida no contexto do desenvolvimento e emprego de sistemas móveis
    para monitoramento de monóxido de carbono, objetivando prover mecanismos para o
    entendimento dos padrões de poluição. Este documento apresenta a proposta de um
    sistema que integre hardware e software para coleta de poluentes e variáveis climáticas,
    como monóxido de carbono, temperatura e umidade. O sistema é portátil para facilitar
    seu transporte. Ainda, são realizadas avaliações (coletas reais e análises) em três estudos
    de caso, a fim de entender padrões de poluição e variáveis ambientais nos três diferentes
    contextos. Resultados dos experimentos mostram o comportamento do CO ao longo dos
    dias da semana, indicam as localizações mais poluídas dentro de um percurso a pé e de
    ônibus e expõem variações de temperatura ao longo de dois voos com veículos aéreos não
    tripulados.

  • JOSÉ FLÁVIO DE SOUZA DIAS JÚNIOR
  • Uma abordagem baseada em módulos para
    análise de perfis de expressão diferencial de
    genoma completo

  • Data: 05/08/2016
  • Mostrar Resumo
  • Transcrição é o processo de construção de RNA com base na cópia de uma sequência de gene.
    Esta cópia (mRNA), então, é traduzida para proteínas. Proteínas ditam o comportamento
    esperado no interior das células e são necessárias para a estrutura, função e regulação dos
    tecidos e orgãos do corpo. Juntas, transcrição e tradução são conhecidas como expressão
    gênica. Análise de perfis de expressão gênica, obtidos através de tecnologias tais como
    Microarray e RNA-Seq, tem revelado padrões sistêmicos e contribuído para a estruturação
    do conhecimento acerca da correlação entre genes e doenças. Muitos métodos estão sendo
    desenvolvidos para detectar e especificar marcadores de anormalidades biológicas. O
    transcriptograma é um desses métodos que, com base na seriação de rede protéica, constrói
    “fotografias” de transcriptomas mensurados com Microarray ou RNA-Seq. Neste trabalho,
    apresenta-se uma nova abordagem de análise de dados de expressão gênica, combinando
    métricas de diferenciação e transcriptograma para descobrir e explorar módulos de genes
    diferencialmente expressos entre amostras doentes e sadias. Um novo algoritmo (Claritate),
    sensível a redes livres de escala, foi desenvolvido para otimizar o processo de seriação de
    proteínas. É feito um estudo de caso com dados de pacientes com leucemia, obtendo-se,
    frente a abordagens tradicionais, resultados mais específicos e fortemente relacionados ao
    contexto biomédico. É realizada análise de sobrevivência de câncer e testes de cobertura
    são executados para enriquecimento de anotações funcionais.

  • LEONARDO HIROKAZU DE SOUZA HAMADA
  • Desambiguando Homógrafos-Heterófonos em
    Português Brasileiro com Algoritmos de
    Indução de Regras e Classificadores

  • Data: 03/08/2016
  • Mostrar Resumo
  • No Português falado e em outras línguas, existe um conjunto de palavras que se escreve
    exatamente da mesma forma e que no entanto ao pronunciá-las, possuem uma diferença de
    tonicidade e no caso do português, esta diferença ocorre na vogal central. Ao agrupar em
    pares, uma palavra soa com entoação aberta e uma outra com a mesma escrita, de forma
    mais fechada. Palavras com este comportamento linguístico se denominam homógrafoshetorófonos
    e no discurso, podem assumir classes gramaticais distintas ou pertencer à
    mesma classe e também estar em uma outra forma verbal, por exemplo. A preocupação
    da pronúncia esperada destas palavras é de relevância nos sistemas de conversão textofala,
    tecnologia computacional capaz de automaticamente transformar texto comum em
    voz audível. Neste contexto, uma solução que possa satisfatoriamente prever de forma
    automática a pronúncia correta dos homógrafos-heterófonos durante o processo que gera a
    voz sintética, produz melhorias na inteligibilidade e naturalidade. Problemas de decisões
    em elementos ambíguos da linguagem natural, do ponto de vista computacional, são
    objetos de estudos centrais na área de processamento da linguagem natural. Para o caso
    dos homógrafos-heterófonos, a abordagem sensível é utilizar as técnicas estudadas para
    desambiguação do sentido da palavra, que incluem o emprego de algoritmos de aprendizado
    de máquina, regras construídas manualmente ou induzidas por algoritmos, repositório
    e representação de conhecimento, corpus linguísticos e outros. Este trabalho propõe e
    modela a solução de desambiguação automática de homógrafos-heterófonos utilizando
    estratégia de aprendizado de máquina, especificamente a supervisionada, utilizando como
    fonte de treino para os algoritmos de desambiguação, exemplos de frases coletados de
    corpus onde os homógrafos-heterófonos contidos foram manualmente desambiguados. Para
    verificar a empregabilidade desta solução proposta em um sistema de conversão textofala
    personalizado para o Português Brasileiro, é necessário realizar algumas análises
    de desempenho, principalmente em novos textos em que o desambiguador ainda não
    teve acesso. Verificou-se que o desempenho de acertos de desambiguação automática das
    pronúncias dos homógrafos-heterófonos é fundamentalmente dependente da natureza do
    texto utilizado durante o treino dos classificadores e algoritmos de indução de regras. As
    maiores dificuldades foram encontradas durante a coleta de amostras de frases para a base
    de treino, sendo que há poucos exemplos para o emprego de alguns homógrafos-heterófonos,
    que em geral ocorrem de forma desbalanceada em um dos pares de pronúncia em textos
    do Português Brasileiro.

  • EDUARDO COSTA DE CARVALHO
  • Investigação em Arquiteturas de Redes sem Fio
    para Localização em Ambientes Internos
    Usando Aprendizado de Máquina

  • Data: 29/04/2016
  • Mostrar Resumo
  • Localização em ambientes indoor tem sido uma área de pesquisa muito ativa nas últimas
    décadas. Grande parte das pesquisas foram direcionadas ao contexto de atividades robóticas.
    Embora as tecnologias de sensores e as técnicas propostas para a localização de robôs em
    ambientes internos tenham apresentado soluções cada vez mais confiáveis, estas apresentam
    dificuldades se adotadas como solução para localização de pessoas em ambientes internos,
    particularmente, devido ao seu alto custo computacional, uso de energia e peso dos sensores.
    Para mitigar esses problemas, uma solução tecnológica de detecção com baixo consumo de
    energia, com base em sinais de potência do WiFi, é estudada nesse trabalho. No entanto,
    há uma preocupação quando se trabalha com estes sinais, que é a sua vulnerabilidade a
    interferências. Assim, a dissertação explora o uso de aprendizagem de máquina em duas
    arquiteturas diferentes para a localização e apresenta como uma técnica de filtragem de
    dados pode atenuar as interferências. Ainda, um passo para uma abordagem de tolerância
    a falhas é estudada para uma das estratégias, apresentando que o sistema utilizado pode
    manter uma determinada confiabilidade, mesmo perdendo alguns de seus nós.

  • IGOR FURTADO CARVALHO
  • UMA ESTRATEGIA DE DECISÃO DE CACHE
    BASEADA EM MÚLTIPLAS MÉTRICAS PARA
    REDES ORIENTADAS A CONTEÚDO

  • Data: 29/02/2016
  • Mostrar Resumo
  • Rede Orientada a Conteudo - ROC - (Information Centric Network - ICN ) e
    um paradigma de arquitetura de rede que atraiu muitas pesquisas nos ultimos anos. Um
    topico bastante pesquisado em ROC e o cache em rede, o qual permite que roteadores
    intermediarios entre um usuario e um servidor de conteudo possam armazenar o conteudo
    requisitado. Tal decisão e feita através de uma política de decisão de cache, a qual pode
    ser baseada tanto em características do conteúdo trafegado quanto da topologia ou dos
    nos.
    Porém, a maioria delas fazem uso de apenas uma métrica para escolher os nos
    alvos que armazenarão o conteúdo. Considerando que a rede e um ambiente bastante
    dinâmico, assim como o tipo de conteúdo solicitado e trafegado, tal métrica pode acarretar
    em um baixo desempenho tanto da rede quanto da estratégia em si. Isso resulta em uma
    baixa taxa de acertos de conteúdos, longos atrasos e um maior consumo de recursos de
    rede, como, por exemplo, a largura de banda.
    Desta forma, esta dissertação propõe uma estratégia de decisão de cache baseado
    em múltiplas métricas para ROCs. São utilizadas três métricas para selecionar os nos
    alvos e, com isso, o conteúdo pode ser melhor distribído na rede. A estratégia proposta
    considera características dos roteadores de conteúdo (centralidade e capacidade de cache
    disponível), bem como de conteúdo (taxa de acertos de conteúdo registrado por cada
    roteador) e, assim, melhor distribuir o conteúdo por toda a rede. Os resultados obtidos
    atingiram uma taxa de acertos bem maior que as outras propostas avaliadas e um tempo
    de download praticável.

  • LEANDRO HENRIQUE SANTOS CORREA
  • FUNN-MG: Um pipeline para análise funcional
    e visual de metagenomas

  • Data: 29/02/2016
  • Mostrar Resumo
  • Microrganismos habitam em diversos lugares. Embora saibamos que desempenham papéis
    importantes em vários ecossistemas, muito pouco se sabe sobre como essas comunidades
    complexas trabalham. Assim, para entender efetivamente redes metabólicas microbianas
    é preciso explorá-las por meio de uma abordagem de biologia de sistemas. Nós introduzimos
    uma estratégia baseada em análise estatísticas e métricas de teoria dos grafos para
    a análise funcional das redes metabólicas microbianas. Esta estratégia tem base em um
    grafo bipartido elaborado de forma adequada para i) avaliar a cobertura das vias metabólicas
    em conjunto de genes microbianos, bem como ii) a estabilidade da comunidade
    sobre perturbações topológicas nos elementos da rede associada. A partir da análise destas
    estratégias construímos um índice de representatividade das vias metabólicas encontradas
    na amostra, e submetemos duas amostras para análise da ferramenta. Os resultados preliminares
    identificaram vias metabólicas importantes relacionadas as comunidades, além
    de descartar vias metabólicas que não faziam sentido no contexto biológico das amostras.

  • WILSON LUIZ DA SILVA FARIAS
  • SISTEMA DE DECISÃO COLABORATIVA PARA
    TRANSMISSÃO MULTIMIDIA EM FLYING AD-HOC
    NETWORKS

  • Data: 29/02/2016
  • Mostrar Resumo
  • Por um tempo, Veculos Aereos Não Tripulados (VANTs) tiveram seu uso limitado
    a aplicações militares, no entanto, recentemente VANTs estão sendo utilizados
    tambem para uma ampla gama de aplicações civis. Algumas destas aplicações utilizam
    dados multimídia, como vídeos, devido ao maior ganho de informação oferecida, alem
    de geralmente envolverem conjuntos de VANTs, as chamadas Flying Ad-hoc Networks
    (FANETs), que devem cooperar para alcancar um objetivo comum. De forma a se alcan
    car tal objetivo, geralmente são adotados modelos de decisão centralizada. Isso requer
    ligações diretas entre os VANTs e a estação base ou uma entidade central, ou atraves de
    multiplos saltos entre eles. Esta abordagem sofre de muitas limitações, pois deixa a rede
    sensível a falhas de comunicação, as quais podem tornar o sistema ine caz. Ademais,
    ao se transmitir conteudo multimídia, levar em consideração os requisitos e limitações da
    rede, a relevância da informação capturada e a mobilidade dos nos, ao se escolher o melhor
    no para realizar a transmissão, colabora para que o usuario tenha uma melhor Qualidade
    de Experiência (QoE). Portanto, este trabalho propõe um sistema de decisão distribuída
    para transmissão multimídia em FANETs, baseado em multiplas metricas. Nele são levadas
    em consideração a relevância do conteudo capturado pelo no, o consumo energetico
    do no e dos recursos da rede, e a mobilidade dos nos. Simulaçõees foram realizadas com
    diferentes velocidades e modelos de mobilidade. Resultados mostraram que o sistema
    alcanca um bom equilbrio entre a qualidade do conteudo transmitido e a longevidade da
    rede, provendo sempre conteudo relevante ao usuario e consumindo menos recursos.

  • THIAGO SYLAS ANTUNES DA COSTA
  • UMA ABORDAGEM METODOLÓGICA PARA A IMPLEMENTAÇÃO DO PROCESSO DE MEDIÇÃO A PARTIR DE UMA FERRAMENTA DE SOFTWARE E UM CATÁLOGO DE MEDIDAS

  • Data: 29/02/2016
  • Mostrar Resumo
  • Para que uma organização possa atingir um determinado objetivo, a mesma precisa tomar decisões que contribuam para o alcance desse objetivo, porém para que essas decisões sejam as mais assertivas possíveis em relação ao objetivo determinado, é preciso conhecer e usufruir de informações que possam servir de subsídio para que dúvidas sejam sanadas e opções de solução surjam, e desta forma seguir uma linha de raciocínio com uma probabilidade maior de acerto em relação à decisão tomada. No contexto de desenvolvimento de software, o processo de medição tem por finalidade gerar informações capazes de apoiar a tomada de decisão a fim de atingir os objetivos da organização. Este trabalho descreve o processo de medição de software utilizando a metodologia GQIM (Goal Question Indicator Metric) e apresenta uma proposta de catálogo com os objetivos de medição, necessidades de informação, indicadores e medidas mais utilizados no contexto de processos de desenvolvimento de software a partir de uma revisão sistemática da literatura. Este trabalho apresenta também uma ferramenta de software chamada Spider-MsControl, uma solução desktop que opera um sistema cliente-servidor e visa auxiliar o processo de medição, no que tange às atividades de definição, coleta, análise e acompanhamento de medidas, seguindo as práticas definidas na abordagem GQIM. O software segue todas as práticas, os resultados esperados e as atividades definidos para o processo de Medição dos modelos CMMI-DEV e MR-MPS-SW e da norma ISO/IEC 12207, entre outros guias de boas práticas nesta disciplina. Ao fim esses dois vieses da pesquisa, o catálogo e a ferramenta de software são integrados, fornecendo assim uma ferramenta capaz de auxiliar a implantação do processo de medição de software dentro de uma organização e ao mesmo tempo fornecer um arcabouço de objetivos de medição, necessidades de informação, indicadores e medidas mais utilizados, baseado na literatura.

  • PAULO VITOR RODRIGUES CARDOSO
  • Identificação de Regiões de Ubiquitinação Utilizando Nondominated
    Sorting Genetic Algorithm II

  • Data: 26/02/2016
  • Mostrar Resumo
  • A ubiquitinação se constitui como um importante mecanismo biológico, que tem entre suas
    finalidades a regulação de proteínas através da marcação daquelas que são indesejadas e que
    posteriormente são degradadas por organelas conhecidas como proteassoma. A ubiquitina
    também atua no mecanismo de processos inflamatórios, alem de ter relação importante
    com doenças neuro-degenerativas e câncer. Haja vista sua evidente importância dentro
    dos organismos eucariotos, seu entendimento colabora com investigações a respeito da
    mesma. Entretanto, para melhor entender o funcionamento da ubiquitina, é importante
    compreender como o processo de ubiquitinação ocorre. A identificação de regiões de
    ubiquitinação em proteínas é fundamental para ter um conhecimento completo a respeito
    dos mecanismos moleculares deste sistema. Métodos tradicionais possuem um custo elevado
    de experimentação, alem de também possuir um alto custo de tempo e esforço. Nesses
    quesitos, métodos de aprendizado de máquina se mostram como uma alternativa promissora,
    tanto por possuir um baixo custo comparado com a experimentação convencional, quanto
    por conseguir bons resultados na identificação de regiões de ubiquitinação agregado a
    um baixo custo de tempo e esforço. Estes métodos conseguem identificar potenciais
    regiões de ubiquitinação através da análise das propriedades das sequencias genéticas de
    fragmentos de proteínas, ou do proteoma inteiro. Este trabalho utiliza metodologias de
    aprendizado de máquina como Non-dominated Sorting Genetic Algorithm II (NSGA-II)
    para identificar e predizer regiões de ubiquitinação baseadas em propriedades físico-químicas
    e na composição de aminoácidos. O NSGA-II constrói regras de classificação baseadas
    nas propriedades das sequencias de fragmentos, a partir destas regras é possível levantar
    hipóteses a respeito da importância de cada um dos parâmetros utilizados. Além de buscar
    resultados na identificação de regiões de ubiquitinação, este trabalho também reuniu e
    integrou informações relevantes para pré-processamento e geração de base de dados de
    fragmentos ubiquitináveis através da integração de várias bases de dados de informações
    em uma base integrada chamada UPIS. Como resultado da pesquisa, obteve-se uma base
    de dados com cerca de 60.016 regiões ubiquitinadas de 4 organismos distintos: Arabidopsis
    thaliana, Saccharomyces cerevisiae, Mus musculus e Homo sapiens. Os classificadores
    utilizados obtiveram um valor de acurácia igual a 76.79%, 84.17%, 71.69% e 69.71%
    respectivamente. Um teste com todas as regiões também foi realizado, obtendo um valor
    de acurácia igual a 68.76%.

  • FABIANA RODRIGUES DE GÓES
  • GENEFINDER-MG: UM PIPELINE PARA A PREDIÇÃO DE GENES EM DADOS METAGENÔMICOS.

  • Data: 26/02/2016
  • Mostrar Resumo
  • A Bioinformática, através da sua multidisciplinaridade, continua a proporcionar um grande
    avanço nas análises e pesquisas desenvolvidas a partir de dados das diversas áreas da Biologia. A
    Metagenômica é o estudo dos metagenomas, a qual provê um melhor entendimento de como os
    micro-organismos se relacionam em uma comunidade e como esta contribui para o ambiente no
    qual habita. Recursos computacionais têm grande importância em projetos deste contexto devido
    a complexidade e grande quantidade de dados gerados pelas tecnologias de sequênciamento de
    DNA. Uma forma tradicional de se extrair informações dos (meta)genomas ocorre através da
    predição de genes. A identificação dos genes possibilita que, a partir dela, outros estudos mais
    específicos sejam elaborados, sendo assim, uma etapa de grande importância para o estudo dos
    (meta)genomas. Este trabalho apresenta uma abordagem baseada em aprendizado de máquina
    supervisionado para o problema de predição de genes em experimentos metagenômicos. O
    pipeline desenvolvido utiliza uma abordagem de aprendizado ensemble para a realização da
    classificação de regiões codificadoras em sequências de DNA de organismos procariotos. Para
    observar o desempenho do pipeline, avaliações do modelo e comparações com outras quatro
    ferramentas foram executadas.

  • LENNON SALES FURTADO
  • Uma Proposta de Interação por Voz em Aplicações de Visualização da
    Informação

  • Data: 25/02/2016
  • Mostrar Resumo
  • Muitos estudos apontam a importância da interação na área de Visualização de Informação
    (InfoVis) para o sucesso de uma boa visualização de dados. Este interesse é potencializado
    pelo crescimento e complexidade dos dados armazenados eletronicamente nas várias áreas do
    conhecimento. As pesquisas de interação em InfoVis têm fomentado o uso de interfaces não
    convencionais, além dos tradicionais teclado e mouse, tais como: comandos de voz,
    rastreamento de olhos, comandos por gestos, interfaces cérebro-computador, entre outras. O
    presente trabalho teve o objetivo de apresentar aspectos de concepção, desenvolvimento e
    avaliação de uma interface por comandos de voz para interação em aplicações de InfoVis 3D.
    Sendo que como cenário de uso foi utilizada a técnica de InfoVis de Dispersão de Dados em
    3D. Ademais, para o reconhecimento de voz é empregado a API Coruja, que se utiliza do
    motor de reconhecimento Julius, para suporte ao Português-Brasileiro. Por fim, serão
    apresentados testes de usabilidade para a avaliação da interface e interação proposta. Os testes
    utilizam a abordagem de tarefas de usuários para avaliar as sub-tarefas de InfoVis na
    aplicação, tais como: configuração, filtro, seleção, entre outras. Para realizar a avaliação da
    carga de trabalho subjetiva do usuário foi utilizada a metodologia NASA Task Load-Index, a
    qual identifica a carga de trabalho total do usuário nas diferentes tarefas realizadas. Tais testes
    apontaram eficácia da interface apresentada, tendo uma diferença de tempo de 24% em
    relação ao mouse e 26% de carga de trabalho a mais do que no mouse.

  • REGINALDO CORDEIRO DOS SANTOS FILHO
  • Identificação de Binder Através de Medições
    Fantasmas Utilizando Técnicas de Aprendizado
    de Máquina

  • Data: 22/02/2016
  • Mostrar Resumo
  • Com o advento da internet os sistemas de telecomunicações evoluíram no sentido de prover
    altas taxas de transmissão de dados em condutores de cobre. Atualmente, vivenciamos a 5a
    geração de banda larga desenvolvida em cima da rede antiga de telefonia e podendo alcançar
    até 10 Gb/s de taxa agregada em pares trançados de cobre. A era Gb em cobre é uma
    estratégia interessante no sentido de reaproveitar uma estrutura de telefonia já existente e
    mundialmente implantada, ao passo de que substituir totalmente os condutores de cobre
    por fibras óptica ainda é uma operação onerosa. Muito se investe em tecnologias para
    aumentar com qualidade a taxa de transmissão em pares trançados. Linhas coordenadas
    por bonding e livre de ruídos por vectoring garantem bons rendimentos do uso do cobre
    em sistemas híbridos fibra-cobre implantados atualmente. Seguindo esta perspectiva, este
    trabalho apresenta uma proposta de estender os princípios da chamada Qualificação de
    Enlaces telefônicos, da qualificação de um enlace individual para a qualificação de binders
    e cabos. A proposta inclui um método de identificação de binders de pares trançados
    de cobre. O método se baseia na análise de medições de circuitos fantasmas. Este tipo
    de circuito é frequentemente usado para melhorar as taxas de transmissão de dados em
    sistemas de comunicação, mas neste trabalho, esses circuitos serão utilizados para revelar
    se 4 condutores compostos por 2 pares trançados estão próximos o suficiente para serem
    considerados no mesmo binder. O método ainda consegue estimar o comprimento em
    que dois pares trançados compartilham o mesmo binder, possibilitando descobrir o local
    onde os pares trançados se dividem em cabos diferentes. A identificação de binders é
    feita através de técnicas de reconhecimento de padrão, máquina de vetores de suporte,
    K-means e modelo de misturas de Gaussianas, aplicadas às características extraídas do
    parâmetro S11 obtido pela medição do sinal no domínio do tempo e da frequência de
    dois pares trançados que formam o circuito fantasma. Através de medições fantasmas
    reais realizadas em laboratório, obteve-se diferentes resultados possibilitando comparar
    a performance de cada técnica de aprendizado de máquina empregada ao problema. Os
    resultados alcançaram níveis aceitáveis de acurácia para o método proposto.

  • FABRICIO WICKEY DA SILVA GARCIA
  • UMA ABORDAGEM PARA A IMPLEMENTAÇÃO MULTIMODELOS
    DE QUALIDADE DE SOFTWARE ADOTANDO A CERTICS E O CMMIDEV

  • Data: 22/02/2016
  • Mostrar Resumo
  • Com os avanços tecnológicos e a crescente busca por produtos de software, um dos grandes
    desafios das empresas desenvolvedoras de software é atender a esta demanda com produtos de
    qualidade, tendo em vista que o nível de exigência está cada vez mais elevado no que se
    refere à aceitação de um produto de software. Uma das alternativas utilizadas pelas
    organizações desenvolvedoras de software é o uso de certificações que apoiem o processo de
    construção de software ou que avaliem a qualidade do produto final. No entanto, nem sempre
    uma certificação consegue atender por completo as necessidades de uma organização, isso as
    leva a adotar mais certificações. Quando isso acontece, surgem diversos problemas devido as
    diferentes estruturas e componentes dos modelos de certificações adotados, o que demanda
    mais tempo além de gerar custos extras com a implantação de dois ou mais modelos de
    certificação. Os desafios de implementar vários modelos em uma organização podem ser
    contornados com uso de implementações multimodelos, de forma que as divergências entre os
    modelos sejam harmonizadas por meio de um mapeamento entre os modelos utilizados. Nesse
    sentido, este trabalho apresenta um mapeamento entre as práticas de dois modelos de
    qualidade de produto e processos de software adotados na indústria, o modelo nacional
    CERTICS e o internacional CMMI-DEV. As etapas do mapeamento são apresentadas passo a
    passo, assim como as similaridades identificadas entre os modelos. O mapeamento foi
    revisado e validado por meio da técnica de revisão por pares, a qual contou com a colaboração
    de um especialista nos modelos CERTICS e CMMI-DEV. Com a correlação das estruturas
    dos dois modelos, pretende-se facilitar e reduzir o tempo e os custos de implementações, além
    de estimular a realização de implementações multimodelos nas indústrias desenvolvedoras de
    software.

  • RENATO DE PINA FERREIRA
  • Um Estudo Exploratório dos Fatores de Adoção de Plataformas de Software Móveis

  • Data: 26/01/2016
  • Mostrar Resumo
  • Existem várias plataformas de software que concorrem umas com as outras para atrair engenheiros de software. No entanto, ainda não são bem conhecidos quais fatores os engenheiros de software levam em consideração ao decidir adotar uma determinada plataforma. Esta dissertação apresenta um estudo exploratório que visa preencher esta lacuna. Entrevistas semiestruturadas foram realizadas com 18 engenheiros de software utilizando a Teoria de Difusão da Inovação de Rogers como framework conceitual. Tais entrevistas foram analisadas utilizando técnicas da Teoria Fundamentada em Dados. Os resultados desta dissertação ilustram alguns dos fatores que levam um engenheiro de software a adotar ou não uma determinada plataforma. Por exemplo, engenheiros de software percebem a plataforma Android como mais acessível e compatível com o seus conhecimentos existentes, mas eles temem sua fragmentação (alto número de dispositivos). Alguns engenheiros de software simplesmente escolhem iOS porque as vendas são maiores nessa plataforma. As conclusões apresentadas neste trabalho podem ajudar os engenheiros de software a decidir qual plataforma adotar e também podem auxiliar os responsáveis por ecossistemas de software a aperfeiçoar suas plataformas para atrair mais engenheiros de software.

  • MULLER GABRIEL DA SILVA MIRANDA
  • ECOSSISTEMAS DE SOFTWARE MÓVEIS: UM ESTUDO EXPLORATÓRIO SOBRE ASPECTOS POSITIVOS E NEGATIVOS NO DESENVOLVIMENTO DE APLICAÇÕES MÓVEIS

  • Data: 25/01/2016
  • Mostrar Resumo
  • Um ecossistema de software consiste em um grupo de atores incluindo engenheiros de software, usuários finais e empresas que funcionam como uma grande unidade interagindo com um mercado comum. Existem vários ecossistemas de software móveis (Android, iOS, Windows Phone) que concorrem entre si para atrair desenvolvedores externos com objetivo de aumentar o número de aplicativos disponíveis. Desta forma, o sucesso de um ecossistema depende da forma como o mesmo gerencia suas relações, por exemplo, o esforço para criação de novas aplicações para o ecossistema. Este esforço de desenvolvimento pode estar associado à complexidade de utilização de ferramentas, baixo engajamento da comunidade, linguagem de programação utilizada para desenvolver as aplicações, ambientes de desenvolvimento, etc. Portanto, o objetivo desta dissertação é investigar os diversos aspectos, positivos e/ou negativos, que engenheiros de software de ecossistemas móveis enfrentam ao longo do processo de criação de aplicativos. Assim, este estudo pretende contribuir com uma visão geral sobre os aspectos que podem influenciar o engenheiro de software a aceitar, rejeitar ou a permanência em um determinado ecossistema de software móvel. Para que este objetivo pudesse ser alcançado, um estudo qualitativo de duas fases foi realizado: na primeira fase foram realizadas entrevistas semiestruturadas com nove (9) engenheiros de software que desenvolviam ativamente para Android (5), iOS (3), ou ambos (1). A primeira fase é chamada de local, pois todos os entrevistados eram brasileiros. Dado o número pequeno de entrevistas e a pequena diversidade contextual dos participantes selecionados nesta fase, a segunda fase é chamada de global, pois contou com a participação de engenheiros de software de diferentes partes do mundo, pois nesta fase a coleta de dados foi realizada via questionário eletrônico com oitenta e seis respostas (86). Os dados coletados foram analisados em conjunto utilizando métodos da Teoria Fundamentada em Dados. Os resultados mostram a ocorrência de diversos aspectos positivos (Documentação, Engajamento da Comunidade, etc) e negativos (Interface, Recursos, Emuladores, etc), mas também foram revelados aspectos ambíguos (Fragmentação, Popularidade, etc), isto é, aspectos que podem ser tanto positivos quanto negativos. Isto é determinado pelo ecossistema do qual o engenheiro de software faz parte ou até mesmo de sua opinião particular.

2015
Descrição
  • ANDERSON TRINDADE MAIA
  • METODOLOGIA PARA A CLASSIFICAÇÃO DE PERTURBAÇÕES A PARTIR DE MEDIÇÕES FASORIAIS SINCRONIZADAS UTILIZANDO TÉCNICAS DE MINERAÇÃO DE DADOS

  • Data: 21/12/2015
  • Mostrar Resumo
  • Atualmente, procurando atender requisitos de qualidade cada vez mais rigorosos, as empresas do setor elétrico estão se equipando com tecnologias avançadas para aquisição e armazenamento de informações. Um típico exemplo dessa tecnologia são os equipamentos de oscilografia, e mais recentemente os Sistemas de Medição Fasorial Sincronizada (SMFs). Apesar da tecnologia avançada, estabelecer metodologias eficientes para predizer a ocorrência de pertubações nos dados coletados dos SMFs, é uma atividade incipiente no setor elétrico. Assim, o objetivo deste trabalho consiste em propor uma metodologia para classificação de pertubações a partir de medições fasoriaissincronizadas utilizando técnicas de mineração de dados. A metodologia proposta utiliza os dados de medições fasoriais de uma linha de transmissão de 230 KV que interliga as subestações de Altamira, Rurópolis e Tucuruí (Pará), que fazem parte do sistema elétrico Tramoeste. Após tratamento e pré-processamento dos dados coletados, foram aplicadas técnicas de mineração de dados no processo de classificação das pertubações. Mais especificamente, foram avaliados sistematicamente, a partir de um procedimento automático de seleção do modelo, os classificadores Random Forest, Redes Neurais Artificiais, K-Vizinho mais Próximo e Máquinas de Vetores de Suporte. Os Resultados obtidos mostram que os classificadores RadomForest(0.41% de erro) e K-Vizinho mais próximo (1.87% de erro), foram os que tiveram o melhor desempenho, indicando que a metodologia proposta é viável e promissora.

  • ISADORA MENDES DOS SANTOS
  • ANÁLISE DA VIABILIDADE ECONÔMICA DE PROTEÇÃO EM REDES ÓPTICAS PASSIVAS UTILIZANDO CADEIAS DE MARKOV E SIMULAÇÃO DE MONTE CARLO

  • Data: 21/12/2015
  • Mostrar Resumo
  • O aumento dos requisitos de demanda de tráfego em redes de acesso vem levando os clientes a exigirem serviços mais confiáveis e obrigando os operadores a investir mais em infraestrutura, visto que os custos associados a penalidade por interrupção do serviço e os custos de reparo da rede são altos e afetam sua reputação. Como as Redes Ópticas Passivas (PON) são uma boa tecnologia para suprir a demanda de tráfego, surgem as estratégias de proteção em PON para minimizar o problema de confiabilidade da rede, mas seus custos também devem ser levados em consideração. Este trabalho tem como objetivo verificar a viabilidade econômica das estratégias de proteção de PONs através de uma análise dos custos de implantação (CAPEX) e custos de operação (OPEX). A área de implantação da rede é definido por um modelo geométrico, e um modelo de custo de Markov solucionado através de Simulação de Monte Carlo é utilizado para calcular os custos associados a falha de maneira mais precisa, considerando o comportamento da rede. Resultados apontam o melhor esquema de proteção em termos de custo de implantação, redução de custos operacionais, e retorno do investimento.

  • MAURO RODRIGO LARRAT FROTA E SILVA
  • LOCALIZAÇÃO DISTRIBUÍDA EM REDES DE SENSORES SEM FIO UTILIZANDO FPGA E REDE NEURAL ARTIFICIAL

  • Data: 16/12/2015
  • Mostrar Resumo
  • Em Redes de Sensores sem Fio (RSSF), métodos de localização distribuída vem sendo desenvolvidos considerando a eficiência dos recursos de rede, diminuindo o consumo de energia através da redução da transmissão de informação por parte dos sensores onde estas restrições se aplicam. Neste trabalho, a localização distribuída é baseada em apenas uma transmissão em broadcast proveniente de um sensor alvo para quatro âncoras. A partir da interação entre dois âncoras, o método já fornece uma estimativa razoável devido as características do algoritmo que o implementa. O algoritmo também permite que o método possa fornecer uma estimativa de posição mediante a tolerância de falhas de âncoras, respeitando o mínimo de dois sensores âncoras necessários para realizar o procedimento de localização. Para o desenvolvimento deste trabalho propõe-se a implementação de Redes Neurais Artificiais em cada âncora utilizando plataforma configurável a qual opera em alta frequência. Os resultados mostram que a posição estimada do alvo melhora em função do aumento do número de âncoras e alcança rápida estabilidade de estimativa de posição sem exigir muitas âncoras no processo de localização.

  • MARIA ANDRÉIA RODRIGUES DOS SANTOS
  • APRENDIZAGEM DA LÍNGUA PORTUGUESA NA EDUCAÇÃO DE SURDOS UTILIZANDO EDITOR DE HISTÓRIA EM QUADRINHO MEDIADA POR MAPA CONCEITUAL.

  • Data: 01/12/2015
  • Mostrar Resumo
  • A utilização de histórias em quadrinhos como recurso didático vem sendo amplamente sugerida em pesquisas acadêmicas, considerando que, dessa forma, o entendimento do assunto tratado é facilitado pela associação de imagens a textos, levando alunos ainda não familiarizadas com a leitura, à dedução do significado das imagens. Em se tratando de educação de surdos, o canal visual é o principal meio de apropriação de conhecimento. Mapas conceituais são ferramentas gráficas, cujo conceito propõe a organização e representação de conhecimento, sendo, nesse contexto, um recurso tecnológico relevante no processo de ensino-aprendizagem. Este trabalho visa contribuir com uma proposta de apoio ao processo de aprendizagem da Língua Portuguesa na Educação de Surdos utilizando a ferramenta lúdica MCHQAlfa que alia recursos visuais e interativos na construção de mapas conceituais e histórias em quadrinhos. 

  • MOSHE DAYAN SOUSA RIBEIRO
  • COMO COLETAR AUTOMATICAMENTE MÉTRICAS ORIENTADAS A OBJETO: UM ESTUDO BASEADO EM REVISÃO SISTEMÁTICA

  • Data: 24/11/2015
  • Mostrar Resumo
  • Objetivo: Obter informações sobre como coletar automaticamente métricas orientadas a objeto (métricas OO) com intuito de apoiar, nessa tarefa, quem deseja compreender/avaliar o produto de software através dessas métricas. Método: um estudo baseado em revisão sistemática foi desenvolvido. 37 estudos primários foram selecionados dos 577 trabalhos recuperados em 3 bases de dados. Resultado: 177 métricas que podem ser coletadas automaticamente foram catalogadas e desse total, 28 foram as mais referenciadas; as métricas catalogadas foram classificadas conforme as características de qualidade as quais estavam relacionadas; 18 ferramentas de coleta foram identificadas; concluiu-se que existe um conjunto de procedimentos comuns para se realizar a coleta de métricas OO e que Java e C++ são as linguagens com maior número de ferramentas para as quais é possível extrair métricas.

  • DANIEL DIAS DE CARVALHO
  • UM METAMODELO PARA A REPRESENTAÇÃO DE LINHA DE PROCESSOS DE SOFTWARE 

  • Data: 27/10/2015
  • Mostrar Resumo
  • A Reutilização de processos de software é essencial para a melhoria da qualidade e diminuição dos esforços necessários para a definição de processos, além de promover a disseminação de conhecimentos dentro de uma organização de software. O paradigma de Linha de Processos de Software vem se destacando como uma alternativa viável para a reutilização de processos através da representação de similaridades e variações em uma única estrutura de processos. Neste sentido, esta dissertação de mestrado apresenta uma abordagem para a representação em linha de processos de software. A abordagem é composta por: um metamodelo para a representação de variações, características e dependências entre os elementos de processo que constituem uma arquitetura de linha de processos de software; uma notação gráfica, baseada em uma linguagem de modelagem de processos existente; e um processo de engenharia de linha de processos de software, composto por atividades de engenharia de domínio, engenharia de aplicação e de gerência, que guiam a utilização dos conceitos referentes ao metamodelo. Para fundamentar a pesquisa, foi realizada uma revisão sistemática da literatura, em que limitações na área foram identificadas e requisitos para a representação de linha de processos foram coletados. A abordagem proposta neste trabalho foi avaliada das seguintes formas: primeiro, através da publicação de artigos científicos com resultados parciais da pesquisa; e, finalmente, pela utilização da abordagem por outra dissertação de mestrado, no qual uma linha de processos foi modelada com a utilização da abordagem proposta neste trabalho e avaliada por especialistas. 

  • LARISSA FERNANDES CHAGAS
  • LINHA DE PROCESSOS DE SOFTWARE PARA INTEGRAÇÃO ENTRE PRÁTICAS DO SCRUM E DE MODELOS DE MATURIDADE

  • Data: 14/10/2015
  • Mostrar Resumo
  • As empresas de desenvolvimento de software estão cada vez mais interessadas na qualidade dos produtos que desenvolvem e, por isso, vêm investindo na melhoria de seus processos. A popularidade de Métodos Ágeis vem crescendo e, junto com essa popularidade, também cresce o interesse pela adoção de tais métodos em conjunto com modelos de maturidade, como o CMMI-DEV e o MR-MPS-SW. Os resultados de uma Revisão Sistemática da Literatura realizada no contexto deste trabalho mostraram que o Scrum foi o Método Ágil mais adotado em conjunto Modelos de Maturidade. Também foi possível perceber que a adoção de Métodos Ágeis, como Scrum, em conjunto com modelos de Maturidade, frequentemente leva a variações no processo e que a modelagem e disponibilização dos processos de software seguidos é um fator importante na adoção conjunta. Portanto, a definição de processos de software é uma tarefa complexa e que requer experiência e conhecimento de diversas disciplinas da engenharia de software. Esse trabalho apresenta uma Linha de Processos de Software para a integração entre práticas dos modelos de maturidade CMMI-DEV e MR-MPS-SW, e do Scrum, fornecendo uma base inicial de elementos que facilitem a reutilização e adaptação de processos. Parte dos elementos reutilizáveis incluídos na Linha de Processos de Software aqui proposta foi definida através dos resultados da Revisão Sistemática da Literatura, que identificou dificuldades e lições aprendidas relatadas sobre a aplicação conjunta de métodos ágeis com modelos de maturidade. A Linha de Processos de Software resultante foi avaliada por dois especialistas através de revisões por pares.

  • EDUARDO PAULO MARQUES RAIOL
  • WEBSQL:UMA PROPOSTA DE UM AMBIENTE VIRTUAL DE ENSINO E APRENDIZAGEM DA LINGUAGEM SQL

  • Data: 06/10/2015
  • Mostrar Resumo
  • Este trabalho apresenta uma proposta de um Ambiente Virtual de Aprendizagem (AVA) chamado WebSQL, que aprimora o ambiente LabSQL (2007) com duas novas funcionalidades: a) a recomendação de Objetos de Aprendizagem (OA) a partir das competências de programação e b) o estímulo do trabalho em grupo. Com base nas competências em relação a linguagem SQL cada aluno recebe recomendações personalizadas de questões de exercícios on-line para treinamento, para o aluno posteriormente ser submetido a uma nova avaliação; por outro lado, o sistema também identifica alunos com dificuldades para resolver determinadas questões e indica outros alunos de mesmo perfil do aluno alvo e que já tenham conseguido chegar à solução da questão; assim o aluno poderá conversar com o colega que já passou pela dificuldade para receber uma orientação ou um auxilio dele. A implementação destas funcionalidades só é possível porque o WebSQL herdou do LabSQL um avaliador automático de questões de programação em SQL. O WebSQL possibilita a realização de atividades (exercícios ou avaliações) individuais e/ou em grupo; nestas atividades de programação o aluno recebe feedback instantâneo indicando o percentual que falta para alcançar a solução ótima. Desta forma, o aluno tem os recursos e a motivação para aprimorar, refatorando o código de sua solução, até alcançar a solução ótima. O sistema foi desenvolvido com código fonte aberto e de domínio público, disponibilizado para download. O ambiente foi avaliado em três turmas de graduação, sendo uma externa e duas internas à Universidade Federal do Pará - UFPA, totalizando 68 alunos, onde obteve-se um retorno positivo quanto a utilização da ferramenta. Considera-se que o WebSQL se coloca como uma ferramenta que apóia o processo metodológico de ensino e aprendizagem da linguagem SQL.

  • MARISA CRISTINA MORENO ALVES DE ANDRADE
  • Análise dos Fatores Críticos para o Sucesso de
    Cursos de Graduação em Computação: Um
    Estudo de Caso na Região Amazônica

  • Data: 10/09/2015
  • Mostrar Resumo
  • O trabalho “Análise dos Fatores Críticos para o Sucesso de Cursos de Graduação
    em Computação: Um Estudo de Caso na Região Amazônica” visou discutir o cenário
    tradicional de cursos de graduação em Computação, buscando elaborar um modelo para
    identificar e validar os Fatores Críticos de Sucesso (FCS) em cursos de graduação em
    Computação sob a perspectiva de seus alunos, de modo que gestores das instituições possam
    identificar pontos críticos para melhorar a gestão institucional, estratégica e operacional
    em face ao cumprimento dos objetivos dos cursos pesquisados, na tentativa de minimizar
    desigualdades e propiciando produção de conhecimento científico e tecnológico que podem
    melhorar a qualidade de vida da população Amazônica. Nesse contexto, esta dissertação de
    mestrado buscou responder à questão: “Quais são os Fatores Críticos de Sucesso para
    os cursos de graduação em Computação?”, tendo como objetivo principal identificar e
    agrupar FCS para cursos de graduação em Computação. Especificamente, pretendeu-se
    identificar, na literatura quais os FCS de sucesso comuns a cursos de Educação Superior
    presencial ou à distância, a fim de analisar, agrupar e realizar uma discussão acerca
    dos FCS para cursos de graduação em Computação baseando-se nos dados coletados na
    aplicação de questionários para alunos dos cursos Licenciatura em Computação, Ciência
    da Computação, Engenharia de Computação, Sistemas de Informação da Universidade
    Federal Rural da Amazônia (UFRA) e da Universidade Federal do Pará (UFPA), ambas
    situadas na Região Amazônica, e assim apresentar uma proposta com novos FCS para
    cursos de graduação em Computação resultado da análise dos dados por meio da técnica
    da Análise Fatorial (AF), fornecendo subsídios que podem auxiliar na gestão de cursos
    pesquisados.

  • VITOR DE SOUZA CASTRO
  • Um Framework de Práticas Ágeis para apoiar a Implementação dos
    Processos de Construção da Solução constantes em Modelos de Qualidade
    de Software

  • Data: 09/09/2015
  • Mostrar Resumo
  • Qualidade de software é um tema recorrente nas organizações especializadas. No Brasil, a
    SOFTEX criou o programa MPS.BR, tendo como objetivo de impulsionar a qualidade do
    software brasileiro. Adicionalmente, visando maior agilidade nos processos, muitas
    organizações estão adotando práticas ágeis para apoiar a implementação deste programa de
    qualidade. Assim, este trabalho visa apresentar um framework de práticas ágeis, cujo objetivo
    é apoiar a implementação dos modelos de qualidade de software, em destaque para o processo
    de projeto e construção do produto (PCP) do MPS.BR e para a área de processo solução
    técnica do CMMI. O conjunto de práticas ágeis tem sua origem em diversas metodologias:
    eXtreme Programming, FDD, TDD e Crystal. Dentre as práticas e os métodos ágeis
    mencionados nesse trabalho, não há um que alcance na totalidade de todos os objetivos do
    processo de solução técnica e projeto e construção do produto, surgindo assim a necessidade
    do relacionamento entre as diversas práticas para atendimento desses objetivos. Para o
    alcance desses resultados foi necessário um estudo aprofundando do tema e por conseguinte o
    desenvolvimento do mapeamento e do framework relacionando as práticas ágeis aos objetivos
    do processo. Para a avaliação tanto do relacionamento entre as práticas ágeis com os objetivos
    do processo, quanto do framework de práticas ágeis foi utilizada a técnica da revisão por
    pares.

  • LUCAS DE MELO SILVA
  • UMA NOVA ARQUITETURA PARA COMPARTILHAMENTO E ARMAZENAMENTO SEGURO DE REGISTROS DE SAÚDE NA NUVEM UTILIZANDO ATRIBUTOS DE IDENTIDADE FEDERADA

  • Data: 31/08/2015
  • Mostrar Resumo
  • A computação em nuvem é um serviço tecnológico que se tornou tendência devido a sua facilidade e benefícios de utilização. Neste contexto, muitos são os serviços que podem compor a sua estrutura. Entre eles está o de armazenamento, que é muito útil em razão de grande quantidade de dados gerados nas mais variadas áreas do conhecimento. Neste sentido, o armazenamento de Registros Pessoais de Saúde (Personal Health Records - PHR) e dos Registos Eletrônicos de Saúde (Electronic Health Records - EHR) em nuvem torna-se essencial para uma melhor disponibilidade e provisionamento sob demanda, não apenas para os profissionais da saúde, como médicos e agentes de saúde, mas também para todos aqueles que necessitam acessar esses tipos de dados, como familiares e amigos. No entanto, esta tecnologia aumenta o risco de vazamento de dados sensíveis de saúde.
    Apesar de fornecer vários benefícios, a fragilidade da segurança da utilização de registros de saúde em nuvem é um fator que pode inviabilizar tal serviço em saúde eletrônica. Para que esse problema não impeça o armazenamento terceirizado de EHR e PHR, este trabalho apresenta uma nova arquitetura que faz proveito de federação de identidade para viabilizar armazenamento e compartilhamento seguros de registros de saúde no ambiente de nuvem.
    A arquitetura proposta utiliza criptografia baseada em atributos para garantir a segurança de registros. Para isso, o mecanismo faz uso de federação de identidade integrada ao protocolo criptográfico como parte do processo de controle de acesso e autenticação.

  • FELIPE LEITE DA SILVA
  • Caixas de Interesses: Um Novo Mecanismo para a Colaboração Através de Nuvens de Armazenamento de Dados.

  • Data: 28/08/2015
  • Mostrar Resumo
  • Os serviços baseados em computação em nuvem vêm sendo adotados cada vez mais por indivíduos e organizações que buscam obter recursos computacionais de forma simples e sob demanda. Os serviços de armazenamento de dados em nuvem, em particular, tornaram-se uma das principais tendências nesse contexto. Eles oferecem diversos benefícios aos usuários, como a alta disponibilidade e o acesso multidispositivo aos seus arquivos. Além desses benefícios, as nuvens de armazenamento de dados caracterizam-se por facilitar a colaboração entre seus usuários. O compartilhamento de dados é um dos principais recursos ofertados para promover tal colaboração.
    Embora o compartilhamento de dados em nuvens de armazenamento apresente benefícios, eles também limitam a colaboração entre os usuários, pois restringem o compartilhamento entre aqueles que já conhecem uns aos outros. Neste contexto, esta pesquisa apresenta uma proposta que objetiva mitigar esta limitação. A proposta, denominada de compartilhamento por caixas de interesses, consiste em um mecanismo que permite quaisquer usuários de um serviço de armazenamento de dados em nuvem compartilharem arquivos entre si desde que apresente potenciais interesse comum.
    Nesta pesquisa são apresentados dois cenários de aplicação assim como um protótipo do mecanismo proposto. Através deste protótipo, foram realizados testes de desempenho visando verificar quais aspectos do mecanismo interferem no tempo de sua execução.

  • EDINALDO JOÃO COSTA DE LA-ROQUE
  • Uma Nova Abordagem de Seleção de Célula e Handover para Redes LTE Heterogêneas: Critérios Adicionais Baseados em Estimativa de Capacidade e Velocidade de Usuário

  • Data: 27/08/2015
  • Mostrar Resumo
  • As redes heterogêneas Long Term Evolution (LTE) representam uma abordagem interessante para a crescente demanda por cobertura e qualidade de serviço (QoS) pelos usuários móveis. As células de baixa potência desempenham um papel importante no trato com esta demanda, proporcionando um meio para os usuários móveis superarem o problema da falta de recursos nas redes móveis, ou, quando estes recursos estão disponíveis, uma forma de evitarem sua má qualidade de serviço em determinados cenários. No entanto, os procedimentos de seleção de célula e handover encontrados no LTE Release 8 são ineficientes para cenários heterogêneos, uma vez que se baseiam apenas na potência do sinal de referência recebido (RSRP) e na qualidade do sinal de referência recebido (RSRQ). Nesta dissertação, é proposta a implementação de dois critérios adicionais como melhoria para os processos de seleção de célula e handover: estimativa de capacidade de estação base e velocidade média de locomoção do usuário. A partir dos resultados obtidos, o algoritmo proposto mostrou a vantagem de contribuir para eventuais “desafogamentos" da macrocélula, assim como para o balanceamento de carga de rede e a melhoria de QoS para o usuário.

  • LEONARDO POSSAMAI MEZZOMO
  • UM FRAMEWORK PARA AVALIAÇÃO E MELHORIA DO PROCESSO DE SOFTWARE ADERENTE AO CMMI, MR-MPS-SW E ISO/IEC 12207

  • Data: 21/08/2015
  • Mostrar Resumo
  • Hoje são recorrentes as iniciativas de avaliação e melhoria do processo de software pelas organizações com base nos modelos e norma de qualidade. Com isso, surge a necessidade de elaboração de material e instrumentos específicos que sirvam de apoio para a realização de avaliações e melhorias de processos, haja vista a complexidade envolvida nesses tipos de tarefa.

    Dentro desse contexto, esta dissertação apresenta uma proposta de mapeamento entre os modelos de referência MR-MPS-SW e CMMI-DEV em conformidade com os requisitos da norma ISO/IEC 12207, de forma a identificar as similaridades e as diferenças existentes entre eles. A partir do mapeamento, foi definida uma abordagem de avaliação e melhoria de processos de software que integrasse os modelos e norma de qualidade (aqui denominado de framework de avaliação e melhoria). Tal framework apoia a realização de uma avaliação e melhoria por meio de atividades que reflitam o mapeamento existente entre os resultados esperados do MR-MPS-SW, as práticas específicas do CMMI-DEV e as atividades/tarefas da norma ISO/IEC 12207, o que pode facilitar o acompanhamento e o atendimento aos requisitos de avaliação e melhoria de ambos os modelos e norma. Adicionalmente, são apresentados o módulo de avaliação integrado à ferramenta de definição de processos Spider-PM e a ferramenta de melhoria do processo Spider-PI, sendo ambas livres, que apoiam a avaliação e a melhoria dos processos de software, e que sistematizam o fluxo de atividades do framework.

    Esta pesquisa está inserida no contexto do Projeto SPIDER – Software Process Improvement: Development and Research.

  • PAULO ROBSON CAMPELO MALCHER
  • CATÁLOGO DE ABORDAGENS DE APOIO À RASTREABILIDADE DE REQUISITOS BASEADO EM UMA REVISÃO SISTEMÁTICA DA LITERATURA

  • Data: 16/07/2015
  • Mostrar Resumo
  • Rastreabilidade de Requisitos é uma atividade de grande importância no contexto da Gerência de Requisitos em Projetos de software e pode ser definida como a atividade que acompanha um requisito em todo seu ciclo de vida. Nesse sentido, diversas abordagens (técnicas, modelos de processos, frameworks de processo, ferramenta, metodologias e afins) de apoio a rastreabilidade encontram-se dispersas na literatura para que se possam atingir os níveis de produtividade e qualidade desejados. Neste contexto, este trabalho visa contribuir por meio de um catálogo de abordagens de apoio a atividade de rastreabilidade de requisito, que é um instrumento que reúne estas abordagens a fim de facilitar e ajudar organizações na sua escolha. Para alcançar tal resultado foi utilizado o método da Engenharia de Software Baseada em Evidências chamado Revisão Sistemática da Literatura, devido a este método ser confiável, rigoroso e auditável, tendo assim, como objetivo investigar na literatura tais abordagens e boas práticas de rastreabilidade de requisitos no contexto de projetos de software.

  • CARLOS GUSTAVO RESQUE DOS SANTOS
  • Descoberta, Navegação e Exploração de Pontos de Interesse com Dispositivos Móveis através de Múltiplas Visões

  • Data: 03/07/2015
  • Mostrar Resumo
  • O avanço tecnológico dos dispositivos móveis permitiu a entrada de tecnologias inovadoras no cotidiano dos usuários, através de sensores, câmeras e recursos computacionais cada vez mais robustos e miniaturizados. Essas tecnologias possibilitam ampliar a interação e percepção do usuário sobre lugares e objetos a sua volta, possibilitando, por exemplo, o uso da realidade aumentada. Entretanto, essa oportunidade apresenta novos desafios, tais como: aspectos de desenvolvimento de aplicações para esse novo contexto ubíquo dos dispositivos, heterogeneidade dos dispositivos móveis, e como o usuário interage com essas aplicações. Assim, o objetivo principal deste trabalho é apresentar uma proposta para descoberta, navegação e exploração de pontos de interesse através de múltiplas visões com dispositivos móveis. Pontos de Interesse são lugares ou objetos que o usuário pode conhecer e interagir, com informações além das disponíveis localmente. Para atingir tal objetivo, foi proposta uma arquitetura flexível para os dados, extensível para adição ou remoção de funcionalidades, e adaptável aos diferentes tamanhos de tela, sendo que a arquitetura proposta é uma adaptação o padrão arquitetural MVC. Também foi desenvolvida uma aplicação que utiliza a arquitetura proposta e possui as funcionalidades de mapa, navegador de realidade aumentada e leitor QR Code, que são visões coordenadas para descoberta, navegação e exploração de pontos de interesse, tanto para ambientes indoor quanto outdoor. Por fim, foram realizados testes de adequação da aplicação à arquitetura com três fontes de dados diferentes e dois tamanhos de telas diferentes; e testes de usabilidade para avaliar a experiência do usuário no uso da aplicação desenvolvida.

  • SAUL CAMPOS BERARDO
  • Aprendizado Ativo com Agrupamentos
    em Espaço de Características

  • Data: 19/06/2015
  • Mostrar Resumo
  • Há fortes evidências de que o córtex cerebral nos mamíferos é organizado de forma
    hierárquica e de que a percepção de conceitos complexos ocorre através da identificação
    e composição de conceitos mais simples. Esta organização cortical em camadas inspirou
    recentemente a criação de novos algoritmos de Aprendizado de Máquina, batizados coletivamente
    sob a alcunha de Deep Learning. Esses algoritmos foram responsáveis por
    grandes avanços na área nos últimos anos, permitindo a criação de sistemas de reconhecimento
    de fala e imagens, dentre outros, capazes de atingir em alguns benchmarks desempenho
    até mesmo superior a de seres humanos. Um problema grave das técnicas atuais é
    ainda a dependência de grandes quantidades de dados rotulados, que em muitos casos é
    de difícil obtenção. Além disso, deve-se considerar que seres humanos parecem ter pouca
    necessidade de um sinal supervisionado durante o processo de aprendizado. Portanto, é
    comum a crença de que para se desenvolver sistemas capazes de verdadeira inteligência
    artificial é preciso que sejam criadas novas técnicas de aprendizado não supervisionado,
    ou semi-supervisionado, minimizando a necessidade de dados rotulados. Neste trabalho,
    demonstra-se experimentalmente que algoritmos de aprendizado não supervisionado de
    características podem ser utilizados de forma hierárquica para converter dados de seus
    espaços originais para espaços de características, nos quais a comparação entre objetos é
    mais significativa e, portanto, algoritmos de agrupamentos, como o k-médias, são capazes
    de achar agrupamentos mais homogêneos. A partir dessa constatação, é proposta uma
    abordagem de aprendizado ativo (tipo de aprendizado semi-supervisionado na qual os rótulos
    são obtidos somente durante a execução do algoritmo através da interação com um
    agente externo), que obtém resultados no estado da arte no benchmark de reconhecimento
    de imagens MNIST.

  • LARISSA MONTEIRO PIMENTEL
  • Otimizações em Protocolos de Roteamento Beaconless para Transmissão de Vídeo ENFANET. 

  • Data: 08/05/2015
  • Mostrar Resumo
  • A experiência do usuario ao assistir vídeos em tempo real deve ser satisfatoria
    mesmo quando transmitidos por redes dinâqmicas sob influência de diferentes condições e
    mudancas topologicas, como as Flying Ad-Hoc Networks (FANETs). Servicos de roteamento
    para disseminação de vídeo atraves de FANETs devem ser capazes de adaptar as
    decisões de roteamento em tempo de execução para preencher os requisitos de Qualidade
    de Experiência (QoE) sem desperdcio de recursos durante a transmissão.
    Este trabalho de dissertação apresenta um protocolo de roteamento beaconless,
    oportunstico e adaptativo projetado para disseminação de vídeos em FANETs com suporte
    a QoE, levando em consideração multiplos tipos de informaçõees contextuais como
    qualidade do link, energia residual, estado do bu er, assim como informação geográfi ca
    e mobilidade em um espaco 3D. O protocolo proposto utiliza redes Bayseanas para de -
    nir os vetores peso em conjunto com a tecnica de tomadade decisões Analytic Hierarchy
    Process (AHP) para ajustar o grau de importância das informações contextuais com base
    em seus valores instantâneos. O protocolo tambem inclui um predicionamento de posição
    para monitorar a distância entre dois nos, escolhendo os que possuem a melhor conectividade
    para serem os transmissores, de forma a detectar possveis falhas de rota e prevenir
    a perda de dados.
    Para avaliação do desempenho da proposta, foram utilizados os dados coletados
    apos multiplas transmissões de vídeos em cenarios FANETs simulados. Metricas de QoE
    foram utilizadas para comparar a qualidade dos vídeos obtidos apos transmissão pelo
    CABR em comparação com os transmitidos por outros protocolos FANETs, de forma a
    provar a vantagem do CABR na entrega de vídeos com qualidade satisfatoria e superior
    ao usuario nal.

  • JOSÉ DE SOUSA RIBEIRO FILHO
  • Extração de Parâmetros de um Sintetizador por Formantes utilizando Redes Neurais e Algoritmos Genéticos.

  • Data: 27/02/2015
  • Mostrar Resumo
  • Sintetizadores de fala são softwares largamente utilizados em estudos relacionados à
    síntese de fala, como em problemas do tipo Text-To-Speech, onde são produzidos sinais de
    fala a partir de texto. Um problema similar, porém de natureza diferenciada, é a Utterance
    Copy (em português, ‘imitação da fala’) que consiste na realização do processo de reconstrução
    de um sinal de voz, tomando-se como base a própria voz original. Este processo é
    de alta complexidade, uma vez que sua metodologia é baseada na combinação dos parâmetros
    numéricos de um sintetizador de fala (por exemplo, HLSyn ou mesmo KLSYN88)
    de maneira que tais configurações representem adequadamente a fala alvo. Esta pesquisa
    consiste na proposta de três técnicas implementadas a partir dos frameworks Neural Speech
    Mimic (NSM) e High Level Speech processed by Genetic Algorithm (HLSpeechGA).
    A primeira proposta é o NSM, ferramenta baseada em redes neurais que tem como principal
    objetivo extrair aproximações do que vêm a ser os parâmetros do sintetizador de fala
    HLSyn. A segunda proposta é o HLSpeechGA, ferramenta fundamentada em algoritmo
    genético capaz de extrair parâmetros do sintetizador HLSyn a partir de otimização. Já a
    terceira proposta é a união dos dois frameworks, chamando-se assim NSM+HLSpeechGA,
    ou seja, uma abordagem mista. Nos estudos realizados nesta pesquisa são comparados resultados
    obtidos a partir das três propostas defendidas juntamente com resultados produzidos
    a partir do software WinSnoori, utilizado como baseline. De acordo com as figuras
    de mérito adotadas, o framework HLSpeechGA obteve desempenho superior ao baseline
    tanto em processos utilizando voz sintética como natural.

  • IGOR DA PENHA NATAL
  • Estratégia para Avaliação de Desempenho de Aplicações
    Multimídia em Redes LTE Utilizando Métricas de QoE

  • Data: 27/02/2015
  • Mostrar Resumo
  • Com o avanço das tecnologias de redes sem fio e a utilização maciça de dispositivos
    móveis o perfil de acesso dos usuários vem se modificando e migrando cada vez mais para
    acesso a aplicações multimídia. Com isso, as estruturas existentes não conseguem suprir
    tais necessidades. Em se tratando de redes móveis, muitos estudos estão relacionados à
    implantação de femtocells como uma forma de melhorar a capacidade e a qualidade dos
    sistemas. As mudanças no perfil do usuário causam grandes impactos negativos, muitas
    vezes com serviços não satisfatórios para os clientes. Antes da implantação de sistemas é
    recomendável proceder-se uma avaliação de desempenho do mesmo, para que possa ser
    analisado o comportamento e verificar se sua implantação pode ser satisfatória ou não.
    Muitas estratégias para avaliação de desempenho em redes utilizam apenas métricas de
    QoS (Quality of Service – Qualidade de Serviço) que não são eficientes para analisar a
    percepção do usuário final em relação as aplicações multimídias. Com isso, métricas de
    QoE (Quality of Experience – Qualidade de Experiência) estão sendo utilizadas para este
    tipo de avaliação. O presente trabalho apresenta uma estratégia de avaliação de
    desempenho de aplicações multimídia a partir de métricas de QoE, utilizando PSNR,
    SSIM e VQM. A estratégia foi validada com o uso de simulação discreta utilizando o NS-
    2 (Network Simulator - 2) a partir de dois cenários com femtocell e macrocell. Os
    resultados foram coletados a partir de amostras, utilizando-se de 5 a 30 usuários (variando
    de 5 em 5), em cada cenário e foram classificados utilizando a estratégia aqui proposta. A
    partir dos resultados apresentados na simulação, o cenário com política apresentou
    melhores resultados de QoE, a métrica que apresentou resultados mais significativos foi a
    VQM (Video Quality Metric) chegando a ser 1937% melhor do que no Macro/Femto,
    além disso todos os vídeos foram aprovados pela estratégia nesse cenário.

  • HERESSON JOÃO PAMPOLHA DE SIQUEIRA MENDES
  • UMA PROPOSTA DE METODOLOGIA PARA GERENCIAMENTO
    DE RISCOS EM PROJETOS DE SOFTWARE ADERENTE A
    MODELOS E NORMAS DE QUALIDADE DE PROCESSO DE
    SOFTWARE

  • Data: 06/02/2015
  • Mostrar Resumo
  • Projetos de software são atividades complexas que necessitam de um planejamento
    adequado, porém fatores inesperados podem ocorrer de modo que prejudiquem a
    execução das atividades conforme planejadas previamente. Para contornar esses eventos
    inesperados é necessário aplicar a gerência de riscos, que tem o objetivo de analisar a
    probabilidade e as consequências de cada um desses possíveis eventos, afim de evitar
    que se tornem um problema futuramente.
    Existem na literatura várias recomendações de boas práticas de gerenciamento de riscos
    que podem ser aplicadas em um projeto de software, porém ao adotar as recomendações
    de apenas um guia, uma organização pode deixar de aproveitar outras oportunidades
    para alcançar a eficácia na gerência de riscos.
    Neste contexto, este trabalho visa contribuir através de uma proposta de apoio à
    implementação da gerência de riscos em organizações que desenvolvem software, sendo
    composta por uma metodologia de processo e uma ferramenta para apoio à execução
    das tarefas sugeridas. Para alcançar tais resultados foi realizado um mapeamento entre
    os modelos MR-MPS-SW e CMMI-DEV, a norma ISO/IEC 12207, o guia PMBOK e o
    padrão internacional para gerenciamento de riscos ISO/IEC 16085, com o objetivo de
    identificar equivalências, agrupando-as em uma lista de boas práticas referenciadas em
    cada guia de qualidade envolvido.

2014
Descrição
  • JAIRO DE JESUS NASCIMENTO DA SILVA JUNIOR
  • Uma Arquitetura Orientada a Serviços para Visualização de Dados em Dispositivos Limitados.

  • Data: 31/10/2014
  • Mostrar Resumo
  • A evolução tecnológica dos smartphones e tablets, a grande quantidade de informações armazenadas eletronicamente, e a necessidade de tomada de decisão, individual ou colaborativa, em qualquer lugar e momento demandam a concepção e desenvolvimento de serviços para visualização desses dados. A Internet tem desempenhado um importante papel como rede de compartilhamento de conhecimento, e neste contexto tem surgido aplicações com arquiteturas orientadas a serviços (SOA) nos mais diversos campos de estudo. Assim, este trabalho tem como objetivo a concepção e desenvolvimento de um agregado de serviços que favoreçam a ubiquidade e pervasividade em aplicações de visualização de dados, permitindo que o usuário construa visualizações de dados sobre um determinado domínio de problema de maneira fácil e intuitiva. Com este tipo de serviço é possível construir aplicações de visualizações de dados em diferentes dispositivos inteligentes, tais como: smartphones, tablets, desktop, TV Digital e etc. Esta abstração é conseguida através de uma API Web que suporta as principais características de aplicações de visualização de informações em diferentes plataformas. O modelo arquitetural de comunicação utilizado na concepção do serviço foi o REST (REpresentational State Transfer), as aplicações cliente e servidora foram desenvolvidas na linguagem Java, e foi utilizado um motor de geração de visualizações de dados denominado PRISMA. Como cenário de uso, foi desenvolvida uma aplicação cliente Android para testar os serviços criados. Por fim, serão apresentados dados iniciais sobre testes de usabilidade realizados na aplicação desenvolvida.

  • MARCIA PRISCILA FURTADO PANTOJA
  • UM MÉTODO FUZZY PARA PROGRAMAÇÃO DE INSPEÇÕES EM TRANSFORMADORES BASEADO NA ANÁLISE DE GASES COMBUSTÍVEIS E PARÂMETROS FÍSICO-QUÍMICOS DO ÓLEO ISOLANTE

  • Data: 24/10/2014
  • Mostrar Resumo
  • Transformadores de potência que utilizam óleo para a isolação de suas partes internas necessitam de um programa de manutenção periódico que vise detectar possíveis falhas, tais como: deterioração da celulose do isolamento dos enrolamentos, curto circuito entre espiras, gases dissolvidos no óleo devido a sua degeneração, etc. Normalmente, programas de manutenção preventiva têm sido utilizados por empresas de geração, transmissão e distribuição de energia elétrica buscando evitar que estas falhas venham a provocar a retirada do equipamento do sistema elétrico, situação que implica em grandes perdas financeiras, seja pela diminuição do faturamento, pelo pagamento de multas à agência reguladora, além da diminuição da confiabilidade do sistema. Para evitar estes tipos de perdas, este trabalho apresenta uma proposta de solução, usando abordagem Fuzzy, para auxiliar o processo de programação de inspeções em transformadores de alta potência (500kv), por meio da análise dos gases dissolvidos no óleo isolante, obtidos pela técnica da cromatografia gasosa e da análise físico-química do óleo. Buscou-se produzir uma solução que combine os resultados dos métodos tradicionais já consolidados na literatura, com situações adicionais oriundas da análise físico-química do óleo e do conhecimento dos especialistas, de forma a aumentar a eficácia do procedimento de inspeção desses equipamentos. Com isso, qualquer Sistema Elétrico de Potência – SEP – que realiza diagnósticos em transformadores por meio da Norma NBR 7274, tende a obter  um diagnóstico mais preciso, em decorrência da associação da análise físico-química do óleo isolante com a cromatografia gasosa e o conhecimento tácito de especialistas da área, possibilitando a expansão da base de regras original da referida norma técnica. Todos os testes e a base de dados utilizada são oriundos de um laboratório de Química de várias subestações elétricas de uma concessionária de energia elétrica localizada em Barcarena – Pará – Brasil.

  • BENEDITO DE SOUZA RIBEIRO NETO
  • APLICAÇÃO DE SENSORES VIRTUAIS NA ESTIMAÇÃO DA CONCENTRAÇÃO DOS PARÂMETROS FÍSICO-QUÍMICOS E METAIS EM CORPOS D’ÁGUA DE RESERVATÓRIOS DE HIDRELÉTRICAS: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA

  • Data: 23/10/2014
  • Mostrar Resumo
  • Esta pesquisa apresenta a utilização de sensores virtuais na estimação da concentração dos parâmetros físico-químicos e metais no monitoramento da qualidade da água de reservatórios da Amazônia, por meio de redes neurais artificiais (RNA’s) e imagens de sensoriamento remoto. A análise fatorial das variáveis consideradas no estudo, confirmou o relacionamento da primeira faixa de profundidade do disco de Secchi, Ferro Total, PO4, P Total, TSS e Turbidez em um único fator, pois estes apresentam grande refletância e boa absorção de energia pelos sensores dos satélites. Estes elementos foram estimados por RNA’s, produzindo resultados bem próximos dos valores observados. Os testes de validação também confirmaram a boa aproximação para a primeira faixa de profundidade do disco de Secchi, Fe Total, STS e Turbidez do reservatório de água. No caso específico dos parâmetros PO4 e P Total, além do problema do pouco número de estações de coleta de dados disponíveis e a variabilidade inerente ao ciclo hidrológico da região, constatou-se, por meio da interpretação das imagens, falta de similaridades entre os dados utilizados no treinamento e na validação da RNA. De modo geral, o estudo demonstrou a eficácia da aplicação de sensores virtuais e imagens de satélite no monitoramento da qualidade da água de reservatórios na Amazônia, proporcionando uma alternativa com bom índice de precisão e menos dispendiosa de recursos no processo de monitoramento desse recurso.

  • MAXWEL MACEDO DIAS
  • MINERAÇÃO DE DADOS EDUCACIONAIS: RELATO DE
    EXPERIÊNCIA NO AMBIENTE VIRTUAL LABSQL

  • Data: 12/09/2014
  • Mostrar Resumo
  • Uma das tecnologias digitais mais utilizadas nas atuais práticas de educação online é o
    Ambiente Virtual de Aprendizagem (AVA). Os educadores utilizam estes ambientes para
    disponibilizar informações online, mas possuem pouco suporte para avaliar o aprendizado dos
    educandos a distância, de forma que, a ausência da percepção do educador quanto ao estado
    de compreensão de seus educandos pode levar ao insucesso de um curso online.
    A maioria dos AVAs armazenam grandes volumes de dados provenientes do histórico
    dos acessos aos recursos do sistema pelos educandos, suas avaliações, dentre outros. Nos
    últimos anos a Mineração de Dados Educacionais vem sendo utilizada para explorar os dados
    provenientes de ambientes educacionais, bem como entender melhor os educandos e o seu
    processo de ensino e aprendizagem.
    O objetivo deste trabalho é avaliar o aprendizado online a partir dos dados
    provenientes do ambiente virtual LabSQL, utilizado na Universidade Federal do Pará, por
    meio da Mineração de Dados Educacionais, com a aplicação de técnicas como Árvore de
    Decisão, Redes Bayesianas, Regras de Associação e Análise de Agrupamento.
    Os resultados obtidos mostraram-se eficientes para apoiar os educadores na avaliação
    das aprendizagens online, pois permitem analisar o perfil dos educandos em relação à
    utilização dessa tecnologia e ao processo de ensino-aprendizagem no ambiente LabSQL.
    Além disso, as regras geradas a partir da mineração de dados indicam como o educando pode
    aprimorar a aprendizagem utilizando melhor o ambiente.

  • LEOMARIO SILVA MACHADO
  • AVALIAÇÃO DE DESEMPENHO DE TÉCNICAS DE LOCALIZAÇÃO EM AMBIENTES REAIS APLICADAS A REDES DE SENSORES SEM FIO.
    Belém

  • Data: 26/05/2014
  • Mostrar Resumo
  • A localização em redes de sensores sem fio é um desafio que vai além do uso do popular GPS, com trabalhos diversos que visam aprimorá-lo ou mesmo substituí-lo. A localização pode ser realizada utilizando múltiplas antenas e seus respectivos ângulos, tempo e sincronização, diferencial de tempo entre envio de dois rádios diferentes ou mesmo com a potência do sinal.A partir destes padrões de estimativa, várias técnicas foram postuladas com objetivo de se utilizar dos recursos disponíveis para mensurar distâncias e estimar as coordenadas de um nó. Dentre estas técnicas pode-se citar como as mais importantes a Lateração, Nearest Neighbor, K-Nearest Neighbor, Min-Max, Non-Linear Regression, Iterative Non- Linear Regression, Sum-Dist, Dv-hop, Rede Neural Artificial, filtro de Kalman.
    Este trabalho conduz um conjunto de testes realizados em dois ambientes, sendo o primeiro indoor, e o segundo outdoor utilizando como hardware os módulos IRIS da MEMSIC para realização do experimento. Nestes testes são comparadas as técnicas Lateração, KNN e uma Rede Neural Artificial é proposta para o objetivo de estimar a localização de um nó da RSSF. São apresentadas as formulações matemáticas da Lateração e KNN, assim como a configuração da Rede Neural utilizada nos testes conduzidos neste trabalho. Os resultados são exibidos tomando o benchmark entre as técnicas para análise comparativa percentual entre as mesmas e para melhor análise quantitativa, os dados são Tabelados para visualização da precisão.

  • DANIEL LEAL SOUZA
  • Otimização por Multi-Enxame Evolucionário de Partículas Clássico e Quântico Competitivo sob a Arquitetura Paralela CUDA Aplicado em Problemas de Engenharia
  • Data: 23/05/2014
  • Mostrar Resumo
  • Este trabalho apresenta o desenvolvimento de um conjunto de metaheurística híbridas, baseadas na utilização das estratégias evolutivas em conjunto com os algoritmos de otimização por enxame de partículas clássica e quântica sob um ambiente multi-enxame com topologia mestre-escravos. Tais algoritmos são denominados Competitive Evolutionary Multi-Swarm Optimization (CEMSO) 1 e Competitive Quantum-Behaviour Evolutionary Multi-Swarm Optimization (CQEMSO) 2. Para efeito de comparação e validação dos resultados, são utilizados quatro problemas de engenharia presentes em diversas publicações científicas: Projeto de Viga de Aço (WBD); Peso da Tensão/Compressão sobre Mola (MWTCS); Projeto de Redutor de Velocidade (SRD); Projeto de Vaso de Pressão(DPV). Em relação a implementação, os algoritmos foram desenvolvidos sob a arquitetura CUDA, a qual proporciona um ambiente de computação paralela massiva que viabiliza uma distribuição de dados mais adequada em relação a organização dos enxames, além de contribuir para a diminuição significativa do tempo de processamento. Com a aplicação das estratégias evolutivas nos algoritmos PSO e QPSO, bem como os mecanismos de condições de contorno propostos, as soluções descritas neste documento oferecem diversas vantagens, onde se pode destacar melhorias na capacidade de busca, aumento na taxa de convergência e alto grau de paralelismo. Tais fatos são confirmados através dos dados obtidos (i.e. Tempo de execução, melhores soluções obtidas, média e variância de resultados) pelos algoritmos CEMSO e CQEMSO em relação as versões multi-enxame dos algorimos PSO (COMSO), EPSO (COEMSO) e COQMSO (QPSO), todos implementados e submetidos a análise de desempenho através dos experimentos com problemas de engenharia.
  • JEAN CARLOS AROUCHE FREIRE
  • APLICAÇÃO DE TÉCNICAS ESTATÍSTICAS E DE INTELIGÊNCIA COMPUTACIONAL NA CLASSIFICAÇÃO DE CICLOS HIDROLÓGICOS EM RESERVATÓRIOS DE ÁGUA NA REGIÃO AMAZÔNICA: UM ESTUDO DE CASO
  • Data: 09/05/2014
  • Mostrar Resumo
  • Este estudo avalia a qualidade da água do reservatório da Usina Hidrelétrica de Tucuruí de acordo com o ciclo hidrológico da região e da disposição espacial dos diferentes sítios de coleta distribuídos nas zonas à montante da barragem no período de 2009 a 2012 a partir da alteração de 17 parâmetros físico-químicos e de metais da água extraídos de seis fatores que representaram 71,01% de variabilidade total dos dados. Foi observado que as maiores variações do NO3, NH4, Total P, PO4 e STS ocorreram no período de enchentes, podendo ser uma indicação do estadotrófico nos sítios amostrais em decorrência da existência de pólos pesqueiros ou da densidade populacional no entorno desses sítios. Para classificação do ciclo hidrológico foram utilizados seis classificadores: análise discriminante, redes neurais artificiais, k-vizinhos mais próximo, máquinas de vetores de suporte com núcleo radial e polinominal, e random forest. Os resultados obtidos indicaram que o classificador random forest foi o que apresentou melhor desempenho com percentual de classificação de 7,80% de predições incorretas. Enquanto que o t-Student test indica que random forest e k-vizinhos mais próximo tem em média taxade predições incorretas iguais com índice de significância fixado em α = 5%.
  • EWELTON YOSHIO CHIBA YOSHIDOME
  • UMA ONTOLOGIA QUE ESTABELECE OS RELACIONAMENTOS DE DEPENDÊNCIA ENTRE AS PRÁTICAS DE GERÊNCIA DE REQUISITOS E GERÊNCIA DE PROJETOS CONSTANTES NOS MODELOS MR-MPS-SW E CMMI-DEV
  • Data: 16/04/2014
  • Mostrar Resumo
  • Os modelos e normas de qualidade software buscam propor um conjunto de boas práticas para auxiliarem as empresas desenvolvedoras de softwares na melhoria contínua de seu processo de desenvolvimento, possibilitando a criação de produtos de maior qualidade. Assim, em muitos casos, a empresa desenvolvedora de software precisa contratar consultores de implementação capacitados para apoiar na institucionalização das boas práticas recomendadas. Neste contexto, existe uma dificuldade por parte de empresas e consultores de implementação iniciantes no entendimento das práticas presentes nos modelos de qualidade, além de, principalmente, existir uma dificuldade em visualizar a forma como cada prática relaciona-se. Para sanar esse problema, uma ontologia pode ser utilizada. Uma ontologia é “um conjunto de termos ordenados hierarquicamente para descrever um domínio que pode ser usado como um esqueleto para uma base de conhecimentos”. Assim, esta pesquisa visa contribuir com uma proposta de uma ontologia que estabelece os relacionamentos de dependência entre as práticas presentes nos processos de gerência de projeto e gerência de requisitos. Para alcançar tal resultado esperado, necessitou-se de: (1) um estudo das práticas dos referidos processos sugeridos nos modelos MR-MPS-SW e CMMI-DEV, visando encontrar as dependências entre as práticas; (2) modelar a ontologia dos relacionamentos de dependência encontrados durante o estudo dos modelos em linguagem UML – Unified Modeling Language; (3) definir os axiomas da ontologia, com o objetivo de consolidar e restringir a semântica dos relacionamentos da modelagem; e (4) realizar uma pesquisa de campo em empresas com avaliações oficiais para coletar as evidências utilizadas para contemplar as práticas sugeridas nos modelos, com o objetivo de instanciá-las na ontologia para a sua avaliação.
  • ALEXANDRE MARCIO MELO DA SILVA
  • CONTROLE ENERGETICAMENTE EFICIENTE DE MÚLTIPLOS SALTOS PARA REDES DE SENSORES SEM FIO HETEROGÊNEAS UTILIZANDO LÓGICA FUZZY
  • Data: 21/03/2014
  • Mostrar Resumo
  • O presente trabalho objetiva demonstrarum controle centralizado para eleger Cluster Heads (CHs) mais adequados, admitindo trêsníveis de heterogeneidade e uma comunicação de múltiplos saltos entre Cluster Heads. O controle centralizado utiliza o algoritmo k-means, responsável pela divisão dos clusters e Lógica Fuzzy para eleição do Cluster Head e seleção da melhor rota de comunicação entre os eleitos.Os resultados indicam que a proposta apresentada oferece grandes vantagens comparado aos algoritmos anteriores de eleição, permitindo selecionar os nós mais adequados para líderes do grupo a cada round com base nos valores do Sistema Fuzzy, como também, a utilização da Lógica Fuzzy como ferramenta de decisão para implementação de múltiplos saltos entre CHs, uma vez que minimiza a dissipação de energia dos CHs selecionados mais afastados do ponto de coleta. A inserção de três níveis de heterogeneidade, correspondente aos sensores normais, avançados e super sensores, contribui consideravelmente para o aumento do período de estabilidade da rede. Outra grande contribuição obtida a partir dos resultados é a utilização de um controle central na estação base (EB) apresentando vantagens sobre o processamento local de informações em cada nó, processo este encontrado nos algoritmos tradicionais para eleição de CHs.A solução proposta comprovou que a eleição do CH mais eficiente, considerando sua localização e discrepâncias de níveis de energia, como também, na inclusão de novos níveis de heterogeneidade, permite aumentar o período de estabilidade da rede, ou seja, o período que a rede é totalmente funcional, aumentando consideravelmente o tempo de vida útil em Redes de Sensores Sem Fio (RSSF)heterogêneas.
  • RÔMULO SILVA PINHEIRO
  • REPOSDN: UM MÉTODO DE ORGANIZAÇÃO E COORDENACÃO DE APLICAÇÕES EM REPOSITÓRIO PARA REDES DEFINIDAS POR SOFTWARE
  • Data: 28/02/2014
  • Mostrar Resumo
  • A adoção do paradigma de Redes Definidas por Software por instituições acadêmicas e grandes empresas como Google, Cisco, HP, entre outras, já é uma realidade. Este paradigma é considerado uma solução para o novo modelo de Internet do Futuro devido a sua viabilidade técnica e econômica. O paradigma SDN permite novas perspectivas em termos de abstrações, ambientes de controle e de desenvolvimento de aplicações, livre das limitações de tecnologias atuais. Contudo ainda há carência na forma como ocorre o gerenciamento e controle de diversas aplicações existentes na Internet. A Programabilidade é uma das chaves para o sucesso do Paradigma de Redes Definidas por Software, pois permite a separação do plano de dados com o plano de controle. No entanto, no contexto deste paradigma, gerenciar a entrada e saída de diversas aplicações para os controladores é um problema pouco explorado, visto que as aplicações SDN, como as aplicações de roteamento, por exemplo, não ficam em um ambiente controlado e organizado. Nesta dissertação é proposto um método de organização e coordenação de repositório de aplicações para Redes Definidas por Software, chamado de RepoSDN, que especifica, modela e automatiza os processos necessários para que as aplicações cheguem até o administrador e este possa gerenciar suas utilizaçõies na rede, tornando-as simples, seguras e ágeis. O RepoSDN apresenta uma estrutura onde cada aplicação SDN é gerenciada dentro da rede até chegar aos controladores. Além disso, ele contém um repositório central, onde qualquer usuário pode enviar suas aplicações a fim de compartilhar com os administradores da Rede definida por Software, os quais utilizam aplicações específicas para a sua necessidade. Foi desenvolvido um protótipo do RepoSDN, o qual implementa as funcionalidades do repositório de aplicações e dos componentes criados para auxiliar na gerência das aplicações em uma rede programável. O método de organização e coordenação de aplicações em repositório para SDN auxilia o Administrador a manipular cada aplicação. A proposta foi validada por meio do desenvolvimento do repositório e realização de testes de desempenho no mesmo, que constituiu em fazer testes de carga nos componentes desenvolvidos. O objetivo dos componentes é tornar mais simples o método com que as aplicaçõies são inseridas nos diversos tipos de controladores das Redes Definidas por Software, tendo como resultado a comprovação da viabilidade, escalabilidade e exibilidade do RepoSDN.
  • OLAVO NYLANDER BRITO NETO
  • UMA ABORDAGEM METODOLÓGICA PARA IMPLEMENTAÇÃO MULTI-MODELOS DE TESTE DE SOFTWARE ADOTANDO O MPT.Br E O TMMi
  • Data: 20/01/2014
  • Mostrar Resumo
  • Ao longo dos anos modelos de qualidade de software e correlacionados tem surgido e ganhado cada vez mais espaço nas organizações desenvolvedoras de software. Esses modelos abrangem todo o processo de desenvolvimento ou áreas especificas do processo. Devido a área de teste qualificar o resultado dos produtos gerados com a redução de defeitos encontrados durante todo o desenvolvimento e ser uma área com pouco destaque durante este processo de desenvolvimento. Este trabalho apresenta uma metodologia de implementação multi-modelos do Processo de teste de software. Destacando uma abordagem utilizada para a criação de material de suporte na implementação multi-modelos aplicado aos modelos MPT.Br e TMMi, alinhado com os níveis de maturidade presentes nos modelos, enfatizando a metodologia e materiais gerados durante este processo. Adicionalmente, insumos foram gerados para facilitar o conhecimento da aderência aos modelos supracitados e facilitando a adaptação de organizações internacionais que pretendem conhecer a cultura de teste do Brasil.
  • ANDERSON SILVA DE OLIVEIRA GÓES
  • AMANAEDU: UMA NUVEM COMPUTACIONAL PARA APOIAR O ENSINO TÉCNICO E PROFISSIONALIZANTE NO ESTADO DO PARÁ
  • Data: 13/01/2014
  • Mostrar Resumo
  • Este trabalho apresenta uma estrutura de nuvem computacional chamada AMANAEDU. A mesma foi desenvolvida para ajudar a resolver alguns dos graves problemas da educação pública técnica e profissionalizante no estado do Pará. Muitos destes problemas envolvem fatores adversos ligados a questões geográficas e sociais. Uma análise do contexto nacional mostra o crescimento no uso da informática educativa nesta modalidade de ensino, evidenciado por bons resultados colhidos em programas de inclusão digital executados por governos estaduais, os quais encontram- se cada vez mais ligados à iniciativas de EAD. No Pará, o principal programa neste modelo é o NavegaPará, o qual teve sua infraestrutura aproveitada na execução do objeto desta pesquisa. A elaboração dos componentes desta nuvem foi baseada em referencial teórico e metodológico amplamente aceito pela comunidade acadêmica, utilizando- se de modelos como o Construtivismo e Instrucionismo. As melhores práticas de programação para computação em nuvem foram utilizadas nesta pesquisa. A camada de aplicação incorpora três portais utilizados para capacitações a distância e semi- presenciais: SEUTED para acesso centralizado a todos os Ambientes Virtuais de Aprendizagem (AVA) disponíveis na nuvem, PROTVEDU, o qual utiliza streaming multimídia para a transmissão de conteúdos de áudio e vídeo relacionados à educação e PROA, um portal usado como repositório de armazenamento para objetos de aprendizagem. Juntos, esses elementos podem servir de base para uma nova abordagem educacional que pode ser implementada em todos os níveis da educação técnica e profissionalizante.
2013
Descrição
  • JONATHAS PINHEIRO TRINDADE
  • NOVAS TÉCNICAS PARA ESTIMAÇÃO DOS PARÂMETROS DE SINTETIZADORES DE VOZ USANDO ALGORITMO GENÉTICO E PROCESSAMENTO DE SINAIS
  • Data: 17/12/2013
  • Mostrar Resumo
  • Os sintetizadores são o back-end dos sistemas texto-fala (ou TTS). Um problema relacionado porém diferente é o utterance copy (imitação da voz), o qual consiste em ter uma voz como entrada (ao invés de texto, como em sistemas TTS) e encontrar os parâmetros de configuração de um sintetizador, com o objetivo de gerar uma voz semelhante a voz alvo, mantendo características e identidade da voz. Utterance copy é considerado uma tarefa com alta complexidade devido a necessidade do ajuste simultâneo de vários parâmetros do sintetizador, os quais não possuem uma relação linear com o sinal de voz produzido Sintetizar a voz humana através do sintetizador Klatt também não é uma tarefa simples, devido a grande quantidade de combinações possíveis entre os seus 48 parâmetros formando um extenso espaço de busca. Além disso, alguns parâmetros são dependentes entre frames e o valor de um parâmetro em um frame pode influenciar na síntese dos frames subsequentes. Existem ferramentas que realizam essa tarefa, porém ainda tem limitações que influenciam na qualidade da voz gerada.Novas metodologias foram propostas como objetivo de melhorar os resultados obtidos pelo GASpeech, ferramenta que utiliza algoritmo genético como estratégia de estimação dos parâmetros de configuração do sintetizador KLSYN88. Com a utilização das novas técnicas conseguiu-se a redução do erro entre o sinal alvo e estimado e diminuição do tempo de processamento do framework.
  • ROMULO PINTO DE ALBUQUERQUE
  • FHDRA: UMA PROPOSTA PARA REDUÇÃO DA LATÊNCIA DE HANDOFF EM REDES SEM FIO DE MULTIPLOS SALTOS
  • Data: 21/11/2013
  • Mostrar Resumo
  • As redes sem fio se consolidaram como um dos principais meios de comunicação da atualidade e são uma alternativa viável de acesso a Internet para a última milha. Uma das suas principais linhas de pesquisa é o estudo da mobilidade. Sempre houve um expressivo esforço em prol de soluções de mobilidade para as redes sem fio mais tradicionais, tais como redes celulares e as redes IEEE 802.11. Outro tipo de rede sem fio que tem se destacado mais recentemente são as de múltiplos saltos. Porém a questão da mobilidade neste tipo de rede não é uma simples extensão das redes sem fio tradicionais. Por isso são necessárias soluções de mobilidade específicas que atendam aos requisitos das redes sem fio de múltiplos saltos. O DHCP, por exemplo, embora seja amplamente utilizado em redes sem fio, é um protocolo que foi projetado para redes cabeadas e portanto não atende adequadamente cenários de alta mobilidade onde os clientes móveis necessitam de rápida configuração e que mantenham suas conexões ativas após o handoff. Com o objetivo de minimizar a latência do processo de handoff em redes sem fio de múltiplos saltos, o presente trabalho propõe uma adaptação ao DHCP. A proposta intitulada FHDRA (Fast Handoff DHCP Relay Agent) adiciona inteligência ao agente DHCP relay, tornando-o capaz de acelerar o processo de aquisição de IP durante o handoff. Em testes realizados em uma rede sem fio de múltiplos saltos, a proposta FHDRA obteve um desempenho superior ao DHCP tradicional, demonstrando ser indicada para suportar aplicações com restrição de tempo.
  • CLAY PALMEIRA DA SILVA
  • Text2MARK: Uma ferramenta de mineração de textos para auxílio na representação do conhecimento
  • Data: 04/10/2013
  • Mostrar Resumo
  • Representar conhecimento no inicio do ano 2000 tornou-se um desafio devido ao grande volume de informações aos quais somos submetidos. Associar técnicas inteligentes tornou-se um método relevante, porém, ainda faltam estudos para tornar o processo mais simples para o usuário. Considerando o atual estado da arte dos etiquetadores de texto da área de processamento de linguagem natural (PLN), os quais apresentam alta acurácia na etiquetagem de sequências de palavras, o objetivo deste trabalho, chamado Text2MARK, é desenvolver uma ferramenta computacional que possa minerar de forma eficiente e sem complexidade textos livres em português, além de abranger a construção de regras gramaticais que foram denominadas predicados. Para isso foram utilizadas técnicas híbridas de mineração de textos associadas a predicados léxicos construídos com base na estrutura da gramática portuguesa. Além disso, foi desenvolvido um método automático de extração de palavras-chave em forma de tuplas para construção de mapas conceituais. As tuplas obtidas serviram como entrada na ferramenta CMapTools para representar conhecimento através de mapas conceituais. A proposta obteve como média 84,2% de tuplas que correspondiam à representação do texto analisado. Com base em trechos de textos extraídos de cinco artigos científicos distintos foram gerados cinco mapas conceituais. Os mapas foram submetidos à avaliação subjetiva de três grupos diferentes de usuários que atribuíram notas de 0 a 10 e obteve como média as notas 8,1, 8,1 e 8,3 respectivamente em termos de similaridade com o trecho do texto analisado. Os resultados comprovam que é possível utilizar tuplas em formatos NOME-VERBO-NOME para representar conhecimento através de sentenças gramaticais para construir mapas conceituais, ainda demonstra na avaliação subjetiva que textos elaborados com poucas contrações ou abreviações são mais fáceis de representar em forma de mapa.
  • CARLOS TAKESHI KUDO YASOJIMA
  • Uma solução fuzzy para geração de alertas de inspeção em transformadores de alta potência, a partir da análise das descargas parciais: um estudo de caso num SEP da Eletronorte-Eletrobrás
  • Data: 28/08/2013
  • Mostrar Resumo
  • As descargas parciais possuem informações úteis sobre a condição operacional do equipamento de onde são captadas. O estudo de descargas parciais vem sendo intensificado não somente na área acadêmica e divisões de pesquisa, como também em setores industriais, na busca de soluções não invasivas que Contribuam para a melhoria da eficácia operacional desses equipamentos. Dentro deste contexto, esta dissertação apresenta um estudo exploratório de descargas parciais em transformadores de potência a partir da aplicação de uma metodologia utilizando técnicas estatísticas e, com o conhecimento adquirido, propõe uma solução usando lógica fuzzy para a classificação do estado do transformador em diferentes situações operacionais. Através de variáveis ambientais e do sistema elétrico, foi possível identificar que a potência reativa de 230kV e o período do dia possuem forte relação com os potenciais das descargas parciais que ocorrem nos transformadores de potência. A obtenção deste conhecimento permitiu a construção da base de regras da solução fuzzy proposta, contribuindo para o processo de tomada de decisão dos especialistas da área no diagnóstico de transformadores na programação das manutenções preventivas nesses equipamentos.
  • YURI LIMA CAVALCANTE
  • APLICAÇÃO DAS TÉCNICAS ANÁLISE MULTIVARIADA E REDES NEURAIS ARTIFICIAIS NA CLASSIFICAÇÃO DAS ÁGUAS DE RESERVATÓRIOS DE HIDRELÉTRICAS: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA
  • Data: 31/05/2013
  • Mostrar Resumo
  • DE ACORDO COM O RELATÓRIO ENTREGUE NA SECRETÁRIA DO PPGCC

    Esta pesquisa apresenta uma metodologia para classificação de águas de reservatórios de hidrelétricas da Amazônia utilizando Análise Multivariada de Dados e Redes Neurais Artificiais (RNA). As amostras de água dos reservatórios das hidrelétricas de Coaracy Nunes e Tucuruí foram coletadas durante o período de Junho de 2008 à Setembro de 2009. Os parâmetros físico-químicos analisados foram: temperatura, condutividade, pH, turbidez, sólidos totais em suspensão, alcalinidade, amônia, demanda química de oxigênio, dureza e oxigênio dissolvido. Os metais analisados foram: Alumínio (Al), Bário (Ba), Cálcio (Ca), Ferro (Fe), Potássio (K), Magnésio (Mg), Manganês (Mn) e Sódio (Na). Para cada reservatório foi aplicada a Análise Fatorial para redução de variáveis. As variáveis constituintes dos fatores resultantes foram utilizadas como variáveis de entrada das RNAs propostas para classificar as amostras de água como pertencentes ao período seco ou chuvoso, a classificação resultante do uso das RNAs é comparada com os a classificação realizada pela Análise Discriminante. Os resultados obtidos demonstram que a combinação das técnicas estatísticas com Redes Neurais Artificiais pode ser utilizada para geração de soluções robustas em problemas de classificação, sendo estas aplicações estatísticas também relevantes em casos de gestão ambiental e política de tomada de decisão, para identificar quais fatores devem ser estudados e/ou modificados para recuperar corpos de água degradados ou contaminados.
  • LENA PATRICIA SOUZA RODRIGUES
  • Lógica Fuzzy e Transformada Wavelet Aplicadas no Processo de Captura e Interpretação de Termogramas de Para-Raios
  • Data: 26/04/2013
  • Mostrar Resumo
  • DE ACORDO COM O RELATÓRIO ENTREGUE NA SECRETÁRIA DO PPGCC

    Para-raios são utilizados com o intuito de minimizar danos causados por descargas elétricas, protegendo um sistema elétrico de potência contra surtos de tensão que podem causar interrupção no fornecimento de energia elétrica. Neste trabalho é apresentado um método para avaliar o processo de captura e interpretação de termogramas de para-raios de subestações elétricas da Eletronorte/Eletrobrás, localizadas na região Amazônica, Pará, Brasil, a partir de dados capturados com técnicas de Termovisão. Foi desenvolvida uma solução com lógica fuzzy para a predição da diferença média de temperatura. A solução proposta comprovou que algumas variáveis de domínios imprecisos, tais como: Radiação Solar, Distância e Brisa, observadas durante o processo de captura das imagens de para-raios podem influenciar nos diagnósticos gerados. Num segundo momento foi utilizada a transformada wavelet, que decompõe uma imagem em bandas de diferentes frequências, permitindo a detecção de objetos por meio da característica de suas frequências e da discriminação de ruídos. A transformada wavelet possibilitou observar o comportamento da temperatura ao longo do corpo dos para-raios de acordo com o aumento da escala, a partir da avaliação de pontos quentes (PQ) e pontos não quentes (PNQ) em termogramas de para-raios, o que permitiu a expressão visual do comportamento da temperatura ao longo do corpo do equipamento. A integração das duas técnicas, aliada ao conhecimento dos especialistas, possibilitou a construção da solução proposta, que obteve resultados bem próximos da realidade, podendo ser utilizada como suporte durante a análise de termogramas de para-raios de subestações elétricas.
  • VERONICA SOUZA LEAL SALIBA GOMES
  • ISOLAMENTO DE RECURSOS EM REDES DEFINIDAS POR SOFTWARE VIRTUALIZADAS BASEADAS EM OPENFLOW
  • Data: 24/04/2013
  • Mostrar Resumo
  • As redes de nidas por software vêm ganhando consideravel projeção no âmbito das comunidades de pesquisa para evolução da Internet, caracterizando-se pela defi nição de uma interface que permite a programação centralizada dos elementos da rede. No contexto de aplicação deste paradigma, o OpenFlow tem se destacado como uma importante solução, incluindo um padrão aberto que possibilita a utilização de equipamentos em redes comerciais e de pesquisa para experimentação de novas propostas, podendo aplicar uma camada de virtualizaação para execução de multiplos experimentos em paralelo sobre uma unica infraestrutura atraves da ferramenta FlowVisor. A solução habilita o compartilhamentode recursos de rede atraves da de finiçãoo de diferentes fatias de redes virtuais. Apesar de seu potencial, tal iniciativa ainda enfrenta alguns desa fios e limitações em sua arquitetura, dentre as quais a mais importante e a necessidade de novos metodos para garantir o isolamento real de recursos entre as diferentes fatias. Este trabalho apresenta uma proposta para o aperfeiçoamento das funções de isolamento do FlowVisor. Novos modulos foram desenvolvidos, permitindo a aplicaçãoo de mecanismos de controle de tráfego e gerenciamento de recursos entre as redes virtuais. Dentre as funcionalidades aplicadas inclui-se uma interface para programação de aspectos de QoS nas portas de dispositivos de rede, permitindo o controle da alocação de recursos diretamente pelo FlowVisor. Os resultados de experimentos realizados para validação da proposta demonstram que a solução e capaz de isolar as fatias, mitigando as interferências entre elas.
  • JNANE DE SOUSA NEIVA
  • UMA PROPOSTA DE FRAMEWORK DE AVALIAÇÃO DE PROCESSOS DE SOFTWARE ADERENTE AO MA-MPS E SCAMPI A
  • Data: 26/03/2013
  • Mostrar Resumo
  • Na atualidade são recorrentes as iniciativas de melhoria de processo software com a adoção de múltiplos modelos e, nesses casos, pode ser mais viável a realização de avaliações integradas (ou conjuntas). Com isso, surge a necessidade de elaboração de material e instrumentos específicos que sirvam de apoio para a realização de avaliações integradas de processos, haja vista a complexidade envolvida nessa modalidade de avaliação. Dentro desse contexto, a presente dissertação apresenta uma proposta de mapeamento entre os métodos de avaliação MA-MPS e SCAMPI A – em conformidade com os requisitos da norma ISO/IEC 15504-2 –, de forma a identificar as similaridades e diferenças existentes entre eles. A partir do mapeamento, foi definida uma abordagem de avaliação de processos de software que integra os métodos de avaliação MA-MPS e SCAMPI A (aqui denominado framework de avaliação integrada), propiciando que em uma mesma avaliação seja possível determinar o nível de maturidade e de capacidade nos modelos de referência MR-MPS-SW e CMMI-DEV. O framework de processo proposto pretende apoiar a realização de uma avaliação integrada por meio de atividades que reflitam o mapeamento existente entre as tarefas do MA-MPS e as atividades do SCAMPI A, o que pode facilitar o acompanhamento e o atendimento aos requisitos de avaliação de ambos os métodos de avaliação. Adicionalmente, é apresentada uma ferramenta livre de avaliação de processos de software que sistematiza o fluxo de atividades do framework. Esta pesquisa está inserida no contexto do Projeto SPIDER (Software Process Improvement: DEvelopment and Research), cujo objetivo é prover soluções ferramentais e metodológicas para apoiar a implementação da qualidade de processo de software em consonância com os principais padrões para melhoria de processo.
  • JOAO JULIO SALVATTI NETO
  • LEGACYFLOW: UMA PROPOSTA DE CONTROLE DE AMBIENTES DE REDES LEGADOS UTILIZANDO O PROTOCOLO OPENFLOW
  • Data: 28/02/2013
  • Mostrar Resumo
  • As Redes Definidas por Software (Software Defined Network - SDN) tornam possíveis a separação do plano de controle do plano de dados em equipamentos de rede, permitindo que diferentes fluxos experimentais e de produção compartilhem a mesma infraestrutura. O arcabouço Openflow é considerado pelos pesquisadores e profissionais da área a melhor solução para implantar redes baseadas neste novo paradigma. No entanto, atualmente, o uso do OpenFlow está em fase de padronização onde limita-se apenas a computadores com GNU/Linux e um número reduzido de roteadores e comutadores comercias. Nesse contexto, para habilitar o OpenFlow em um ambiente de produção, como por exemplo, em um campus universitário, toda infraestrutura de equipamentos legados deve ser substituída por equipamentos compatíveis com OpenFlow. Esta dissertação propõe um novo modelo de plano de dados para o OpenFlow, que integra os equipamentos legados à sua arquitetura. Este novo modelo, chamado LegacyFlow, interage com os equipamentos através de interfaces conhecidas, como o protocol SNMP (SimpleNetwork Management Protocol ), WebService ou a própria interface de linha de comando CLI) do comutador. Para validar a proposta foram feitos experimentos em um testbed real, que continha tanto equipamentos OpenFlow como equipamentos legados. Os resultados demonstram que o novo datapath desenvolvido funciona, permitindo que se possa usar tais comutadores (legados) juntamente com o protocolo OpenFlow para atender a necessidade de criação de circuítos virtuais.
  • AIRTON NOBUMASA ISHIMORI
  • QoSFlow: Controle Automático de Qualidade de Serviço em Redes OpenFlow
  • Data: 28/02/2013
  • Mostrar Resumo
  • O OpenFlow é um protocolo que habilita o uso do modelo das Redes Definidas por Sofware e possibilita que aplicações de rede possam orquestrar os equipamentos de comutação. Este protocolo torna a rede dinâmica e flexível para estabelecer rotas, criar circuitos e coletar informações de estado dos comutadores. Entretanto, controle de Qualidade de Serviço (QoS) é primitiva, pois o administrador da rede fica na dependência da ferramenta de linha comando do OpenFlow chamada dpctl. A falta de automação para realizar o controle de QoS não reduz a sobrecarga do custo operacional por parte do administrador, aumenta a instabilidade da rede devido a possíveis erros do operador, além de não permitir a configuração e atualização de parâmetros de QoS rapidamente. Além disso, o OpenFlow suporta somente escalonador de pacotes FIFO (First-In First-Out). Portanto, este trabalho apresenta a proposta QoSFlow, um arcabouço de software capaz de diferenciar tráfegos em múltiplas filas e controlar diferentes tipos de escalonadores de pacotes do kernel do Linux em alto nível de abstração, além de oferecer um conjunto de interfaces de programação de QoS. A avaliação dos resultados obtidos nos experimentos realizados com QoSFlow apresentaram-se satisfatórios, pois a proposta garantiu isolamento de largura de banda para fluxos TCP e UDP. Além disso, a utilização de diferentes tipos de escalonadores de pacotes, além do tradicional FIFO, apresentaram melhoria substancial no desempenho das aplicações, que se refletiram em ganho na Qualidade de Experiência (QoE).
  • GABRIELA FONSECA ANDRADE
  • UM ESTUDO DE CASO SOBRE A IMPLANTAÇÃO DE GERÊNCIA DE CONHECIMENTO EM UMA ORGANIZAÇÃO DE DESENVOLVIMENTO DE SOFTWARE
  • Data: 28/02/2013
  • Mostrar Resumo
  • Nas últimas décadas é notável a importância de novos modelos de gestão organizacional. Um aspecto comum aos novos modelos de gestão organizacional é o esforço das organizações em gerenciar o conhecimento organizacional, um recurso que até então não era reconhecido como um dos principais ativos da organização. Ao longo dos anos 90, um conjunto de práticas surgidas a partir destas novas formas de gestão foi denominado como Gerência do Conhecimento. O interesse em Gerência de Conhecimento também vem se consolidando em organizações de desenvolvimento de software como forma de estruturar e manter o grande volume de conhecimento gerado no decorrer do seu processo de desenvolvimento, transformando o conhecimento individual em conhecimento organizacional. Este trabalho apresenta os resultados de um estudo de caso realizado em uma organização de desenvolvimento de software que optou pela implantação da gerência de conhecimento. A unidade de análise estudada foi o processo de implantação, que engloba a definição da estratégia de Gestão do Conhecimento e sua execução, até o momento em que foi percebido que a Gerência de Conhecimento não estava mais sendo executada e, portanto, não trouxe os resultados esperados à organização. Por cerca de dois anos de estudo, várias fontes foram utilizados para evidências coletadas, tais como: entrevistas, imagens dos sistemas utilizados, documentos, observações diretas, observações participantes e dados quantitativos. A análise dos dados foi feita através do processo de agregação de categorias de forma a desenvolver uma descrição do caso chamada de Construção da Explanação. A análise teve por objetivo identificar quais pontos da estratégia de implantação adotada pela organização poderiam ser melhorados e também quais as possíveis soluções seriam mais adequadas para o contexto organizacional.
  • WALLACE MICHEL PINTO LIRA
  • UM FRAMEWORK DE APOIO À GERÊNCIA DE RECURSOS HUMANOS ADERENTE A PADRÕES DE QUALIDADE DE PROCESSO DE SOFTWARE
  • Data: 28/02/2013
  • Mostrar Resumo
  • A Gerência de Recursos Humanos foca na gerência do elemento mais importante e um dos mais imprevisíveis recursos em processos de software: as pessoas. É necessário, portanto, dar atenção especial a essa área da engenharia de software. Padrões de qualidade de processo de software corroboram com essa idéia, apresentando em seu escopo recomendações pertinentes à Gerência de Recursos Humanos. Assim, a Gerência de Recursos Humanos deve ser realizada ao longo de todo o ciclo produtivo para assegurar que os recursos humanos sejam monitorados e que seu desempenho permaneça alto. A monitoração constante pode permitir a adoção de medidas preventivas caso sejam detectados problemas que afetem a execução de atividades na organização. Neste contexto, este trabalho visa contribuir com uma proposta de apoio ao processo de Gerência de Recursos Humanos, por meio de um Framework de processo. Para atingir tais resultados, um mapeamento entre as recomendações de padrões de qualidade de processo de software foi realizado, visando identificar similaridades e diferenças entre eles. Posteriormente, este Framework foi detalhado utilizando os resultados de uma revisão sistemática da literatura conduzida no contexto deste trabalho. Os resultados obtidos fazem parte do projeto SPIDER, um suite de ferramentas de software livre para apoiar a implementação dos processos do MR-MPS-SW.
  • MAURO ALEXANDRE FOLHA GOMES COSTA
  • ENRIQUECENDO AMBIENTES REAIS COM VISUALIZAÇÃO DE INFORMAÇÃO E REALIDADE AUMENTADA ATRAVÉS DE DISPOSITIVOS MÓVEIS
  • Data: 28/02/2013
  • Mostrar Resumo
  • Este trabalho propõe a utilização de gráficos de visualização de informação em aplicações de Realidade Aumentada Móvel (MAR), com objetivo de proporcionar ao usuário maior quantidade de informações sensível ao contexto que esta inserido e de fácil entendimento para enriquecer ainda mais a experiência aumentada através do dispositivo móvel, agregando-se as mídias comumente utilizadas: imagem, texto e vídeo. Para este fim, foi projetada uma arquitetura cliente-servidor, incluindo os principais módulos e serviços necessários para oferecer uma experiência de utilização de gráficos de visualização de informações em aplicações de realidade aumentadas para dispositivos móveis. O estudo de caso apresenta uma aplicação que utiliza detecção e reconhecimento facial para apoiar o professor a buscar informações sobre o desempenho acadêmico de um determinado aluno de uma disciplina em sala de aula. Para isso, o lado cliente foi projetado com foco na apresentação e interação, voltado para o sistema operacional iOS6 e compatível com dispositivos iPhone e iPad, inclui detecção de faces e apresenta graficamente informações acadêmicas oriundas do servidor. O lado do servidor inclui reconhecimento facial usando OpenCV, e um motor de visualização denominado PRISMA.
  • HUGO SAWADA TODA
  • OP3NCONTROL: FRAMEWORK PARA GERÊNCIA E CONTROLE DE REDES OPENFLOW
  • Data: 28/02/2013
  • Mostrar Resumo
  • Redes Defi nidas por Software e OpenFlow apontam como alternativas para a potencialização dos ambientes experimentais (testbeds), estes que são necessários para a validação de resultados de pesquisas de novos protocolos e arquitetura de redes. Devido suas caractersticas de exibilidade e robustez, padrões SDN/OpenFlow também ganham atenção do mercado, em especial em ações relacionadas ao gerenciamento e controle de redes. Este trabalho apresenta o Op3nControl, uma proposta de framework para controle e gerência de redes OpenFlow, entre suas principais funcionalidades estão: (i) coleta de estatísticas dos elementos de rede em tempo real; (ii) modulo para desenvolvimento de algoritmos de encaminhamento; (iii) alocação de recursos, de forma dinâmica, através da criação de circuito virtual sobre a infraestrutura de redes; (iv) tratamento de QoS; e (v) integração de equipamentos de rede legados ao cenario OpenFlow. Com objetivo de avaliar a proposta, e realizada a implementação do Op3nControl, assim como é disponibilizado um testbed real, composto por equipamentos habilitados com OpenFlow. A aplicação implementada foi submetida a diversos cenarios de experimentação a fim de validar seus aspectos funcionais e de desempenho. Por fim, são apresentados os resultados que atestam baixos tempos de resposta das ações executadas pelo Op3nControl quando comparado a solução com características similares, os quais embasam sua disponibilização em ambientes de redes mais complexos, podendo, desta forma contribuir, de modo mais efetivo, tanto para fi ns de pesquisa acadêmica quanto para o mercado.
  • KARLA SUELY DINIZ DA COSTA
  • ANÁLISE DA IMPLANTAÇÃO DO PROGRAMA UM COMPUTADOR POR ALUNO NO ESTADO DO PARÁ
  • Data: 28/02/2013
  • Mostrar Resumo
  • O uso de tecnologias no ambiente escolar vem sendo discutido nos diversos meios educacionais, e, paralelamente a isto, os programas governamentais voltados à inserção da informática na educação. Dessa maneira, foram e ainda são muitas as expectativas quanto à inclusão de meios tecnológicos nos processos de ensino e de aprendizagem. Quanto a este aspecto, nas últimas décadas, algumas ideias pedagógicas têm caracterizado a inserção da tecnologia como um, ou único, dos meios pedagógicos a auxiliar o aluno na construção de seu conhecimento. No entanto, será que somente introduzir, na escola, programas governamentais e equipamentos bastam para o avanço da educação brasileira? Ou será que esses projetos estão efetivamente modificando a escola? Pesquisas apresentam diversos problemas que comprometem os projetos de inclusão digital e duas das dificuldades são equipamentos sem utilidade por falta de manutenção e precária estrutura do ambiente educacional. Diante disso, este trabalho apresenta a análise da implantação do PROUCA (Programa Um Computador por Aluno) no Estado do Pará. Esta pesquisa foi realizada, no ano de 2012, em seis escolas, localizadas em municípios diferentes: Abaetetuba, Belém, Faro, Itaituba, Limoeiro do Ajuru e Santarém. O estudo ocorreu por meio de entrevistas, questionário, observação em campo e participação em Seminários sobre o programa. Com isso, objetivou-se verificar a infraestrutura das escolas, as dificuldades técnicas de implantação do programa, a integração da política de uso do laptop com o programa curricular e as mudanças educacionais ocorridas com o programa. Pode-se deduzir do estudo a importância do programa para a inclusão da tecnologia na sala de aula, apesar dos impasses existentes observados, dentre estes destaca-se: a falta de infraestrutura, a formação dos professores ainda incompleta, a inexistência de inclusão digital das famílias e desenvolvimento de projetos pedagógicos para a inserção dos laptops no currículo escolar.
  • ROBERTO YURI DA SILVA FRANCO
  • PRISMA-MDE - Ambiente Distribuído e Escalável para múltiplas visões de dados coordenados
  • Data: 25/02/2013
  • Mostrar Resumo
  • Os sistemas de informação atuais têm produzido um grande volume de dados. O processo de análise visual dessas informações tem tomado mais tempo, tem apresentado dificuldades de interação com os dados e há informações não perceptíveis ao usuário em função da oclusão e agregação. A área de visualização da informação, e áreas relacionadas, tem buscado ao longo do tempo superar essas dificuldades, seja por evolução no hardware como aumento de espaço visual e poder de processamento, evoluções em software como melhoramento de técnicas e algoritmos, ou evolução de software mais hardware que garanta a escalabilidade de crescimento dos dados. Nesse contexto, essa dissertação objetiva minimizar os problemas encontrados na manipulação visual de grande quantidade de dados, propondo uma arquitetura escalável e distribuída para aplicações de visualização de informação com múltiplas visões coordenadas por meio do PRISMA-MDE. Os benefícios da arquitetura são: melhorar o poder de processamento para ferramentas de visualização, diminuir o tempo de renderização das técnicas de visualização, diminuir o problema de oclusão e agregação, entre outros. Serão apresentados testes de usabilidade, e testes comparativos de desempenho (tempo de renderização, uso da memória, carga de processador) com uma aplicação de visualização de informação em um único desktop.
  • DIOVANNI MORAES DE ARAUJO
  • Utilizando Técnicas de Visualização de Informação em Aplicações T-Commerce para Plataforma Brasileira
  • Data: 22/02/2013
  • Mostrar Resumo
  • Esta dissertação tem como objetivo a utilização de conceitos e técnicas de Visualização da Informação (InfoVis) como interfaces para aplicações interativas de TV Digital (TVDi). A InfoVis pode auxiliar na visualização, exploração, memorização, compreensão e análise de grandes estruturas abstratas de dados, tendo como consequência a diminuição da carga cognitiva do usuário em relação aos dados e a aplicação. As aplicações de TVDi que necessitam apresentar vários dados simultaneamente, como por exemplo, t-Commerce (comércio eletrônico para TVDi, que necessita disponibilizar vários produtos para venda e compra), podem se beneficiar da interatividade natural que as técnicas de InfoVis proporcionam. Desta forma, foi desenvolvida uma aplicação para middleware brasileiro Ginga, utilizando as linguagens NCL-Lua, aplicada na área de t-Commerce. A utilização de uma interface baseada em técnicas de InfoVis pode facilitar a busca e análise de produtos para comprá-lo. A técnica de InfoVis utilizada é a de coordenadas paralelas em função da sua característica de representação multidimensional. Testes iniciais de usabilidade foram aplicados à ferramenta desenvolvida.
  • GILBERTO NERINO DE SOUZA JUNIOR
  • Análise comportamental utilizando aprendizado de máquina para auxiliar o ensino da leitura e escrita aplicado em um jogo digital
  • Data: 22/02/2013
  • Mostrar Resumo
  • Diversas pesquisas possuem foco em características do aprendizado de máquina e sua aplicação em campos como a psicologia, educação e criação de jogos digitais. O programa de ensino de leitura e escrita “Aprendendo a Ler e Escrever em Pequenos Passos” (ALEPP) concebido por psicólogos da UFSCar é uma metodologia de ensino que tem por objetivo desenvolver o ensino individualizado. Alguns trabalhos geraram produtos informatizados dessa metodologia, porém, não utilizaram uma análise computacional do aprendizado do aluno a fim de prever e classificar características do aprendizado. Este trabalho é um estudo aplicado na área da psicologia experimental baseado no ALEPP com o objetivo de agregar uma máquina de aprendizado para prever o acerto ou erro de tarefas de ensino e classificar o aprendizado das palavras ensinadas a fim de analisar o comportamento do aluno, com ou sem histórico de fracasso. Para isso foi necessário identificar os fatores de dificuldade das tarefas de ensino e o tipo de problema de aprendizado de máquina a ser implementado. A técnica utilizada foi a regressão logística a fim de solucionar o problema de aprendizado supervisionado aliado com outros parâmetros estatísticos vindouros da base de dados. A máquina de aprendizado desenvolvida foi agregada a um jogo digital para tornar o ensino lúdico. As simulações dos comportamentos dos alunos obtiveram resultados satisfatórios de acordo com a avaliação dos especialistas. O jogo pretende auxiliar professores, pedagogos e psicólogos que trabalham com alunos no processo de aprendizado em fase de alfabetização além de abrir portas para futuros trabalhos como a geração de tarefas personalizadas.
  • MAURICIO RONNY DE ALMEIDA SOUZA
  • UM FRAMEWORK DE PROCESSO PARA GERÊNCIA DE PORTFÓLIO DE PROJETOS DE SOFTWARE COM BASE EM PADRÕES DE QUALIDADE
  • Data: 22/02/2013
  • Mostrar Resumo
  • A Gerência de Portfólio de Projetos é um processo que objetiva garantir a seleção e manutenção dos projetos que melhor favoreçam o alcance dos objetivos estratégicos organizacionais, de forma que os recursos sejam direcionados para as oportunidades de negócio que tragam maiores benefícios. É importante, então, a definição de um processo de gestão de portfólio bem estruturado baseado em boas práticas e recomendações, para que as organizações melhor usufruam das práticas deste. A crescente demanda pela gerência eficiente de portfólio de projetos pode ser observada pelo crescimento do número de padrões, modelos e normas que contém recomendações para o processo. Para a indústria de software não é diferente: a Norma ISO/IEC 12207 e o Modelo de Referência MPS para Software adicionaram e atualizaram o referido processo em suas últimas iterações. Neste contexto, este trabalho visa contribuir com uma proposta de apoio à definição de processos de gerência de portfólio de projetos, sob forma de um framework de processo. Para tal, foi realizado um mapeamento entre as recomendações do processo de Gerência de Portfólio de Projetos constante no modelo do MPS.BR, do processo de Gestão de Portfólio presente na Norma ISO/IEC 12207 e do Framework do Padrão para Gestão de Portfólio do PMI, visando identificar um conjunto de boas práticas, e, posteriormente, foi conduzido um estudo baseado em Revisão Sistemática da Literatura para identificar abordagens para apoiar a implementação destas boas práticas. Esta pesquisa está inserida no contexto do Projeto SPIDER – Software Process Improvement Development and Research.
  • PATRICIA MATIAS LOPES
  • UMA PESQUISA QUALITATIVA SOBRE CRITÉRIOS DE ALOCAÇÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE
  • Data: 21/02/2013
  • Mostrar Resumo
  • Uma das principais tarefas em um projeto de software é a alocação de pessoas para as atividades do projeto, sendo este fator determinante na qualidade e no sucesso do projeto. A atribuição de tarefas adequadas à capacidade de cada profissional é importante para que os níveis de produtividade e qualidade requeridos sejam atingidos. A alocação de pessoas com menos qualificações do que as exigidas pela atividade podem fazer com que esta seja concluída com atraso ou menor qualidade. A tarefa de alocação não é simples, existem diferentes combinações de alocação possíveis e fatores conflitantes a considerar. Porém, as pessoas que tomam as decisões costumam fazê-la de acordo com experiências pessoais, intuições, crenças e nas informações que têm disponíveis de forma que decisões cruciais são tomadas de forma ad hoc, baseadas em impressões e sem ligação com as melhores práticas, modelos e experiências. Apesar dos avanços, nota-se a escassez de propostas de apoio à alocação alinhada às práticas exercidas nas organizações, aproximando a solução proposta da realidade organizacional. No contexto de auxílio à tomada de decisão na alocação, este trabalho apresenta o desenvolvimento de uma pesquisa qualitativa sobre a alocação de pessoas. A pesquisa envolveu doze organizações de desenvolvimento de software, com o objetivo de identificar quais são os critérios considerados pelos Gerentes de Projetos para realizar a alocação, e a partir desses, elaborar uma base de políticas de instanciação de pessoas. Para atingir este objetivo a coleta de dados foi realizada por meio de entrevistas semiestruturadas, em seguida o Método de Comparação Constante foi utilizado para análise dos dados. Os principais resultados são a identificação de: (i) um conjunto de critérios de alocação organizados de acordo com os cenários em que ocorrem; (ii) as estratégias adotadas durante a alocação; e (iii) os fatores externos que podem influenciar no desenvolvimento do projeto. Estes resultados foram mapeados para políticas de instanciação de pessoas definidas no contexto do ambiente de gestão de processos denominado WebAPSEE.
  • ADALBERTO CAVALCANTE DE MELO
  • UMA ONTOLOGIA DE QUALIDADE DE EXPERIÊNCIA PARA APRIMORAR TRANSMISSÕES MULTIMÍDIA EM REDES IEEE 802.11
  • Data: 19/02/2013
  • Mostrar Resumo
  • Devido ao grande crescimento do consumo e producão de conteudo multimidia e a crescente utilização de redes sem fi o, faz da necessidade de manter a qualidade em transmissões de conteudo multimdia em rede sem fi o um grande desa fio. Neste contexto, a qualidade de servico (QoS) e qualidade de experiência (QoE) são fatores muito importantes a serem considerados. Mecanismos que visam garantir uma qualidade satisfatoria de experiência para aplicações com fluxos de vídeo são o foco de pesquisas tanto para academia quanto para a indústria. Entretanto, fatores como as condições da rede e as características do vídeo podem impactar na performance desses mecanismos. Portanto, este trabalho apresenta uma ontologia chamada NetQoEOnt, que possibilita o modelo de conhecimento necessário para que tais mecanismos possam ser auto-ajustáveis e sensíveis ao contexto das características do vídeo e das condições da rede. Além disso, também e apresentado um mecanismo de descarte de pacote, utilizado no gerenciamento de bu er, denominado DropQoEOnt. Este mecanismo e baseado na ontologia NetQoEOnt. Foram realizadas avaliações por meio de uma simulação da transmissão de fluxos de vídeo em redes padrão IEEE 802.11. As mediações QoE foram realizadas através dos resultados de três métricas objetivas de QoE (SSIM, VQM e PSNR). Os resultados mostram que a solução proposta reduz o impacto das condições da rede em fluxos de vídeo preservando a qualidade de experiência dos usuários e proporcionando um melhor gerenciamento dos recursos de rede sem fi o em períodos de congestionamento. Alem disso, também é mostrada as políticas de descarte de pacotes mais adaptativas as condições da rede e características do vídeo e que o grau de satisfação do usuário é maior com essa abordagem.
2012
Descrição
  • ADALBERTO BOSCO CASTRO PEREIRA
  • Um Sistema Fuzzy para Geração de Tarefas de Ensino de Leitura e Escrita em um Jogo Digital
  • Data: 20/12/2012
  • Mostrar Resumo
  • É tratado neste trabalho o desenvolvimento de um Sistema Fuzzy chamado de GTE para geração de tarefas de ensino adaptadas às necessidades individuais de crianças com dificuldade de aprendizado, auxiliando professores, pedagogos e psicólogos no ensino de alunos em processo de alfabetização. Um programa de ensino de leitura e escrita, desenvolvido e estudado por psicólogos a cerca de 20 anos na UFSCar, chamado ALEPP e uma versão computacional chamado GEIC, serviram de embasamento para construção do GTE. Tais metodologias de ensino visam um aprendizado adaptado às necessidades individuais de cada aluno. Percebendo esse forte apelo motivacional e lúdico em jogos digitais, foi proposto uma gamefication do GEIC, que se chama ALE-RPG. Porém este jogo contém os mesmos problemas da metodologia de ensino abordada no GEIC, e precisa fortemente da avaliação e intervenção do professor/psicólogo durante a execução do jogo. A execução do jogo terminará quando o sistema considerar que todas as palavras cadastradas no sistema forem aprendidas. Os testes com a geração das tarefas de ensino foram validados com questionários preenchidos por especialistas da área do ensino.
  • ADONIAS PINHEIRO PIRES
  • UM ALGORITMO TEMPORIZADO DE CLUSTERIZAÇÃO E ROTEAMENTO, COM EFICIÊNCIA ENERGETICA PARA REDES DE SENSORES SEM FIO
  • Data: 11/12/2012
  • Mostrar Resumo
  • A arquitetura de uma Rede de Sensores Sem Fio (RSSF) em clusters provê e ficiência energética para a rede. Entretanto, aspectos relacionados a eleição de cluster heads, formação de clusters e hot spot devem ser considerados no projeto de uma RSSF clusterizada. Esses aspectos se tornam problemas para a rede se não alinhados as premissas de e ficiência energética das RSSF. Diversos protocolos foram propostos com o objetivo de prover efi ciência energética para uma RSSF, porém não constituem soluções completas, ou seja, que considerem todos os aspectos inerentes a e ficiência energética em uma RSSF clusterizada. Nesse trabalho, é proposto um algoritmo denominado Algoritmo Temporizado de Clusterização e Roteamento (ATCR) que objetiva fornecer e ficiência energética para uma RSSF através de uma solução hibrida de clusterização e roteamento integrados com mecanismos de construção de clusters desiguais e otimização multicriterio utilizando lógica fuzzy. Modelos de simulação foram construídos com o objetivo de avaliar o desempenho do ATCR e os resultados demonstraram que o ATCR possui mais e ficiência energética que os demais protocolos, sendo adequado para implantações de RSSF densas e de larga escala.
  • LUCELIA PEREIRA GONCALVES
  • APOIO AO CONTROLE ESTATÍSTICO DE PROCESSOS DE SOFTWARE INTEGRADO A UM ADS
  • Data: 10/12/2012
  • Mostrar Resumo
  • Cada vez mais as organizações de software estão procurando melhorar os seus processos de desenvolvimento com o intuito de alcançar os objetivos de negócio estabelecido, aumentar suas perspectivas de mercado, e entregar melhores produtos. Uma das práticas utilizadas para apoio à descoberta de pontos de melhoria no processo é a medição. Através dela é possível coletar medidas de projetos da organização e realizar uma análise e comparação de medidas reais e planejadas, que não são muito eficientes para auxiliar na determinação do desempenho de processos ou mesmo na predição destes. Já que, somente a análise comparativa de pontos isolados em um gráfico não é o bastante para identificar problemas reais, é necessário avaliar a variação do processo durante um período. Para esse tipo de análise pode-se utilizar o controle estatístico de processo (CEP), que vem sendo adotado por organizações de desenvolvimento de software para gerenciamento, predição, controle e melhoria de forma contínua de seus processos. Modelos de maturidade, tais como CMMI-DEV e MR-MPS-SW, indicam que o CEP seja realizado nos níveis mais altos de maturidade. Muitas organizações sentem dificuldade na aplicação desses processos, devido: à falta de procedimentos para realização das atividades relacionadas; e à falta de ferramentas de software adequadas para a realização das atividades. Dessa forma, sem apoio ferramental adequado e um processo que sirva de arcabouço para a realização do CEP, a sua implantação torna-se bastante onerosa e passível de erros. Visando auxiliar na execução do CEP, este trabalho apresenta um processo-padrão que descreve as atividades e procedimentos necessários para implementação do processo de CEP. Além disso, apresenta uma ferramenta que visa apoiar as organizações na execução das atividades do CEP, provendo funcionalidades para: planejamento da medição, coleta dos dados, análise da variabilidade dos processos controlados (através de gráficos de controle), apoio ao estabelecimento de baselines de desempenho, e descoberta de causas, registro e acompanhamento de ações de melhoria no processo. Essa ferramenta está integrada a um Ambiente de Desenvolvimento de Software (ADS) chamado WebAPSEE.
  • SUELENE DE JESUS DO CARMO CORREA
  • MODELO NEURO-FUZZY ADAPTATIVO PARA AVALIAÇÃO DE COMPETITIVIDADE DE CADEIAS PRODUTIVAS: UM ESTUDO DA CADEIA PRODUTIVA DE FRANGO DE CORTE NO BRASIL
  • Data: 09/11/2012
  • Mostrar Resumo
  • Esse novo tempo de economia globalizada e de mudanças tecnológicas, com celeridade nunca experimentado pela sociedade, tem resultado num acirramento mundial da concorrência, levando preocupação às organizações em obter e manter vantagens competitivas, visando liderança no mercado. Para resolver esse problema busca-se o auxílio das tecnologias de computação, que podem promover facilidade e rapidez no processo de tomada de decisão diante das incertezas do mercado. Este trabalho apresenta uma proposta de solução para avaliação de competitividade de cadeias produtivas por meio de um sistema Neuro-Fuzzy Adaptativo. Para validar o método, utilizou-se como caso de estudo a cadeia produtiva de frango de corte no Brasil. Os testes de validação mostraram resultados satisfatórios, quando comparados com outra técnica muito utilizada no mercado.
  • WALERIA DE MELO MAGALHAES
  • ANÁLISE DO PROGRAMA DE INCLUSÃO DIGITAL NAVEGAPARÁ EM ESCOLAS DA REDE ESTADUAL DO MUNICÍPIO DE BELÉM
  • Data: 28/09/2012
  • Mostrar Resumo
  • O presente trabalho apresenta um estudo sobre o programa Estadual de inclusão digital, Navegapará, particularmente nos seus componentes educacionais, analisando infocentros nas escolas do município de Belém. Para tanto, foram selecionadas 26 escolas do município nas quais foram realizadas entrevistas semiabertas com professores de laboratório e foram aplicados, também, um questionário para melhor caracterizar a amostra de escolas visitadas. Os resultados são apresentados respeitando as seis seções propostas no questionário: i) o perfil da escola busca sistematizar as principais características das escolas pesquisadas; ii) o perfil do responsável pelo laboratório de informática objetiva analisar a adequação dos aspectos de formação e condições de trabalho do responsável pelo laboratório ; iii) o laboratório de informática reúne dados e observações sobre a infraestrutura deste espaço; iv) o uso do laboratório de informática, que diferentemente do item anterior, procurar sintetizar os resultados sobre o dia-a-dia do laboratório, suas dificuldades e como este espaço vem sendo apropriado por professores e estudantes; v) a seção referente à informática educativa na escola apresenta a opinião dos professores com relação aos benefícios que a informática traz para o aprendizado dos estudantes e como ela vem sendo desenvolvida na escola; e vi) o item Navegapará na escola, o qual expõe dados e relatos sobre o que mudou (ou não) na escola com a implementação do programa. Como conclusão é feita uma breve análise dos dados obtidos e observa-se o potencial do programa e alguns pontos que precisam ser revistos, tais como proporcionar boa formação aos professores, e equipamentos em bom estado de conservação/manutenção, dentre outros pontos, fundamentais para que para que aja um bom desenvolvimento da inclusão digital e da informática educativa dentro da escola.
  • ANDRE LUIZ DA SILVA KAUER
  • Utilizando Múltiplas Análises Visuais e Interativas de Dados para Continuidade de Transações Eletrônicas
  • Data: 21/09/2012
  • Mostrar Resumo
  • Conhecer melhor os clientes de uma empresa e suas atividades permite oferecer serviços mais adequados e aumentar a fidelização dos seus clientes, possibilitando oportunidades de negócio para o crescimento da empresa. Uma das maneiras de aprender mais sobre o comportamento dos clientes é através da análise dos históricos de transações realizadas, com informações sobre os tipos de operações, tempo médio das operações, operações não autorizadas, operações iniciadas e não finalizadas, etc. Dentre as operações iniciadas e não finalizadas, há aquelas motivadas por falta de recursos computacionais. Neste universo é importante analisar se o comportamento interno da empresa, para uso dos serviços de Internet, por exemplo, esta possibilitando uma competição de recursos disponíveis para as transações eletrônicas. Como estudo de caso, foi utilizando a ferramenta de visualização PRISMA para análise de dados de transações eletrônicas e de redes. A ferramenta PRISMA é extensível, desenvolvida em Java, e possibilita a visualização de múltiplas visões de dados coordenadas. Foram realizadas melhoriasna ferramenta PRISMA quanto a técnica de coordenadas paralelas e adicionada a técnica heatmap, somadas as técnicas de dispersão de dados, treemap e outras visualizações mais comuns já existentes.
  • TACIO VINICIUS BERNARDES RIBEIRO
  • UM ESTUDO DE CASO NA AVALIAÇÃO AUTOMÁTICA DE QUESTÕES DISCURSIVAS COM ANALISE SEMÂNTICA LATENTE
  • Data: 21/09/2012
  • Mostrar Resumo
  • Este trabalho apresenta um estudo de caso de avaliação automática de questões discursivas (ensaios) baseada na técnica LSA (Latent Semantic Analysis ou Análise Semântica Latente), bem como uma ferramenta que apoia o ajuste automático de parâmetros para este domínio do problema. Nesta abordagem foram consideradas técnicas de pré-processamento (retirada de stop words e aplicação de stemming) em combinação com a técnica de n-gramas (unigramas e bigramas); função peso (ponderação); dimensão do espaço reduzido e medida de similaridade. Esse estudo de caso envolveu as provas das disciplinas de biologia e geografia do processo seletivo vestibular da Universidade Federal do Pará (UFPA) ocorrido em 2008, onde foi feita a comparação entre as notas calculadas automaticamente pela ferramenta e as notas atribuídas pelos avaliadores humanos durante o processo de correção do vestibular. Os melhores resultados alcançados nessa comparação foram os da disciplina de geografia com uma acurácia de 86,89% usando as seguintes técnicas: unigramas sem nenhuma técnica de processamento; redução ao espaço semântico de 3 dimensões; ponderação local binária; e a correlação de Pearson como similaridade. Destacam-se também os melhores resultados da disciplina biologia onde se alcançou uma acurácia 84,77% com a utilização das seguintes técnicas: bigramas com a técnica de remoção de stop words; redução do espaço semântico a dimensões 6; ponderação local da norma euclidiana dividida pela soma dos componentes; e o cosseno como medida de similaridade.
  • RENAN CRISTIANO ROCHA RODRIGUES
  • WEBCMTOOL: AMBIENTE WEB PARA FACILITAR A AVALIAÇÃO DA APRENDIZAGEM SIGNIFICATIVA, BASEADO EM MAPAS CONCEITUAIS E ONTOLOGIAS DE DOMÍNIO
  • Data: 05/09/2012
  • Mostrar Resumo
  • Este trabalho apresenta o WebCMTool, que é um ambiente Web que visa facilitar a avaliação da Aprendizagem Significativa baseado em Mapas Conceituais (MCs) e Ontologias de Domínio, através da inclusão de um Algoritmo Genético na ferramenta de edição de Mapas Conceituais incorporado ao ambiente, que possibilita a diminuição da sobrecarga de trabalho do professor na tarefa de avaliação. Após esta tarefa é gerado um relatório detalhado para o aluno sobre sua avaliação auxiliando-o na valorização de sua Idiossincrasia ao aprender. A avaliação automática é realizada por meio de um processo computacional que recebe três insumos de entrada: o mapa do aluno, a ontologia do professor e uma taxonomia de frases de ligação. Durante o processo de avaliação são geradas populações de MCs, de modo que cada mapa contém um valor de adaptação que lhe é característico. Os MCs com valor de adaptação maior ou igual à média da população são escolhidos para dar continuidade ao processo de avaliação. A continuidade ocorre porque esses MCs são utilizados como pais em operações de cruzamentos para a geração de descendentes. Este processo ocorre até que os mapas gerados por descendências futuras possuam um valor de adaptação ótima. Quando isto ocorre, esses mapas resultantes da avaliação são utilizados para análise e compreensão de resultados pelo aluno por meio de um relatório que verifica o valor atribuído às proposições de seu mapa, verifica também a nota em percentual que valida cada proposição considerada correta e o resultado de seu desempenho no mapa. Um protótipo do ambiente foi aplicado e testado num curso de Programação em uma Universidade.
  • FRANCY SANTOS FERNANDES
  • Participação de idosos em cursos de informática em Belém - Pará: expectativas e realizações
  • Data: 31/08/2012
  • Mostrar Resumo
  • As projeções populacionais indicam que em 2050 os idosos serão um quinto da população mundial. O crescente e rápido aumento do envelhecimento da população é um fenômeno recente na sociedade brasileira, também é característica da sociedade atual a dependência cada vez maior da tecnologia para atividades cotidianas. Não compreender, não saber usar e / ou não ter acesso a tais recursos consistem em uma barreira aos meios de comunicação contemporâneos como a internet o que nos leva a pensar na necessidade urgente de organização social para suportar as demandas de uma sociedade cada vez mais envelhecida. Nesse contexto, as Tecnologias de Informação e Comunicação (TIC) podem funcionar como instrumento para promover a maior comunicação, conservação da autonomia e bem-estar dos indivíduos idosos. Este trabalho apresenta os resultados de uma pesquisa sobre em que condições ocorrem a aprendizagem para inclusão digital dos idosos em Belém - PA. O estudo é quanti-qualitativo, descritivo e não probabilística. Trata-se de dados levantados com 101 pessoas com idade de 60 a 80 anos, de ambos os sexos, que participam ou participaram de cursos de informática em quatro entidades (iniciativas privadas e pública) em Belém, não diferenciando os que são exclusivos para idosos e os com turmas mistas. Utilizamos as técnicas de pesquisa bibliográfica, questionário estruturado e pesquisa de campo. Para análise dos dados tabulamos as respostas das perguntas fechadas e usamos a análise do conteúdo para categorizar as respostas das perguntas abertas. O trabalho apresenta as dificuldades e ganhos dessas pessoas na trajetória para manter-se atualizadas em um mundo cercado de aparatos tecnológicos com frequentes e aceleradas mudanças. Os resultados mostram que na percepção dos participantes, aprender coisas novas e ter acesso a informações disponibilizadas na internet proporciona-lhes uma ampliação de sua visão do mundo, e da cultura contemporânea, melhorando a consciência da sua condição na sociedade e possibilita manifestações de cunho político e cidadania. Entre os problemas destacamos a dificuldade em encontrar cursos de informática direcionados para essa faixa etária. Existe o discurso da necessidade da inclusão digital dos idosos, mas o que se tem é a ausência de ações para que isso aconteça. Constatamos que são poucos os cursos de informática voltados aos mais velhos, estes atingem um público de maior poder aquisitivo e oferecem poucas vagas. Não existe nenhum subsídio público para aquisição de equipamentos, ações que possibilitem melhorar a conectividade em ambientes mais carentes, auxílio aos idosos mais necessitados para superarem as barreiras da exclusão digital. De sua origem militar até os dias de hoje, muitos desafios foram superados, atualmente o grande desafio é tornar a internet cada vez mais acessível para ser um elemento facilitador na vida de todos, incluído a população idosa, principalmente aqueles de baixa renda. Cabe aos governos e sociedade em geral democratizar os meios de acesso e educação para que todos possam usufruir dos benefícios dessa ferramenta de informação e comunicação contemporânea.
  • JAKELYNE MACHADO LIMA
  • ALGORITMO DE ESCALONAMENTO DE GRADES COMPUTACIONAIS
    PARA MINIMIZAR O PROCESSAMENTO CENTRALIZADO NA
    MONTAGEM DE GENOMAS BACTERIANOS OBTIDOS POR
    SEQUENCIAMENTO DE DNA DE NOVA GERAÇÃO (NGS).

    ALGORITMO DE ESCALONAMENTO DE GRADES COMPUTACIONAISPARA MINIMIZAR O PROCESSAMENTO CENTRALIZADO NAMONTAGEM DE GENOMAS BACTERIANOS OBTIDOS PORSEQUENCIAMENTO DE DNA DE NOVA GERAÇÃO (NGS).

  • Data: 24/08/2012
  • Mostrar Resumo
  • Com o avanço das técnicas de sequenciamento do genoma, um grande volume
    de dados passou a ser gerado e, em decorrência desses avanços, vários desafios
    computacionais começaram a surgir, dentre eles a disponibilização de novos softwares
    distribuídos e adequados para a manipulação de uma grande quantidade de dados
    genômicos, além do armazenamento, disponibilização e gerenciamento desses dados.
    No contexto do mapeamento do DNA é possível identificar que a etapa de montagem, é
    considerada como um dos pontos que exige a utilização de um grande poder
    computacional, pois nesta etapa utiliza-se grande quantidade de dados e a utilização de
    softwares específicos para concluir o processo é de extrema importância. Sem a
    utilização de softwares específicos o processo, como um todo, acaba sendo afetado pela
    demora e pela grande centralização de dados. O presente trabalho tem como principal
    objetivo propor o algoritmo de escalonamento scheduler desenvolvido para otimizar a
    utilização do software de montagem ABySS, para uso no contexto de grades
    computacionais, objetivando minimizar o tempo e a centralização dos dados na etapa de
    reconstrução do genoma. Os testes com o software distribuído ABySS e com o
    escalonador sheduler foram realizados no simulador SimGrid, que gera simulações de
    aplicações distribuídas em ambientes heterogêneos para verificar a viabilidade,
    flexibilidade e escalabilidade para o processo de montagem com dados de
    corynebacterium de mapeamentos já realizados pela Universidade Federal do Pará.

    Com o avanço das técnicas de sequenciamento do genoma, um grande volumede dados passou a ser gerado e, em decorrência desses avanços, vários desafioscomputacionais começaram a surgir, dentre eles a disponibilização de novos softwaresdistribuídos e adequados para a manipulação de uma grande quantidade de dadosgenômicos, além do armazenamento, disponibilização e gerenciamento desses dados.No contexto do mapeamento do DNA é possível identificar que a etapa de montagem, éconsiderada como um dos pontos que exige a utilização de um grande podercomputacional, pois nesta etapa utiliza-se grande quantidade de dados e a utilização desoftwares específicos para concluir o processo é de extrema importância. Sem autilização de softwares específicos o processo, como um todo, acaba sendo afetado pelademora e pela grande centralização de dados. O presente trabalho tem como principalobjetivo propor o algoritmo de escalonamento scheduler desenvolvido para otimizar autilização do software de montagem ABySS, para uso no contexto de gradescomputacionais, objetivando minimizar o tempo e a centralização dos dados na etapa dereconstrução do genoma. Os testes com o software distribuído ABySS e com oescalonador sheduler foram realizados no simulador SimGrid, que gera simulações deaplicações distribuídas em ambientes heterogêneos para verificar a viabilidade,flexibilidade e escalabilidade para o processo de montagem com dados decorynebacterium de mapeamentos já realizados pela Universidade Federal do Pará.

  • CINTHYA HIROMI SEKO DE OLIVEIRA
  • ESTUDO DA ALOCAÇÃO DE PESSOAS EM PROJETOS DE SOFTWARE ATRAVÉS DA TEORIA FUNDAMENTADA EM DADOS
  • Data: 22/08/2012
  • Mostrar Resumo
  • A alocação de pessoas a um projeto de software é uma atividade de extrema importância no desenvolvimento de software, pois são as pessoas que determinam a qualidade e o sucesso de um projeto. Entretanto, apesar de sua importância, pouco se conhece sobre como alocar pessoas a projetos de forma apropriada. Os gerentes projetos de software geralmente baseiam esse processo em suas experiências, conhecimentos heurísticos e percepções subjetivas. Este trabalho apresenta os resultados de um estudo de caso conduzido em uma organização onde se realizam alocações de pessoas em projetos de diferentes portes e envolvendo situações distintas. O estudo foi conduzido utilizando entrevistas semiestruturadas e a análise dos dados foi realizada utilizando técnicas da Teoria Fundamentada em Dados. Os resultados deste estudo sugerem critérios para a alocação de pessoas juntamente com os seus níveis de importância. O resultado mais importante foi descobrir a importância da negociação durante o processo de alocação de pessoas. Estes resultados poderão ser adotados em outras empresas, assim auxiliando a atividade de alocação de pessoas, bem como servir de requisitos para a construção de ferramentas para auxiliar esta atividade.
  • RENNAN JOSE MAIA DA SILVA
  • CONTROLE DE ADMISSÃO DE CHAMADAS CONJUNTO PARA REDES HETEROGÊNEAS BASEADO EM APRENDIZAGEM POR REFORÇO
  • Data: 22/08/2012
  • Mostrar Resumo
  • Atualmente, existem muitos tipos de redes sem fio baseados em diferentes tecnologias de acesso a rádio. Além dos existentes e para complementá-los, novos tipos de rede ainda serão desenvolvidos. Entretanto, nenhuma dessas tecnologias será capaz de dar aos usuários atendimento a todos os requisitos de qualidade de serviço (QoS) com cobertura universal e, por isso, a próxima geração de redes sem fio irá integrar múltiplas tecnologias, trabalhando conjuntamente de forma heterogênea. Redes heterogêneas necessitam de mecanismo de gerenciamento conjunto para garantir melhor utilização dos recursos disponíveis e dar aos usuários maior qualidade de serviço. O Controle de Admissão de Chamadas Conjunto (CACC) é um tipo de mecanismo que gerencia conjuntamente recursos em redes sem fio heterogêneas. Assim, neste trabalho é apresentada uma proposta de CACC para o gerenciamento de redes sem fio heterogêneas baseado em aprendizagem por reforço a fim de tratar as tarefas de gerenciamento de aceitação ou rejeição de chamadas e seleção inicial de tecnologia, melhorando o desempenho da rede como um todo. O algoritmo é baseado nas características da própria rede como taxa média de chegada de chamadas, tempo médio de duração das chamadas e um preço atribuído a cada classe de chamadas e os parâmetros usados para medir o desempenho foram probabilidade de bloqueio para novas chamadas e taxa de utilização da rede.
  • PEDRO JORGE FERREIRA TRECCANI
  • UM ESTUDO EMPÍRICO SOBRE A APLICAÇÃO DE MÉTODOS ÁGEIS EM ORGANIZAÇÕES BRASILEIRAS
  • Data: 14/08/2012
  • Mostrar Resumo
  • Organizações que desenvolvem software enfrentam grandes desafios na produção de seus sistemas. Grande parte deste desafio está relacionado à volatilidade de seus requisitos, devido ao crescente dinamismo do mercado. Constantes alterações, adaptações e adições de novos requisitos em sistemas são frequentes no mercado de software, fazendo com que as empresas necessitem de técnicas cada vez melhores para se adequarem a essas mudanças. Nesse contexto, as metodologias ágeis podem auxiliar as organizações de desenvolvimento de software a obter esse dinamismo necessário para acompanhar as frequentes mudanças de requisitos. A adoção de métodos/metodologias ágeis tem se destacado no mercado brasileiro, onde cada vez mais, as metodologias ágeis ganham espaço. Este trabalho descreve os resultados de um estudo empírico realizado em cinco organizações brasileiras de desenvolvimento de software que utilizam métodos/metodologias ágeis. Neste estudo foram utilizadas entrevistas semiestruturadas e questionários para coleta de dados e informações e métodos da Teoria Fundamentada em Dados para análise, com o objetivo de explorar como as metodologias ágeis são aplicadas por organizações brasileiras. Principalmente com relação à prática da refatoração, que adquire aspectos colaborativos neste contexto, visto que as atividades passam a ser feitas em pares ou grupos, auxiliando assim na difusão do conhecimento sobre a arquitetura do sistema, por exemplo. O foco principal do trabalho é apresentar como a refatoração é executada e quais as principais mudanças em relação à forma tradicional de realização da mesma. No decorrer do texto serão apresentados os resultados encontrados no estudo, bem como uma discussão sobre os mesmos. Além disso, há uma avaliação dos impactos gerados pela utilização desta nova forma de execução da atividade de refatoração, tanto na forma de trabalho das pessoas, quanto na organização como um todo.
  • JOSUE LEAL MOURA DANTAS
  • Correio Eletrônico com Processamento de Fala

  • Data: 05/07/2012
  • Mostrar Resumo
  • A interação homem-máquina tem mudado ao longo dos anos. Atualmente, a fala tem
    sido utilizada nesse processo, sobretudo, provendo acessibilidade a deficientes físicos.
    Nesse aspecto, já existem ferramentas que permitem o desenvolvimento de software livre
    com o módulo de reconhecimento e síntese de voz, entre outras línguas, para o português
    brasileiro. Para o reconhecimento foi usado neste trabalho o sistema Coruja, que suporta
    a especificação JSAPI. Já para síntese foi utilizado o FreeTTS com uma voz para o PB
    do projeto MBROLA. O decodificador utilizado foi o Julius, que é um software livre.
    Baseado nas ferramentas citadas, este trabalho consistiu no desenvolvimento de uma extensão
    com reconhecimento e síntese de voz que possibilita o controle do Thunderbird,
    um gerenciador de emails de código livre. Avaliou-se de forma qualitativa o desempenho
    da ferramenta nos dois modos de reconhecimento, gramática e ditado, dentro do contexto
    da aplicação alvo. Um aspecto importante, em relação à configuração de um arquivo de
    entrada do Julius, é o ajuste fino dos seus parâmetros, pois esses melhor ajustados permitem
    uma melhor taxa de reconhecimento e menor tempo de resposta do sistema. Com
    isso, o trabalho busca contribuir também com resultados acerca do ajuste do decodificador
    Julius para que a extensão desenvolvida tenha tempo de resposta e acurácia adequadas
    para a aplicação de correio eletrônico.
    A interação homem-máquina tem mudado ao longo dos anos. Atualmente, a fala temsido utilizada nesse processo, sobretudo, provendo acessibilidade a deficientes físicos.Nesse aspecto, já existem ferramentas que permitem o desenvolvimento de software livrecom o módulo de reconhecimento e síntese de voz, entre outras línguas, para o portuguêsbrasileiro. Para o reconhecimento foi usado neste trabalho o sistema Coruja, que suportaa especificação JSAPI. Já para síntese foi utilizado o FreeTTS com uma voz para o PBdo projeto MBROLA. O decodificador utilizado foi o Julius, que é um software livre.Baseado nas ferramentas citadas, este trabalho consistiu no desenvolvimento de uma extensãocom reconhecimento e síntese de voz que possibilita o controle do Thunderbird,um gerenciador de emails de código livre. Avaliou-se de forma qualitativa o desempenhoda ferramenta nos dois modos de reconhecimento, gramática e ditado, dentro do contextoda aplicação alvo. Um aspecto importante, em relação à configuração de um arquivo deentrada do Julius, é o ajuste fino dos seus parâmetros, pois esses melhor ajustados permitemuma melhor taxa de reconhecimento e menor tempo de resposta do sistema. Comisso, o trabalho busca contribuir também com resultados acerca do ajuste do decodificadorJulius para que a extensão desenvolvida tenha tempo de resposta e acurácia adequadaspara a aplicação de correio eletrônico.

  • RODRIGO AUGUSTO DE MORAES LOURENCO
  • Explorando, Comparando e Coordenando Múltiplas Fontes de Dados em uma Ferramenta de Visualização de Informação
  • Data: 02/07/2012
  • Mostrar Resumo
  • A quantidade de dados eletrônicos disponíveis para análise cresce a cada dia. É fato que esses dados encontram-se dispersos em diversas plataformas e formatos, e que há um esforço grande de pré-processamento deles para convergir, normalmente, em única base de dados multidimensional para realização da análise dos mesmos em busca de novas informações e conhecimentos. Com o objetivo de diminuir este esforço e tempo de pré-processamento, propõe-se que o pré-processamento dos dados seja realizado de forma local, naquele conjunto de dados. Posterior a isso, através de modelos de coordenação de dados, implementados em uma ferramenta de visualização, seriam definidos dados comuns entre as bases de dados envolvidas para que elas pudessem ser relacionadas. A manipulação e visualização dos dados seriam realizados através de ferramenta de visualização de informação, ações básicas de uma ferramenta de visualização de informação, tais como: aplicar filtros e configurar cores seriam aplicados integralmente nas bases coordenadas como se fossem únicas, facilitando a percepção do usuário sobre os dados e seus relacionamentos.Como estudo de caso, foi utilizada a ferramenta de visualização de informação PRISMA, que tem como características principais a facilidade de incluir novas técnicas de visualização de informação em seu framework, e a possibilidade de apresentar múltiplas técnicas de visualização de informação sobre a mesma base de dados. A evolução do PRISMA para múltiplas bases coordenadas tem como objetivo facilitar a descoberta de informações obtidas pelo relacionamento entre duas ou mais bases de dados. A obtenção destas novas funcionalidades ocorreu em duas etapas distintas: A primeira etapa tratou da avaliação e reformulação da arquitetura da ferramenta para permitir a interação por diversas bases de dados sem perda de funcionalidade, em relação as atuais do PRISMA. Já a segunda etapa teve como foco a implementação do módulo de coordenação entre bases de dados e como apresentar ao usuário estes novos controles.
  • MARCOS FILIPE ALVES SALAME
  • DESENVOLVIMENTO DE UMA FERRAMENTA WEB DE AUXÍLIO À EDUCAÇÃO MUSICAL DENOMINADA SIAEM

  • Data: 27/06/2012
  • Mostrar Resumo
  • O ensino e aprendizagem na área de música apresentam dificuldades consideráveis, no que diz respeito ao desenvolvimento da inteligência musical e no entendimento da teoria musical, podendo estas dificuldades limitar de forma severa o desenvolvimento das habilidades musicais de alunos e músicos, o que pode gerar desestímulos e desistências na área. Foi constatado também que o uso de tecnologias em escolas públicas de música é escasso, gerando maior carga de trabalho aos docentes e consequentemente reduzindo a sua produtividade. Este trabalho apresenta o SiAEM (Sistema de Auxílio à Educação Musical), uma ferramenta web desenvolvida com o objetivo de contribuir para a melhoria do ensino e aprendizagem na área de música, atendendo as necessidades básicas de aprendizagem e ensino de alunos e professores, respectivamente. O SiAEM disponibiliza na web para acesso gratuito um módulo gerador de partitura, um módulo editor de prova, um módulo de testes de percepção auditiva e um módulo de testes de teoria musical, que podem produzir material didático, como partituras e provas, fornecendo funcionalidades não encontradas em ferramentas similares, proprietárias ou gratuitas.

  • FABRICIO MEDEIROS ALHO
  • Uma Abordagem de Sistematização do Processo de Gerência de Reutilização de Ativos de Software Aderente a Modelos e Normas de Qualidade
  • Data: 22/06/2012
  • Mostrar Resumo
  • A Reutilização de Software é um processo pelo qual se constrói um software a partir de artefatos de software existentes ao invés de construí-lo desde o princípio. O objetivo principal da reutilização de artefatos de software é reduzir o tempo e o esforço necessários para o desenvolvimento de produtos de software. É necessário, então, que as organizações interessadas no reúso de artefatos de software tenham como meta um processo para Gestão de Reutilização, baseado nas boas práticas e recomendações da área. Assim, o processo de reutilização deve orientar todas as fases que compõem a gestão de reúso de artefatos de software, auxiliando durante o planejamento da reutilização, fornecendo critérios para a classificação e qualificação dos artefatos envolvidos no reúso, norteando as tarefas de criação e descontinuação de artefatos reutilizáveis e orientando a prática do reúso pelos envolvidos nos projetos de software. Neste contexto, este trabalho visa contribuir com uma proposta de apoio ao processo de Gestão de Reutilização de Software, composta por um framework de processo e uma ferramenta para apoio à implementação e execução deste processo. Para atingir tais resultados, um mapeamento entre as recomendações do modelo MR-MPS e das normas ISO/IEC12207 e IEEE1517 foi realizado, visando identificar equivalências e gaps entre eles. Os resultados obtidos fazem parte do projeto Spider, um suite de ferramentas de software livre para apoiar a implementação dos processos do MR-MPS.
  • CLEYTON APARECIDO DIM
  •  

    APIN: FERRAMENTA PARA APRENDIZAGEM DE LÓGICAS E ESTÍMULO DO
    RACIOCÍNIO E DA HABILIDADE DE RESOLUÇÃO DE PROBLEMAS

    APIN: FERRAMENTA PARA APRENDIZAGEM DE LÓGICAS E ESTÍMULO DORACIOCÍNIO E DA HABILIDADE DE RESOLUÇÃO DE PROBLEMASDefinido no Relatório entregue pelo Aluno à Coordenação do PPGCC.

     

  • Data: 15/06/2012
  • Mostrar Resumo
  • Este trabalho apresenta uma ferramenta pedagógica computacional que objetiva amenizar as
    dificuldades de aprendizagem nos primeiros anos dos cursos de computação em disciplinas
    em que a lógica está envolvida, que de acordo com pesquisas realizadas decorre da ausência
    de uma base lógico-matemática prévia. Considerando que a oferta de ferramentas pedagógicas
    adequadas pode melhorar substancialmente o desempenho dos estudantes, foi desenvolvida no
    âmbito do Laboratório de Informática Educativa da Universidade Federal do Pará a
    ferramenta APIN – Agência Planetária de Inteligência, como uma possível solução do
    problema. Trabalha-se com a ideia de desenvolvimento de uma base lógico-matemática em
    alunos do Ensino Médio visando dar suporte à aquisição de novos conhecimentos, de acordo
    com a ideia construtivista conhecida por teoria da assimilação. O objetivo da ferramenta é
    fazer com que os acadêmicos dos cursos de computação ingressem na Universidade com um
    raciocínio lógico bem desenvolvido, detendo conhecimentos básicos de lógica e programação.
    Para validar a ferramenta foram organizadas oficinas em duas escolas de Ensino Médio, onde
    os alunos utilizaram todos os recursos da APIN em 3 dias, com 4 horas diárias de atividades.
    Com os dados obtidos nas oficinas, observou-se que a ferramenta APIN tem potencial para
    ajudar a solucionar o problema da dificuldade de aprendizagem da lógica no Ensino Superior.

    Este trabalho apresenta uma ferramenta pedagógica computacional que objetiva amenizar asdificuldades de aprendizagem nos primeiros anos dos cursos de computação em disciplinasem que a lógica está envolvida, que de acordo com pesquisas realizadas decorre da ausênciade uma base lógico-matemática prévia. Considerando que a oferta de ferramentas pedagógicasadequadas pode melhorar substancialmente o desempenho dos estudantes, foi desenvolvida noâmbito do Laboratório de Informática Educativa da Universidade Federal do Pará aferramenta APIN – Agência Planetária de Inteligência, como uma possível solução doproblema. Trabalha-se com a ideia de desenvolvimento de uma base lógico-matemática emalunos do Ensino Médio visando dar suporte à aquisição de novos conhecimentos, de acordocom a ideia construtivista conhecida por teoria da assimilação. O objetivo da ferramenta éfazer com que os acadêmicos dos cursos de computação ingressem na Universidade com umraciocínio lógico bem desenvolvido, detendo conhecimentos básicos de lógica e programação.Para validar a ferramenta foram organizadas oficinas em duas escolas de Ensino Médio, ondeos alunos utilizaram todos os recursos da APIN em 3 dias, com 4 horas diárias de atividades.Com os dados obtidos nas oficinas, observou-se que a ferramenta APIN tem potencial paraajudar a solucionar o problema da dificuldade de aprendizagem da lógica no Ensino Superior.

  • SILVERIO SIROTHEAU CORREA NETO
  • APRENDIZAGEM DE INICIANTES EM ALGORITMOS E PROGRAMAÇÃO: PROPOSTA DE UM SUBSISTEMA DE FEEDBACK COLABORATIVO PARA AUTOAVALIAÇÃO

  • Data: 25/05/2012
  • Mostrar Resumo
  • O presente trabalho descreve a proposta de um subsistema de feedback colaborativo para um ambiente de programação integrado à plataforma Moodle. Tal subsistema objetiva auxiliar estudantes em processo de aprendizagem, por proporcionar recursos de autoavaliação que são empregados durante a elaboração de códigos de programas, incentivando a argumentação, a exposição de ideias e a resolução de conflitos entre os estudantes. Como vantagem do subsistema de feedback visualiza-se: (1) amenizar os problemas de compreensão dos códigos de programas elaborados pelos estudantes; (2) prover um retorno imediato ao estudante sobre soluções de sua resposta por meio de um procedimento de avaliação entre os estudantes, chamada de avaliação em pares; e (3) diminuir a sobrecarga de trabalho do professor. A proposta foi avaliada a partir de um procedimento com três passos: (a) a oferta de um curso de programação; e (b) avaliação heurística; (c) ensaio de interação. Os resultados provenientes da avaliação permitiram realizar melhorias no ambiente de programação com o feedback colaborativo, contribuindo para compreensão das abstrações dos códigos e ao mesmo tempo reduzindo o espaço de tempo do feedback. Para o professor, o subsistema oportuniza a adoção de novas abordagens, porque fornece um mapa com resultados, ainda que parciais, do desempenho dos estudantes. Por um lado, a prática com atividades colaborativas deve contribuir para a identificação de requisitos para novas funcionalidades, como a programação em pares e, por outro lado, deve estimular o desenvolvimento da autoavaliação, de forma que, possa proporcionar um aumento no nível das habilidades dos estudantes em programação.

  • ELTON SARMANHO SIQUEIRA
  • ALE RPG: Jogo Digital para Aprendizado de Crianças em Leitura e Escrita

  • Data: 03/04/2012
  • Mostrar Resumo
  • Neste trabalho foi desenvolvido um jogo que apresenta elementos lúdicos para o divertimento das crianças, como a implementação de fantasia controlada, desafios e propriedades que estimulam a curiosidade, em que são requisitos básicos para ajudar a aumentar a motivação da criança em aprender conteúdos necessários para ensino de leitura e escrita. O jogo foi desenvolvido em XNA 3.0 e utiliza diversos recursos computacionais, com destaque o reconhecedor de voz, proporcionando uma avaliação informatizada do processo de leitura. O jogo utiliza um programa de ensino elaborado por profissionais da educação, como pedagogos e psicólogos, assim, trazendo uma gama de atividades didáticas. Os conceitos educacionais, motivacionais e lúdicos foram avaliados por psicólogos da área sobre aprendizagem e motivação. Em outro momento, o jogo foi testado com dezenove crianças, analisando seus comportamentos e desempenho. Definido no Relatório entregue pelo Aluno à Coordenação do PPGCC.

  • RAFAEL SANTANA OLIVEIRA
  • DESENVOLVIMENTO DE RECURSOS E FERRAMENTAS PARA RECONHECIMENTO DE VOZ EM PORTUGUÊS BRASILEIRO PARA DESKTOP E SISTEMAS EMBARCADOS
  • Data: 03/04/2012
  • Mostrar Resumo
  • Nos últimos anos, a utilização de tecnologias de reconhecimento de voz teve crescimento notável. Com os investimentos de empresas como a Google, Microsoft e Nuance, uma gama de aplicativos com interface de voz, recursos e ferramentas vem sendo disponibilizados a comunidade. Contudo, para o Português Brasileiro (PB), esses recursos ainda são escassos. Nesse contexto, este trabalho teve como objetivo a disponibilização de ferramentas e recursos livres para o desenvolvimento de aplicativos com suporte a reconhecimento de voz para desktop e sistemas embarcados. Na primeira etapa deste, uma interface de programação de aplicativos compatível a especificação JSAPI foi desenvolvida para o engine Coruja tendo como objetivo sua disponibilização na plataforma Java. Visando plataformas móveis, na segunda etapa deste trabalho foram desenvolvidos recursos específicos para os decodificadores do grupo CMUSphinx. Modelos acústicos foram treinados e a viabilidade de conversão de modelos do formato do HTK para o Sphinx foi estudada. Como forma de validação dos recursos desenvolvidos, a nova versão do Coruja foi utilizada na refatoração do projeto SpeechOO. Um aplicativo com suporte a reconhecimento de voz foi construído para a plataforma Android 2.2 utilizando o decodificador Pocketsphinx, aliado a recursos desenvolvidos neste trabalho.
  • ANDERSON GREGÓRIO MARQUES SOARES
  • Uma interface t-commerce com o auxilio de uma técnica de visualização da informação para o middleware brasileiro de iDTV

  • Data: 30/03/2012
  • Mostrar Resumo
  • Com o crescimento progressivo do e-commerce no cenário brasileiro e propagação das transmissões digitais na TV, cresce a demanda por aplicações interativas no suporte a atividades como: escolher e comprar produtos. Dentro deste contexto, este trabalho tem como principal hipótese verificar se a utilização de uma técnica de visualização de informação - InfoVis no cenário do t-commerce facilitaria a percepção e permitiria aos telespectadores tomarem melhores decisões no ato de uma compra. Para tal, a fim de facilitar o processo de compras através da TV Digital Interativa (Interactive Digital TV - iDTV) este trabalho desenvolveu uma interface de t-commerce baseada no middleware brasileiro de televisão digital - Ginga, com o auxilio da técnica de InfoVis chamada treemap, com o objetivo de enriquecer a interface do telespectador com mais informações de forma organizada e coerente, de modo a ampliar sua compreensão dos dados. Como forma de validar a hipótese e avaliar a interface de t-commerce, foi realizado testes de usabilidade com usuários, e para avaliar o volume da carga de trabalho subjetiva durante os testes, utilizou-se a avaliação NASA-TLX (NASA - Task Load Index). Por conseguinte, conclui-se que a aplicação de uma técnica InfoVis no cenário do t-commerce mostrou-se eficaz.

  • EDSON KOITI KUDO YASOJIMA
  • Aplicações Colaborativas Tridimensionais para Visualização de Informação

  • Data: 30/03/2012
  • Mostrar Resumo
  • A área da visualização da informação tem como objetivo coletar e organizar dados a fim de criar padrões para cognição do usuário através de visualizações (SPENCE, 2007). As visualizações buscam potencializar a percepção do usuário, aumentando a capacidade de cognição sobre problema e permite mais facilmente o reconhecimento de relações e padrões entre os dados. 
    O compartilhamento da visualização entre várias pessoas permite a colaboração e discussão de visões, possibilitando resultados mais precisos ainda (MARK, CARPENTER, & KOBSA, 2003). Visualizações em um ambiente 3D naturalmente permitem uma dimensão a mais para representação de dados, quando comparado a ambientes 2D, por exemplo, na técnica dispersão de dados o eixo de profundidade do ambiente 3D permite a adição de mais um eixo para as coordenadas cartesianas no gráfico, aumentado assim a capacidade de amostragem dos dados.
    Dentro deste contexto, esta dissertação tem como objetivo gerar aplicações colaborativas de visualização da informação em ambientes 3D e realidade aumentada, buscando novas possibilidades de representação espacial, e possibilidade de aprimorar o processo de descoberta de padrões e relacionamentos nos dados entre um grupo de pessoas com objetivos comuns. Este projeto faz uso de tecnologias gratuitas e abertas para o desenvolvimento dos protótipos, e serão realizados testes com usuários para validação dos mesmos, objetivando sempre os conceitos de uma boa ferramenta de visualização.

    A área da visualização da informação tem como objetivo coletar e organizar dados a fim de criar padrões para cognição do usuário através de visualizações (SPENCE, 2007). As visualizações buscam potencializar a percepção do usuário, aumentando a capacidade de cognição sobre problema e permite mais facilmente o reconhecimento de relações e padrões entre os dados. O compartilhamento da visualização entre várias pessoas permite a colaboração e discussão de visões, possibilitando resultados mais precisos ainda (MARK, CARPENTER, & KOBSA, 2003). Visualizações em um ambiente 3D naturalmente permitem uma dimensão a mais para representação de dados, quando comparado a ambientes 2D, por exemplo, na técnica dispersão de dados o eixo de profundidade do ambiente 3D permite a adição de mais um eixo para as coordenadas cartesianas no gráfico, aumentado assim a capacidade de amostragem dos dados. Dentro deste contexto, esta dissertação tem como objetivo gerar aplicações colaborativas de visualização da informação em ambientes 3D e realidade aumentada, buscando novas possibilidades de representação espacial, e possibilidade de aprimorar o processo de descoberta de padrões e relacionamentos nos dados entre um grupo de pessoas com objetivos comuns. Este projeto faz uso de tecnologias gratuitas e abertas para o desenvolvimento dos protótipos, e serão realizados testes com usuários para validação dos mesmos, objetivando sempre os conceitos de uma boa ferramenta de visualização.

  • MARIO AUGUSTO DA COSTA TORRES
  • USO DO ALGORITMO CULTURAL COM OPERADOR FUZZY PARA OTIMIZAÇÃO DE FUNÇÕES DE VARIÁVEIS REAIS

  • Data: 23/03/2012
  • Mostrar Resumo
  • Este trabalho tem como objetivo propor um operador evolucionário de influência cultural baseado nos conceitos presentes nos algoritmos culturais, programação evolucionária, lógica fuzzy e sistemas de inferência fuzzy, e aplicado ao problema de otimização de funções reais. Para isso, são apresentados os conceitos relevantes ao entendimento da proposta bem como são analisados os trabalhos relacionados que constituem a base do framework evolucionário no qual o operador de influência é aplicado. Em seguida, o funcionamento do operador é apresentado, juntamente com o detalhamento do sistema de inferência fuzzy utilizado no operador e a sua implementação no algoritmo cultural desenvolvido. Finalizando o trabalho, são apresentados os resultados obtidos quando da aplicação de várias funções de benchmark encontradas na literatura ao algoritmo desenvolvido, bem como estes resultados são comparados aos obtidos por algoritmos encontrados nos trabalhos relacionados a este.

  • NATHÁLLIA AMARAL CARVALHO
  • ESPECIFICAÇÃO E DESENVOLVIMENTO DE UMA FERRAMENTA VOLTADA AO AMADURECIMENTO DO VOCABUÁRIO DE CRIANÇAS SURDAS.

  • Data: 14/03/2012
  • Mostrar Resumo
  • O presente trabalho descreve e analisa o desenvolvimento e aplicação de uma
    ferramenta voltada ao amadurecimento vocabular de crianças surdas. Serão descritas as
    etapas desde a definição do tema, questões norteadoras, escolha da problemática, até a
    concepção da ferramenta, implementação e apresentação de resultados da aplicação.
    A ferramenta desenvolvida relaciona-se ao desenvolvimento de vocabulário em língua
    portuguesa de alunos surdos. A partir de uma verificação da literatura e das necessidades
    cotidianas de educadores e educandos do Instituto Felipe Smaldone (IFS) em Belém –
    PA projetou-se uma ferramenta que inclui um conjunto de atividades organizadas em
    fases e níveis com graus crescentes de dificuldade, envolvendo imagens e palavras
    escritas, e auxílio a partir da Língua Brasileira de Sinais (Libras). Os exercícios são
    separados por categoria de palavras, para se investir na aquisição de vocabulário de
    forma contextualizada. A modelagem se valeu da linguagem UML e a implementação
    realizou-se através da linguagem PHP e do SGBD MySQL, dentre outras ferramentas
    computacionais. As primeiras aplicações sugerem um importante potencial dessa
    ferramenta na ampliação do vocabulário em crianças surdas, referente a diferentes
    categorias, com impactos positivos esperados na capacidade de interpretação e de
    produção textual, assim como na comunicação de forma mais ampla.
    O presente trabalho descreve e analisa o desenvolvimento e aplicação de umaferramenta voltada ao amadurecimento vocabular de crianças surdas. Serão descritas asetapas desde a definição do tema, questões norteadoras, escolha da problemática, até aconcepção da ferramenta, implementação e apresentação de resultados da aplicação.A ferramenta desenvolvida relaciona-se ao desenvolvimento de vocabulário em línguaportuguesa de alunos surdos. A partir de uma verificação da literatura e das necessidadescotidianas de educadores e educandos do Instituto Felipe Smaldone (IFS) em Belém –PA projetou-se uma ferramenta que inclui um conjunto de atividades organizadas emfases e níveis com graus crescentes de dificuldade, envolvendo imagens e palavrasescritas, e auxílio a partir da Língua Brasileira de Sinais (Libras). Os exercícios sãoseparados por categoria de palavras, para se investir na aquisição de vocabulário deforma contextualizada. A modelagem se valeu da linguagem UML e a implementaçãorealizou-se através da linguagem PHP e do SGBD MySQL, dentre outras ferramentascomputacionais. As primeiras aplicações sugerem um importante potencial dessaferramenta na ampliação do vocabulário em crianças surdas, referente a diferentescategorias, com impactos positivos esperados na capacidade de interpretação e deprodução textual, assim como na comunicação de forma mais ampla.

  • ANDRE FIGUEIRA RIKER
  • UM MECANISMO DE ESTIMATIVA DE QUALIDADE DE EXPERIÊNCIA EM TEMPO REAL PARA SISTEMAS MULTIMIDIA: ESTUDO DE CASO PARA REDES EM MALHA SEM FIO

  • Data: 02/03/2012
  • Mostrar Resumo
  • Devido ao grande crescimento das aplicac~oes de vdeo e a implantac~ao das redes em malha sem o, a necessidade de mecanismos que estimem a qualidade de experi^encia (QoE) das aplicac~oes de vdeo em tempo real tem se tornado essencial, uma vez que as operadoras querem controlar e otimizar seus recursos, enquanto matem os usuarios de aplicac~oes multimdia com um bom nvel de qualidade. Por outro lado, do ponto de vista dos protocolos de rede, e de grande import^ancia estar ciente do nvel de qualidade percebido pelos usuarios das aplicac~oes de vdeo. Assim as polticas de gerenciamento dos recursos de rede poderiam ser aplicadas levando em considerac~ao a percepc~ao dos usuarios. Ao contrario do que ocorre atualmente, onde o gerenciamento dos recursos e feito com base nos nveis de QoS (Quality of Service). Portanto, este trabalho prop~oe um mecanismo chamado MultiQoE que utiliza par^ametros de codec e rede para estimar em tempo real a qualidade de vdeos que possuam diferentes codi cac~oes, nveis de atividade espaco-temporal e degradac~oes. Para isso, transmiss~oes de vdeo foram realizadas em uma rede mesh no NS-2.34 e avaliac~oes subjetivas foram feitas com 55 avaliadores humanos. Os resultados apresentam a alta correlac~ao do MultiQoE com a metrica subjetiva Mean Opinion Score (MOS) e deixam claro a baixa precis~ao das metricas objetivas (Video Quality Metric - VQM, Structural Similarity Index Metric - SSIM e Peak Signal-to-Noise Ratio - PSNR) e do metodo hbrido chamado Pseudo-Subjective Quality Assessment (PSQA).

  • ALLAN DOUGLAS BENTO DA COSTA
  • AVALIAÇÃO OBJETIVA DA QUALIDADE DE EXPERIÊNCIA EM REDES IEEE 802.16: MECANISMOS AVANÇADOS DE CONTROLE E DESCARTES DE PACOTES DE STREAMING DE VÍDEO

  • Data: 29/02/2012
  • Mostrar Resumo
  • ADistribuição de conteúdos multimídia está em grande expansão nas redes de banda larga fixas, sem fio e móveis. Entretanto, os atuais mecanismos de controle de qualidade em redes banda larga não asseguram a qualidade dos vídeos a serem distribuídos para milhares de usuários. Este trabalho descreve um conjunto de mecanismos de otimização de QoE (Qualidade de Experiência) para redes IEEE 802.16/WiMAX, que otimizam a distribuição de vídeo através da implementação de algoritmos avançados de descarte seletivo de pacotes, levando em consideração a redundância temporal, espacial, complexidade, movimentação, variação de GOP (Grupo de Figuras), BitRate, largura de banda, bem como a experiência percebida pelo usuário final. O impacto dos algoritmos de QoE foram analisados através de simulação, onde métricas objetivas de QoE são usadas para avaliar o desempenho de tais mecanismos em redes WiMAX, de acordo com a percepção dos receptores, bem como para realçar os benefícios das soluções propostas comparadas com modelos tradicionais baseados em QoS (Qualidade de Serviços).

2011
Descrição
  • HUGO PEREIRA KURIBAYASHI
  • IMPLEMENTAÇÃO DE SUPORTE A CANAL DE RETORNO NA PLATAFORMA OPENGINGA: UM ESTUDO DE CASO NA REGIÃO AMAZÔNICA
  • Orientador : CARLOS RENATO LISBOA FRANCES
  • Data: 11/10/2011

  • ANTONIO SOARES LOBATO
  • UM SISTEMA GERENCIADOR DE RUBRICAS PARA APOIAR A AVALIAÇÃO EM AMBIENTES DE APRENDIZAGEM
  • Orientador : ELOI LUIZ FAVERO
  • Data: 31/08/2011

  • INACIO LEITE GORAYEB
  • UM RELATO DE MELHORIA DO PROCESSO DE TESTE DE SOFTWARE APLICADO A UMA FÁBRICA DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 31/08/2011

  • MARCUS PAULO DA SILVA MELO
  • UMA INSTITUCIONALIZAÇÃO DO PROCESSO DE PROJETO E CONSTRUÇÃO DO PRODUTO EM UMA FÁBRICA DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 31/08/2011

  • AMANDA MONTEIRO SIZO LINO
  • APLICAÇÃO DE ARQUITETURA DE SOFTWARE NO DESENVOLVIMENTO DE SISTEMAS DISTRIBUÍDOS
  • Orientador : ELOI LUIZ FAVERO
  • Data: 30/08/2011

  • MARCELIO D OLIVEIRA LEAL
  • UMA ABORDAGEM SEMI-AUTOMÁTICA DE GERAÇÃO DE INFORMAÇÕES DE RASTREABILIDADE DE SOFTWARE
  • Orientador : SANDRO RONALDO BEZERRA OLIVEIRA
  • Data: 30/08/2011

  • MAYARA COSTA FIGUEIREDO
  • UM ESTUDO EMPÍRICO SOBRE ARQUITETOS DE TECNOLOGIA DE INFORMAÇÃO: IMPLICAÇÕES PARA A PESQUISA EM ARQUITETURA DE SOFTWARE
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 26/04/2011

  • ALLINE DE MELO LEMOS
  • Um Estudo Etnográfico sobre a Engenharia de Requisitos em um Projeto de Desenvolvimento Distribuído de Software

  • Data: 25/04/2011
  • Mostrar Resumo
  • De acordo com a dissertação entregue pela aluna na Secretaria do PPGCC-UFPA.

  • JEAN MARCEL DOS REIS COSTA
  • ESCALABILIDADE E EVOLUÇÃO DAS REDES AWARENESS EM UM GRANDE PROJETO DE DESENVOLVIMENTO DISTRIBUÍDO DE SOFTWARE
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 25/04/2011

  • THIAGO ANTONIO SIDONIO COQUEIRO
  • FUZZY TFRC: MECANISMO DE CONTROLE DE CONGESTIONAMENTO INTELIGENTE APLICADO EM REDES SEM FIO
  • Orientador : EDUARDO COELHO CERQUEIRA
  • Data: 21/02/2011

  • DIEGO DOS PASSOS SILVA
  • HANDOVER TRANSPARENTE ENTRE REDES IEEE 802.16 E IEEE 802.11 USANDO UM SISTEMA FUZZY-GENÉTICO
  • Orientador : RAIMUNDO VIEGAS JUNIOR
  • Data: 16/02/2011

  • VANESSA MARTINS CALDAS MAGALHAES
  • UMA FERRAMENTA DE AVALIAÇÃO AUTOMÁTICA DE MAPAS CONCEITUAIS COMO AUXÍLIO AO ENSINO À DISTÂNCIA
  • Orientador : ELOI LUIZ FAVERO
  • Data: 26/01/2011

  • JADIELLY FERNANDES OLIVEIRA
  • ABORDAGEM PARA IMPLEMENTAÇÃO DE GERÊNCIA DO CONHECIMENTO COM APOIO DE UM AMBIENTE DE DESENVOLVIMENTO DE SOFTWARE CENTRADO EM PROCESSOS
  • Orientador : CARLA ALESSANDRA LIMA REIS
  • Data: 11/01/2011

2010
Descrição
  • BILLY ANDERSON PINHEIRO
  • ABARÉ: UM FRAMEWORK PARA IMPLANTAÇÃO, MONITORAMENTO E GERENCIAMENTO COORDENADO E AUTÔNOMO DE REDES EM MALHA SEM FIO
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 01/10/2010

  • MARCO ANTONIO BALIEIRO DA SILVA
  • UMA FERRAMENTA PARA COLETA, ANÁLISE E VISUALIZAÇÃO DE PROJETOS DE SOFTWARE LIVRE USANDO REDES SOCIAIS
  • Orientador : CLEIDSON RONALD BOTELHO DE SOUZA
  • Data: 10/08/2010

  • HILTON PRADO DE CASTRO JUNIOR
  • A FORMAÇÃO DE PROFESSORES PARA INFORMÁTICA EDUCATIVA NA REDE ESTADUAL DE ENSINO DO MUNICÍPIO DE BELÉM/PÁ E O CONTEXTO DA FUTURA IMPLANTAÇÃO DO PROJETO UCA TOTAL
  • Orientador : BENEDITO DE JESUS PINHEIRO FERREIRA
  • Data: 07/07/2010

  • LOUISE GONCALVES DE BARROS
  • " UMA ESTRATÉGIA PARA FORMAÇÃO DE RECURSOS HUMANOS PARA A ÁREA DE COMPUTAÇÃO E INSERÇÃO DA INFORMÁTICA EM ESCOLAS DO ENSINO BÁSICO POR MEIO DA REALIZAÇÃO DE ATIVIDADES DE EXTENSÃO "
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 25/06/2010

  • PAULO FERNANDO PIMENTA DE SOUZA JUNIOR
  • UMA PROPOSTA DE FRAMEWORK PARA MODELOS COMPUTACIONAIS DE USO E COBERTURA DA TERRA
  • Data: 25/06/2010

  • ROBSON DA SILVA AGUIAR
  • " ENSINO E APRENDIZAGEM DE TEORIA DA COMPUTAÇÃO COM O SUPORTE DE AMBIENTES COMPUTACIONAIS: UTILIZAÇÃO DE AVALIAÇÃO AUTOMÁTICA E SEMI-AUTOMÁTICA PARA PROVER FEEDBACK RÁPIDO PARA O ALUNO E FACILITAR O ACOMPANHAMENTO PELO PROFESSOR "
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 25/06/2010

  • ANDERSON JORGE SERRA DA COSTA
  • UM MECANISMO DE ADAPTAÇÃO DE PROCESSOS DE SOFTWARE
  • Orientador : RODRIGO QUITES REIS
  • Data: 11/05/2010

  • MARCELLE PEREIRA MOTA
  • AMBIENTE DE APRENDIZAGEM DE PROGRAMAÇÃO COM VISUALIZAÇÃO E AVALIAÇÃO AUTOMÁTICA DE PROGRAMAS
  • Orientador : ELOI LUIZ FAVERO
  • Data: 26/02/2010

2009
Descrição
  • PAULO IGOR ALVES GODINHO
  • EDASP: UM ALGORÍTMO DE ESTIMATIVA DE DISTRIBUIÇÃO APLICADO À MINERAÇÃO DE PADRÕES SEQUENCIAIS EM BASES DE DADOS
  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 22/12/2009

  • LEANDRO HERNANDEZ ALMEIDA
  • WEB-PRISMA: UMA FERRAMENTA DE VISUALIZAÇÃO DE INFORMAÇÃO COM MÚLTIPLAS VISÕES COORDENADAS
  • Orientador : BIANCHI SERIQUE MEIGUINS
  • Data: 21/12/2009

  • MARCIO GOES DO NASCIMENTO
  • COMPETIÇÕES ESCOLARES VIA INTERNET
  • Orientador : JANNE YUKIKO YOSHIKAWA OEIRAS LACHI
  • Data: 11/12/2009

  • CLEYTON ISAMU MUTO
  • ANÁLISE DA CONVERGÊNCIA DE ALGORÍTMOS DE BALANCEAMENTO DE ESPECTRO PARA REDES DA LINHA DIGITAL DE ASSINANTES
  • Orientador : ALDEBARO BARRETO DA ROCHA KLAUTAU JUNIOR
  • Data: 07/12/2009

  • MIREILLE PINHEIRO MOREIRA
  • UM AMBIENTE PARA ENSINO DE PROGRAMAÇÃO COM FEEDBACK AUTOMÁTICO DE EXERCÍCIO
  • Orientador : ELOI LUIZ FAVERO
  • Data: 04/12/2009

  • VAGNER DE BRITO NASCIMENTO
  • PROPOSTA DE ADEQUAÇÃO DO PROTOCOLO TCP ÀS REDES DE MALHA SEM FIO UTILIZANDO TÉCNICAS CROSS-LAYER
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 13/11/2009

  • BRENO BERNARD NICOLAU DE FRANCA
  • UM SIMULADOR ESTOCÁSTICO DE PROCESSO DE SOFTWARE BASEADO EM CONHECIMENTO
  • Orientador : RODRIGO QUITES REIS
  • Data: 29/06/2009

  • FABRICIO ROSSY DE LIMA LOBATO
  • SELEÇÃO DE GATEWAYS MÓVEIS EM REDES HETEROGÊNEAS SEM FIO COM MÚLTIPLOS SALTOS
  • Orientador : KELVIN LOPES DIAS
  • Data: 05/06/2009

  • JOSE JAILTON HENRIQUE FERREIRA JUNIOR
  • HANDOVER TRANSPARENTE PARA TRÁFEGO MULTIMÍDIA EM UMA ARQUITETURA INTEGRADA WIMAX/IP/MPLS MÓVEL
  • Orientador : KELVIN LOPES DIAS
  • Data: 04/06/2009

  • RAFAEL PEREIRA ESTEVES
  • UMA ARQUITETURA PARA O OFERECIMENTO DE CONEXÕES DETERMINÍSTICA EM REDES BASEADAS EM RAJADAS ÓPITICAS ROTULADAS PARA GRADES COMPUTACIONAIS
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 20/05/2009

  • DEDIER GOMES MERCES LIMA
  • UM FRAMEWORK PARA CONTROLE DE ADMISSÃO EM REDES ORIENTADAS A SERVIÇO
  • Orientador : ANTONIO JORGE GOMES ABELEM
  • Data: 12/05/2009

  • LUIZ ALBERTO DA SILVA FILHO
  • MINERAÇÃO DE REGRAS DE ASSOCIAÇÃO UTILIZANDO KDD E KDT
  • Orientador : ELOI LUIZ FAVERO
  • Data: 16/04/2009

  • MARCIO JOSE MOUTINHO DA PONTE
  • METODOLOGIA PARA INFERIR NÍVEL DE USABILIDADE DE SOFTWARE DE SUPERVISÃO DE AUTOMAÇÃO INDUSTRIAL NO SETOR ELÉTRICO UTILIZANDO REDES NEURAIS ARTIFICIAIS: UM ESTUDO DE CASO - ELETROBRÁS
  • Orientador : ANTONIO MORAIS DA SILVEIRA
  • Data: 14/04/2009

  • ERNANI DE OLIVEIRA SALES
  • GERÊNCIA DE CONFIGURAÇÃO DE SOFTWARE INTEGRADA A EXECUÇÃO DE PROCESSOS DE SOFTWARE
  • Orientador : CARLA ALESSANDRA LIMA REIS
  • Data: 20/03/2009

  • LUIZ DOURADO DIAS JUNIOR
  • DICOTOMIA TEORIA E PRÁTICA DOCENTE NO ENSINO SUPERIOR DE COMPUTAÇÃO: REQUISITOS PARA UMA FERRAMENTA DE AVALIAÇÃO DOVENTE EM FÓRUNS DE DISCUSSÃO
  • Orientador : BENEDITO DE JESUS PINHEIRO FERREIRA
  • Data: 02/03/2009

2008
Descrição
  • SERGIO CLAYTON VIANA PINHEIRO
  • Um Protótipo de Visualização de Informação com Múltiplas Visões Coordenadas para Dispositivos Móveis

  • Data: 19/12/2008
  • Mostrar Resumo
  • Um dos desafios atuais da computação consiste na representação de grandes quantidades de dados de fácil percepção em dispositivos com limitado espaço visual. Particularmente para atividades que demandam tomada decisão e ao mesmo tempo mobilidade, a restrição de recursos dos dispositivos móveis torna esse desafio ainda mais acentuado (LUYTEN, 2001). Uma das alternativas para tornar o contexto acima possível é a utilização de diferentes técnicas de visualização em conjunto, para apresentar aspectos complementares dos dados. Porém, o uso de várias técnicas pode ocasionar uma sobrecarga cognitiva. Para minimizar esta sobrecarga, Baldonado (2000) sugere a coordenação dos dados e do comportamento das visões. Assim, essa dissertação de mestrado apresenta um protótipo de visualização de informação para dispositivos móveis que implementa múltiplas visões coordenadas, com o objetivo de tentar amenizar o impacto causado na analise dos dados em virtude da pouca área de apresentação disponível nesses dispositivos. O protótipo foi desenvolvido utilizando a linguagem Java (SUN, 2008) e implementou as principais tarefas recomendadas para uma ferramenta de visualização. Além disso, o protótipo contém a maioria das características da visualização passíveis de coordenação (BALDONADO, 2000). Também foi gerada uma arquitetura resultante do desenvolvimento do protótipo e ao final foram realizados ensaios de usabilidade preliminares sobre o protótipo desenvolvido.

  • MICHELE DE PAULA DA SILVA MACIEL
  • AVALIANDO O USO DE MÚLTIPLAS VISÕES COORDENADAS COM TAREFAS DE ANÁLISE DE DADOS

  • Data: 19/12/2008
  • Mostrar Resumo
  • O uso de ferramentas de visualização de informação que suportam múltiplas visões coordenadas para análise e exploração de dados tem se tornado mais freqüente. Entretanto, existem poucos estudos de usabilidade voltados para esse grupo de ferramentas, o que se faz necessário, para torná-las mais fáceis e usáveis.

    O norte do desenvolvimento deste trabalho esta na realização de experimentos de usabilidade com ferramentas de visualização de informação que suportem múltiplas visões coordenadas. Existem duas abordagens principais nas ferramentas de visualização de informação: múltiplas visões coordenadas na mesma tela e múltiplas visões coordenadas em telas separadas. Analisar o impacto dessas duas abordagens na análise e exploração de dados é o grande objetivo desde trabalho. Para auxiliar nessa tarefa, a ferramenta de visualização de informação de múltiplas visões coordenadas denominada Prisma foi adaptada para cinco ferramentas, três delas com técnicas individuais (dispersão, coordenadas paralelas e treemap) e duas com técnicas coordenadas (na mesma tela e em telas separadas).

    Para a avaliação mais consistente foi desenvolvida uma taxonomia de tarefas baseada na complexidade das mesmas. Houveram dois momentos de avaliação, na primeira fase dos testes, participaram quarenta usuários onde cada um respondeu 15 questões/tarefas, agrupadas em baixa, média e alta complexidade, aqui levou-se em consideração a facilidade de aprendizado na ferramenta na resolução das tarefas e comparação com ferramentas de uma única técnica. Na segunda fase dos testes participaram noventa novos usuários, cada um respondendo uma única tarefa, a idéia é observar o impacto inicial na utilização de uma ferramenta de múltiplas visões de dados coordenadas em uma tarefa de análise de dados.

    De maneira geral, os estudos mostraram que as múltiplas visões coordenadas exercem um impacto positivo na análise de dados quanto mais complexa for a tarefa, mais especificamente, a ferramenta de telas separadas proporciona maior índice de acerto, entretanto, a ferramenta de mesma tela oferece menor índice de erro total.

  • MICHELE DE PAULA DA SILVA MACIEL
  • AVALIANDO O USO DE MÚLTIPLAS VISÕES COORDENADAS COM TAREFAS DE ANÁLISE DE DADOS
  • Data: 19/12/2008

  • SERGIO CLAYTON VIANA PINHEIRO
  • UMA FERRAMENTA DE VISUALIZAÇÃO DE INFORMAÇÃO COM MÚLTIPLAS VISÕES COORDENADAS PARA DISPOSITIVOS MÓVEIS
  • Data: 19/12/2008

  • HIEDA ADRIANA NASCIMENTO SILVA
  • UMA PROPOSTA PARA ACOMPANHAMENTO DA APRENDIZAGEM DO ESTUDANTE EM AMBIENTES DE EDUCAÇÃO A DISTÂNCIA

  • Data: 02/12/2008
  • Mostrar Resumo
  • Este trabalho apresenta uma nova abordagem para acompanhamento da aprendizagem dos estudantes em ambiente virtual de aprendizagem (AVA). Propõe uma solução para o desafio de avaliar todo o processo de ensino-aprendizagem e fazer análise dos aspectos envolvidos ao longo do curso. A proposta utiliza a técnica de conjuntos fuzzy, devido à complexidade e ambigüidade que o tema desperta para a questão. Partindo para uma nova concepção de avaliação, o uso da abordagem fuzzy (com ajuda da ferramenta matemática MATLAB) permitirá que ela seja também qualitativa e não apenas quantitativa. A solução busca também atribuir um conceito final aos estudantes, ou seja, um conceito que represente o aprendizado no curso como um todo. A avaliação é feita por meio de uma ferramenta que utiliza os princípios da lógica fuzzy, uma das técnicas da inteligência computacional, mais adequada para abordagens em ambientes de imprecisão. Esse conceito final é obtido inferindo-se um conjunto de variáveis fornecidas pelo ambiente virtual onde o estudo de caso foi realizado. A solução proposta apresenta as seguintes vantagens: (a) fornece informações ao professor para acompanhar de forma otimizada o desempenho dos estudantes; (b) proporciona um feedback imediato aos estudantes referente ao seu desempenho. O feedback é essencial no contexto de educação a distância, pois nessa modalidade de ensino, é extremamente  importante que não somente o professor, mas o estudante também possa acompanhar, ao longo do curso, a evolução do seu aprendizado.

  • WALDIR ARANHA MOREIRA JUNIOR
  • UTILIZAÇÃO DE MÉTRICAS MÚLTIPLAS AO PROTOCOLO PRÓ-ATIVO OPTIMIZED LINK STATE ROUTING PARA REDES EM MALHA SEM FIO 

  • Data: 27/11/2008
  • Mostrar Resumo
  • As redes em malha sem fio podem ser usadas em diferentes aplicações. Contudo, elas ainda não têm um padrão e, como conseqüência, vários aspectos devem ser estudados para assegurar o funcionamento correto destas redes. Dentre estes aspectos, o roteamento é o foco deste trabalho. Desta forma, é proposto o uso de métricas múltiplas ao protocolo pró-ativo Optimized Link State Routing (OLSR) com o objetivo de oferecer roteamento com qualidade de serviço. Embora já tenha sido provado que roteamento baseado em métricas múltiplas seja um problema NP-completo, esta proposta apresenta como as técnicas Método de Análise Hierárquica e Podagem podem ser combinadas para realizar roteamento considerando a qualidade dos enlaces e, assim, oferecendo as melhores rotas disponíveis baseadas nas métricas estudadas. Um estudo sobre o desempenho das métricas é feito no Network Simulator juntamente com simulações que mostram a eficiência da proposta, chamada Multiple Metric (MM)-OLSR. 

  • CLAUDOMIR CARDOSO DE CARVALHO JUNIOR
  • Agrupamento e Classificação de faltas do tipo curto circuito em linha de transmissão

  • Data: 20/10/2008
  • Mostrar Resumo
  • Este trabalho se concentra na tarefa de agrupamento e classificação de faltas do tipo curtocircuito
    em linhas de transmissão. Essas faltas são responsáveis pela maioria dos desligamentos
    em sistemas de transmissão de energia elétrica. No que diz respeito ao pré-processamento (ou
    front end), são apresentadas duas abordagens diferentes para a tarefa de agrupamento: frontends
    RMS e PCA, e três abordagens para a tarefa de classificação: front-ends raw, RMS (rootmean
    square) e PCA (principal component analysis). Para ambas as tarefas foram utilizadas
    duas bases de dados distintas: Tramoeste e Marabá. Os resultados para tarefa de agrupamento
    mostraram uma avaliação melhor dos grupos (ou clusters) obtidos a partir do front-end PCA
    em relação aos grupos obtidos do front-end RMS. Os resultados de classificação foram obtidos a
    partir de algoritmos de aprendizagem de máquina (rede neural, J.48, Naive Bayes e k-nearest
    neighbor ) utilizando front-ends raw e RMS e um classificador via agrupamento utilizando
    front-end PCA. Para a tarefa de classificação, as técnicas foram avaliadas em duas situações
    distintas. Na primeira, o treino e teste dos classificadores foram feitos com a mesma base
    (matched condition). Os melhores resultados de classificação obtidos foram através front-ends
    raw e PCA para ambas as bases. O segundo experimento consistiu em treinar os classificadores
    com a base Tramoeste e testar com a base Marabá e vice-versa (mismatch). O classificador
    via agrupamento obteve o menor erro de classificação para ambas as situações: 3% e 3.3%,
    respectivamente.

  • MARCOS CESAR DA ROCHA SERUFFO
  • Planejamento de capacidade e análise de desempenho de tecnologias de acesso para inclusão digital na região amazônica: um estudo de caso em IPTV 

  • Data: 25/06/2008
  • Mostrar Resumo
  • Esta dissertação apresenta um estudo de caso de tráfego triple play (voz, vídeo e dados) utilizando o ADSL2+ (Asymmetric Digital Subscriber Line Extended Bandwidth – Linha Digital do Assinante Assimétrica com Banda Estendida) como tecnologia de acesso em um ambiente amazônico. São apresentadas duas abordagens distintas: uma análise experimental analisando o impacto de ruído impulsivo sobre um tráfego de IPTV; e uma análise via simulação de uma rede utilizando fibra óptica como backbone e ADSL2+ como tecnologia de acesso com o objetivo de prover serviços banda larga. Métricas como atraso, jitter e perda de pacotes são coletadas e analisadas

  • ADAILTON MAGALHAES LIMA
  • COORDENAÇÃO DESCENTRALIZADA DE ATIVIDADES EM PROCESSOS DE SOFTWARE COM CONTRATOS

    ELETRÔNICOS 

  • Data: 21/05/2008
  • Mostrar Resumo
  • Comunicação e Coordenação são desafios enfrentados atualmente por equipes localizadas em projetos descentralizados de desenvolvimento de software. Tais problemas são agravados pelas distâncias geográficas e culturais entre as equipes e organizações envolvidas. Estudos empíricos descritos na literatura mostram que mesmo em diferentes modelos organizacionais, problemas similares afetam tanto clientes quanto fornecedores, tais como: acompanhamento da situação do projeto, proteção de informações, coordenação de projetos e gerência de contratos. Este trabalho descreve uma abordagem peer-to-peer para troca de dados sobre a execução de atividades como apoio à coordenação descentralizada de processos, com base na monitoração de eventos gerados durante a execução dos processos e no controle de acesso e acordos entre cliente e fornecedor. Assim, são discutidas quais características organizacionais citadas na literatura são atendidas pelas funcionalidades do protótipo atual aqui descrito. Por fim, este texto apresenta uma discussão sobre os diferencias e limitações deste trabalho, e apresenta direcionamentos para investigações futuras neste campo de estudo. 

  • ROMULO MAGALHAES DE SOUSA
  • Aplicação de Redes Neurais artificiais na geração de cenários de representação da dimensão humana na conservação do meio ambiente

  • Data: 17/04/2008
  • Mostrar Resumo
  • A complexidade e a incerteza inerentes ao sistemas ambientais, e a intervenção do homem sobre estes, dificultam a construção de cenários de representação da dimensão humana em projetos de pesquisa ambiental. A utilização de modelos matemáticos clássicos para tratar a complexidade e a incerteza pode levar à construção de cenários com distorções e fracamente formilados. Este trabalho propõe um modelo computacional que utiliza Redes Neurais Artificiais (RNAs), uma técnica da Inteligência Computacional, para construção de um cenário de representação da capacidade de convervação do meio ambiente dos indivíduos residentes em um núclo populacional localizado em uma bacia hidrográfica. Foram utilizadas duas RNAs distintas. A primeira, uma RNA multicamadas direta treinada com o algoritmo de retropropagação que gera um indicador antrópico. Este representa o comportamento ambiental de um indivídu, a partir da análise do seu perfil socieconômico pelo especialista ambiental. A segunda, uma RNA de Kohonen, ou Mapa Auto-Organizável, que, através de um processo de clusterização, busca características intrísecas a estes indivíduos para identificar similaridade de características, a partir do seu perfil socieconômico, utilizando um algoritmo de aprendizagem competitivo. Com o conhecimento adquirido pelas duas RNAs é construído um cenário que possibilita a visualização espacial da situação da comunidade em relação a sua capacidade de conservação do meio ambiente. Este cenário possibilita uma análise em diferentes escalas, auxiliando pesquisadores e tomadores de decisão na compreensão da realidade, possibilitando o direcionamento de novas investigações sobre o objeto de estudo, e a priorização na definição de medidas de conservação do meio ambiente.  

2007
Descrição
  • CESAR SIQUEIRA DE OLIVEIRA
  • EDACLUSTER: UM ALGORITMO EVOLUCIONÁRIO PARA ANÁLISE DE AGRUPAMENTOS BASEADOS EM DENSIDADE E GRADE 

  • Data: 14/09/2007
  • Mostrar Resumo
  • Este trabalho faz um estudo sobre os métodos e algoritmos convencionais e evolucionários de Análise de Agrupamentos e propõe o EDACluster. Trata-se de um Algoritmo Evolucionário baseado nos Algoritmos de Estimativa de Distribuição (EDA) usado para otimizar a busca por grupos em bases de dados. O algoritmo proposto utiliza um método de agrupamento híbrido para avaliar grupos identificados segundo um critério de densidade onde os itens estão dispostos em um espaço quantizado, uma grade multidimensional. A saída do algoritmo é uma lista dos itens com seus respectivos grupos associados. Este trabalho utiliza quatro bases de domínio público para avaliar o algoritmo proposto. Os resultados do EDACluster são comparados ao DBSCAN (um algoritmo de agrupamento convencional baseado em densidade) em termos de tempo de processamento e qualidade dos agrupamentos identificados. 

  • JEFFERSON MAGALHAES DE MORAIS
  • Estudo de Algoritmos para Classificação de Séries Temporais: Uma Aplicação em Qualidade de Energia Elétrica 

  • Data: 24/08/2007
  • Mostrar Resumo
  • Este trabalho se concentra na classificação automática de faltas do tipo curto-circuito em linhas de transmissão. A maioria dos sistemas de transmissão possuem três fases (A, B e C). Por exemplo, um curto-circuito entre as fases A e B pode ser identificado como uma falta “AB”. Considerando a possibilidade de um curto-circuito com a fase terra (T), a tarefa ao longo desse trabalho é classificar uma série temporal em uma das 11 faltas possíveis: AT, BT, CT, AB, AC, BC, ABC, ABT, ACT, BCT, ABCT. Estas faltas são responsáveis pela maioria dos distúrbios no sistema elétrico. Cada curto-circuito é representado por uma sequência (série temporal) e ambos os tipos de classificação, on-line (para cada curto segmento extraído do sinal) e off-line (leva em consideração toda a sequência), são investigados. Para evitar a atual falta de dados rotulados, o simulador Alternative Transiente Program (ATP) é usado para criar uma base de dados rotulada e disponibilizada em domínio público. Alguns trabalhos na literatura não fazem distinção entre as faltas ABC e ABCT. Assim, resultados distinguindo esse dois tipos de faltas adotando técnicas de pré-processamento, diferentes front ends (por exemplo wavelets) e algoritmos de aprendizado (árvores de decisão e redes neurais) são apresentados. O custo computacional estimado durante o estágio de teste de alguns classificadores é investigado e a escolha dos parâmetros dos classificadores é feita a partir de uma seleção automática de modelo. Os resultados obtidos indicam que as árvores de decisão e as redes neurais apresentam melhores resultados quando comparados aos outros classificadores.

  • RICARDO MELO CASSEB DO CARMO
  • MVC-RA: Múltiplas Visões Coordenadas em Ambientes de Realidade Aumentada 

  • Data: 20/08/2007
  • Mostrar Resumo
  • A proposta desta dissertação versa sobre aplicar as características de um ambiente de realidade aumentada, tais como: interação fácil e intuitiva, e grande espaço para visualização de dados, na implementação, interação e visualização de múltiplas visões de dados coordenadas. As múltiplas visões de dados permitem que o usuário realize uma melhor análise dos dados sobre diferentes aspectos, e a coordenação entre as múltiplas visões tem o objetivo de diminuir a sobrecarga cognitiva conferida ao usuário. O ambiente aumentado foi concebido através do ARToolKit, a interação se dá através de uma interface baseada em cartões marcadores. A técnica implementada foi Dispersão de Dados 3D, acompanhada de uma diversidade de filtros e configurações para as visões de dados. Por fim, são apresentados alguns ensaios de usabilidade preliminares do protótipo desenvolvido. 

SIGAA | Centro de Tecnologia da Informação e Comunicação (CTIC) - (91)3201-7793 | Copyright © 2006-2024 - UFPA - castanha.ufpa.br.castanha1