Universidade Federal de Pernambuco (UFPE)
Centro de Informática (CIn)
Graduação em Ciência da Computação, Engenharia da Computação, e Sistemas de
Informação
Trabalhos de Graduação - 2021.2
Ciência da Computação
Responsável: (@cin.ufpe.br)
Engenharia da Computação
Responsável: Prof. Divanilson Campelo (@cin.ufpe.br)
-
Título: Desenvolvimento de software de auxílio para cadastro, visualização e análise de fundos de investimento para a Autarquia Municipal de Previdência e Assistência à Saúde dos Servidores
TG: aqui
Autor(a): ADRIANO NASCIMENTO DE SANTANA
Curso: Engenharia da Computação
Orientador(a): Sílvio de Barros Melo
Possíveis Avaliadores: Kiev Santos da Gama
Resumo da Proposta: A autarquia municipal de previdência e assistência à saúde dos servidores (AMPASS), tem a missão de garantir previdência e assistência à saúde dos servidores do município de Recife, possibilitando assegurar aos servidores públicos titulares de cargo efetivo os benefícios de aposentadoria e pensão por morte. A partir deste objetivo foi criado o fundo previdenciário RECIPREV, o qual tem a finalidade de acumulação de recursos para pagamento dos compromissos definidos no plano de benefícios do RPPS da prefeitura da cidade do Recife. Os gestores da RECIPREV responsáveis pelo cadastro e análise de fundos de investimento, possuíam um trabalho exaustivo de planilhas e uma série de documentos, em linha com a inclusão de tecnologias no processo de gestão de informação e de análise de dados de investimos, a AMPASS e a UFPE celebraram um convênio de pesquisa, desenvolvimento e inovação para a automatização dos processos anteriormente citados. Para tanto, foram desenvolvidos softwares com o propósito principal de auxiliar os usuários a cadastrar fundos de investimentos e instituições ligadas aos fundos de investimentos, visualização, análise dos dados e emissão de informações para compor relatórios de forma a contribuir para a escolha dos fundos de investimento. O objetivo geral deste trabalho visa descrever técnicas e métodos utilizados para o desenvolvimento do projeto e os resultados obtidos ao término das atividades do convênio. Para tanto, serão descritos passos do desenvolvimento de uma aplicação web que atualmente é utilizada pela equipe de gestão de investimentos da RECIPREV.
-
Título: Uma ferramenta para visualização de dados referentes à evasão no âmbito dos cursos de graduação do Centro de Informática - UFPE
TG: aqui
Autor(a): ALEXANDRE VICTOR DE ARAUJO OLIVEIRA
Curso: Engenharia da Computação
Orientador(a): Marcio Cornélio Lopes
Possíveis Avaliadores: Carla Taciana Lima Lourenco Silva
Resumo da Proposta: O sistema educacional brasileiro apresenta índices de evasão que chamam atenção, especificamente nos cursos de graduação do ensino superior, em que há o emprego de grande parte dos recursos públicos. Esse fenômeno pode ser evidenciado a partir de dados, que por sua vez possuem utilidade na elaboração de políticas públicas ou privadas de melhorias na gestão acadêmica. Todavia, esses dados geralmente são expostos em planilhas e sua funcionalidade fica limitada, razão pela qual esse trabalho propõe a construção de uma ferramenta que requisita arquivos no formato .csv para a seguir disponibilizar as informações vigentes em gráficos, garantindo uma melhor visualização das informações. A metodologia de desenvolvimento adotada envolve a utilização do Next.js para cumprir o papel geral da construção do software, em conjunto com algumas bibliotecas e ferramentas da linguagem de programação JavaScript e com o emprego de uma função encarregada de calcular, no presente trabalho, a evasão no âmbito dos três cursos de graduação do Centro de Informática (CIn) da UFPE. Esse procedimento possibilitou a entrega de gráficos contendo dados da taxa de evasão dos referidos cursos por período de ingresso-período de evasão, demonstrando quais são os intervalos mais sensíveis à ocorrência do evento estudado.
-
Título: Reflexos do Cenário Pandêmico no Novo Workplace dos Desenvolvedores de Software do Porto Digital em Recife: O Trabalho Remoto e seus Desafios
TG: aqui
Autor(a): AMANDA ISABEL GOMES OLIVEIRA COSTA
Curso: Engenharia da Computação
Orientador(a): Hermano Perrelli de Moura
Possíveis Avaliadores: Simone Cristiane dos Santos
Resumo da Proposta: A pandemia do novo coronavírus (COVID-19) exigiu mudanças no ambiente de trabalho (workplace) e antecipou tendências que eram previstas
para acontecer no longo prazo. Empresas precisaram se adaptar a um novo modelo de trabalho e, para dar continuidade às atividades, o home office tornou-se uma alternativa e sua adoção quase uma regra. Visando entender este cenário nas empresas de TI, esse artigo busca realizar um estudo sobre o novo workplace dos desenvolvedores de software que compõem o Porto Digital, na cidade do Recife. Foi realizado um levantamento, por meio de uma pesquisa de opinião, trazendo os impactos positivos e negativos das mudanças realizadas, como isso afetou os desenvolvedores envolvidos e uma perspectiva para o futuro pós pandemia.
-
Título: Space-efficient representation of de Bruijn graphs for data streams
TG: aqui
Autor(a): AUGUSTO SALES DE QUEIROZ
Curso: Engenharia da Computação
Orientador(a): Paulo Gustavo Soares da Fonseca
Possíveis Avaliadores: Nivan Roberto Ferreira Junior
Resumo da Proposta: Background Since the introduction of the second generation of DNA sequencing technologies, improving assembly efficiency has become critical to match the high-throughput of data. A major bottleneck is the memory needed to represent de Bruijn graphs, an essential structure in modern assemblers. Improving this representation involves finding a memory-efficient way of representing a set of k-mers, which are sequences of a fixed length k, as well as filtering out sequencing errors from the input reads generated by the sequencers.
Objectives In this work we address these two problems to develop a de Bruijn graph represen- tation that faithfully represents the k-mers in the sequenced genome while leaving out spurious parts affected by sequencing errors. Not only we want our representation to have a good sensi- tivity to specificity ratio, but we also strive to make it space and time-efficient.
Methods We propose and implement a pipeline based on two new probabilistic representations of the de Bruijn graph, the CountMin-based DBCM and the hashtable-based DBHT, which aims at filtering k-mers obtained from the reads based on frequency and connectivity to other k-mers, and representing only high-quality k-mers in a succint manner. We then applied out method to a realistic dataset based on a microbial genome.
Results We show that DBCM can be used to effectively filter over 80% of spurious k-mers from the reads based on count alone, and can then be traversed to further remove erroneous k-mers based on connectivity, filtering over 95% of spurious k-mers in total. We then represent the remaining k-mers in a DBHT, requiring between 9 and 16 bits per k-mer, while allowing for constant time insertion and query. We show that even with 9 bits per k-mer, the number of false positive k-mers is still less than 16% of the total graph.
Conclusion We conclude that connectivity-based filtering through traversal is very effective in filtering spurious k-mers from the reads beyond frequency-based filtering and can efficiently be done by the DBCM. We also achieve a very good compromise of memory usage and insertion and query time with the DBHT by using a single hashing function.
-
Título: Formalização em Coq de execução de testes para ioco
TG: aqui
Autor(a): BEATRIZ ALVES BARROS DE SOUZA
Curso: Engenharia da Computação
Orientador(a): Gustavo Henrique Porto de Carvalho
Possíveis Avaliadores: Juliano Manabu Iyoda
Resumo da Proposta: Por softwares estarem cada vez mais presentes na sociedade, a preocupação acerca de sua qualidade e confiabilidade tem aumentado, principalmente quando se trata de sistemas críticos. Apesar de testes terem demonstrado ser uma etapa crucial da produção de um software, a forma como são criados e executados traz riscos e custos, em particular, por serem realizados de maneira manual. Técnicas de model-based testing (MBT) aparecem como uma forma de alterar esse contexto, proporcionando a criação e a execução de testes de forma automatizada. Porém, averiguar a corretude destas ferramentas, que são softwares desenvolvidos por humanos, também é um motivo de preocupação. Com a motivação de aliviar essa preocupação, surgem abordagens formais de geração e execução automática de testes, onde é possível provar a sua corretude e completude. Continuando os trabalhos de Sobral (2019) e Santana (2020), os quais formalizaram em Coq conceitos associados à teoria formal de testes ioco, este trabalho mecaniza o processo de execução de testes proposto por Tretmans (2008).
-
Título: DirectVoxGO++: Fast Object Reconstruction Using Neural Radiance Fields
TG: aqui
Autor(a): DANIEL RODRIGUES PERAZZO
Curso: Engenharia da Computação
Orientador(a): Veronica Teichrieb
Possíveis Avaliadores: Carlos Alexandre Barros de Mello
Resumo da Proposta: One of the most classic problems in computer vision, 3D reconstruction aims to build a 3D model of an object or scene given a series of views. In recent years, new reconstruction techniques based on Neural Radiance Fields (NeRFs) have created new forms to model objects instead of the traditional mesh and point cloud-based representations, allowing for more photorealistic rendering. However, these techniques were too slow to be used in practical settings, taking in the range of hours in high-end GPUs. Due to these limitations, new techniques have been created for fast reconstruction of scenes, such as DirectVoxGO. Alongside this limitation, one issue with NeRFs is that they were initially unable to separate the foreground from the background and had problems with 360◦ until the emergence of new techniques such as NeRF++. Our method extends DirectVoxGO, which is limited to bounded scenes, with ideas from NeRF++ and incorporates elements from a neural hashing approach employed by other works. Our technique improved photorealism compared with DirectVoxGO and Plenoxels on a subset of the LF dataset on average in at least 2%, 8% and 8% for PSNR, SSIM, and LPIPS metrics respectively, while also being an order of magnitude faster than NeRF++.
-
Título: TRUSS BRIDGES CREATION AND STRUCTURAL MASS OPTIMIZATION WITH EVOLUTIONARY ALGORITHM
TG: aqui
Autor(a): HUGO LISPECTOR
Curso: Engenharia da Computação
Orientador(a): Paulo Salgado Gomes de Mattos Neto
Possíveis Avaliadores: George Darmiton da Cunha Cavalcanti
Resumo da Proposta: Trusses are structures that consist of straight members connected by joints located at their endpoints. This type of structure is one of the most used for engineering applications and studies regarding computational optimization of trusses have become very popular recently, with hundreds of publications every year.
One of the main uses of trusses are bridges. In this project, an application that is able to generate and optimize planar truss bridges using an evolutionary algorithm was developed. This research focuses on the minimization of structural mass through a search of design variable concerning topology and shape. An intuitive and friendly graphical user interface interface was also created allowing users to visually set parameters of the desired bridge to be optimized.
After multiple experiments, it was possible to demonstrate that the developed algorithm was converging into feasible solutions. Moreover, the developed system has the potential to give insights and help architects and engineerings in their truss bridges design projects.
-
Título: ANPS - Software com som anticonvulsivante para dispositivos móveis destinado para pacientes com Epilepsia
TG: aqui
Autor(a): IRALINE NUNES SIMOES
Curso: Engenharia da Computação
Orientador(a): Kiev Santos da Gama
Possíveis Avaliadores: Robson do Nascimento Fidalgo
Resumo da Proposta: Epilepsia é uma doença crônica. É caracterizada por uma alteração temporária do funcionamento do cérebro, causada por uma desordenação dos sinais e impulsos elétricos emitidos pelos neurônios. De acordo com a Associação Brasileira de Epilepsia, a incidência destes casos é de uma a duas a cada 100 pessoas, sendo um dos distúrbios neurológicos crônicos mais comuns. A epilepsia não tem cura, mas pode ser tratada com a utilização de medicações específicas. Quando o uso de medicações não é o suficiente para impedir estas crises é chamado de Epilepsia Refratária, que abrange cerca de 30% dos indivíduos que possuem epilepsia, segundo a Epilepsy Foundation of America. O tratamento para os pacientes que possuem Epilepsia Refratária é individualizado caso a caso, mas alguns podem ser invasivos e oferecer riscos, além de não garantir o sucesso quando realizados. Perante a necessidade de tratamentos alternativos para o controle da Epilepsia Refratária, o Grupo de Neurodinâmica UFPE desenvolveu um som utilizando a técnica de estimulação não-periódica baseada na estimulação acústica binaural. Com o propósito de montar um diário de crises do paciente e o paciente conseguir realizar o tratamento sem precisar se locomover, foi desenvolvido um aplicativo para celular intitulado Acoustic Non-Periodic Stimulation (ANPS), no qual o paciente pode escutar diariamente o som desenvolvido e inserir informações relacionadas as suas crises. Este trabalho tem como objetivo apresentar o determinado software.
-
Título: A escolha de uma estratégia de onboarding para novos membros em uma equipe de engenharia de software
TG: aqui
Autor(a): ISMAEL RUFINO ALVES JUNIOR
Curso: Engenharia da Computação
Orientador(a): Fabio Queda Bueno da Silva
Possíveis Avaliadores: André Luís de Medeiros Santos
Resumo da Proposta: Onboarding é o processo que um novo membro de uma equipe passa ao chegar nesta, de modo a se ambientar com ferramentas, cultura, conexão com a equipe, padrões de projetos ou formato de tarefas no time. Diante disso, algumas empresas realizam esse processo sem pensar muito nos seus novatos, deixando a desejar em aspectos que são importantes serem trabalhados, como a parte mental, motivacional dentre outros. É possível que dados esses pontos, uma empresa consiga realizar bem um processo de onboarding, visando ambientar o novo funcionário de maneira eficiente. Foram feitas pesquisas para apoiarem na construção dessa ideia, e com isso buscar melhorar essa escolha da estratégia.
-
Título: DETECÇÃO E RASTREAMENTO DE CAPACETES EM JOGADAS DE FUTEBOL AMERICANO UTILIZANDO FASTERRCNN, YOLOV5 E DEEPSORT
TG: aqui
Autor(a): JUAN CARLO HENRIQUE DOS SANTOS
Curso: Engenharia da Computação
Orientador(a): Tsang Ing Ren
Possíveis Avaliadores: George Darmiton da Cunha Cavalcanti
Resumo da Proposta: Com o advento e avanço das redes sociais e plataformas de streaming, o futebol americano ganhou grande popularidade nos últimos anos. A popularização do esporte, enfatiza para o mundo tanto os pontos positivos quanto os negativos do esporte. Um dos pontos negativos são os constantes contatos entre os capacetes de jogadores. Esses contatos podem causar concussões, que prejudicam não só a longevidade e qualidade na carreira profissional dos atletas, mas também nas suas vidas pessoais depois da aposentadoria. Este trabalho propõe a detecção de capacetes em imagens de jogadas de futebol americano através da comparação entre as técnicas de Deep Learning, FasterRCNN e Yolov5, além do rastreamento em vídeos de jogadas utilizando a técnica DeepSort, de forma a ajudar na identificação do contato entre capacetes. Ele mostra que a Yolov5 consegue um mAP 14% maior que a FasterRCNN e que o rastreamento com o DeepSort funciona melhor com classes de objetos com variação estática.
-
Título: Ômega Grey Wolf Optimizer: Uma melhoria para o Grey Wolf Optimizer adicionando lobos Ômega à caçada
TG: aqui
Autor(a): KEVIN ANDREWS MARQUES SILVA
Curso: Engenharia da Computação
Orientador(a): Paulo Salgado Gomes de Mattos Neto
Possíveis Avaliadores: Tsang Ing Ren
Resumo da Proposta: A computação bioinspirada é um campo de estudo que busca compreender padrões da natureza e utilizá-los para resolução de problemas. O Grey Wolf Optimizer (GWO) é um algoritmo inspirada pelo comportamento de caça dos lobos cinzas e que pode ser utilizada em problemas de otimização global, ajuste de parâmetros de técnicas de aprendizagem de máquina, processamento de imagens, aplicações médicas e de bioinformática, entre outras.
Este trabalho propõe uma melhoria na área de exploração desse algoritmo, a partir de uma versão modificada do GWO, chamada Ômega Grey Wolf Optimizer (OGWO) que utiliza lobos ômega nos grupos de caça dos lobos cinzas. São executados testes com 22 benchmarks e os resultados são comparados com outras 5 heurísticas, verifica-se que os resultados são competitivos e por vezes superiores aos algoritmos usados para comparação.
-
Título: Análise de parâmetros de algoritmos de seleção dinâmica na previsão de série temporais
TG: aqui
Autor(a): LEANDRO DE ANDRADE MOURA
Curso: Engenharia da Computação
Orientador(a): Paulo Salgado Gomes de Mattos Neto
Possíveis Avaliadores: Adriano Lorena Inácio de Oliveira
Resumo da Proposta: Abordagens de seleção dinâmica têm sido aplicadas com sucesso no contexto de séries temporais. Um dos aspectos importantes para se obter uma alta acurácia é a coleção de preditores, que deve ser diversa o suficiente para os modelos gerarem diferentes previsões, mas não ao ponto de ser aleatória, pois eles precisam ter um bom desempenho. Outro aspecto crucial é o critério para realizar a seleção do preditor a ser utilizado na previsão do padrão de teste. Para isto, é preciso escolher qual métrica e quantidade de vizinhos tem maior afinidade com a coleção de preditores e o conjunto de dados que está sendo previsto. Este trabalho utiliza Algoritmo Genético para buscar uma coleção de preditores a ser utilizada em uma abordagem de seleção dinâmica e indicar quais métricas e quantidades de vizinhos têm maior afinidade com a coleção encontrada. Este trabalho mostra que a seleção dinâmica é altamente suscetível à escolha destes parâmetros.
-
Título: Impacto da autogestão do aprendizado em Challenge Based Learning
TG: aqui
Autor(a): MARIA EDUARDA SOUZA OLIVEIRA DE SENNA
Curso: Engenharia da Computação
Orientador(a): Cristiano Coelho de Araujo
Possíveis Avaliadores: Patrícia Cabral de Azevedo Restelli Tedesco
Resumo da Proposta: Este trabalho de graduação descreve a aplicação em uma turma de alunos de um método para autogestão do aprendizado adaptado do Scrum dentro de um ciclo de aprendizado Challenge Based Learning (CBL). O propósito é auxiliar os estudantes a gerenciarem de forma autônoma objetivos de aprendizado: declarações do que o aluno espera saber, compreender e/ou ser capaz de aplicar após a conclusão do processo de aprendizagem. Este trabalho também apresenta uma primeira versão de um ToolKit para autogestão do aprendizado baseado na aplicação do método proposto.
O método consiste na adaptação das etapas do Scrum e nas etapas adicionais seguintes: Definição de Objetivos de Aprendizagens associados a metas, Priorização dos Objetivos de Aprendizagens, Planejamento da Sprint, Reunião diária, Revisão da Sprint e Retrospectiva e será aplicado em um grupo de alunos de um projeto do Centro de Informática. Além disso, o presente estudo traz uma análise de possibilidades de melhorias para o método e perspectivas para trabalhos futuros.
-
Título: Estudo comparativo entre ferramentas de automação via RPA
TG: aqui
Autor(a): PAULO DIOGENES SILVA SALGADO FILHO
Curso: Engenharia da Computação
Orientador(a): Carlos Andre Guimaraes Ferraz
Possíveis Avaliadores: Breno Alexandro Ferreira de Miranda
Resumo da Proposta: O mundo vive um processo de digitalização sem precedentes, soluções digitais para problemas do dia a dia não são novidades, mas foram potencializadas de forma quase impositiva devido à pandemia. Atualmente, processos que exigem presença física estão cada vez mais decadentes: Processos jurídicos, consultas médicas e até mesmo boa parte dos trabalhos tradicionais hoje em dia possuem algum correlato digital, e assim como funciona no meio físico, no mundo digital existem várias situações de trabalho repetitivo que podem ser automatizados através do uso de robôs. Atualmente existem várias ferramentas que permitem automatizar fluxos de trabalho na internet, verdadeiras empresas são construídas ao redor dessas soluções. Duas destas ferramentas são as bibliotecas: Puppeteer.Js e Selenium. O objetivo deste trabalho é fornecer um estudo comparativo entre estas duas tecnologias, apontando pontos positivos e negativos e indicando em que situações poderá haver vantagem para alguma delas.
-
Título: Um estudo sistemático sobre o impacto da adequação à General Data Protection Regulation (GDPR) pelas Organizações
TG: aqui
Autor(a): PEDRO HENRIQUE FRANCO MACHADO
Curso: Engenharia da Computação
Orientador(a): Jessyka Flavyanne Ferreira Vilela
Possíveis Avaliadores: Carla Taciana Lima Lourenco Silva, Mariana Maia Peixoto
Resumo da Proposta: Contexto: a União Europeia foi pioneira na regulamentação do tratamento de dados pessoais ao implementar o Regulamento Geral sobre a Proteção de Dados, do inglês General Data Protection Regulation (GDPR). Entretanto, para atingir a conformidade com a lei GDPR, mudanças organizacionais precisam ser realizadas como, por exemplo, definir procedimentos de revisão, executar auditorias internas, elencar times responsáveis pelo cumprimento e formular políticas de atuação. Objetivo: compreender o impacto da adequação à GDPR pelas Organizações, analisando relatos de experiência, investigando o estado da arte, identificando as áreas afetadas e metodologias utilizadas. Método: a metodologia proposta para este trabalho foi uma Revisão Sistemática da Literatura. Resultados: após a execução da Revisão Sistemática da Literatura, foi possível compreender o impacto da adequação à GDPR pelas Organizações, identificando as áreas afetadas, os desafios encontrados e os métodos, tecnologias e práticas utilizadas. Conclusões: pode-se concluir que este trabalho contribuiu para o estado da arte e da prática com a obtenção de um panorama do processo de adequação e respectivo impacto gerado pela GDPR nas Organizações. A partir dessas informações, torna-se possível a identificação das áreas que sofreram um maior impacto com a legislação, dos desafios principais encontrados e o que foi mais utilizado como forma de mitigação para esses problemas identificados. Além disso, conseguiu-se identificar áreas que apresentaram problemas, mas ainda não encontraram nenhum tipo de solução para esses, o que pode estar evidenciando segmentos que precisam de uma maior atenção neste momento.
-
Título: An Analysis of CIAGAN Use on Face Expression Preservation
TG: aqui
Autor(a): PEDRO KEMPTER BRANT
Curso: Engenharia da Computação
Orientador(a): Veronica Teichrieb
Possíveis Avaliadores: Hansenclever de Franca Bassani
Resumo da Proposta: Data privacy is an increasing concern in the Big Data era. For instance, deep learning models, such as Facial Expression Recognition (FER), need personal information as inputs, pre- cisely photos or videos, to extract emotion expression. Although these systems demand sensitive data, these applications do not have to violate people’s identity and privacy. Anonymization techniques can be applied before the face analysis. Thus, the desired application can still process the essential data while the user’s ID is not compromised. To preserve the user’s ID, an emerging group of deep neural networks called Generative Adversarial Networks can, among other applica- tions, generate entirely new faces from a given photo. This work analyzes a GAN anonymization technique, CIAGAN, precisely on facial expression preservation. Our experiments use a facial expression database to be anonymized, RAF-DB, and a FER network, DAN, to evaluate CIA- GAN’s ability to preserve the original face expression. The results show that only 32.45% of the expressions were preserved when each face was classified pre and post anonymization. Moreover, we trained a CIAGAN’s model using Mediapipe’s facial landmarks instead of those recognized by Dlib, and compared qualitatively with the pre-trained model. Although not fully refined, the trained model gives insights to improve the CIAGAN on preserving facial expressions and raises a discussion on exploring new guiding information on Conditional GANs to preserve useful information after the anonymization process.
-
Título: Impedância de Entrada de Antenas Cilíndricas Embutidas
TG: aqui
Autor(a): RAFAEL MARINHO DE ARAUJO
Curso: Engenharia da Computação
Orientador(a): Odilon Maroja da Costa Pereira Filho
Possíveis Avaliadores: Stefan Michael Blawid
Resumo da Proposta: Antenas cilíndricas embutidas são antenas impressas sobre dielétricos que preenchem cavidades em condutores cilíndricos. Elas têm propriedades mecânicas que diminuem o arrasto em aplicações aeroespaciais, além de propriedades elétricas como baixo acoplamento entre elementos de um conjunto. Já antenas híbridas, possuem 2 de suas arrestas aterradas, garantindo a propriedade extra de baixa polarização cruzada. Esta propriedade é importante em sistemas que utilizam multiplicidade de polarização (2 sinais ocupando o mesmo espectro, em polarizações distintas). Neste trabalho, é utilizado o método numérico denominado de Método dos Momentos (MoM), implementado em Matlab, para estimar a impedância de entrada de uma antena cilíndrica embutida. Os resultados obtidos foram comparados com os obtidos por P.C Ribeiro Filho.
-
Título: Um Estudo sobre a Oclusão Espacial em Ambientes Urbanos Virtuais
TG: aqui
Autor(a): RODRIGO BELTRAO VALENCA
Curso: Engenharia da Computação
Orientador(a): Nivan Roberto Ferreira Junior
Possíveis Avaliadores: Silvio de Barros Melo
Resumo da Proposta: Explorar grandes ambientes, como cidades, é uma tarefa essencial em áreas como arquitetura e jogos. A renderização desses ambientes num modelo virtual tridimensional é de grande ajuda, criando uma experiência imersiva para o usuário, porém, devido a uma grande densidade e va- riedade de geometrias presentes, um problema comum é a oclusão de elementos. Este trabalho se propõe a estudar soluções atuais e propor novas alternativas para combater a obstrução vi- sual. Para isso, iremos combinar técnicas existentes, como raio-X e deformações cilíndricas, e também propor variantes possíveis para elas. Desse modo, esperamos melhorar a experiência de navegação e exploração dos usuários nos ambientes virtuais urbanos tridimensionais.
-
Título: Study of Path Tracing and Coherent Ray Tracing Techniques
TG: aqui
Autor(a): RODRIGO BRAYNER LYRA
Curso: Engenharia da Computação
Orientador(a): Silvio de Barros Melo
Possíveis Avaliadores: Rafael Dueire Lins
Resumo da Proposta: Memory access operations are by far the most costly on modern computer ar- chitectures. To mitigate such a problem, hardware architects have developed memory hierarchies that exploit concepts such as spatial locality and temporal locality to store recently used memory regions in fast-access memories, called cache memory. However, to take full advantage of its benefits, programmers need to organize the data and algo- rithms of their programs to access memory sequentially. So, although physically based rendering techniques have been developed since the mid-1980s, for decades the film and animation industries have used rasterization methods to render their movies. Those tech- niques process each object sequentially and ensure coherent memory access. However, such algorithm is limited to calculating only local lighting, which results in less realistic images. Recently, the increasing computational power of modern hardware, decades of research and improvements in physically based techniques and ray tracing optimizations have led the film industry to adopt physically based path tracing algorithms in their pro- ductions. Considering that such algorithms inherently cause random access to memory, the search for techniques that allow access to memory in a coherent way is one of the main research topics for the optimization of physically based methods, being the sub- ject of several approaches and techniques developed over the years. In the last decades, several techniques for parallelization, vectorization and reordering of the computations involved in path tracing algorithms have been proposed. This work aims to review some of those techniques that are important for the evolution and recent adoption of physically based rendering in major film and animation studios; as well as to describe the process of creating a path tracer developed especially in this work.
-
Título: Serenpit Editor: Experiência de co-criação humano-computador de textos para internet utilizando GPT-3
TG: aqui
Autor(a): THIAGO AUGUSTO DOS SANTOS MARTINS
Curso: Engenharia da Computação
Orientador(a): Filipe Carlos de Albuquerque Calegário
Possíveis Avaliadores: Giordano Ribeiro Eulalio Cabral
Resumo da Proposta: Os humanos já utilizaram diferentes formas de comunicação ao longo do tempo, sejam elas textuais, auditivas, visuais ou audiovisuais. Um canal que cresce a cada ano é a produção textual para internet. Esse processo, normalmente envolve mais de um autor na co-criação dos textos. Entretanto, essa não é a única forma de co-criação existente para autores. Ultimamente, a interação de autores e IAs de propósito geral vêm se intensificando. Usuários escrevem prompts e as IAs dão respostas para eles. Existem modelos de inteligência artificial que conseguem produzir textos semelhantes aos de linguagem natural, como o GPT-3 da OpenAI. Nesse trabalho vamos entender sobre o estado da arte de geração automática de textos utilizando inteligência artificial e realizar um experimento de co-criação humano-IA para criação de textos para internet, utilizando o formato de blog como base.
-
Título: Análise SWOT de Serviços Financeiros Descentralizados
TG: aqui
Autor(a): VITOR CRISOSTOMO MELLIA
Curso: Engenharia da Computação
Orientador(a): Valeria Cesario Times
Possíveis Avaliadores: Hermano Perrelli de Moura
Resumo da Proposta: As finanças descentralizadas, também conhecidas como DeFi, correspondem a um sistema de serviços financeiros descentralizados construídos na blockchain, que se propõem a democratizar as finanças centralizadas, por fornecerem uma gama completa de serviços financeiros, sem a necessidade de intermediários, para qualquer pessoa ao redor do mundo, que possua acesso à internet.
Assim, o presente trabalho tem como principal objetivo fazer uma análise crítica acerca do potencial dos serviços ofertados nas finanças descentralizadas, investigando se eles oferecem reais benefícios ou apenas as mesmas vantagens dos serviços ofertados nas finanças centralizadas.
Ademais, a metodologia utilizada na realização desse trabalho envolveu uma pesquisa bibliográfica composta por quatro etapas: (1) Revisão da literatura para estabelecer os conceitos básicos necessários ao desenvolvimento desse documento; (2) A realização de um estudo comparativo entre os trabalhos existentes e relacionados ao tema proposto nesse TCC; (3) A exposição dos serviços ofertados nas finanças descentralizadas, comparando-os com os serviços ofertados nas finanças centralizadas; (4) A realização de uma análise SWOT, visando apresentar os principais pontos fortes, pontos fracos, oportunidades e ameaças das finanças descentralizadas.