Pular para o conteúdo
Nas últimas décadas, a área de Visão Computacional tem se utilizado do aprendizado de máquina como forma de avançar no estado da arte de diversos problemas. No entanto, os estudos em casos de deformações não rígidas ainda carecem de datasets robustos para seu avanço. Este trabalho apresenta o Nonrigid Image Matching Benchmark, um conjunto de dados sintéticos projetado para superar essas limitações, utilizando um pipeline de simulação fotorealista e fisicamente plausível para gerar deformações temporalmente consistentes. Benchmark inclui uma diversidade de objetos, texturas, iluminações e níveis de deformação. Adicionalmente, são abordados conceitos fundamentais para o entendimento dos problemas relacionados ao tópico de deformação de objetos não rígidos e sobre a correspondência de imagens que é a tarefa foco do dataset. Além da criação do conjunto, foi introduzida uma métrica de registro de superfície baseada no algoritmo ARAP(as-rigid-as-possible) para avaliar métodos de correspondência de maneira geométrica e contínua em 2D e 3D, superando limitações de outros métricas tradicionais. Foi realizada uma avaliação de uma miríade de métodos dentro do conjunto de testes do dataset que constatou a degradação significativa de desempenho em ambientes desafiadores, ressaltando assim, a relevância do conjunto. Este trabalho fornece um recurso valioso e um framework de avaliação para pesquisas futuras na temática.

Polyhedral optimizations play a central role in improving the performance of loop-intensive programs, yet existing tools such as Pluto, LLVM Polly, and the MLIR Affine dialect rely on heterogeneous infrastructures, input formats, and compilation pipelines. This fragmentation hinders reproducible experiments and fair comparisons across polyhedral frameworks. To address these challenges, we introduce Kiriko, a unified and automated benchmarking infrastructure designed to systematically evaluate polyhedral optimizers under consistent experimental conditions. Kiriko  integrates multiple toolchains into a single workflow, providing end-to-end support for optimization, lowering, compilation, and  execution. A key contribution of this work is the creation of a complete  PolyBench suite rewritten in the MLIR Affine dialect, enabling native  experimentation with MLIR-based transformations. Using Kiriko, we  conduct a comprehensive performance study of Clang, Polly, Pluto, and  MLIR Affine across the PolyBench benchmarks, collecting both execution  times and hardware performance counters. The results demonstrate the variability of existing polyhedral approaches and highlight the importance of standardized infrastructures for advancing research in loop optimization. Overall, Kiriko establishes a reproducible  foundation for developing, comparing, and analyzing modern polyhedral optimization techniques.

—Seismic facies segmentation is a fundamental task in subsurface interpretation, yet the high cost and subjectivity of manual labeling severely limit the availability of annotated data for training supervised models. Few-Shot Semantic Segmentation (FSSS) provides a promising alternative by enabling segmentation from a small number of annotated examples, but its application to seismic data remains underexplored and sensitive to the spatial properties of seismic volumes. In this work, we investigate the combined impact of spatial data partitioning and support sample locality on FSSS for seismic facies interpretation.
We evaluate four representative few-shot segmentation models, PANet, PFENet, HSNet, and ASNet, under a controlled 1-way 1-shot setting using two 3D seismic datasets, Parihaka and Penobscot. Two partitioning strategies are considered: dense sub volumes (Large Rectangular Prisms) and sparse global sampling (Equally Distant Slices), together with two support selection modes: unrestricted sampling and locality-constrained sampling from the same seismic slice as the query. Experimental results demonstrate that enforcing support locality consistently improves segmentation performance across models and datasets. Moreover, combining sparse global partitioning with locality-aware support selection achieves competitive or superior performance while substantially reducing annotation effort. Our analysis further reveals notable differences in model robustness under severe class imbalance, highlighting the importance of domain-aware episodic design for reliable few-shot seismic facies segmentation.

Esse trabalho apresenta uma introducão ao problema do “esquecimento catastrófico”, suas consequências e como a utilizacão de redes neurais artificiais que incorporem mecanismos observados no cérebro podem ajudar a resolver esse problema e melhorar a eficiência no treinamento destes modelos.

A esgrima olímpica é um esporte de combate que combina técnica, velocidade e precisão, praticado hoje com o apoio de aparelhos eletrônicos responsáveis por registrar os toques válidos, marcar a pontuação e controlar o tempo de combate. Esses aparelhos, porém, ainda são majoritariamente cabeados: fios conectam as armas ao aparelho central e à estrutura da pista, o que torna a montagem trabalhosa, exige um espaço dedicado exclusivamente à prática e encarece a implantação de novas pistas em clubes e escolas.

Este trabalho apresenta o desenvolvimento e a avaliação de um sistema de controle de toques para esgrima olímpica, com foco inicial na arma espada, baseado em comunicação sem fio e de baixo custo. A solução é implementada sobre microcontroladores ESP32 utilizando o protocolo ESP-NOW e uma máquina de estados finitos compartilhada entre servidor e clientes para modelar o fluxo do combate, incluindo inicialização, sincronização, detecção de toques simples e duplos, pausas e atualização da pontuação. O sistema integra indicadores audiovisuais e é alimentado por bateria recarregável, permitindo operação portátil em ambiente de treino sem a necessidade de cabeamento tradicional. O protótipo foi conectado a espadas reais e testado em sessões de treino, avaliando-se a conformidade com a janela temporal de detecção de toques definida pela FIE, a estabilidade da comunicação sem fio e a usabilidade da interface pelos atletas. Os resultados indicam que o sistema registra toques simples e duplos com precisão adequada, mantém sincronização confiável entre os nós e é bem aceito pelos usuários. Além disso, o custo estimado do conjunto é significativamente inferior ao de soluções comerciais sem fio, sugerindo potencial para democratizar o acesso a equipamentos de esgrima em clubes, escolas e projetos sociais, embora ainda existam desafios ligados à otimização energética e à robustez do hardware para uso prolongado.

A transparência e os dados públicos são pilares fundamentais para o fortalecimento da democracia e para o exercício pleno da cidadania. No Brasil, marcos como a Lei de Acesso à Informação e a Política de Dados Abertos impulsionaram a disponibilização de dados governamentais em formato digital. Ainda assim, barreiras técnicas e de usabilidade dificultam o acesso efetivo do cidadão comum a esses dados, especialmente quando se trata de compreender a atuação parlamentar e o uso de recursos públicos. Este TCC apresenta o desenvolvimento de uma aplicação web voltada à consolidação e visualização de informações sobre a atuação parlamentar na Câmara dos Deputados, com foco na dimensão dos gastos públicos. A solução proposta, Gasto Aberto, foi desenvolvida em 2025 e integra diferentes APIs governamentais, organizando e padronizando os dados por meio de uma API intermediária, desenvolvida em NestJS, e expõe essas informações a partir de uma interface construída com Vue 3, Quasar e Pinia. O sistema permite listar parlamentares, consultar detalhes enriquecidos de cada deputado e comparar indicadores consolidados de despesas entre dois parlamentares. Os resultados evidenciam que a combinação entre Engenharia de Software, Organização da Informação e Dados Governamentais Abertos pode reduzir significativamente as barreiras de acesso e interpretação de informações legislativas. Embora o protótipo ainda tenha limitações, sobretudo ligadas à dependência de uma única fonte externa de dados e ao recorte temporal das despesas, a arquitetura proposta se mostra replicável para outros cenários de transparência pública.

This study extends the analysis of the subreddit Desabafos by focusing on the temporal dynamics, predictive modeling, and the relationship between sentiment and user engagement in a large-scale Brazilian Portuguese online community. Using weekly and monthly time series derived from posts and comments, the research investigates the evolution of content volume, engagement patterns, and emotional distributions across the main flairs “Desabafo,” “Relacionamento,” and “Dia a Dia.” Trend and seasonal decomposition techniques were applied to identify long-term growth patterns and recurring seasonal behaviors. Univariate forecasting models, including ARIMA and Prophet, were employed to predict posting volume, engagement, and sentiment proportions, with Prophet achieving superior predictive performance. Additionally, multivariate time series models were used to evaluate the influence of sentiment on engagement. The results indicate strong temporal trends and seasonal effects, moderate predictive performance for engagement, higher accuracy in sentiment forecasting, and limited but context-dependent influence of sentiment on user engagement. These findings contribute to a deeper understanding of collective emotional expression and interaction dynamics in anonymous online environments.

Recent advances in AI music (AIM) generation services are currently transforming the music industry. Given these advances, understanding how humans perceive AIM is crucial both to educate users on identifying AIM songs, and, conversely, to improve current models. We present results from a listener-focused experiment aimed at understanding how humans perceive AIM. In a blind, Turing-like test, participants were asked to distinguish, from a pair, the AIM and human-made song. We contrast with other studies by utilizing a randomized controlled crossover trial that controls for pairwise similarity and allows for a causal interpretation. We are also the first study to employ a novel, author-uncontrolled dataset of AIM songs from real-world usage of commercial models (i.e., Suno). We establish that listeners’ reliability in distinguishing AIM causally increases when pairs are similar. Then, we conduct a mixed-methods content analysis of listeners’ free-form feedback, revealing a focus on vocal and technical cues in their judgments. Lastly, we conducted a comparative analysis of the vocal tracks, which revealed distinct differences between the human and AI performances.

As software systems continue to grow in size and complexity, efficient compilation strategies have become increasingly critical. Existing approaches, such as incremental and distributed compilation, offer significant performance improvements but are typically implemented as external tools layered on top of traditional compilers. This project presents a Distributed Compiler Architecture for the Eilenberg programming language, which is inspired by Category Theory. Unlike conventional distributed build systems that merely coordinate remote compilation tasks, the proposed architecture integrates both incremental and distributed compilation directly into the compiler’s core design. By parallelizing all compilation phases, including lexical, syntactic, and semantic analysis, optimization, and code generation, the architecture aims to enhance scalability, efficiency, and overall performance for large-scale applications. This work details the architecture’s components, describes their interactions, and outlines the implementation plan for its primary elements.

Este trabalho propõe SoccerEventSpotNet, um arcabouço para produção de soluções para a tarefa de classificação automática de tipos de eventos decorridos em vídeos de futebol. Além do repositório gerado, o projeto apresenta duas outras contribuições principais: a criação de um banco de dados de vídeos de jogos de futebol associados à dados de evento com 55 vídeos de jogos completos que referenciam mais de 90 mil eventos únicos e a definição da tarefa de classificação de vídeos de futebol dentre tipos de eventos pré-definidos tanto dentre 10 classes, onde foi gerado um modelo com acurácia de 0.693 e acurácia no top 3 de 0.946, quanto dentre 36 classes, onde for gerado um modelo com acurácia de 0.517 e acurácia no top 3 de 0.777, determinando um baseline para a tarefa definida.

Resumo: Este trabalho avalia abordagens de modelagem preditiva para variáveis geometalúrgicas chave: recuperação metalúrgica (REC) e Bond Work Index (BWI). Utilizando dados geoquímicos e mineralógicos de um depósito mineral. Três estratégias são comparadas: um modelo global utilizando o algoritmo XGBoost Regressor treinado em todo o conjunto de dados, e duas abordagens segmentadas com modelos locais treinados separadamente em clusters definidos por K-means e por Agglomerative Clustering com restrição espacial. Os resultados mostram que os modelos segmentados superam discretamente o modelo global, com melhorias substanciais no coeficiente de determinação (R²), bem como reduções no erro absoluto médio (MAE) e no erro quadrático médio (RMSE). O modelo baseado em Agglomerative Clustering apresentou o melhor desempenho geral para ambas as variáveis-alvo, destacando a contribuição da segmentação espacial para capturar padrões locais e aprimorar a acurácia preditiva na modelagem geometalúrgica. Esses achados reforçam a importância de considerar a heterogeneidade espacial na modelagem preditiva de depósitos minerais.

Este trabalho aborda o desenvolvimento de uma game engine de baixo nível (SDL/C++), voltada ao gênero vertical scroller shoot’em up, como um estudo de caso prático para desenvolvedores independentes brasileiros. Considerando a expansão da indústria nacional, o projeto explora metodologias eficazes e acessíveis, priorizando ferramentas open source e gratuitas. A arquitetura implementada é baseada no padrão Ator-Componente, utilizando o paradigma orientado a eventos para desacoplamento e um sistema de configuração que permite a criação de conteúdo (níveis e inimigos) via arquivos JSON, desvinculando design do código-fonte C++. O Produto Mínimo Viável (MVP) obtido demonstrou a escalabilidade e a manutenibilidade da engine. Conclui-se que a solução desenvolvida oferece uma base técnica robusta e de código aberto para futuros trabalhos na comunidade acadêmica, reforçando a viabilidade do desenvolvimento indie com foco em engenharia de software no contexto brasileiro.

—Este documento apresenta a metodologia e a metrica utilizada para encontrar ”buracos” no elenco de um time da National Basketball Association (NBA). A metrica criada pode ser usada tanto para identificar problemas no elenco, que podem ser abordados durante a temporada, ou na temporada seguinte, como tambem identificar virtudes do elenco. Os dados foram coletados a partir de fontes como a ESPN e o repositorio hoopR-data, abrangendo as temporadas de 2018 a 2024. A preparacao dos dados envolveu a integracao das fontes e a derivacao de ”shifts” para a analise de formacoes em quadra, bem como o calculo da Win Probability Added (WPA) para cada jogador. A analise exploratoria inicial revelou padroes na distribuicao de vitorias, indicando uma leve vantagem para times da casa, e na frequencia de substituicoes ao longo do jogo e prorrogacoes. A aplicacao da WPA revelou dois fortes vieses, sendo muito sensivel tanto a jogadores que passaram pouco tempo em quadra, quanto ao contexto de elenco das equipes, tendendo fortemente a 0. Isso motivou a proposicao de uma segunda metrica, chamada de Contribuicao relativa, que mostrou-se mais adequada para o contexto, sendo o ponto central de uma metodologia simples e clara para o apontamento de virtudes e defeitos de elencos na liga.

O cenário contemporâneo de cibersegurança é marcado por um aumento contínuo no volume, na sofisticação e no impacto dos ciberataques. Tais ameaças podem causar danos severos às organizações, incluindo perdas financeiras, prejuízos à reputação, vazamento de informações sensíveis e interrupção das operações.

Neste contexto, este trabalho apresenta uma metodologia prática e faseada para a implementação de um Computer Security Incident Response Team (CSIRT) eficaz e de baixo custo, denominado “CSIRT Acessível”. A proposta se fundamenta na utilização estratégica de um conjunto de ferramentas de código aberto, integradas e orquestradas para fornecer capacidades robustas de resposta a incidentes de segurança.

This research presents a focused evaluation of the quality of unit tests generated by the OpenAI GPT-4 model for the JavaScript programming language. The study is conducted using Unit Cloud Gen, a platform developed to automate the generation and analysis of tests. The work concentrates on a corpus of problems from LeetCode, specifically chosen to assess the LLM’s performance on code of varying complexity, with the objective of identifying where the model succeeds and where it fails. The evaluation goes beyond traditional code coverage, incorporating metrics such as fault detection capability, readability, and maintainability. The tests are executed in isolated Docker containers, and the results are stored for analysis and benchmarking. This study aims to identify the strengths and limitations of GPT-4 in generating tests for algorithmic problems, providing a foundation for improving the reliability and efficiency of AI-assisted test generation. generation.

A consolidação dos Grandes Modelos de Linguagem (LLMs), exemplificada pelo GPT-4 e Gemini 3, ampliou drasticamente a capacidade da IA, mas agravou proporcionalmente o problema da “caixa-preta”. Embora a macroestrutura de modelos autorregressivos seja conhecida, os mecanismos algorítmicos internos permanecem opacos devido a fenômenos emergentes como a polissemia neural e a superposição. A literatura atual fragmenta-se entre paradigmas de treinamento (fine-tuning vs. prompting) ou limita-se à dicotomia clássica de acesso aos parâmetros (black-box vs. white-box). Tais abordagens mostram-se insuficientes para capturar a profundidade cognitiva e o propósito epistêmico das novas metodologias.

Este trabalho sistematiza o estado da arte ao propor uma Taxonomia Multidimensional estruturada em dois eixos: (1) Nível de Abstração Cognitiva, distinguindo métodos Computacionais, Representacionais e Mecanicistas; e (2) Propósito Epistêmico, diferenciando abordagens Descritivas, Causais, Intervencionais e Verificáveis. Sob esta ótica, reavaliamos métodos como Sparse Autoencoders e Induction Heads, demonstrando a aplicabilidade da taxonomia através de um estudo de caso na plataforma Neuronpedia. Os resultados indicam uma transição da área para uma ciência intervencionista, complementar à engenharia de representações, focada não apenas em descrever, mas em controlar o comportamento do modelo.

Modern software systems rely heavily on thirdparty libraries, making automated dependency management tools increasingly important. Dependabot is widely adopted to create pull requests (PRs) that update vulnerable or outdated dependencies; however, many of these PRs are closed without merge, and it is unclear to what extent their changes are later reproduced manually by developers. This paper reports an empirical study on manual rework following rejected Dependabot updates. We mined Java repositories hosted on GitHub, selected by activity and maturity thresholds, and collected Dependabot pull requests closed without merge. For each pull request, was extracted type of update (major, minor, or patch) and number of dependencies updated, and use PyDriller to analyze commits to the main branch within time windows of 30, 60, and 90 days after PR closure. A commit that updates the same dependency is classified as manual rework. Our results show that 10.05% of closed Dependabot PRs are followed by manual rework on the same dependencies, with an average delay of about 15 days. Patch updates exhibit a higher rework rate than minor or major updates, and PRs touching more dependencies tend to suffer more rework. In contrast, repository size/age show no clear correlation with mnual rework, while repositories with 4 until 10 contributors present low rework rate. These findings provide evidence on when automated dependency updates are effectively leveraged, when they are overridden by developers, and which project profiles are more prone to manual rework.

Esta pesquisa investigou os subgrupos de pacientes hospitalizados com diferentes perfis de risco no desenvolvimento da Insuficiência Renal Aguda (IRA) utilizando técnicas de descoberta de subgrupos (SD) aplicadas a dados retrospectivos de 76.957 internações do Kansas Medical Center, onde 9,4% dos casos apresentaram quadros clínicos de IRA. Foram analisadas 233 variáveis distribuídas em sete categorias. O total de 205 variáveis clínicas foi selecionado para processamento por meio do algoritmo SSDP+, que identificou 15 subgrupos com distribuições de risco não usuais para IRA, todos validados estatisticamente. Os padrões encontrados foram estratificados com relação à taxa de incidência de IRA em três categorias: alto risco (≥40% de incidência), risco moderado-alto (25–39%) e risco moderado (10–24%). Alguns marcadores comuns encontrados nos padrões identificados incluem quadros clínicos com a presença de Diabetes Mellitus, fibrose cística e infecções respiratórias. A insuficiência cardíaca emergiu como um fator de risco central, presente em 7 subgrupos. Observou-se que interações entre comorbidades, como hipertensão e insuficiência cardíaca, geram efeitos de amplificação do risco que não são capturados em análises univariadas. Esses achados permitem um melhor entendimento da necessidade de intervenções preventivas direcionadas a populações específicas.