Pular para o conteúdo

Liveness Aware Memory Allocator for Honey Potion

Abstract. Honey Potion is a project developed by the Laboratory of Compilers of UFMG with the objective of making eBPF technology accessible. However, dealing with eBPF brings a severe limitation: 512 bytes of stack. This project proposes and implements a smart allocator that is liveness aware to circumvent that limitation. As a result, memory usage has reduced to 44.6% on average and over 5% in the best scenarios when compared to the original implementation across 24 benchmarks.

More about Honey Potion can be found in Dwctor’s youtube channel [Dwc] and in Honey Potion’s github repository [Lab].

A seleção e otimização de modelos para previsão de séries temporais é uma tarefa complexa que tradicionalmente exige conhecimento especializado e esforço manual. Este trabalho propõe e avalia o uso de algoritmo genético evolucionário em conjunto com Large Language Models(LLMs). Para isso, três abordagens foram desenvolvidas e comparadas: (i) um algoritmo genético clássico, que utiliza operadores estocásticos de seleção, crossover e mutação; (ii) um algoritmo genético com evolução guiada por LLM com uma estratégia definida no prompt, onde o LLM é responsável por gerar a população cada geração; e (iii) algoritmo genético com evolução guiada por LLM com estratégia livre. Também foram usados LLMs para gerar e corrigir o código dos modelos de maneira eficaz. Os experimentos indicam a capacidade dos LLMs de atuar como agente de evolução, obtendo resultados próximos ao estado da arte para o dataset analisado.

Este estudo investiga a confiabilidade do modelo TrafficGPT, uma abordagem baseada em Large Language Model (LLM), para classificação de tráfego criptografado, migrando do cenário tradicional de closed set (em que todas as classes são conhecidas no treinamento) para o de open set (em que o modelo pode encontrar classes nunca vistas e deve ser capaz de identificá-las como desconhecidas). Com foco na detecção de ataques zero-day, isto é, ataques que exploram vulnerabilidades até então desconhecidas e que frequentemente se valem de tráfego criptografado, ocultando sua carga maliciosa enquanto mantêm a comunicação aparentemente legítima.

Este trabalho analisa a relação entre a confiabilidade do GPT-2 (base do TrafficGPT) e a classificação open set, visando contribuir para a redução da efetividade desses ataques. Embora o TrafficGPT apresente desempenho promissor na identificação de padrões de tráfego conhecidos e desconhecidos, sua arquitetura exibe superconfiança estrutural, frequentemente gerando previsões excessivamente confiantes mesmo para dados fora da distribuição de treinamento. Para mitigar essa limitação, aplica-se a técnica de Temperature Scaling, que recalibra as probabilidades de saída ajustando a escala dos logits por meio do parâmetro de temperatura T, otimizado via algoritmo L-BFGS-B. O modelo foi treinado exclusivamente com tráfego benigno do conjunto CICIDS2017 e avaliado com a porção contendo ataques simulados, emulando assim um ambiente sob ataque zero-day. Os resultados indicam que, embora o Temperature Scaling tenha evidenciado a necessidade de calibrar as confiança do modelo, ele não impactou significativamente o desempenho do classificador K-LND em cenário de open set — o qual opera com base em medidas de distância geométrica, e não em saídas probabilísticas. Isso sugere que melhorias na detecção em open set podem exigir ajustes não apenas na calibração de confiança, mas também nas representações vetoriais internas do modelo e nas métricas de distância empregadas. Por fim, o trabalho ressalta a importância da confiabilidade e da calibração de modelos baseados em LLMs para aplicações críticas de cibersegurança, visando uma detecção mais robusta de ataques zero-day.

Para visualização dos pôster, clique aqui: visualizar

Sistemas Multi-Robôs (MRS) são cada vez mais utilizados em aplicações como vigilância, monitoramento ambiental e busca e salvamento, onde maximizar as recompensas da missão sob restrições orçamentárias é crucial. O Problema de Orientação em Equipe (TOP) fornece uma estrutura para otimizar a cobertura de tarefas e a alocação de recursos nesses cenários. No entanto, as formulações tradicionais do TOP frequentemente negligenciam restrições do mundo real, como alcances de comunicação limitados e a necessidade de conectividade persistente entre os robôs. Essas restrições são particularmente relevantes em ambientes como zonas de desastre e áreas remotas, onde a infraestrutura de comunicação é instável ou inexistente. Para abordar essa lacuna, propomos uma heurística híbrida de otimização multiobjetivo que equilibra a cobertura de tarefas, a qualidade da comunicação e o gasto de energia sob um orçamento fixo. Nossa abordagem acomoda equipes de qualquer tamanho e veículos heterogêneos com velocidades variáveis ​​e empuxo constante. Validamos nossa abordagem por meio de extensos experimentos em diversos cenários e configurações de equipe.

O PSOMA é um aplicativo mobile desenvolvido com o objetivo de auxiliar usuários a identificar padrões em seu cotidiano e compreender como diferentes hábitos influenciam seu bem-estar físico, mental e emocional. O projeto propõe uma ferramenta leve, intuitiva e personalizável, permitindo o registro diário de diversos aspectos da rotina (como sono, alimentação, humor, ansiedade e produtividade) e oferecendo análises visuais que revelam relações entre esses dados ao longo do tempo. O desenvolvimento incluiu pesquisa com potenciais usuários, definição de requisitos, criação de identidade visual, prototipação e implementação de um MVP funcional em Flutter, com armazenamento local e possibilidade de criação de aspectos customizados. O PSOMA busca promover autoconhecimento, reduzir sobrecarga cognitiva e apoiar práticas de autocuidado a partir de uma abordagem centrada no indivíduo.

Este trabalho apresenta o desenvolvimento de uma solução focada na gestão segura e eficiente de interações simultâneas em casas inteligentes, um desafio crescente diante da popularização de dispositivos IoT e do uso compartilhado por múltiplos usuários. O projeto parte da identificação de problemas reais relacionados à concorrência, segurança e inconsistências comportamentais em ambientes domésticos conectados, especialmente quando diferentes usuários interagem com o mesmo dispositivo ao mesmo tempo. Com base nesse cenário, foi desenvolvido um módulo de detecção e resolução de conflitos integrado ao ambiente ZASH, uma arquitetura de controle de acesso baseada em Zero Trust e comportamento de usuários, executado no simulador NS-3. A solução proposta estende o sistema original ao incorporar mecanismos capazes de identificar e tratar conflitos concorrentes e paralelos, considerando o contexto e as Atividades da Vida Diária (ADL) para produzir decisões mais confiáveis. A avaliação do módulo foi realizada por meio de simulações com diferentes cenários de uso, permitindo identificar padrões de conflito, validar a abordagem adotada e demonstrar o potencial da solução para tornar ambientes inteligentes mais seguros, consistentes e adaptados ao comportamento real dos usuários.

Abstract—Selecting an appropriate spatial resolution for aggregating fine-grained geospatial point data remains a key challenge in spatial analysis, particularly when aiming to remain agnostic to the downstream task. Building upon the framework proposed by Ramos, this paper introduces a distribution-free robustness metric based on normalized entropy, designed to avoid parametric assumptions and capture the heterogeneity of spatial configurations. We also assess the impact of binning strategies on the entropy calculation, comparing the classical binning methods to a data-driven approach based on the frequency of count values. Additionally, we also extended the method to higher dimensions, in order to incorporate temporal information. Our experiments confirm that the proposed metric behaves as expected: rising with granularity and inversely correlated with spatial uniformity. These findings support the method’s applicability to a wide range of spatial point patterns and motivate further investigation into its role in mitigating the Modifiable Areal Unit Problem (MAUP).

Muitas vezes, artistas de jogos se deparam com tarefas mais repetitivas e mecânicas, que ocupam esforços que poderiam estar sendo usados em atividades criativas. Sendo assim, este trabalho se propõe a investigar um editor web de Pixel Art integrado a modelos de aprendizado profundo utilizados para geração de sugestões de imagens de personagens. Nossa metodologia envolve a aplicação de pesquisa de usuário para levantamento de requisitos e validação de hipóteses, da implementação de novas ferramentas básicas de edição, e uma investigação acerca de possíveis otimizações nos modelos geradores utilizados pela interface, baseados nas arquiteturas StarGAN e CollaGAN. Os resultados da nossa pesquisa de usuário demonstram um conjunto mínimo de ferramentas consideradas de alta importância para a edição de Pixel Art e sugerem que artistas de jogos reconhecem, em suas atividades diárias, espaços para integrações com modelos de redes profundas, com ressalvas acerca da natureza da interação e com foco em manter o protagonismo do usuário nas decisões e nas artes geradas. Por sua vez, as técnicas de otimização investigadas nos modelos integrados ao editor possibilitaram a obtenção de melhores resultados em relação aos modelos de base nos cenários avaliados. Concluímos que o uso de editores como o proposto, integrado a modelos generativos via interação mista com o usuário, pode apoiar artistas de jogos em suas tarefas. Mais ainda, as investigações realizadas nos modelos mostram que técnicas de quantização diferenciável e de perda de cobertura de paleta de cores favorecem a convergência e a sintetização de imagens em modelos StarGAN, enquanto a ampliação de imagens como pré-processamento possibilita resultados análogos em modelos da arquitetura CollaGAN, considerando os hiperparâmetros e as configurações utilizadas.

Pôster do trabalho

Minas Gerais abriga um ecossistema de inovacao vasto e diversificado com milhares de atores distribuidos por todo o estado. Entretanto, as informacoes sobre esses agentes encontram-se dispersas em multiplas fontes, com diferentes niveis de atualizacao e padronizacao, o que dificulta o uso desses dados para analises, identificacao de oportunidades de colaboracao entre os atores e o desenvolvimento de acoes de impacto. O Projeto Orientado em Computacao I (POC I), desenvolvido no semestre anterior, concentrou-se na coleta, no tratamento e na classificacao de dados de atores do ecossistema segundo as missoes da politica industrial Nova Industria Brasil (NIB), a partir da base do Sistema Mineiro de Inovacao (SIMI). No POC II, buscou-se a unificacao dos dados heterogeneos de multiplas fontes para a criacao de uma plataforma integrada que permitisse explorar o ecossistema de inovacao mapeado de forma unificada e estruturada. Para isso, consolidaram-se dados provenientes de quatro fontes distintas em um banco relacional, normalizando-os e organizando a caracterizacao dos atores segundo a perspectiva da helice triplice. Sobre essa base consolidada, aplicou-se uma nova classificacao conforme as missoes da Nova Industria Brasil (NIB) e implementou-se um conjunto de servicos que deram origem à plataforma desenvolvida como parte do programa Tem Base! [1] — iniciativa do BH-TEC que visa conectar infraestrutura de pesquisa, setor produtivo e politicas publicas para impulsionar a inovacao no estado. A entrega final compreende um dashboard interativo com painel para adicao de novos registros e uma interface de matchmaking entre pesquisadores, constituindo uma ferramenta estrategica que viabiliza a identificacao de competencias, gargalos e oportunidades para acelerar a transferencia de tecnologia e fortalecer a inovacao em Minas Gerais.

Histopatologia é o campo de estudo das doenças por meio da análise de tecidos, principalmente por meio do uso de lâminas. Com o desenvolvimento de técnicas de histopatologia digital, soluções de Diagnóstico Auxiliado por Computador (CAD) foram se tornando viáveis. Especificamente, a histopatologia digital foca no processamento e análise de imagens de lâminas histológicas inteiras, processo também conhecido como Whole Slide Imaging (WSIs)[1]. Por meio de scanners automáticos é possível a captura de diversas lâminas inteiras para WSIs. O resultado são imagens de altíssima resolução, comumente de 50K ×50K até 100K ×100K pixels[2]. Desde 2004, técnicas de WSIs têm sido amplamente utilizadas em CAD [1], focando em soluções de segmentação, detecção e identificação de características celulares.
Soluções de CAD são de grande importância, pois reduzem o custo de análise de imagens de tecido, tarefa laborosa que necessita de profissionais treinados, algo que pode ser escasso. No âmbito de pesquisa, soluções de CAD são desenvolvidas para auxiliar na identificação de padrões não-óbvios nessas lâminas a um custo razoável [1]. Naturalmente, soluções de WSI se baseam em algoritmos de visão computacional e processamento de imagens.
Nesse domínio estão as operações morfológicas, que são uma classe importante de ferramentas de processamento de imagem, computadas em pixels individuais e sua vizinhança (geralmente componentes 4/8-conectados) usando uma abordagem complexa baseada em preenchimento (flood-filling). Exemplos dessas operações incluem reconstrução morfológica, máximos regionais, rotulagem de componentes conectados, transformada de distância e watershed [3, 4]. Elas são usadas em diversos domínios, incluindo a análise de imagens de patologia digital, que são nosso foco. O alto custo de processamento dessas operações tem historicamente limitado avanços no uso de WSIs. Acelerar essas operações é crucial para estudos de câncer, a fim de permitir a análise rápida de grandes conjuntos de dados [5, 1, 6, 7] com objetivo, por exemplo, de identificar padrões espaciais complexos celulares e sua correlação com sobrevida ou resposta a tratamento de pacientes [8].

Este trabalho apresenta o desenvolvimento da CaronaUFMG, a Plataforma de Conexão para Caronas e Companhia entre Estudantes da UFMG. Uma solução tecnológica projetada para mitigar os desafios de mobilidade urbana e insegurança enfrentados pela comunidade acadêmica. O projeto partiu de uma investigação com 93 estudantes, que validou a demanda por um sistema exclusivo baseado na confiança institucional. Com base nesses dados, foi desenvolvida uma aplicação móvel utilizando React Native e Firebase, contemplando funcionalidades de caronas veiculares e grupos para trajetos a pé. A solução foi submetida a testes de usabilidade com usuários reais, cujos feedbacks permitiram refinamentos de interface e fluxo, resultando em um Produto Mínimo Viável (MVP) funcional que promove uma alternativa de transporte solidária, econômica e segura.

Este trabalho apresenta o desenvolvimento de uma API Web integrada à plataforma Peering, com o objetivo de automatizar experimentos de roteamento BGP por meio do uso de prefixos públicos previamente alocados. A solução permite que usuários autorizados interajam com a infraestrutura da plataforma via interface RESTful, com controle de acesso, escalonamento de tarefas e execução remota de experimentos por meio de containers Docker. Testes realizados em ambiente de desenvolvimento validaram o funcionamento completo da solução, que visa aumentar a acessibilidade, agilidade e escalabilidade da plataforma.

This work is a continuation of a previous one, where we found an ad-hoc method for identifying who might have chronic insomnia by certain genetic markers. In this paper we delve further into the issue and find those relevant markers with more in-depth analysis of their impact on the algorithm

A administração das finanças pessoais representa um desafio significativo para grande parte da população. Mesmo com a vasta disponibilidade de informações sobre educação financeira, muitas pessoas encontram dificuldades em acompanhar seus gastos de forma contínua e em compreender os padrões de consumo que afetam seu equilíbrio financeiro. A complexidade de ferramentas tradicionais, a falta de tempo e a sobrecarga de informações são barreiras que dificultam uma gestão eficaz.
Paralelamente, a evolução dos modelos de inteligência artificial, especialmente os baseados em linguagem natural, abriu novas fronteiras para a interação entre usuários e sistemas. Assistentes virtuais, capazes de dialogar de forma semelhante à humana, permitem uma relação mais simples, fluida e personalizada com dados complexos, como os financeiros. Diante desse cenário, este trabalho se debruçou sobre o seguinte problema central: apesar da variedade de aplicativos para controle de gastos, poucas soluções oferecem uma experiência verdadeiramente personalizada e conversacional. A maioria das ferramentas exige que o usuário se adapte a gráficos e painéis de interpretação técnica e genérica. Este problema conduz à questão central que norteou a investigação: “Como desenvolver uma interface web que permita a visualização dos dados financeiros pessoais e, ao mesmo tempo, ofereça um assistente inteligente capaz de interpretar esses dados e responder, em linguagem natural, às dúvidas do usuário sobre sua vida financeira?”
Responder a essa questão não apenas preenche uma lacuna tecnológica, mas também transforma a relação do usuário com suas finanças, tornando-a mais próxima de um diálogo inteligente e acessível.

A garantia de qualidade em sistemas de software é uma preocupação constante para engenheiros de softwares, especialmente à medida que as aplicações se tornam mais complexas e integradas. Nesse contexto, os frameworks de teste, como Pytest, Jest e Cypress, emergiram como ferramentas essenciais, permitindo a automação de testes e ajudando a assegurar a integridade e a funcionalidade dos sistemas. Estes frameworks são frequentemente complementados por uma variedade de plugins que estendem suas funcionalidades, adaptando-se a necessidades específicas de projetos e ambientes de desenvolvimento. Apesar da importância desses plugins, há uma lacuna significativa na literatura e nos estudos empíricos focados na análise e no uso efetivo dessas extensões.
Diante desse cenário, este trabalho se debruçou sobre o seguinte problema central: “Apesar da ampla utilização de frameworks de teste em desenvolvimento de software, pouco se sabe sobre quais plugins são mais utilizados, por que são escolhidos e como impactam a eficácia dos testes em ambientes de desenvolvimento modernos.”
Este problema conduz à questão central que norteou a investigação: “Quais são os plugins mais utilizados nos frameworks de teste Pytest, Jest e Cypress e por que esses plugins são preferidos pelos desenvolvedores e engenheiros de teste?”
Responder a essa questão não apenas preenche uma lacuna no conhecimento existente, mas também fornece uma base empírica para a seleção de ferramentas de teste, contribuindo para a melhoria da qualidade e eficiência no desenvolvimento de software. Além disso, a compreensão dos fatores que influenciam a escolha desses plugins pode oferecer diretrizes valiosas para o desenvolvimento de novas extensões que melhor atendam às demandas contemporâneas do mercado de tecnologia.

This study examines the evolution of the global football transfer market from 1990 to 2022 using social network analysis to understand structural changes driven by external events. Data from Transfermarkt were used to construct temporal graphs at five-year intervals, based on change point detection to capture both short- and long-term dynamics. Key metrics were calculated to identify constant and disruptive agents, and to correlate external events with shifts in network structure.
Countries like France, Germany, Switzerland, and Belgium remained central over time, while the U.S., Brazil, Portugal, China, and Russia emerged as disruptive agents due to legislative, economic, or political changes. The Bosman ruling (1995) was a pivotal event, liberalizing the European market and promoting a more integrated network. Overall, the study shows that network analysis is a powerful tool for understanding the complex, globalized nature of the football transfer market.

Este artigo aborda o problema do emparelhamento desconexo, uma variação NP-Completa do clássico problema de emparelhamento em grafos. O foco é o refinamento e a otimização de modelos de Programação Linear Inteira (PLI) e Programação com Restrições (CP-SAT).

Partindo de formulações base, uma série de otimizações foram sistematicamente implementadas e avaliadas. Isso incluiu o ajuste de parâmetros (Big M), o enrijecimento de restrições (k = c) e a introdução de diferentes abordagens para quebra de simetria.

Os resultados experimentais demonstram que, enquanto as otimizações no modelo de PLI apresentaram um impacto misto ou negativo, as mesmas estratégias no modelo CP-SAT, particularmente as restrições de quebra de simetria, levaram a um ganho de desempenho significativo. A formulação final com CP-SAT se estabeleceu como a abordagem mais robusta e eficiente, sendo capaz de resolver instâncias previamente intratáveis dentro do tempo limite.

O xadrez, tem sido historicamente um campo de interesse para cientistas da computação, tornando-se um laboratório para avanços em algoritmos de busca e avaliação. Atualmente verificamos vasta superioridade das engines de xadrez frente aos humanos, mas a explicabilidade permanece como fraqueza prática, dado que os motores de xadrez costumeiramente falham em fornecer justificativas compreensíveis ao raciocínio humano. Essa limitação dificulta seu uso como ferramenta pedagógica. Este projeto propõe o desenvolvimento de uma engine de xadrez forte com foco em explicabilidade, visando articular, de forma inteligível, os fundamentos por trás de cada recomendação posicional ou tática. Para isso integramos heurísticas tradicionais e categorizamos padrões de movimento com bases em categorias pré-estabelecidas para tornar a análise final mais acessível, útil e alinhada com o processo de aprendizado humano no xadrez.