Abstract—This project developed an AI model to predict how well Triple-Negative Breast Cancer will respond to chemotherapy by analyzing medical images. The study found that while a model using only standard H&E stained images works, its performance dramatically improves when combined with images of specific biomarkers (Ki-67 and PHH3). The most successful approach used an “attention map” created from these biomarkers to help the AI focus on the most critical regions of the tissue, achieving a high prediction accuracy (AUC of ~0.96). Ultimately, the work confirms that this combined strategy is highly effective and suggests that “virtual staining”—using AI to computationally create these valuable biomarker images—is a promising direction for future research to make this technology more accessible and scalable.
Resumo—Este projeto desenvolveu um modelo de IA para prever quão bem o Câncer de Mama Triplo-Negativo responderá à quimioterapia, analisando imagens médicas. O estudo descobriu que, embora um modelo usando apenas imagens padrão coradas com H&E funcione, seu desempenho melhora drasticamente quando combinado com imagens de biomarcadores específicos (Ki-67 e PHH3). A abordagem de maior sucesso usou um “mapa de atenção” criado a partir desses biomarcadores para ajudar a IA a focar nas regiões mais críticas do tecido, alcançando uma alta precisão de predição (AUC de ~0.96). Por fim, o trabalho confirma que essa estratégia combinada é altamente eficaz e sugere que a “coloração virtual” (virtual staining) — o uso de IA para criar computacionalmente essas valiosas imagens de biomarcadores — é uma direção promissora para pesquisas futuras, a fim de tornar essa tecnologia mais acessível e escalável.
Abstract
This work presents the development of a multimodal deep learning system aiming to predict depression from audio and textual data extracted from clinical interviews. The project began with the validation of facial emotion recognition models, which achieved accuracies of up to 84%. Subsequently, we developed models for depression prediction alongside topic-based data augmentation techniques. Our main contribution is a multimodal model that achieved an F1-Score of 83.04% in the binary classification task (depressed vs. non-depressed). For the more complex task of predicting PHQ-8 severity scores, the model obtained a Mean Absolute Error (MAE) of 4.99, a result that is competitive with the state-of-the-art. By effectively fusing multiple data modalities, this research validates a robust approach for the automatic detection of depression, offering a significant contribution to objective mental health diagnostics.
Resumo
Este trabalho apresenta o desenvolvimento de um sistema de aprendizado profundo multimodal para a predição de depressão a partir de dados de áudio e texto extraídos de entrevistas clínicas. O projeto iniciou-se com a validação de modelos de reconhecimento de emoções faciais, que alcançaram acurácias de até 84%. Posteriormente desenvolvemos modelos para a predição de depressão junto à técnicas de aumento de dados baseada em tópicos. Nossa principal contribuição é um modelo multimodal que alcançou um F1-Score de 83,04% na tarefa de classificação binária (depressivo vs. não depressivo). Para a tarefa mais complexa de predição dos escores de severidade do PHQ-8, o modelo obteve um Erro Absoluto Médio (MAE) de 4,99, resultado competitivo com o estado da arte. Ao fundir eficazmente múltiplas modalidades de dados, esta pesquisa valida uma abordagem robusta para a detecção automática de depressão, oferecendo uma contribuição significativa para o diagnóstico objetivo em saúde mental.
Exploramos aqui a flexibilidade das redes de caracteristica de enxame, uma arquitetura baseada na compressão do número de parametros a partir da reinterpretação da camada anterior como particulas dentro de um enxame. Esse modelo foi proposto inicialmente por Nguyen Ha Thanh, do Instituto Avançado de Ciência e Tecnologia do Japão, e obteve sucesso ser o menor modelo por ordens de magnitude e ainda sendo capaz de atingir altos niveis de acurácia. Selecionamos três problemas não abordados no artigo original, buscando avaliar a performance da arquitetura sobre condições muito distintas em termos espaciais e temporais, assim como a qualidade das soluções obtidas e a resistencia da arquitetura ao overfitting ao longo do treino.
O problema de classificação de séries temporais é recorrente em diversas áreas, como medicina, música e sismologia. Uma abordagem recente consiste em transformar séries temporais em grafos, extrair características desses grafos e, a partir delas, realizar a classificação. Nesse contexto, uma estratégia comum é o uso de Redes Neurais em Grafos (GNNs), que aprendem representações diretamente a partir da estrutura do grafo e realizam a classificação. Como alternativa, esta pesquisa propõe uma abordagem mais simples: transformar a série temporal em grafo, extrair características globais e locais, construir um vetor de atributos com essas informações e utilizá-lo como entrada para modelos clássicos de aprendizado supervisionado. O objetivo geral da pesquisa — iniciada no Projeto Orientado à Computação (POC) I e a ser continuada na POC II — é realizar uma análise comparativa entre essas duas abordagens: (i) GNNs, que realizam aprendizado diretamente sobre os grafos, e (ii) extração de features do grafo combinada com classificadores tradicionais, avaliando o desempenho de ambas na tarefa de classificação de séries temporais.
A crescente complexidade dos sistemas de software modernos torna a manutenção uma tarefa desafiadora e crítica para garantir a longevidade e adaptabilidade desses sistemas. Code smells, que são indicadores de potenciais problemas no código-fonte, podem comprometer a manutenibilidade de software ao dificultar modificações, correções e melhorias. A identificação e correção desses code smells são essenciais para reduzir custos operacionais e melhorar a eficiência do desenvolvimento. No entanto, as abordagens tradicionais de análise e refatoração de código podem ser demoradas. Com o avanço dos Modelos de Linguagem de Grande Escala (LLMs), surge a oportunidade de automatizar e potencialmente aprimorar a detecção e correção de code smells, oferecendo uma solução promissora para esse campo da Engenharia de Software.
Este estudo tem como objetivo explorar a eficácia dos Modelos de Linguagem de Grande Escala (LLMs) na resolução de code smells relacionados à manutenibilidade de software, utilizando a LLM DeepSeek. A pesquisa propõe um método que envolve a seleção de projetos .NET no GitHub, análise estática com SonarQube, e a aplicação de prompts no DeepSeek para correção dos bad smells detectados. Os resultados esperados incluem uma discussão sobre a eficácia do DeepSeek na resolução de problemas de manutenibilidade, além da análise de quais tipos de erro a LLM mais comete ao realizar esse tipo de tarefa.
Este trabalho apresenta os resultados da aplicação de Algoritmos Genéticos (AGs) para o treinamento de Redes Neurais Artificiais (RNAs) em jogos digitais, uma técnica conhecida como Neuroevolução. O trabalho foca na implementação do algoritmo NeuroEvolution of Augmenting Topologies (NEAT), que evolui tanto a topologia quanto os pesos da rede neural. Experimentos foram conduzidos em quatro jogos com diferentes níveis de complexidade: Flappy Bird, Pong, Space Shooter e Snake.
Testing Electronic Design Automation (EDA) tools hinges on the availability of benchmarks—programs written in Hardware Description Languages (HDLs) like Verilog, SystemVerilog, and VHDL. While benchmark collections exist, their diversity remains limited. This limitation is increasingly problematic given the growing demand for training large language models in the EDA domain. In order to address this challenge, this paper introduces enhancements in the variety of programs produced by ChiGen, a tool for synthesizing realistic Verilog designs. Originally developed to test Cadence Design Systems’ Jasper\textsuperscript{TM} Formal Verification Platform, ChiGen has demonstrated its capability to uncover zero-day bugs in tools such as Verible, Verilator, and Yosys. This work expands ChiGen’s capabilities to include SystemVerilog constructs such as classes, interfaces, and packages, as well as formal verification primitives like assertions, sequences, and properties. These additions significantly increase both structural diversity and the semantic representativity of the generated programs.
O objetivo deste projeto é auxiliar desenvolvedores na identificação de mudanças que possam impactar o funcionamento de bibliotecas externas utilizadas em seus projetos, por meio do desenvolvimento de uma extensão para o Visual Studio Code. A ferramenta realiza a análise de chamadas de funções no código-fonte, detectando a ausência de parâmetros considerados críticos e alertando o usuário de forma visual e contextual. Com isso, espera-se reduzir erros causados por atualizações em bibliotecas, contribuindo para a estabilidade e a manutenção do código. A proposta busca facilitar o dia a dia dos desenvolvedores, promovendo boas práticas e incentivando uma maior atenção às possíveis incompatibilidades trazidas por mudanças nas dependências externas.
A Internet das Coisas (IoT) tem revolucionado o cotidiano, conectando dispositivos e ampliando sua capacidade de comunicação e inteligência. Entretanto, o consumo energético excessivo representa um desafio crítico, especialmente em redes sem fio de baixa potência. Este trabalho explora a aplicação da Codificação Linear Aleatória em redes TSCH (Time Slotted Channel Hopping), uma abordagem que promete aumentar a eficiência energética e a robustez dessas redes. Implementações e simulações conduzidas n ambiente Contiki-NG/Cooja demonstraram que a combinação do TSCH com técnicas de codificação em rede reduz a latência e o número de mensagens trocadas, otimizando o desempenho da rede em cenários com diferentes níveis de perda de pacotes. Os resultados ressaltam a relevância dessas técnicas para redes IoT, incentivando sua avaliação em ambientes físicos.
Este trabalho investiga a propagação de estereótipos brasileiros em ferramentas de geração de imagens por texto, com foco nos modelos DALL·E 3, Imagen 3 e Stable Diffusion 3.5. A pesquisa analisa como estereótipos culturais, sociais e regionais do Brasil são perpetuados em imagens geradas, mesmo a partir de prompts neutros. Utilizando 17 prompts baseados em representações estereotipadas e contextos neutros, foram geradas 340 imagens para cada modelo, que foram submetidas a análises qualitativas e quantitativas.
Para a avaliação quantitativa foram adotadas duas abordagens, uma pesquisa com participantes que julgou o grau de estereótipo das imagens e uma análise experimental de similaridade entre embeddings visuais extraídos pelo modelo CLIP. Os resultados da pesquisa indicam que os modelos DALL·E 3 e Stable Diffusion 3.5 foram avaliados como mais estereotipados enquanto o Imagen 3 apresentou um desempenho relativamente mais neutro. Já a análise baseada em CLIP revelou discrepâncias em relação à avaliação humana, sugerindo que essa métrica pode não capturar integralmente as nuances dos estereótipos presentes nas imagens.
O estudo discute os impactos sociais desses vieses, como o fortalecimento de preconceitos e a redução de grupos a representações simplistas, além de propor reflexões sobre o desenvolvimento de tecnologias de geração de imagens mais inclusivas e éticas. Adicionalmente, aponta para a necessidade de métodos complementares e mais específicos para a análise quantitativa dos vieses em modelos generativos.
Os Large Language Models (LLMs) têm ganhado destaque por sua capacidade de gerar textos semelhantes aos produzidos por humanos, influenciando áreas como atendimento ao cliente, escrita criativa e marketing digital. No entanto, sua real capacidade criativa ainda é questionada. Este estudo investiga o potencial criativo dos LLMs comparando seus textos gerados com os de autoras literárias consagradas, como Katherine Mansfield, Virginia Woolf e Elizabeth Bowen. A análise é realizada por meio de métricas baseadas em tokens, sintáticas e geométricas, permitindo avaliar padrões estilísticos e complexidade linguística. Os resultados mostram que, embora os LLMs consigam produzir narrativas coerentes e estilisticamente consistentes, apresentam menor diversidade lexical e originalidade em relação aos textos humanos. Além disso, análises geométricas de embeddings indicam que os textos gerados ocupam um espaço representacional mais restrito, reforçando a hipótese de que a criatividade assistida por IA ainda possui limitações. Este trabalho contribui para a compreensão da criatividade gerada por IA e sugere direções para pesquisas futuras, como a ampliação do conjunto de autores e a exploração aprofundada de métricas sintáticas.
No contexto de jogos online, um fenômeno recente e bastante criticado é a inserção de microtransações, lootboxes e afins, de modo a incentivar os jogadores a gastarem dinheiro real ao colocá-los em posição semelhante à de um apostador em um cassino online.
Entretanto, existe um gênero de jogos onde esse tipo de comportamento não só é normalizado como também é o atrator principal: são os gachapons, ou simplesmente gachas. A palavra tem sua origem no japonês 嘎查 (gāchá), se referindo originalmente às maquininhas de vendas de brinquedos nos quais são inseridas uma moeda e retira-se um prêmio aleatório.
Nesse tipo de jogo, o usuário depende fortemente de sorte para conseguir atingir algum objetivo específico: seja desbloquear um personagem que ele deseja, melhorias para os personagens que já tem ou avançar em estágios do jogo, em algum momento se deparará com uma barreira, onde precisará trocar uma certa quantidade de moedas do jogo por uma chance de conseguir o que deseja.
O modelo de negócios se torna bastante simples: uma vez que o usuário esgota as moedas que conseguiu jogando, existirá uma chance de que não tenha atingido seus objetivos. Nesse momento, precisará escolher entre desistir ou gastar dinheiro real para ter mais tentativas. Além disso, como as probabilidades tendem a ser relativamente complexas, com várias variáveis afetando o resultado da “loteria”, cria-se uma barreira, impedindo (ou desestimulando bastante) que o jogador tome uma decisão completamente informada.
Este gênero inicialmente se destacava em um nicho bem específico: o mercado de games mobile asiático. Entretanto, com o lançamento e sucesso generalizado de Genshin Impact, jogadores do mundo todo foram introduzidos a ele, não se restringindo mais apenas ao nicho original.
Este trabalho atingiu o objetivo de desenvolver uma ferramenta que auxilie o jogador deste gacha em específico a visualizar melhor as chances que ele tem de obter os itens que deseja e julgar, racionalmente, se vale a pena ou não gastar dinheiro real.
A seguir, será apresentado a estrutura do código responsável pelo cálculo dessa ferramenta e pela interface da mesma.
Nos últimos anos, a adoção dos princípios ágeis tem crescido na indústria de desenvolvimento de software, trazendo benefícios como flexibilidade e colaboração. No entanto, a falta de rastreabilidade e a subjetividade na avaliação da maturidade e qualidade das equipes dificultam a definição de metas e a identificação de melhorias. Com base em quase sete anos de experiência no setor, este trabalho propõe investigar de forma sistemática os principais fatores que influenciam essa mensuração, analisando se a ausência de uma ferramenta específica para esse propósito é um desafio recorrente para equipes ágeis. Além disso, busca-se desenvolver uma solução que permita acompanhar de forma objetiva e holística o progresso dessas equipes, auxiliando na otimização dos processos ágeis.
Este estudo analisa comentários em vídeos infantis no TikTok usando processamento de linguagem natural para identificar padrões temáticos. Através de web crawling, foram coletados 14.953.131 comentários de 18 perfis de influenciadores brasileiros. A metodologia combinou pré-processamento textual e topic modeling. Os resultados revelaram predominância de comentários curtos, alto uso de emojis (46,11%) e linguagem afetiva, fornecendo insights para o desenvolvimento de ferramentas mais eficazes de moderação de conteúdo infantil em redes sociais.
The integration of machine and deep learning models into Earth science applications has become increasingly crucial for analyzing time-series satellite data, particularly in monitoring environmental changes and land cover classification. This report presents the development and implementation of the sits_lstm_fcn function within the SITS package, an open-source R framework for satellite image time series analysis. Based on the LSTM Fully Convolutional Networks (LSTM-FCN) model, this function combines temporal convolutions and LSTM blocks to effectively capture both local temporal patterns and long-term dependencies in the data. The report details the theoretical background, model architecture, and training methodology, along with the challenges and solutions encountered during implementation. Results from experiments on multi-band satellite data demonstrate the model’s strong classification performance, achieving 85% accuracy on the valida tion dataset. By providing a user-friendly interface, this contribution expands the SITS package’s capabilities, enabling researchers to utilize advanced deep learning models with minimal programming effort.
Aluno
Nome: Lucas Nascimento Marinho
Curso: Sistemas da Informação
Orientador: Pedro Olmo
Matricula: 2018088100
Relatório final
Aplicação
A aplicação pode ser utilizada pelo link: https://monografia-ufmg-lucas.streamlit.app/
Pitch Final
Este trabalho apresenta um sistema colaborativo de multiagentes denominado Aira Chat. Ele transforma dados em linguagem natural de diferentes fontes em linguagem estruturada, integrada a sistemas de gestão, com foco em otimizar e reduzir inconsistências. Utilizando agentes LLM para interpretação e execução de tarefas, a solução proposta visa automatizar fluxos de trabalho comuns em empresas, como a gestão de contratos e cobranças.
A diversificação e o equilíbrio de portfólios são elementos essenciais para alcançar resulta dos financeiros consistentes a longo prazo. Este projeto investigou a construção de portfólios utilizando fatores no mercado brasileiro, implementando diferentes estratégias de alocação e simulando cenários variados. Fatores como Market Factor, Small Minus Big (SMB), High Minus Low (HML), Winners Minus Losers (WML) e Illiquid Minus Liquid (IML) foram calculados com base em dados primários, permitindo uma análise aprofundada e comparativa com fatores fornecidos por fontes externas, como o NEFIN. Os resultados destacaram que estratégias volta das à minimização de riscos, como o Minimum-Variance, proporcionam maior estabilidade de desempenho. Em contrapartida, abordagens que priorizam a maximização do retorno apresentam maior volatilidade. Este estudo contribui para a adaptação de modelos de precificação de ativos ao contexto brasileiro, evidenciando a relevância de bases de dados robustas e metodologias ajustadas às especificidades do mercado local.