Grafos ordenáveis por vizinhança gêmea são definidos como aqueles que admitem uma ordem de eliminação em que cada vértice a ser removido possui a propriedade de que todos os seus vizinhos são gêmeos verdadeiros. Essa classe de grafos foi introduzida recentemente, inspirada por semelhanças entre as ordens de eliminação de grafos cordais e dualmente cordais. Neste trabalho, abordamos o problema de reconhecimento para essa classe de grafos. Propomos um novo algoritmo que utiliza duas passadas de uma variante da Busca em Largura Lexicográfica (LBFS) para reconhecer grafos ordenáveis por vizinhança gêmea em tempo linear.
Este estudo apresenta uma análise de desempenho comparando Hush, uma linguagem moderna de shell script inspirada em Lua, com Python através de uma série de microbenchmarks. A pesquisa implementa dez tarefas computacionais do Computer Language Benchmarks Game em ambas as linguagens para avaliar seu desempenho relativo. Utilizando a ferramenta de benchmark hyperfine, o estudo conduziu 50 execuções com 10 rodadas de aquecimento para cada programa em um ambiente Linux. Os resultados mostram que Hush apresenta desempenho 3-10 vezes mais lento que Python em nove dos dez benchmarks, com exceção do benchmark regex-redux, onde Hush demonstrou desempenho superior. A hipótese é que esta exceção pode ser atribuída à implementação do Hush em Rust e sua biblioteca de expressões regulares. Os resultados contribuem para a compreensão das características de desempenho do Hush em comparação com linguagens de script estabelecidas.
Electrocardiograms (ECGs) play a crucial role in cardiovascular healthcare, requiring effective analytical models. ECG analysis is inherently hierarchical, involving multiple temporal scales from individual waveforms to intervals within heartbeats, and finally to the distances between heartbeats. Convolutional Neural Networks (CNNs) have demonstrated strong performance in ECG classification tasks due to their inductive bias toward local connectivity and translation invariance. In other domains, Transformers have emerged as powerful models for capturing long-range dependencies. In this regard, this paper introduces HiT-NeXt, a hybrid hierarchical model designed to capture both local morphological patterns and global temporal dependencies by combining CNNs with transformer blocks featuring restricted attention windows. The model incorporates ConvNeXt-based convolutional layers to extract local features and perform patch merging, enabling hierarchical representation learning. Transformer blocks are constrained with local attention windows and leverage relative contextual positional encoding to incorporate positional information effectively into embeddings, enhancing robustness to translations in ECG signal patterns.
Experimental results demonstrate that HiT-NeXt outperforms state-of-the-art methods on tasks including ECG abnormality classification and cardiological age prediction, achieving superior performance compared to both existing models and cardiologist evaluations
A cada dia, os jogos eletrônicos se tornam uma parte cada vez mais comum do tempo livre de muitas pessoas. A Internet desempenha um papel crucial ao facilitar a comunicação, conectando as pessoas por meio dos jogos multijogador e suas comunidades.
A competitividade é uma característica inerente à natureza humana, manifestando-se tanto em aspectos pessoais quanto em esportes tradicionais como futebol, vôlei e basquete. Essa mesma competitividade se reflete nos jogos eletrônicos e nos eSports, onde os jogadores competem em partidas amistosas ou em torneios online.
No entanto, a fragmentação de tais comunidades de jogos torna difícil a descoberta de novos torneios e a interação entre os membros da comunidade. Geralmente, os torneios organizados por essas comunidades carecem de uma estrutura adequada, limitando-se apenas ao essencial para o torneio aconteça de fato.
Dado isso, o tema desse relatório detalha uma possível solução: a criação de uma plataforma de gerenciamento de torneios para jogos online. Essa plataforma possui o objetivo de aproximar as comunidades de jogos eletrônicos e promover os torneios organizados por elas. A plataforma permite que os usuários criem, gerenciem, participem, customizem, revisitem e recordem torneios, facilitando a descoberta de novas comunidades e jogos, além de proporcionar momentos emocionantes a serem compartilhados.
Este trabalho apresenta uma abordagem para vinculação de registros com o foco na área de saúde em relação a bases de dado do setor público e privado de saúde brasileiro, em especial da cidade de Belo Horizonte. Um dos focos principais da abordagem é na estimação automatizada dos parâmetros probabilísticos m e u do modelo de FellegiSunter. Para isso, foi desenvolvido o cPareia MU Estimator, um algoritmo iterativo que ajusta esses parâmetros com base na proporção esperada de correspondências entre registros, utilizando um limiar dinâmico derivado dos pesos logarítmicos. Foram conduzidos experimentos com bases sintéticas representando características reais de dados de saúde e suas possíveis variações e erros, testando o desempenho do estimador proposto em comparação com ferramentas consolidadas como Splink e RecordLinkage Toolkit. Os resultados mostram que o estimador desenvolvido apresenta desempenho competitivo, especialmente em bases maiores, e representa uma alternativa viável em contextos sem dados rotulados. O estudo também destaca a importância do record linkage para a integração de dados em saúde no Brasil e propõe aprimoramentos futuros no uso de blocagem híbrida e na aplicação em bases reais.
Os ataques de Negação de Serviço Distribuído (DDoS) são um tipo de ameaça cibernética que visa interromper a disponibilidade de um serviço por meio da utilização de uma rede de dispositivos infectados, chamada de botnet. Atualmente representam uma das principais ameaças aos sistemas cibernéticos e ciberfísicos, dada a sua capacidade de comprometer a disponibilidade de serviços essenciais. Para mitigar esse tipo de ameaça, têm sido desenvolvidas soluções baseadas em técnicas modernas, como o Aprendizado de Máquina, capazes de detectar e responder a ataques de forma automatizada e em tempo real. Essas soluções dependem da análise de grandes volumes de dados provenientes de múltiplas fontes, como tráfego de rede, logs de servidores e estatísticas de comportamento.
Para maximizar a eficácia desses sistemas, os dados passam por processos de engenharia de características, que incluem a transformação, seleção e criação de variáveis relevantes para a identificação de padrões anômalos. No entanto, a presença de dados redundantes ou altamente correlacionados pode comprometer o desempenho das soluções. Este projeto tem como objetivo investigar o impacto da presença e da filtragem de atributos correlacionados em diferentes fases do processo de predição – antes e depois da engenharia de características – e comparar a efetividade dessas abordagens. Para tanto, foram implementadas, testadas e analisadas a técnicas de análise de correlação CFS-SU e de engenharia de características baseada na transformação em padrões ordinais de Bandt-Pompe em diferentes cenários. Os resultados demonstram que essas duas técnicas alinhadas trazem melhores resultados para o processo de classificação, com a engenharia de características sendo aplicada primeiro.
Este trabalho, com o projeto AccessML, desenvolve uma aplicação mobile que pode ser utilizada para auxiliar a comunicação em um contexto de atendimento médico. O aplicativo oferece dois recursos principais: um roteiro de consulta médica interativo e um dicionário Libras→português focado em termos de saúde. Este projeto estabelece a base para a criação de uma ferramenta que possa auxiliar a comunidade surda na comunicação com profissionais da saúde, onde frequentemente enfrentam barreiras de comunicação.
Nesse projeto, buscamos realizar a replicação do artigo Tactical Analyses in Professional Tennis. Para isso, selecionaremos os dados manualmente anotados de jogos de Roger Federer e aplicaremos Descoberta de Subgrupos. Temos a disposição 7722 pontos. Desses, 3686 são pontos de serviço. Focaremos em encontrar padrões em pontos de serviço bem sucedidos a partir dos atributos desses dados. Vamos mostrar que é possível aplicar a metodologia do artigo original em outros dados e retornar resultados estatisticamente significativos, demonstrando assim a eficácia da metodologia original mesmo quando retirada de seu contexto original.
Este trabalho integra-se ao escopo do Programa Água Doce (PAD), uma iniciativa do Governo Federal coordenada pelo Ministério do Meio Ambiente, que visa fornecer acesso sustentável à água potável em comunidades do Semiárido brasileiro. Por meio da implantação de estações de dessalinização, o programa busca garantir a qualidade da água consumida, incorporando práticas de monitoramento, sustentabilidade e gestão ambiental.
No contexto desse programa, foi identificado um desafio operacional significativo: a ausência de mecanismos automatizados para o monitoramento das estações e a consequente dependência de registros manuais. Para mitigar esse problema, está sendo desenvolvido um sistema completo de monitoramento.
A arquitetura geral do sistema envolve a coleta de dados por microcontroladores ESP32 acoplados a sensores físicos (como TDS, temperatura, pressão e fluxo), o envio das leituras para um aplicativo móvel via Bluetooth Low Energy (BLE) e, por fim, a sincronização desses dados com um servidor web. Este servidor centraliza e organiza os dados recebidos, tornando-os acessíveis através de um dashboard visual e interativo projetado especialmente para gestores do sistema.
A contribuição específica deste trabalho concentra-se na construção do servidor web e da interface administrativa. O servidor é responsável por autenticar os usuários, persistir os dados recebidos em um banco de dados, expor uma API RESTful para comunicação com os clientes e garantir a segurança e integridade dos dados manipulados. Já a aplicação web permite o acesso visual aos dados coletados, a gestão de estações e sensores e a identificação de leituras anômalas por meio de alertas visuais.
A proposta busca, portanto, estabelecer um sistema robusto e escalável para o controle das estações de dessalinização, promovendo maior autonomia para os operadores locais, eficiência na análise das informações por gestores e maior confiabilidade nas ações de manutenção preventiva.
Existe uma demanda crescente por explicações de modelos de aprendizado de máquina, movimentada principalmente pelos avanços da General Data Protection Regulation (GDPR) na Europa e a Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil. Em paralelo a essa necessidade de explicação, existe também uma complexidade crescente nos modelos empregados na indústria para realizar decisões automáticas, que muitas vezes são caixas pretas não interpretáveis facilmente. Diante deste desafio, o presente trabalho propõe uma revisão de literatura de métodos estado da arte para explicação de decisões de modelos de inteligência artificial, voltada principalmente para métodos que forneçam sugestões de alteração que mudem a decisão tomada, ou em outras palavras: métodos contrafactuais. Para isso, foi feita a coleta de artigos em plataformas digitais, enriquecimento dos dados coletados, filtragem inicial para considerar apenas publicações de interesse, análise bibliométrica para encontrar tendências da área, filtragem final para considerar apenas proposições de novas ferramentas e análise qualitativa das ferramentas propostas.
O uso crescente de plataformas digitais, como redes sociais e fóruns online, tem proporcionado avanços significativos na comunicação global. Entretanto, esse ambiente também tem facilitado a disseminação de conteúdos abusivos, como discursos de ódio, ameaças e insultos, que impactam negativamente a experiência dos usuários e podem gerar danos psicológicos e sociais consideráveis. A detecção automatizada de conteúdo abusivo em textos surge como uma solução promissora para auxiliar na moderação desses ambientes e promover interações mais seguras e saudáveis.
A identificação de conteúdos abusivos em textos é um desafio complexo devido à subjetividade inerente ao que é considerado ofensivo ou abusivo, à variedade de contextos culturais e linguísticos e ao uso de linguagem ambígua, sarcástica ou codificada. A abordagem manual para a moderação desses conteúdos, embora eficaz em situações específicas, é inviável em larga escala devido ao volume massivo de dados gerados diariamente. Assim, a detecção automatizada de conteúdo abusivo por meio de modelos de aprendizado de máquina tem se tornado uma ferramenta indispensável para plataformas digitais que buscam garantir interações seguras e inclusivas.
Soluções modernas de detecção geralmente utilizam técnicas avançadas de Processamento de Linguagem Natural combinadas com modelos de aprendizado profundo, como transformadores e modelos de linguagem de grande escala, que demonstram desempenho e eficiência superiores na análise e classificação de textos complexos. Contudo, o desenvolvimento desses sistemas enfrenta diversos desafios técnicos, incluindo o balanceamento de classes no conjunto de dados, a necessidade de generalização para múltiplos contextos e idiomas, e a mitigação de vieses algorítmicos que podem prejudicar determinados grupos.
Diante dessa problemática, este trabalho implementa um modelo de detecção automatizada de conteúdo abusivo em textos, analisa a presença de vieses algorítmicos e avalia diferentes variações do modelo com respeito à presença de viés. Apesar de conseguir devidamente identificar conteúdos abusivos, o modelo apresenta vieses indesejados, especialmente em relação a termos associados a grupos demográficos discriminados. Esses vieses podem levar a classificações incorretas, onde comentários neutros ou positivos contendo esses termos são erroneamente marcados como tóxicos, perpetuando estereótipos e prejudicando a experiência de usuários pertencentes a esses grupos.
Para avaliar e mitigar esses vieses, o trabalho propõe uma metodologia baseada na utilização de um conjunto de dados de validação balanceado, com um número igual de exemplos tóxicos e não tóxicos para diferentes termos identitários. Essa abordagem permite medir o viés algorítmico e comparar diferentes técnicas, identificando as abordagens que oferecem melhor desempenho na detecção de conteúdo abusivo, enquanto minimizam vieses de forma eficaz.
A traducao de linguagem natural para SQL (NL to-SQL) representa um desafio fundamental para democratizar o acesso a bancos de dados relacionais, pois a sintaxe SQL exige conhecimento tecnico que limita usuarios nao-especialistas.
Este trabalho apresenta o AskDB, uma solucao com Large Language Models (LLMs) sem fine-tuning baseada em uma arquitetura multi-agente modular, na qual agentes especializados colaboram em um grafo de execucao condicional para roteamento de perguntas, decomposicao semantica, geracao automatica de metadados e correcao iterativa de consultas SQL. Metadados sao extraıdos automaticamente por LLMs, fornecendo contexto estruturado que melhora significativamente a precisao das consultas geradas. Em experimentos com o banco de dados AACT (mais de 50 tabelas de ensaios clınicos reais), o sistema alcancou 68% de acuracia media em 30 perguntas testadas. As principais contribuicoes incluem: (1) uma arquitetura multi-agente reutilizavel; (2) sistema automatico de metadados estruturados; (3) pipeline iterativo de correcao de SQL; e (4) um framework extensıvel e de facil manutencao. Os resultados demonstram a viabilidade de solucoes NL-to-SQL acessıveis e adaptaveis, reduzindo custos e ampliando o acesso de profissionais nao tecnicos.
A arquitetura serverless tem como propósito simplificar o desenvolvimento ao abstrair a gestão de infraestrutura, promovendo vantagens como controle de custo granular e escalabilidade automática. Contudo, essa abstração traz algumas desvantagens, em especial, o vendor lock-in. Este trabalho a partir de um referencial teórico, busca entender o contexto que levou ao surgimento da arquitetura serverless, vantagens e desvantagens e características de aplicações desenvolvidas com essa arquitetura. Foi feito também o desenvolvimento prático de uma aplicação de pós-processamento de imagens nos dois maiores provedores de nuvem do mercado: AWS e Azure, somando ao trabalho uma análise e vivência prática dos pontos analisados, além de detalhar informações relevantes durante o processo de desenvolvimento.
A presente monografia tem como objetivo desenvolver uma análise crítica e abrangente da literatura científica sobre inclusão digital e transformação social, fundamentada nos achados empíricos da MSI I, buscando identificar estratégias eficazes, lacunas no conhecimento e diretrizes para a formulação de políticas públicas mais assertivas no contexto brasileiro, particularmente para a realidade de Belo Horizonte.Através de uma revisão bibliográfica extensiva e sistemática da literatura nacional e internacional, analisando evidências científicas consolidadas sobre exclusão digital, estratégias de inclusão, políticas públicas e práticas educacionais, foram obtidos insights fundamentais sobre as relações complexas entre inclusão digital e transformação social. Os resultados evidenciaram a natureza multidimensional da exclusão digital, que transcende o acesso físico à tecnologia para incorporar competências, motivação, suporte social e aplicações efetivas, confirmando e contextualizando os achados empíricos locais dentro de padrões estruturais globais.A análise apontou para a convergência entre os desafios identificados em Belo Horizonte e evidências internacionais, revelando que fatores socioeconômicos (especialmente educação), espaciais, demográficos e sistêmicos determinam estruturalmente a exclusão digital. A literatura documenta modelos de intervenção empiricamente validados, como Centros de Tecnologia Comunitária integrados, programas educacionais transformadores baseados em cultura digital crítica, e políticas públicas sustentáveis que articulam múltiplas dimensões simultaneamente, oferecendo direcionamento para estratégias adaptáveis ao contexto local.
Este estudo busca contribuir para o avanço do conhecimento teórico sobre inclusão digital no Brasil, fornecendo fundamentação científica sólida para a elaboração de políticas públicas baseadas em evidências. A pesquisa identifica vantagens competitivas de Belo Horizonte (infraestrutura de qualidade, experiência em Telecentros, cobertura educacional) que, articuladas com estratégias internacionalmente testadas, posicionam a cidade para liderança em inclusão digital urbana. Ressalta-se a necessidade crítica de transcender perspectivas tecnicistas para abraçar abordagens multidimensionais que reconheçam a inclusão digital como mediadora de direitos fundamentais, requerendo mudança paradigmática que integre capacitação, transformação social e construção de cidadania digital participativa.
Este estudo investiga as dinâmicas em torno da comunidade LGBTQ+ no YouTube, com foco na análise de sentimentos expressos nos comentários. Utilizando técnicas de Processamento de Linguagem Natural, permitindo identificar padrões de linguagem e tópicos predominantes. A pesquisa busca contribuir para uma melhor compreensão das representações sociais da comunidade LGBTQ+ nas plataformas digitais e das formas como os usuários interagem e se posicionam em relação a esses temas.
Em contextos subjetivos, como a detecção de discurso de ódio ou ironia, a classificação de textos é uma tarefa interpretativa que depende da bagagem cultural. Diferentemente de métodos tradicionais que agregam opiniões, por exemplo, por voto majoritário, o perspectivismo explora o conhecimento de grupos específicos de anotadores para construir modelos mais equitativos e representativos. No entanto, abordagens perspectivistas costumam demandar alto custo computacional, especialmente aquelas que recaem no ajuste fino de modelos de linguagem pré-treinados.
Neste contexto, este trabalho tem dois objetivos principais: (i) investigar métodos tradicionais de aprendizado de máquina (como SVM, Random Forest e XGBoost) visando à redução de custos; e (ii) aplicar calibração para mitigar desequilíbrios na geração de inferências entre modelos perspectivistas. Os experimentos demonstraram ser possível reduzir o tempo de processamento em até 12 vezes , sem perda estatística na eficácia. Além disso, a calibração mostrou-se eficaz na redução de vieses de algumas perspectivas majoritárias, promovendo maior equidade entre os modelos.
No futebol moderno, a performance de um time depende de diversos fatores que vao desde a habilidade tecnica dos jogadores ate estrategias taticas elaboradas pelos treinadores. No entanto, um elemento crucial que frequentemente afeta o desempenho de uma equipe ao longo de uma temporada sao as lesoes dos jogadores. Elas nao apenas limitam a participacao de atletas em momentos decisivos, mas tambem demandam ajustes taticos, forca substituicoes, podem afetar a coesao e entrosamento do time, alem de impactar o fator mental do atleta lesionado e de seus companheiros de clube (Aragao et al. 2023), alem do proprio impacto a saude de quem sofre, podendo trazer consequencia na convivencia diaria do mesmo. Dessa forma, entender o impacto das lesoes sobre o rendimento das equipes ´ e essencial para que clubes e gestores esportivos adotem estrategias mais eficazes de prevencao e mitigacao dos riscos.
Nos últimos anos, o Aprendizado de Máquina (ML) revolucionou a análise de dados e a tomada de decisões, tornando-se uma ferramenta essencial em diversas aplicações cotidianas. O pipeline de ML é um processo estruturado que abrange a coleta e pré-processamento de dados, o treinamento de modelos seguido por sua validação para avaliar a capacidade de generalização e, se aprovado, a implantação em produção. No entanto, essa etapa é apenas o começo. Modelos de aprendizado de máquina demandam atualização, monitoramento e manutenção contínuos, o que gera desafios operacionais que vão além do desenvolvimento inicial.
Para mitigar esses desafios, surgiu o conceito de Machine Learning Operations (MLOps)[3]. MLOps adapta os princípios do DevOps — tradicionalmente aplicados ao desenvolvimento de software — ao contexto do aprendizado de máquina, promovendo ciclos iterativos, rápidos e contínuos para a implantação e manutenção de modelos em produção[4].
Com o avanço dessas demandas, a plataforma Flautim foi concebida como uma solução para a experimentação e prototipagem de modelos de aprendizado de máquina, com foco no Aprendizado Federado (FL), mas também com suporte ao aprendizado centralizado tradicional. Seu principal objetivo é viabilizar a condução de experimentos distribuídos de forma segura, escalável e com respeito à privacidade dos dados. Dessa forma, o Flautim oferece suporte técnico e operacional para que cientistas de dados, engenheiros de machine learning e desenvolvedores possam criar, testar e acompanhar seus modelos em um ambiente controlado.
Nesse contexto, o projeto visa investigar e desenvolver soluções baseadas em práticas de MLOps que possam ser integradas à plataforma Flautim, a fim de aprimorar o gerenciamento do ciclo de vida de experimentos de aprendizado de máquina. A proposta busca estabelecer mecanismos que tornem os processos de versionamento de dados e modelos, execução e reprodutibilidade de experimentos, e automação de pipelines mais estruturados, escaláveis e seguros. Ao alinhar os princípios do MLOps às particularidades do ambiente distribuído e federado da plataforma, o projeto busca proporcionar uma base sólida para experimentações eficientes, confiáveis e sustentáveis dentro do ecossistema do Flautim.