Pular para o conteúdo

O presente trabalho explora a viabilidade da adaptação do sistema Testpilot para utilizar um LLM de código aberto acessível localmente, com o objetivo de agilizar e facilitar o processo de teste de unidade. A abordagem utiliza o LM Studio para acessar um servidor local que executa o modelo open-source Llama 3.1 8B com quantização de 4 bits. São criados conjuntos de testes de unidade para 22 pacotes npm e os resultados são comparados com o Testpilot original em termos de métricas de cobertura. Os resultados mostram que não há diferença estatisticamente significativa entre a cobertura de statements e branches entre os dois experimentos, demonstrando a viabilidade da utilização de um LLM open-source acessível localmente, mesmo com restrições de espaço.

O consumo de vídeos digitais cresceu muito nos últimos anos, especialmente com a popularidade de plataformas como TikTok e Instagram Reels. Com a diversidade e a quantidade de conteúdo disponível na internet, identificar momentos relevantes de um vídeo pode auxiliar no aprimoramento da experiência do usuário, na criação de novos conteúdos e no acesso à informação de forma eficiente.

A relevância de um trecho de vídeo pode ser definida por diversos fatores, incluindo o comportamento dos espectadores, como a repetição de certas partes, que revela informações contextuais valiosos sobre o que atrai ou engaja o público. Esse tipo de informação permite análises que não beneficiam apenas os criadores de conteúdo, mas também ajudam as plataformas a oferecer experiências mais personalizadas e cativantes.

Além das análises comportamentais, o incômodo psicoacústico e outras características perceptíveis aos humanos trazem uma nova dimensão para identificar momentos de maior impacto emocional ou atenção em vídeos. O trabalho feito por Araujo por exemplo, foi pioneiro ao usar o incômodo psicoacústico como pseudo-rótulo para treinar modelos de sumarização, mas essa ideia ainda é pouco explorada na literatura. Isso abre um espaço interessante para criar metodologias que combinam percepções humanas com técnicas avançadas de aprendizado de máquina, especialmente quando temos poucos dados rotulados disponíveis.

Além disso, a sumarização de vídeo é uma área bastante consolidada quando o assunto é resumo de vídeos. Ferramentas desenvolvidas para essa tarefa buscam gerar, a partir de um vídeo de longa duração, um conteúdo de menor duração que represente bem as informações contidas no conteúdo original. Essa capacidade de síntese as torna ferramentas promissoras para tarefas relacionadas à identificação de momentos de destaque, especialmente em contextos onde as métricas de importância variam de forma temporal, como no comportamento de reprodução em plataformas digitais. Essa é uma área inexplorada na literatura, abrindo espaço para estudos pioneiros no campo de highlight detection.

Neste estudo, propomos investigar a eficácia do modelo de sumarização de vídeo CSTA  para a tarefa de detecção de highlights. Além disso, utilizamos o incômodo psicoacústico como pseudo-rótulo para treinamento auto-supervisionado, ampliando as possibilidades de análise e reduzindo a dependência de anotações manuais. Como parte do experimento, desenvolvemos uma versão reduzida do dataset Mr.HiSum , composta por vídeos do YouTube, projetada para avaliar a viabilidade e a eficácia das metodologias propostas.

Ao validar nossa abordagem, esperamos contribuir para o avanço na área de detecção de highlights em vídeos, fornecendo uma visão diferente do tema, mostrando a possobilidade de utilizar modelos de sumarização para uma tarefa distinta, bem como utilizar características psicoacústicas como ferramenta para melhorias dos modelos atuais.

A astronomia é uma das ciências mais antigas da humanidade. A curiosidade acerca das estrelas e outros objetos astronômicos é observada mesmo em culturas pré-históricas. No entanto, mesmo após inúmeros avanços tecnológicos que permitiram ampliar muito o conhecimento acerca do universo, muitas pessoas ainda possuem um entendimento muito raso sobre o céu e os corpos celestes. Neste projeto, o objetivo é criar um aplicativo que incentive o aprendizado de astronomia de forma lúdica, por meio de um álbum de figurinhas virtual em que os cromos são recebidos ao se responder perguntas sobre astronomia.

O problema da satisfatibilidade booleana (SAT), no qual busca-se determinar se existe uma atribuição de valores a variáveis que torna verdadeira uma dada formula em logica proposicional, é crucial para a ciência da computação, pois foi o primeiro a ser mostrado NP-completo, por Stephen A. Cook e, de forma independente, Leonid A. Levin. Essa conclusão implica que qualquer problema que pertence à classe NP – que inclui uma serie de problemas relevantes, como o numero cromatico de um grafo, o problema do caixeiro viajante e o problema da mochila – pode ser reduzido a ele. Ainda mais, essa importância extrapola a teoria: os diversos avanços em resolvedores SAT nos últimos 25 anos ocasionaram um grande interesse por parte de áreas como teoria dos grafos, projeto de hardware, verificação formal e pesquisa operacional em converter, total ou parcialmente, certos problemas em problemas de satisfatibilidade.
A aplicação de logica proposicional é, contudo, em muitos contextos, insuficiente, pois é incapaz de expressar propriedades de objetos ou relações entre eles. Para isso, pode ser utilizada a logica de primeira ordem (bem como as de ordem superior), em que são adicionados predicados, funções e quantificadores. Nesse sentido, diversas aplicações requerem a habilidade de raciocinar a respeito de alguma teoria, que fixa a interpretação de certos predicados e funções. Alguns exemplos de teorias bem estabelecidas são as de aritmetica linear, strings, arrays e bit-vectors – ou ate mesmo combinações delas. Em geral, resolvedores que checam a satisfatibilidade de formulas com respeito a uma teoria implementam procedimentos de decisão específicos para essa teoria acerca da validade de certos modelos construídos de forma independente a partir da formula. Em outras palavras, os módulos referentes a cada teoria são independentes do fluxo principal do resolvedor e podem ser instanciados a depender do problema que sera resolvido. A esses resolvedores, damos o nome resolvedores SMT e, ao campo de estudo que abrange essa classe de problemas, satisfatibilidade modulo teorias (SMT).

Neste estudo, aplica-se técnicas de aprendizado de máquina para analisar dados históricos de partidas de tênis da ATP e WTA, com o objetivo de identificar as variáveis mais influentes nos resultados das partidas. Utiliza-se dois modelos: Random Forest e K-Nearest Neighbors (KNN). O modelo Random Forest destacou-se ao atingir uma acurácia perfeita de 100%, enquanto o modelo KNN alcançou uma acurácia de 81,66%. Dentre as variáveis analisadas, a diferença de ranking e a eficiência técnica dos jogadores mostraram-se particularmente relevantes. Adicionalmente, gráficos de dispersão e análises de correlação reforçaram a importância de fatores técnicos e físicos no desempenho dos atletas. Este trabalho contribui para o campo da ciência esportiva, fornecendo insights estratégicos valiosos que podem ser utilizados para otimizar treinamentos e melhorar o desempenho dos jogadores em quadra.

O alinhamento de sequências é um problema clássico porém ainda relevante e com várias aplicações práticas na área da Bioinformática. Soluções robustas e eficientes já foram propostas, entretanto, a quantidade crescente de dados gerados por projetos de sequenciamento progressivamente mais complexos exige o desenvolvimento de algoritmos e estratégias cada vez mais eficientes. Considerando tal demanda, esse projeto visa realizar um estudo sistemático das atuais técnicas para alinhamento de sequências e desenvolver uma ferramenta que reinterprete o problema para construir uma heurística maximal que faça um tradeoff entre o tempo de execução, espaço de memória consumido e qualidade da solução.

A verificação formal é uma área de pesquisa que visa garantir a confiabilidade de sistemas críticos, como hardware e software, onde erros podem ter consequências graves. Entre as ferramentas utilizadas nesse contexto, os solucionadores SMT, como o cvc5 [1], desempenham um papel central ao permitir o raciocínio automático sobre diversas estruturas e operações, como as realizadas sobre vetores de bits, amplamente empregados em circuitos digitais. Sendo este um processo complexo, técnicas como o bit-blasting são necessárias para dividir o problema de vetores de bits em termos menores. Tradicionalmente, isso é feito com valores proposicionais, mas agora experimentamos com valores pseudo-booleanos. Este trabalho explora a integração dessas técnicas, propondo uma extensão ao formato de prova Alethe [2] e ao verificador Carcara [3], buscando maior confiança e precisão na validação de provas e seus resultados.

O modelo de transformação digital desenvolvido neste trabalho representa um avanço significativo na abordagem dos desafios e oportunidades no setor de saúde. Dando continuidade às análises e estruturações realizadas durante a primeira parte da monografia, que culminaram na proposta de um framework conceitual, este estudo consolidou uma abordagem prática e estratégica para implementar a transformação digital em organizações de pequeno e medio porte.

A pesquisa destaca a importância de alinhar a estratégia organizacional, a cultura de inovação e a tecnologia como elementos centrais para otimizar os serviços de saúde. A aplicação do modelo contribui não apenas para a eficiência operacional e a integração tecnológica, mas também para a melhoria da experiência do cliente, um aspecto essencial no contexto atual do setor de saúde. Além disso, o modelo avança na construção de uma visão sistemica, permitindo que organizações compreendam melhor suas áreas interconectadas e identifiquem oportunidades e gargalos para intervenção estratégica.

Entre as principais contribuições, o trabalho oferece ferramentas práticas para que gestores e profissionais de tecnologia possam atuar de maneira integrada, desenvolvendo soluções que impactem toda a rede sistemica das organizações de saúde. O modelo busca também superar lacunas acadêmicas, ao adotar uma abordagem prescritiva que combina princípios teóricos e práticos, auxiliando tanto o setor acadêmico quanto o mercado.

Dessa forma, este trabalho não apenas reforça a relevância da transformação digital no setor de saúde, mas também oferece um ponto de partida para futuras pesquisas que possam expandir e aprofundar a aplicabilidade do modelo em diferentes contextos. A proposta aqui desenvolvida reflete a importância de alinhar tecnologia e estratégia organizacional como pilares para a construção de serviços de saúde mais eficientes, inovadores e centrados no cliente.

Este estudo investiga o campo de Adversarial Machine Learning (AML) aplicado à classificação de ciberataques em redes IoT, partindo dos avanços obtidos na primeira fase desse trabalho, com a Análise Comparativa de Métodos de Geração de Amostras Adversariais na Detecção de Ataques. Esta pesquisa foi conduzida a partir de experimentos em dois conjuntos de dados amplamente utilizados na área (IoT-23 e TON-IoT), empregando tanto abordagens de treinamento convencional quanto adversarial. Para evidenciar o impacto de perturbações intencionais, foram geradas amostras adversariais por técnicas como FGSM e CGAN, demonstrando como pequenas modificações podem comprometer o desempenho de modelos de detecção de ameaças. A partir dessas técnicas, os resultados obtidos antes e após a aplicação do treinamento adversarial foram avaliados a partir de métricas como acurácia e precisão. Dessa forma, as conclusões alcançadas ressaltam a relevância de estratégias defensivas específicas para cibersegurança, visto que as soluções desenvolvidas em outros domínios, como visão computacional, não são imediatamente transferíveis para ambientes de rede.

A depuração é uma atividade comum no cotidiano de profissionais que trabalham com programação. Tendo em vista que ela pode ser demasiadamente custosa, o desenvolvimento de ferramentas que possam simplificá-la é muito valioso. Este trabalho apresenta uma ferramenta, desenvolvida em Lua, para auxiliar na visualização de sessões de depuração no editor de texto Neovim, com base no protocolo DAP (Debug Adapter Protocol). Para atingir isso, a ferramenta possui 3 visualizações: uma lista de pontos de parada (breakpoints), um controle de breakpoints de exceção e uma lista de expressões. A partir dessas visualizações, um usuário consegue controlar o fluxo de execução de um programa, e acompanhar os valores de variáveis arbitrárias, para qualquer linguagem que possua um adaptador do protocolo DAP.

Esta pesquisa analisa a participação feminina nos comitês de programas dos principais eventos internacionais na área da Computação, comparando-a com dados de eventos nacionais. Observou-se que, embora ainda haja sub-representação feminina em ambos os cenários, os eventos brasileiros apresentam índices ligeiramente mais altos, com 25,09% de mulheres contra 20,05% nos internacionais. Conferências voltadas à interação humano-computador, educação em computação e sistemas colaborativos tendem a apresentar maiores índices de representatividade feminina, enquanto subáreas mais técnicas, como arquitetura de computadores, circuitos integrados e segurança, exibem taxas mais baixas.

Este documento detalha as etapas e resultados obtidos durante o Projeto Orientado em Computação I (POC1), cujo foco foi o desenvolvimento de um pipeline de Machine Learning Operations (MLOps) para a plataforma Flautim. As soluções propostas foram concebidas com o intuito de integrar CI/CD, versionamento de dados e modelos, treinamento para modelos centralizados ou distribuídos e estratégias de automação para futuras integrações com ferramentas como Argo CD e CML. Este trabalho também explora os desafios e as soluções relacionados ao uso de MLOps em cenários de aprendizado federado, destacando os ganhos em escalabilidade, reprodutibilidade e eficiência operacional.

Neste trabalho, propomos uma modelagem alternativa para o padrão de computação Irregular Wavefront Propagation Pattern (IWPP), a modelagem IWPP MP. Além disso, propomos dois refinamentos para essa modelagem: o IWPP MP DQ e o IWPP MP UQ. Por meio de uma validação empírica, a implementação do IWPP MP UQ se mostrou mais rápida e mais eficiente no uso de memória do que as implementações baseadas no IWPP e no algoritmo SR na tarefa de computar a operação de reconstrução morfológica.

Fanfiction, ou histórias criadas por fãs com base em livros, filmes ou outras mídias existentes, experimentou um crescimento substancial com o advento da internet, fomentando comunidades vibrantes centradas nessas obras. O Archive of Our Own (AO3) destaca-se como uma plataforma líder, hospedando mais de 14,33 milhões de obras em quase 70.000 fandoms até janeiro de 2025. Este estudo tem como objetivo mapear a dinâmica das fanfictions no AO3 e o comportamento de seus usuários, tanto construindo um grafo que represente a interconexão das obras por meio de tags de conteúdo compartilhadas quanto analisando a atividade dos usuários no site. Os objetivos principais incluem a análise dos padrões estruturais e comportamentais das redes de usuários e fanfictions, bem como as interações entre os fandoms. Os dados foram coletados via web scraping e processados para ilustrar os relacionamentos entre obras, usuários e suas tags. O estudo identificou diferenças significativas na conectividade da rede após a normalização das tags, uma leve correlação entre a similaridade de fandoms e o compartilhamento de leitores, além de padrões temporais comparáveis entre as publicações de fanfictions e os marcadores de usuários.

This study aims to develop novel causal models for common deep learning tasks in electrocardiogram (ECG) analysis. The motivation stems from the understanding that these tasks are interdependent and ,by integrating well-established medical knowledge into deep learning methodologies, this approach seeks to bridge the gap between traditional medical practices and advanced computational techniques. Specifically, two causal maps are proposed to guide the design and implementation of problem-solving strategies. The performance of the resulting deep learning models is then evaluated and compared in testing scenarios.

A métrica PREDEP foi recentemente proposta como uma ferramenta para quantificar a capacidade preditiva de uma variável aleatória X sobre outra variável Y, fornecendo uma medida baseada na redução da dispersão condicional. Contudo, os métodos originais para estimar o PREDEP apresentaram inconsistências, especialmente na estimativa da componente condicional S(Y|X). Este trabalho propõe uma abordagem alternativa para essa estimativa, baseada em regressão, que visa superar as limitações dos métodos baseados em particionamento do espaço. A eficácia do método proposto foi avaliada em diversos conjuntos de dados sintéticos, nos quais o valor teórico de S(Y|X) é conhecido. Os resultados mostram que a abordagem baseada em regressão apresenta maior estabilidade e precisão, especialmente em cenários com relações complexas entre (X) e (Y) ou quando se tem poucos dados disponíveis. Concluímos que o método proposto é uma alternativa robusta e prática para a estimativa do PREDEP.

Os data centers desempenham um papel fundamental no suporte à crescente demanda por infraestrutura em nuvem e aplicações orientadas a dados. Entretanto, as topologias de rede tradicionais utilizadas nesses ambientes muitas vezes apresentam configurações fixas, incapazes de atender às exigências dinâmicas das redes, resultando em ineficiências operacionais. Para abordar esses problemas, este artigo introduz um novo módulo para o simulador NS-3, focado na avaliação e no aprimoramento do desempenho de topologias de rede reconfiguráveis em data centers. Por meio da implementação de topologias autoconfiguráveis, buscamos otimizar o uso de recursos e adaptar as redes a diferentes padrões de tráfego. O módulo permite o desenvolvimento e teste de algoritmos de reconfiguração, utilizando cenários de tráfego sintético e realista. Métricas como custo de roteamento, número de reconfigurações e utilização de switches são coletadas para analisar o desempenho dos algoritmos. Este trabalho promove o avanço da adaptabilidade e eficiência das redes em data centers, contribuindo para o desenvolvimento de infraestruturas mais inteligentes e autoadaptáveis.

O mercado musical atual, marcado pela ascensão das plataformas de streaming, presencia novas dinâmicas de produção e consumo. Em busca de ampliar a compreensão acerca desses fenômenos, este estudo visa investigar a relação entre o interesse público, medido pelas buscas no google, e a popularidade musical no Spotify através de análises de correlação e causalidade de Granger. Os resultados mostram evidencias pontuais para uma possível relação causal, mas não pode ser generalizado para todas as musicas, destacando o desempenho musical como um fenômeno complexo e multifacetado.