
Plataformas de vídeos curtos como o YouTube Shorts tornaram-se centrais na cultura digital moderna, levantando preocupações crescentes sobre a amplificação algorítmica de conteúdos sexualizados e seu impacto sobre o público infantojuvenil. Neste trabalho, apresentamos uma análise em larga escala de mais de 500.000 vídeos coletados exclusivamente do YouTube Shorts no Brasil, por meio de uma estratégia de recomendação em cold-start, abrangendo mais de 80.000 entradas únicas. A partir de uma amostra estratificada, extraímos cinco keyframes por vídeo e conduzimos um processo de moderação multimodal, combinando Google SafeSearch, OpenAI Moderation API e um classificador NSFW baseado em JavaScript para avaliar o apelo sexual visual. Esses keyframes, juntamente com as descrições dos vídeos, foram vetorizados e clusterizados para identificar padrões recorrentes de conteúdo, permitindo explorar como a sexualização se manifesta em diferentes categorias temáticas. Em paralelo, analisamos os metadados dos vídeos e os comentários dos usuários, utilizando classificadores zero-shot e ferramentas de moderação de mercado, para detectar percepções sociais de conteúdo sexualizado e outros riscos, como discurso de ódio, violência e assédio. Também treinamos um modelo supervisionado com os rótulos de moderação agregados para validar a confiabilidade das classificações. Por fim, ao cruzar os resultados da moderação com métricas de popularidade (como curtidas, visualizações e comentários), examinamos as dinâmicas de engajamento em torno de conteúdos sensíveis, revelando como percepções algorítmicas e sociais contribuem para a visibilidade e a normalização de mídias hipersexualizadas e potencialmente prejudiciais.
Pipelines de recuperação que combinam recuperadores esparsos (BM25) e densos (baseados em transformadores) têm se mostrado promissores para tarefas de Classificação de Texto Multi-Rótulo Extrema (Extreme Multi-Label Text Classification — XMTC), explorando a complementaridade entre correspondências lexicais e semânticas. Contudo, os scores produzidos por esses recuperadores não são calibrados, isto é, não representam probabilidades reais de relevância. Neste trabalho, investiga-se a aplicação de métodos de calibração de scores — incluindo Platt Scaling, Regressão Isotônica e um método proposto denominado QueryFeature Calibration — ao pipeline xCoRetriev. Para permitir uma análise controlada utilizando métricas de calibração binária padrão, os experimentos foram conduzidos no contexto de Classificação de Texto Multi-Classe (MCTC), onde cada documento possui um único rótulo relevante. Experimentos em três benchmarks (REUTERS, ACM e TWITTER) demonstram que, embora a calibração isolada não melhore significativamente métricas de ranking em dois dos três datasets, os métodos de calibração aplicados apresentam boa capacidade de calibrar os scores retornados pelos recuperadores, em especial, o método QueryFeature Calibration apresentou um desempenho interessante, abrindo perspectivas para abordagens contextuais de fusão de rankings aplicáveis tanto a MCTC quanto a cenários XMTC.
O presente trabalho propõe o desenvolvimento de uma solução integrada para o monitoramento dos sistemas de dessalinização do Programa Água Doce, utilizando um aplicativo móvel desenvolvido em Flutter e um sistema embarcado baseado no microcontrolador ESP32. A solução permite a coleta, o armazenamento e a disponibilização de dados de sensores — como pressão, vazão, volume e temperatura —, além de oferecer diferentes modos de comunicação sem fio adequados ao uso em campo. O projeto abrange desde o levantamento de requisitos e definição da arquitetura até o desenvolvimento do firmware, da interface móvel e dos mecanismos de comunicação, visando fornecer aos técnicos e operadores uma ferramenta eficiente, de fácil uso e capaz de aprimorar o acompanhamento das unidades de dessalinização, contribuindo para decisões mais rápidas e fundamentadas.
String constraints are crucial in many SMT-based applications, yet solvers that rely on automata-based reasoning, such as OSTRICH, currently lack support for producing independently checkable proofs. This work addresses this limitation by formalizing the core rules of the Regular Constraint Propagation calculus in the Alethe proof format. Furthermore, the Carcara proof checker is extended with verification procedures for these rules, supported by a dedicated automata module. Together, these contributions enable reliable checking of OSTRICH proofs and strengthen the certification infrastructure for automated reasoning with string constraints.
Resumo: Este trabalho se propõe, mediante a prática, analisar o processo de um ciclo completo do desenvolvimento utilizando técnicas modernas da engenharia de software. Com a esquematização do design e a implementação do frontend e do backend, obteve-se um prototipo de aplicativo funcional, robusto e seguindo não só as boas práticas de programação como também de acessibilidade.
Este trabalho apresenta uma investigação de técnicas de reward shaping e curriculum learning no contexto de aprendizado por reforço para o controle puramente cinemático de uma mão, sem a necessidade de dados anotados ou aprendizado explícito da dinâmica do ambiente. Modelamos o problema como um Processo de Decisão de Markov em que a política, parametrizada por uma rede neural, gera diretamente as variações angulares das juntas da mão para tocar pontosalvo posicionados aleatoriamente sobre um objeto. A função de recompensa é composta por três termos contínuos e diferenciáveis: contato, colisões e limites articulares, ponderados de forma a priorizar o estabelecimento de contato estável antes de refinar aproximações e penalizar movimentos inválidos. Aplicamos Proximal Policy Optimization (PPO) com respeito à função de recompensa, obtendo políticas capazes de realizar (em pelo menos 50% dos cenários apresentados) contatos precisos, respeitando limites anatômicos, com movimentações pouco sujeitas a jitter e orientações imprevisíveis. Demonstramos que o reward shaping e o curriculum learning melhoram a estabilidade e a eficiência do aprendizado, embora a alta dimensionalidade ainda imponha desafios de generalização.
Este trabalho desenvolve uma ferramenta computacional modular para simulação estocástica de sistemas de crédito social, utilizando o caso de Rongcheng como referência empírica para parametrização. A arquitetura implementada em Python combina um mecanismo de simulação Monte Carlo baseado em agentes com uma interface gráfica interativa (PySide6), permitindo experimentação controlada sobre dinâmicas emergentes em redes sociais. O sistema oferece suporte a múltiplas topologias de rede (Watts–Strogatz e Barabási–Albert), eventos estocásticos parametrizáveis e mecanismos de influência social, além de funcionalidades como exportação de estados, execução em lote e visualização em tempo real. A implementação inclui otimizações de desempenho (compilação JIT via Numba, cache de estruturas de rede) e um pipeline experimental automatizado com validação estatística não paramétrica. Os experimentos mostram que a estrutura topológica da rede e a distribuição de eventos modulam a evolução coletiva dos escores, demonstrando o potencial da ferramenta para analisar cenários de governança algorítmica e sistemas de reputação distribuídos.
O Bluesky é uma rede social descentralizada baseada no protocolo AT (Authenticated Transfer), desenvolvido pela equipe original do Twitter como uma alternativa aberta e interoperavel `as plataformas tradicionais [Bluesky 2022]. Diferente de redes centralizadas como o X (antigo Twitter), o Bluesky opera atraves de servidores independentes que permitem maior controle dos usuarios sobre algoritmos e moderacao, seguindo principios similares ao ActivityPub (usado pelo Mastodon), porem com mecanismos diferenciados de curadoria de conteudo [Tufekci 2023]. Seu intuito declarado é “criar uma infraestrutura publica para redes sociais que incentive inovacao e diversidade”, caracteristica que atraiu comunidades tecnicas e academicas desde seu lancamento em beta em 2023 [Bluesky 2022].
No contexto brasileiro, o Bluesky ganhou relevancia massiva em meados de 2024, quando uma serie de alteracoes nas politicas de moderacao do X (incluindo a remocao de verificacoes de contas jornalisticas e aumento de denuncias de censura) levaram à migracao de usuarios influentes – especialmente jornalistas, academicos e ativistas politicos [Caniato 2024]. Dados do proprio Bluesky indicam que o Brasil se tornou o terceiro país em numero de usuarios ativos na plataforma em junho de 2024 , com comunidades organizadas em feeds [Seckin et al. 2025].
Esse fenômeno de migração em massa torna particularmente relevante o estudo de como se deu o processo de adesão brasileira à plataforma Bluesky, especialmente no que se refere aos padrões temporais de entrada de novos usuários, com picos possivelmente associados a eventos polêmicos ou instabilidades no X. O objetivo principal deste projeto é caracterizar como a migração de usuários brasileiros para o Bluesky se reflete na estrutura de interações e na formação de comunidades ao longo de 2024, comparando tres momentos-chave (julho, setembro e novembro).
A analise desses aspectos permite compreender como redes descentralizadas são apropriadas em contextos adversos, complementando trabalhos clássicos sobre migracao digital [Dijck 2013] e ecologia de plataformas [Helmond 2015]. Adicionalmente, os resultados deste trabalho fornecem indícios sobre a sustentabilidade de alternativas ao Twitter no cenário brasileiro, onde a polarização política é frequentemente amplificada por dinamicas plataformizadas [Lemos 2023].
O trabalho apresenta o SemMatch, um arcabouço de software modular desenvolvido para avaliar e validar sistematicamente modelos de correspondência de imagens, suprindo a necessidade por ferramentas padronizadas e reprodutíveis diante do avanço rápido dos modelos de Deep Learning em Visão Computacional; unificando datasets amplamente utilizados, como ScanNet, MegaDepth e HPatches, o SemMatch introduz um pipeline que emprega o modelo de segmentação SAM 2 e a métrica perceptual LPIPS para classificar erros entre falhas de textura e falhas semânticas genuínas, resultando em um sistema robusto em Python com módulos de análise estatística, geração de relatórios em PDF/HTML e uma aplicação Flask para exploração visual, elevando a qualidade e a reprodutibilidade da pesquisa em correspondência de imagens.
O problema de classificação de séries temporais é recorrente em diversas áreas, como medicina, música e sismologia. Uma abordagem recente consiste em transformar séries temporais em grafos, extrair caracterı́sticas desses grafos e, a partir delas, realizar a classificação. Nesse contexto, uma estratégia emergente é transformar as séries temporais em um grafo e depois executar a classificação a partir dessa representação intermediária. O objetivo geral da pesquisa é realizar uma análise comparativa e robusta entre diferentes pipelines de classificação.
Este artigo investiga a Turing Completude do jogo “Shapez.io”. Para isso, foi suficiente demonstrar a existência da porta lógica NAND e de um sistema de “clock” para esta prova, pois esses são os elementos essenciais que conceitualmente permitem a implementação de uma máquina de Turing Universal. Ao relacionar esse tema com o jogo, foi possível identificar que essa é uma questão levantada pela comunidade do “Shapez.io” há anos. Muitos participantes da comunidade alegam ter construído máquinas que comprovam a completude do jogo, uma delas é a máquina implementada por Antoine Dragnir. Com essa máquina é possível demonstrar como implementar uma máquina de Turing Universal, e por isso ela foi analisada e explicada. Com isso, este artigo verifica a Turing completude do jogo “Shapez.io”, provando a possibilidade da implementação da porta lógica NAND e de um sistema de “clock”, e demonstra a possibilidade de implementar uma máquina de Turing Universal, ao apresentar a máquina de Antoine Dragnir que pode ser modificada para se tornar uma máquina de Turing Universal.
Ao enviar um pacote pela internet, ele percorre diversas redes (Sistemas Autônomos) até chegar ao seu destino final. Estes Sistemas Autônomos (ASes) utilizam o Border Gateway Protocol (BGP), um protocolo de roteamento de pacotes entre domínios de ASes para o roteamento inter-domínio de pacotes. Em poucas palavras, este protocolo possui uma tabela internamente que mapeia o prefixo IP de destino do pacote para um endereço de destino do próximo salto. No entanto, há cenários em que nenhum prefixo da tabela BGP contempla o endereço de destino do pacote IP e, ao invés de descartar o pacote, o AS passa para frente por meio de uma rota padrão na esperança de que o pacote seja entregue.
O uso de rotas padrão no roteamento inter-domínio de pacotes é prejudicial à Internet e pode fazer, por exemplo, o pacote percorrer um caminho subótimo e utilizar recursos computacionais do AS de forma desnecessária para trafegar um pacote que deveria ser descartado previamente.
Este trabalho desenvolve um sistema de monitoramento de rotas padrão em Sistemas Autônomos que permite operadores de redes e pesquisadores analisar a adoção desta prática em diversos ASes.
A Internet das Coisas Industrial (IIoT) tem se tornado fundamental para a modernização de ambientes produtivos, exigindo redes de comunicação cada vez mais robustas e resilientes. No entanto, falhas de enlace representam uma ameaça constante à continuidade das operações industriais, podendo comprometer a qualidade do serviço e paralisar processos críticos. Este trabalho propõe uma abordagem baseada em Aprendizado por Reforço (Reinforcement Learning – RL) para promover a resiliência topológica em redes IIoT. Um agente é treinado em ambiente simulado para detectar falhas e tomar decisões corretivas de forma autônoma, reorganizando a estrutura da rede diante de alterações na conectividade. A proposta visa reduzir o impacto de falhas de comunicação, melhorar a continuidade dos serviços e demonstrar a viabilidade do uso de inteligência artificial para o gerenciamento adaptativo de redes industriais.
Abstract
Quantum computing is developing fast, and it threatens to break classical public-key cryptography that currently secures the internet communications (quantum computers enable the “Harvest Now, Decrypt Later” attack, where encrypted data captured today could be decrypted by future quantum computers). To address this problem, hybrid TLS 1.3 protocols combine classical algorithms with post-quantum key encapsulation mechanisms (KEM), providing security during this critical transition period before quantum computers become practical. However, this hybrid approach introduces new complexity and potential vulnerabilities that existing security analysis tools cannot adequately assess, as they lack support for post-quantum extensions and hybrid configurations.
In light of these limitations in current tooling and the growing complexity of hybrid TLS, the present work builds upon the initial groundwork produced in POC I (Projeto Orientado em Computação (Guided Project in Computing)). The exploratory research conducted in POC I established the theoretical foundation through literature review and validated hybrid handshake functionality through experimental testing, this work (POC II) addresses two critical gaps identified in the first phase: (1) the lack of automated tools for analyzing post-quantum components in hybrid TLS handshakes, and (2) deepen the understanding of downgrade attack vulnerabilities targeting these hybrid configurations during the transition period. To study these problems, this work developed a TLS parser for automated analysis of hybrid configurations and analyzed specifications for downgrade
attack scenarios.
The developed parser successfully identifies post quantum groups (ML-KEM-512/768/1024) in real TLS handshakes. Additionally, theoretical specifications for two downgrade attack scenarios targeting hybrid TLS were analyzed: post-quantum component removal, and algorithm weakening. These specifications document potential vulnerabilities that were based on the study of the RFC 8556 protocol documentation and historical precedents including FREAK and Logjam attacks, that exploited similar downgrade vulnerabilities in classical TLS implementations. Therefore, this work contributes both for a functional analysis tool enabling automated offline assessment of hybrid TLS configurations and educational documentation of security challenges that requires attention during the post-quantum cryptographic transition.
A presente pesquisa tem como objetivo analisar o impacto das diretrizes de contribuição na qualidade dos testes de unidade de projetos hospedados no GitHub, escritos em TypeScript, selecionados com base em critérios de popularidade e atividade recente. A metodologia envolve a coleta e organização manual dos trechos de guideline que especificam sobre como elaborar testes de unidade com qualidade; análise sobre o cumprimento de tais trechos nos respectivos projetos; e análise comparativa entre os resultados obtidos. Ao final da pesquisa, espera-se conseguir avaliar se a especificação de como escrever testes com qualidade nas Diretrizes de Contribuição realmente impacta a escrita dos testes.
Knee osteoarthritis (KOA) is a high-impact degenerative disease whose diagnosis can be improved with artificial intelligence (AI). Existing models, however, often lack validation for the Brazilian population and efficient integration into clinical workflows. This study presents the development and validation of a multimodal model for KOA diagnosis using radiographic images and clinical epidemiological data from the ELSA-Brasil MSK study. The methodology employed a serial triage architecture: a clinical model (Logistic Regression optimized via Minimal Predictive Model Search [MPMS]) acts as a high-sensitivity filter, followed by a Deep Learning image model (DenseNet-161) for final confirmation. The image model achieved an Area Under the ROC Curve (AUC ROC) of 0.866, while the optimized clinical model achieved an AUC-ROC of 0.827. In a simulated triage scenario, this serial approach reduced the need for radiographic exams by 44.5% while maintaining a high overall sensitivity of 84.5% and achieving a final specificity of 99.7%. These results demonstrate that a multimodal AI approach can provide a robust, cost-effective, and validated tool for KOA screening in the Brazilian context.
No cenario corrente da economia global, o acesso à informacao tornou-se tanto heroi quanto algoz dos analistas do mercado financeiro. Tanto para especialistas quanto para amadores, ha uma imensa quantidade de informacao sendo constantemente disponibilizada para analise. Em meio a essa quantidade massiva de dados, realizar tarefas como precificacao das empresas e analise prospectiva de precos de papeis de forma manual se torna tarefa inviavel.
Todavia, a analise de indicadores fundamentalistas é parte basilar do ferramental de profissionais do mercado financeiro[1].
Este trabalho, portanto, almeja utilizar mecanismos de Inteligencia Artificial para agregar indicadores fundamentalistas de empresas de um determinado tipo na bolsa de valores na previsao de retornos futuros da mesma.
Este trabalho investiga o comportamento do compilador Honey Potion, que traduz codigo Elixir de alto nıvel para compatıvel com eBPF visando aplicacoes de monitoramento de sistemas. Conduzimos um estudo baseado em quatro benchmarks de monitoramento (CPU, memoria, rede e disco), comparando tres cenarios: benchmark em C escrito manualmente, o bench mark equivalente escrito em Elixir e o codigo C gerado pelo compilador. Os resultados revelam um aumento expressivo no volume de codigo , em media, o C gerado é 8,93 vezes maior que o codigo Elixir e 4,45 vezes maior que implementacoes em C otimizadas, podendo alcancar um overhead de ate 20 vezes em funcionalidades basicas.
A analise estrutural mostra que o compilador insere aproximadamente 55 linhas de inicializacao por programa e expande sistematicamente construcoes de alto nıvel: operacoes aritmeticas resultam em 6–7 linhas de C, buscas em mapas atingem cerca de 10 linhas e condicionais tornam-se cadeias profundamente aninhadas. A adocao de um sistema generico de tipos impoe custos adicionais de memoria e processamento devido `a conversao frequente entre estruturas “Generic” e tipos primitivos.
Observamos ainda padroes recorrentes de duplicacao de codigo em benchmarks complexos, como NetworkMonitor e DiskMonitor, que apresentam contagens identicas de linhas apesar de pertencerem a domınios distintos, evidenciando limitacoes na especializacao do processo de transformacao.
Os achados caracterizam de forma sistematica os trade-offs entre expressividade da linguagem, produtividade de desenvolvimento e eficiencia de execucao em ambientes restritivos como o eBPF. Com base nisso, identificamos oportunidades concretas de otimizacao para o compilador, incluindo geracao de codigo especializada por tipo, reducao de variaveis temporarias e eliminacao de verificacoes redundantes de excecoes, capazes de reduzir significativamente o overhead sem comprometer seguranca e robustez.