Pular para o conteúdo

Este projeto avança na exploração da geração procedural de ambientes tridimensionais, centrando-se na implementação e otimização de transições suaves entre múltiplos biomas usando o algoritmo de Marching Cubes em GPU. O objetivo foi criar uma metodologia que permitisse a representação de variados biomas com transições visuais coerentes e naturalísticas, melhorando a imersão e a diversidade dos ambientes gera dos. Utilizamos Unity 3D com programação em C para a CPU e HLSL para a GPU, desenvolvendo um sistema que emprega mapas de ruído e interpolação de características para definir e integrar biomas de maneira dinâmica. O projeto destacou-se pela introdução de um método inovador de codificação binária para biomas, facilitando a geração de regiões de transição com base em valores interpolados. Os resultados de monstraram melhorias significativas na fluidez e na qualidade visual dos ambientes procedurais, oferecendo novas possibilidades para aplicações em jogos, simulações educativas e experiências de realidade virtual. Este estudo não só confirmou a viabilidade técnica das técnicas propostas mas também abriu caminhos para futuras investigações sobre otimizações adicionais e aplicações práticas.

Este trabalho explora o uso do Telegram como ferramenta auxiliar na disseminação de conteúdo radicalizador através de vídeos provenientes de plataformas de vídeos, principalmente do YouTube. Neste segundo trabalho, buscamos realizar um fine-tuning a fim de discriminar o conteúdo semantico e textual de vídeos que majoritariamente foram submetidos à processos de moderação em comparação com vídeos ainda disponíveis. Isso permite a detecção do conteúdo que está disponível mas que apresenta proximidade semantica com o conteúdo.

O desenvolvimento de jogos eletrônicos é uma atividade complexa, que envolve múltiplas áreas de conhecimento, desde lógica às artes visuais, e a utilização de ferramentas especializadas e, por isso, consiste em um desafio único na área de engenharia de software [1]. Os desenvolvedores de jogos enfrentam o desafio não apenas de conceber jogos que se conectem com o público alvo, mas também de lidar com as complexas demandas técnicas inerentes à programação de jogos digitais [2].
Na esfera educacional, os jogos eletrônicos têm ganhado importância como ferramentas de ensino, servindo para envolver alunos de maneira mais imersiva. No entanto, a criação de jogos educacionais personalizados esbarra na complexidade dos motores de jogos (ou game engines), que são softwares ou conjunto de ferramentas projetadas para auxiliar no desenvolvimento de jogos digitais. Geralmente essas engines são voltadas para profissionais da indústria de jogos e, portanto, inacessíveis para a maioria educadores e estudantes sem experiência em programação [3].
Neste cenário, surgem ferramentas de design de jogos simplificados, que buscam democratizar o processo de desenvolvimento, reduzindo a complexidade técnica e tornando a criação de jogos acessível para educadores que podem não possuir uma experiência técnica mais avançada. Esta pesquisa se concentra na necessidade de simplificar o processo de criação de jogos e visa desenvolver um protótipo de criação de jogos que tenha uma interface simplificada e seja mais acessível a educadores do ensino fundamental brasileiro.
Na primeira parte deste trabalho, foi realizada uma análise de motores de jogo (game engines) que possibilitam o desenvolvimento de uma interface simplificada, e chegou-se à conclusão de que usar a Godot Engine1 é um caminho prático e viável. Também foi estabelecido um escopo de funcionalidades do protótipo, que será utilizado para orientar o desenvolvimento da interface de construção de jogos simplificada. Como continuação deste trabalho, foi implementado um protótipo de ferramenta autoral para desenvolvimento de jogos educativos considerando o escopo de funcionalidades identificado.

Este artigo descreve uma avaliação de interação humano-computador do site do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (DCC UFMG), concentrando-se em aspectos críticos como usabilidade, comunicabilidade, experiência do usuário e acessibilidade. A metodologia empregada envolve, após as Análises Heurística e de Acessibilidade, a documentação dos problemas e implementações das soluções no sistema de testes do DCC. Junto disso, desenvolveu-se um Workshop de Acessibilidade para a equipe do DCC, incentivando sua aplicação. A concretização deste estudo objetiva a identificação de melhorias práticas para aprimorar a qualidade da interação do ambiente virtual do DCC UFMG.

As doenças cardiovasculares representam um grande desafio para os sistemas de saúde devido às complicações crônicas e a alta taxa de mortalidade. Este projeto propõe uma técnica para prever a evolução do paciente ao longo do tempo para evitar danos a sua saúde e poder compor tratamentos que melhor se adequem a sua situação. O projeto é composto por quatro fases: um extrator de atributos, um mapa causal para relacionar as informações do exame e do paciente, um modelo geracional para produção de contrafactuais ao longo do tempo como prognostico futuro, e a geração de uma métrica de saúde do paciente. A primeira parte do projeto, apresentada neste relatório, discute as duas primeiras fases e apresenta os resultados do extrator de atributos e do mapa causal.

Este relatório descreve o desenvolvimento de uma metodologia para a clusterização dos setores do Ibovespa, levando em consideração correlações entre os ativos e sensibilidades a variáveis macroeconômicas. A pesquisa é dividida em duas etapas principais: a primeira envolve a analise de correlação dos retornos dos ativos, enquanto a segunda foca na avaliação de métricas de risco e sensibilidade a variáveis macroeconômicas para uma clusterização refinada. O objetivo e facilitar a escolha de alocação de recursos de forma conjunta, proporcionando agilidade e clareza no processo de gestão de carteiras. Os resultados esperados incluem um modelo inovador que pode ser validado e utilizado para otimização de portfolios.

Este trabalho investiga a viabilidade e a rentabilidade das apostas de arbitragem, utilizando ferramentas de web scraping e modelagem quantitativa. Com o crescimento do mercado de apostas on-line no Brasil, especialmente em eSports, identificamos oportunidades significativas para apostas de arbitragem. Utilizando dados reais coletados de grandes casas de apostas, realizamos simulações para avaliar os lucros potenciais com e sem a inclusão de riscos. As simulações demonstraram que os lucros mensais podem ser extremamente
significativos, evidenciando o potencial desse metodo. No entanto, riscos associados, como erros nas odds após a aposta, foram  considerados e modelados.
Além disso, exploramos estratégias alternativas, como apostar em uma unica casa com odds favoráveis, e analisamos os  desafios e limitações das abordagem, incluindo a necessidade de
uma banca maior e o aumento da volatilidade. As conclusões indicam que, apesar dos desafios, a arbitragem oferece um campo promissor e pouco explorado, com muito potencial para futuras pesquisas. Sugerimos a exploração de diversas casas de apostas, a identificação de padrões de erro nas odds e a automatização do processo para maximizar os lucros. Também discutimos a  importância de estratégias para as casas de apostas evitarem situações de arbitragem de forma eficaz e atraente para os jogadores. Concluímos que o estudo de apostas de arbitragem e uma area emergente e promissora, com vastas oportunidades de descoberta e otimização.

A presença das mulheres nas áreas STEM (ciência, tecnologia, engenharia e matemática) é notoriamente menor do que a dos homens, fato que atrai a atenção de universidades e empresas nos últimos anos e que deve ser analisado,  principalmente, no que refere-se à participação feminina nos cursos de graduação relacionados ao tema. Diante do exposto, esse trabalho busca analisar a realidade dos cursos do ramo na Universidade Federal de Minas Gerais, servindo de comparação com o cenário em outras faculdades e promovendo um estudo de caso com aplicações de possíveis melhorias para a situação atual.

Este trabalho aborda a automação de parte do processo de criação de animações, com o
objetivo de reduzir o esforço necessário para a produção de animações.
O trabalho visa atingir essa automação desenvolvendo técnicas para combinar ilustrações e valores gerados por depth maps para gerar uma ilustração que possa passar por
movimentações simulando um movimento tridimensional.
Desse modo, são exploradas técnicas relacionadas a renderização 3D em tempo real
e manipulação de objetos representados por meshes.

Neste trabalho, apresentamos um novo modelo para redes sem fio obstruídas: o UDGO (Unit Disk Graph Obstructed). O modelo foi avaliado no simulador COOJA, que foi estendido para estudar redes sem fio obstruídas. Em particular, estudamos o comportamento do alcance de transmissão crítico (Critical Transmission Range, CTR). Nosso modelo é baseado em uma estrutura de grade de segmentos de rua unidimensionais e interseções de ruas bidimensionais. Essa estrutura oferece uma representação realista de uma variedade de cenários de redes sem fio com obstáculos e, ao mesmo tempo, permite uma análise suficientemente simples.

Este trabalho apresenta a aplicação da Programação Evolutiva para otimizar pesos de Redes Prototípicas utilizando uma arquitetura adaptada da AlexNet. O objetivo e explorar a combinação de algoritmos evolutivos com redes neurais para melhorar a eficiência em tarefas de classificação de imagens em cenários de few-shot learning. Foram utilizados os conjuntos de dados Oxford 102 Flowers e Omniglot para validar a abordagem.
Os resultados demonstram que o algoritmo evolutivo proposto supera os métodos tradicionais de treinamento de redes neurais,  alcançando maior precisão na classificação de imagens com poucos exemplos de treinamento. Este desempenho superior é atribuído a capacidade do algoritmo evolutivo de evitar mínimos locais e explorar melhor o espaço de busca de soluções.

O objetivo deste projeto foi desenvolver um software para gestão e controle de estoque, projetado para atender as demandas das clínicas odontológicas. Esse software tem o potencial de aprimorar a eficiência e a lucratividade dessas clínicas, fornecendo uma solução integrada para gerenciamento de estoque. Este relatório detalha o objetivo do projeto, a metodologia empregada e os resultados apresentados, com destaque para as técnicas e boas práticas de engenharia de software aplicadas para aprimorar a qualidade e eficacia da solução. Ao seguir padrões de design robustos, manter uma arquitetura consistente e utilizar frameworks e ferramentas de desenvolvimento modernos, o projeto demonstra como uma engenharia cuidadosa visa resultar em uma aplicação sustentável, escalável e fácil de usar, adaptada às necessidades específicas dos profissionais dentistas.

Estamos diante da revolução digital do século XXI que vai conectar o mundo físico ao virtual: a Internet das Coisas (IoT, em inglês, Internet of Things). Trilhões de dispositivos embarcados, também chamados de objetos inteligentes, conectados pelo protocolo de Internet (IP, na verdade IPv6). O impacto da Internet das Coisas é significativo, uma franca promessa de melhor monitoramento ambiental, economia de energia, redes inteligentes, cidades inteligentes, fábricas mais eficientes e melhores logísticas, melhores sistemas de saúde e casas inteligentes.

Nós propomos uma simulação integrada, um novo tipo de simulação de redes de sensores sem ­fio, que permite simulações holísticas de diferentes níveis. Nós apresentamos uma implementação desse simulador, COOJA, um simulador para o sistema operacional de nós sensores Contiki. COOJA possibilita a simulação simultânea da rede, do sistema operacional e, até, no nível dos códigos de instrução da máquina.

No dinâmico panorama agrícola do Brasil, os seguros rurais desempenham um papel fundamental, abordando preocupações econômicas, de sustentabilidade ambiental, de inclusão social e de desenvolvimento rural. As atividades agrícolas,  susceptíveis a diversos riscos, necessitam de estratégias sofisticadas de mitigação e gestão de riscos.
Este estudo tem como objetivo coletar e caracterizar dados de referencia, desenvolvendo um metodo para prever potenciais sinistros em áreas agrícolas ao longo do período contratual. Combinando analise de imagens de satélite, dados espectrais, informações descritivas das áreas seguradas e dados climáticos, o objetivo é classificar cada apólice de seguro. Os resultados previstos são a implementação de um modelo de redes neurais, robusto e capaz de fazer distinção entre propriedades que apresentaram ou não a ocorrência de sinistros.

Novas formas de transmissão de conteúdo da TV digital possibilitam o acesso a quantidades cada vez maiores de filmes e programas. Com a variedade crescente de opções de programação, cresce também a dificuldade de se organizar esses programas e de encontrar con- teúdos de interesse. Informações sobre programas de TV existem em abundância, assim como informações sobre seu público, mas não há ainda um conjunto exaustivo de dados, nem um padrão que os governe. O objetivo deste trabalho foi dar início à construção desse conjunto, como base para estudos futuros sobre o domínio da TV digital.

Este trabalho descreve o processo de estudo, coleta e armazenamento de dados referen- tes a programas da TV digital e seus espectadores. A partir de fontes selecionadas da web, em particular, redes sociais voltadas ao compartilhamento de preferências e projetos abertos sobre entidades da TV, buscou-se obter o maior número possível de informações descritivas sobre os programas e sobre sua relação com usuários. O banco de dados obtido ao final desta etapa de trabalho cumpre seu objetivo de permitir a derivação de conclusões sobre a forma como pro- gramas de TV se relacionam entre si e com seus espectadores. Estas informações poderão ser utilizadas como base para a organização de diferentes programas de acordo com suas diferenças e semelhanças. Se organizados num espaço relacional, será, então, possível obter um mapa da TV digital.

O aumento na adoção da internet abriu caminho para uma nova onda de aplicações e mudou drasticamente o modelo de negócios de diversos serviços. O modelo tradicional de radiodifusão, que utiliza ondas eletromagnéticas para transmissão de conteúdo, também foi afetado. Hoje em dia, a transmissão de rádio baseada na Internet já é uma realidade.

Uma vantagem do rádio pela internet sobre o rádio por ondas é a possibilidade de acessar estações de rádio de outros países, algo que não seria possível devido ao alcance limitado das ondas de rádio. Outra vantagem é o baixo custo da transmissão de conteúdo de rádio pela Internet. Além disso, a coleta e análise de dados de usuários possibilita a geração de conteúdo personalizado e uma melhor colocação de propaganda pelas estações.

O principal objetivo deste trabalho é a coleta e caracterização desse tipo de serviço de difusão de conteúdo. Para isso, serão coletados dados do SHOUTcast, um serviço gratuito para a transmissão de áudio criado em 2004 pela Nullsoft. O objetivo é a coleta de uma quantidade relevante de dados, e os trabalhos de caracterização serão direcionados em dois aspectos: fatores relacionados à audiência e conteúdo de propaganda, uma vez que o modelo financeiro das estações de rádio depende de propagandas.

Hoje em dia, as redes de data centers ainda são otimizadas para métricas estáticas, como o diâmetro ou o caminho mais longo. Essa abordagem tem uma falha fundamental: é necessário decidir com antecedência quanto de capacidade alocar para cada link, o que torna a interconexão ou muito cara ou impõe limites no desempenho das aplicações quando a demanda excede a capacidade alocada para algum link. Para resolver esse problema, novas tecnologias estão surgindo para possibilitar interconexões reconfiguráveis em data centers. Essa tendência, por sua vez, cria a necessidade de novos protocolos de roteamento, que sejam capazes de otimizar a topologia da rede de acordo com o padrão de comunicação entre os hosts finais em tempo real.

SplayNets é uma generalização das clássicas estruturas de dados de árvores splay: dado um conjunto de solicitações de comunicação e uma rede composta por n nós, o objetivo é encontrar e ajustar dinamicamente uma topologia de árvore (roteável localmente), que otimize o custo de roteamento para o padrão de comunicação dado e minimize os custos de reconfiguração topológica. Neste trabalho, apresentamos a primeira implementação distribuída e concorrente de tais SplayNets autoajustáveis. Implementamos o algoritmo e planejamos realizar um estudo de simulação aprofundado dos aspectos orientados ao sistema do SplayNets utilizando cargas de trabalho reais de data centers.

Demand-aware reconfigurable datacenter networks can be modeled as a ToR-Matching-ToR (TMT) two-layer architecture, in which each top-of-rack (ToR) is represented by a static switch, and n ToRs are connected by a set of reconfigurable optical circuit switches (OCS). Each OCS internally connects a set of in-out ports via a matching that may be updated at runtime. The matching model is a formalization of such networks, where the datacenter topology is defined by the union of matchings over the set of nodes, each of which can be reconfigured at unit cost.

In this work, we propose a scalable matching model for scenarios where OCS have a constant number of ports. Furthermore, we present OpticNet, a framework that maps a set of n static ToR switches to a set of p-port OCS to form any constant-degree topology. We prove that OpticNet uses a minimal number of reconfigurable switches to realize any desired network topology and allows applying any existing self-adjusting network (SAN) algorithm on top of it, also preserving amortized performance guarantees. Our experimental results based on real workloads show that OpticNet is a flexible and efficient framework to design efficient SANs.