Pular para o conteúdo

Este projeto desenvolve um sistema de monitoramento para plantas de dessalinização utilizando o ESP32 e um aplicativo móvel. O sistema coleta dados de sensores de pH, temperatura, sensor que mede sólidos dissolvidos totais e os transforma através de uma formula em condutividade elétrica, transmitindo-os via Bluetooth para o aplicativo, desenvolvido com Flutter. O aplicativo possui três telas principais: conexão com o ESP32, recepção e compartilhamento de dados, e visualização de relatórios. Ate agora, o sistema de compartilhamento de dados e o aplicativo básico foram desenvolvidos com sucesso. A próxima etapa incluirá detecção de falhas, padronização dos dados e
envio ao servidor, garantindo um monitoramento robusto e eficiente.

Um dos três principais casos de uso do 5G são as comunicações ultra confiáveis de baixa

latência, as quais abrangem a operação de aplicacções remotas para a Indústria 4.0. Espera-
se que robôs autônomos, acionados por agentes de inteligência artificial rodando na nuvem,

operem sem assistência humana. Esta monografia investiga como o desempenho da rede afeta
o comportamento de controle autônomo remoto baseado em IA com aprendizado por reforço
profundo. Investigamos dois aspectos distintos: (i) o desempenho de um modelo pré-treinado
em condições ideais de rede e (ii) como as condições variáveis da rede impactam o desempenho
do agente no ambiente. Os resultados mostram que a qualidade da rede impacta diretamente no
desempenho do agente, e um agente pré-treinado fornece respostas melhores do que o treinamento
pela rede.

Bacterial resistance to antibiotics poses a major threat to global health, intensified by the improper use of antibiotics. The lack of effective and rapid diagnostic tools exacerbates the problem, resulting in less efficient treatments and increased spread of bacterial resistance. Therefore, there is an urgent need to develop models that can assist in more precise and restricted antibiotic prescriptions. Thus, the overall objective of this work is to aid in the construction of binary classification models aimed at determining whether a patient is infected by a given bacterium based on clinical and laboratory data. For this purpose, we used data from the Hospital das Clınicas at UFMG. Throughout this work, we will carry out a process of organizing and cleaning the data to extract both patient features and bacterial targets identified through bacterial culture results. To achieve this, we held weekly meetings with doctors from the Hospital das Clınicas, specialists in the hospital’s infectious disease area. This work enabled us to build primary databases that served as input and output for a Gradient Boosting-based model, trained using ROC (Receiver Operating Characteristic) AUC (Area Under Curve) as the optimization metric. Throughout this work, we underwent an extensive data cleaning and aggregation process to ensure that the data could serve as a foundation for this and other Artificial Intelligence (AI) studies in healthcare. Given the complexity of the problem, our models achieved reasonable results.

Planejamento Econômico é uma metodologia de alocação de recursos em uma economia de
forma racional e deliberada, utilizando coleta de dados e métodos matemáticos para decidir o
quê deve ser produzido em que quantidade para suprir as necessidades de uma população. Na era
da computação, a discussão sobre planejamento econômico re-emerge em uma perspectiva da
automatização do processo de planejamento para que possa ser realizado em grandes escalas.
Nesta etapa do trabalho descrevemos os fundamentos do planejamento econômico para que
possamos analisar essas soluções algorítmicas na etapa posterior.

A utilização de fechaduras eletrônicas integradas à um leitor RFID nas portas dos laboratórios do DCC é uma forma de digitalizar, além da segurança, o controle do acesso aos mesmos, de forma que cada usuário possua um ID único. Esse controle de acesso será por meio de um sistema integrado ao leitor RFID, sendo utilizado pelos professores pesquisadores dos laboratórios para adicionarem ou revogarem permissões de acesso aos mesmos, além de terem uma visão completa sobre os usos e acessos dos laboratórios com relatórios personalizados por laboratórios, datas e/ou usuários. Esse sistema de gerenciamento foi feito em Python utilizando um framework para API chamado Flask, com o objetivo de simplificar a sua implementação, além de tornar o sistema suscetível à novas funcionalidades, será disponibilizado online para acesso dos professores e administradores do CRC a fim de consulta e edição, conforme mencionado acima.

Uma maneira prática e segura de fazer um controle de acesso a uma sala é através de fechaduras eletrônicas com registro e controle de acesso.

A fechadura eletrônica simplifica o processo de concessão de acessos, pois estes podem ser feitos através de um sistema, sem a necessidade de cópias físicas de chaves. A permissão de acesso é dada automaticamente, ao indicar no sistema que determinado usuário pode entrar em determinada sala. Um usuário que deseja passar por uma fechadura eletrônica deve apresentar a sua chave eletrônica, que pode ser, por exemplo, um cartão com dados a serem lidos pela fechadura. O sistema da fechadura consulta um servidor e dependendo da resposta pode conceder ou não o acesso à sala. Com isso o acesso às salas torna­se intransferível, pois ele é atrelado à uma identidade. Este trabalho para ser implantado na UFMG, mas para fins de clareza, será considerado a sua implantação em uma organização genérica.

O objetivo principal deste trabalho é desenvolver um sistema de fechadura eletrônica com controle e registro de acesso de usuários e apresentar o protótipo ao final.

O grande impacto do advento da IA generativa trouxe para o mundo de engenharia de software um novo paradigma: o uso da IA como ferramenta de produção de código. Mais especificamente,
as inteligências artificiais generativas de texto como o chatGPT conseguem produzir trechos
de código de qualidades partir de prompts descritivos simples, oque levantou dúvidas entre
múltiplas comunidades acerca de qual nível essas novas ferramentas poderiam substituir o
próprio programador humano em si, mesmo com suas limitações. Nesse viés, este projeto
orientado a computação, comum a atuação empírica e experimentar, visou avaliar quantitativa e
qualitativamente a performance de uma promissora ferramenta de IA especializada na geração de
código, a extensão de IDEs GitHub Copilot, por meio da sua aplicação extensiva na resolução de
problemas de diferentes categorias e dificuldades de programação do repositório online beecrowd.

O ponto chave é avaliar, de forma exploratória, a sua performance e as estratégias lógico
estruturais empregadas pela ferramenta de IA generativa para desvelar contextos de uso úteis e
prejudiciais para o programador humano. Das linguagens usadas para os testes (JS e Python), os
resultados mostraram uma performance acima do esperado para problemas de dificuldade mais
fácil e categorias mais simples, mas com uma queda acentuada com o aumento da complexidade
geral dos problemas, produzindo mais erros e soluções incompletas. Tanto o Copilot quanto o
Copilot Chat, um chatbot dedicado ao uso em codificação, conseguem produzir resultados úteis e
bem estruturados em contextos triviais, mas para um contexto mais complexo e multifatorial,
introduzem um alto débito técnico e bugs sutis. O trabalho futuro deste projeto consiste em
explorar essa IA mais a fundo em outros contextos, mais especificamente em um contexto
educacional acerca de engenharia de software e corporativo, como uma revisão da literatura
acerca do uso atual da ferramenta em ambiente profissional de codificação.

O trabalho realizado consistiu na utilização de modelos de linguagem para realização de tarefas de recuperação de informação. As tarefas testadas foram: extração de informação estruturada, busca de informação em documentos e geração de consultas SQL.

In tensor data mining, discovering itemset-like patterns can be highly computationally intensive. This paper introduces a method for reducing the search space by pre-processing tensors to eliminate cells that cannot contribute to valid patterns. The proposed approach involves analyzing intersections between different tensor slices and applying noise limits to refine the search process. By removing subspaces that do not meet the specified criteria, we optimize the efficiency of the mining process without losing information about potential patterns. This tech nique enhances the computational feasibility of pattern discovery in large-scale tensor data and provides a practical solution for the problem.

O trabalho realizado consistiu na utilização de modelos generativos para facilitar a realização de tarefas de recuperação de informação. Buscou-se comparar os resultados obtidos com outros métodos, com intuito de avaliar a eficácia das ferramentas de web scraping baseadas em modelos generativos.

Aera da informação e da tecnologia tem revolucionado a forma como interagimos com o mundo ao nosso redor. Em ambientes acadêmicos, essa revolução não é diferente, onde sistemas de informação desempenham um papel fundamental na facilitação e otimização de processos. Neste contexto, a presente atividade prática integradora visa explorar e aprimorar a experiência do usuário no ambiente universitário, especificamente no que diz respeito ao sistema de recarregamento em dinheiro da carteirinha da Universidade Federal de Minas Gerais (UFMG).

O nosso sistema foi desenvolvido nos últimos dois semestres, na minha Monografia em Sistemas de Informação I e II, e pode ser acessado através do link, contudo, sabendo que o desenvolvimento de sistemas voltados para a comunidade acadêmica implica em uma constante busca por melhorias e adaptações que atendam às demandas e necessidades dos usuários, compreender os desafios enfrentados pelos usuários do sistema de recarregamento em dinheiro da carteirinha da UFMG é crucial para aprimorar sua usabilidade e eficácia.

Neste sentido, o presente estudo se propõe não apenas a identificar os problemas enfrentados pelos usuários, mas também a buscar soluções por meio de uma abordagem que envolve a participação ativa da comunidade acadêmica. O Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) se apresenta como umambiente propício para a realização de pesquisas que visam compreender as necessidades dos usuários e desenvolver soluções que atendam de forma eficiente e satisfatória às demandas identificadas.

O Typescript tem ganhado cada vez mais espaço no mercado, entre outros motivos, por ser o sucessor da linguagem Javascript que j´ a era muito popular e oferecer ferramentas para promover a programação segura e a legibilidade de código, como a definição estática de tipos. Apesar disso, a linguagem também oferece um tipo generico, o “any”, que desativa as medidas de segurança do compilador e aparentemente contradiz os princípios do Typescript. Segundo os criadores da linguagem, esse tipo generico existe como um tipo temporário a ser usado no processo de conversão de código Javascript para Typescript, mas ele acaba sendo usado como solução permanente em alguns projetos, o que pode trazer consequências inesperadas. Na etapa anterior, buscamos explorar com que frequência o uso do “any” ocorria e por que ele ocorria. Nessa etapa, desenvolvemos uma ferramenta que detecta o uso do “any” em código Typescript, aponta o lugar exato onde ele ocorre e apresenta outras informações  uteis para a sua substituição. A ferramenta está disponível publicamente em: https://github.com/HEITORPS123/anyeater

Este projeto examina o comportamento da indústria musical, observando as características que tornam uma música viral. Este estudo analisou a evolução de músicas hit de 2017 a 2021 usando métodos de processamento de linguagem natural (PLN) como Latent Dirichlet Allocation (LDA) e BERTopic para identificar tópicos que são recorrentes. Os dados são pré-processados para remover ruídos e então analisados para detectar padrões e sentimentos predominantes. A comparação obtida entre LDA e BERTopic mostra que o LDA fornece uma visão abrangente dos tópicos, enquanto BERTopic disponibiliza análises mais específicas e detalhadas. Estas descobertas destacam a diversidade dos tópicos das músicas e da linguagem ao longo dos anos e sugerem áreas para pesquisas futuras, incluindo a influência da cultura e da sociedade no sucesso musical.

O presente trabalho propõe o estudo e desenvolvimento de uma interface interativa para um sistema de comunicação bidirecional entre português e Libras, visando aprimorar a interação entre surdos e profissionais de saúde no ambiente médico. Essa iniciativa busca reduzir as barreiras linguísticas e superar os desafios comunicativos enfrentados por essa comunidade. Para atingir esse objetivo, este estudo se baseia em conceitos-chave da Interação Humano-Computador (IHC), destacando a importância do UX/UI Design e do Design Thinking.

Este trabalho aborda a aplicação da ciência de dados ao tênis, com foco na realização de análises estatísticas e no desenvolvimento de algoritmos para ranqueamento dos jogadores. Inicialmente, realizou-se uma investigação abrangente das bases de dados de tênis disponíveis publicamente. Utilizando técnicas de análise estatística, foram testadas diversas crenças amplamente difundidas na comunidade do tênis, com ênfase especial no fenômeno dos ”upsets”, em que jogadores favoritos, conforme os rankings oficiais, são derrotados por seus oponentes. Posteriormente, desenvolveu-se uma nova metodologia para a quantificação da habilidade dos jogadores, proposta como uma alternativa ao ranking oficial da ATP. Esta metodologia baseia-se no algoritmo PageRank, adotado como uma aproximação assintótica do modelo Bradley-Terry. A eficácia do ranking alternativo foi avaliada por meio da comparação da frequência de upsets por temporada, o que mostrou elevada correlação entre os resultados gerados pelo PageRank e o ranking oficial da ATP, sugerindo que a metodologia proposta pode servir como um complemento ou substituto válido para os sistemas de ranqueamento existentes.

A música tem um espaço grande na nossa vida e, além dessa relação emocional, é um mercado lucrativo. Neste projeto, busquei entender quais são as características que podem determinar a popularidade de uma música. Avaliei algoritmos de classificação e regressão para prever a popularidade de uma música e determinar quais são os principais atributos que compõem essa fórmula do sucesso em um dataset autoral construído a partir da coleta dos dados do aplicativo Spotify no qual contém dados relevantes sobre as canções, como a sua popularidade, a popularidade do artista, data de lançamento e informações musicais.

Este artigo descreve o desenvolvimento de uma plataforma web amigável para a realização de alinhamentos múltiplos de sequências biológicas utilizando o algoritmo Clustal Omega. Disponível via API, o Clustal Omega é uma ferramenta moderna e eficiente, ideal para esta aplicação. O principal objetivo do projeto é oferecer uma plataforma intuitiva e acessível, permitindo que pesquisadores, estudantes e profissionais de bioinformática concluam o primeiro passo necessário para a posterior realização de análises mais complexas de maneira rápida e descomplicada.

The evolving relationship between humans and autonomous systems has motivated the definition and characterization of Human-Integration (HInt) as a new paradigm within Human-Computer Interaction (HCI). HInt offers various challenges and opportunities for the field, including the design of partner technologies that interact symbiotically with users. Design Fiction emerges as a promising approach to explore these design challenges, allowing researchers and developers to speculate about future scenarios and evaluate the implications of human-technology integration. This study aims to provide a comprehensive overview of Design Fiction’s role in HInt, mapping the current state of research, identifying key trends, challenges, and gaps, and offering insights into the theoretical and practical applications of this approach. Analyzing 399 articles, the study finds a predominance of practical applications and case studies in Design Fiction. Despite this practical focus, there is a notable gap in theoretical foundations and methodologies, indicating a need for deeper exploration and robust method development. The temporal analysis shows a growing academic and practical interest in Design Fiction, highlighting its importance in anticipating ethical, cultural, and privacy implications in future human-technology partnerships.

Keywords— human-computer interaction, human-computer integration, design fiction, autonomous technologies, speculative
design
I