
Análises quantitativas das métricas do mercado imobiliário são de extrema importância para os participantes e observadores desse mercado. Nesse contexto, a utilização de métodos computacionais para prever essas métricas pode desempenhar um papel crucial. Este trabalho teve como objetivo o desenvolvimento de modelos de aprendizado de máquina para a predição de preços e liquidez, utilizando um conjunto de dados relacionados à venda e liquidez de imóveis residenciais no município de Belo Horizonte. Como resultado desse desenvolvimento, foram obtidos modelos de predição de preços que superaram o desempenho do modelo de regressão linear múltipla encontrado no POC I. Além disso, foram desenvolvidos modelos de predição de liquidez que apresentaram resultados superiores aos obtidos por modelos aleatórios, inclusive alcançando resultados de precisão superiores a 50% e com valores de revocação razoáveis, especialmente considerando a natureza desbalanceada do problema.
A politização é um fenômeno social caracterizado pelo grau de que tópicos não políticos recebem um tom político. Ao longo dos anos, tópicos como como religião, vacinas e mudanças climáticas foram sujeitos a intensa politização, especialmente nas redes sociais, o que permite o estudo desse processo, pois há grandes quantidades de dados disponíveis. Utilizamos esses dados para avaliar a politização por meio de um método baseado em topic shifts de ou para a política. Para isso, treinamos um classificador usando PU-learning, pois os rótulos políticos podem ser facilmente obtidos a partir de palavras-chave, enquanto os não políticos são escassos. Nossos resultados sugerem que as plataformas estudadas mostram evidências de politização, especialmente na discussão de tópicos controversos, como economia e educação.
O principal objetivo do presente trabalho é apresentar as atividades realizadas durante o Projeto Orientado em Computação II. O projeto é de cunho tecnológico e tem como objetivo a construção de uma ferramenta de gestão de turmas para o curso de extensão: “Introdução à Computação para Bioinformática”, ministrado pela professora Raquel Minardi. A ferramenta será importante para executar a analítica de aprendizagem por meio dos dados gerados pelos alunos, permitindo o acompanhamento mais detalhado e menos trabalhoso destes, visto que o curso é ministrado em um ambiente remoto e possui turmas com um número grande de estudantes.
Para demonstrar os resultados do projeto, primeiro é apresentada a contextualização e os trabalhos relacionados com as atividades desenvolvidas. Após isso, é apresentada a metodologia e o processo de desenvolvimento das atividades realizadas durante o projeto, sendo as principais: a análise exploratória dos dados, a definição das visualizações e do modelo preditivo, a implementação do modelo preditivo e a implementação da ferramenta. Em seguida, são apresentados os resultados alcançados no Projeto Orientado em Computação II, em conjunto com discussões e observações sobre tais resultados. Por fim, são apresentadas as conclusões e também os trabalhos futuros.
O principal objetivo do presente trabalho é descrever o processo de desenvolvimento de uma ferramenta para análise de dados do curso “Introdução à Computação para Bioinformática”, detalhando o que foi realizado e os resultados obtidos após o curso das disciplinas Projeto Orientado em Computação I e Projeto Orientado em Computação II. No primeiro semestre de desenvolvimento foram realizados estudos prévios acerca das questões relevantes para o desenvolvimento, foram coletados e tratados dados do curso a serem utilizados na construção dos protótipos da ferramenta. No segundo e último semestre de desenvolvimento do projeto foram coletados mais dados e foi desenvolvido um dashboard contendo as visualizações desenvolvidas anteriormente, além de novas visualizações. Por fim, foi realizada uma análise breve e objetiva a partir das visualizações geradas, sugerindo que a ferramenta será útil para acompanhar a evolução do curso e obter entendimentos em relação a questões relacionadas a ele.
O relatório a seguir descreve a criação, sob a metodologia Lean Startup, de um protótipo de produto chamado Beautiful Book Generator. O sistema tem como função tratar a publicação de textos na web realizada pela aplicação Web Google Docs(1), que é considerada inadequada em termos de layout e segurança por uma grande parte dos usuários, republicando o texto com um design universal e mais profissional.
Neste trabalho foram utilizadas técnicas de processamento de linguagem natural em conjunto com os livros da série A Song of Ice and Fire, de George R R Martin, com intuito de representar os diversos elementos presentes na série de forma coerente. Nos experimentos realizados, algumas as representações refletem vários dos contextos presentes na história contada na série de livros. Entretanto, também foram encontrados algumas dificuldades como para representar vários elementos de tipos diversos, onde não há clareza nos grupos apresentados.
A Resolução 382/2006 do Conselho Nacional de Meio Ambiente define que emissões fugitivas são lançamentos difusos na atmosfera de qualquer forma de matéria sólida, líquida ou gasosa, efetuada por uma fonte que não possui dispositivo projetado para dirigir ou controlar seu fluxo. É importante salientar que emissões fugitivas resultam em perdas econômicas, além de ambientais, devido aos produtos contidos em tais emissões.
Mediante isso, um problema que foi apresentado pela Usiminas é de que a empresa não conseguia identificar as emissões fugitivas, de uma forma rápida e eficiente, uma vez que dependiam da análise de um funcionário que visualizava as imagens gravadas no dia anterior e classificava as emissões ocorridas dentro dos três níveis de classificação, sendo então este um processo lento, visto que alguma emissão poderia passar despercebida por esse funcionário. Ademais, os vídeos que eles utilizam para analisar os vazamentos, assim como os que foram cedidos, apresentam baixa resolução e pouca visibilidade, não sendo possível distinguir o tipo de emissão ao avaliar a imagem apenas por um ângulo, uma vez que parte da qualidade dos vídeos é perdida ao extrair do sistema da empresa.
A solução deste problema é fundamental para Usiminas, assim como para outras siderúrgicas, uma vez que há a necessidade de uma maior acurácia na distinção dos tipos de emissão,
como por exemplo, se uma emissão é de algum gás nocivo ou se é de vapor.
As emissões são classificadas em níveis de intensidade visual de acordo com a experiência da equipe de gerenciamento de emissões atmosférica da Gerência Geral de Meio Ambiente e das áreas operacionais.
• GRAU 1: Pequena Intensidade
• GRAU 2: Média Intensidade
• GRAU 3: Elevada Intensidade
As metas basearam-se em torno da tentativa de sanar o problema. Sendo assim, elas eram mudadas a cada 15 dias, quando as reuniões de equipe ocorriam, juntamente com pessoas de diferentes áreas da empresa (meio ambiente, recursos humanos e inovação).
Alguns problemas enfrentados para solucionar o problema da empresa foram: conseguir analisar os vídeos com clareza, uma vez que as imagens não possuem muita nitidez; conseguir um bom dataset de imagens, para utilizar no treinamento do algoritmo de aprendizado. Entretanto, ir até a Usiminas, no polo de Ipatinga, ajudou na visualização do real problema que seria solucionado, esclarecendo dúvidas e dando maior embasamento para o que poderia ser feito
O principal objetivo do presente trabalho é mostrar resultados acerca de diferentes análises sobre publicações jornalísticas e variações em ações da bolsa de valores. A intenção dessa exposição é a tentativa de atestar o poder da mídia na economia brasileira. A fim de obter informações relevantes, foi necessário explorar dados de publicação de pesquisas eleitorais e, também, de publicações de notícias em geral obtidas no portal online do DataFolha, de modo a verificar quais são as possíveis relações entre os dados e as variações de ações contidas no IBOVESPA. A análise sobre pesquisas eleitorais foi feita analisando correlações de Pearson e Spearman entre os pontos percentuais de candidatos com as variações de ações selecionadas da bolsa. E a análise sobre notícias gerais priorizou as categorias de cada notícia como foco de trabalho, a intenção era encontrar o quão forte ou fraco a quantidade de notícias publicadas em um dia, de uma categoria especifica, poderia estar afetando na valorização ou desvalorização de uma ação.
O Padrão de Propagação de Ondas Irregulares (IWPP) é um padrão de computação que implementa de maneira eficiente variados dos algoritmos morfológicos populares de processamento de imagens, como por exemplo Reconstrução Morfológica e Transformada de distancia. Dado seu aspecto genérico, executa-lo de maneira eficiente resulta em ganhos de desempenho significativos em diversas aplicações de processamento de imagens. Paralelizar o mesmo para sistemas distribuído busca melhorar o desempenho quando executando o processamento do imagens de alta resolução, 120k x 120k pixels, por exemplo.
O principal objetivo do presente trabalho é criar um dispositivo de IoT, controlado por aplicativo mobile (também criado neste trabalho), capaz de trancar e destrancar uma porta residencial, utilizando a própria chave e o mecanismo já existente na porta. O dispositivo deve ser capaz de receber, via internet ou bluetooth, comandos emitidos pelo aplicativo e reagir fisicamente, girando a chave acoplada. Além disso, o aplicativo deve possibilitar o recebimento de alertas de ”porta aberta” e toques de campainha, compartilhamento de chaves virtuais e registro de atividades por usuários.
Nesse trabalho é explorado o conceito de convolução em grafos para aprendizado de maquinas e como é possível expandi-lo para outras finalidades. Para tal, usando um conjunto de dados contendo textos em diferentes domínios, determinar sua autoria a partir da estruturação como um sub-grafo de um vocabulário aplicando operações de convolução dos nós.
This article describes an approach to using only two anchors to perform localization with Ultra-Wideband(UWB). Positioning of the anchors is key to achieve success in this work, and after a theoretical review, preliminar results will be shown as a step further to encourage future work.
A Teoria dos Jogos é um campo que ganhou muito espaço devido a sua versatilidade, sendo usada principalmente na análise de sistemas econômicos e modelos de negócio. Este trabalho utiliza conceitos desse ramo matemático, como Estratégia, Payoffs e Equilíbrio de Nash, juntamente com dados extraídos das ligas profissionais de basquete (NBA) para modelar jogos desse esporte. O modelo foi utilizado em simulações e os resultados foram comparados com os jogos reais.
Pesquisadores e administradores de rede utilizam ferramentas de medição de rotas na Internet para identificar e solucionar problemas, criar modelos e desenvolver novas técnicas e protocolos. O traceroute, por exemplo, é uma ferramenta utilizada para medição de rotas na Internet. Através do envio de pacotes IP com TTL limitado, o traceroute revela as interfaces entre uma origem e um destino na Internet. Com frequência, outras medições são utilizadas em conjunto com o traceroute para complementar as informações obtidas, e.g. identificação de balanceadores de carga, DNS reverso e mapeamento de endereço IP para ASN e IP aliasing. No entanto, explorar os resultados gerados por essas ferramentas pode não ser uma tarefa fácil. Nesse trabalho, inserimos extensões para o Route Explorer, uma ferramenta para visualização de rotas da Internet.
Most people use review sites such as Yelp to enhance their experiences when going out. Even though this kind of website offers a good basis, just a star review is not enough. In this paper we developed a sentiment analysis model that highlights the best and worst aspects of a few cuisines. The approach is based on a support vector machine (SVM) model that is used to unveil the sentiment tendency of each word in a review. Among the restaurant categories explored, we found that customers tend to value more service than food flavor and some common senses have been emphasized: Chinese food is usually greasy and French cuisine overpriced
Grande parte dos estudantes cursam o ensino superior com o objetivo de, futuramente, ingressar no mercado de trabalho. Durante sua permanência nas instituições
de ensino, esses estudantes já possuem a preocupação sobre como serão inseridos nesse mercado, se estarão suficientemente preparados e qual área irão seguir.
No caso das universidades públicas, parece existir uma percepção geral na comunidade de que elas preparam seus alunos com ênfase na promoção de pesquisa e inovação,
deixando-os despreparados para o mercado de trabalho. Isso fomenta entre os universitários uma preocupação ainda maior sobre o seu futuro profissional.
Nesse processo, o ganho de experiência pode ser essencial para a preparação do estudante. Estágio, trabalho voluntário, trainee, pesquisa, iniciação científica e participação
em empresas júniores são oportunidades que podem aprimorar a formação do aluno.
Portanto, um papel importante a ser desempenhado pelas instituições de ensino é captar, centralizar e divulgar essas oportunidades de forma acessível aos alunos, aproximando
o meio empresarial do meio acadêmico.
Os benefícios do sistema a ser desenvolvido nesse trabalho incluem a automatização do tratamento dos dados dessas oportunidades e a sua divulgação. Dessa forma, os dados ficarão centralizados em uma única plataforma, permitindo a futura aplicação de processos de análise e classificação de dados para um melhor entendimento das qualidades das oportunidades que as empresas e projetos oferecem aos alunos.
Com o desenvolvimento do sistema proposto, o usuário externo (ofertante da oportunidade) terá acesso a plataforma após o cadastro de sua empresa ou instituição, podendo,
então, gerenciar as oportunidades que serão ofertadas. A oportunidade será aprovada pela instituição de ensino e divulgada para o público alvo (estudantes) automaticamente, por
meio de API’s.
Esse projeto deverá ser aplicado no Departamento de Ciência da Computação da UFMG, que atualmente instrui as empresas a enviar a oportunidade de estágio ou emprego por email. Esse mecanismo introduz atrasos no processo de divulgação, já que não existe supervisão de envio de todas as informações obrigatórias para a publicação. Muitas vezes é necessário mais de um ciclo de trocas de emails até que sejam obtidas todas as informações necessárias para que a informação possa ser divulgada, manualmente, para o público alvo.
For a long time it was believed that trying to forecast stock prices from stock markets was an absurd idea given the unpredictable nature of such markets, and, indeed, many studies have suggested that. However with the rise of machine learning and data mining, new approaches for this problem were born and some of them achieved promising results. In the present study we implement and evaluate a predictive model that aims to forecast stock market prices based on a Temporal Association Rule Mining technique. The model is tested with brazilian stock market data and its results are compared to the traditional Buy and Hold strategy. The results here are also promising, since it is shown that the model is capable of overcoming the Buy and Hold baseline despite the fact that it makes a lot of wrong predictions.
A tecnologia Blockchain vem sendo muito discutida nos últimos anos, principalmente no que diz respeito as aplicações e escalabilidade. Em paralelo, a Blockchain corporativa Hyper-ledger Fabric surgiu para atender necessidades do ambiente corporativo. Com uma arquitetura baseada em sistemas distribuídos, possui um funcionamento específico e exige do desenvolvedor pré-requisitos e pesquisa para que seja implementada. Neste projeto foi escolhido um caso de uso real, o armazenamento de diplomas universitários, para demonstrar como a arquitetura e rede do Hyperledger Fabric são ao mesmo tempo complexas e impressionantes.