Avaliação da Efetividade de LLMs ao Resolver Code Smells Relacionados à Manutenibilidade de Software

Caio Simões da Silva Ferreira

A crescente complexidade dos sistemas de software modernos torna a manutenção uma tarefa desafiadora e crítica para garantir a longevidade e adaptabilidade desses sistemas. Code smells, que são indicadores de potenciais problemas no código-fonte, podem comprometer a manutenibilidade de software ao dificultar modificações, correções e melhorias. A identificação e correção desses code smells são essenciais para reduzir custos operacionais e melhorar a eficiência do desenvolvimento. No entanto, as abordagens tradicionais de análise e refatoração de código podem ser demoradas. Com o avanço dos Modelos de Linguagem de Grande Escala (LLMs), surge a oportunidade de automatizar e potencialmente aprimorar a detecção e correção de code smells, oferecendo uma solução promissora para esse campo da Engenharia de Software.

Este estudo tem como objetivo explorar a eficácia dos Modelos de Linguagem de Grande Escala (LLMs) na resolução de code smells relacionados à manutenibilidade de software, utilizando a LLM DeepSeek. A pesquisa propõe um método que envolve a seleção de projetos .NET no GitHub, análise estática com SonarQube, e a aplicação de prompts no DeepSeek para correção dos bad smells detectados. Os resultados esperados incluem uma discussão sobre a eficácia do DeepSeek na resolução de problemas de manutenibilidade, além da análise de quais tipos de erro a LLM mais comete ao realizar esse tipo de tarefa.


2025/1 - MSI2

Orientador: Eduardo Figueiredo

Palavras-chave: Code smells, Engenharia de Software, LLMs

Link para vídeo

PDF Disponível