Ronald Monteiro


2026

Este trabalho apresenta o Lispector, uma família de modelos de linguagem especializados para revisão gramatical e ortográfica em português brasileiro. Comparamos duas estratégias de inferência para a tarefa de correção gramatical de texto com grandes modelos de linguagem (LLMs): (1) fine-tuning supervisionado e (2) prompting few-shot em modelos de maior escala. Utilizando um conjunto de dados de 4.500 pares de textos reais de usuários (2.500 registros para treino, 1.000 para avaliação e 1.000 para teste), com referências corrigidas por linguistas, analisamos duas variantes do Lispector baseadas em diferentes tamanhos de parâmetros. A avaliação empregou as métricas BLEU, GLEU, METEOR e ROUGE. Os resultados demonstram que modelos menores submetidos a fine-tuning supervisionado superam consistentemente em todas as métricas modelos maiores que operam apenas com prompting, com o Lispector small alcançando ganhos expressivos em métricas de similaridade textual como GLEU (+12%) e BLEU (+13%). Assim, além do aumento de desempenho, os modelos fine-tuned apresentam comportamento mais previsível e conservador, características desejáveis em aplicações industriais de escrita assistida. No quesito latência, o Lispector small obteve a menor mediana de tempo de resposta entre todos os modelos e o menor P95 entre os fine-tuned; o Lispector large também se mostrou competitivo. Esses achados indicam que, para tarefas específicas de revisão textual em português brasileiro, o fine-tuning pode oferecer vantagens significativas em desempenho e eficiência computacional.