@inproceedings{medeiros-etal-2026-lispector,
title = "Lispector: Fine-tuning de Modelos de Linguagem para Revis{\~a}o Gramatical e Ortogr{\'a}fica em Portugu{\^e}s Brasileiro",
author = "Medeiros, Andresa and
Iszlaji, Felipe and
Sarmiento-Moreno, Claudia and
Muniz, Camila and
Ponciano, Larissa and
Dejigov, Larissa and
Monteiro, Ronald and
Kretikouski, Pedro and
Chaves, Guilherme",
editor = "Souza, Marlo and
de-Dios-Flores, Iria and
Santos, Diana and
Freitas, Larissa and
Souza, Jackson Wilke da Cruz and
Ribeiro, Eug{\'e}nio",
booktitle = "Proceedings of the 17th International Conference on Computational Processing of {P}ortuguese ({PROPOR} 2026) - Vol. 2",
month = apr,
year = "2026",
address = "Salvador, Brazil",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2026.propor-2.8/",
pages = "25--29",
ISBN = "979-8-89176-387-6",
abstract = "Este trabalho apresenta o Lispector, uma fam{\'i}lia de modelos de linguagem especializados para revis{\~a}o gramatical e ortogr{\'a}fica em portugu{\^e}s brasileiro. Comparamos duas estrat{\'e}gias de infer{\^e}ncia para a tarefa de corre{\c{c}}{\~a}o gramatical de texto com grandes modelos de linguagem (LLMs): (1) fine-tuning supervisionado e (2) prompting few-shot em modelos de maior escala. Utilizando um conjunto de dados de 4.500 pares de textos reais de usu{\'a}rios (2.500 registros para treino, 1.000 para avalia{\c{c}}{\~a}o e 1.000 para teste), com refer{\^e}ncias corrigidas por linguistas, analisamos duas variantes do Lispector baseadas em diferentes tamanhos de par{\^a}metros. A avalia{\c{c}}{\~a}o empregou as m{\'e}tricas BLEU, GLEU, METEOR e ROUGE. Os resultados demonstram que modelos menores submetidos a fine-tuning supervisionado superam consistentemente em todas as m{\'e}tricas modelos maiores que operam apenas com prompting, com o Lispector small alcan{\c{c}}ando ganhos expressivos em m{\'e}tricas de similaridade textual como GLEU (+12{\%}) e BLEU (+13{\%}). Assim, al{\'e}m do aumento de desempenho, os modelos fine-tuned apresentam comportamento mais previs{\'i}vel e conservador, caracter{\'i}sticas desej{\'a}veis em aplica{\c{c}}{\~o}es industriais de escrita assistida. No quesito lat{\^e}ncia, o Lispector small obteve a menor mediana de tempo de resposta entre todos os modelos e o menor P95 entre os fine-tuned; o Lispector large tamb{\'e}m se mostrou competitivo. Esses achados indicam que, para tarefas espec{\'i}ficas de revis{\~a}o textual em portugu{\^e}s brasileiro, o fine-tuning pode oferecer vantagens significativas em desempenho e efici{\^e}ncia computacional."
}<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="medeiros-etal-2026-lispector">
<titleInfo>
<title>Lispector: Fine-tuning de Modelos de Linguagem para Revisão Gramatical e Ortográfica em Português Brasileiro</title>
</titleInfo>
<name type="personal">
<namePart type="given">Andresa</namePart>
<namePart type="family">Medeiros</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Felipe</namePart>
<namePart type="family">Iszlaji</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Claudia</namePart>
<namePart type="family">Sarmiento-Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Camila</namePart>
<namePart type="family">Muniz</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Larissa</namePart>
<namePart type="family">Ponciano</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Larissa</namePart>
<namePart type="family">Dejigov</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Ronald</namePart>
<namePart type="family">Monteiro</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Pedro</namePart>
<namePart type="family">Kretikouski</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Guilherme</namePart>
<namePart type="family">Chaves</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2026-04</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<relatedItem type="host">
<titleInfo>
<title>Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 2</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marlo</namePart>
<namePart type="family">Souza</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Iria</namePart>
<namePart type="family">de-Dios-Flores</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Santos</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Larissa</namePart>
<namePart type="family">Freitas</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jackson</namePart>
<namePart type="given">Wilke</namePart>
<namePart type="given">da</namePart>
<namePart type="given">Cruz</namePart>
<namePart type="family">Souza</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eugénio</namePart>
<namePart type="family">Ribeiro</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>Association for Computational Linguistics</publisher>
<place>
<placeTerm type="text">Salvador, Brazil</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
<identifier type="isbn">979-8-89176-387-6</identifier>
</relatedItem>
<abstract>Este trabalho apresenta o Lispector, uma família de modelos de linguagem especializados para revisão gramatical e ortográfica em português brasileiro. Comparamos duas estratégias de inferência para a tarefa de correção gramatical de texto com grandes modelos de linguagem (LLMs): (1) fine-tuning supervisionado e (2) prompting few-shot em modelos de maior escala. Utilizando um conjunto de dados de 4.500 pares de textos reais de usuários (2.500 registros para treino, 1.000 para avaliação e 1.000 para teste), com referências corrigidas por linguistas, analisamos duas variantes do Lispector baseadas em diferentes tamanhos de parâmetros. A avaliação empregou as métricas BLEU, GLEU, METEOR e ROUGE. Os resultados demonstram que modelos menores submetidos a fine-tuning supervisionado superam consistentemente em todas as métricas modelos maiores que operam apenas com prompting, com o Lispector small alcançando ganhos expressivos em métricas de similaridade textual como GLEU (+12%) e BLEU (+13%). Assim, além do aumento de desempenho, os modelos fine-tuned apresentam comportamento mais previsível e conservador, características desejáveis em aplicações industriais de escrita assistida. No quesito latência, o Lispector small obteve a menor mediana de tempo de resposta entre todos os modelos e o menor P95 entre os fine-tuned; o Lispector large também se mostrou competitivo. Esses achados indicam que, para tarefas específicas de revisão textual em português brasileiro, o fine-tuning pode oferecer vantagens significativas em desempenho e eficiência computacional.</abstract>
<identifier type="citekey">medeiros-etal-2026-lispector</identifier>
<location>
<url>https://aclanthology.org/2026.propor-2.8/</url>
</location>
<part>
<date>2026-04</date>
<extent unit="page">
<start>25</start>
<end>29</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Lispector: Fine-tuning de Modelos de Linguagem para Revisão Gramatical e Ortográfica em Português Brasileiro
%A Medeiros, Andresa
%A Iszlaji, Felipe
%A Sarmiento-Moreno, Claudia
%A Muniz, Camila
%A Ponciano, Larissa
%A Dejigov, Larissa
%A Monteiro, Ronald
%A Kretikouski, Pedro
%A Chaves, Guilherme
%Y Souza, Marlo
%Y de-Dios-Flores, Iria
%Y Santos, Diana
%Y Freitas, Larissa
%Y Souza, Jackson Wilke da Cruz
%Y Ribeiro, Eugénio
%S Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 2
%D 2026
%8 April
%I Association for Computational Linguistics
%C Salvador, Brazil
%@ 979-8-89176-387-6
%F medeiros-etal-2026-lispector
%X Este trabalho apresenta o Lispector, uma família de modelos de linguagem especializados para revisão gramatical e ortográfica em português brasileiro. Comparamos duas estratégias de inferência para a tarefa de correção gramatical de texto com grandes modelos de linguagem (LLMs): (1) fine-tuning supervisionado e (2) prompting few-shot em modelos de maior escala. Utilizando um conjunto de dados de 4.500 pares de textos reais de usuários (2.500 registros para treino, 1.000 para avaliação e 1.000 para teste), com referências corrigidas por linguistas, analisamos duas variantes do Lispector baseadas em diferentes tamanhos de parâmetros. A avaliação empregou as métricas BLEU, GLEU, METEOR e ROUGE. Os resultados demonstram que modelos menores submetidos a fine-tuning supervisionado superam consistentemente em todas as métricas modelos maiores que operam apenas com prompting, com o Lispector small alcançando ganhos expressivos em métricas de similaridade textual como GLEU (+12%) e BLEU (+13%). Assim, além do aumento de desempenho, os modelos fine-tuned apresentam comportamento mais previsível e conservador, características desejáveis em aplicações industriais de escrita assistida. No quesito latência, o Lispector small obteve a menor mediana de tempo de resposta entre todos os modelos e o menor P95 entre os fine-tuned; o Lispector large também se mostrou competitivo. Esses achados indicam que, para tarefas específicas de revisão textual em português brasileiro, o fine-tuning pode oferecer vantagens significativas em desempenho e eficiência computacional.
%U https://aclanthology.org/2026.propor-2.8/
%P 25-29
Markdown (Informal)
[Lispector: Fine-tuning de Modelos de Linguagem para Revisão Gramatical e Ortográfica em Português Brasileiro](https://aclanthology.org/2026.propor-2.8/) (Medeiros et al., PROPOR 2026)
ACL
- Andresa Medeiros, Felipe Iszlaji, Claudia Sarmiento-Moreno, Camila Muniz, Larissa Ponciano, Larissa Dejigov, Ronald Monteiro, Pedro Kretikouski, and Guilherme Chaves. 2026. Lispector: Fine-tuning de Modelos de Linguagem para Revisão Gramatical e Ortográfica em Português Brasileiro. In Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 2, pages 25–29, Salvador, Brazil. Association for Computational Linguistics.