@inproceedings{nunes-etal-2026-uso,
title = "Uso de t{\'e}cnicas de Aprendizado de M{\'a}quina e Modelos de L{\'i}ngua de Larga Escala para avalia{\c{c}}{\~a}o autom{\'a}tica de textos do exame Celpe-Bras",
author = "Nunes, Rafael Oleques and
Zietolie, Bernardo Cobalchini and
Costa, Ricardo Zanini De and
Silva, Rodrigo Brock da and
Pacheco, Jo{\~a}o Victor Piardi and
Rocha, Rafaela Dall'Agnol da and
Balreira, Dennis Giovani and
Stumpf, Elisa Marchioro and
Schoffen, Juliana Roquele",
editor = "Souza, Marlo and
de-Dios-Flores, Iria and
Santos, Diana and
Freitas, Larissa and
Souza, Jackson Wilke da Cruz and
Ribeiro, Eug{\'e}nio",
booktitle = "Proceedings of the 17th International Conference on Computational Processing of {P}ortuguese ({PROPOR} 2026) - Vol. 1",
month = apr,
year = "2026",
address = "Salvador, Brazil",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2026.propor-1.85/",
pages = "858--867",
ISBN = "979-8-89176-387-6",
abstract = "O Celpe-Bras {\'e} o exame oficial brasileiro de profici{\^e}ncia em Portugu{\^e}s como L{\'i}ngua Adicional (Inep, 2020). A parte escrita do exame exige que os participantes produzam quatro textos em resposta a tarefas baseadas em v{\'i}deo, {\'a}udio e textos de insumo, o que exige que a prepara{\c{c}}{\~a}o para o exame seja realizada a partir de pr{\'a}ticas de (re)escrita de textos. Por um lado, professores que trabalham na prepara{\c{c}}{\~a}o de estudantes para o exame t{\^e}m um alto volume de textos para corrigir, e os estudantes t{\^e}m poucas op{\c{c}}{\~o}es de recursos did{\'a}ticos acess{\'i}veis alinhados ao construto te{\'o}rico do Celpe-Bras. Nesse contexto, e impulsionado pelos recentes avan{\c{c}}os no Processamento de Linguagem Natural (PLN), modelos de l{\'i}ngua de grande escala (LLMs) e Intelig{\^e}ncia Artificial, este estudo visa mapear e comparar m{\'e}todos para a avalia{\c{c}}{\~a}o autom{\'a}tica dos textos produzidos no exame Celpe-Bras. S{\~a}o apresentados e testados diversos modelos, abrangendo tanto algoritmos tradicionais de aprendizado de m{\'a}quina quanto modelos de linguagem pr{\'e}-treinados, como BERT, BART e T5. Ao final, foi poss{\'i}vel perceber que os melhores resultados foram obtidos pelas adapta{\c{c}}{\~o}es do modelo BERT, levemente superiores aos dos modelos restantes, mas com consider{\'a}vel maior custo computacional."
}<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="nunes-etal-2026-uso">
<titleInfo>
<title>Uso de técnicas de Aprendizado de Máquina e Modelos de Língua de Larga Escala para avaliação automática de textos do exame Celpe-Bras</title>
</titleInfo>
<name type="personal">
<namePart type="given">Rafael</namePart>
<namePart type="given">Oleques</namePart>
<namePart type="family">Nunes</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Bernardo</namePart>
<namePart type="given">Cobalchini</namePart>
<namePart type="family">Zietolie</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Ricardo</namePart>
<namePart type="given">Zanini</namePart>
<namePart type="given">De</namePart>
<namePart type="family">Costa</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Rodrigo</namePart>
<namePart type="given">Brock</namePart>
<namePart type="given">da</namePart>
<namePart type="family">Silva</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">João</namePart>
<namePart type="given">Victor</namePart>
<namePart type="given">Piardi</namePart>
<namePart type="family">Pacheco</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Rafaela</namePart>
<namePart type="given">Dall’Agnol</namePart>
<namePart type="given">da</namePart>
<namePart type="family">Rocha</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Dennis</namePart>
<namePart type="given">Giovani</namePart>
<namePart type="family">Balreira</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Elisa</namePart>
<namePart type="given">Marchioro</namePart>
<namePart type="family">Stumpf</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Juliana</namePart>
<namePart type="given">Roquele</namePart>
<namePart type="family">Schoffen</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2026-04</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<relatedItem type="host">
<titleInfo>
<title>Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 1</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marlo</namePart>
<namePart type="family">Souza</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Iria</namePart>
<namePart type="family">de-Dios-Flores</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Santos</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Larissa</namePart>
<namePart type="family">Freitas</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jackson</namePart>
<namePart type="given">Wilke</namePart>
<namePart type="given">da</namePart>
<namePart type="given">Cruz</namePart>
<namePart type="family">Souza</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eugénio</namePart>
<namePart type="family">Ribeiro</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>Association for Computational Linguistics</publisher>
<place>
<placeTerm type="text">Salvador, Brazil</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
<identifier type="isbn">979-8-89176-387-6</identifier>
</relatedItem>
<abstract>O Celpe-Bras é o exame oficial brasileiro de proficiência em Português como Língua Adicional (Inep, 2020). A parte escrita do exame exige que os participantes produzam quatro textos em resposta a tarefas baseadas em vídeo, áudio e textos de insumo, o que exige que a preparação para o exame seja realizada a partir de práticas de (re)escrita de textos. Por um lado, professores que trabalham na preparação de estudantes para o exame têm um alto volume de textos para corrigir, e os estudantes têm poucas opções de recursos didáticos acessíveis alinhados ao construto teórico do Celpe-Bras. Nesse contexto, e impulsionado pelos recentes avanços no Processamento de Linguagem Natural (PLN), modelos de língua de grande escala (LLMs) e Inteligência Artificial, este estudo visa mapear e comparar métodos para a avaliação automática dos textos produzidos no exame Celpe-Bras. São apresentados e testados diversos modelos, abrangendo tanto algoritmos tradicionais de aprendizado de máquina quanto modelos de linguagem pré-treinados, como BERT, BART e T5. Ao final, foi possível perceber que os melhores resultados foram obtidos pelas adaptações do modelo BERT, levemente superiores aos dos modelos restantes, mas com considerável maior custo computacional.</abstract>
<identifier type="citekey">nunes-etal-2026-uso</identifier>
<location>
<url>https://aclanthology.org/2026.propor-1.85/</url>
</location>
<part>
<date>2026-04</date>
<extent unit="page">
<start>858</start>
<end>867</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Uso de técnicas de Aprendizado de Máquina e Modelos de Língua de Larga Escala para avaliação automática de textos do exame Celpe-Bras
%A Nunes, Rafael Oleques
%A Zietolie, Bernardo Cobalchini
%A Costa, Ricardo Zanini De
%A Silva, Rodrigo Brock da
%A Pacheco, João Victor Piardi
%A Rocha, Rafaela Dall’Agnol da
%A Balreira, Dennis Giovani
%A Stumpf, Elisa Marchioro
%A Schoffen, Juliana Roquele
%Y Souza, Marlo
%Y de-Dios-Flores, Iria
%Y Santos, Diana
%Y Freitas, Larissa
%Y Souza, Jackson Wilke da Cruz
%Y Ribeiro, Eugénio
%S Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 1
%D 2026
%8 April
%I Association for Computational Linguistics
%C Salvador, Brazil
%@ 979-8-89176-387-6
%F nunes-etal-2026-uso
%X O Celpe-Bras é o exame oficial brasileiro de proficiência em Português como Língua Adicional (Inep, 2020). A parte escrita do exame exige que os participantes produzam quatro textos em resposta a tarefas baseadas em vídeo, áudio e textos de insumo, o que exige que a preparação para o exame seja realizada a partir de práticas de (re)escrita de textos. Por um lado, professores que trabalham na preparação de estudantes para o exame têm um alto volume de textos para corrigir, e os estudantes têm poucas opções de recursos didáticos acessíveis alinhados ao construto teórico do Celpe-Bras. Nesse contexto, e impulsionado pelos recentes avanços no Processamento de Linguagem Natural (PLN), modelos de língua de grande escala (LLMs) e Inteligência Artificial, este estudo visa mapear e comparar métodos para a avaliação automática dos textos produzidos no exame Celpe-Bras. São apresentados e testados diversos modelos, abrangendo tanto algoritmos tradicionais de aprendizado de máquina quanto modelos de linguagem pré-treinados, como BERT, BART e T5. Ao final, foi possível perceber que os melhores resultados foram obtidos pelas adaptações do modelo BERT, levemente superiores aos dos modelos restantes, mas com considerável maior custo computacional.
%U https://aclanthology.org/2026.propor-1.85/
%P 858-867
Markdown (Informal)
[Uso de técnicas de Aprendizado de Máquina e Modelos de Língua de Larga Escala para avaliação automática de textos do exame Celpe-Bras](https://aclanthology.org/2026.propor-1.85/) (Nunes et al., PROPOR 2026)
ACL
- Rafael Oleques Nunes, Bernardo Cobalchini Zietolie, Ricardo Zanini De Costa, Rodrigo Brock da Silva, João Victor Piardi Pacheco, Rafaela Dall'Agnol da Rocha, Dennis Giovani Balreira, Elisa Marchioro Stumpf, and Juliana Roquele Schoffen. 2026. Uso de técnicas de Aprendizado de Máquina e Modelos de Língua de Larga Escala para avaliação automática de textos do exame Celpe-Bras. In Proceedings of the 17th International Conference on Computational Processing of Portuguese (PROPOR 2026) - Vol. 1, pages 858–867, Salvador, Brazil. Association for Computational Linguistics.