@inproceedings{signe-etal-2025-sebrag,
title = "{SEBRAG} : Vers l{'}Utilisation des {LLM} pour une T{\^a}che de Questions-R{\'e}ponses Extractive",
author = "Sign{\'e}, Quentin and
Belkacem, Thiziri and
G. Moreno, Jose and
Boughanem, Mohand",
editor = "Bechet, Fr{\'e}d{\'e}ric and
Chifu, Adrian-Gabriel and
Pinel-sauvagnat, Karen and
Favre, Benoit and
Maes, Eliot and
Nurbakova, Diana",
booktitle = "Actes de la 20e Conf{\'e}rence en Recherche d{'}Information et Applications (CORIA)",
month = "6",
year = "2025",
address = "Marseille, France",
publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
url = "https://aclanthology.org/2025.jeptalnrecital-coria.18/",
pages = "201--216",
language = "fra",
abstract = "L'{\'e}mergence des grands mod{\`e}les de langage (LLM) a r{\'e}volutionn{\'e} le domaine des questions-r{\'e}ponses (QR). Cependant, leur tendance {\`a} halluciner repr{\'e}sente un d{\'e}fi majeur en recherche d{'}information (RI), notamment en domaines critiques comme la maintenance a{\'e}ronautique. Pour r{\'e}pondre {\`a} cette probl{\'e}matique, cet article explore la capacit{\'e} des LLM pour des t{\^a}ches de QR extractives, {\`a} l{'}instar des mod{\`e}les encodeurs. Ainsi, nous proposons une approche de g{\'e}n{\'e}ration augment{\'e}e par recherche d{'}information (RAG) utilisant un outil d{'}extraction de cha{\^i}nes de caract{\`e}res, permettant au LLM d{'}extraire une r{\'e}ponse plut{\^o}t que de la g{\'e}n{\'e}rer. Les exp{\'e}riences r{\'e}alis{\'e}es sur un jeu de donn{\'e}es de maintenance a{\'e}ronautique r{\'e}v{\`e}lent que cette approche permet de mieux contr{\^o}ler l{'}hallucination par rapport aux m{\'e}thodes RAG traditionnelles, tout en gardant une pr{\'e}cision comparable aux mod{\`e}les encodeurs extractifs. Cette approche montre son potentiel pour des applications hautement techniques o{\`u} la pr{\'e}cision et la fiabilit{\'e} sont primordiales."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="signe-etal-2025-sebrag">
<titleInfo>
<title>SEBRAG : Vers l’Utilisation des LLM pour une Tâche de Questions-Réponses Extractive</title>
</titleInfo>
<name type="personal">
<namePart type="given">Quentin</namePart>
<namePart type="family">Signé</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thiziri</namePart>
<namePart type="family">Belkacem</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="family">G. Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Mohand</namePart>
<namePart type="family">Boughanem</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2025-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 20e Conférence en Recherche d’Information et Applications (CORIA)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Frédéric</namePart>
<namePart type="family">Bechet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Adrian-Gabriel</namePart>
<namePart type="family">Chifu</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Karen</namePart>
<namePart type="family">Pinel-sauvagnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoit</namePart>
<namePart type="family">Favre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eliot</namePart>
<namePart type="family">Maes</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Nurbakova</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA \textbackslash\textbackslash& ARIA</publisher>
<place>
<placeTerm type="text">Marseille, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’émergence des grands modèles de langage (LLM) a révolutionné le domaine des questions-réponses (QR). Cependant, leur tendance à halluciner représente un défi majeur en recherche d’information (RI), notamment en domaines critiques comme la maintenance aéronautique. Pour répondre à cette problématique, cet article explore la capacité des LLM pour des tâches de QR extractives, à l’instar des modèles encodeurs. Ainsi, nous proposons une approche de génération augmentée par recherche d’information (RAG) utilisant un outil d’extraction de chaînes de caractères, permettant au LLM d’extraire une réponse plutôt que de la générer. Les expériences réalisées sur un jeu de données de maintenance aéronautique révèlent que cette approche permet de mieux contrôler l’hallucination par rapport aux méthodes RAG traditionnelles, tout en gardant une précision comparable aux modèles encodeurs extractifs. Cette approche montre son potentiel pour des applications hautement techniques où la précision et la fiabilité sont primordiales.</abstract>
<identifier type="citekey">signe-etal-2025-sebrag</identifier>
<location>
<url>https://aclanthology.org/2025.jeptalnrecital-coria.18/</url>
</location>
<part>
<date>2025-6</date>
<extent unit="page">
<start>201</start>
<end>216</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T SEBRAG : Vers l’Utilisation des LLM pour une Tâche de Questions-Réponses Extractive
%A Signé, Quentin
%A Belkacem, Thiziri
%A G. Moreno, Jose
%A Boughanem, Mohand
%Y Bechet, Frédéric
%Y Chifu, Adrian-Gabriel
%Y Pinel-sauvagnat, Karen
%Y Favre, Benoit
%Y Maes, Eliot
%Y Nurbakova, Diana
%S Actes de la 20e Conférence en Recherche d’Information et Applications (CORIA)
%D 2025
%8 June
%I ATALA \textbackslash\textbackslash& ARIA
%C Marseille, France
%G fra
%F signe-etal-2025-sebrag
%X L’émergence des grands modèles de langage (LLM) a révolutionné le domaine des questions-réponses (QR). Cependant, leur tendance à halluciner représente un défi majeur en recherche d’information (RI), notamment en domaines critiques comme la maintenance aéronautique. Pour répondre à cette problématique, cet article explore la capacité des LLM pour des tâches de QR extractives, à l’instar des modèles encodeurs. Ainsi, nous proposons une approche de génération augmentée par recherche d’information (RAG) utilisant un outil d’extraction de chaînes de caractères, permettant au LLM d’extraire une réponse plutôt que de la générer. Les expériences réalisées sur un jeu de données de maintenance aéronautique révèlent que cette approche permet de mieux contrôler l’hallucination par rapport aux méthodes RAG traditionnelles, tout en gardant une précision comparable aux modèles encodeurs extractifs. Cette approche montre son potentiel pour des applications hautement techniques où la précision et la fiabilité sont primordiales.
%U https://aclanthology.org/2025.jeptalnrecital-coria.18/
%P 201-216
Markdown (Informal)
[SEBRAG : Vers l’Utilisation des LLM pour une Tâche de Questions-Réponses Extractive](https://aclanthology.org/2025.jeptalnrecital-coria.18/) (Signé et al., JEP/TALN/RECITAL 2025)
ACL