@inproceedings{imed-eddine-ghebriout-etal-2025-quartz,
title = "{QUARTZ} : Approche abstractive non supervis{\'e}e par question-r{\'e}ponse pour le r{\'e}sum{\'e} de dialogue orient{\'e} t{\^a}che",
author = {Imed Eddine Ghebriout, Mohamed and
Guibon, Ga{\"e}l and
Lerner, Ivan and
Vincent, Emmanuel},
editor = "Bechet, Fr{\'e}d{\'e}ric and
Chifu, Adrian-Gabriel and
Pinel-sauvagnat, Karen and
Favre, Benoit and
Maes, Eliot and
Nurbakova, Diana",
booktitle = "Actes des 32{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux",
month = "6",
year = "2025",
address = "Marseille, France",
publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
url = "https://aclanthology.org/2025.jeptalnrecital-taln.39/",
pages = "642--665",
language = "fra",
abstract = "Le r{\'e}sum{\'e} de dialogues condense les conversations en un texte concis, r{\'e}duisant la complexit{\'e} des applications riches en interactions. Les approches existantes reposent souvent sur l{'}entra{\^i}nement de mod{\`e}les de langue {\`a} imiter des r{\'e}sum{\'e}s humains. Cependant, cette approche est co{\^u}teuse et les r{\'e}sum{\'e}s obtenus manquent souvent de pertinence, entra{\^i}nant des performances sous-optimales, notamment en m{\'e}decine. Dans cet article, nous introduisons QUARTZ , une m{\'e}thode non supervis{\'e}e pour le r{\'e}sum{\'e} de dialogues orient{\'e} t{\^a}che. QUARTZ g{\'e}n{\`e}re plusieurs r{\'e}sum{\'e}s et paires de questionsr{\'e}ponses {\`a} l{'}aide de grands mod{\`e}les de langue (LLMs). Les r{\'e}sum{\'e}s sont {\'e}valu{\'e}s en demandant aux LLMs de r{\'e}pondre {\`a} ces questions avant (i)de s{\'e}lectionner les meilleures r{\'e}ponses et (ii)d{'}identifier le r{\'e}sum{\'e} le plus informatif. Enfin, nous affinons le meilleur LLM sur les r{\'e}sum{\'e}s g{\'e}n{\'e}r{\'e}s s{\'e}lectionn{\'e}s. Valid{\'e} sur plusieurs ensembles de donn{\'e}es, QUARTZ atteint des performances comp{\'e}titives en z{\'e}ro-shot, rivalisant avec les approches supervis{\'e}es de pointe."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="imed-eddine-ghebriout-etal-2025-quartz">
<titleInfo>
<title>QUARTZ : Approche abstractive non supervisée par question-réponse pour le résumé de dialogue orienté tâche</title>
</titleInfo>
<name type="personal">
<namePart type="given">Mohamed</namePart>
<namePart type="family">Imed Eddine Ghebriout</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Gaël</namePart>
<namePart type="family">Guibon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Ivan</namePart>
<namePart type="family">Lerner</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Emmanuel</namePart>
<namePart type="family">Vincent</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2025-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux</title>
</titleInfo>
<name type="personal">
<namePart type="given">Frédéric</namePart>
<namePart type="family">Bechet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Adrian-Gabriel</namePart>
<namePart type="family">Chifu</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Karen</namePart>
<namePart type="family">Pinel-sauvagnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoit</namePart>
<namePart type="family">Favre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eliot</namePart>
<namePart type="family">Maes</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Nurbakova</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA \textbackslash\textbackslash& ARIA</publisher>
<place>
<placeTerm type="text">Marseille, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Le résumé de dialogues condense les conversations en un texte concis, réduisant la complexité des applications riches en interactions. Les approches existantes reposent souvent sur l’entraînement de modèles de langue à imiter des résumés humains. Cependant, cette approche est coûteuse et les résumés obtenus manquent souvent de pertinence, entraînant des performances sous-optimales, notamment en médecine. Dans cet article, nous introduisons QUARTZ , une méthode non supervisée pour le résumé de dialogues orienté tâche. QUARTZ génère plusieurs résumés et paires de questionsréponses à l’aide de grands modèles de langue (LLMs). Les résumés sont évalués en demandant aux LLMs de répondre à ces questions avant (i)de sélectionner les meilleures réponses et (ii)d’identifier le résumé le plus informatif. Enfin, nous affinons le meilleur LLM sur les résumés générés sélectionnés. Validé sur plusieurs ensembles de données, QUARTZ atteint des performances compétitives en zéro-shot, rivalisant avec les approches supervisées de pointe.</abstract>
<identifier type="citekey">imed-eddine-ghebriout-etal-2025-quartz</identifier>
<location>
<url>https://aclanthology.org/2025.jeptalnrecital-taln.39/</url>
</location>
<part>
<date>2025-6</date>
<extent unit="page">
<start>642</start>
<end>665</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T QUARTZ : Approche abstractive non supervisée par question-réponse pour le résumé de dialogue orienté tâche
%A Imed Eddine Ghebriout, Mohamed
%A Guibon, Gaël
%A Lerner, Ivan
%A Vincent, Emmanuel
%Y Bechet, Frédéric
%Y Chifu, Adrian-Gabriel
%Y Pinel-sauvagnat, Karen
%Y Favre, Benoit
%Y Maes, Eliot
%Y Nurbakova, Diana
%S Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux
%D 2025
%8 June
%I ATALA \textbackslash\textbackslash& ARIA
%C Marseille, France
%G fra
%F imed-eddine-ghebriout-etal-2025-quartz
%X Le résumé de dialogues condense les conversations en un texte concis, réduisant la complexité des applications riches en interactions. Les approches existantes reposent souvent sur l’entraînement de modèles de langue à imiter des résumés humains. Cependant, cette approche est coûteuse et les résumés obtenus manquent souvent de pertinence, entraînant des performances sous-optimales, notamment en médecine. Dans cet article, nous introduisons QUARTZ , une méthode non supervisée pour le résumé de dialogues orienté tâche. QUARTZ génère plusieurs résumés et paires de questionsréponses à l’aide de grands modèles de langue (LLMs). Les résumés sont évalués en demandant aux LLMs de répondre à ces questions avant (i)de sélectionner les meilleures réponses et (ii)d’identifier le résumé le plus informatif. Enfin, nous affinons le meilleur LLM sur les résumés générés sélectionnés. Validé sur plusieurs ensembles de données, QUARTZ atteint des performances compétitives en zéro-shot, rivalisant avec les approches supervisées de pointe.
%U https://aclanthology.org/2025.jeptalnrecital-taln.39/
%P 642-665
Markdown (Informal)
[QUARTZ : Approche abstractive non supervisée par question-réponse pour le résumé de dialogue orienté tâche](https://aclanthology.org/2025.jeptalnrecital-taln.39/) (Imed Eddine Ghebriout et al., JEP/TALN/RECITAL 2025)
ACL