@inproceedings{njifenjou-etal-2023-portabilite,
title = "Portabilit{\'e} linguistique des mod{\`e}les de langage pr{\'e}-appris appliqu{\'e}s {\`a} la t{\^a}che de dialogue humain-machine en fran{\c{c}}ais",
author = "Njifenjou, Ahmed and
Sucal, Virgile and
Jabaian, Bassam and
Lef{\`e}vre, Fabrice",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 4 : articles d{\'e}j{\`a} soumis ou accept{\'e}s en conf{\'e}rence internationale",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-international.17",
pages = "148--158",
abstract = "Dans cet article, nous proposons une {\'e}tude de la portabilit{\'e} linguistique des mod{\`e}les de langage pr{\'e}-appris (MLPs) appliqu{\'e}s {\`a} une t{\^a}che de dialogue {\`a} domaine ouvert. La langue cible (L{\_}T) retenue dans cette {\'e}tude est le fran{\c{c}}ais. Elle dispose de peu de ressources sp{\'e}cifiques pour la t{\^a}che consid{\'e}r{\'e}e et nous permet de r{\'e}aliser une {\'e}valuation humaine. La langue source (L{\_}S) est l{'}anglais qui concentre la majorit{\'e} des travaux r{\'e}cents dans ce domaine. Construire des MLPs sp{\'e}cifiques pour chaque langue n{\'e}cessite de collecter de nouveaux jeux de donn{\'e}es et cela est co{\^u}teux. Ainsi, {\`a} partir des ressources disponibles en L{\_}S et L{\_}T, nous souhaitons {\'e}valuer les performances atteignables par un syst{\`e}me de conversation en L{\_}T . Pour cela, nous proposons trois approches : TrainOnTarget o{\`u} le corpus L{\_}S est traduit vers L{\_}T avant l{'}affinage du mod{\`e}le, TestOnSource o{\`u} un mod{\`e}le L{\_}S est coupl{\'e} avec des modules de traduction au moment du d{\'e}codage et TrainOnSourceAdaptOnTarget, qui utilise un MLP multilingue - ici BLOOM (BigScience Workshop, 2022) - avec l{'}architecture MAD-X Adapter (Pfeiffer et al., 2020) pour apprendre la t{\^a}che en L{\_}S et l{'}adapter {\`a} L{\_}T . Les mod{\`e}les sont {\'e}valu{\'e}s dans des conditions de dialogue oral et les strat{\'e}gies sont compar{\'e}es en termes de qualit{\'e} per{\c{c}}ue lors l{'}interaction.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="njifenjou-etal-2023-portabilite">
<titleInfo>
<title>Portabilité linguistique des modèles de langage pré-appris appliqués à la tâche de dialogue humain-machine en français</title>
</titleInfo>
<name type="personal">
<namePart type="given">Ahmed</namePart>
<namePart type="family">Njifenjou</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Virgile</namePart>
<namePart type="family">Sucal</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Bassam</namePart>
<namePart type="family">Jabaian</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Fabrice</namePart>
<namePart type="family">Lefèvre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 4 : articles déjà soumis ou acceptés en conférence internationale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Dans cet article, nous proposons une étude de la portabilité linguistique des modèles de langage pré-appris (MLPs) appliqués à une tâche de dialogue à domaine ouvert. La langue cible (L_T) retenue dans cette étude est le français. Elle dispose de peu de ressources spécifiques pour la tâche considérée et nous permet de réaliser une évaluation humaine. La langue source (L_S) est l’anglais qui concentre la majorité des travaux récents dans ce domaine. Construire des MLPs spécifiques pour chaque langue nécessite de collecter de nouveaux jeux de données et cela est coûteux. Ainsi, à partir des ressources disponibles en L_S et L_T, nous souhaitons évaluer les performances atteignables par un système de conversation en L_T . Pour cela, nous proposons trois approches : TrainOnTarget où le corpus L_S est traduit vers L_T avant l’affinage du modèle, TestOnSource où un modèle L_S est couplé avec des modules de traduction au moment du décodage et TrainOnSourceAdaptOnTarget, qui utilise un MLP multilingue - ici BLOOM (BigScience Workshop, 2022) - avec l’architecture MAD-X Adapter (Pfeiffer et al., 2020) pour apprendre la tâche en L_S et l’adapter à L_T . Les modèles sont évalués dans des conditions de dialogue oral et les stratégies sont comparées en termes de qualité perçue lors l’interaction.</abstract>
<identifier type="citekey">njifenjou-etal-2023-portabilite</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-international.17</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>148</start>
<end>158</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Portabilité linguistique des modèles de langage pré-appris appliqués à la tâche de dialogue humain-machine en français
%A Njifenjou, Ahmed
%A Sucal, Virgile
%A Jabaian, Bassam
%A Lefèvre, Fabrice
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 4 : articles déjà soumis ou acceptés en conférence internationale
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F njifenjou-etal-2023-portabilite
%X Dans cet article, nous proposons une étude de la portabilité linguistique des modèles de langage pré-appris (MLPs) appliqués à une tâche de dialogue à domaine ouvert. La langue cible (L_T) retenue dans cette étude est le français. Elle dispose de peu de ressources spécifiques pour la tâche considérée et nous permet de réaliser une évaluation humaine. La langue source (L_S) est l’anglais qui concentre la majorité des travaux récents dans ce domaine. Construire des MLPs spécifiques pour chaque langue nécessite de collecter de nouveaux jeux de données et cela est coûteux. Ainsi, à partir des ressources disponibles en L_S et L_T, nous souhaitons évaluer les performances atteignables par un système de conversation en L_T . Pour cela, nous proposons trois approches : TrainOnTarget où le corpus L_S est traduit vers L_T avant l’affinage du modèle, TestOnSource où un modèle L_S est couplé avec des modules de traduction au moment du décodage et TrainOnSourceAdaptOnTarget, qui utilise un MLP multilingue - ici BLOOM (BigScience Workshop, 2022) - avec l’architecture MAD-X Adapter (Pfeiffer et al., 2020) pour apprendre la tâche en L_S et l’adapter à L_T . Les modèles sont évalués dans des conditions de dialogue oral et les stratégies sont comparées en termes de qualité perçue lors l’interaction.
%U https://aclanthology.org/2023.jeptalnrecital-international.17
%P 148-158
Markdown (Informal)
[Portabilité linguistique des modèles de langage pré-appris appliqués à la tâche de dialogue humain-machine en français](https://aclanthology.org/2023.jeptalnrecital-international.17) (Njifenjou et al., JEP/TALN/RECITAL 2023)
ACL