@inproceedings{bouthors-etal-2024-optimiser,
title = "Optimiser le choix des exemples pour la traduction automatique augment{\'e}e par des m{\'e}moires de traduction",
author = "Bouthors, Maxime and
Crego, Josep and
Yvon, Fran{\c{c}}ois",
editor = "Balaguer, Mathieu and
Bendahman, Nihed and
Ho-dac, Lydia-Mai and
Mauclair, Julie and
G Moreno, Jose and
Pinquier, Julien",
booktitle = "Actes de la 31{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position",
month = "7",
year = "2024",
address = "Toulouse, France",
publisher = "ATALA and AFPC",
url = "https://aclanthology.org/2024.jeptalnrecital-taln.39",
pages = "582--604",
abstract = "La traduction neuronale {\`a} partir d{'}exemples s{'}appuie sur l{'}exploitation d{'}une m{\'e}moire de traduction contenant des exemples similaires aux phrases {\`a} traduire. Ces exemples sont utilis{\'e}s pour conditionner les pr{\'e}dictions d{'}un d{\'e}codeur neuronal. Nous nous int{\'e}ressons {\`a} l{'}am{\'e}lioration du syst{\`e}me qui effectue l{'}{\'e}tape de recherche des phrases similaires, l{'}architecture du d{\'e}codeur neuronal {\'e}tant fix{\'e}e et reposant ici sur un mod{\`e}le explicite d{'}{\'e}dition, le Transformeur multi-Levenshtein. Le probl{\`e}me consid{\'e}r{\'e} consiste {\`a} trouver un ensemble optimal d{'}exemples similaires, c{'}est-{\`a}-dire qui couvre maximalement la phrase source. En nous appuyant sur la th{\'e}orie des fonctions sous-modulaires, nous explorons de nouveaux algorithmes pour optimiser cette couverture et {\'e}valuons les am{\'e}liorations de performances auxquels ils m{\`e}nent pour la t{\^a}che de traduction automatique.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="bouthors-etal-2024-optimiser">
<titleInfo>
<title>Optimiser le choix des exemples pour la traduction automatique augmentée par des mémoires de traduction</title>
</titleInfo>
<name type="personal">
<namePart type="given">Maxime</namePart>
<namePart type="family">Bouthors</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Josep</namePart>
<namePart type="family">Crego</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">François</namePart>
<namePart type="family">Yvon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2024-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position</title>
</titleInfo>
<name type="personal">
<namePart type="given">Mathieu</namePart>
<namePart type="family">Balaguer</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nihed</namePart>
<namePart type="family">Bendahman</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Lydia-Mai</namePart>
<namePart type="family">Ho-dac</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julie</namePart>
<namePart type="family">Mauclair</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="family">G Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Pinquier</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA and AFPC</publisher>
<place>
<placeTerm type="text">Toulouse, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>La traduction neuronale à partir d’exemples s’appuie sur l’exploitation d’une mémoire de traduction contenant des exemples similaires aux phrases à traduire. Ces exemples sont utilisés pour conditionner les prédictions d’un décodeur neuronal. Nous nous intéressons à l’amélioration du système qui effectue l’étape de recherche des phrases similaires, l’architecture du décodeur neuronal étant fixée et reposant ici sur un modèle explicite d’édition, le Transformeur multi-Levenshtein. Le problème considéré consiste à trouver un ensemble optimal d’exemples similaires, c’est-à-dire qui couvre maximalement la phrase source. En nous appuyant sur la théorie des fonctions sous-modulaires, nous explorons de nouveaux algorithmes pour optimiser cette couverture et évaluons les améliorations de performances auxquels ils mènent pour la tâche de traduction automatique.</abstract>
<identifier type="citekey">bouthors-etal-2024-optimiser</identifier>
<location>
<url>https://aclanthology.org/2024.jeptalnrecital-taln.39</url>
</location>
<part>
<date>2024-7</date>
<extent unit="page">
<start>582</start>
<end>604</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Optimiser le choix des exemples pour la traduction automatique augmentée par des mémoires de traduction
%A Bouthors, Maxime
%A Crego, Josep
%A Yvon, François
%Y Balaguer, Mathieu
%Y Bendahman, Nihed
%Y Ho-dac, Lydia-Mai
%Y Mauclair, Julie
%Y G Moreno, Jose
%Y Pinquier, Julien
%S Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position
%D 2024
%8 July
%I ATALA and AFPC
%C Toulouse, France
%G French
%F bouthors-etal-2024-optimiser
%X La traduction neuronale à partir d’exemples s’appuie sur l’exploitation d’une mémoire de traduction contenant des exemples similaires aux phrases à traduire. Ces exemples sont utilisés pour conditionner les prédictions d’un décodeur neuronal. Nous nous intéressons à l’amélioration du système qui effectue l’étape de recherche des phrases similaires, l’architecture du décodeur neuronal étant fixée et reposant ici sur un modèle explicite d’édition, le Transformeur multi-Levenshtein. Le problème considéré consiste à trouver un ensemble optimal d’exemples similaires, c’est-à-dire qui couvre maximalement la phrase source. En nous appuyant sur la théorie des fonctions sous-modulaires, nous explorons de nouveaux algorithmes pour optimiser cette couverture et évaluons les améliorations de performances auxquels ils mènent pour la tâche de traduction automatique.
%U https://aclanthology.org/2024.jeptalnrecital-taln.39
%P 582-604
Markdown (Informal)
[Optimiser le choix des exemples pour la traduction automatique augmentée par des mémoires de traduction](https://aclanthology.org/2024.jeptalnrecital-taln.39) (Bouthors et al., JEP/TALN/RECITAL 2024)
ACL