@inproceedings{muller-etal-2022-quand,
title = "Quand {\^e}tre absent de m{BERT} n{'}est que le commencement : G{\'e}rer de nouvelles langues {\`a} l{'}aide de mod{\`e}les de langues multilingues (When Being Unseen from m{BERT} is just the Beginning : Handling New Languages With Multilingual Language Models)",
author = "Muller, Benjamin and
Anastasopoulos, Antonios and
Sagot, Beno{\^\i}t and
Seddah, Djam{\'e}",
editor = "Est{\`e}ve, Yannick and
Jim{\'e}nez, Tania and
Parcollet, Titouan and
Zanon Boito, Marcely",
booktitle = "Actes de la 29e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2022",
address = "Avignon, France",
publisher = "ATALA",
url = "https://aclanthology.org/2022.jeptalnrecital-taln.46",
pages = "450--451",
abstract = "L{'}apprentissage par transfert bas{\'e} sur le pr{\'e}-entra{\^\i}nement de mod{\`e}les de langue sur une grande quantit{\'e} de donn{\'e}es brutes est devenu la norme pour obtenir des performances {\'e}tat de l{'}art en TAL. Cependant, la fa{\c{c}}on dont cette approche devrait {\^e}tre appliqu{\'e}e pour des langues inconnues, qui ne sont couvertes par aucun mod{\`e}le de langue multilingue {\`a} grande {\'e}chelle et pour lesquelles seule une petite quantit{\'e} de donn{\'e}es brutes est le plus souvent disponible, n{'}est pas claire. Dans ce travail, en comparant des mod{\`e}les multilingues et monolingues, nous montrons que de tels mod{\`e}les se comportent de multiples fa{\c{c}}ons sur des langues inconnues. Certaines langues b{\'e}n{\'e}ficient grandement de l{'}apprentissage par transfert et se comportent de mani{\`e}re similaire {\`a} des langues proches riches en ressource, alors que ce n{'}est manifestement pas le cas pour d{'}autres. En nous concentrant sur ces derni{\`e}res, nous montrons dans ce travail que cet {\'e}chec du transfert est largement li{\'e} {\`a} l{'}impact du script que ces langues utilisent. Nous montrons que la translitt{\'e}ration de ces langues am{\'e}liore consid{\'e}rablement le potentiel des larges mod{\`e}les de langue neuronaux multilingues pour des t{\^a}ches en aval. Ce r{\'e}sultat indique une piste prometteuse pour rendre ces mod{\`e}les massivement multilingues utiles pour de nouveaux ensembles de langues absentes des donn{\'e}es d{'}entra{\^\i}nement.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="muller-etal-2022-quand">
<titleInfo>
<title>Quand être absent de mBERT n’est que le commencement : Gérer de nouvelles langues à l’aide de modèles de langues multilingues (When Being Unseen from mBERT is just the Beginning : Handling New Languages With Multilingual Language Models)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Benjamin</namePart>
<namePart type="family">Muller</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Antonios</namePart>
<namePart type="family">Anastasopoulos</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoît</namePart>
<namePart type="family">Sagot</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Djamé</namePart>
<namePart type="family">Seddah</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2022-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Yannick</namePart>
<namePart type="family">Estève</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Tania</namePart>
<namePart type="family">Jiménez</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Titouan</namePart>
<namePart type="family">Parcollet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Marcely</namePart>
<namePart type="family">Zanon Boito</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Avignon, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’apprentissage par transfert basé sur le pré-entraînement de modèles de langue sur une grande quantité de données brutes est devenu la norme pour obtenir des performances état de l’art en TAL. Cependant, la façon dont cette approche devrait être appliquée pour des langues inconnues, qui ne sont couvertes par aucun modèle de langue multilingue à grande échelle et pour lesquelles seule une petite quantité de données brutes est le plus souvent disponible, n’est pas claire. Dans ce travail, en comparant des modèles multilingues et monolingues, nous montrons que de tels modèles se comportent de multiples façons sur des langues inconnues. Certaines langues bénéficient grandement de l’apprentissage par transfert et se comportent de manière similaire à des langues proches riches en ressource, alors que ce n’est manifestement pas le cas pour d’autres. En nous concentrant sur ces dernières, nous montrons dans ce travail que cet échec du transfert est largement lié à l’impact du script que ces langues utilisent. Nous montrons que la translittération de ces langues améliore considérablement le potentiel des larges modèles de langue neuronaux multilingues pour des tâches en aval. Ce résultat indique une piste prometteuse pour rendre ces modèles massivement multilingues utiles pour de nouveaux ensembles de langues absentes des données d’entraînement.</abstract>
<identifier type="citekey">muller-etal-2022-quand</identifier>
<location>
<url>https://aclanthology.org/2022.jeptalnrecital-taln.46</url>
</location>
<part>
<date>2022-6</date>
<extent unit="page">
<start>450</start>
<end>451</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Quand être absent de mBERT n’est que le commencement : Gérer de nouvelles langues à l’aide de modèles de langues multilingues (When Being Unseen from mBERT is just the Beginning : Handling New Languages With Multilingual Language Models)
%A Muller, Benjamin
%A Anastasopoulos, Antonios
%A Sagot, Benoît
%A Seddah, Djamé
%Y Estève, Yannick
%Y Jiménez, Tania
%Y Parcollet, Titouan
%Y Zanon Boito, Marcely
%S Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale
%D 2022
%8 June
%I ATALA
%C Avignon, France
%G French
%F muller-etal-2022-quand
%X L’apprentissage par transfert basé sur le pré-entraînement de modèles de langue sur une grande quantité de données brutes est devenu la norme pour obtenir des performances état de l’art en TAL. Cependant, la façon dont cette approche devrait être appliquée pour des langues inconnues, qui ne sont couvertes par aucun modèle de langue multilingue à grande échelle et pour lesquelles seule une petite quantité de données brutes est le plus souvent disponible, n’est pas claire. Dans ce travail, en comparant des modèles multilingues et monolingues, nous montrons que de tels modèles se comportent de multiples façons sur des langues inconnues. Certaines langues bénéficient grandement de l’apprentissage par transfert et se comportent de manière similaire à des langues proches riches en ressource, alors que ce n’est manifestement pas le cas pour d’autres. En nous concentrant sur ces dernières, nous montrons dans ce travail que cet échec du transfert est largement lié à l’impact du script que ces langues utilisent. Nous montrons que la translittération de ces langues améliore considérablement le potentiel des larges modèles de langue neuronaux multilingues pour des tâches en aval. Ce résultat indique une piste prometteuse pour rendre ces modèles massivement multilingues utiles pour de nouveaux ensembles de langues absentes des données d’entraînement.
%U https://aclanthology.org/2022.jeptalnrecital-taln.46
%P 450-451
Markdown (Informal)
[Quand être absent de mBERT n’est que le commencement : Gérer de nouvelles langues à l’aide de modèles de langues multilingues (When Being Unseen from mBERT is just the Beginning : Handling New Languages With Multilingual Language Models)](https://aclanthology.org/2022.jeptalnrecital-taln.46) (Muller et al., JEP/TALN/RECITAL 2022)
ACL