@inproceedings{zong-piwowarski-2023-xpmir,
title = "{XPMIR}: Une biblioth{\`e}que modulaire pour l{'}apprentissage d{'}ordonnancement et les exp{\'e}riences de {RI} neuronale",
author = "Zong, Yuxuan and
Piwowarski, Benjamin",
editor = {Zargayouna, Ha{\"\i}fa},
booktitle = "Actes de CORIA-TALN 2023. Actes de la 18e Conf{\'e}rence en Recherche d'Information et Applications (CORIA)",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-coria.19",
pages = "222--233",
abstract = "Ces derni{\`e}res ann{\'e}es, plusieurs librairies pour la recherche d{'}information (neuronale) ont {\'e}t{\'e} propos{\'e}es. Cependant, bien qu{'}elles permettent de reproduire des r{\'e}sultats d{\'e}j{\`a} publi{\'e}s, il est encore tr{\`e}s difficile de r{\'e}utiliser certaines parties des cha{\^\i}nes de traitement d{'}apprentissage, comme par exemple le pr{\'e}-entra{\^\i}nement, la strat{\'e}gie d{'}{\'e}chantillonnage ou la d{\'e}finition du co{\^u}t dans les mod{\`e}les nouvellement d{\'e}velopp{\'e}s. Il est {\'e}galement difficile d{'}utiliser de nouvelles techniques d{'}apprentissage avec d{'}anciens mod{\`e}les, ce qui complique l{'}{\'e}valuation de l{'}utilit{\'e} des nouvelles id{\'e}es pour les diff{\'e}rents mod{\`e}les de RI neuronaux. Cela ralentit l{'}adoption de nouvelles techniques et, par cons{\'e}quent, le d{\'e}veloppement du domaine de la RI. Dans cet article, nous pr{\'e}sentons XPMIR, une librairie Python d{\'e}finissant un ensemble r{\'e}utilisable de composants exp{\'e}rimentaux. La biblioth{\`e}que contient d{\'e}j{\`a} des mod{\`e}les et des techniques d{'}indexation de pointe, et est int{\'e}gr{\'e}e au hub HuggingFace.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="zong-piwowarski-2023-xpmir">
<titleInfo>
<title>XPMIR: Une bibliothèque modulaire pour l’apprentissage d’ordonnancement et les expériences de RI neuronale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Yuxuan</namePart>
<namePart type="family">Zong</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benjamin</namePart>
<namePart type="family">Piwowarski</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 18e Conférence en Recherche d’Information et Applications (CORIA)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Haïfa</namePart>
<namePart type="family">Zargayouna</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Ces dernières années, plusieurs librairies pour la recherche d’information (neuronale) ont été proposées. Cependant, bien qu’elles permettent de reproduire des résultats déjà publiés, il est encore très difficile de réutiliser certaines parties des chaînes de traitement d’apprentissage, comme par exemple le pré-entraînement, la stratégie d’échantillonnage ou la définition du coût dans les modèles nouvellement développés. Il est également difficile d’utiliser de nouvelles techniques d’apprentissage avec d’anciens modèles, ce qui complique l’évaluation de l’utilité des nouvelles idées pour les différents modèles de RI neuronaux. Cela ralentit l’adoption de nouvelles techniques et, par conséquent, le développement du domaine de la RI. Dans cet article, nous présentons XPMIR, une librairie Python définissant un ensemble réutilisable de composants expérimentaux. La bibliothèque contient déjà des modèles et des techniques d’indexation de pointe, et est intégrée au hub HuggingFace.</abstract>
<identifier type="citekey">zong-piwowarski-2023-xpmir</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-coria.19</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>222</start>
<end>233</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T XPMIR: Une bibliothèque modulaire pour l’apprentissage d’ordonnancement et les expériences de RI neuronale
%A Zong, Yuxuan
%A Piwowarski, Benjamin
%Y Zargayouna, Haïfa
%S Actes de CORIA-TALN 2023. Actes de la 18e Conférence en Recherche d’Information et Applications (CORIA)
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F zong-piwowarski-2023-xpmir
%X Ces dernières années, plusieurs librairies pour la recherche d’information (neuronale) ont été proposées. Cependant, bien qu’elles permettent de reproduire des résultats déjà publiés, il est encore très difficile de réutiliser certaines parties des chaînes de traitement d’apprentissage, comme par exemple le pré-entraînement, la stratégie d’échantillonnage ou la définition du coût dans les modèles nouvellement développés. Il est également difficile d’utiliser de nouvelles techniques d’apprentissage avec d’anciens modèles, ce qui complique l’évaluation de l’utilité des nouvelles idées pour les différents modèles de RI neuronaux. Cela ralentit l’adoption de nouvelles techniques et, par conséquent, le développement du domaine de la RI. Dans cet article, nous présentons XPMIR, une librairie Python définissant un ensemble réutilisable de composants expérimentaux. La bibliothèque contient déjà des modèles et des techniques d’indexation de pointe, et est intégrée au hub HuggingFace.
%U https://aclanthology.org/2023.jeptalnrecital-coria.19
%P 222-233
Markdown (Informal)
[XPMIR: Une bibliothèque modulaire pour l’apprentissage d’ordonnancement et les expériences de RI neuronale](https://aclanthology.org/2023.jeptalnrecital-coria.19) (Zong & Piwowarski, JEP/TALN/RECITAL 2023)
ACL