@inproceedings{sourty-etal-2023-enrichissement,
title = "Enrichissement des mod{\`e}les de langue pr{\'e}-entra{\^\i}n{\'e}s par la distillation mutuelle des connaissances",
author = {Sourty, Rapha{\"e}l and
Moreno, Jose G and
Servant, Fran{\c{c}}ois-Paul and
Tamine, Lynda},
editor = {Zargayouna, Ha{\"\i}fa},
booktitle = "Actes de CORIA-TALN 2023. Actes de la 18e Conf{\'e}rence en Recherche d'Information et Applications (CORIA)",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-coria.9",
pages = "139--156",
abstract = "Les bases de connaissances sont des ressources essentielles dans un large {\'e}ventail d{'}applications {\`a} forte intensit{\'e} de connaissances. Cependant, leur incompl{\'e}tude limite intrins{\`e}quement leur utilisation et souligne l{'}importance de les compl{\'e}ter. {\`A} cette fin, la litt{\'e}rature a r{\'e}cemment adopt{\'e} un point de vue de monde ouvert en associant la capacit{\'e} des bases de connaissances {\`a} repr{\'e}senter des connaissances factuelles aux capacit{\'e}s des mod{\`e}les de langage pr{\'e}-entra{\^\i}n{\'e}s (PLM) {\`a} capturer des connaissances linguistiques de haut niveau et contextuelles {\`a} partir de corpus de textes. Dans ce travail, nous proposons un cadre de distillation pour la compl{\'e}tion des bases de connaissances o{\`u} les PLMs exploitent les {\'e}tiquettes souples sous la forme de pr{\'e}dictions d{'}entit{\'e}s et de relations fournies par un mod{\`e}le de plongements de bases de connaissances, tout en conservant leur pouvoir de pr{\'e}diction d{'}entit{\'e}s sur de grandes collections des textes. Pour mieux s{'}adapter {\`a} la t{\^a}che de compl{\'e}tion des connaissances, nous {\'e}tendons la mod{\'e}lisation traditionnelle du langage masqu{\'e} des PLM {\`a} la pr{\'e}diction d{'}entit{\'e}s et d{'}entit{\'e}s li{\'e}es dans le contexte. Des exp{\'e}riences utilisant les t{\^a}ches {\`a} forte intensit{\'e} de connaissances dans le cadre du benchmark d{'}{\'e}valuation KILT montrent le potentiel de notre approche.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="sourty-etal-2023-enrichissement">
<titleInfo>
<title>Enrichissement des modèles de langue pré-entraînés par la distillation mutuelle des connaissances</title>
</titleInfo>
<name type="personal">
<namePart type="given">Raphaël</namePart>
<namePart type="family">Sourty</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="given">G</namePart>
<namePart type="family">Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">François-Paul</namePart>
<namePart type="family">Servant</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Lynda</namePart>
<namePart type="family">Tamine</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 18e Conférence en Recherche d’Information et Applications (CORIA)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Haïfa</namePart>
<namePart type="family">Zargayouna</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Les bases de connaissances sont des ressources essentielles dans un large éventail d’applications à forte intensité de connaissances. Cependant, leur incomplétude limite intrinsèquement leur utilisation et souligne l’importance de les compléter. À cette fin, la littérature a récemment adopté un point de vue de monde ouvert en associant la capacité des bases de connaissances à représenter des connaissances factuelles aux capacités des modèles de langage pré-entraînés (PLM) à capturer des connaissances linguistiques de haut niveau et contextuelles à partir de corpus de textes. Dans ce travail, nous proposons un cadre de distillation pour la complétion des bases de connaissances où les PLMs exploitent les étiquettes souples sous la forme de prédictions d’entités et de relations fournies par un modèle de plongements de bases de connaissances, tout en conservant leur pouvoir de prédiction d’entités sur de grandes collections des textes. Pour mieux s’adapter à la tâche de complétion des connaissances, nous étendons la modélisation traditionnelle du langage masqué des PLM à la prédiction d’entités et d’entités liées dans le contexte. Des expériences utilisant les tâches à forte intensité de connaissances dans le cadre du benchmark d’évaluation KILT montrent le potentiel de notre approche.</abstract>
<identifier type="citekey">sourty-etal-2023-enrichissement</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-coria.9</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>139</start>
<end>156</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Enrichissement des modèles de langue pré-entraînés par la distillation mutuelle des connaissances
%A Sourty, Raphaël
%A Moreno, Jose G.
%A Servant, François-Paul
%A Tamine, Lynda
%Y Zargayouna, Haïfa
%S Actes de CORIA-TALN 2023. Actes de la 18e Conférence en Recherche d’Information et Applications (CORIA)
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F sourty-etal-2023-enrichissement
%X Les bases de connaissances sont des ressources essentielles dans un large éventail d’applications à forte intensité de connaissances. Cependant, leur incomplétude limite intrinsèquement leur utilisation et souligne l’importance de les compléter. À cette fin, la littérature a récemment adopté un point de vue de monde ouvert en associant la capacité des bases de connaissances à représenter des connaissances factuelles aux capacités des modèles de langage pré-entraînés (PLM) à capturer des connaissances linguistiques de haut niveau et contextuelles à partir de corpus de textes. Dans ce travail, nous proposons un cadre de distillation pour la complétion des bases de connaissances où les PLMs exploitent les étiquettes souples sous la forme de prédictions d’entités et de relations fournies par un modèle de plongements de bases de connaissances, tout en conservant leur pouvoir de prédiction d’entités sur de grandes collections des textes. Pour mieux s’adapter à la tâche de complétion des connaissances, nous étendons la modélisation traditionnelle du langage masqué des PLM à la prédiction d’entités et d’entités liées dans le contexte. Des expériences utilisant les tâches à forte intensité de connaissances dans le cadre du benchmark d’évaluation KILT montrent le potentiel de notre approche.
%U https://aclanthology.org/2023.jeptalnrecital-coria.9
%P 139-156
Markdown (Informal)
[Enrichissement des modèles de langue pré-entraînés par la distillation mutuelle des connaissances](https://aclanthology.org/2023.jeptalnrecital-coria.9) (Sourty et al., JEP/TALN/RECITAL 2023)
ACL