@inproceedings{cao-etal-2023-etude,
title = "{\'E}tude comparative des plongements lexicaux pour l`extraction d`entit{\'e}s nomm{\'e}es en fran{\c{c}}ais",
author = "Cao, Danrun and
B{\'e}chet, Nicolat and
Marteau, Pierre-Fran{\c{c}}ois",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-long.8/",
pages = "94--104",
language = "fra",
abstract = "Dans ce papier nous pr{\'e}sentons une {\'e}tude comparative des m{\'e}thodes de plongements lexicaux pour le fran{\c{c}}ais sur la t{\^a}che de Reconnaissance d`entit{\'e}s nomm{\'e}es (REN). L`objectif est de comparer la performance de chaque m{\'e}thode sur la m{\^e}me t{\^a}che et sous les m{\^e}mes conditions de travail. Nous utilisons comme corpus d'{\'e}tude la proportion fran{\c{c}}aise du corpus WikiNER. Il s`agit d`un corpus de 3,5 millions tokens avec 4 types d`entit{\'e}s. 10 types de plongements lexicaux sont {\'e}tudi{\'e}s, y compris les plongements non-contextuels, des contextuels et {\'e}ventuellement ceux {\`a} base de transformer. Pour chaque plongement, nous entra{\^i}nons un BiLSTM-CRF comme classifieur. Pour les mod{\`e}les {\`a} base de transformer, nous comparons {\'e}galement leur performance sous un autre cas d`usage: fine-tuning."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="cao-etal-2023-etude">
<titleInfo>
<title>Étude comparative des plongements lexicaux pour l‘extraction d‘entités nommées en français</title>
</titleInfo>
<name type="personal">
<namePart type="given">Danrun</namePart>
<namePart type="family">Cao</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nicolat</namePart>
<namePart type="family">Béchet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Pierre-François</namePart>
<namePart type="family">Marteau</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Dans ce papier nous présentons une étude comparative des méthodes de plongements lexicaux pour le français sur la tâche de Reconnaissance d‘entités nommées (REN). L‘objectif est de comparer la performance de chaque méthode sur la même tâche et sous les mêmes conditions de travail. Nous utilisons comme corpus d’étude la proportion française du corpus WikiNER. Il s‘agit d‘un corpus de 3,5 millions tokens avec 4 types d‘entités. 10 types de plongements lexicaux sont étudiés, y compris les plongements non-contextuels, des contextuels et éventuellement ceux à base de transformer. Pour chaque plongement, nous entraînons un BiLSTM-CRF comme classifieur. Pour les modèles à base de transformer, nous comparons également leur performance sous un autre cas d‘usage: fine-tuning.</abstract>
<identifier type="citekey">cao-etal-2023-etude</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-long.8/</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>94</start>
<end>104</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Étude comparative des plongements lexicaux pour l‘extraction d‘entités nommées en français
%A Cao, Danrun
%A Béchet, Nicolat
%A Marteau, Pierre-François
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs
%D 2023
%8 June
%I ATALA
%C Paris, France
%G fra
%F cao-etal-2023-etude
%X Dans ce papier nous présentons une étude comparative des méthodes de plongements lexicaux pour le français sur la tâche de Reconnaissance d‘entités nommées (REN). L‘objectif est de comparer la performance de chaque méthode sur la même tâche et sous les mêmes conditions de travail. Nous utilisons comme corpus d’étude la proportion française du corpus WikiNER. Il s‘agit d‘un corpus de 3,5 millions tokens avec 4 types d‘entités. 10 types de plongements lexicaux sont étudiés, y compris les plongements non-contextuels, des contextuels et éventuellement ceux à base de transformer. Pour chaque plongement, nous entraînons un BiLSTM-CRF comme classifieur. Pour les modèles à base de transformer, nous comparons également leur performance sous un autre cas d‘usage: fine-tuning.
%U https://aclanthology.org/2023.jeptalnrecital-long.8/
%P 94-104
Markdown (Informal)
[Étude comparative des plongements lexicaux pour l’extraction d’entités nommées en français](https://aclanthology.org/2023.jeptalnrecital-long.8/) (Cao et al., JEP/TALN/RECITAL 2023)
ACL