@inproceedings{metheniti-etal-2021-predire,
title = "Pr{\'e}dire l{'}aspect linguistique en anglais au moyen de transformers (Classifying Linguistic Aspect in {E}nglish with Transformers )",
author = "Metheniti, Eleni and
van de Cruys, Tim and
Hathout, Nabil",
editor = "Denis, Pascal and
Grabar, Natalia and
Fraisse, Amel and
Cardon, R{\'e}mi and
Jacquemin, Bernard and
Kergosien, Eric and
Balvet, Antonio",
booktitle = "Actes de la 28e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2021",
address = "Lille, France",
publisher = "ATALA",
url = "https://aclanthology.org/2021.jeptalnrecital-taln.20",
pages = "209--218",
abstract = "L{'}aspect du verbe d{\'e}crit la mani{\`e}re dont une action, un {\'e}v{\'e}nement ou un {\'e}tat exprim{\'e} par un verbe est li{\'e} au temps ; la t{\'e}licit{\'e} est la propri{\'e}t{\'e} d{'}un syntagme verbal qui pr{\'e}sente une action ou un {\'e}v{\'e}nement comme {\'e}tant men{\'e} {\`a} son terme ; la dur{\'e}e distingue les verbes qui expriment une action (dynamique) ou un {\'e}tat (statique). Ces caract{\'e}ristiques essentielles {\`a} l{'}interpr{\'e}tation du langage naturel, sont {\'e}galement difficiles {\`a} annoter et {\`a} identifier par les m{\'e}thodes de TAL. Dans ce travail, nous estimons la capacit{\'e} de diff{\'e}rents mod{\`e}les de type transformers pr{\'e}-entra{\^\i}n{\'e}s (BERT, RoBERTa, XLNet, ALBERT) {\`a} pr{\'e}dire la t{\'e}licit{\'e} et la dur{\'e}e. Nos r{\'e}sultats montrent que BERT est le plus performant sur les deux t{\^a}ches, tandis que les mod{\`e}les XLNet et ALBERT sont les plus faibles. Par ailleurs, les performances de la plupart des mod{\`e}les sont am{\'e}lior{\'e}es lorsqu{'}on leur fournit en plus la position des verbes. Globalement, notre {\'e}tude {\'e}tablit que les mod{\`e}les de type transformers captent en grande partie la t{\'e}licit{\'e} et la dur{\'e}e.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="metheniti-etal-2021-predire">
<titleInfo>
<title>Prédire l’aspect linguistique en anglais au moyen de transformers (Classifying Linguistic Aspect in English with Transformers )</title>
</titleInfo>
<name type="personal">
<namePart type="given">Eleni</namePart>
<namePart type="family">Metheniti</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Tim</namePart>
<namePart type="family">van de Cruys</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nabil</namePart>
<namePart type="family">Hathout</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2021-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 28e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Pascal</namePart>
<namePart type="family">Denis</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Natalia</namePart>
<namePart type="family">Grabar</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Amel</namePart>
<namePart type="family">Fraisse</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Rémi</namePart>
<namePart type="family">Cardon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Bernard</namePart>
<namePart type="family">Jacquemin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eric</namePart>
<namePart type="family">Kergosien</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Antonio</namePart>
<namePart type="family">Balvet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Lille, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’aspect du verbe décrit la manière dont une action, un événement ou un état exprimé par un verbe est lié au temps ; la télicité est la propriété d’un syntagme verbal qui présente une action ou un événement comme étant mené à son terme ; la durée distingue les verbes qui expriment une action (dynamique) ou un état (statique). Ces caractéristiques essentielles à l’interprétation du langage naturel, sont également difficiles à annoter et à identifier par les méthodes de TAL. Dans ce travail, nous estimons la capacité de différents modèles de type transformers pré-entraînés (BERT, RoBERTa, XLNet, ALBERT) à prédire la télicité et la durée. Nos résultats montrent que BERT est le plus performant sur les deux tâches, tandis que les modèles XLNet et ALBERT sont les plus faibles. Par ailleurs, les performances de la plupart des modèles sont améliorées lorsqu’on leur fournit en plus la position des verbes. Globalement, notre étude établit que les modèles de type transformers captent en grande partie la télicité et la durée.</abstract>
<identifier type="citekey">metheniti-etal-2021-predire</identifier>
<location>
<url>https://aclanthology.org/2021.jeptalnrecital-taln.20</url>
</location>
<part>
<date>2021-6</date>
<extent unit="page">
<start>209</start>
<end>218</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Prédire l’aspect linguistique en anglais au moyen de transformers (Classifying Linguistic Aspect in English with Transformers )
%A Metheniti, Eleni
%A van de Cruys, Tim
%A Hathout, Nabil
%Y Denis, Pascal
%Y Grabar, Natalia
%Y Fraisse, Amel
%Y Cardon, Rémi
%Y Jacquemin, Bernard
%Y Kergosien, Eric
%Y Balvet, Antonio
%S Actes de la 28e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale
%D 2021
%8 June
%I ATALA
%C Lille, France
%G French
%F metheniti-etal-2021-predire
%X L’aspect du verbe décrit la manière dont une action, un événement ou un état exprimé par un verbe est lié au temps ; la télicité est la propriété d’un syntagme verbal qui présente une action ou un événement comme étant mené à son terme ; la durée distingue les verbes qui expriment une action (dynamique) ou un état (statique). Ces caractéristiques essentielles à l’interprétation du langage naturel, sont également difficiles à annoter et à identifier par les méthodes de TAL. Dans ce travail, nous estimons la capacité de différents modèles de type transformers pré-entraînés (BERT, RoBERTa, XLNet, ALBERT) à prédire la télicité et la durée. Nos résultats montrent que BERT est le plus performant sur les deux tâches, tandis que les modèles XLNet et ALBERT sont les plus faibles. Par ailleurs, les performances de la plupart des modèles sont améliorées lorsqu’on leur fournit en plus la position des verbes. Globalement, notre étude établit que les modèles de type transformers captent en grande partie la télicité et la durée.
%U https://aclanthology.org/2021.jeptalnrecital-taln.20
%P 209-218
Markdown (Informal)
[Prédire l’aspect linguistique en anglais au moyen de transformers (Classifying Linguistic Aspect in English with Transformers )](https://aclanthology.org/2021.jeptalnrecital-taln.20) (Metheniti et al., JEP/TALN/RECITAL 2021)
ACL