@inproceedings{liang-etal-2023-uniformite,
title = "Uniformit{\'e} de la densit{\'e} informationnelle: le cas du redoublement du sujet",
author = "Liang, Yiming and
Amsili, Pascal and
Burnett, Heather",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-long.13",
pages = "164--176",
abstract = "Nous pr{\'e}sentons les r{\'e}sultats d{'}une exp{\'e}rience visant {\`a} savoir si la densit{\'e} d{'}information (ou de surprise) affecte le redoublement du sujet dans des conversations spontan{\'e}es. En utilisant la version fran{\c{c}}aise de GPT, nous estimons la surprise lexicale du sujet NP {\'e}tant donn{\'e} un contexte pr{\'e}c{\'e}dent et v{\'e}rifions si la surprise du sujet affecte son redoublement. L{'}analyse de r{\'e}gression {\`a} effet mixte montre que, en plus des facteurs qui ont {\'e}t{\'e} montr{\'e}s comme affectant le redoublement du sujet dans la litt{\'e}rature, la pr{\'e}visibilit{\'e} du sujet nominal est un pr{\'e}dicteur important du non-redoublement. Les sujets nominaux moins pr{\'e}dictibles tendent {\`a} {\^e}tre redoubl{\'e}s par rapport {\`a} ceux qui sont plus pr{\'e}dictibles. Notre travail confirme l{'}int{\'e}r{\^e}t de l{'}hypoth{\`e}se de l{'}Uniformit{\'e} de la densit{\'e} informationnelle (UID) pour le fran{\c{c}}ais et illustre l{'}op{\'e}rationalisation de la densit{\'e} informationnelle {\`a} l{'}aide de grands mod{\`e}les neuronaux de langage.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="liang-etal-2023-uniformite">
<titleInfo>
<title>Uniformité de la densité informationnelle: le cas du redoublement du sujet</title>
</titleInfo>
<name type="personal">
<namePart type="given">Yiming</namePart>
<namePart type="family">Liang</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Pascal</namePart>
<namePart type="family">Amsili</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Heather</namePart>
<namePart type="family">Burnett</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Nous présentons les résultats d’une expérience visant à savoir si la densité d’information (ou de surprise) affecte le redoublement du sujet dans des conversations spontanées. En utilisant la version française de GPT, nous estimons la surprise lexicale du sujet NP étant donné un contexte précédent et vérifions si la surprise du sujet affecte son redoublement. L’analyse de régression à effet mixte montre que, en plus des facteurs qui ont été montrés comme affectant le redoublement du sujet dans la littérature, la prévisibilité du sujet nominal est un prédicteur important du non-redoublement. Les sujets nominaux moins prédictibles tendent à être redoublés par rapport à ceux qui sont plus prédictibles. Notre travail confirme l’intérêt de l’hypothèse de l’Uniformité de la densité informationnelle (UID) pour le français et illustre l’opérationalisation de la densité informationnelle à l’aide de grands modèles neuronaux de langage.</abstract>
<identifier type="citekey">liang-etal-2023-uniformite</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-long.13</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>164</start>
<end>176</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Uniformité de la densité informationnelle: le cas du redoublement du sujet
%A Liang, Yiming
%A Amsili, Pascal
%A Burnett, Heather
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F liang-etal-2023-uniformite
%X Nous présentons les résultats d’une expérience visant à savoir si la densité d’information (ou de surprise) affecte le redoublement du sujet dans des conversations spontanées. En utilisant la version française de GPT, nous estimons la surprise lexicale du sujet NP étant donné un contexte précédent et vérifions si la surprise du sujet affecte son redoublement. L’analyse de régression à effet mixte montre que, en plus des facteurs qui ont été montrés comme affectant le redoublement du sujet dans la littérature, la prévisibilité du sujet nominal est un prédicteur important du non-redoublement. Les sujets nominaux moins prédictibles tendent à être redoublés par rapport à ceux qui sont plus prédictibles. Notre travail confirme l’intérêt de l’hypothèse de l’Uniformité de la densité informationnelle (UID) pour le français et illustre l’opérationalisation de la densité informationnelle à l’aide de grands modèles neuronaux de langage.
%U https://aclanthology.org/2023.jeptalnrecital-long.13
%P 164-176
Markdown (Informal)
[Uniformité de la densité informationnelle: le cas du redoublement du sujet](https://aclanthology.org/2023.jeptalnrecital-long.13) (Liang et al., JEP/TALN/RECITAL 2023)
ACL