@inproceedings{nicolas-etal-2009-trouver,
title = "Trouver et confondre les coupables : un processus sophistiqu{\'e} de correction de lexique",
author = "Nicolas, Lionel and
Sagot, Beno{\^\i}t and
A. Molinero, Miguel and
Farr{\'e}, Jacques and
Villemonte De La Clergerie, {\'E}ric",
editor = "Nazarenko, Adeline and
Poibeau, Thierry",
booktitle = "Actes de la 16{\`e}me conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Articles longs",
month = jun,
year = "2009",
address = "Senlis, France",
publisher = "ATALA",
url = "https://aclanthology.org/2009.jeptalnrecital-long.23",
pages = "221--230",
abstract = "La couverture d{'}un analyseur syntaxique d{\'e}pend avant tout de la grammaire et du lexique sur lequel il repose. Le d{\'e}veloppement d{'}un lexique complet et pr{\'e}cis est une t{\^a}che ardue et de longue haleine, surtout lorsque le lexique atteint un certain niveau de qualit{\'e} et de couverture. Dans cet article, nous pr{\'e}sentons un processus capable de d{\'e}tecter automatiquement les entr{\'e}es manquantes ou incompl{\`e}tes d{'}un lexique, et de sugg{\'e}rer des corrections pour ces entr{\'e}es. La d{\'e}tection se r{\'e}alise au moyen de deux techniques reposant soit sur un mod{\`e}le statistique, soit sur les informations fournies par un {\'e}tiqueteur syntaxique. Les hypoth{\`e}ses de corrections pour les entr{\'e}es lexicales d{\'e}tect{\'e}es sont g{\'e}n{\'e}r{\'e}es en {\'e}tudiant les modifications qui permettent d{'}am{\'e}liorer le taux d{'}analyse des phrases dans lesquelles ces entr{\'e}es apparaissent. Le processus global met en oeuvre plusieurs techniques utilisant divers outils tels que des {\'e}tiqueteurs et des analyseurs syntaxiques ou des classifieurs d{'}entropie. Son application au Lefff , un lexique morphologique et syntaxique {\`a} large couverture du fran{\c{c}}ais, nous a d{\'e}j{\`a} permis de r{\'e}aliser des am{\'e}liorations notables.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="nicolas-etal-2009-trouver">
<titleInfo>
<title>Trouver et confondre les coupables : un processus sophistiqué de correction de lexique</title>
</titleInfo>
<name type="personal">
<namePart type="given">Lionel</namePart>
<namePart type="family">Nicolas</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoît</namePart>
<namePart type="family">Sagot</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Miguel</namePart>
<namePart type="family">A. Molinero</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jacques</namePart>
<namePart type="family">Farré</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Éric</namePart>
<namePart type="family">Villemonte De La Clergerie</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2009-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 16ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Adeline</namePart>
<namePart type="family">Nazarenko</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thierry</namePart>
<namePart type="family">Poibeau</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Senlis, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>La couverture d’un analyseur syntaxique dépend avant tout de la grammaire et du lexique sur lequel il repose. Le développement d’un lexique complet et précis est une tâche ardue et de longue haleine, surtout lorsque le lexique atteint un certain niveau de qualité et de couverture. Dans cet article, nous présentons un processus capable de détecter automatiquement les entrées manquantes ou incomplètes d’un lexique, et de suggérer des corrections pour ces entrées. La détection se réalise au moyen de deux techniques reposant soit sur un modèle statistique, soit sur les informations fournies par un étiqueteur syntaxique. Les hypothèses de corrections pour les entrées lexicales détectées sont générées en étudiant les modifications qui permettent d’améliorer le taux d’analyse des phrases dans lesquelles ces entrées apparaissent. Le processus global met en oeuvre plusieurs techniques utilisant divers outils tels que des étiqueteurs et des analyseurs syntaxiques ou des classifieurs d’entropie. Son application au Lefff , un lexique morphologique et syntaxique à large couverture du français, nous a déjà permis de réaliser des améliorations notables.</abstract>
<identifier type="citekey">nicolas-etal-2009-trouver</identifier>
<location>
<url>https://aclanthology.org/2009.jeptalnrecital-long.23</url>
</location>
<part>
<date>2009-06</date>
<extent unit="page">
<start>221</start>
<end>230</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Trouver et confondre les coupables : un processus sophistiqué de correction de lexique
%A Nicolas, Lionel
%A Sagot, Benoît
%A A. Molinero, Miguel
%A Farré, Jacques
%A Villemonte De La Clergerie, Éric
%Y Nazarenko, Adeline
%Y Poibeau, Thierry
%S Actes de la 16ème conférence sur le Traitement Automatique des Langues Naturelles. Articles longs
%D 2009
%8 June
%I ATALA
%C Senlis, France
%G French
%F nicolas-etal-2009-trouver
%X La couverture d’un analyseur syntaxique dépend avant tout de la grammaire et du lexique sur lequel il repose. Le développement d’un lexique complet et précis est une tâche ardue et de longue haleine, surtout lorsque le lexique atteint un certain niveau de qualité et de couverture. Dans cet article, nous présentons un processus capable de détecter automatiquement les entrées manquantes ou incomplètes d’un lexique, et de suggérer des corrections pour ces entrées. La détection se réalise au moyen de deux techniques reposant soit sur un modèle statistique, soit sur les informations fournies par un étiqueteur syntaxique. Les hypothèses de corrections pour les entrées lexicales détectées sont générées en étudiant les modifications qui permettent d’améliorer le taux d’analyse des phrases dans lesquelles ces entrées apparaissent. Le processus global met en oeuvre plusieurs techniques utilisant divers outils tels que des étiqueteurs et des analyseurs syntaxiques ou des classifieurs d’entropie. Son application au Lefff , un lexique morphologique et syntaxique à large couverture du français, nous a déjà permis de réaliser des améliorations notables.
%U https://aclanthology.org/2009.jeptalnrecital-long.23
%P 221-230
Markdown (Informal)
[Trouver et confondre les coupables : un processus sophistiqué de correction de lexique](https://aclanthology.org/2009.jeptalnrecital-long.23) (Nicolas et al., JEP/TALN/RECITAL 2009)
ACL