@inproceedings{simonnet-etal-2016-des,
title = "Des R{\'e}seaux de Neurones avec M{\'e}canisme d{'}Attention pour la Compr{\'e}hension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )",
author = "Simonnet, Edwin and
Del{\'e}glise, Paul and
Camelin, Nathalie and
Est{\`e}ve, Yannick",
editor = "Danlos, Laurence and
Hamon, Thierry",
booktitle = "Actes de la conf{\'e}rence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP",
month = "7",
year = "2016",
address = "Paris, France",
publisher = "AFCP - ATALA",
url = "https://aclanthology.org/2016.jeptalnrecital-jep.72",
pages = "642--650",
abstract = "L{'}{\'e}tude porte sur l{'}apport d{'}un r{\'e}seau de neurones r{\'e}current (Recurrent Neural Network RNN) bidirectionnel encodeur/d{\'e}codeur avec m{\'e}canisme d{'}attention pour une t{\^a}che de compr{\'e}hension de la parole. Les premi{\`e}res exp{\'e}riences faites sur le corpus ATIS confirment la qualit{\'e} du syst{\`e}me RNN {\'e}tat de l{'}art utilis{\'e} pour cet article, en comparant les r{\'e}sultats obtenus {\`a} ceux r{\'e}cemment publi{\'e}s dans la litt{\'e}rature. Des exp{\'e}riences suppl{\'e}mentaires montrent que les RNNs avec m{\'e}canisme d{'}attention obtiennent de meilleures performances que les RNNs r{\'e}cemment propos{\'e}s pour la t{\^a}che d{'}{\'e}tiquetage en concepts s{\'e}mantiques. Sur le corpus MEDIA, un corpus fran{\c{c}}ais {\'e}tat de l{'}art pour la compr{\'e}hension d{\'e}di{\'e} {\`a} la r{\'e}servation d{'}h{\^o}tel et aux informations touristiques, les exp{\'e}riences montrent qu{'}un RNN bidirectionnel atteint une f-mesure de 79,51 tandis que le m{\^e}me syst{\`e}me int{\'e}grant le m{\'e}canisme d{'}attention permet d{'}atteindre une f-mesure de 80,27.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="simonnet-etal-2016-des">
<titleInfo>
<title>Des Réseaux de Neurones avec Mécanisme d’Attention pour la Compréhension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )</title>
</titleInfo>
<name type="personal">
<namePart type="given">Edwin</namePart>
<namePart type="family">Simonnet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Paul</namePart>
<namePart type="family">Deléglise</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nathalie</namePart>
<namePart type="family">Camelin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Yannick</namePart>
<namePart type="family">Estève</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2016-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la conférence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP</title>
</titleInfo>
<name type="personal">
<namePart type="given">Laurence</namePart>
<namePart type="family">Danlos</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thierry</namePart>
<namePart type="family">Hamon</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>AFCP - ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’étude porte sur l’apport d’un réseau de neurones récurrent (Recurrent Neural Network RNN) bidirectionnel encodeur/décodeur avec mécanisme d’attention pour une tâche de compréhension de la parole. Les premières expériences faites sur le corpus ATIS confirment la qualité du système RNN état de l’art utilisé pour cet article, en comparant les résultats obtenus à ceux récemment publiés dans la littérature. Des expériences supplémentaires montrent que les RNNs avec mécanisme d’attention obtiennent de meilleures performances que les RNNs récemment proposés pour la tâche d’étiquetage en concepts sémantiques. Sur le corpus MEDIA, un corpus français état de l’art pour la compréhension dédié à la réservation d’hôtel et aux informations touristiques, les expériences montrent qu’un RNN bidirectionnel atteint une f-mesure de 79,51 tandis que le même système intégrant le mécanisme d’attention permet d’atteindre une f-mesure de 80,27.</abstract>
<identifier type="citekey">simonnet-etal-2016-des</identifier>
<location>
<url>https://aclanthology.org/2016.jeptalnrecital-jep.72</url>
</location>
<part>
<date>2016-7</date>
<extent unit="page">
<start>642</start>
<end>650</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Des Réseaux de Neurones avec Mécanisme d’Attention pour la Compréhension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )
%A Simonnet, Edwin
%A Deléglise, Paul
%A Camelin, Nathalie
%A Estève, Yannick
%Y Danlos, Laurence
%Y Hamon, Thierry
%S Actes de la conférence conjointe JEP-TALN-RECITAL 2016. volume 1 : JEP
%D 2016
%8 July
%I AFCP - ATALA
%C Paris, France
%G French
%F simonnet-etal-2016-des
%X L’étude porte sur l’apport d’un réseau de neurones récurrent (Recurrent Neural Network RNN) bidirectionnel encodeur/décodeur avec mécanisme d’attention pour une tâche de compréhension de la parole. Les premières expériences faites sur le corpus ATIS confirment la qualité du système RNN état de l’art utilisé pour cet article, en comparant les résultats obtenus à ceux récemment publiés dans la littérature. Des expériences supplémentaires montrent que les RNNs avec mécanisme d’attention obtiennent de meilleures performances que les RNNs récemment proposés pour la tâche d’étiquetage en concepts sémantiques. Sur le corpus MEDIA, un corpus français état de l’art pour la compréhension dédié à la réservation d’hôtel et aux informations touristiques, les expériences montrent qu’un RNN bidirectionnel atteint une f-mesure de 79,51 tandis que le même système intégrant le mécanisme d’attention permet d’atteindre une f-mesure de 80,27.
%U https://aclanthology.org/2016.jeptalnrecital-jep.72
%P 642-650
Markdown (Informal)
[Des Réseaux de Neurones avec Mécanisme d’Attention pour la Compréhension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )](https://aclanthology.org/2016.jeptalnrecital-jep.72) (Simonnet et al., JEP/TALN/RECITAL 2016)
ACL