@inproceedings{naguib-etal-2022-vers,
title = "Vers la compr{\'e}hension automatique de la parole bout-en-bout {\`a} moindre effort (Towards automatic end-to-end speech understanding with less effort)",
author = "Naguib, Marco and
Portet, Fran{\c{c}}ois and
Dinarelli, Marco",
editor = "Est{\`e}ve, Yannick and
Jim{\'e}nez, Tania and
Parcollet, Titouan and
Zanon Boito, Marcely",
booktitle = "Actes de la 29e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2022",
address = "Avignon, France",
publisher = "ATALA",
url = "https://aclanthology.org/2022.jeptalnrecital-taln.25/",
pages = "257--268",
language = "fra",
abstract = "Les approches de compr{\'e}hension automatique de la parole ont r{\'e}cemment b{\'e}n{\'e}fici{\'e} de l`apport de mod{\`e}les pr{\'e}appris par autosupervision sur de gros corpus de parole. Pour le fran{\c{c}}ais, le projet LeBenchmark a rendu disponibles de tels mod{\`e}les et a permis des {\'e}volutions impressionnantes sur plusieurs t{\^a}ches dont la compr{\'e}hension automatique de la parole. Ces avanc{\'e}es ont un co{\^u}t non n{\'e}gligeable en ce qui concerne le temps de calcul et la consommation {\'e}nerg{\'e}tique. Dans cet article, nous comparons plusieurs strat{\'e}gies d`apprentissage visant {\`a} r{\'e}duire le co{\^u}t {\'e}nerg{\'e}tique tout en conservant des performances comp{\'e}titives. Les exp{\'e}riences sont effectu{\'e}es sur le corpus MEDIA, et montrent qu`il est possible de r{\'e}duire significativement le co{\^u}t d`apprentissage tout en conservant des performances {\`a} l'{\'e}tat de l`art."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="naguib-etal-2022-vers">
<titleInfo>
<title>Vers la compréhension automatique de la parole bout-en-bout à moindre effort (Towards automatic end-to-end speech understanding with less effort)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Marco</namePart>
<namePart type="family">Naguib</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">François</namePart>
<namePart type="family">Portet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Marco</namePart>
<namePart type="family">Dinarelli</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2022-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale</title>
</titleInfo>
<name type="personal">
<namePart type="given">Yannick</namePart>
<namePart type="family">Estève</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Tania</namePart>
<namePart type="family">Jiménez</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Titouan</namePart>
<namePart type="family">Parcollet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Marcely</namePart>
<namePart type="family">Zanon Boito</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Avignon, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Les approches de compréhension automatique de la parole ont récemment bénéficié de l‘apport de modèles préappris par autosupervision sur de gros corpus de parole. Pour le français, le projet LeBenchmark a rendu disponibles de tels modèles et a permis des évolutions impressionnantes sur plusieurs tâches dont la compréhension automatique de la parole. Ces avancées ont un coût non négligeable en ce qui concerne le temps de calcul et la consommation énergétique. Dans cet article, nous comparons plusieurs stratégies d‘apprentissage visant à réduire le coût énergétique tout en conservant des performances compétitives. Les expériences sont effectuées sur le corpus MEDIA, et montrent qu‘il est possible de réduire significativement le coût d‘apprentissage tout en conservant des performances à l’état de l‘art.</abstract>
<identifier type="citekey">naguib-etal-2022-vers</identifier>
<location>
<url>https://aclanthology.org/2022.jeptalnrecital-taln.25/</url>
</location>
<part>
<date>2022-6</date>
<extent unit="page">
<start>257</start>
<end>268</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Vers la compréhension automatique de la parole bout-en-bout à moindre effort (Towards automatic end-to-end speech understanding with less effort)
%A Naguib, Marco
%A Portet, François
%A Dinarelli, Marco
%Y Estève, Yannick
%Y Jiménez, Tania
%Y Parcollet, Titouan
%Y Zanon Boito, Marcely
%S Actes de la 29e Conférence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conférence principale
%D 2022
%8 June
%I ATALA
%C Avignon, France
%G fra
%F naguib-etal-2022-vers
%X Les approches de compréhension automatique de la parole ont récemment bénéficié de l‘apport de modèles préappris par autosupervision sur de gros corpus de parole. Pour le français, le projet LeBenchmark a rendu disponibles de tels modèles et a permis des évolutions impressionnantes sur plusieurs tâches dont la compréhension automatique de la parole. Ces avancées ont un coût non négligeable en ce qui concerne le temps de calcul et la consommation énergétique. Dans cet article, nous comparons plusieurs stratégies d‘apprentissage visant à réduire le coût énergétique tout en conservant des performances compétitives. Les expériences sont effectuées sur le corpus MEDIA, et montrent qu‘il est possible de réduire significativement le coût d‘apprentissage tout en conservant des performances à l’état de l‘art.
%U https://aclanthology.org/2022.jeptalnrecital-taln.25/
%P 257-268
Markdown (Informal)
[Vers la compréhension automatique de la parole bout-en-bout à moindre effort (Towards automatic end-to-end speech understanding with less effort)](https://aclanthology.org/2022.jeptalnrecital-taln.25/) (Naguib et al., JEP/TALN/RECITAL 2022)
ACL