@inproceedings{ozawa-etal-2024-modeliser,
title = "Mod{\'e}liser la facilit{\'e} d{'}{\'e}coute en {FLE} : vaut-il mieux lire la transcription ou {\'e}couter le signal vocal ?",
author = "Ozawa, Minami and
Wilkens, Rodrigo and
Sugiyama, Kaori and
Fran{\c{c}}ois, Thomas",
editor = "Balaguer, Mathieu and
Bendahman, Nihed and
Ho-dac, Lydia-Mai and
Mauclair, Julie and
G Moreno, Jose and
Pinquier, Julien",
booktitle = "Actes de la 31{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position",
month = "7",
year = "2024",
address = "Toulouse, France",
publisher = "ATALA and AFPC",
url = "https://aclanthology.org/2024.jeptalnrecital-taln.37",
pages = "549--566",
abstract = "Le principal objectif de cette {\'e}tude est de proposer un mod{\`e}le capable de pr{\'e}dire automatiquement le niveau de facilit{\'e} d{'}{\'e}coute de documents audios en fran{\c{c}}ais. Les donn{\'e}es d{'}entrainement sont constitu{\'e}es d{'}enregistrements audios accompagn{\'e}s de leurs transcriptions et sont issues de manuels de FLE dont le niveau est {\'e}valu{\'e} sur l{'}{\'e}chelle du Cadre europ{\'e}en commun de r{\'e}f{\'e}rence (CECR). Nous comparons trois approches diff{\'e}rentes : machines {\`a} vecteurs de support (SVM) combinant des variables de lisibilit{\'e} et de fluidit{\'e}, wav2vec et CamemBERT. Pour identifier le meilleur mod{\`e}le, nous {\'e}valuons l{'}impact des caract{\'e}ristiques linguistiques et prosodiques ainsi que du style de parole(dialogue ou monologue) sur les performances. Nos exp{\'e}riences montrent que les variables de fluidit{\'e} am{\'e}liorent la pr{\'e}cision du mod{\`e}le et que cette pr{\'e}cision est diff{\'e}rente par style de parole. Enfin, les performances de tous les mod{\`e}les varient selon les niveaux du CECR.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="ozawa-etal-2024-modeliser">
<titleInfo>
<title>Modéliser la facilité d’écoute en FLE : vaut-il mieux lire la transcription ou écouter le signal vocal ?</title>
</titleInfo>
<name type="personal">
<namePart type="given">Minami</namePart>
<namePart type="family">Ozawa</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Rodrigo</namePart>
<namePart type="family">Wilkens</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Kaori</namePart>
<namePart type="family">Sugiyama</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thomas</namePart>
<namePart type="family">François</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2024-07</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position</title>
</titleInfo>
<name type="personal">
<namePart type="given">Mathieu</namePart>
<namePart type="family">Balaguer</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nihed</namePart>
<namePart type="family">Bendahman</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Lydia-Mai</namePart>
<namePart type="family">Ho-dac</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julie</namePart>
<namePart type="family">Mauclair</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Jose</namePart>
<namePart type="family">G Moreno</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Pinquier</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA and AFPC</publisher>
<place>
<placeTerm type="text">Toulouse, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Le principal objectif de cette étude est de proposer un modèle capable de prédire automatiquement le niveau de facilité d’écoute de documents audios en français. Les données d’entrainement sont constituées d’enregistrements audios accompagnés de leurs transcriptions et sont issues de manuels de FLE dont le niveau est évalué sur l’échelle du Cadre européen commun de référence (CECR). Nous comparons trois approches différentes : machines à vecteurs de support (SVM) combinant des variables de lisibilité et de fluidité, wav2vec et CamemBERT. Pour identifier le meilleur modèle, nous évaluons l’impact des caractéristiques linguistiques et prosodiques ainsi que du style de parole(dialogue ou monologue) sur les performances. Nos expériences montrent que les variables de fluidité améliorent la précision du modèle et que cette précision est différente par style de parole. Enfin, les performances de tous les modèles varient selon les niveaux du CECR.</abstract>
<identifier type="citekey">ozawa-etal-2024-modeliser</identifier>
<location>
<url>https://aclanthology.org/2024.jeptalnrecital-taln.37</url>
</location>
<part>
<date>2024-7</date>
<extent unit="page">
<start>549</start>
<end>566</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Modéliser la facilité d’écoute en FLE : vaut-il mieux lire la transcription ou écouter le signal vocal ?
%A Ozawa, Minami
%A Wilkens, Rodrigo
%A Sugiyama, Kaori
%A François, Thomas
%Y Balaguer, Mathieu
%Y Bendahman, Nihed
%Y Ho-dac, Lydia-Mai
%Y Mauclair, Julie
%Y G Moreno, Jose
%Y Pinquier, Julien
%S Actes de la 31ème Conférence sur le Traitement Automatique des Langues Naturelles, volume 1 : articles longs et prises de position
%D 2024
%8 July
%I ATALA and AFPC
%C Toulouse, France
%G French
%F ozawa-etal-2024-modeliser
%X Le principal objectif de cette étude est de proposer un modèle capable de prédire automatiquement le niveau de facilité d’écoute de documents audios en français. Les données d’entrainement sont constituées d’enregistrements audios accompagnés de leurs transcriptions et sont issues de manuels de FLE dont le niveau est évalué sur l’échelle du Cadre européen commun de référence (CECR). Nous comparons trois approches différentes : machines à vecteurs de support (SVM) combinant des variables de lisibilité et de fluidité, wav2vec et CamemBERT. Pour identifier le meilleur modèle, nous évaluons l’impact des caractéristiques linguistiques et prosodiques ainsi que du style de parole(dialogue ou monologue) sur les performances. Nos expériences montrent que les variables de fluidité améliorent la précision du modèle et que cette précision est différente par style de parole. Enfin, les performances de tous les modèles varient selon les niveaux du CECR.
%U https://aclanthology.org/2024.jeptalnrecital-taln.37
%P 549-566
Markdown (Informal)
[Modéliser la facilité d’écoute en FLE : vaut-il mieux lire la transcription ou écouter le signal vocal ?](https://aclanthology.org/2024.jeptalnrecital-taln.37) (Ozawa et al., JEP/TALN/RECITAL 2024)
ACL