Chunxiao Yan
2025
Augmentation des données par LLM pour améliorer la détection automatique des erreurs de coordination
Chunxiao Yan | Iris Eshkol-Taravella | Sarah De V ogué | Marianne Desmets
Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux
Chunxiao Yan | Iris Eshkol-Taravella | Sarah De V ogué | Marianne Desmets
Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux
Afin d’améliorer les performances d’un outil de détection automatique des erreurs de coordination, cette étude explore l’utilisation de grands modèles de langage (LLM) pour remédier au déséquilibre des classes et à la limitation des données. En générant des phrases erronées simulées par un LLM pour former un corpus synthétique, nous améliorons la détection d’une classe sous-représentée ainsi que les performances globales du modèle. Nous étudions également l’application des LLM à l’annotation des données, avec pour objectif d’intégrer ces annotations à l’entraînement afin d’optimiser l’apprentissage du modèle.
2019
Advantages of the flux-based interpretation of dependency length minimization
Sylvain Kahane | Chunxiao Yan
Proceedings of the First Workshop on Quantitative Syntax (Quasy, SyntaxFest 2019)
Sylvain Kahane | Chunxiao Yan
Proceedings of the First Workshop on Quantitative Syntax (Quasy, SyntaxFest 2019)
What can we learn from natural and artificial dependency trees
Marine Courtin | Chunxiao Yan
Proceedings of the First Workshop on Quantitative Syntax (Quasy, SyntaxFest 2019)
Marine Courtin | Chunxiao Yan
Proceedings of the First Workshop on Quantitative Syntax (Quasy, SyntaxFest 2019)
2018
Using Universal Dependencies in cross-linguistic complexity research
Aleksandrs Berdicevskis | Çağrı Çöltekin | Katharina Ehret | Kilu von Prince | Daniel Ross | Bill Thompson | Chunxiao Yan | Vera Demberg | Gary Lupyan | Taraka Rama | Christian Bentz
Proceedings of the Second Workshop on Universal Dependencies (UDW 2018)
Aleksandrs Berdicevskis | Çağrı Çöltekin | Katharina Ehret | Kilu von Prince | Daniel Ross | Bill Thompson | Chunxiao Yan | Vera Demberg | Gary Lupyan | Taraka Rama | Christian Bentz
Proceedings of the Second Workshop on Universal Dependencies (UDW 2018)
We evaluate corpus-based measures of linguistic complexity obtained using Universal Dependencies (UD) treebanks. We propose a method of estimating robustness of the complexity values obtained using a given measure and a given treebank. The results indicate that measures of syntactic complexity might be on average less robust than those of morphological complexity. We also estimate the validity of complexity measures by comparing the results for very similar languages and checking for unexpected differences. We show that some of those differences that arise can be diminished by using parallel treebanks and, more importantly from the practical point of view, by harmonizing the language-specific solutions in the UD annotation.