Dorian Kodelja


2020

pdf bib
Représentation dynamique et spécifique du contexte textuel pour l’extraction d’événements (Dynamic and specific textual context representation for event extraction)
Dorian Kodelja | Romaric Besançon | Olivier Ferret
Actes de la 6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 2 : Traitement Automatique des Langues Naturelles

Dans cet article, focalisé sur l’extraction supervisée de mentions d’événements dans les textes, nous proposons d’étendre un modèle opérant au niveau phrastique et reposant sur une architecture neuronale de convolution de graphe exploitant les dépendances syntaxiques. Nous y intégrons pour ce faire un contexte plus large au travers de la représentation de phrases distantes sélectionnées sur la base de relations de coréférence entre entités. En outre, nous montrons l’intérêt d’une telle intégration au travers d’évaluations menées sur le corpus de référence TAC Event 2015.

2019

pdf bib
Modèles neuronaux pour l’extraction supervisée d’événements : état de l’art [Neural models for supervised event extraction: state of the art]
Dorian Kodelja | Romaric Besançon | Olivier Ferret
Traitement Automatique des Langues, Volume 60, Numéro 1 : Varia [Varia]

2018

pdf bib
Intégration de contexte global par amorçage pour la détection d’événements (Integrating global context via bootstrapping for event detection)
Dorian Kodelja | Romaric Besançon | Olivier Ferret
Actes de la Conférence TALN. Volume 1 - Articles longs, articles courts de TALN

Les approches neuronales obtiennent depuis plusieurs années des résultats intéressants en extraction d’événements. Cependant, les approches développées dans ce cadre se limitent généralement à un contexte phrastique. Or, si certains types d’événements sont aisément identifiables à ce niveau, l’exploitation d’indices présents dans d’autres phrases est parfois nécessaire pour permettre de désambiguïser des événements. Dans cet article, nous proposons ainsi l’intégration d’une représentation d’un contexte plus large pour améliorer l’apprentissage d’un réseau convolutif. Cette représentation est obtenue par amorçage en exploitant les résultats d’un premier modèle convolutif opérant au niveau phrastique. Dans le cadre d’une évaluation réalisée sur les données de la campagne TAC 2017, nous montrons que ce modèle global obtient un gain significatif par rapport au modèle local, ces deux modèles étant eux-mêmes compétitifs par rapport aux résultats de TAC 2017. Nous étudions également en détail le gain de performance de notre nouveau modèle au travers de plusieurs expériences complémentaires.