@inproceedings{chaffin-delaunay-2023-honey,
title = "{``}Honey, Tell Me What{'}s Wrong{''}, Explicabilit{\'e} Globale des Mod{\`e}les de {TAL} par la G{\'e}n{\'e}ration Coop{\'e}rative",
author = "Chaffin, Antoine and
Delaunay, Julien",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-long.9",
pages = "105--122",
abstract = "L{'}omnipr{\'e}sence de l{'}apprentissage automatique a mis en lumi{\`e}re l{'}importance des algorithmes d{'}explicabilit{\'e}. Parmi ces algorithmes, les m{\'e}thodes agnostiques au type de mod{\`e}le g{\'e}n{\`e}rent des exemples artificiels en modifiant l{\'e}g{\`e}rement les donn{\'e}es originales. Elles observent ensuite les changements de d{\'e}cision du mod{\`e}le sur ces exemples artificiels. Cependant, de telles m{\'e}thodes n{\'e}cessitent d{'}avoir des exemples initiaux et fournissent des explications uniquement sur la d{\'e}cision pour ces derniers. Pour r{\'e}pondre {\`a} ces probl{\'e}matiques, nous proposons Therapy, la premi{\`e}re m{\'e}thode d{'}explicabilit{\'e} mod{\`e}le-agnostique pour les mod{\`e}les de langue qui ne n{\'e}cessite pas de donn{\'e}es en entr{\'e}e. Cette m{\'e}thode g{\'e}n{\`e}re des textes qui suivent la distribution apprise par le classifieur {\`a} expliquer gr{\^a}ce {\`a} la g{\'e}n{\'e}ration coop{\'e}rative. Ne pas d{\'e}pendre d{'}exemples initiaux permet, en plus d{'}{\^e}tre applicable lorsqu{'}aucune donn{\'e}e n{'}est disponible (e.g, pour des raisons de confidentialit{\'e}), de fournir des explications sur le fonctionnement global du mod{\`e}le au lieu de plusieurs explications locales, offrant ainsi une vue d{'}ensemble du fonctionnement du mod{\`e}le. Nos exp{\'e}riences montrent que, m{\^e}me sans donn{\'e}es en entr{\'e}e, Therapy fournit des informations instructives sur les caract{\'e}ristiques des textes utilis{\'e}es par le classifieur qui sont comp{\'e}titives avec celles fournies par les m{\'e}thodes utilisant des donn{\'e}es.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="chaffin-delaunay-2023-honey">
<titleInfo>
<title>“Honey, Tell Me What’s Wrong”, Explicabilité Globale des Modèles de TAL par la Génération Coopérative</title>
</titleInfo>
<name type="personal">
<namePart type="given">Antoine</namePart>
<namePart type="family">Chaffin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Julien</namePart>
<namePart type="family">Delaunay</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’omniprésence de l’apprentissage automatique a mis en lumière l’importance des algorithmes d’explicabilité. Parmi ces algorithmes, les méthodes agnostiques au type de modèle génèrent des exemples artificiels en modifiant légèrement les données originales. Elles observent ensuite les changements de décision du modèle sur ces exemples artificiels. Cependant, de telles méthodes nécessitent d’avoir des exemples initiaux et fournissent des explications uniquement sur la décision pour ces derniers. Pour répondre à ces problématiques, nous proposons Therapy, la première méthode d’explicabilité modèle-agnostique pour les modèles de langue qui ne nécessite pas de données en entrée. Cette méthode génère des textes qui suivent la distribution apprise par le classifieur à expliquer grâce à la génération coopérative. Ne pas dépendre d’exemples initiaux permet, en plus d’être applicable lorsqu’aucune donnée n’est disponible (e.g, pour des raisons de confidentialité), de fournir des explications sur le fonctionnement global du modèle au lieu de plusieurs explications locales, offrant ainsi une vue d’ensemble du fonctionnement du modèle. Nos expériences montrent que, même sans données en entrée, Therapy fournit des informations instructives sur les caractéristiques des textes utilisées par le classifieur qui sont compétitives avec celles fournies par les méthodes utilisant des données.</abstract>
<identifier type="citekey">chaffin-delaunay-2023-honey</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-long.9</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>105</start>
<end>122</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T “Honey, Tell Me What’s Wrong”, Explicabilité Globale des Modèles de TAL par la Génération Coopérative
%A Chaffin, Antoine
%A Delaunay, Julien
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F chaffin-delaunay-2023-honey
%X L’omniprésence de l’apprentissage automatique a mis en lumière l’importance des algorithmes d’explicabilité. Parmi ces algorithmes, les méthodes agnostiques au type de modèle génèrent des exemples artificiels en modifiant légèrement les données originales. Elles observent ensuite les changements de décision du modèle sur ces exemples artificiels. Cependant, de telles méthodes nécessitent d’avoir des exemples initiaux et fournissent des explications uniquement sur la décision pour ces derniers. Pour répondre à ces problématiques, nous proposons Therapy, la première méthode d’explicabilité modèle-agnostique pour les modèles de langue qui ne nécessite pas de données en entrée. Cette méthode génère des textes qui suivent la distribution apprise par le classifieur à expliquer grâce à la génération coopérative. Ne pas dépendre d’exemples initiaux permet, en plus d’être applicable lorsqu’aucune donnée n’est disponible (e.g, pour des raisons de confidentialité), de fournir des explications sur le fonctionnement global du modèle au lieu de plusieurs explications locales, offrant ainsi une vue d’ensemble du fonctionnement du modèle. Nos expériences montrent que, même sans données en entrée, Therapy fournit des informations instructives sur les caractéristiques des textes utilisées par le classifieur qui sont compétitives avec celles fournies par les méthodes utilisant des données.
%U https://aclanthology.org/2023.jeptalnrecital-long.9
%P 105-122
Markdown (Informal)
[“Honey, Tell Me What’s Wrong”, Explicabilité Globale des Modèles de TAL par la Génération Coopérative](https://aclanthology.org/2023.jeptalnrecital-long.9) (Chaffin & Delaunay, JEP/TALN/RECITAL 2023)
ACL