@inproceedings{gallienne-poibeau-2023-quelques,
title = "Quelques observations sur la notion de biais dans les mod{\`e}les de langue",
author = "Gallienne, Romane and
Poibeau, Thierry",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 3 : prises de position en TAL",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-statement.1",
pages = "1--13",
abstract = "Cet article revient sur la notion de biais dans les mod{\`e}les de langue. On montre {\`a} partir d{'}exemples tir{\'e}s de mod{\`e}les g{\'e}n{\'e}ratifs pour le fran{\c{c}}ais (de type GPT) qu{'}il est facile d{'}orienter, {\`a} partir de prompts pr{\'e}cis, les textes g{\'e}n{\'e}r{\'e}s vers des r{\'e}sultats potentiellement probl{\'e}matiques (avec des st{\'e}r{\'e}otypes, des biais, etc.). Mais les actions {\`a} accomplir {\`a} partir de l{\`a} ne sont pas neutres : le fait de d{\'e}biaiser les mod{\`e}les a un aspect positif mais pose aussi de nombreuses questions (comment d{\'e}cider ce qu{'}il faut corriger ? qui peut ou doit le d{\'e}cider ? par rapport {\`a} quelle norme?). Finalement, on montre que les questions pos{\'e}es ne sont pas seulement technologiques, mais avant tout sociales, et li{\'e}es au contexte d{'}utilisation des applications vis{\'e}es.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="gallienne-poibeau-2023-quelques">
<titleInfo>
<title>Quelques observations sur la notion de biais dans les modèles de langue</title>
</titleInfo>
<name type="personal">
<namePart type="given">Romane</namePart>
<namePart type="family">Gallienne</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Thierry</namePart>
<namePart type="family">Poibeau</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 3 : prises de position en TAL</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Cet article revient sur la notion de biais dans les modèles de langue. On montre à partir d’exemples tirés de modèles génératifs pour le français (de type GPT) qu’il est facile d’orienter, à partir de prompts précis, les textes générés vers des résultats potentiellement problématiques (avec des stéréotypes, des biais, etc.). Mais les actions à accomplir à partir de là ne sont pas neutres : le fait de débiaiser les modèles a un aspect positif mais pose aussi de nombreuses questions (comment décider ce qu’il faut corriger ? qui peut ou doit le décider ? par rapport à quelle norme?). Finalement, on montre que les questions posées ne sont pas seulement technologiques, mais avant tout sociales, et liées au contexte d’utilisation des applications visées.</abstract>
<identifier type="citekey">gallienne-poibeau-2023-quelques</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-statement.1</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>1</start>
<end>13</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Quelques observations sur la notion de biais dans les modèles de langue
%A Gallienne, Romane
%A Poibeau, Thierry
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 3 : prises de position en TAL
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F gallienne-poibeau-2023-quelques
%X Cet article revient sur la notion de biais dans les modèles de langue. On montre à partir d’exemples tirés de modèles génératifs pour le français (de type GPT) qu’il est facile d’orienter, à partir de prompts précis, les textes générés vers des résultats potentiellement problématiques (avec des stéréotypes, des biais, etc.). Mais les actions à accomplir à partir de là ne sont pas neutres : le fait de débiaiser les modèles a un aspect positif mais pose aussi de nombreuses questions (comment décider ce qu’il faut corriger ? qui peut ou doit le décider ? par rapport à quelle norme?). Finalement, on montre que les questions posées ne sont pas seulement technologiques, mais avant tout sociales, et liées au contexte d’utilisation des applications visées.
%U https://aclanthology.org/2023.jeptalnrecital-statement.1
%P 1-13
Markdown (Informal)
[Quelques observations sur la notion de biais dans les modèles de langue](https://aclanthology.org/2023.jeptalnrecital-statement.1) (Gallienne & Poibeau, JEP/TALN/RECITAL 2023)
ACL