@inproceedings{favre-2023-lis,
title = "{LIS}@{DEFT}{'}23 : les {LLM}s peuvent-ils r{\'e}pondre {\`a} des {QCM} ? (a) oui; (b) non; (c) je ne sais pas.",
author = "Favre, Benoit",
editor = "Bazoge, Adrien and
Daille, B{\'e}atrice and
Dufour, Richard and
Labrak, Yanis and
Morin, Emmanuel and
Rouvier, Mickael",
booktitle = "Actes de CORIA-TALN 2023. Actes du D{\'e}fi Fouille de Textes@TALN2023",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-deft.5",
pages = "46--56",
abstract = "Cet article pr{\'e}sente un ensemble d{'}exp{\'e}riences sur la t{\^a}che de r{\'e}ponse {\`a} des questions {\`a} choix multiple de DEFT 2023. Des grands mod{\`e}les de langage sont amorc{\'e}s avec les questions afin de collecter les r{\'e}ponses g{\'e}n{\'e}r{\'e}es. Les r{\'e}sultats montrent que les mod{\`e}les ouverts sans affinage obtiennent des performances similaires {\`a} celles d{'}un syst{\`e}me supervis{\'e} fond{\'e} sur BERT, et que l{'}affinage sur les donn{\'e}es de la t{\^a}che apporte des am{\'e}liorations.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="favre-2023-lis">
<titleInfo>
<title>LIS@DEFT’23 : les LLMs peuvent-ils répondre à des QCM ? (a) oui; (b) non; (c) je ne sais pas.</title>
</titleInfo>
<name type="personal">
<namePart type="given">Benoit</namePart>
<namePart type="family">Favre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes du Défi Fouille de Textes@TALN2023</title>
</titleInfo>
<name type="personal">
<namePart type="given">Adrien</namePart>
<namePart type="family">Bazoge</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Béatrice</namePart>
<namePart type="family">Daille</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Richard</namePart>
<namePart type="family">Dufour</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Yanis</namePart>
<namePart type="family">Labrak</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Emmanuel</namePart>
<namePart type="family">Morin</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Mickael</namePart>
<namePart type="family">Rouvier</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Cet article présente un ensemble d’expériences sur la tâche de réponse à des questions à choix multiple de DEFT 2023. Des grands modèles de langage sont amorcés avec les questions afin de collecter les réponses générées. Les résultats montrent que les modèles ouverts sans affinage obtiennent des performances similaires à celles d’un système supervisé fondé sur BERT, et que l’affinage sur les données de la tâche apporte des améliorations.</abstract>
<identifier type="citekey">favre-2023-lis</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-deft.5</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>46</start>
<end>56</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T LIS@DEFT’23 : les LLMs peuvent-ils répondre à des QCM ? (a) oui; (b) non; (c) je ne sais pas.
%A Favre, Benoit
%Y Bazoge, Adrien
%Y Daille, Béatrice
%Y Dufour, Richard
%Y Labrak, Yanis
%Y Morin, Emmanuel
%Y Rouvier, Mickael
%S Actes de CORIA-TALN 2023. Actes du Défi Fouille de Textes@TALN2023
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F favre-2023-lis
%X Cet article présente un ensemble d’expériences sur la tâche de réponse à des questions à choix multiple de DEFT 2023. Des grands modèles de langage sont amorcés avec les questions afin de collecter les réponses générées. Les résultats montrent que les modèles ouverts sans affinage obtiennent des performances similaires à celles d’un système supervisé fondé sur BERT, et que l’affinage sur les données de la tâche apporte des améliorations.
%U https://aclanthology.org/2023.jeptalnrecital-deft.5
%P 46-56
Markdown (Informal)
[LIS@DEFT’23 : les LLMs peuvent-ils répondre à des QCM ? (a) oui; (b) non; (c) je ne sais pas.](https://aclanthology.org/2023.jeptalnrecital-deft.5) (Favre, JEP/TALN/RECITAL 2023)
ACL