@inproceedings{meoni-etal-2023-annotation,
title = "Annotation d{'}entit{\'e}s cliniques en utilisant les Larges Mod{\`e}les de Langue",
author = "Meoni, Simon and
Ryffel, Th{\'e}o and
De La Clergerie, Eric",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://aclanthology.org/2023.jeptalnrecital-long.15",
pages = "190--203",
abstract = "Dans le domaine clinique et dans d{'}autres domaines sp{\'e}cialis{\'e}s, les donn{\'e}es sont rares du fait de leur caract{\`e}re confidentiel. Ce manque de donn{\'e}es est un probl{\`e}me majeur lors du fine-tuning de mod{\`e}les de langue.Par ailleurs, les mod{\`e}les de langue de tr{\`e}s grande taille (LLM) ont des performances prometteuses dans le domaine m{\'e}dical. N{\'e}anmoins, ils ne peuvent pas {\^e}tre utilis{\'e}s directement dans les infrastructures des {\'e}tablissements de sant{\'e} pour des raisons de confidentialit{\'e} des donn{\'e}es. Nous explorons une approche d{'}annotation des donn{\'e}es d{'}entra{\^\i}nement avec des LLMs pour entra{\^\i}ner des mod{\`e}les de moins grandes tailles mieux adapt{\'e}s {\`a} notre probl{\'e}matique. Cette m{\'e}thode donne des r{\'e}sultats prometteurs pour des t{\^a}ches d{'}extraction d{'}information",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="meoni-etal-2023-annotation">
<titleInfo>
<title>Annotation d’entités cliniques en utilisant les Larges Modèles de Langue</title>
</titleInfo>
<name type="personal">
<namePart type="given">Simon</namePart>
<namePart type="family">Meoni</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Théo</namePart>
<namePart type="family">Ryffel</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eric</namePart>
<namePart type="family">De La Clergerie</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2023-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs</title>
</titleInfo>
<name type="personal">
<namePart type="given">Christophe</namePart>
<namePart type="family">Servan</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anne</namePart>
<namePart type="family">Vilnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Paris, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Dans le domaine clinique et dans d’autres domaines spécialisés, les données sont rares du fait de leur caractère confidentiel. Ce manque de données est un problème majeur lors du fine-tuning de modèles de langue.Par ailleurs, les modèles de langue de très grande taille (LLM) ont des performances prometteuses dans le domaine médical. Néanmoins, ils ne peuvent pas être utilisés directement dans les infrastructures des établissements de santé pour des raisons de confidentialité des données. Nous explorons une approche d’annotation des données d’entraînement avec des LLMs pour entraîner des modèles de moins grandes tailles mieux adaptés à notre problématique. Cette méthode donne des résultats prometteurs pour des tâches d’extraction d’information</abstract>
<identifier type="citekey">meoni-etal-2023-annotation</identifier>
<location>
<url>https://aclanthology.org/2023.jeptalnrecital-long.15</url>
</location>
<part>
<date>2023-6</date>
<extent unit="page">
<start>190</start>
<end>203</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Annotation d’entités cliniques en utilisant les Larges Modèles de Langue
%A Meoni, Simon
%A Ryffel, Théo
%A De La Clergerie, Eric
%Y Servan, Christophe
%Y Vilnat, Anne
%S Actes de CORIA-TALN 2023. Actes de la 30e Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux – articles longs
%D 2023
%8 June
%I ATALA
%C Paris, France
%G French
%F meoni-etal-2023-annotation
%X Dans le domaine clinique et dans d’autres domaines spécialisés, les données sont rares du fait de leur caractère confidentiel. Ce manque de données est un problème majeur lors du fine-tuning de modèles de langue.Par ailleurs, les modèles de langue de très grande taille (LLM) ont des performances prometteuses dans le domaine médical. Néanmoins, ils ne peuvent pas être utilisés directement dans les infrastructures des établissements de santé pour des raisons de confidentialité des données. Nous explorons une approche d’annotation des données d’entraînement avec des LLMs pour entraîner des modèles de moins grandes tailles mieux adaptés à notre problématique. Cette méthode donne des résultats prometteurs pour des tâches d’extraction d’information
%U https://aclanthology.org/2023.jeptalnrecital-long.15
%P 190-203
Markdown (Informal)
[Annotation d’entités cliniques en utilisant les Larges Modèles de Langue](https://aclanthology.org/2023.jeptalnrecital-long.15) (Meoni et al., JEP/TALN/RECITAL 2023)
ACL