@inproceedings{bobkova-etal-2025-structuration,
title = "Structuration Automatique de la Posologie en Fran{\c{c}}ais : Quel r{\^o}le pour les {LLM}s ?",
author = {Bobkova, Natalia and
Zanella-Calzada, Laura and
Tafoughalt, Anyes and
Teboul, Rapha{\"e}l and
Plesse, Fran{\c{c}}ois and
Gaschi, F{\'e}lix},
editor = "Bechet, Fr{\'e}d{\'e}ric and
Chifu, Adrian-Gabriel and
Pinel-sauvagnat, Karen and
Favre, Benoit and
Maes, Eliot and
Nurbakova, Diana",
booktitle = "Actes de l'atelier Traitement du langage m{\'e}dical {\`a} l'{\'e}poque des LLMs 2025 (MLP-LLM)",
month = "6",
year = "2025",
address = "Marseille, France",
publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
url = "https://aclanthology.org/2025.jeptalnrecital-mlpllm.5/",
pages = "49--67",
language = "fra",
abstract = {La structuration automatique de posologie est essentielle pour fiabiliser la m{\'e}dication et permettre une assistance {\`a} la prescription m{\'e}dicale. Les textes de prescriptions en fran{\c{c}}ais pr{\'e}sentent tr{\`e}s souvent des ambigu{\"i}t{\'e}s, des variabilit{\'e}s syntaxiques, et des expressions colloquiales, ce qui limite l{'}efficacit{\'e} des approches classiques de machine learning. Nous {\'e}tudions ici l{'}emploi de Grands Mod{\`e}les de Langages (LLM) pour structurer les textes de posologie en comparant des m{\'e}thodes fond{\'e}es sur le prompt-engineering et le fine-tuning de LLM avec un syst{\`e}me ``pr{\'e}-LLM'' fond{\'e} sur un algorithme de reconnaissance et liaison d{'}entit{\'e}s nomm{\'e}es (NERL). Nos r{\'e}sultats montrent que seuls les LLM fine-tun{\'e}s atteignent la pr{\'e}cision du mod{\`e}le de r{\'e}f{\'e}rence. L{'}analyse des erreurs r{\'e}v{\`e}le une compl{\'e}mentarit{\'e} des deux approches : notre NERL permet une structuration plus pr{\'e}cise, mais les LLMs captent plus efficacement les nuances s{\'e}mantiques. Ainsi, nous proposons le mod{\`e}le hybride suivant : faire appel {\`a} un LLM en cas de faible confiance en la sortie du NERL ({\ensuremath{<}}0.8) selon notre propre score de confiance. Cette strat{\'e}gie nous permet d{'}atteindre une pr{\'e}cision de 91{\%} tout en minimisant le temps de latence. Nos r{\'e}sultats sugg{\`e}rent que cette approche hybride am{\'e}liore la pr{\'e}cision de la structuration de posologie tout en limitant le co{\^u}t computationnel, ce qui en fait une solution scalable pour une application clinique en conditions r{\'e}elles.}
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="bobkova-etal-2025-structuration">
<titleInfo>
<title>Structuration Automatique de la Posologie en Français : Quel rôle pour les LLMs ?</title>
</titleInfo>
<name type="personal">
<namePart type="given">Natalia</namePart>
<namePart type="family">Bobkova</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Laura</namePart>
<namePart type="family">Zanella-Calzada</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Anyes</namePart>
<namePart type="family">Tafoughalt</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Raphaël</namePart>
<namePart type="family">Teboul</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">François</namePart>
<namePart type="family">Plesse</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Félix</namePart>
<namePart type="family">Gaschi</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2025-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de l’atelier Traitement du langage médical à l’époque des LLMs 2025 (MLP-LLM)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Frédéric</namePart>
<namePart type="family">Bechet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Adrian-Gabriel</namePart>
<namePart type="family">Chifu</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Karen</namePart>
<namePart type="family">Pinel-sauvagnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoit</namePart>
<namePart type="family">Favre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eliot</namePart>
<namePart type="family">Maes</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Nurbakova</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA \textbackslash\textbackslash& ARIA</publisher>
<place>
<placeTerm type="text">Marseille, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>La structuration automatique de posologie est essentielle pour fiabiliser la médication et permettre une assistance à la prescription médicale. Les textes de prescriptions en français présentent très souvent des ambiguïtés, des variabilités syntaxiques, et des expressions colloquiales, ce qui limite l’efficacité des approches classiques de machine learning. Nous étudions ici l’emploi de Grands Modèles de Langages (LLM) pour structurer les textes de posologie en comparant des méthodes fondées sur le prompt-engineering et le fine-tuning de LLM avec un système “pré-LLM” fondé sur un algorithme de reconnaissance et liaison d’entités nommées (NERL). Nos résultats montrent que seuls les LLM fine-tunés atteignent la précision du modèle de référence. L’analyse des erreurs révèle une complémentarité des deux approches : notre NERL permet une structuration plus précise, mais les LLMs captent plus efficacement les nuances sémantiques. Ainsi, nous proposons le modèle hybride suivant : faire appel à un LLM en cas de faible confiance en la sortie du NERL (\ensuremath<0.8) selon notre propre score de confiance. Cette stratégie nous permet d’atteindre une précision de 91% tout en minimisant le temps de latence. Nos résultats suggèrent que cette approche hybride améliore la précision de la structuration de posologie tout en limitant le coût computationnel, ce qui en fait une solution scalable pour une application clinique en conditions réelles.</abstract>
<identifier type="citekey">bobkova-etal-2025-structuration</identifier>
<location>
<url>https://aclanthology.org/2025.jeptalnrecital-mlpllm.5/</url>
</location>
<part>
<date>2025-6</date>
<extent unit="page">
<start>49</start>
<end>67</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Structuration Automatique de la Posologie en Français : Quel rôle pour les LLMs ?
%A Bobkova, Natalia
%A Zanella-Calzada, Laura
%A Tafoughalt, Anyes
%A Teboul, Raphaël
%A Plesse, François
%A Gaschi, Félix
%Y Bechet, Frédéric
%Y Chifu, Adrian-Gabriel
%Y Pinel-sauvagnat, Karen
%Y Favre, Benoit
%Y Maes, Eliot
%Y Nurbakova, Diana
%S Actes de l’atelier Traitement du langage médical à l’époque des LLMs 2025 (MLP-LLM)
%D 2025
%8 June
%I ATALA \textbackslash\textbackslash& ARIA
%C Marseille, France
%G fra
%F bobkova-etal-2025-structuration
%X La structuration automatique de posologie est essentielle pour fiabiliser la médication et permettre une assistance à la prescription médicale. Les textes de prescriptions en français présentent très souvent des ambiguïtés, des variabilités syntaxiques, et des expressions colloquiales, ce qui limite l’efficacité des approches classiques de machine learning. Nous étudions ici l’emploi de Grands Modèles de Langages (LLM) pour structurer les textes de posologie en comparant des méthodes fondées sur le prompt-engineering et le fine-tuning de LLM avec un système “pré-LLM” fondé sur un algorithme de reconnaissance et liaison d’entités nommées (NERL). Nos résultats montrent que seuls les LLM fine-tunés atteignent la précision du modèle de référence. L’analyse des erreurs révèle une complémentarité des deux approches : notre NERL permet une structuration plus précise, mais les LLMs captent plus efficacement les nuances sémantiques. Ainsi, nous proposons le modèle hybride suivant : faire appel à un LLM en cas de faible confiance en la sortie du NERL (\ensuremath<0.8) selon notre propre score de confiance. Cette stratégie nous permet d’atteindre une précision de 91% tout en minimisant le temps de latence. Nos résultats suggèrent que cette approche hybride améliore la précision de la structuration de posologie tout en limitant le coût computationnel, ce qui en fait une solution scalable pour une application clinique en conditions réelles.
%U https://aclanthology.org/2025.jeptalnrecital-mlpllm.5/
%P 49-67
Markdown (Informal)
[Structuration Automatique de la Posologie en Français : Quel rôle pour les LLMs ?](https://aclanthology.org/2025.jeptalnrecital-mlpllm.5/) (Bobkova et al., JEP/TALN/RECITAL 2025)
ACL