@inproceedings{hammami-etal-2025-optimisation,
title = "Optimisation de la Recherche d{'}Information Juridiques {\`a} travers l{'}Agr{\'e}gation des Signaux Contextuels Multi-niveaux des Mod{\`e}les de Langue Pr{\'e}entra{\^i}n{\'e}s",
author = "Hammami, Eya and
Boughanem, Mohand and
Dkaki, Taoufiq",
editor = "Bechet, Fr{\'e}d{\'e}ric and
Chifu, Adrian-Gabriel and
Pinel-sauvagnat, Karen and
Favre, Benoit and
Maes, Eliot and
Nurbakova, Diana",
booktitle = "Actes de la 20e Conf{\'e}rence en Recherche d{'}Information et Applications (CORIA)",
month = "6",
year = "2025",
address = "Marseille, France",
publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
url = "https://aclanthology.org/2025.jeptalnrecital-coria.13/",
pages = "135--150",
language = "fra",
abstract = "L{'}acc{\`e}s croissant aux documents juridiques sous format num{\'e}rique cr{\'e}e {\`a} la fois des opportunit{\'e}s et des d{\'e}fis pour les professionnels du droit et les chercheurs en intelligence artificielle. Cependant, bien que les Mod{\`e}les de Langue Pr{\'e}entra{\^i}n{\'e}s (PLMs) excellent dans diverses t{\^a}ches de TAL, leur efficacit{\'e} dans le domaine juridique demeure limit{\'e}e, en raison de la longueur et de la complexit{\'e} des textes. Pour r{\'e}pondre {\`a} cette probl{\'e}matique, nous proposons une approche exploitant les couches interm{\'e}diaires des mod{\`e}les du Transformer afin d{'}am{\'e}liorer la repr{\'e}sentation des documents juridiques. En particulier, cette m{\'e}thode permet de capturer des relations syntaxiques et s{\'e}mantiques plus riches, tout en maintenant les interactions contextuelles au sein du texte. Afin d'{\'e}valuer notre approche, nous avons men{\'e} des exp{\'e}rimentations sur des ensembles de donn{\'e}es juridiques publiques, dont les r{\'e}sultats obtenus d{\'e}montrent son efficacit{\'e} pour diverses t{\^a}ches, notamment la recherche et la classification de documents."
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="hammami-etal-2025-optimisation">
<titleInfo>
<title>Optimisation de la Recherche d’Information Juridiques à travers l’Agrégation des Signaux Contextuels Multi-niveaux des Modèles de Langue Préentraînés</title>
</titleInfo>
<name type="personal">
<namePart type="given">Eya</namePart>
<namePart type="family">Hammami</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Mohand</namePart>
<namePart type="family">Boughanem</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Taoufiq</namePart>
<namePart type="family">Dkaki</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2025-06</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">fra</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la 20e Conférence en Recherche d’Information et Applications (CORIA)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Frédéric</namePart>
<namePart type="family">Bechet</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Adrian-Gabriel</namePart>
<namePart type="family">Chifu</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Karen</namePart>
<namePart type="family">Pinel-sauvagnat</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Benoit</namePart>
<namePart type="family">Favre</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Eliot</namePart>
<namePart type="family">Maes</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Diana</namePart>
<namePart type="family">Nurbakova</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA \textbackslash\textbackslash& ARIA</publisher>
<place>
<placeTerm type="text">Marseille, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>L’accès croissant aux documents juridiques sous format numérique crée à la fois des opportunités et des défis pour les professionnels du droit et les chercheurs en intelligence artificielle. Cependant, bien que les Modèles de Langue Préentraînés (PLMs) excellent dans diverses tâches de TAL, leur efficacité dans le domaine juridique demeure limitée, en raison de la longueur et de la complexité des textes. Pour répondre à cette problématique, nous proposons une approche exploitant les couches intermédiaires des modèles du Transformer afin d’améliorer la représentation des documents juridiques. En particulier, cette méthode permet de capturer des relations syntaxiques et sémantiques plus riches, tout en maintenant les interactions contextuelles au sein du texte. Afin d’évaluer notre approche, nous avons mené des expérimentations sur des ensembles de données juridiques publiques, dont les résultats obtenus démontrent son efficacité pour diverses tâches, notamment la recherche et la classification de documents.</abstract>
<identifier type="citekey">hammami-etal-2025-optimisation</identifier>
<location>
<url>https://aclanthology.org/2025.jeptalnrecital-coria.13/</url>
</location>
<part>
<date>2025-6</date>
<extent unit="page">
<start>135</start>
<end>150</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Optimisation de la Recherche d’Information Juridiques à travers l’Agrégation des Signaux Contextuels Multi-niveaux des Modèles de Langue Préentraînés
%A Hammami, Eya
%A Boughanem, Mohand
%A Dkaki, Taoufiq
%Y Bechet, Frédéric
%Y Chifu, Adrian-Gabriel
%Y Pinel-sauvagnat, Karen
%Y Favre, Benoit
%Y Maes, Eliot
%Y Nurbakova, Diana
%S Actes de la 20e Conférence en Recherche d’Information et Applications (CORIA)
%D 2025
%8 June
%I ATALA \textbackslash\textbackslash& ARIA
%C Marseille, France
%G fra
%F hammami-etal-2025-optimisation
%X L’accès croissant aux documents juridiques sous format numérique crée à la fois des opportunités et des défis pour les professionnels du droit et les chercheurs en intelligence artificielle. Cependant, bien que les Modèles de Langue Préentraînés (PLMs) excellent dans diverses tâches de TAL, leur efficacité dans le domaine juridique demeure limitée, en raison de la longueur et de la complexité des textes. Pour répondre à cette problématique, nous proposons une approche exploitant les couches intermédiaires des modèles du Transformer afin d’améliorer la représentation des documents juridiques. En particulier, cette méthode permet de capturer des relations syntaxiques et sémantiques plus riches, tout en maintenant les interactions contextuelles au sein du texte. Afin d’évaluer notre approche, nous avons mené des expérimentations sur des ensembles de données juridiques publiques, dont les résultats obtenus démontrent son efficacité pour diverses tâches, notamment la recherche et la classification de documents.
%U https://aclanthology.org/2025.jeptalnrecital-coria.13/
%P 135-150
Markdown (Informal)
[Optimisation de la Recherche d’Information Juridiques à travers l’Agrégation des Signaux Contextuels Multi-niveaux des Modèles de Langue Préentraînés](https://aclanthology.org/2025.jeptalnrecital-coria.13/) (Hammami et al., JEP/TALN/RECITAL 2025)
ACL