@inproceedings{mothe-etal-2018-classification,
title = "Classification multi-label {\`a} grande dimension pour la d{\'e}tection de concepts m{\'e}dicaux (Large multi-label classification for medical concepts detection)",
author = "Mothe, Josiane and
Ny Hoavy, Nomena and
Randrianarivony, Mamitiana-Ignace",
editor = "S{\'e}billot, Pascale and
Claveau, Vincent",
booktitle = "Actes de la Conf{\'e}rence TALN. Volume 2 - D{\'e}monstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT",
month = "5",
year = "2018",
address = "Rennes, France",
publisher = "ATALA",
url = "https://aclanthology.org/2018.jeptalnrecital-recital.13",
pages = "175--184",
abstract = "Dans ce papier, nous pr{\'e}sentons une m{\'e}thode pour associer de fa{\c{c}}on automatique des concepts {\`a} des images. Nous nous focalisons plus particuli{\`e}rement sur des images m{\'e}dicales {\`a} annoter avec des concepts UMLS. Nous avons d{\'e}velopp{\'e} deux mod{\`e}les de transfert d{'}apprentissage {\`a} partir des r{\'e}seaux CNN VGG19 et ResNet50 . Nous avons utilis{\'e} des mod{\`e}les avec des techniques simples et que nous avons optimis{\'e}s pour l{'}apprentissage. Les r{\'e}sultats que nous avons obtenus en utilisant les donn{\'e}es de la t{\^a}che ImageCLEF 2017 sont encourageants et comparables {\`a} ceux des autres participants.",
language = "French",
}
<?xml version="1.0" encoding="UTF-8"?>
<modsCollection xmlns="http://www.loc.gov/mods/v3">
<mods ID="mothe-etal-2018-classification">
<titleInfo>
<title>Classification multi-label à grande dimension pour la détection de concepts médicaux (Large multi-label classification for medical concepts detection)</title>
</titleInfo>
<name type="personal">
<namePart type="given">Josiane</namePart>
<namePart type="family">Mothe</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Nomena</namePart>
<namePart type="family">Ny Hoavy</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Mamitiana-Ignace</namePart>
<namePart type="family">Randrianarivony</namePart>
<role>
<roleTerm authority="marcrelator" type="text">author</roleTerm>
</role>
</name>
<originInfo>
<dateIssued>2018-05</dateIssued>
</originInfo>
<typeOfResource>text</typeOfResource>
<language>
<languageTerm type="text">French</languageTerm>
<languageTerm type="code" authority="iso639-2b">fre</languageTerm>
</language>
<relatedItem type="host">
<titleInfo>
<title>Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT</title>
</titleInfo>
<name type="personal">
<namePart type="given">Pascale</namePart>
<namePart type="family">Sébillot</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<name type="personal">
<namePart type="given">Vincent</namePart>
<namePart type="family">Claveau</namePart>
<role>
<roleTerm authority="marcrelator" type="text">editor</roleTerm>
</role>
</name>
<originInfo>
<publisher>ATALA</publisher>
<place>
<placeTerm type="text">Rennes, France</placeTerm>
</place>
</originInfo>
<genre authority="marcgt">conference publication</genre>
</relatedItem>
<abstract>Dans ce papier, nous présentons une méthode pour associer de façon automatique des concepts à des images. Nous nous focalisons plus particulièrement sur des images médicales à annoter avec des concepts UMLS. Nous avons développé deux modèles de transfert d’apprentissage à partir des réseaux CNN VGG19 et ResNet50 . Nous avons utilisé des modèles avec des techniques simples et que nous avons optimisés pour l’apprentissage. Les résultats que nous avons obtenus en utilisant les données de la tâche ImageCLEF 2017 sont encourageants et comparables à ceux des autres participants.</abstract>
<identifier type="citekey">mothe-etal-2018-classification</identifier>
<location>
<url>https://aclanthology.org/2018.jeptalnrecital-recital.13</url>
</location>
<part>
<date>2018-5</date>
<extent unit="page">
<start>175</start>
<end>184</end>
</extent>
</part>
</mods>
</modsCollection>
%0 Conference Proceedings
%T Classification multi-label à grande dimension pour la détection de concepts médicaux (Large multi-label classification for medical concepts detection)
%A Mothe, Josiane
%A Ny Hoavy, Nomena
%A Randrianarivony, Mamitiana-Ignace
%Y Sébillot, Pascale
%Y Claveau, Vincent
%S Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT
%D 2018
%8 May
%I ATALA
%C Rennes, France
%G French
%F mothe-etal-2018-classification
%X Dans ce papier, nous présentons une méthode pour associer de façon automatique des concepts à des images. Nous nous focalisons plus particulièrement sur des images médicales à annoter avec des concepts UMLS. Nous avons développé deux modèles de transfert d’apprentissage à partir des réseaux CNN VGG19 et ResNet50 . Nous avons utilisé des modèles avec des techniques simples et que nous avons optimisés pour l’apprentissage. Les résultats que nous avons obtenus en utilisant les données de la tâche ImageCLEF 2017 sont encourageants et comparables à ceux des autres participants.
%U https://aclanthology.org/2018.jeptalnrecital-recital.13
%P 175-184
Markdown (Informal)
[Classification multi-label à grande dimension pour la détection de concepts médicaux (Large multi-label classification for medical concepts detection)](https://aclanthology.org/2018.jeptalnrecital-recital.13) (Mothe et al., JEP/TALN/RECITAL 2018)
ACL