Sihem Amer-Yahia


2025

pdf bib
R-Fairness: Assessing Fairness of Ranking in Subjective Data
Lorenzo Balzotti | Donatella Firmani | Jerin George Mathew | Riccardo Torlone | Sihem Amer-Yahia
Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)

Subjective data, reflecting individual opinions, permeates platforms like Yelp and Amazon, influencing everyday decisions. Upon a user query, collaborative rating platforms return a collection of items ranked in an order that is often not transparent to the users. Then, each item is presented with a collection of reviews in an order that typically is, again, rather opaque. Despite the prevalence of such platforms, little attention has been given to fairness in their context, where groups writing best-ranked reviews for best-ranked items have more influence on users’ behavior. We design and evaluate a fairness assessment pipeline that starts with a data collection phase to gather reviews from real-world platforms, by submitting artificial user queries and iterating through rated items. Following that, a group assignment phase computes and infers relevant groups for each review, based on review content and user data. Finally, the third step assesses and evaluates the fairness of rankings for different user groups. The key contributions are comparing group exposure for different queries and platforms and comparing how popular fairness definitions behave in different settings. Experiments on real datasets reveal insights into the impact of item ranking on fairness computation and the varying robustness of these measures.

pdf bib
Recommandation de tests multi-objectifs pour l’apprentissage adaptatif
Nassim Bouarour | Idir Benouaret | Sihem Amer-Yahia
Actes de l'atelier Intelligence Artificielle générative et ÉDUcation : Enjeux, Défis et Perspectives de Recherche 2025 (IA-ÉDU)

L’amélioration des compétences (upskilling) est un segment en forte croissance en éducation. Pourtant, peu de travaux algorithmiques se concentrent sur l’élaboration de stratégies dédiées pour atteindre une maîtrise avancée des compétences. Dans cet article, nous formalisons AdUp, un problème d’amélioration itérative des compétences combinant l’apprentissage par maîtrise et la théorie de la Zone de Développement Proximal. Nous étendons nos travaux précédents et concevons deux solutions pour AdUp : MOO et MAB.MOO est une approche d’optimisation multi-objectifs qui utilise une méthode de Hill Climbing pour adapter la difficulté des tests recommandés selon 3 objectifs : la performance prédite de l’apprenant, son aptitude, et son gap. MAB est une approche basée sur les bandits manchots (Multi-Armed Bandits) permettant d’apprendre la meilleure combinaison d’objectifs à optimiser à chaque itération. Nous montrons comment ces solutions peuvent être couplées avec deux modèles courants de simulation d’apprenants : BKT et IRT. Nos expérimentations démontrent la nécessité de prendre en compte les 3 objectifs et d’adapter dynamiquement les objectifs d’optimisation aux capacités de progression de l’apprenant, car MAB permet un taux de maîtrise plus élevé.