Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées - Université Toulouse III - Paul Sabatier - Toulouse INP Accéder directement au contenu
Communication Dans Un Congrès Année : 2015

Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées

Résumé

Les systèmes de recommandation (SR) à tirages multiples font référence aux SR qui recommandent plusieurs objets aux utilisateurs. La plupart des SR s'appuient sur des modèles d'apprentissage afin de décider les objets à recommander. Parmi les modèles d'apprentissage, les algorithmes de bandit offrent l'avantage de permettre d'apprendre tout en exploitant les éléments déjà appris. Les approches actuelles utilisent autant d'instances d'un algorithme de bandit que le SR doit recommander d'objets. Nous proposons au contraire de gérer l'ensemble des recommandations par une seule instance d'un algorithme de bandit pour rendre l'apprentissage plus efficace. Nous montrons sur deux jeux de données de références (Movielens et Jester) que notre méthode, MPB (Multiple Plays Bandit), permet d'obtenir un temps d'apprentissage jusqu'à treize fois plus rapide tout en obtenant des taux de clics équivalents. Nous montrons également que le choix de l'algorithme de bandit utilisé influence l'amélioration obtenue.
Fichier principal
Vignette du fichier
louedec_18743.pdf (394.78 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-01659314 , version 1 (08-12-2017)

Identifiants

  • HAL Id : hal-01659314 , version 1
  • OATAO : 18743

Citer

Jonathan Louëdec, Max Chevalier, Aurélien Garivier, Josiane Mothe. Algorithmes de bandit pour les systèmes de recommandation : le cas de multiples recommandations simultanées. Conference francophone en Recherche d'Information et Applications (CORIA 2015), Mar 2015, Paris, France. pp. 73-88. ⟨hal-01659314⟩
127 Consultations
516 Téléchargements

Partager

Gmail Facebook X LinkedIn More