Maxime Portaz - Accès à de l'information en mobilité par l'image pour la visite de Musées. Réseaux profonds pour l'identification de gestes et d'objets

12:00
Mercredi
24
Oct
2018
Organisé par : 
Maxime Portaz
Intervenant : 
Maxime Portaz
Équipes : 
Mots clés : 

 

Jury :

  • Philippe  Mulhem, charge de recherche, CNRS delegation Alpes, directeur de thèse
  • Véronique Eglin, professeur, INSA Lyon, rapporteur
  • Linda  Tamine-Lechani, professeur, Universite Toulouse-III-Paul-Sabatier, rapporteur
  • Jean-Pierre Chevallet, maitre de conferences, Universite Grenoble Alpes, codirecteur de thèse
  • Hervé  Glotin, professeur, Universite de Toulon et du Var, examinateur
  • Denis  Pellerin, professeur, Universite Grenoble Alpes, examinateur

 

Dans le cadre du projet GUIMUTEIC, qui vise à équiper les visiteurs de musées d'un outil d'aide à la visite équipé d'une caméra, cette thèse adresse le problème d'accès à l'information en mobilité. 
On s'intéresse à comment rendre l'information à propos des œuvres accessible et automatique aux visiteurs de lieux touristiques. 
Elle s'inscrit dans le cadre du projet GUIMUTEIC, qui vise à équiper les visiteurs de musées d'un outil d'aide à l'accès à l'information en mobilité. 
Être capable de déterminer si le visiteur désire avoir accès à l'information signifie identifier le contexte autour de lui, afin de fournir une réponse adaptée, et réagir à ses actions. 
Ceci soulève les problématiques d'identification de points d'intérêts, pour déterminer le contexte, et d'identification de gestes de utilisateurs, pour répondre à ses demandes. 
Dans le cadre du notre projet, le visiteur est donc équipé d'une caméra embarquée. 
L'objectif est de fournir un solution à l'aide à la visite, en developpant des méthodes de vision pour l'identification d'objet, et de detection de gestes dans les vidéos à la première personne. 
Nous proposons dans cette thèse une étude de la faisabilité et de l'intérêt de l'aide à la visite, ainsi que de la pertinence des gestes dans le cadre de l'interaction avec un système embarqué. 
Nous proposons une nouvelle approche pour l'identification d'objets grâce à des réseaux de neurones profonds siamois pour l'apprentissage de similarité entre les images, avec apprentissage des régions d'intérêt dans l'image. 
Nous explorons également l'utilisation de réseaux à taille réduite pour le détection de gestes en mobilité. 
Nous présentons pour cela une architecture utilisant un nouveau type de bloc de convolutions, pour réduire le nombre de paramètres du réseau et permettre son utilisation sur processeur mobile. 
Pour évaluer nos propositions, nous nous appuyons sur plusieurs corpus de recherche d'image et de gestes, crée spécialement pour correspondre aux contraintes du projet.