Jury :
En quelques décennies à peine, les grandes infrastructures de calcul sont devenues un élément essentiel à l'ensemble des autres sciences (physique, biologie, médecine, astronomie, écologie, ...), que ce soit pour analyser les grands volumes de données collectés (problématique communément appelée "big data") ou pour simuler des systèmes complexes (approche "in silico"). La conception et l'exploitation efficace de ces infrastructures qui suivent constamment l'évolution technologique posent des problèmes d'optimisation, de modélisation et d'évaluation. Dans cet exposé, je présenterai les deux principales facettes de mon activité de recherche et leur complémentarité.
Dans un premier temps, je présenterai comment j'ai abordé un certain nombre de problèmes d'ordonnancement en exploitant des hypothèses de régularité permettant de se ramener à des problèmes continus moins combinatoires et comment une fois ces problèmes relâchés il devient possible de prendre en compte des aspects essentiels de ces systèmes tels que l'hétérogénéité et la variabilité des capacités des ressources, une topologie d'interconnexion complexe, le caractère distribué ou en ligne, ou encore la présence d'utilisateurs ayant des besoins et des objectifs variés. Ces travaux se situent donc à la croisée de l'ordonnancement "classique", de l'optimisation distribuée et de la théorie des jeux mais se veulent résolument appliqués.Dans un second temps, je présenterai mon investissement dans SimGrid, un projet logiciel open source et communautaire permettant de concevoir des simulations de systèmes distribués à des fins d'évaluation de performance. Mes contributions principales portent sur le développement, la validation et l'invalidation des modèles de plates-formes sous-jacents et sur l'optimisation de leur mise en oeuvre. Je conclurai par une présentation rapide des perspectives ouvertes par ces travaux.