Tendances scientifiques de la RO en 2012

Il est toujours difficile d’identifier les enjeux du Futur et les tendances en matière de Recherche Scientifique. Dans le cas de la Recherche Opérationnelle, discipline issue du croisement des mathématiques et de l’Informatique aux fins d’aider à la prise de décision dans la conception de procédés et le management de systèmes organisationnels (transports, télécommunications, production, logistique…), ces enjeux et tendances ont vocation à épouser de façon naturelle les grandes mutations et évolutions qui affectent tant la sphère des STIC (Internet, Smartphones, Big Data…), que la sphère socio-économique (décentralisation, démocratisation…).

On pourra dès lors, de façon non exhaustive, mettre en exergue :

  • L’intégration des modèles et techniques de la Recherche Opérationnelle dans des contextes d’acquisition des données, de communication et de prise de décision collaboratifs ou dynamiques : il s’agit ici à la fois d’accompagner le mouvement de décentralisation (voire de délocalisation) des entreprises, des services et des organisations, et la montée en puissance des technologies de monitoring et gestion de données en temps réel, de géo-localisation, de communication mobile. Une tendance est en particulier à la projection des outils et méthodes de la R.O. sur l’Internet du Futur, les Smartphones, le design des réseaux de capteurs, le Cloud Computing, la communication embarquée.

  • La prise en compte, dans l’identification des applicatifs de la Recherche Opérationnelle, des préoccupations sociétales émergentes, liées à la préservation de l’Environnement, à la gestion de la mobilité des biens et des personnes, et à la problématique énergétique. Si les modèles induits peuvent continuer d’être des modèles reflétant un point de vue industriel, confrontés à de nouveaux coûts ou critères de qualité, ils sont aussi susceptibles de représenter celui d’acteurs collectifs ou institutionnels, ou, de façon collaborative, celui de plusieurs acteurs (entreprises, individus, institutions…) se partageant un même segment d’un bien public.

  • L’extension des approches de la programmation mathématique à des modèles mettant en jeu des variables hétérogènes (ex : problèmes de planification…). Le formalisme de la Programmation Linéaire en Nombres Entiers, universel à l’intérieur de la classe NP-Temps, a effectué d’énormes progrès, donnant naissance à des bibliothèques extrêmement performantes. Toutefois, les problèmes mettant en jeu des variables mixtes et à sémantique fortement hétérogène, demeurent très difficiles à traiter à l’aide de ces outils, le verrou se situant sans doute au niveau conceptuel.

  • La généricité et les schémas d’intégration et de décomposition pour les des algorithmes de la Recherche Opérationnelle : quand on en vient au développement d’applications décisionnelles dans un contexte d’entreprise, les temps de développement et les perspectives liées à la maintenance et à la portabilité sont des critères souvent aussi importants que le temps ou la précision. Emerge alors le besoin de savoir intégrer plusieurs schémas de résolution de modèles relatifs à des niveaux décisionnels distincts, dans le but d’articuler de façon optimale ces niveaux de décision (ex : routage et planification, tarification et dimensionnement…), d’une façon flexible, qui émule le plus possible la structure des processus de décision. Ceci pose la question de la mise en évidence de schémas de décomposition ad hoc et de formalismes génériques adaptés à des classes larges de problèmes à l’intérieur de la classe NP-Temps.

  • La prise en compte du stochastique et de l’incertain : cette problématique est d’autant plus aigüe que nombre d’applications de la Recherche Opérationnelle concernent le pilotage de systèmes dynamiques évoluant dans un contexte non complètement prévisible. Ceci pose des questions fondamentales portant sur la représentation des données incertaines, sur la notion de robustesse, sur la nature même des outputs qui doivent être produits par des algorithmes évoluant dans un tel contexte (analogie avec les jeux de stratégie) et sur l’évaluation de ces algorithmes (articulation avec la notion de simulation).

  • L’évaluation des algorithmes et des problèmes (analyse de complexité, théorie de l’approximation) au sens moyen ou probabiliste. Cette question est cruciale du fait des écarts constatés en pratique entre la complexité théorique des algorithmes (plus mauvais cas) et leur comportement réel. Ceci pose, par induction, la question de la conception de bancs d’essai qui s’affranchissent le plus possible des propriétés cachées, et qui permettent de discriminer les instances d’un problème selon leur niveau de difficulté réel.

  • La prise en compte de données de très grandes tailles (notion de Big Data), telles que celles associées par exemple aux réseaux sociaux, aux graphes dynamiques, à Internet ou à certains réseaux de mobilité. La notion de polynomialité ne suffit dès lors plus à garantir l’efficacité d’un algorithme, et il faut aborder des problématiques d’approximation pour des problèmes classiques relevant en principe de la classe P-Temps (Problèmes de chemins, de décomposition, de couverture…).

  • L’extension du champ d’application des méthodes de la R.O. au management de systèmes dérivant d’avancées technologiques récentes (pilotages de flottes de robots ou de véhicules automatisés…), ou de la capacité accrue des systèmes de traitement de données à acquérir et stocker certain types d’information complexes (ex : problèmes de Revenue Management , qui supposent une capacité à modéliser des fonctions de demandes ou de coûts et sont susceptibles d’induire la mise en œuvre de modèles de Théorie des Jeux).