Notre approche

Le défi de la complexité en calcul scientifique

Un système complexe (du latin cum plexus, tissé ensemble) est bien plus que compliqué (du latin cum plicare, plié ensemble). Il y a là une différence de nature.

La complexité provient souvent de l’interaction de nombreux composants, selon diverses modalités, avec des rétro-actions, possiblement non-linéaires. Ces caractéristiques conduisent à une évolution du système qu’on ne peut déduire de la description de ses composantes. On parle alors de comportement émergent, qui ne peut être capté que par une modélisation adaptée, et non pas simplement en poussant les calculs plus loin.

Un exemple classique est la résistance d’une corde, qui n’est pas la résistance des brins, mais est une propriété émergente du tressage (elle est en réalité 10 fois plus solide que les brins non tressés).

Dans le domaine du calcul scientifique, les systèmes complexes sont difficilement résolus par les approches classiques. La simulation numérique est face à un problème de combinatoire et de quantité de données à gérer. Ils appellent de nouveaux paradigmes, seuls à même de capter la complexité.

Face à la combinatoire, l’échantillonnage

La nécessité de conserver toute la phénoménologie d’un système complexe pour en capturer la complexité nous met face à un mur : un calcul trop détaillé est impraticable, et un modèle trop simplifié conduit à rater l’essentiel.

Le fondement de notre approche est la résolution statistique du modèle défini par l’expert-métier. Plutôt que de tout calculer d’un modèle simplifié, échantillonner le modèle complexe.

Cette voie a été pour la première fois théorisée dans les années 40 par Kac en établissant un lien formel entre les équations différentielles et les processus stochastiques (formule de Feynman-Kac) donnant ainsi la possibilité de résoudre un ensemble important de problèmes linéaires par le balayage d’un espace de chemins stochastiques.

La mise en œuvre de ce principe dans des algorithmes de Monte-Carlo n’a à ce jour pas été utilisée à son plein potentiel au-delà des calculs de transport de particules ou de quelques problèmes académiques.

L’approche statistique a également d’autres bonnes propriétés comme :

  • Le calcul sonde, c’est à dire la capacité d’évaluer uniquement l’observable d’intérêt sans la nécessité de calculer toutes les grandeurs du modèle initial.
  • Fournir un indice de confiance sur le résultat. La méthode Monte-Carlo permet de calculer une grandeur ainsi que l’incertitude associée.
  • Faciliter le couplage de modèles. La mise-en-oeuvre d’un ensemble de modèles couplés dans un algorithme Monte-Carlo unique évite les contraintes d’ingénierie informatique liées aux couplage de codes.

Les données et leurs traitements : bien séparer les questions

Un autre défi posé par la complexité est la gestion des données, que ce soit par la quantité de données nécessaire à représenter toute la complexité du système, ou la difficulté à concevoir des algorithmes sans se laisser déborder par les questions de gestion et de représentation des données.

La gestion des données

Diverses champs applicatifs ont récemment fait progresser la gestion des données de façon incroyable. La complexité des données manipulées lors d’une recherche sur Internet ou la complexité géométrique des modèles 3D utilisés en synthèse d’image sont les résultats les plus visibles de ces avancées. C’est dans ce contexte technique favorable que nous nous inscrivons aujourd’hui.

Le traitement des données

Une caractéristique assez commune des méthodes de simulation numérique est l’intrication entre la représentation de la donnée et son traitement. Cette pratique introduit des contraintes supplémentaires, à la fois sur les algorithmes, et sur les données. Ces contraintes supplémentaires sont bien évidemment limitantes et il est souhaitable de s’en libérer.

Notre approche basée sur une reformulation statistique du problème et des algorithmes Monte-Carlo qui en découlent a pour bonne propriété de séparer naturellement la représentation des données de leurs traitements. Concrètement et comme le montre notre démonstrateur sur la thermique d’un quartier nous pouvons évaluer les déperditions thermiques de tout un quartier sur 50 ans sans avoir besoin de simplifier la géométrie des bâtiments, ni de dégrader la résolution à la minute du signal climatique. Nous offrons ainsi à l’expert-métier de la souplesse dans ces choix de modélisation en levant des contraintes liées à la méthode de résolution.