Caractérisation et augmentation automatisées de base de données simulées
Laboratoire d'accueil : Laboratoire de l'incendie et des explosions (LIE)
Date : Octobre 2023
Nom du doctorant : Guillaume SCHMIDT
Cette thèse, menée par Guillaume Schmit au LORIA en partenariat avec l’ASNR (Autorité de Sûreté Nucléaire et Radioprotection), vise à réduire le nombre de simulations nécessaires pour construire de grandes tables de probabilité conditionnelles. Ces tables constituent la base de connaissance générique sur laquelle s’appuie les systèmes experts de type réseau bayésien qui sont utilisés comme outil d’aide à l’identification de configurations critiques en expertise de sûreté.
Pourquoi cette recherche ?
Lorsqu’on étudie les risques liés à un incendie dans une installation, les experts s’appuient sur des Outils de Calcul Scientifique. Les OCS permettent de reproduire des configurations accidentelles en fixant les valeurs d’un ensemble de paramètres dans un jeu de données. Cependant dans le cadre d’une expertise, ces paramètres sont souvent déterminés avec une certaine précision et des caractéristiques propres à chaque installation doivent être intégrées. De plus des conditions peuvent être imposées sur les réponses. Le développement de systèmes experts permet d’identifier rapidement les configurations à risque intégrant ces contraintes et permettent une analyse interactive entre l’expert et l’exploitation d’une base de connaissance. La base de connaissance consiste à partir d’un nombre importants de simulations à calibrer des tables de probabilité conditionnelles.
Dans le cas des Systèmes Experts (SE) développés par le LIE, l’OCS utilisé est le logiciel SYLVIA.
L’objectif de la thèse est d’utiliser un modèle d’IA pour réduire le nombre de simulations SYLVIA tout en conservant la précision souhaitée pour les tables de probabilité conditionnelle.
Comment ça fonctionne ?
Le modèle développé est un réseau de neurones. Dans le cas d’application retenu, celui-ci est construit à partir d’une base de simulation réduite. Plus précisément, d’un point de vue formel le cas analysé se caractérise par 36 paramètres d’entrée (températures, pressions, vitesses d’air, etc.) et 32 résultats de sortie (valeurs physiques ou temps d’apparition d’événements).
Une partie des données est dite « censurée » : par exemple, si un événement ne s’est pas produit avant la fin de la simulation, on sait seulement qu’il arriverait plus tard. Ces données censurées nécessitent d’adapter le calcul de la fonction d’erreur utilisée pour déterminer les poids des neurones. Pour ce faire une méthode originale de correction de la fonction d’erreur a été développée.
Trois avancées principales ont été introduites :
- Une nouvelle fonction de calcul (LEC) qui ignore intelligemment les données censurées pendant l’apprentissage, évitant les biais.
- Un module de détection capable d’identifier automatiquement les données censurées.
- Un système d’enrichissement des données par “régression quantile”, qui aide le modèle à cibler la dispersion des résultats.
Apprentissage actif ou comment apprendre avec un minimum de données.
L’objectif principal de la thèse consiste à permettre au modèle d’IA de choisir lui-même les données les plus utiles à son apprentissage, pour limiter le recours à l’OCS.. Cette stratégie, appelée apprentissage actif, imite la curiosité humaine : le modèle sélectionne les cas qui lui apprennent le plus.
Les méthodes retenues optimisent la stratégie d’échantillonnage en exploitant la dispersion dans l’espace des paramètres et des réponses:
- iGS (Improved Greedy Sampling), Calcul des distances entre les réponses non simulées et les réponses simulées pondérées par la distance entre les distances entre leurs données d’entrée.
- MC Dropout les données à simuler sont sélectionnées à partir de la variabilité estimée dans la procédure de dropout.
Les premiers tests semblent encourageants avec moins de données, le modèle atteint des performances similaires à un entraînement complet. Si les résultats se confirment, on espère pouvoir réduire fortement le temps de calcul nécessaire à la construction de systèmes experts.
Un travail sur l’explicabilité des résultats du réseau de neurones est prévu pour cette dernière année afin que ses résultats soient vérifiables par les spécialistes métiers