10 : Quel rôle pour les mathématiques appliquées
Est-il néanmoins possible pour les organismes français du nucléaire de prolonger la durée de fonctionnement théorique de ces installations ? ” Elle peut dans un premier temps être réévaluée au cours de leur exploitation si l’état des connaissances évolue et garantit un niveau de sûreté minimum ” explique Nikolaos Limnios du LMAC. Avec cette question se pose donc aujourd’hui l’évaluation de la fiabilité des structures et la prise en compte de leur vieillissement. En effet, le métal des composants d’une centrale nucléaire peut fatiguer et voir ses caractéristiques techniques s’altérer sous l’action de différents mécanismes de dégradation : usure, corrosion, irradiation,… Autant de contraintes pouvant être décrites à travers des modèles mathématiques de fiabilité, rendant compte des conditions réelles d’exploitation d’une structure. ” Une thèse préparée au LMAC concernait par exemple la modélisation et l’estimation de la vitesse de propagation des fissures dans le confinement des centrales nucléaires* ” détaille l’enseignant-chercheur. Les probabilités et les statistiques offrent ainsi des outils traduisant des défaillances de toute origine, dont la prévision apparait essentielle dans des milieux industriels comme le nucléaire ou l’aéronautique, où leurs coûts et leurs risques, notamment humains, sont décuplés par la nature même des infrastructures considérées.
Trois questions à Julien Chiquet, maître de conférences au sein du Laboratoire Statistique et Génome de l’université d’Évry.
Doctorant au sein du LMAC et du Commissariat à l’Énergie Atomique (CEA) de Saclay jusqu’en 2008, il a été cette même année lauréat de l’un des trois Prix de thèse Guy Deniélou, décernés chaque année par l’école doctorale de l’UTC.
En quoi a consisté votre travail de thèse de doctorat au sein du LMAC ?
Il s’agissait de proposer des modèles tenant compte du caractère aléatoire de la dégradation d’une structure, lorsque celle-ci fonctionne dans un environnement incertain. Ces modèles permettent d’évaluer l’évolution de la fiabilité des structures au cours du temps. La thèse, financée par le CEA, était motivée par les études de fiabilité et la durée de vie des centrales nucléaires.
À quel sujet de recherche vous intéressez-vous plus particulièrement aujourd’hui au sein du laboratoire Statistique & Génome ?
Mes travaux de recherche visent à détecter les interactions clés entre les gènes d’un organisme en développant des modèles statistiques permettant l’analyse des données du transcriptome (ensemble des ARN messagers dont la caractérisation permet d’identifier les gènes actifs et de déterminer les mécanismes de régulation d’expression des gènes, ndlr). Ces interactions sont représentables sous forme de graphes. À ce titre, je travaille sur des modèles de graphes aléatoires et à leurs inférences. Plus globalement, la motivation au sein de notre laboratoire est essentiellement biologique lors de l’élaboration de modèles mathématiques. Nous tâchons de comprendre et de simplifier les mécanismes complexes de la biologie pour construire des modèles mathématiques de ces phénomènes, en traduisant les hypothèses biologiques en hypothèses statistiques. Selon l’efficacité du modèle, nous espérons pouvoir participer à la confirmation ou l’infirmation des hypothèses biologiques originelles, voire en formuler d’autres.
Quelle place les mathématiques doivent-elles à ce titre occuper au sein des sciences pour l’ingénieur ?
De part ma formation d’ingénieur, je vois les mathématiques comme une formidable boîte à outils, un ensemble de méthodes. Je l’utilise chaque jour pour traiter des problèmes bien identifiés : inverser rapidement une matrice, détecter si un effet est significatif dans une population,… etc. Mais si l’on s’en tenait là, cette boîte n’évoluerait jamais et d’ailleurs n’existerait même pas. C’est le chercheur qui, par sa démarche, élabore de nouvelles méthodes. Une “culture mathématique” est également déterminante pour l’ingénieur, autant que pour le chercheur. Sans culture, l’ingénieur peut passer à côté d’outils performants et n’utiliser que ceux qu’il connaît déjà. Quant au chercheur, il doit se tenir sans cesse au courant des avancées de ses pairs. C’est en s’imprégnant de cette “culture mathématique” que l’on finit par avoir une idée neuve, dans le but de répondre à un problème donné. C’est d’ailleurs pour cela que les mêmes idées arrivent souvent en même temps au sein d’une communauté scientifique.
Aussi, les constructeurs font appel depuis quelque temps aux mathématiques. ” Le LMAC participe, en partenariat avec Renault*, à l’élaboration de solutions technologiques liées à la modélisation et à la simulation des moteurs et des véhicules, explique Lilianne Denis, enseignant-chercheur au LMAC. On va tout particulièrement s’intéresser aux problèmes de calibration et de combustion diesel, avec la recherche permanente de la meilleure prestation globale en termes de consommation / pollution / bruit “. Ces méthodologies mathématiques vont ainsi permettre une gestion optimale des compromis, dans le respect des futures normes internationales, tout en tenant compte de l’agrément et des attentes clients formulés auprès des marques automobiles.
Trois questions à Vincent Talon, référent modélisation au sein de la Direction du Contrôle Moteur et de la Mise au Point (DCMAP) du techno-centre Renault.
Les réductions de la consommation et des nuisances sonores sont un enjeu majeur pour l’industrie automobile. Quelle place les mathématiques occuperont-elles dans ce défi ?
Aujourd’hui et encore plus demain, les normes européennes obligent les constructeurs à développer des moteurs thermiques de plus en plus complexes. Cette complexité devient difficilement gérable en termes de contrôle et de mise au point. La meilleure façon d’y remédier est d’introduire dans nos méthodologies et processus actuels des outils d’aide à la décision. Ces outils sont pour la plupart basés sur la modélisation et l’optimisation numérique.
Pourquoi Renault a‑t-il fait appel au LMAC ?
Les chercheurs du LMAC ont cette particularité de comprendre et intégrer nos problématiques industrielles. Aussi, notre collaboration a rapidement porté sur la modélisation des émissions polluantes des moteurs diesel par des méthodologies boites noires de type Krigeage, et l’élaboration d’algorithmes d’optimisation et d’identification.
Que vous apportent ces différents outils mathématiques ?
Le Krigeage permet par exemple d’obtenir un bon niveau de prédiction pour des temps de calcul très acceptables, tout en s’affranchissant de modèles physico-chimiques trop complexes à mettre en place dans le cas d’un moteur thermique industriel. Il s’agit sommairement d’une méthode dite “d’interpolation spatiale”, amenant l’élimination dans une série statistique des “aberrations”, à savoir des valeurs relevées improbables ou incohérentes, en se basant sur la valeur des données avoisinantes. Au final, cela permet de réduire le nombre d’essais nécessaires à la calibration des lois de commande moteur. Les algorithmes d’optimisation pour Mise Au Point (MAP) permettent quant à eux de déterminer les réglages optimums de contrôle moteur afin de respecter les normes de dépollution européenne, tout en minimisant la consommation de carburant, et donc les émissions de CO2. Les algorithmes d’identification des modèles 0D de combustion diesel permettent enfin d’automatiser la phase de calibration des modèles Renault de combustion. Ces modèles sont utilisés dans l’approche “Model Based” pour la conception, la validation et la pré-mise au point de nos lois de commande.
Sur la base des connaissances actuelles des régulations métaboliques, la biologie ne peut seule prévoir certaines modifications métaboliques d’un organisme, qui aurait par exemple subit des manipulations génétiques. ” Les mathématiques peuvent aider la biologie à accéder à des descriptions automatisées et détaillées de phénomènes, processus ou systèmes complexes ” explique Stéphane Mottelet, enseignant-chercheur au LMAC.
C’est dans ce contexte que se sont associés le LMAC et l’unité Génie Enzymatique et Cellulaire (GEC) de l’UTC à travers un projet pluridisciplinaire (SYSMETAB) ayant pour but une compréhension toujours plus approfondie des régulations métaboliques d’un système biologique. Plus particulièrement, la simulation et l’identification des voies métaboliques des glucides dans certaines cellules.
“Le GEC recueille l’ensemble des données expérimentales et propose un modèle biologique, qui prend la forme d’un système complexe de réactions. Nous disposons de notre côté d’outils permettant de générer automatiquement les équations d’un modèle mathématique et de tester l’identifiabilité des paramètres recherchés, par exemple des vitesses de réaction” souligne l’enseignant-chercheur.
Par rapport à une analyse standard des flux métaboliques, cette modélisation mathématique augmente considérablement l’information alors disponible pour l’identification, au prix néanmoins de l’explosion du nombre d’équations à résoudre. “Cet inconvénient est largement comblé par le codage en langage XML, un langage à balises étendu, de l’ensemble du réseau métabolique de la cellule. En résulte alors une description numérique détaillée du phénomène”.
Neurophysiologistes, biophysiciens, radiologues, spécialistes du traitement d’images, collaboraient ainsi déjà dans la détection et la localisation de sources de pathologies. Il faudra désormais également compter demain avec les mathématiciens. Le traitement mathématique pourrait en effet permettre de synthétiser l’ensemble des informations actuelles provenant des différentes techniques utilisées.
“Notre laboratoire aborde l’obstacle de la localisation des sources d’activités cérébrales pathologiques comme un problème inverse ! explique Abdellatif El Badia, directeur du LMAC. Des données expérimentales nous permettent de remonter à leurs causes via un modèle mathématique”. Pour ce faire, les mathématiciens disposent donc de l’électro-encéphalogramme, de l’IRM qui dessine l’anatomie du cerveau, mais aussi de la NIRS (Near InfraRed Spectrocopy), technique utilisant des sources lumineuses émises dans des régions du proche infrarouge. “Lors d’une activité épileptique par exemple, la modification du flux sanguin et les variations de la concentration en hémoglobine oxygénée et désoxygénée vont être mises en évidence par la NIRS, qui va pointer les zones cérébrales où les ondes lumineuses sont les plus absorbées, indiquant ainsi la zone d’activation cérébrale pathologique” détaille Abdellatif El Badia.
Reste alors à tenter de combiner toutes ces données expérimentales à l’aide d’un module numérique, afin de créer un logiciel mathématique, qui permettrait d’aboutir à une localisation précise de la source de la pathologie. Des essais cliniques au CHU d’Amiens devraient très rapidement faire avancer les recherches.