15 : Les systèmes urbains de demain


S’intéresser à la ville comme à un “tout”
Du fait de ” sa complexité intrinsèque, de sa topologie, de sa géométrie et de ses fonctionnalités, la ville pose d’abord un problème de modélisation géométrique, explique Benoit Beckers. On va donc s’intéresser au système urbain comme à un tout, à savoir une ville liée à ses bâtiments et intégrée à son territoire “. La modélisation doit donc se faire sur plusieurs échelles : celles du territoire, du bâtiment, de la ville et du quartier. Or, la création d’un modèle géométrique adéquat pour le calcul demeure pour le moment un processus essentiellement manuel et très couteux. ” Un des objectifs d’Avenues-GSU est donc de disposer et de proposer, à terme, pour l’ensemble de ces échelles, d’une base de données unique et cohérente, couplée à un modèle géométrique adapté et surtout facilement manipulable pour la simulation physique ” indique Jean-Louis Batoz.
L’urbain : “un système complexe aux contraintes diverses”
En outre, la ville ne ressemble en aucun cas à un modèle statique. ” Une ville bouge, vit, évolue, s’enthousiasme Jean-Louis Batoz. L’urbain est un système complexe, aux acteurs multiples et aux contraintes diverses “. La modélisation complète de la ville va donc devoir tenir compte de la thermique (radiation, convection, conduction), de l’aéraulique et des turbulences, de l’acoustique, de la pollution (qualité de l’air) ou encore du cycle de l’eau (ruissellement, évapotranspiration..). Autant de données qui, combinées à celles du territoire, à savoir la physique de l’atmosphère et la météorologie, vont permettre une modélisation multi-physique de la ville la plus réaliste possible.
3 questions à Aurélie Prevost, doctorante CIFRE au sein d’Avenues-GSU et de la communauté urbaine du Grand Toulouse
Quels sont les enjeux soulevés par la modélisation de notre environnement urbain ?
Premièrement, la modélisation permet de pouvoir simuler des phénomènes de manière virtuelle mais réaliste, souvent dans un but prédictif. Cela permet d’analyser des risques et des options d’urbanisme et de tenter l’optimisation sans impacter directement le territoire, ce qui est évidemment attendu pour l’étude des risques majeurs par exemple. D’autre part, la modélisation et la simulation permettent de pouvoir appréhender la complexité de phénomènes ou de données et ainsi de pouvoir analyser et évaluer des résultats ex-post à un phénomène.
Est-on en mesure aujourd’hui de modéliser une ville dans sa globalité ?
Si les méthodes de modélisation tentent de dépasser les approches sectorielles, le monde de la recherche urbaine n’est pourtant pas actuellement en mesure de modéliser l’ensemble des phénomènes urbains. Les approches dites “couplées” se développent néanmoins de plus en plus, et c’est actuellement un chantier en plein effervescence.
Avant de sortir de terre, la ville de demain sera donc d’abord modélisée ?
Je ne sais pas. L’utilisation des méthodes de modélisation par les décideurs semble, quoi qu’il en soit, répondre à la nécessaire évaluation des politiques publiques, plans et programmes car elles permettent de légitimer un projet par le résultat, et ainsi d’en garantir l’acceptation dans notre société de plus en plus sensibilisée aux questions environnementales et aux risques. Elle permet aussi de répondre aux obligations imposées par les évolutions juridiques du droit de l’environnement et de l’urbanisme et enfin de servir d’outil d’aide à la décision car elles permettent aussi d’apporter de nouvelles connaissances sur les phénomènes urbains.
Inondations à Bangkok, crues éclairs dans le Var, submersions provoquées par la tempête Xynthia… Autant d’événements tragiques, dont les conséquences humaines, économiques et matérielles sont considérables, et qui pointent la vulnérabilité de nos territoires face aux catastrophes naturelles. « Les changements climatiques, couplés à l’élévation du niveau de la mer, ne font qu’accroitre le besoin d’une chaine plus efficace de prévention, de prévision et de gestion des risques » alerte Jean-Yves Le Ven, directeur du Centre d’Études Techniques Maritimes et Fluviales (CETMEF). Avec l’augmentation des risques, l’objectif est donc de mieux préparer et anticiper les crises futures. « Il y a urgence à mettre en oeuvre toute une chaine d’outils en terme de traitement d’information pour prendre en compte les impacts et les conséquences de certains phénomènes météorologiques sur les territoires » explique Gilles Morel, enseignant-chercheur au sein du laboratoire Avenues. En collaboration avec l’UTC et son laboratoire Roberval, le CETMEF a ainsi développé des modèles de simulation qui permettent de reproduire les aléas climatiques et les phénomènes physiques associés. « De nouvelles méthodes numériques permettent par exemple de prédire la stabilité de certaines digues en cas d’inondation. Elles allient un logiciel de calcul de fluide pour déterminer les contraintes exercées par les vagues et les courants sur la digue, un modèle de contact basé sur l’approche DDA (discrète discontinous analysis) pour déterminer les efforts entre les blocs, et une modélisation des blocs rocheux, commente Jean-Yves Le Ven. Cette nouvelle approche a l’avantage de présenter chaque bloc comme élément individuel, et non dans une formulation homogénéisée ». Il y aurait également urgence, pour les autorités, à mettre en place des plans d’actions préventifs et de gestion de crise, plaçant au coeur du dispositif la mise en sécurité des vies humaines et le bon fonctionnement des réseaux de communication. « En cas de catastrophe majeure, on préfère pour le moment le confinement à l’évacuation, à savoir laisser les gens chez eux. Ceci du fait d’un manque de communication auprès des populations, et surtout d’un manque de plans d’évacuations des grandes agglomérations » souligne Gilles Morel. Le CETMEF collabore donc également avec le laboratoire Avenues dans le développement du logiciel Osiris, qui utilise les résultats de modèles numériques pour produire des plans communaux de sauvegarde et fournir, en temps de crise, une aide à la planification des opérations de secours. n
3 questions à François Hissel, directeur scientifique au sein du département “Simulation Informatique Modélisation” du Centre d’Études Techniques Maritimes et Fluviales (CETMEF).
Inondations, crues, submersions… Existe-t-il aujourd’hui en France des plans d’actions préventifs et de gestion de crise face à ces évènements ?
La tempête Xynthia, qui a dévasté les côtes de la Charente-Maritime et de Vendée, a donné lieu à une commission d’enquête sénatoriale qui a pointé les lacunes du système opérationnel français. Une des lacunes concerne en particulier le manque de culture de l’évacuation. En tant que service technique émanant du ministère du développement durable, le CETMEF est appelé à fournir un appui scientifique à tous les maillons de la chaine opérationnelle, depuis la prévision de l’aléa jusqu’à la gestion de la crise, en passant par l’évacuation. C’est donc dans ce cadre que le CETMEF coordonne aujourd’hui la rédaction d’un guide méthodologique d’aide à la réalisation de plans d’évacuation. Il s’agit d’un projet européen réunissant pas moins de 31 partenaires. Le colloque “Villes, Risques majeurs et Evacuations” (VRME), 1er colloque national dédié au thème des évacuations de masse de personnes, organisé récemment à l’UTC, s’inscrivait d’ailleurs dans ce projet en visant à recenser les meilleures pratiques actuelles, françaises et étrangères dans le domaine.
Vous notez un réel manque de culture de l’évacuation en France ?
La question des déplacements pendant une crise majeure est parfois sous-estimée dans les plans de gestion de crise, alors qu’elle apparaît pourtant centrale et vitale pour la réalisation logistique des objectifs de sauvegarde. Comparé à d’autres pays, il est vrai qu’il existe en France un vrai manque de culture de l’évacuation. Dans notre pays, la plus grosse évacuation ayant eu lieu concernait une population de 10000 personnes. Ce qui paraît relativement faible au regard des évènements de type Katrina aux Etats-Unis en 2005, au cours duquel 1 500 000 personnes ont été évacuées.
Le CETMEF collabore donc aujourd’hui avec l’UTC dans ce domaine ?
Une collaboration existe de longue date avec le laboratoire Roberval de l’UTC à travers un laboratoire commun d’hydraulique numérique créé en 2002. On réfléchit également aujourd’hui à un rapprochement avec le laboratoire Avenues sur des thématiques liées à la gestion des crises, l’évaluation des vulnérabilités, la production d’énergie propre et individualisée ou, à moindre échelle, la gestion des connaissances. La pluridisciplinarité de l’équipe Avenues-GSU nous intéresse à ce titre tout particulièrement.
Les énergies renouvelables (photovoltaïque, éolien) sont de plus en plus intégrées dans la production et la distribution d’électricité en milieu urbain. « Ces énergies sont malheureusement bien souvent intermittentes et soumises aux aléas météorologiques, regrette Manuela Sechilariu, enseignant-chercheur au sein du laboratoire Avenues-GSU. Les installations existantes se limitent donc à des générateurs passifs, c’est à dire des outils qui produisent quand ils en ont la possibilité, sans se soucier si le réseau électrique central en a besoin ». Or, le réseau, au niveau du territoire, doit en permanence équilibrer en temps réel la production et la consommation afin de garder une valeur de tension et une fréquence constantes. « Cet effort d’équilibrage est complexe, alors que dans un même temps, les énergies renouvelables ne peuvent être tout le temps exploitées à leur maximum. Le Danemark doit par exemple arrêter le fonctionnement de ses éoliennes la nuit, ne sachant pas quoi faire de l’énergie produite ». Une solution envisagée réside donc aujourd’hui dans le développement de Smart Grid comme la plateforme PLER (Production Locale d’Énergie Renouvelable) imaginée à l’UTC. Ce microréseau intelligent de production et de distribution d’énergie est basé sur une source renouvelable mais superposée à une source sécuritaire offerte par le réseau électrique central. Ce smart grid va ainsi pouvoir travailler en autonomie ou en couplage au réseau, tout en proposant une solution de stockage. « PLER constitue une plateforme expérimentale chargée de valider la faisabilité technique de ce nouveau type de management d’énergie, explique Manuela Sechilariu. L’objectif est d’offrir une production et une distribution adaptée aux besoins et en cohérence au système global énergétique d’un bâtiment, d’une ville, d’un territoire ou même d’un pays ». L’optimisation des transferts d’énergie, afin d’obtenir un rendement global maximum d’un système de production locale, est également à l’étude. « Une étude nécessaire avant même de pouvoir envisager une autosuffisance énergétique en milieu urbain, qui passera d’abord par une mutualisation des ressources et la création de « réseaux de micro-réseaux urbains ».




