Projet I :
Résultats de la Modélisation de l'impact des surcotes
1. INFLUENCE DES DIFFERENTS PARAMETRES :
1.1 Bathymétrie

Sur la zone Adour, les informations de bathymétrie fournies pour l’étude se sont avérées nombreuses et nous avons donc pu accéder à une description détaillée des fonds marins dans la zone.
Cependant, il existe un canal sur les berges de l’Adour dans la zone proche de l’embouchure pour laquelle nous n’avions que peu de données bathymétriques.

Nous avons voulu comparer la bathymétrie initiale (Bathymétrie 1) et une bathymétrie plus raffinée (Bathymétrie 2) sur cette zone où se trouve en particulier le marégraphe étudié.
Le manque de données se traduit, comme on peut le voir sur la première image, par une interpolation des données de cotes de fond vers les berges peu ressemblante aux gradients présents en réalité dans ce canal.





Dans les deux cas, les calculs donnent de bonnes correspondances au niveau des marées hautes mesurées.
Cependant, lorsque la marée est basse, les calculs diffèrent de la solution observée d’une vingtaine de centimètres.
La bathymétrie basique nous donne une marée d’amplitude bien moins importante que la marée réelle alors que la seconde géométrie augmente cette amplitude.
On peut tout de même noter que les marées calculées dans ce second cas sont plus proches des valeurs observées, et ce notamment sur les dernières oscillations.

Le calcul de l’erreur RMS donnent ici les valeurs suivantes pour une différence de hauteur d’eau maximale de 2.57m :

Cas bathymétrie1/marégraphe :             Cas bathymétrie2/marégraphe :

RMS = 0.0234m                                       RMS= 0.0181m
RMS_norm = 0.0091                            RMS_norm = 0.0071


Ces coefficients confirment bien les observations faites précédemment. Nous opteront donc pour le choix de la seconde bathymétrie qui correspond mieux à la réalité.
1.2 Vent

Les données météo étant une composante essentielle de la génération de surcote, nous avons testé l’influence des paramètres de vent et de pression sur notre modèle. Comme les groupes ne disposaient pas de données de même précision, il fallait vérifier que celles-ci étaient suffisantes pour notre étude.

Concernant le vent, nous avons voulu comparer la prise en compte de celui-ci sous forme 1D, soit uniforme dans l’espace et variant dans le temps, et 2D, soit variant en espace et en temps avec la prise en compte des différences de pression.



Le vent 1D donne des résultats quasiment identiques à la simulation sans vent. Alors que pour le vent 2D, les valeurs sont plus proches de celles mesurées. Voici un calcul d’erreur pour prendre en compte les résultats sur plusieurs cycles de marée :



La prise en compte du vent et de la pression sous forme de champ 2D variable dans le temps permet de faire un gain de 9% sur l’erreur par rapport au vent 1D. Cet écart important montre que la météo locale a un rôle déterminant. Quant au paramètre de friction du vent sur la surface libre, son influence semble négligeable. Lorsqu’on le fait varier linéairement en fonction du vent, le gain sur l’erreur n’est que de 0,1%, avec comme constante : 0.001255 pour 7 m/s de vent et 0.002425 pour 25 m/s. Nous garderons donc un coefficient de 0.001255 constant par rapport au vent.
1.3 Pression 1-Dimension

Pour les deux autres sites, les données fournies ne permettaient pas de prendre des conditions météorologiques en champ 2D. En effet, nous ne disposions que d’un ou deux points d’entrée dans notre domaine. Il a donc fallu extrapoler ces points sur une ligne à l’entrée du domaine. Cette approximation, même si elle paraît un peu juste, peut cependant se justifier par le fait que les sites de l’Adour et de Saint Jean de Luz sont des domaines assez restreints, comparé au domaine de la Gironde. Le problème étant que dans Mike 21, si le vent est entré constant dans tout le domaine, il n’est pas possible de faire jouer le facteur pression. En effet, nous ne pouvons alors pas prendre en compte la pression.
Pour le domaine de Saint Jean de Luz, nous avons donc commencé notre calage en ne jouant pas sur la condition de pression.
Ainsi, pour l’épisode du 19 au 26 novembre 2006, nous obtenons le graphique suivant, comparant les surcotes réels (surcotes mesurées au marégraphe de Soccoa à Saint Jean de Luz) aux surcotes calculées par Mike (toujours à ce même marégraphe) :



Très vite, il faut se rendre à l’évidence que ne pas tenir compte de la pression, lorsque l’on étudie le phénomène des surcotes, même sur un domaine très petit, est une aberration. En effet, il est évident que cette pression va jouer un fort rôle, on peut notamment observer ici que notre prévision est bien dessous de la surcote réelle, intégrer un modèle de pression permettrait donc de rehausser significativement notre simulation.
Nous avons donc essayé de réfléchir à une intégration d’un modèle de pression. Après avoir discuté avec plusieurs spécialistes, nous avons finalement pu obtenir une corrélation envisageable entre la pression mesurée et la surcote engendrée. Cette corrélation aurait donc la forme suivante :



Ainsi, nous considérons une pression atmosphérique normale à 1013hPa, qui engendre donc une surcote nulle. Puis, pour chaque hPa perdu, on obtient 1cm de surcote, et vice versa. Ainsi, pour une dépression de 985hPa, nous aurons une surcote de 28cm. Dans notre modèle, nous mettrons donc dans notre condition à la limite la surcote mesurée par Météo France, rajoutée de la surcote engendrée par la pression. Nous obtenons les résultats suivants :



Après une période d’initialisation, on voit bien que l’intégration de la pression permet de rehausser considérablement notre prévision, et ainsi d’être calé au plus fort des surcotes réelles. Ce modèle, s’il parait assez aléatoire, permet donc au moins d’être beaucoup plus précis, et sera donc inséré dans chacune de nos simulations.
1.4 Pression 2-Dimension

Nous avons effectué une nouvelle simulation sur notre maillage XXL pour mieux comprendre le gain de précision lors de la prise en compte du vent 2D. Pour cela, nous avons pris nos données météo 2D, puis remplacé le champ de pression par une valeur constante et uniforme : 1013HPa.
Cette simulation permet de voir l’avantage du champ 2D de vent par rapport au vent 1D, sans l’effet de la pression. Les erreurs RMS (à droite) permettent de montrer que le vent n’a pas une grande influence sur notre domaine (gain de 2% par rapport au vent nul). Par contre, la prise en compte de la pression améliore considérablement les résultats (gain de 8% de précision par rapport au vent 2D sans pression).




Un inconvénient de MIKE21 est que lorsque l’on configure un vent 1D, il n’est pas possible de forcer des variations de pression 1D sur le domaine.



Ces courbes pour deux marées hautes différentes, montrent la prise en compte du vent 2D et de la pression 2D améliore bien le calcul. Pour le cas de la pression 1D, il semble que ce choix donne des résultats plus aléatoires suivant les événements. Cela montre que la pression a bien une grande influence, même localement, et qu’une bonne simulation passe par une bonne prise en compte de la pression locale. Le choix 1D pour la pression est donc délicat car la pression varie considérablement d’un point à l’autre du domaine. La question est donc de savoir quelle pression adopter pour prendre en compte ce phénomène sur l’ensemble du domaine. Il faut cependant noter que ces simulations ont été faites sur la Gironde. Le domaine y est particulièrement étendu. Pour les deux autres sites, la différence de pression d’un point à l’autre est plus faible et donc la pression 1D semble suffisante.
1.5 Frottement

Dans un premier temps, nous avons testé des valeurs de coefficient de frottement constantes sur l’ensemble de domaine. En utilisant la formule de Chezy, nous avons effectué une succession de simulations avec différentes valeurs du coefficient de paramétrisation (entre 40 et 90). Les résultats sont délicats à interpréter car ils diffèrent selon le régime de la marée.

Répartition uniforme du frottement

Mortes eaux



Vives eaux



Pour les marées de mortes eaux, le coefficient 40 semble bien convenir. Alors que pour les vives eaux, le coefficient 40 convient seulement pour les marées hautes, et c’est le coefficient 90 qui convient pour les marées basses. Il est possible que dans ce cas, les débits de la Gironde aient été surestimés lors des vives eaux, ce qui expliquerait ce décalage à marée basse. Une mauvaise définition de la répartition spatiale du frottement et de la bathymétrie peut aussi jouer de façon plus importante à marée basse que à marée haute.



Un calcul d’erreur permet de prendre en compte l’ensemble des marées sur les 11 jours de simulation. On détermine ainsi une valeur optimale du coefficient de Chezy de 48 en interpolant les erreurs des 4 simulations effectuées. Cette valeur permet dans un premier temps de mieux prendre en compte le frottement global.

Répartition distribuée du frottement

Afin de mieux modéliser le frottement dans l’estuaire, nous avons réparti spatialement le coefficient de frottement. Pour cela, nous nous sommes inspirés d’une carte sédimentaire [ref These Weber] pour établir des zones à la sortie de l’estuaire. Pour l’intérieur, nous avons contacté le SPC Atlantique qui nous a donné des informations sur la répartition du frottement. Nous les avons récapitulées sur la carte et le tableau suivants.



Nous avons testé deux jeux de calages au niveau de ce coefficient de Strickler :



Voici l’allure de nos fichiers de conditions de frottement au fond et les résultats en erreur relative.



Ces valeurs montrent que la distribution du coefficient permet de gagner encore en précision. C’est la distribution avec le jeu de variables des frottements les plus faibles du tableau qui apparaît le plus adapté à notre modèle. Une amélioration de 10% de l’erreur est observée dans ce cas par rapport à la distribution uniforme optimisée de la partie précédente (Chezy 48).
Il faut cependant garder un regard critique sur ces résultats. Ce calage a été fait à partir des mesures d’un seul marégraphe, qui peut avoir ces défaillances, mais surtout qui permet de comparer uniquement les résultats à la sortie de l’estuaire. Ainsi, les résultats dans l’estuaire ne sont pas réellement optimisés.
1.6 Maillage

Pour tester l’influence du maillage sur les résultats du calcul de surcotes, nous créons 4 maillages différents :

  • Un maillage XXL avec 769 nœuds. Il est important de préciser que nous avons tronqué une partie de la géométrie pour simplifier le calcul. En particulier, nous avons supprimé le confluent et considéré le débit de la Garonne et de la Dordogne comme une unique source. La condition à la limite du fleuve est donc une somme de débits.


  • Un maillage L avec 3689 nœuds. Cette fois, nous avons laissé le confluant et imposé une double condition à la limite en séparant les débits.




  • Un maillage M avec 7948 nœuds pour lequel le confluent est une zone extrêmement raffinée.




  • Un maillage S avec 10922 encore plus fin. Il ne sera testé qu’une seul fois pour observer son gain de précision, compte tenu de sa lenteur au calcul considérable.




  • Nous avons choisi ici l’évènement de février 1999. Voici les résultats des 4 modélisations sur une période de 3 jours. La courbe pleine noir est la mesure du SHOM à Port Bloc, celle en pointillés est la marée prédite. Les valeurs ponctuelles sont nos résultats.



    Notons que la courbe du maillage XXL en bleu se détache des autres et semble plutôt mauvaise pour les marées hautes. Cependant, à marée basse, celle-ci semble meilleure que les autres. Pour pouvoir comparer la précision de chaque maillage, nous avons calculé l’erreur RMS et le coefficient de Nash de chacun d’entre eux.



    Il est intéressant de voir ici que les maillages les plus raffinés ne sont pas toujours les plus précis. En effet, l’erreur relative est la plus faible pour le maillage L. Par contre, en analysant le critère de Nash, les maillages S et M sont un peu meilleur pour les hauteurs extrêmes (min et max). Cette différence est peut-être due au fait que notre rugosité a été calée pour le maillage L. Ainsi, en changeant de maillage, la prise en compte du frottement est peut-être différente, ce qui pourrait impliquer un léger décalage temporel du signal de hauteur.



    Ce décalage affecte alors l’ensemble de la prédiction et augmente donc l’erreur globale. Cependant, l’amplitude aux extrêmes reste mieux modélisée pour les maillages fins.
    Compte tenu de ces résultats et des marges d’erreurs que nous acceptons (~ 5 cm), le maillage L semble largement suffisant dans notre cas. Nous garderons donc celui-ci dans nos simulations suivantes.
    1.7 Conditions initiales et aux limites

    Conditions initiales :

    Pour lancer une simulation sur un domaine donné, il faut initialiser le calcul. Pour cela, il faudrait connaître les valeurs de hauteur d’eau et de vitesse pour l’ensemble des points du maillage au premier pas de temps. Comme il est impossible d’avoir de telles informations, il est possible de prendre une valeur fixe de hauteur sur le domaine, et une vitesse nulle. Il est couramment observé que le système se stabilisant par lui-même, cette erreur initiale disparaissant au fur-et-à-mesure du calcul.



    Nous pouvons voir ici que les valeurs calculées semblent mettre un certain temps avant de correspondre avec celles mesurées : il faut laisser au moins 5 cycles de marée pour que les effets de l’initialisation à hauteur constante du niveau d’eau sur le domaine disparaissent. Ce temps d’initialisation correspond au temps de relaxation du système.



    Au début, la forme de la hauteur d’eau calculée en fonction du temps garde une forme de sinusoïde semblable à la marée de la condition limite. Au bout du sixième cycle, la marée montante prend plus de temps que celle descendante, résultat que l’on retrouve effectivement sur la hauteur d’eau mesurée. Ceci peut s’expliquer par le fait que notre estuaire étant initialisé à un débit nul, il met un certain temps pour adopter son régime pseudo-stationnaire. De plus, dans le cas présent de la Gironde, l’estuaire est de grande taille, ce qui explique que cela prend plus de temps que d’autres simulations (souvent 2 cycles de marée suffisent).
    Il faut donc avoir conscience de cette contrainte lors du traitement des résultats et pouvoir estimer le temps de relaxation, relatif à chaque site. Pour éviter cette perte d’information due à la suppression des premiers cycles du calcul, il est possible de commencer la simulation plus tôt, même sans disposer de toutes les données nécessaires (comme le vent ou la surcote) pour estimer grossièrement la hauteur d’eau et le courant à t=0.

    Conditions limites au large

    Nous avons testé l’influence du type de condition limite latérale (Nord et Sud) de notre modèle sur la propagation de la hauteur d’eau. En effet, pour la Gironde, nous disposions des valeurs de hauteur d’eau distribuées sur l’ensemble de la condition limite. Or, pour les autres sites, n’ayant aucune donnée pour les conditions limites latérale, nous avons du les configurer comme des limites glissantes.
    Nous comparons ici deux simulations similaires, avec comme différenciation la définition des conditions limites Nord et Sud. Le premier cas, nous avons choisi des frontières glissantes (vitesse normale nulle), et dans le second nous avons rentré des CL variables en temps et en espace, définies par Météo France pour 2 points au Nord et 4 points au Sud.





    Nous observons sur ces courbes que les conditions limites glissantes induisent dans notre cas un léger retard de l’ordre de quelques minutes à l’onde de marée, et que cette onde est amplifiée d’un centimètre à chaque pleine mer et basse mer.

    Lorsque l’on regarde l’animation temporelle du mouvement du fluide, on peut voir qu’un phénomène circulaire d’axe vertical s’amorce, particulièrement proche de la sortie de l’embouchure. Les vecteurs vitesses ne font pas seulement un va et vient, mais font aussi une rotation complète autour de leur axe, en fonction de la phase de la marée. Ainsi, ils ne sont jamais vraiment parallèles aux conditions limites nord et sud.

    Cependant, l’influence semble négligeable, même dans notre cas où notre estuaire à un débit particulièrement fort comparé aux deux autres sites d’étude.
    Le choix des conditions limites latérales glissantes est donc une approximation qui ne pénalisera pas la qualité des résultats.

    Conditions limites de débit

    Pour la prise en compte de l’influence du débit d’eau douce dans l’estuaire, nous avons rapidement testé l’influence du gradient de densité. Etant un phénomène à forte composante tridimensionnelle (l’eau douce à tendance à glisser sous l’eau salée), notre modèle résolvant les équations de Saint Venant 2D semble inadapté. De plus, il est très peu probable que la propagation de la surcote soit influencée par une différence de densité de ce type. Nous n’avons donc pas poursuivi cette étude et choisi par la suite une densité constante.
    2. RESULTATS CALAGE :
    2.1 Gironde

    Modélisation de la marée : résultats en hauteur d’eau
    Voici 11 jours de résultats sur la Gironde pour l’évènement de mars 2006.



    Ces résultats sont satisfaisants. La marée calculée est bien en phase. La forme des cycles est correcte. Il reste néanmoins une erreur récurrente à marée basse de l’ordre de 20 cm. Deux hypothèses pour tenter d’expliquer cet écart :
  • le frottement est mal modélisé par la formule de Chezy lorsque les hauteurs d’eau sont faibles. Il faudrait refaire une meilleure distribution du coefficient de frottement pour notre maillage.

  • le débit est mal modélisé à l’entrée du modèle. Il faudrait pour palier à cela prendre en compte l’influence de la marée sur la condition limite. Un modèle de couplage 1D/2D serait intéressant pour prendre en compte le fleuve suffisamment loin en amont. Malheureusement, nous ne disposions pas des licences nécessaires pour effectuer un tel modèle.

  • Cependant, nous nous intéressons ici particulièrement aux surcotes, qui peuvent être dangereuses surtout à marée haute. Ce modèle est donc suffisant pour cette étude.

    Erreur relative RMS : 5.5 10-4
    % Erreur max : 11.4 %

    Modélisation de la surcote
    Nous nous sommes attelés ici à montrer uniquement les résultats en valeur de surcote. Ces résultats se révèlent particulièrement intéressant. Nous affichons sur le graphe ci-dessous :
  • la condition limite de surcote en noir. Elle est calculée par Météo France en 6 points de notre condition limite Ouest. La valeur tracée est la moyenne de ces 6 valeurs.

  • la surcote calculé au Verdon par Météo France en vert. Elle est donc le résultat de leur modèle de propagation dans l’estuaire.

  • la surcote calculé au Verdon par notre modèle en rouge.

  • la surcote réelle au Verdon en bleu. Elle est calculée en soustrayant la hauteur d’eau prédite par le SHOM au Verdon à la hauteur d’eau mesurée à Port Bloc.




  • Nous pouvons donc conclure au regard de ce graphe, que notre modèle est comparable à celui de Météo France. Les courbes sont relativement proches. Au court de la première semaine, les résultats de Météo France semblent être faussés lorsqu’ils affichent des valeurs nulles anormalement, alors que notre modèle semble avoir des résultats plutôt cohérent en comparent à la surcote réelle.
    Cependant, il est important de remarquer que les résultats sont proches de la valeur de surcote appliquée à la condition limite. La qualité de nos résultats dépend donc directement des valeurs de surcote que Météo France nous fournit. Ceci montre bien que la surcote est un phénomène qui se créé sur des domaines de grande envergure au large, puis se propage vers le littoral. Ce qui est inquiétant, c’est que la surcote réelle semble être bien différente de la surcote calculé par Météo France. Il est clair que nous ne captons pas l’ensemble des phénomènes physiques dans notre modèle. Mais si les conditions limites sont imprécises, comme cela semble être le cas, il sera difficile de modéliser le phénomène sur un domaine localisé comme le notre.

    Voici quelques hypothèses pour tenter d’expliquer ces écarts de résultats :

  • les fluctuations de la surcote réelle, d’amplitude 20 cm et d’ordre de grandeur temporel 6h, pourraient être expliquées par le fait que la marée prédite au Verdon ne correspond pas vraiment à la marée de Port Bloc, dénué de tous effets de surcote météorologique. En effet, d’autres type de surcote peuvent influencer la marée à Port Bloc, comme des effets hydrodynamiques du à la géométrie de la côte, à la modification de la bathymétrie de l’estuaire…

  • L’écart observé de 10 cm en moyenne après le 12 mars est intriguant. Cette date correspond au passage du pic de crue. Il serait possible que nous ne prenions pas en compte l’ensemble des phénomènes physiques lors d’un tel événement. Par exemple il est possible que le bouchon vaseux soit déplacé lors d’une crue importante, ce qui modifierait fortement la bathymétrie et la rugosité du fond. Cependant, l’erreur a aussi été faite par Météo France. Ce qui veut dire que les conditions limites semblent ne pas avoir été bien calculées.

  • Voici les résultats pour une autre simulation, en 2003, qui montre que nos résultats restent cohérant.



    Erreur RMS normée : 2.10-3
    2.2 Adour
    Nous avons choisi de travailler sur une période à surcotes moyennes, voire faibles, pour caler notre modèle et pouvoir travailler sur des conditions atmosphériques « normales ».
    Cette étude a donc eu lieu sur la période du 3 au 8 Décembre 2003. La différence maximale de hauteurs d’eau atteint 2.57m sur cette étude.

    Tableau récapitulatif des simulations effectuées et de l'influence des paramètres :



    A chaque variation de paramètre, nous avons calculé les erreurs RMS et les pourcentages d’erreur pour chaque simulation. Cela donne pour les erreurs RootMeanSquare le graphique suivant :



    L’influence de la bathymétrie est évidente et permet d’améliorer nettement la précision du modèle.
    Le coefficient de frottement de Strickler/Manning, pris d’abord par défaut à 32 m^(1/3).s^(-1), a été testé dans le cas de frottements moins importants (M=52 m^(1/3).s^(-1)).
    Cette seconde valeur a été choisie pour être plus cohérente avec une étude menée dans le cadre d’un BEI concernant la zone Adour en 2005/2006.
    http://hmf.enseeiht.fr/travaux/CD0506/bei/bei_ere/7/html/b2/index.htm
    Cependant, cette variation n’aboutit pas à des résultats plus précis que dans le cas basique.
    Le raffinement du maillage, notamment dans la zone des fleuves a également été prise en compte. En passant d’un maillage basique à 3100 nœuds à un maillage fin de 5600 nœuds, la simulation n’a que très peu gagné en justesse pour des temps de calculs qui ont plus que doublé, passant de 12h à 28h de simulation.
    Nous avons également souhaité mettre en évidence l’influence du vent en faisant un modèle sans vent. Ces résultats sont surprenants puisqu’ils n’influencent que peu les simulations mais les améliore. Nous avons tout de même choisi de garder le paramètre de vent uniformément réparti fourni par MétéoFrance sur la zone d’étude qui nous paraissait important. Ce paramètre de vent nous sera précieux lorsque l’on voudra étudier le modèle sur des événements de tempêtes.
    Pour finir, nous avons déplacé la frontière Ouest du domaine où se trouve la condition limite de marée pour l’éloigner de l’embouchure et noter éventuellement une amélioration de la propagation des hauteurs d’eau jusqu’à l’embouchure. L’augmentation des temps de calculs due à l’élargissement de la zone de calcul n’est pas rentable face à l’amélioration de l’exactitude du modèle qui n’est pas significative.

    C’est pourquoi les paramètres qui ont été finalement choisis pour caler ce modèle sont ceux correspondants à la simulation 2 dite « Basique ». L’étude des erreurs RMS combinées aux pourcentages d’erreurs nous permet d’obtenir une simulation qui correspond assez bien au marégraphe et qui permet à la fois de garder des temps de calculs raisonnables. 

    Le cas « Basique » calé donne les résultats de hauteur d’eau suivants :



    Les calculs donnent de bonnes correspondances au niveau des marées hautes mesurées.
    Cependant, lorsque la marée est basse, les calculs diffèrent de la solution observée d’une vingtaine de centimètres. On peut néanmoins noter que cette évolution se résorbe sur les dernières périodes.

    Comparaison des surcotes réelles au marégraphe (bleu) et calculées par Mike (vert) et MétéoFrance (noir) :



    Les courbes de surcotes prédites et observées sur cette période ne correspondent pas, avec des écarts pouvant atteindre une trentaine de centimètres. Ceci peut expliquer les différences de hauteurs d’eau que l’on a notées précédemment entre les hauteurs observées et calculées par nos simulations.
    Cependant, les surcotes calculées par Mike et le modèle ALADIN de Météo France sont bien corrélées entre elles. Les surcotes de Météo France fournies au point de condition limite (« Biarritz », sur la frontière Ouest) ne sont que propagées et non modifiées sur la zone jusqu’au marégraphe qui se trouve dans l’embouchure et lissent les surcotes au niveau du marégraphe.
    3. RESULTATS VALIDATION :
    3.1 Gironde
    3.1.1 Evènements météorologiques

    Dans le cadre de la validation, nous décidons de choisir un évènement marquant du siècle passé. Les tempêtes de décembre 1999 restent mémorables par l’ampleur des dégâts causés. Il est à préciser ici que nous nous cantonnerons à étudier le phénomène français bien que l’événement de 1999 ait affecté une grande partie de l’Europe. Ces deux cyclones extratropicaux, à développement rapide, ont traversé la France d’ouest en est du 26 au 28 décembre 1999. Nommées Lothar et Martin, les tempêtes de 1999 ont ravagé la France entière avec des vents pouvant atteindre les 200km/h. Le phénomène commence le 26 décembre 1999 lorsque de violentes bourrasques de vent touchent la pointe nord de la Bretagne vers 2h du matin. Rapidement, la tempête se propage dans les terres avec des vents de plus en plus forts. Mais le phénomène ne s’arrête pas là. Le lendemain, après avoir balayé toute la moitié nord de la France, la tempête frappe à nouveau. Cette fois ci, le sud est largement affecté par la violence des vents qui ne perdent pas en intensité au passage par les terres. La carte ci-dessous récapitule l’événement :




    Bilan :

    Le bilan humain, environnemental et économique de 1999 est lourd. La violence des vents a abattu près de 500 000 ha de forêt, ce qui équivaut à 140 millions de m3 de bois. En ce qui concerne l’aménagement électrique, 200 pylônes ont été renversés, privant de courant plus de 3 millions de foyers pendant plusieurs jours. Le bilan humain français s’élève à 88 morts.

    Une tempête mal annoncée :

    Nous pouvons nous demander pourquoi les services météorologiques n’ont pas alerter davantage la population sur l’ampleur de l’événement à venir. En effet, l’annonce Météo-France n’a parlé que de violents orages au lieu de phénomènes exceptionnels. La raison est que les prévisions Météo-France ont largement sous estimé la vitesse du vent. Les modèles numériques utilisés par Météo-France n’ont pas tenu compte de tous les phénomènes atmosphériques présents durant cette période. Il s’agit notamment de courant d’altitude (les Jet-Streams) soufflant habituellement à 200km/h et qui ont atteint des vitesses de plus de 400km/h en décembre 1999. Ainsi, on peut non seulement se rendre compte de l’importance des prévisions météorologiques mais aussi de la complexité des mécanismes impliqués dans la formation des tempêtes.

    Site géographique :

    Concernant notre zone d’étude, il est à noter que l’estuaire de la Gironde a été largement affecté par le cyclone Martin du 27 et 28 décembre 1999. En effet, la tempête a provoqué des inondations aussi surprenantes qu’inattendues pouvant atteindre des hauteurs de plus de 2m dans les terres. La morphologie particulière de la zone d’étude permet une pénétration importante de la marée dans le fleuve favorisant ainsi l'inondation des terres. C’est ainsi que la forme en entonnoir de l’estuaire a permis à la surcote en provenance du large de s’amplifier à mesure de son avancée dans les terres. Les marégraphes situés tout au long de la Garonne ont relevé des hauteurs de surcote impressionnantes. La carte ci-dessous présente la position géographique des marégraphes (données du Port Autonome de Bordeaux) :



    Les données du Port Autonome de Bordeaux représentent les hauteurs d’eau mesurées aux différents marégraphes. Il est alors nécessaire de soustraire à ces données, la hauteur d’eau de référence ainsi que la marée calculée sous MIKE21, afin d’obtenir les surcotes.
    3.1.2 Graphiques des résultats

    Avant de traiter l’interaction fleuve/océan, à savoir suivre l’évolution de la surcote le long de la Garonne, nous cherchons à vérifier la validité du modèle préalablement calibré. Pour ce faire, nous lançons la simulation pour un maillage de taille M puis nous visualisons les résultats à la station de Richard située en entrée de l’estuaire. Dans un 1er temps, nous comparons la hauteur d’eau mesurée (marée + surcote) avec la hauteur d’eau modélisée. Puis nous considérons les surcotes seules (hauteurs d’eau sans la marée astronomique). Voici les résultats obtenus :



    Concernant le graphe des hauteurs d’eau, il semblerait que nous sous estimions légèrement les hauteurs d’eau par rapport aux mesures réellement observées. En moyenne, la différence entre les 2 valeurs est de 30cm.

    En ce qui concerne les surcotes seules, on observe un phénomène d’oscillations de grande amplitude pour les données observées qui n’est pas retranscrit à travers les valeurs calculées. Il est possible que la marée prédite du SHOM soit calculée sans prendre en compte la bathymétrie. Ainsi, lorsque la surcote est déduite du marégraphe, elle inclut des effets dus à la variation de hauteur du fond et à la forme de la côte. Comme pour notre calcul, nous déduisons la surcote des hauteurs calculées avec et sans surcote au même point, ces effets n’apparaîsse pas ici.
    Après interpolation des données manquantes pour les surcotes mesurées au marégraphe « Richard » nous réalisons un calcul d’erreur sur la période du 22/12/1999 au 27/12/1999. Le calcul de l’erreur RMS normée via un script MATLAB nous fournit le résultat suivant :




    3.2 Adour
    3.2.1 Evènements météorologiques (1999 et 2007)

    Pour valider le modèle, nous avons choisi d’étudier tout d’abord une première période à fortes surcotes sur la fin janvier 2007.
    Une tempête a eu lieu sur la côte à proximité de Bayonne le 18 janvier 2007.



    Sur cette période, la différence maximale de hauteurs d’eau s’élevait alors à 3.79m, soit plus d’un mètre d’amplitude supplémentaire que sur la période de calage de 2003. Nous avons ensuite choisi d’étudier ce phénomène en modélisant un évènement notable : la période du 24 au 31 décembre 1999. La différence maximale de hauteur d’eau s’élève à 3.87m, là encore une différence supérieure à celle étudiée sur la période de 2003.
    3.2.2 Graphiques des résultats


    POUR LA TEMPETE DE 2007

    Grâce aux données fournies sur 2007 nous avons pu obtenir les résultats suivants pour les hauteurs d’eau :



    Les hauteurs d’eau calculées et celles observées au marégraphe sont bien corrélées sur la période d’étude. Les différences d’amplitude n’excèdent pas 10cm avec une précision importante sur la première moitié de la période.
    Voyons maintenant ce qu'il se passe au niveau des surcotes:



    Les courbes de surcotes montrent cette fois ci une bien meilleure correspondance entre les surcotes observées et calculées. C’est pourquoi les différences entre hauteurs d’eau sont aussi nettement plus faibles dans ce cas.

    Ce cas donne une erreur RMS de 0.0106m, et 0.0028m en la normalisant par cette hauteur maximale. Le pourcentage d’erreur est de 9.36%.

    Ces valeurs sont du même ordre de grandeur que celles du cas calé sur 2003 tout en étant légèrement plus faibles. Ainsi, ce cas permet bien de montrer que le calage a été efficace ici.

    POUR LA TEMPETE DE 1999

    Les deux hauteurs d’eau sont moins bien corrélées que dans le cas précédent. Les différences d’amplitude peuvent atteindre une trentaine de centimètres :



    Et voici les résultats pour les surcotes :



    Comme précédemment des erreurs sont présentes sur les surcotes. Celles calculées sont lissées mais évoluent de façon similaire aux surcotes réelles. L’erreur peut néanmoins atteindre 1m le 28 janvier. C’est au début de cette deuxième moitié de période que l’on note les plus gros écarts de hauteurs d’eau.
    L’erreur RMS est de 0.0219m, normée elle est de 0.0057m pour un pourcentage d’erreur de 19%.
    3.2.3 Carte de vigilance surcote

    Dans le cadre de la prévision des risques et dans la suite de l’étude de la tempête de 1999 sur la région Adour, nous avons réalisé une carte des surcotes maximum obtenues lors de cet événement. Pour cela nous avons du soustraire aux hauteurs d’eau avec surcotes calculées par Mike les hauteurs d’eau calculées sans surcotes sur l’ensemble du domaine. Ensuite un des outils d’analyse nous permet d’extraire les maximums locaux et de les regrouper sur un seul graphique. C’est cette carte que nous avons obtenue que nous vous présentons :



    On constate que les surcotes augmentent en progressant dans les fleuves, donc le danger le plus grand ne se situe pas sur la côte mais bien à l’intérieur des terres au bord des fleuves (cette analyse ne tient bien entendu pas compte du phénomène de houle).
    Dans notre cas les surcotes s’élèvent d’environ 2 cm depuis l’embouchure jusqu’au bout de notre domaine.
    Toutefois on peut rester critique vis à vis de ces résultats car on avait déjà constaté que les surcotes réelles dans le cas de la tempête pouvaient atteindre 1 mètre au marégraphe, ce que notre simulation ne montrait pas. Il se pourrait donc que l’élévation de la surcote le long du fleuve soit plus importante que ne le montre cette carte, mais la tendance reste valable.
    3.2.4 Bilan des validations




    La validation sur le cas de 2007 est approuvée au vu des résultats d’erreurs. Pour la tempête de décembre 1999, les conditions exceptionnelles de vent peuvent expliquer la dégradation de la qualité des calculs, d’autant plus que l’on a vu lors du calage que l’influence du vent n’était que peu maîtrisée.
    3.3 Saint-Jean-de-Luz

    Nous allons dans cette partie décrire les différentes simulations effectuées pour valider notre modèle et ainsi vérifier nos résultats, à travers différents paramètres et critères.

    3.3.1 Choix des évènements météorologiques

    Du fait du manque de données, nous n’avons pas pu par exemple tester les évènements de 1999, ni certaines autres années, comme 2004. Nous avons donc décidé de se restreindre à l’étude de plusieurs évènements dans l’année 2006, année où nous avions le plus de données.
    Il a donc fallu choisir des évènements représentatifs d’une année, pour pouvoir valider sur un panel de situations le plus large possible.
    Pour cela, nous avons tracé la valeur des surcotes réelles (hauteur d'eau observée moins la hauteur d'eau prédite) pour l’année 2006, afin d’identifier plus aisément des évènements intéressants :



    On peut ainsi distinguer plusieurs pics de surcotes, donc tout autant d’événements intéressants à étudier.
    Nous avons donc logiquement sélectionner cinq évènements pour valider notre modèle :

  • -du 16 au 23 février 2006,

  • -du 15 au 22 mars 2006,

  • -du 01 au 08 juin 2006,

  • -du 20 au 27 octobre 2006.

  • Nous avons déjà parlé dans la partie influence des paramètres de l’évènement de novembre 2006. On note bien sa présence dans ce graphique mais nous ne présenterons pas ici sa caractérisation, celle-ci n’étant pas validé ici. Nous avons ainsi un épisode de surcotes moyen (Mars 2006), trois épisodes assez importants (Février et Octobre 2006), et un épisode de décotes (Juin 2006), ce qui parait représenter assez bien toutes les situations envisageables sur une année.

    Nous allons maintenant présenter la spécificité de chaque évènement, afin de mieux comprendre le comportement de notre zone d’étude. Puis, nous allons insérer la comparaison entre la surcote mesurée (réelle) et la surcote simulée (prédite dans nos simulations), et ainsi observer les différences que nous allons analyser en rapport avec les conditions météorologiques. Nous avons choisi l’épisode de Février comme principal événement de validation. Nous allons donc nous attacher à bien décrire les phénomènes mis en jeu et les résultats. Par la suite, nous allons tester notre modèle sur les autres événements, en essayant encore d’analyser les corrélations, mais de façon plus générale.
    3.3.2 Février 2006

    L’épisode du mois de Février est un épisode assez important qui a généré de fortes pluies et un vent violent, surtout vers le 19 février. En effet, il a été mesuré des rafales de 107 km/h à Biarritz par exemple.
    Nous pouvons par exemple tracer les conditions météorologiques de cette période, c'est-à-dire la force du vent, la direction du vent et la pression en fonction du temps.



    On voit bien sur ce graphique un pic des conditions au matin du 19 février, avec un vent de 14 m/s (50 km/h), de direction Est (vent de mer), avec une pression qui tombe à 995 hPa. On peut donc facilement prévoir un pic de surcotes à cette période, ce qu’il faudra vérifier. Pour le reste, cette perturbation reste assez brève et ne provoquera sans doute pas de surcotes trop importantes.
    Nous allons maintenant tracer les différentes hauteurs d’eau à notre marégraphe, c'est-à-dire la marée prédite par le SHOM, la marée mesurée par le SONEL, et les hauteurs d’eau calculées avec Mike. Par souci de précision et de clarté, nous allons aussi tracer les valeurs des surcotes trouvées avec Mike avec les surcotes réelles. Ceci nous permettra de voir plus clairement le lien entre les conditions météorologiques et les surcotes.





    En ce qui concerne la partie résultats, nous observons que notre modèle est bien calé, c'est-à-dire que les pics sont tous les deux au même moment. Cependant, il semblerait que notre prise en compte de la pression ne provoque quelques divergences au niveau de ces valeurs. En effet, il semblerait que l’on soit beaucoup trop optimiste en surcote quand on passe dans des pressions faibles, et du fait de notre modèle, consistant à intégrer une surcote plus importante en entrée lors de basses pressions, on a tendance en sortie à surestimer notre modèle de quelques cm (environ une quinzaine…). De même, nous observons une légère surestimation de la surcote en marée basse. Ceci peut sans doute s’expliquer par le fait que l’on a beaucoup plus de frottements au sol, et donc que le nombre de Strickler choisi pour nos simulations n’est plus tout à fait applicable. Il faudrait donc, afin d’être plus juste, le changer en conséquence pour ces périodes, mais cette étude n'étant pas prévue dans notre travail, nous n’en tenons pas trop compte dans cette validation.
    Enfin, nous avons pu calculer un critère de Nash pour cet événement, de 0.78, ce qui est tout à fait satisfaisant pour une simulation de ce genre.
    3.3.3 Mars 2006

    L’événement de Mars 2006 s’est surtout ressenti sur les cotes bretonnes, avec de légers dégâts notamment à Brest, dans la soirée du 20 mars. Cette cellule orageuse est donc considérée comme un événement mineur.





    On peut d’ores et déjà remarquer que cet évènement n’est pas très important, en effet, on a un petit pic de vent de 12 m/sec, mais pour le reste, le vent n’est pas très important, et de plus, la pression varie très faiblement autour de 1020 hPa, ce qui aurait plutôt tendance à entraîner une décote. Il faudra donc surveiller nos valeurs calculées pour ne pas obtenir de valeurs trop aberrantes.
    Dans cette simulation, on observe là encore des erreurs assez importantes lors des marées basses. Ceci s’explique encore de la même façon que pour le mois de Février. De plus, on s’aperçoit que la pression reste assez forte (supérieure à 1015 hPa) pour cette période, notre modèle de prise en compte de la pression va donc avoir tendance à baisser notre estimation, et donc nous décaler de quelques cm par rapport aux valeurs réelles, ce que l’on vérifie. Ensuite, on s’aperçoit que les surcotes ne sont pas importantes, et ce malgré un vent assez important. Ceci s’explique par la fait que l’on a plus ou moins un vent de terre (voir figure direction), et donc une pression anticyclonique.
    3.3.4 Juin 2006

    La période de début Juin 2006 correspond à une vague de froid assez anormale qui a frappé la France. Après le 5 juin, cette vague de froid fut remplacée assez violemment par un front chaud, ce qui pouvait engendrer de forts fronts dépressionnaires.





    Comme prévu, on aperçoit une diminution de la pression aux environs du 5, mais cette diminution ne devrait pas engendrer de fortes conséquences, puisqu’on est déjà à plus de 1025 hPa, ce qui devrait plutôt générer de fortes décotes, comme remarqué dans le graphique des surcotes annuelles. De plus, le vent a plutôt tendance à être de terre, ce qui pourrait accentuer les décotes.
    Cette simulation, assez particulière du fait de sa forte décote observée, nous montre ici tous les problèmes rencontrés pour caler notre modèle en cas de fortes pressions. En effet, les pressions culminant à 1030 hPa, notre modèle fait baisser la surcote calculée assez radicalement, ce qui au départ est physiquement intéressant, mais beaucoup trop amplifié dans ce cas. En effet, on observe bien une décote, mais beaucoup moins importante que celle que l’on prédit. Cependant, les valeurs du vent et sa direction ne « compensent » pas suffisamment cet effet de pression, contrairement au cas réel, où ces décotes sont moins importantes. Par contre, nous sommes plutôt bien calés dans ce cas lors des basses marées, ce qui s’explique par l’amplitude beaucoup moins importante de la marée. En effet le coefficient de marée était seulement de 38, ce qui est relativement faible.
    3.3.5 Octobre 2006

    Dans la nuit du 23 au 24 octobre, une forte dépression est passée sur la France, principalement dans le Nord (978 hPa), engendrant de forts vents et de nombreux dégâts. Cependant, cet épisode est considéré comme de saison par les météorologues.





    On peut remarquer que l’on retrouve bien en effet de forts vents sur Saint Jean de Luz, dans la nuit du 23 octobre, mais la pression n’est pas aussi basse qu’attendue, ce qui pourrait provoquer des surcotes un peu moins importantes. De plus, la direction du vent ne semble pas influer beaucoup sur les résultats, vu sa direction (Nord).
    Une fois encore, notre modèle sous-estime légèrement la valeur réelle, puisque la pression ne semble pas assez faible pour que notre intégration suive plus correctement les bonnes valeurs. Nous avons aussi toujours ce problème de suivi aux basses marées, qui s’explique cependant toujours de la même manière. Par contre, il semblerait que quand le vent gagne en intensité et la pression baisse, on recolle assez bien à la valeur mesurée, ce qui est satisfaisant dans un cas d’alerte pour une forte tempête. Enfin, il est à noter que nos divergences sont relativement peu importantes, surtout en marée haute, c'est-à-dire pas plus de 10cm.
    3.3.6 Conclusions

    Nous avons donc vu à travers ces quatre simulations, comment se comportait de manière générale notre modèle. Généralement assez précis, il n’en demeure pas moins perfectible, notamment lors des marées basses pour des forts coefficients de marée, et surtout, en ce qui concerne l’intégration de la pression.
    En effet, nous avons vu précédemment, que nous n’avons pu tester que des conditions météorologiques 1D sur notre domaine, faute de données, ce qui, dans Mike, ne nous autorisait pas à intégrer la pression. Sachant l’importance d’un tel paramètre pour le phénomène des surcotes, il a donc fallu développer une corrélation sommaire de relation entre pression et surcote au large. Cette corrélation, si elle a contribué à rendre nos simulations plus précise que sans l’intégrer, demeure néanmoins très aléatoire, et donc révisable. Par exemple, nous avons considéré une pression atmosphérique normale de 1013 hPa, mais nous pourrions nous poser la question de savoir si cette pression normale pouvait être différente selon la zone géographique. Ainsi, si l’on remontait un peu cette valeur, nous pourrions peut-être obtenir des valeurs encore plus exactes.
    Enfin, il est évident que l’approximation faite d’extrapoler un point de grille à 2km des côtes sur une ligne de 10km à 8km au large, reste très incertaine, et qu’il convient donc de se poser la question de la pertinence d’un telle approximation, même si nous n’avons malheureusement pas eu le choix dans notre étude, et que la relative petite taille de notre domaine peut laisser à penser que les conditions météorologiques ne sont pas très changeantes, contrairement à d’autres domaines comme la Gironde.