Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences

Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences PDF Author: Anthony Fillion
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
L'assimilation de données consiste à calculer une estimation de l'état d'un système physique. Cette estimation doit alors combiner de façon optimale des observations entachées d'erreurs de mesure et des modèles numériques imparfaits permettant de simuler le système physique. En pratique, l'assimilation de données sert à estimer l'état initial d'un système dynamique. Cet état analysé peut ensuite être utilisé pour prévoir le comportement de ce système, notamment dans les systèmes géophysiques où les jeux de données sont conséquents.Une première approche repose sur une estimation de l'état initial basée sur le principe du maximum a posteriori. Il s'agit alors de résoudre un problème d'optimisation, souvent par des techniques utilisant le gradient des opérateurs. Cette approche, appelée 4DVar, nécessite le calcul de l'adjoint du modèle et de l'opérateur d'observation, ce qui est une tâche consommatrice en temps de développement des systèmes de prévision. Une seconde approche permettant de résoudre séquentiellement le problème d'assimilation est basée sur les techniques dites « d'ensemble ». Ici, des perturbations a priori de l'état du système permettent d'estimer des statistiques. Ces moments sont alors utilisés dans les formules de Kalman pour obtenir des approximations de l'état du système a posteriori.Ces deux approches ont été récemment combinées avec succès dans les méthodes de type EnVar aujourd'hui utilisées dans les systèmes opérationnels de prévision. Elles bénéficient donc d'une gestion efficace de la non linéarité au travers des méthodes d'optimisation variationnelle et permettent l'estimation de statistiques et de dérivées à l'aide des ensembles. L'IEnKS est un archétype de ces méthodes EnVar. Pour combiner les deux approches précédentes, il utilise une fenêtre d'assimilation qui est translatée entre chaque cycle. Différents paramétrages de la fenêtre d'assimilation conduisent à différentes stratégies d'assimilation non équivalentes lorsque la dynamique du système est non linéaire.En particulier, les longues fenêtres d'assimilation réduisent la fréquence de l'approximation Gaussienne des densités a priori. Il en résulte une amélioration des performances jusqu'à un certain point. Au delà, la complexité structurelle de la fonction de coût met l'analyse variationnelle en défaut. Une solution nommée “quasi statique variational assimilation” (QSVA) permet d'atténuer ces problèmes en ajoutant graduellement les observations à la fonction de coût du 4DVar. Le second chapitre de thèse généralise cette technique aux méthodes EnVar et s'intéresse plus précisément aux aspects théoriques et numériques du QSVA appliqués à l'IEnKS.Cependant, l'intérêt du QSVA repose sur la perfection du modèle pour simuler l'évolution de l'état. En effet, la pertinence d'une observation temporellement éloignée pour estimer l'état peut être remise en cause en présence d'erreur modèle. Le troisième chapitre est consacré à l'introduction d'erreur modèle au sein de l'IEnKS. Il y sera donc construit l'IEnKS-Q, une méthode 4D variationnelle d'ensemble résolvant séquentiellement le problème de lissage en présence d'erreur modèle. Malheureusement, en présence d'erreur modèle, une trajectoire n'est plus déterminée par son état initial. Le nombre de paramètres nécessaires à la caractérisation de ses statistiques augmente alors avec la longueur de la fenêtre d'assimilation. Lorsque ce nombre va de pair avec le nombre d'évaluations du modèle, les conséquences pour le temps de calcul sont catastrophiques. La solution proposée est alors de découpler ces quantités avec une décomposition des matrices d'anomalies. Dans ce cas, l'IEnKS-Q n'est pas plus coûteux que l'IEnKS en nombre d'évaluations du modèle.

Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences

Méthodes variationnelles d'ensemble et optimisation variationnellepour les géosciences PDF Author: Anthony Fillion
Publisher:
ISBN:
Category :
Languages : fr
Pages : 0

Get Book Here

Book Description
L'assimilation de données consiste à calculer une estimation de l'état d'un système physique. Cette estimation doit alors combiner de façon optimale des observations entachées d'erreurs de mesure et des modèles numériques imparfaits permettant de simuler le système physique. En pratique, l'assimilation de données sert à estimer l'état initial d'un système dynamique. Cet état analysé peut ensuite être utilisé pour prévoir le comportement de ce système, notamment dans les systèmes géophysiques où les jeux de données sont conséquents.Une première approche repose sur une estimation de l'état initial basée sur le principe du maximum a posteriori. Il s'agit alors de résoudre un problème d'optimisation, souvent par des techniques utilisant le gradient des opérateurs. Cette approche, appelée 4DVar, nécessite le calcul de l'adjoint du modèle et de l'opérateur d'observation, ce qui est une tâche consommatrice en temps de développement des systèmes de prévision. Une seconde approche permettant de résoudre séquentiellement le problème d'assimilation est basée sur les techniques dites « d'ensemble ». Ici, des perturbations a priori de l'état du système permettent d'estimer des statistiques. Ces moments sont alors utilisés dans les formules de Kalman pour obtenir des approximations de l'état du système a posteriori.Ces deux approches ont été récemment combinées avec succès dans les méthodes de type EnVar aujourd'hui utilisées dans les systèmes opérationnels de prévision. Elles bénéficient donc d'une gestion efficace de la non linéarité au travers des méthodes d'optimisation variationnelle et permettent l'estimation de statistiques et de dérivées à l'aide des ensembles. L'IEnKS est un archétype de ces méthodes EnVar. Pour combiner les deux approches précédentes, il utilise une fenêtre d'assimilation qui est translatée entre chaque cycle. Différents paramétrages de la fenêtre d'assimilation conduisent à différentes stratégies d'assimilation non équivalentes lorsque la dynamique du système est non linéaire.En particulier, les longues fenêtres d'assimilation réduisent la fréquence de l'approximation Gaussienne des densités a priori. Il en résulte une amélioration des performances jusqu'à un certain point. Au delà, la complexité structurelle de la fonction de coût met l'analyse variationnelle en défaut. Une solution nommée “quasi statique variational assimilation” (QSVA) permet d'atténuer ces problèmes en ajoutant graduellement les observations à la fonction de coût du 4DVar. Le second chapitre de thèse généralise cette technique aux méthodes EnVar et s'intéresse plus précisément aux aspects théoriques et numériques du QSVA appliqués à l'IEnKS.Cependant, l'intérêt du QSVA repose sur la perfection du modèle pour simuler l'évolution de l'état. En effet, la pertinence d'une observation temporellement éloignée pour estimer l'état peut être remise en cause en présence d'erreur modèle. Le troisième chapitre est consacré à l'introduction d'erreur modèle au sein de l'IEnKS. Il y sera donc construit l'IEnKS-Q, une méthode 4D variationnelle d'ensemble résolvant séquentiellement le problème de lissage en présence d'erreur modèle. Malheureusement, en présence d'erreur modèle, une trajectoire n'est plus déterminée par son état initial. Le nombre de paramètres nécessaires à la caractérisation de ses statistiques augmente alors avec la longueur de la fenêtre d'assimilation. Lorsque ce nombre va de pair avec le nombre d'évaluations du modèle, les conséquences pour le temps de calcul sont catastrophiques. La solution proposée est alors de découpler ces quantités avec une décomposition des matrices d'anomalies. Dans ce cas, l'IEnKS-Q n'est pas plus coûteux que l'IEnKS en nombre d'évaluations du modèle.

Practical Time Series Analysis

Practical Time Series Analysis PDF Author: Aileen Nielsen
Publisher: O'Reilly Media
ISBN: 1492041629
Category : Computers
Languages : en
Pages : 500

Get Book Here

Book Description
Time series data analysis is increasingly important due to the massive production of such data through the internet of things, the digitalization of healthcare, and the rise of smart cities. As continuous monitoring and data collection become more common, the need for competent time series analysis with both statistical and machine learning techniques will increase. Covering innovations in time series data analysis and use cases from the real world, this practical guide will help you solve the most common data engineering and analysis challengesin time series, using both traditional statistical and modern machine learning techniques. Author Aileen Nielsen offers an accessible, well-rounded introduction to time series in both R and Python that will have data scientists, software engineers, and researchers up and running quickly. You’ll get the guidance you need to confidently: Find and wrangle time series data Undertake exploratory time series data analysis Store temporal data Simulate time series data Generate and select features for a time series Measure error Forecast and classify time series with machine or deep learning Evaluate accuracy and performance