• 15 heures
  • Difficile

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 18/09/2024

Entraînez des modèles SARIMA

La synthèse

La démarche adoptée est la suivante :

  1. stationnarisation (éventuellement),

  2. identification a priori de modèles potentiels,

  3. estimation des modèles potentiels,

  4. vérification des modèles potentiels,

  5. choix définitif d'un modèle,

  6. prévision à l'aide du modèle choisi,

  7. analyse a posteriori de la prévision.

Stationnarisation

La plupart des séries temporelles présentent une tendance et/ou une saisonnalité, et ne sont donc pas modélisables par un processus stationnaire.

Afin de se ramener à un processus ARMA, il faut stationnariser la série (en toute rigueur, on devrait parler de stationnariser un processus et non une série temporelle) et différentes méthodes sont envisageables :

Décomposition saisonnière

Cette méthode permet d'éliminer tendance et saisonnalité, sources évidentes de non-stationnarité. Il se peut néanmoins que la série résultant de la décomposition ne soit toujours pas stationnaire.

Différenciation

C'est la méthode employée par les modèles ARIMA et SARIMA. On ne modélise pas la série brute mais la série différenciée, en "tendance" à l'aide de $\(\nabla^{d}\)$ , ou la série différenciée en "saisonnalité" à l'aide de $\(\nabla_{s}^{D}\)$ . De manière générale, $\(\nabla^{d}\)$  permet de stationnariser des séries possédant une tendance polynomiale de degré $\(d\)$ , et $\(\nabla_{s}^{D}\)$  des séries possédant une composante saisonnière de période $\(s\)$ .
Notons que si les processus stationnaires peuvent être approchés par des modèles ARMA, il n'est pas certain que la différenciation permette de stationnariser tous les processus.

Méthode de Box-Cox

Elle permet une stationnarisation en "variance" (ou encore de stationnariser des séries présentant une tendance exponentielle). On utilise la transformation $\(\dfrac{X_{t}^{\lambda}-1}{\lambda}\)$  avec $\(\lambda\in\mathbb{R}\)$  (il existe des méthodes alternatives si $\(X_{t}\)$  n'est pas une série positive).

Remarquons que :

$\[\frac{X_{t}^{\lambda}-1}{\lambda}\xrightarrow{\lambda\rightarrow 0}\ln\left( X_{t}\right)\ .\]$

Méthode empirique

Dans le cas des modèles SARIMA, on utilise très souvent une méthode empirique basée sur l'autocorrélogramme simple.

On effectue une différenciation en "tendance" si :

  • Les autocorrélations $\(\widehat{\rho}(h)\)$  sont proches de 1 pour un grand nombre de retards. Attention, il s'agit ici d'un abus de langage car si la sortie nommée "autocorrélations simples" nous permet de douter de la stationnarité du processus sous-jacent, nous ne devrions pas parler alors d'autocorrélations simples.

  • Les premières autocorrélations $\(\widehat{\rho}(h)\)$  sont proches les unes des autres (même si elles ne sont pas forcément proches de 1).

On parle souvent de décroissance lente des autocorrélations simples.

On effectue une différenciation en "saisonnalité" si des comportements similaires sont observés de manière périodique. Par exemple, si $\(\widehat{\rho}\left( 12\right)\)$  , $\(\widehat{\rho}\left( 24\right)\)$  , $\(\ldots\)$  sont proches de 1, on utilise une différenciation en "saisonnalité" avec $\(s=12\)$ .

On peut compléter cette méthode empirique par des tests de racines unité qui permettent de détecter des problèmes de stationnarité pour des séries qui ne présentent pas forcément de tendance et/ou de saisonnalité (non-stationnarité dite "stochastique".

  • Notons que :
    Quelle(s) que soi(en)t la(les) méthode(s) retenue(s), on procède de manière itérative : on effectue une première différenciation, si celle-ci d'avère insuffisante, on en effectue une seconde, etc.

  • En pratique on considère rarement $\(d>2\)$  et $\(D>2\)$ .

Identification a priori de modèles potentiels

Une fois la stationnarisation effectuée, on peut se consacrer aux choix potentiels des polynômes AR et MA.

Il existe différentes méthodes pour identifier un modèle $\(\operatorname{ARMA}(p,q)\)$  :

Méthode de Box et Jenkins

Il s'agit d'une méthode heuristique pour majorer $\(p\)$  et $\(q\)$ .

Pour un processus $\(\operatorname{AR}(p)\)$ , on peut montrer que :

$\[\forall h>p:\sqrt{n}\, \widehat{r}(h)\xrightarrow{\mathcal{L}}\mathcal{N}\left( 0,1\right)\ .\]$

On peut définir un intervalle de confiance à 95% et on recherche à partir de quelle valeur, 95% des $\(\widehat{r}(h)\)$  sont dans l'intervalle $\(\left[-\dfrac{1.96}{\sqrt{n}\, },\dfrac{1.96}{\sqrt{n}\, }\right]\)$ .

Pour un processus $\(\operatorname{MA}(q)\)$ , on peut montrer que :

$\[\forall h>q:\sqrt{n}\, \widehat{\rho}(h)\xrightarrow{\mathcal{L}}\mathcal{N}\left( 0,1+2\sum_{k=1}^{q}\rho^{2}\left( k\right)\right)\ .\]$

On peut définir un intervalle de confiance à 95% et on recherche à partir de quelle valeur, 95% des $\(\widehat{\rho}(h)\)$  sont dans l'intervalle :

$\[\left[- \frac{1.96}{\sqrt{n}\, }\left( 1+2\sum_{k=1}^{q}\widehat{\rho}^{2}\left( k\right)\right) ^{\frac{1}{2}}, \frac{1.96}{\sqrt{n}\, }\left( 1+2\sum_{k=1}^{q}\widehat{\rho}^{2}\left( k\right)\right) ^{\frac{1}{2}}\right]\ .\]$

Critère d'information

Les algorithmes de recherche automatique recherchent les ordres du modèles qui minimisent un critère d'information, avec plus ou moins de succès $\(\ldots\)$ 

Heuristique

En pratique (surtout pour les modèles SARIMA), on essaye d'identifier les autocorrélations simples et partielles "significatives" pour caler ensuite des polynômes AR et MA qui reflètent ces liens temporels.

Afin d'obtenir des modèles potentiels, l'idéal est de regarder l'autocorrélogramme partiel afin d'émettre une hypothèse sur la partie autorégressive (simple et saisonnière), la tester puis regarder l'autocorrélogramme simple (et partiel) du résidu afin d'identifier complètement un modèle. Cette démarche itérative permet en général d'obtenir plusieurs modèles potentiels.

Estimation des modèles potentiels

On estime les modèles potentiels à l'aide des méthodes classiques : maximum de vraisemblance (basée sur l'hypothèse gaussienne du résidu) ou moindres carrés. Il n'existe pas de solution explicite et il nous faut utiliser des algorithmes d'optimisation avec une estimation préliminaire (issue des équations dites de Yule-Walker ou de l'algorithme des innovations, non abordé dans ce cours).

Vérification des modèles potentiels

Afin de vérifier la validité des modèles estimés, on doit vérifier au minimum la significativité des paramètres et la blancheur du résidu.

La significativité des paramètres

Par exemple, pour le coefficient AR d'ordre $\(p\)$ , on effectue le test suivant :

$\[\begin{cases} H_{0}:\text{le processus est un }\operatorname{ARMA}\left( p-1,q\right)&\left(\varphi_p=0\right)\\ H_{1}:\text{le processus est un }\operatorname{ARMA}\left( p,q\right)&\left(\varphi_p\ne 0\right) \end{cases} \ .\]$

On utilise pour cela la statistique de test suivante :

$\[T=\frac{\left\vert\widehat{\varphi}_p\right\vert}{\sqrt{\widehat{\operatorname{Var}}\left(\widehat{\varphi}_p\right)}}\ .\]$

Le test de Student permet de rejeter $\(H_0\)$  au niveau 5\% si $\(\left\vert t\right\vert\)$  est strictement supérieur à 1.96.

Il existe des résultats similaire pour les coefficients MA.

La blancheur et la normalité du résidu

On vérifie que le résidu est bien un bruit blanc, à l'aide du test de Ljung–Box par exemple, et qu'il est distribué suivant une loi normale.

Si le test de normalité n'est pas vérifié (à l'aide du test de Shapiro-Wilk par exemple), il est utile d'étudier le caractère ARCH ou GARCH du résidu $\(\ldots\)$

Choix définitif d'un modèle

Ce choix s'opère entre les modèles potentiels retenus via :

Des critères d'information basés sur l'information de Kullback, par exemple, les critères d'Akaike (AIC) et de Schwartz (BIC) :

$\[\begin{align*} \operatorname{AIC}(p,q)&=\ln\left(\widehat{\sigma}^{2}\right) +2\, \frac{p+q}{T}\ ,\\ \operatorname{BIC}(p,q)&=\ln\left(\widehat{\sigma}^{2}\right) +\left( p+q\right)\frac{\ln\left( T\right)}{T}\ . \end{align*}\]$

Des critères basés sur le pouvoir prédictif.

Une fois ce choix effectué, le modèle retenu est utilisé à des fins de prévision.

Prévision à l'aide du modèle choisi

La fonction de prévision s'obtient assez facilement à partir des écritures dites autorégressive ou moyenne mobile.

Analyse a posteriori

L'analyse a posteriori permet de quantifier les écarts entre les prévisions et les réalisations, en tronquant la série d'un certain nombre de points (notons que le modèle doit être correctement estimé sur la série tronquée.

On utilise des critères d'erreur comme l'erreur quadratique moyenne (Root Mean Square Error : RMSE ou l'erreur relative absolue moyenne (Mean Average Percentage Error : MAPE) :

$\[\begin{align*} \operatorname{RMSE}&=\sqrt{\frac{1}{T}\sum_{t=1}^{T}\left( x_{t}-\widehat{x}_{t}\right) ^{2}}\ ,\\ \operatorname{MAPE}&=\frac{1}{T}\sum_{t=1}^{T}\left\vert\frac{x_{t}-\widehat{x}_{t}}{x_{t}}\right\vert\ . \end{align*}\]$

Exemple de certificat de réussite
Exemple de certificat de réussite