• 15 heures
  • Difficile

Ce cours est visible gratuitement en ligne.

Ce cours est en vidéo.

Vous pouvez obtenir un certificat de réussite à l'issue de ce cours.

J'ai tout compris !

Mis à jour le 20/08/2018

Découvrez les processus stationnaires

Connectez-vous ou inscrivez-vous gratuitement pour bénéficier de toutes les fonctionnalités de ce cours !

Série temporelle et processus stochastique

On considère ici un ensemble d'observations dans $\(\mathbb{R}\)$  enregistrées à un temps spécifique $\(t\in\mathbb{Z}\)$ , on parle alors de série temporelle univariée à temps discret.
On considère en Statistique que l'observation $\(x\)$  est la réalisation d'une variable aléatoire $\(X\)$ . De manière analogue, une série temporelle $\(\left(x_{t}\right)_{t\in\mathbb{Z}}\)$  sera considérée comme la réalisation d'un processus stochastique $\(\left( X_{t}\right) _{t\in\mathbb{Z}}\)$ . Ce qu'il faut retenir à ce stade, c'est qu'on parle d'un processus stochastique si, pour tout $\(t\in\mathbb{Z}\)$  fixé, $\(X_{t}\)$  est une variable aléatoire réelle.

La notion de bruit blanc

A l'issue d'une modélisation, il nous faudrait idéalement obtenir un signal résiduel qui ne contient plus d'information temporelle. Dans le cadre des modèles ARMA, on souhaite que le résidu soit un bruit blanc (faible), c'est-à-dire sans dépendance temporelle linéaire.
 $\(\left(\varepsilon_{t}\right)_{t\in\mathbb{Z}}\)$  est un bruit blanc faible s'il est constitué de v.a.r telles que :

$\(\begin{align*} \forall t\in\mathbb{Z}:&\, \mathbb{E}\left(\varepsilon_{t}\right)=0\ ,\\ &\, \mathbb{E}\left(\varepsilon_{t}^{2}\right)=\sigma^{2}\ ,\\ \forall\left( t,t^{\prime}\right)\in\mathbb{Z}^{2}\left/ t\neq t^{\prime}\right. :&\, \operatorname{Cov}\left(\varepsilon_{t},\varepsilon_{t^{\prime}}\right)=0\ . \end{align*}\)$

Une notion fondamentale : la stationnarité

Dans de très nombreux cas, on ne peut pas renouveler la suite de mesures dans des conditions identiques. Pour que le modèle déduit à partir d'une suite d'observations ait un sens, il faut que toute portion de la trajectoire observée fournisse des informations sur la loi du processus et que des portions différentes, mais de même longueur, fournissent les mêmes indications. D'où la notion de stationnarité.

Un processus $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  est (faiblement) stationnaire si son espérance et ses autocovariances sont invariantes par translation dans le temps :

  •  $\(\forall t\in\mathbb{Z}:\mathbb{E}\left( X_{t}\right)=\mu\ .\)$

  •  $\(\forall t \in\mathbb{Z},\forall h\in\mathbb{Z}:\operatorname{Cov}\left( X_{t},X_{t-h}\right)\)$ ne dépend que de l'intervalle séparant les 2 instants $\(h\)$ , pas de l'instant $\(t\)$ .

Modéliser par des processus stationnaire

Une série présentant une tendance et/ou une saisonnalité (elle sont nombreuses dans le quotidien du data analyst !) ne pourra pas être modélisée par un processus stationnaire ; une technique communément employée est de travailler non pas sur la série mais sur des différences de la série comme l'illustre l'exemple suivant.
Considérons le processus $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  vérifiant :

$\[X_{t}=at+b+\varepsilon_{t}\]$

avec $\(a\neq 0\)$ .

On a :

$\[\mathbb{E}\left( X_{t}\right) =\mathbb{E}\left( at+b+\varepsilon_{t}\right) =at+b\]$

et :

$\[\operatorname{Cov}\left( X_{t},X_{t-h}\right) =\begin{cases}\sigma^2 & \text{si }h=0\\ 0 & \text{sinon}\end{cases}\ .\]$

Contrairement à $\(\operatorname{Cov}\left( X_{t},X_{t-h}\right)\)$ , $\(\mathbb{E}\left( X_{t}\right)\)$  dépend de $\(t\)$ .
Le processus $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  n'est donc pas stationnaire.

Considérons maintenant le processus $\(\left( Y_{t}\right)_{t\in\mathbb{Z}}\)$  "différence première" :

$\[Y_{t}=X_{t}-X_{t-1}\ .\]$

On a :
$\(\begin{align*} Y_{t} &=X_{t}-X_{t-1}\\ &=at+b+\varepsilon_{t}-a\left( t-1\right) -b-\varepsilon_{t-1}\\ &=a+\varepsilon_{t}-\varepsilon_{t-1}. \end{align*}\)$ D'où :

$\[\mathbb{E}\left( Y_{t}\right) =a\]$

et :

$\(\mathbb{E}\left( Y_{t}\right)\)$

$\[\operatorname{Cov}\left( Y_{t},Y_{t-h}\right) =\begin{cases}2\sigma^2 &\text{ si }h=0\\ -\sigma^2 & \text{ si }h\in\left\{-1,1\right\} \\ 0 & \text{ sinon} \end{cases}\ .\]$

$\(\mathbb{E}\left( Y_{t}\right) \)$  et $\(\operatorname{Cov}\left( Y_{t},Y_{t-h}\right)\)$  ne dépendent pas de $\(t\)$  donc $\(\left( Y_{t}\right)_{t\in\mathbb{Z}}\)$  est bien un processus stationnaire.
On a donc transformé un processus non stationnaire $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  par différenciation pour obtenir un processus stationnaire $\(\left( Y_{t}\right)_{t\in\mathbb{Z}}\)$ .

Mesurer la dépendance temporelle linéaire

La fonction d'autocovariance

Les modèles ARMA sont linéaires, afin de définir leur structure nous utiliserons les autocorrélogrammes simples et partiels basés sur la fonction d'autocovariance.
On appelle fonction d'autocovariance d'un processus stationnaire $\(X\)$  la fonction $\(\gamma\)$  suivante :
$\(\forall h\in\mathbb{Z}:\gamma(h)=\operatorname{Cov}\left( X_{t},X_{t-h}\right)\ .\)$

$\(\gamma\)$  est une fonction symétrique :

$\(\forall h\in\mathbb{Z}:\gamma\left( -h\right)=\gamma(h)\ .\)$

On pourra donc calculer la fonction d'autocovariance pour $\(h\in\mathbb{N}\)$ .

L'autocorrélogramme simple

On appelle autocorrélogramme simple d'un processus $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  stationnaire la fonction $\(\rho\)$  suivante :

$\[\forall h\in\mathbb{Z}:\rho(h)=\operatorname{Corr}\left( X_{t},X_{t-h}\right)=\frac{\gamma(h)}{\gamma(0)}\ .\]$

Il s'agit d'une simple normalisation de la fonction d'autocovariance.

L'autocorrélogramme partiel

On constate que la corrélation existant entre 2 instants successifs d'un processus stationnaire se "diffuse". Il s'avère intéressant de connaître la corrélation entre 2 instants éloignés d'un processus conditionnellement aux instants intermédiaires, il s'agit là de l'\red{autocorrélogramme partiel} noté $\(r\)$  :

  • $\(r(0)=1\ .\)$

  • $\(r(1)=\rho(1)\ .\)$

  • $\(\forall h\in\mathbb{N}\setminus\left\{0,1\right\} : r(h)=\operatorname{Corr}\left( X_{t},X_{t-h}\left/ X_{t-1},\ldots,X_{t-h+1}\right.\right)\ .\)$

Afin de les déterminer, on calcule au préalable les autocorrélations simples et on les déduit à l'aide de l'algorithme de Durbin-Levinson (non abordé dans ce cours).

Estimer les moments d'un processus stationnaire

Soit $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  un processus stationnaire.
A partir de $\(\left( X_{1},\ldots,X_{T}\right)\)$ , on peut considérer les estimateurs suivants :

$\(\begin{align*} \widehat{\mu}&=\overline{X}_{T}=\frac{1}{T}\sum_{i=1}^{T} X_{i}\ .\\ \forall h\in\left\{1,\ldots,T-1\right\} :\widehat{\gamma}(h)&=\frac{1}{T-h}\sum_{t=h+1}^{T}\left( X_{t}-\overline{X}_{T}\right)\left( X_{t-h}-\overline{X}_{T}\right)\ .\\ \forall h\in\left\{1,\ldots,T-1\right\} :\widehat{\rho}(h) &=\frac{T-h}{T}\, \frac{\sum_{t=h+1}^{T}\left( X_{t}-\overline{X}_{T}\right)\left( X_{t-h}-\overline{X}_{T}\right)}{\sum_{t=1}^{T}\left( X_{t}-\overline{X}_{T}\right) ^{2}}\\ &\sim \frac{\sum_{t=h+1}^{T}\left( X_{t}-\overline{X}_{T}\right)\left( X_{t-h}-\overline{X}_{T}\right)}{\sum_{t=1}^{T}\left( X_{t}-\overline{X}_{T}\right) ^{2}}\text{ si }h\ll T\text{.} \end{align*}\)$
Remarquons que :

  • Estimer $\(\widehat{\gamma}(h)\)$  pour des valeurs élevées de $\(h\)$  peut devenir délicat au vu du nombre d'observations en jeu. En pratique on n'excède pas un quart de la taille de la série temporelle.

  • On peut mener les calculs même lorsque le processus n'est pas stationnaire ! Les logiciels le font par défaut, le data analyst devra évaluer la pertinence du calcul.

  • Les estimations des autocorrélations partielles se déduisent des estimations des autocorrélations simples grâce à l'algorithme de Durbin-Levinson.

Tester la blancheur d'un résidu

A l'issue d'une modélisation ARMA, il faudra tester la blancheur du résidu à partir de l'autocorrélogramme simple.
Soit $\(\left( X_{t}\right)_{t\in\mathbb{Z}}\)$  un processus stationnaire.

Considérons le test suivant :
$\(\begin{cases} H_0:\left( X_{t}\right)_{t\in\mathbb{Z}}\text{ est un bruit blanc}\\ H_1:\left( X_{t}\right)_{t\in\mathbb{Z}}\text{ n'est pas un bruit blanc} \end{cases}\ .\)$
Si on dispose de $\(\left( X_{1},\ldots,X_{T}\right)\)$ , on considère la statistique de Portmanteau (calculée sur les $\(k\)$ premières estimations des autocorrélations) :

$\[Q_{k}=T\sum_{h=1}^{k}\widehat{\rho}^{2}(h)\ .\]$

Une trop grande valeur de $\(Q_{k}\)$  indique que les autocorrélations sont trop importantes pour être celles d'un bruit blanc (en effet ces autocorrélations sont théoriquement nulles pour un bruit blanc).
Il existe d'autres versions de cette statistiques, par exemple la statistique de Ljung–Box :

$\[Q_{k}^{\ast}=T\left( T+2\right)\sum_{h=1}^{k} \frac{\widehat{\rho}^{2}(h)}{T-h}\ .\]$

Sous $\(H_0,\)$$\(Q_{k}\)$ (ainsi que $\(Q_{k}^{\ast}\)$ ) suit asymptotiquement une loi du Khi-deux à $\(k\)$ degrés de liberté :

$\[Q_{k}\xrightarrow{\mathcal{L}}\chi^{2}(k)\ .\]$

On rejette donc l'hypothèse $\(H_0\)$  au niveau de test $\(\alpha\)$  si :

$\[Q_{k}>\chi_{k,1-\alpha}^{2} \]$

$\(\chi_{k,1-\alpha}^{2}\)$  désigne le quantile d'ordre $\(1-\alpha\)$  d'une loi du Khi-deux à $\(k\)$  degrés de liberté.

La p-valeur vaut :

$\[\operatorname{p-valeur}=\mathbb{P}\left(\chi_{k}^{2}\geq Q_{k}\right)\ .\]$

Vers les processus ARMA

Il existe un résultat théorique, nommé décomposition de Wold, qui nous indique que tout processus stationnaire peut être modélisé par un processus ARMA, ce résultat est remarquable car il rend universel le modèle linéaire sur des processus stationnaires.

Exemple de certificat de réussite
Exemple de certificat de réussite