Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. ARMA — Wikipédia
ARMA — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voir Arma.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources (octobre 2013).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En statistique, les modèles ARMA (modèles autorégressifs et moyenne mobile), ou aussi modèle de Box-Jenkins, sont les principaux modèles de séries temporelles.

Étant donné une série temporelle Xt, le modèle ARMA est un outil pour comprendre et prédire, éventuellement, les valeurs futures de cette série. Le modèle est composé de deux parties : une part autorégressive (AR) et une part moyenne-mobile (MA). Le modèle est généralement noté ARMA(p,q), où p est l'ordre de la partie AR et q l'ordre de la partie MA.

Modèle autorégressif

[modifier | modifier le code]
Article détaillé : Processus autorégressif.

Un modèle autorégressif d'ordre p, en abrégé AR(p), s'écrit : X t = c + ∑ i = 1 p φ i X t − i + ε t {\displaystyle X_{t}=c+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}\,} {\displaystyle X_{t}=c+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}\,} où φ 1 , … , φ p {\displaystyle \varphi _{1},\ldots ,\varphi _{p}} {\displaystyle \varphi _{1},\ldots ,\varphi _{p}} sont les paramètres du modèle, c {\displaystyle c} {\displaystyle c} est une constante et ε t {\displaystyle \varepsilon _{t}} {\displaystyle \varepsilon _{t}} un bruit blanc. La constante est bien souvent omise dans la littérature, le processus étant alors dit centré.

Des contraintes supplémentaires sur les paramètres sont nécessaires pour garantir la stationnarité. Par exemple, pour le modèle AR(1), les processus tels que |φ1| ≥ 1 ne sont pas stationnaires.

Exemple : un processus AR(1)

[modifier | modifier le code]

Un modèle AR(1) est donné par : X t = c + φ X t − 1 + ε t {\displaystyle X_{t}=c+\varphi X_{t-1}+\varepsilon _{t}\,} {\displaystyle X_{t}=c+\varphi X_{t-1}+\varepsilon _{t}\,} où ε t {\displaystyle \varepsilon _{t}} {\displaystyle \varepsilon _{t}} est un bruit blanc, de moyenne nulle et de variance σ 2 {\displaystyle \sigma ^{2}} {\displaystyle \sigma ^{2}}.

  • Si φ = 1 {\displaystyle \varphi =1} {\displaystyle \varphi =1}, alors le processus exhibe une racine unitaire (en), ce qui signifie qu'il est une marche aléatoire, et n'est pas stationnaire en variance.
  • Supposons donc | φ | < 1 {\displaystyle |\varphi |<1} {\displaystyle |\varphi |<1}. L'espérance, la variance, l'autocovariance du processus valent respectivement :

E [ X t ] = c 1 − φ {\displaystyle \mathrm {E} \left[X_{t}\right]={\frac {c}{1-\varphi }}} {\displaystyle \mathrm {E} \left[X_{t}\right]={\frac {c}{1-\varphi }}} V a r [ X t ] = σ 2 1 − φ 2 {\displaystyle \mathrm {Var} \left[X_{t}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}} {\displaystyle \mathrm {Var} \left[X_{t}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}} B n = C o v [ X t , X t − n ] = σ 2 1 − φ 2 φ | n | {\displaystyle B_{n}=\mathrm {Cov} \left[X_{t},X_{t-n}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}\varphi ^{|n|}} {\displaystyle B_{n}=\mathrm {Cov} \left[X_{t},X_{t-n}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}\varphi ^{|n|}} Prendre c = 0 {\displaystyle c=0} {\displaystyle c=0} revient à avoir une moyenne nulle. On introduit un taux de décroissance de la fonction d'autocovariance τ = − 1 / ln ⁡ ( φ ) {\displaystyle \tau =-1/\ln(\varphi )} {\displaystyle \tau =-1/\ln(\varphi )}

La densité spectrale de puissance est la transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit :

Φ ( ω ) = 1 2 π ∑ n = − ∞ ∞ B n e − i ω n = 1 2 π ( σ 2 1 + φ 2 − 2 φ cos ⁡ ( ω ) ) . {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,\sum _{n=-\infty }^{\infty }B_{n}e^{-i\omega n}={\frac {1}{\sqrt {2\pi }}}\,\left({\frac {\sigma ^{2}}{1+\varphi ^{2}-2\varphi \cos(\omega )}}\right).} {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,\sum _{n=-\infty }^{\infty }B_{n}e^{-i\omega n}={\frac {1}{\sqrt {2\pi }}}\,\left({\frac {\sigma ^{2}}{1+\varphi ^{2}-2\varphi \cos(\omega )}}\right).}

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage ( Δ t = 1 {\displaystyle \Delta t=1} {\displaystyle \Delta t=1}) est plus petit que le taux de décroissance ( τ {\displaystyle \tau } {\displaystyle \tau }), alors on peut utiliser une approximation continue de B n {\displaystyle B_{n}} {\displaystyle B_{n}} :

B ( t ) ≈ σ 2 1 − φ 2 φ | t | {\displaystyle B(t)\approx {\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,\,\varphi ^{|t|}} {\displaystyle B(t)\approx {\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,\,\varphi ^{|t|}}

qui présente une forme lorentzienne pour la densité spectrale :

Φ ( ω ) = 1 2 π σ 2 1 − φ 2 γ π ( γ 2 + ω 2 ) {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,{\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,{\frac {\gamma }{\pi (\gamma ^{2}+\omega ^{2})}}} {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,{\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,{\frac {\gamma }{\pi (\gamma ^{2}+\omega ^{2})}}}

où γ = 1 / τ {\displaystyle \gamma =1/\tau } {\displaystyle \gamma =1/\tau } est la fréquence angulaire associée à τ {\displaystyle \tau } {\displaystyle \tau }.

Une expression alternative pour X t {\displaystyle X_{t}} {\displaystyle X_{t}} peut être dérivée en remplaçant X t − 1 {\displaystyle X_{t-1}} {\displaystyle X_{t-1}} par c + φ X t − 2 + ε t − 1 {\displaystyle c+\varphi X_{t-2}+\varepsilon _{t-1}} {\displaystyle c+\varphi X_{t-2}+\varepsilon _{t-1}} dans l'équation définissante. En continuant cette manipulation N fois fournit

X t = c ∑ k = 0 N − 1 φ k + φ N X t − N + ∑ k = 0 N − 1 φ k ε t − k . {\displaystyle X_{t}=c\sum _{k=0}^{N-1}\varphi ^{k}+\varphi ^{N}X_{t-N}+\sum _{k=0}^{N-1}\varphi ^{k}\varepsilon _{t-k}.} {\displaystyle X_{t}=c\sum _{k=0}^{N-1}\varphi ^{k}+\varphi ^{N}X_{t-N}+\sum _{k=0}^{N-1}\varphi ^{k}\varepsilon _{t-k}.}

Pour N devenant très grand, φ N {\displaystyle \varphi ^{N}} {\displaystyle \varphi ^{N}} s'approche de 0 et :

X t = c 1 − φ + ∑ k = 0 ∞ φ k ε t − k . {\displaystyle X_{t}={\frac {c}{1-\varphi }}+\sum _{k=0}^{\infty }\varphi ^{k}\varepsilon _{t-k}.} {\displaystyle X_{t}={\frac {c}{1-\varphi }}+\sum _{k=0}^{\infty }\varphi ^{k}\varepsilon _{t-k}.}

On peut voir que X t {\displaystyle X_{t}} {\displaystyle X_{t}} est le bruit blanc convolé avec le noyau φ k {\displaystyle \varphi ^{k}} {\displaystyle \varphi ^{k}} plus une moyenne constante. Si le bruit blanc est gaussien, alors X t {\displaystyle X_{t}} {\displaystyle X_{t}} est aussi un processus normal. Dans les autres cas, le théorème central limite indique que X t {\displaystyle X_{t}} {\displaystyle X_{t}} sera approximativement normal lorsque φ {\displaystyle \varphi } {\displaystyle \varphi } est proche de l'unité.

Estimation des paramètres AR

[modifier | modifier le code]

Le modèle AR(p) est donné par

X t = ∑ i = 1 p φ i X t − i + ε t . {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}.\,} {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}.\,}

Les paramètres à estimer sont φ i {\displaystyle \varphi _{i}} {\displaystyle \varphi _{i}} où i = 1, …, p. Il y a une correspondance directe entre ces paramètres et la fonction de covariance (et donc d'autocorrélation) et on peut tirer les paramètres en inversant ces relations. Ce sont les équations de Yule-Walker :

γ m = ∑ k = 1 p φ k γ m − k + σ ε 2 δ m {\displaystyle \gamma _{m}=\sum _{k=1}^{p}\varphi _{k}\gamma _{m-k}+\sigma _{\varepsilon }^{2}\delta _{m}} {\displaystyle \gamma _{m}=\sum _{k=1}^{p}\varphi _{k}\gamma _{m-k}+\sigma _{\varepsilon }^{2}\delta _{m}}

où m = 0, … , p, ce qui donne en tout p + 1 équations. Les coefficients γ m {\displaystyle \gamma _{m}} {\displaystyle \gamma _{m}} est la fonction d'autocorrélation de X, σ ε {\displaystyle \sigma _{\varepsilon }} {\displaystyle \sigma _{\varepsilon }} est la déviation (écart-type) du bruit blanc et δm le symbole de Kronecker.

La dernière partie de l'équation est non nulle si m = 0 ; en prenant m > 0, l'équation précédente s'écrit comme un système matriciel

[ γ 1 γ 2 γ 3 ⋮ ] = [ γ 0 γ − 1 γ − 2 … γ 1 γ 0 γ − 1 … γ 2 γ 1 γ 0 … ⋮ ⋮ ⋮ ⋱ ] [ φ 1 φ 2 φ 3 ⋮ ] {\displaystyle {\begin{bmatrix}\gamma _{1}\\\gamma _{2}\\\gamma _{3}\\\vdots \\\end{bmatrix}}={\begin{bmatrix}\gamma _{0}&\gamma _{-1}&\gamma _{-2}&\dots \\\gamma _{1}&\gamma _{0}&\gamma _{-1}&\dots \\\gamma _{2}&\gamma _{1}&\gamma _{0}&\dots \\\vdots &\vdots &\vdots &\ddots \\\end{bmatrix}}{\begin{bmatrix}\varphi _{1}\\\varphi _{2}\\\varphi _{3}\\\vdots \\\end{bmatrix}}} {\displaystyle {\begin{bmatrix}\gamma _{1}\\\gamma _{2}\\\gamma _{3}\\\vdots \\\end{bmatrix}}={\begin{bmatrix}\gamma _{0}&\gamma _{-1}&\gamma _{-2}&\dots \\\gamma _{1}&\gamma _{0}&\gamma _{-1}&\dots \\\gamma _{2}&\gamma _{1}&\gamma _{0}&\dots \\\vdots &\vdots &\vdots &\ddots \\\end{bmatrix}}{\begin{bmatrix}\varphi _{1}\\\varphi _{2}\\\varphi _{3}\\\vdots \\\end{bmatrix}}}

Pour m = 0, nous avons

γ 0 = ∑ k = 1 p φ k γ − k + σ ε 2 {\displaystyle \gamma _{0}=\sum _{k=1}^{p}\varphi _{k}\gamma _{-k}+\sigma _{\varepsilon }^{2}} {\displaystyle \gamma _{0}=\sum _{k=1}^{p}\varphi _{k}\gamma _{-k}+\sigma _{\varepsilon }^{2}}

qui permet de trouver σ ε 2 {\displaystyle \sigma _{\varepsilon }^{2}} {\displaystyle \sigma _{\varepsilon }^{2}}.

Les équations de Yule-Walker procurent un moyen d'estimer les paramètres du modèle AR(p), en remplaçant les covariances théoriques par des valeurs estimées. Une manière d'obtenir ces valeurs est de considérer la régression linéaire de Xt sur ses p premiers retards.

Obtention des équations de Yule-Walker

[modifier | modifier le code]

L'équation définissante du processus AR est

X t = ∑ i = 1 p φ i X t − i + ε t . {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}.\,} {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}.\,}

En multipliant les deux membres par Xt − m et en prenant l'espérance, on obtient

E [ X t X t − m ] = E [ ∑ i = 1 p φ i X t − i X t − m ] + E [ ε t X t − m ] . {\displaystyle E[X_{t}X_{t-m}]=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+E[\varepsilon _{t}X_{t-m}].} {\displaystyle E[X_{t}X_{t-m}]=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+E[\varepsilon _{t}X_{t-m}].}

Or, il se trouve que E[XtXt − m] = γm par définition de la fonction d'autocovariance. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xt − m est indépendant de εt où m est plus grand que zéro. Pour m > 0, E[εtXt − m] = 0. Pour m = 0,

E [ ε t X t ] = E [ ε t ( ∑ i = 1 p φ i X t − i + ε t ) ] = ∑ i = 1 p φ i E [ ε t X t − i ] + E [ ε t 2 ] = 0 + σ ε 2 , {\displaystyle E[\varepsilon _{t}X_{t}]=E\left[\varepsilon _{t}\left(\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}\right)\right]=\sum _{i=1}^{p}\varphi _{i}\,E[\varepsilon _{t}\,X_{t-i}]+E[\varepsilon _{t}^{2}]=0+\sigma _{\varepsilon }^{2},} {\displaystyle E[\varepsilon _{t}X_{t}]=E\left[\varepsilon _{t}\left(\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}\right)\right]=\sum _{i=1}^{p}\varphi _{i}\,E[\varepsilon _{t}\,X_{t-i}]+E[\varepsilon _{t}^{2}]=0+\sigma _{\varepsilon }^{2},}

Maintenant, on a pour m ≥ 0,

γ m = E [ ∑ i = 1 p φ i X t − i X t − m ] + σ ε 2 δ m . {\displaystyle \gamma _{m}=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+\sigma _{\varepsilon }^{2}\delta _{m}.} {\displaystyle \gamma _{m}=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+\sigma _{\varepsilon }^{2}\delta _{m}.}

Par ailleurs,

E [ ∑ i = 1 p φ i X t − i X t − m ] = ∑ i = 1 p φ i E [ X t X t − m + i ] = ∑ i = 1 p φ i γ m − i , {\displaystyle E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]=\sum _{i=1}^{p}\varphi _{i}\,E[X_{t}X_{t-m+i}]=\sum _{i=1}^{p}\varphi _{i}\,\gamma _{m-i},} {\displaystyle E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]=\sum _{i=1}^{p}\varphi _{i}\,E[X_{t}X_{t-m+i}]=\sum _{i=1}^{p}\varphi _{i}\,\gamma _{m-i},}

qui donne les équations de Yule-Walker :

γ m = ∑ i = 1 p φ i γ m − i + σ ε 2 δ m . {\displaystyle \gamma _{m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{m-i}+\sigma _{\varepsilon }^{2}\delta _{m}.} {\displaystyle \gamma _{m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{m-i}+\sigma _{\varepsilon }^{2}\delta _{m}.}

pour m ≥ 0. Pour m < 0,

γ m = γ − m = ∑ i = 1 p φ i γ | m | − i + σ ε 2 δ m . {\displaystyle \gamma _{m}=\gamma _{-m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{|m|-i}+\sigma _{\varepsilon }^{2}\delta _{m}.} {\displaystyle \gamma _{m}=\gamma _{-m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{|m|-i}+\sigma _{\varepsilon }^{2}\delta _{m}.}

Modèle moyenne mobile

[modifier | modifier le code]

La notation MA(q) (pour Moving Average) réfère au modèle moyenne-mobile d'ordre q :

X t = μ + ε t + ∑ i = 1 q θ i ε t − i {\displaystyle X_{t}=\mu +\varepsilon _{t}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}\,} {\displaystyle X_{t}=\mu +\varepsilon _{t}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}\,}

où les θ1, …, θq sont les paramètres du modèle, μ {\displaystyle \mu } {\displaystyle \mu } est l'espérance de X t {\displaystyle X_{t}} {\displaystyle X_{t}} et εt, εt-1, … sont encore une fois des termes d'erreur.

Modèle ARMA

[modifier | modifier le code]

Définition — un modèle autorégressif et moyenne-mobile d'ordres (p,q) (abrégé en ARMA(p,q)) est un processus temporel discret (Xt, t ∈ ℕ) vérifiant : X t = ε t + ∑ i = 1 p φ i X t − i + ∑ i = 1 q θ i ε t − i {\displaystyle X_{t}=\varepsilon _{t}+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}} {\displaystyle X_{t}=\varepsilon _{t}+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}} où les φi et θi sont les paramètres du modèle et les εi les termes d'erreur.

Un modèle autorégressif AR(p) est un ARMA(p,0)

Un modèle moyenne mobile MA(q) est un ARMA(0,q)

Le processus ARMA n'est bien défini que s'il est stationnaire.

Modèle ARIMA

[modifier | modifier le code]

Dans le cas où le processus ( X t ) t ∈ Z {\displaystyle (X_{t})_{t\in \mathbb {Z} }} {\displaystyle (X_{t})_{t\in \mathbb {Z} }} n'est pas un processus stationnaire, il convient de le stationnariser de manière à pouvoir le modéliser sous forme ARMA afin de réaliser, par exemple, des prédictions.


La non stationnarité peut être due à la présence d'une tendance non constante. Des différenciations d'ordre 1 successives du processus ( X t ) t ∈ Z {\displaystyle (X_{t})_{t\in \mathbb {Z} }} {\displaystyle (X_{t})_{t\in \mathbb {Z} }} ( ∀ t ∈ Z , X t ′ := X t − X t − 1 , X t ″ := X t ′ − X t − 2 {\displaystyle \forall t\in \mathbb {Z} ,X_{t}':=X_{t}-X_{t-1},\;X_{t}'':=X_{t}'-X_{t-2}} {\displaystyle \forall t\in \mathbb {Z} ,X_{t}':=X_{t}-X_{t-1},\;X_{t}'':=X_{t}'-X_{t-2}} permettent de supprimer les tendances polynomiales. Avec d ∈ N {\displaystyle d\in \mathbb {N} } {\displaystyle d\in \mathbb {N} } différenciations d'ordre 1, on enlève toute tendance polynomiale de degré d {\displaystyle d} {\displaystyle d}.


Le modèle A R I M A ( p , d , q ) , ( p , d , q ) ∈ N 3 {\displaystyle ARIMA(p,d,q),(p,d,q)\in \mathbb {N} ^{3}} {\displaystyle ARIMA(p,d,q),(p,d,q)\in \mathbb {N} ^{3}} est une généralisation du modèle A R M A {\displaystyle ARMA} {\displaystyle ARMA}, différenciant d {\displaystyle d} {\displaystyle d} fois le processus ( X t ) {\displaystyle (X_{t})} {\displaystyle (X_{t})} avant de le modéliser comme un A R M A ( p , q ) {\displaystyle ARMA(p,q)} {\displaystyle ARMA(p,q)}.

Ce n'est plus ( X t ) {\displaystyle (X_{t})} {\displaystyle (X_{t})} qui est modélisé comme un processus A R M A {\displaystyle ARMA} {\displaystyle ARMA} mais le processus ( Y t ) {\displaystyle (Y_{t})} {\displaystyle (Y_{t})}, défini comme ( X t ) {\displaystyle (X_{t})} {\displaystyle (X_{t})} différencié d {\displaystyle d} {\displaystyle d} fois.

Une note sur les termes d'erreur

[modifier | modifier le code]

Les termes d'erreur εt sont généralement supposés indépendants et identiquement distribués (i.i.d.) selon une loi normale de moyenne nulle : εt ~ N(0,σ2) où σ2 est la variance. Ces hypothèses peuvent être assouplies mais ceci changerait les propriétés du modèle, comme supposer le simple caractère i.i.d.

Spécification en termes de l'opérateur de retard

[modifier | modifier le code]

Les modèles ARMA peuvent s'écrire en termes de L, qui est l'opérateur retard. Le modèle autorégressif AR(p) s'écrit

ε t = ( 1 − ∑ i = 1 p φ i L i ) X t = φ X t {\displaystyle \varepsilon _{t}=\left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\varphi X_{t}\,} {\displaystyle \varepsilon _{t}=\left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\varphi X_{t}\,}

où φ représente le polynôme

φ = 1 − ∑ i = 1 p φ i L i . {\displaystyle \varphi =1-\sum _{i=1}^{p}\varphi _{i}L^{i}.\,} {\displaystyle \varphi =1-\sum _{i=1}^{p}\varphi _{i}L^{i}.\,}

Pour le modèle moyenne mobile MA(q), on a

X t = ( 1 + ∑ i = 1 q θ i L i ) ε t = θ ε t {\displaystyle X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}=\theta \varepsilon _{t}\,} {\displaystyle X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}=\theta \varepsilon _{t}\,}

où θ représente le polynôme

θ = 1 + ∑ i = 1 q θ i L i . {\displaystyle \theta =1+\sum _{i=1}^{q}\theta _{i}L^{i}.\,} {\displaystyle \theta =1+\sum _{i=1}^{q}\theta _{i}L^{i}.\,}

Finalement, en combinant les deux aspects, on en tire l'écriture du modèle ARMA(p, q) :

( 1 − ∑ i = 1 p φ i L i ) X t = ( 1 + ∑ i = 1 q θ i L i ) ε t {\displaystyle \left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}\,} {\displaystyle \left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}\,}

où plus court :

φ X t = θ ε t . {\displaystyle \varphi X_{t}=\theta \varepsilon _{t}.\,} {\displaystyle \varphi X_{t}=\theta \varepsilon _{t}.\,}


Modèle d'ajustement

[modifier | modifier le code]

Les modèles ARMA, une fois choisis les ordres p et q, peuvent être ajustés sur des données par la méthode des moindres carrés : on recherche les paramètres qui minimisent la somme des carrés des résidus. Prendre des valeurs de p et q les plus petites est généralement vu comme une bonne pratique (principe de parcimonie). Pour un modèle AR pur, les équations de Yule-Walker permettent de réaliser l'ajustement.


Notes et références

[modifier | modifier le code]
  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Autoregressive moving average model » (voir la liste des auteurs).

Bibliographie

[modifier | modifier le code]
  • (fr) Jean-Jacques Droesbeke, Bernard Fichet, Philippe Tassi, Séries chronologiques - Théorie et pratique des modèles ARIMA, Economica, 1989 (ISBN 2-7178-1549-X)
  • (en) George E. P. Box, Gwilym Jenkins et Gregory C. Reinsel, Time Series Analysis: Forecasting and Control, third edition. Prentice-Hall, 1994.
  • (en) Terence C. Mills, Time Series Techniques for Economists, Cambridge University Press, 1990.
  • (en) Donald B. Percival et Andrew T. Walden, Spectral Analysis for Physical Applications. Cambridge University Press, 1993.
  • (en) Sudhakar M. Pandit et Shien-Ming Wu,Time Series and System Analysis with Applications. John Wiley & Sons, 1983.
  • (en) James D. Hamilton, Time Series Analysis, Princeton University Press, 1994
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=ARMA&oldid=223354928 ».
Catégories :
  • Économétrie
  • Traitement numérique du signal
Catégories cachées :
  • Article manquant de références depuis octobre 2013
  • Article manquant de références/Liste complète
  • Article contenant un appel à traduction en anglais
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id