Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Processus stationnaire
Processus stationnaire 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources (novembre 2015).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?
Comparaison entre deux processus : l'un stationnaire et l'autre non-stationnaire.

Pour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps. Lorsque cette hypothèse est vraisemblable, le processus bâti autour du signal est rendu ergodique, les moyennes temporelles étant identiques aux moyennes d'ensemble. On trouvera ci-dessous quelques éléments qui précisent un peu ces notions.

L'hypothèse stationnaire est admise dans de nombreux modèles théoriques, facile à réaliser dans des simulations numériques, beaucoup plus difficile voire impossible à justifier à propos d'un signal réel, faute de pouvoir accéder à d'autres réalisations du même processus. Il faut très généralement se contenter d'une justification grossière, utilisée par exemple dans l'analyse des enregistrements de vagues, qui consiste à dire qu'un enregistrement d'une vingtaine de minutes est assez court pour assurer la stationnarité (il est peu probable que les conditions météorologiques aient été modifiées) mais assez long pour qu'il fournisse des informations statistiques pertinentes.

Pour un autre point de vue voir Stationnarité d'une série temporelle.

Définitions

[modifier | modifier le code]

Un processus est un ensemble X ( t ) {\displaystyle X(t)\,} {\displaystyle X(t)\,} de fonctions ordinaires x ( t ) {\displaystyle x(t)\,} {\displaystyle x(t)\,}, chacune d'elles étant une réalisation du processus. On peut caractériser ce processus en lui associant à chaque instant t 0 {\displaystyle t_{0}\,} {\displaystyle t_{0}\,} une densité de probabilité p X ( x , t 0 ) {\displaystyle p_{X}(x,t_{0})\,} {\displaystyle p_{X}(x,t_{0})\,}.

À une réalisation donnée on peut associer les moyennes temporelles

x ( t ) n ¯ = lim T → ∞ 1 T ∫ − T / 2 T / 2 x ( t ) n d t {\displaystyle {\overline {x(t)^{n}}}=\lim _{T\to \infty }{1 \over T}\int _{-T/2}^{T/2}x(t)^{n}{\rm {d}}t} {\displaystyle {\overline {x(t)^{n}}}=\lim _{T\to \infty }{1 \over T}\int _{-T/2}^{T/2}x(t)^{n}{\rm {d}}t}

À la densité de probabilité p X ( x , t 0 ) {\displaystyle p_{X}(x,t_{0})\,} {\displaystyle p_{X}(x,t_{0})\,} on peut associer les moments appelés moyennes d'ensemble

E [ X ( t 0 ) n ] = ∫ − ∞ ∞ x n p X ( x , t 0 ) d x {\displaystyle E[X(t_{0})^{n}]=\int _{-\infty }^{\infty }x^{n}p_{X}(x,t_{0}){\rm {d}}x} {\displaystyle E[X(t_{0})^{n}]=\int _{-\infty }^{\infty }x^{n}p_{X}(x,t_{0}){\rm {d}}x}

Si ces moyennes d'ensemble, et par conséquent la densité de probabilité, ne dépendent pas de l'instant t 0 {\displaystyle t_{0}\,} {\displaystyle t_{0}\,}, on parle de processus stationnaire. Si, de plus, les moyennes temporelles leur sont égales, il s'agit d'un processus ergodique.

En fait, il ne s'agit là que des propriétés au premier ordre, les propriétés aux ordres supérieurs faisant intervenir la densité de probabilité jointe (voir Loi de probabilité à plusieurs variables) à des instants différents. Elles impliquent également des moyennes temporelles et des moyennes d'ensemble. Parmi ces dernières, la plus importante est l'autocovariance statistique E [ X ( t 0 ) X ( t 0 + τ ) ] {\displaystyle E[X(t_{0})X(t_{0}+\tau )]\,} {\displaystyle E[X(t_{0})X(t_{0}+\tau )]\,}. Si le processus est stationnaire et ergodique au second ordre, elle est identique à l'autocovariance temporelle, elle-même équivalente à la densité spectrale (voir Analyse spectrale).

La stationnarité au second ordre est suffisante pour assurer la stationnarité forte lorsque le processus peut être supposé gaussien, hypothèse souvent utilisée, parfois faute de mieux.

Quelques résultats

[modifier | modifier le code]

Processus sinusoïdal

[modifier | modifier le code]

Un tel processus est un ensemble de sinusoïdes de même fréquence et amplitude défini par

X ( t ) = a cos ⁡ ( ω t + Φ ) {\displaystyle X(t)=a\cos(\omega t+\Phi \,)} {\displaystyle X(t)=a\cos(\omega t+\Phi \,)}

a , ω {\displaystyle a,\omega \,} {\displaystyle a,\omega \,} : constantes

Φ {\displaystyle \Phi \,} {\displaystyle \Phi \,} : variable aléatoire distribuée uniformément sur un intervalle de largeur 2 π {\displaystyle 2\pi \,} {\displaystyle 2\pi \,}

La décomposition des puissances du cosinus montre qu'au premier ordre les moyennes d'ensemble sont indépendantes du temps (stationnarité) et identiques aux moyennes temporelles (ergodicité). Ce résultat se généralise à tous les ordres.

Les paragraphes qui suivent montrent comment il est possible de construire une multitude de processus possédant ces deux propriétés en partant de tels processus sinusoïdaux.

Sommes de processus

[modifier | modifier le code]

Étant donnés deux processus aléatoires, les sommes de réalisations définissent les réalisations du processus somme. Celui-ci est stationnaire et ergodique si les deux processus sont eux-mêmes stationnaires, ergodiques et indépendants (voir la définition de l'indépendance dans Loi de probabilité à plusieurs variables).

Ce résultat se généralise à la somme d'un nombre quelconque de processus. Sous certaines conditions de régularité, on peut faire tendre ce nombre vers l'infini. Dans ce cas, il y a à chaque instant une somme de variables aléatoires indépendantes qui, selon le théorème central limite, tend vers une variable de Gauss. On parle alors de processus de Gauss. Ce résultat s'applique en particulier aux signaux physiques qui s'interprètent souvent comme des sommes de signaux élémentaires sinusoïdaux (voir Analyse spectrale).

Systèmes linéaires

[modifier | modifier le code]

Une somme de processus sinusoïdaux se transforme en une somme de processus sinusoïdaux. La stationnarité et l'ergodicité sont donc conservées. Lorsque les processus composants sont indépendants, le caractère gaussien est également conservé.

Fonctions de processus

[modifier | modifier le code]

Les moyennes du processus Y ( t ) = X ( t ) n {\displaystyle Y(t)=X(t)^{n}\,} {\displaystyle Y(t)=X(t)^{n}\,} sont des moyennes du processus initial. La stationnarité et l'ergodicité se conservent donc. Elles se conservent également lorsque le monôme est remplacé par un polynôme. En passant à la limite, elles se conservent aussi pour une fonction régulière du processus initial Y ( t ) = f ( X ( t ) ) {\displaystyle Y(t)=f(X(t))\,} {\displaystyle Y(t)=f(X(t))\,}.

Si le processus d'entrée est gaussien, le processus de sortie ne l'est plus mais l'interprétation du premier comme une somme de processus sinusoïdaux convient également pour le second. Un produit de cosinus de fréquences différentes étant égal à une somme de deux cosinus de fréquences somme et différence, à la différence de ce qui se produit avec un filtre linéaire le résultat contient des fréquences plus hautes et plus basses. On obtient ainsi un processus dans lequel, contrairement à ce qui a été exigé dans Sommes de processus, les composantes ne sont pas indépendantes mais le résultat reste néanmoins stationnaire et ergodique.

Livres

[modifier | modifier le code]
  • (en) Y. K. Lin, Probabilistic Theory of Structural Dynamics, New York, Robert E. Krieger Publishing Company, juillet 1976, 368 p. (ISBN 0882753770)


v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
  • Axiomes des probabilités
  • Espace mesurable
  • Probabilité
  • Événement
  • Bon article Tribu
  • Indépendance
  • Variable aléatoire
  • Espérance
  • Bon article Variables iid
Convergence de lois
  • Théorème central limite
  • Loi des grands nombres
  • Lemme de Borel-Cantelli
Calcul stochastique
  • Marche aléatoire
  • Chaîne de Markov
  • Processus stochastique
  • Processus de Markov
  • Martingale
  • Mouvement brownien
  • Équation différentielle stochastique
Lois de probabilité
Lois continues
  • Loi exponentielle
  • Bon article Loi normale
  • Loi uniforme
  • Loi de Student
  • Loi de Fisher
  • Loi du χ²
Lois discrètes
  • Loi de Bernoulli
  • Bon article Loi binomiale
  • Loi de Poisson
  • Loi géométrique
  • Loi hypergéométrique
Mélange entre statistiques et probabilités
  • Intervalle de confiance
Interprétations de la probabilité
  • Bayésianisme
Théorie des statistiques
Statistiques descriptives
Bases théoriques
  • Une statistique
  • Caractère
  • Échantillon
  • Erreur type
  • Intervalle de confiance
  • Fonction de répartition empirique
  • Théorème de Glivenko-Cantelli
  • Inférence bayésienne
  • Régression linéaire
  • Méthode des moindres carrés
  • Analyse des données
  • Corrélation
Tableaux
  • Tableau de contingence
  • Tableau disjonctif complet
  • Table de Burt
Visualisation de données
  • Histogramme
  • Diagramme à barres
  • Graphique en aires
  • Diagramme circulaire
  • Treemap
  • Boîte à moustaches
  • Diagramme en violon
  • Nuage de points
  • Graphique à bulles
  • Diagramme en cascade
  • Graphique en entonnoir
  • Diagramme de Kiviat
  • Corrélogramme
  • Graphique en forêt
  • Diagramme branche-et-feuille
  • Heat map
  • Sparkline
Paramètres de position
  • Moyenne arithmétique
  • Mode
  • Médiane
  • Quantile
    • Quartile
    • Décile
    • Centile
Paramètres de dispersion
  • Étendue
  • Écart moyen
  • Variance
  • Écart type
  • Déviation absolue moyenne
  • Écart interquartile
  • Coefficient de variation
Paramètres de forme
  • Coefficient d'asymétrie
  • Coefficient d'aplatissement
Statistiques inductives
Bases théoriques
  • Hypothèse nulle
  • Estimateur
  • Signification statistique
  • Sensibilité et spécificité
  • Courbe ROC
  • Nombre de sujets nécessaires
  • Valeur p
  • Contraste (statistiques)
  • Statistique de test
  • Taille d'effet
  • Puissance statistique
Tests paramétriques
  • Test d'hypothèse
  • Test de Bartlett
  • Test de normalité
  • Test de Fisher d'égalité de deux variances
  • Test d'Hausman
  • Test d'Anderson-Darling
  • Test de Banerji
  • Test de Durbin-Watson
  • Test de Goldfeld et Quandt
  • Test de Jarque-Bera
  • Test de Mood
  • Test de Lilliefors
  • Test de Wald
  • Test T pour des échantillons indépendants
  • Test T pour des échantillons appariés
  • Test de corrélation de Pearson
Tests non-paramétriques
  • Test U de Mann-Whitney
  • Test de Kruskal-Wallis
  • Test exact de Fisher
  • Test de Kolmogorov-Smirnov
  • Test de Shapiro-Wilk
  • Test de Chow
  • Test de McNemar
  • Test de Spearman
  • Tau de Kendall
  • Test Gamma
  • Test des suites de Wald-Wolfowitz
  • Test de la médiane
  • Test des signes
  • ANOVA de Friedman
  • Concordance de Kendall
  • Test Q de Cochran
  • Test des rangs signés de Wilcoxon
  • Test de Sargan
Application
  • Économétrie
  • Mécanique statistique
  • Jeu de hasard
  • Biomathématique
  • Biostatistique
  • Mathématiques financières
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Processus_stationnaire&oldid=209799883 ».
Catégorie :
  • Processus stochastique
Catégories cachées :
  • Article manquant de références depuis novembre 2015
  • Article manquant de références/Liste complète
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id