Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Loi de Poisson — Wikipédia
Loi de Poisson — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voir Poisson (homonymie).

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Loi de Fisher.

Loi de Poisson
Image illustrative de l’article Loi de Poisson
Fonction de masse
Les fonctions de masse ne sont définies que pour les entiers k.
Image illustrative de l’article Loi de Poisson
Fonction de répartition
Les fonctions de répartition sont discontinues en chaque entier naturel.

Paramètres λ ∈ ] 0 , + ∞ [ {\displaystyle \lambda \in {}]0,+\infty [} {\displaystyle \lambda \in {}]0,+\infty [}[note 1]
Support N {\displaystyle \mathbb {N} } {\displaystyle \mathbb {N} }
Fonction de masse λ k k ! e − λ {\displaystyle {\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }\!} {\displaystyle {\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }\!}
Fonction de répartition Γ ( k + 1 , λ ) k !  pour  k ≥ 0 {\displaystyle {\frac {\Gamma (k+1,\lambda )}{k!}}\!{\text{ pour }}k\geq 0} {\displaystyle {\frac {\Gamma (k+1,\lambda )}{k!}}\!{\text{ pour }}k\geq 0}
Espérance λ {\displaystyle \lambda \,} {\displaystyle \lambda \,}
Médiane environ  ⌊ λ + 1 / 3 − 0.02 / λ ⌋ {\displaystyle {\text{environ }}\lfloor \lambda +1/3-0.02/\lambda \rfloor } {\displaystyle {\text{environ }}\lfloor \lambda +1/3-0.02/\lambda \rfloor }
Mode ⌊ λ ⌋ {\displaystyle \lfloor \lambda \rfloor } {\displaystyle \lfloor \lambda \rfloor } si λ {\displaystyle \lambda } {\displaystyle \lambda } est un réel non entier,

λ {\displaystyle \lambda } {\displaystyle \lambda } et λ − 1 {\displaystyle \lambda -1} {\displaystyle \lambda -1} si λ {\displaystyle \lambda } {\displaystyle \lambda } est un nombre entier

Variance λ {\displaystyle \lambda \,} {\displaystyle \lambda \,}
Asymétrie λ − 1 / 2 {\displaystyle \lambda ^{-1/2}\,} {\displaystyle \lambda ^{-1/2}\,}
Kurtosis normalisé λ − 1 {\displaystyle \lambda ^{-1}\,} {\displaystyle \lambda ^{-1}\,}
Entropie λ [ 1 − ln ⁡ ( λ ) ] + e − λ ∑ k = 0 ∞ λ k ln ⁡ ( k ! ) k ! . {\displaystyle \lambda [1\!-\!\ln(\lambda )]\!+\!\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\ln(k!)}{k!}}.} {\displaystyle \lambda [1\!-\!\ln(\lambda )]\!+\!\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\ln(k!)}{k!}}.}

Pour λ {\displaystyle \lambda } {\displaystyle \lambda } grand :

1 2 ln ⁡ ( 2 π e λ ) − 1 12 λ − 1 24 λ 2 − 19 360 λ 3 + O ( 1 λ 4 ) {\displaystyle \scriptstyle {\frac {1}{2}}\ln(2\pi \mathrm {e} \lambda )-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-{\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)} {\displaystyle \scriptstyle {\frac {1}{2}}\ln(2\pi \mathrm {e} \lambda )-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-{\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)}

Fonction génératrice des moments exp ⁡ ( λ ( e t − 1 ) ) {\displaystyle \exp(\lambda (\mathrm {e} ^{t}-1))} {\displaystyle \exp(\lambda (\mathrm {e} ^{t}-1))}
Fonction caractéristique exp ⁡ ( λ ( e i t − 1 ) ) {\displaystyle \exp(\lambda (\mathrm {e} ^{it}-1))\,} {\displaystyle \exp(\lambda (\mathrm {e} ^{it}-1))\,}
Fonction génératrice des probabilités exp ⁡ ( λ ( t − 1 ) ) {\displaystyle \exp(\lambda (t-1))} {\displaystyle \exp(\lambda (t-1))}
modifier 

En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent.

La loi de Poisson est également pertinente pour décrire le nombre d'événements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.

Généralités

[modifier | modifier le code]

Origine historique

[modifier | modifier le code]

La loi de Poisson a été introduite en 1837 par le mathématicien français Siméon Denis Poisson[1], dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné[3].

Exemple intuitif

[modifier | modifier le code]

La loi de Poisson s'applique à un décompte d'évènements par intervalle de temps (ou parfois par intervalle de longueur, etc.). À titre d'exemple, on peut considérer le nombre de voitures franchissant un point donné sur une route par période de T = dix minutes. Le paramètre λ est le nombre moyen attendu. Pour que la loi soit applicable, on considère que les évènements (les passages des voitures) sont indépendants. La loi ne s'appliquera donc plus si des voitures roulent ensemble, en convoi, ou s'il y a un embouteillage : à ce moment les voitures interagissent et leur passage n'est plus indépendant[4].

  • Le nombre de voitures qui passent sur le Golden Gate dans un laps de temps donné peut être modélisé par une loi de Poisson.
    Le nombre de voitures qui passent sur le Golden Gate dans un laps de temps donné peut être modélisé par une loi de Poisson.
  • 64 grains de riz ont été jetés sur une grille de 64 cases. Le nombre de grains par case suit une loi de Poisson, ʎ=1.
    64 grains de riz ont été jetés sur une grille de 64 cases. Le nombre de grains par case suit une loi de Poisson, ʎ=1.

Ecriture de la loi

[modifier | modifier le code]

Si le nombre moyen d'occurrences dans un intervalle de temps fixé est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2…) est[1] :

p ( k ) = P ( X = k ) = λ k k ! e − λ {\displaystyle p(k)=\mathbb {P} (X=k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }} {\displaystyle p(k)=\mathbb {P} (X=k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }}

où :

  • e est le nombre d'Euler (e ≈ 2,718)[1] ;
  • k! est la factorielle de k. Il correspond à la valeur étudiée ;
  • λ est un nombre réel strictement positif (λ > 0[note 1]). Il correspond à la moyenne théorique de l'échantillon et à sa variance[1].

On dit alors que X suit la loi de Poisson de paramètre λ, noté X ∼ P ⁡ ( λ ) {\displaystyle X\sim \operatorname {\mathcal {P}} \left(\lambda \right)} {\displaystyle X\sim \operatorname {\mathcal {P}} \left(\lambda \right)}[5].

Par exemple, si un certain type d'événements se produit en moyenne 2,1 fois par an, pour étudier le nombre d'événements se produisant l'an prochain, on choisit comme modèle une loi de Poisson de paramètre λ = 2,1[1].

Démonstration de l'écriture de p(k)

[modifier | modifier le code]

Par la loi binomiale

[modifier | modifier le code]

On peut trouver l'écriture de la loi de Poisson à partir de la loi binomiale. En reprenant les mêmes notations (la période de temps est notée T {\displaystyle T} {\displaystyle T}, l'espérance λ {\displaystyle \lambda } {\displaystyle \lambda }), on divise la période T {\displaystyle T} {\displaystyle T} en n {\displaystyle n} {\displaystyle n} « petites » périodes égales ( n > λ ) {\displaystyle (n>\lambda )} {\displaystyle (n>\lambda )}. En première approximation la probabilité p n {\displaystyle p_{n}} {\displaystyle p_{n}} d'avoir une occurrence de l'évènement pendant la période T / n {\displaystyle T/n} {\displaystyle T/n} vaut λ / n {\displaystyle \lambda /n} {\displaystyle \lambda /n}. On peut alors approximer p ( k ) {\displaystyle p(k)} {\displaystyle p(k)} par une loi binomiale : c'est la probabilité d'obtenir k {\displaystyle k} {\displaystyle k} succès sur les n {\displaystyle n} {\displaystyle n} essais :

B n ( k ) = ( n k ) × p n k × ( 1 − p n ) n − k = n ! k ! ( n − k ) ! × ( λ n ) k × ( 1 − λ n ) n − k {\displaystyle \mathrm {B} _{n}(k)={n \choose k}\times p_{n}^{k}\times (1-p_{n})^{n-k}={\frac {n!}{k!(n-k)!}}\times \left({\frac {\lambda }{n}}\right)^{k}\times \left(1-{\frac {\lambda }{n}}\right)^{n-k}} {\displaystyle \mathrm {B} _{n}(k)={n \choose k}\times p_{n}^{k}\times (1-p_{n})^{n-k}={\frac {n!}{k!(n-k)!}}\times \left({\frac {\lambda }{n}}\right)^{k}\times \left(1-{\frac {\lambda }{n}}\right)^{n-k}}

Ce n'est cependant qu'une approximation : en effet, il existe une probabilité non nulle que deux occurrences de l'évènement surviennent pendant la même période T / n {\displaystyle T/n} {\displaystyle T/n}, ce qui en l'état n'est pas pris en compte par le calcul. Néanmoins, si on fait tendre n {\displaystyle n} {\displaystyle n} vers l'infini, cette probabilité tend vers 0. La loi de Poisson se retrouve donc comme étant la limite du calcul ci-dessus pour n {\displaystyle n} {\displaystyle n} très grand[6].

Pour n {\displaystyle n} {\displaystyle n} très grand, n ! ( n − k ) ! {\displaystyle {\frac {n!}{(n-k)!}}} {\displaystyle {\frac {n!}{(n-k)!}}} devient équivalent à n k {\displaystyle n^{k}} {\displaystyle n^{k}}. On a donc, en plaçant en facteur n ! k ! ( n − k ) ! × ( λ n ) k ∼ n → + ∞ n k k ! × λ k n k = λ k k ! {\displaystyle {\frac {n!}{k!(n-k)!}}\times \left({\frac {\lambda }{n}}\right)^{k}{\underset {\overset {n\rightarrow +\infty }{}}{\sim }}{\frac {n^{k}}{k!}}\times {\frac {\lambda ^{k}}{n^{k}}}={\frac {\lambda ^{k}}{k!}}} {\displaystyle {\frac {n!}{k!(n-k)!}}\times \left({\frac {\lambda }{n}}\right)^{k}{\underset {\overset {n\rightarrow +\infty }{}}{\sim }}{\frac {n^{k}}{k!}}\times {\frac {\lambda ^{k}}{n^{k}}}={\frac {\lambda ^{k}}{k!}}} :

B n ( k ) ∼ n → + ∞ λ k k ! × ( 1 − λ n ) n − k = λ k k ! × ( 1 − λ n ) n × ( 1 − λ n ) − k {\displaystyle \mathrm {B} _{n}(k){\underset {\overset {n\rightarrow +\infty }{}}{\sim }}{\frac {\lambda ^{k}}{k!}}\times \left(1-{\frac {\lambda }{n}}\right)^{n-k}={\frac {\lambda ^{k}}{k!}}\times \left(1-{\frac {\lambda }{n}}\right)^{n}\times \left(1-{\frac {\lambda }{n}}\right)^{-k}} {\displaystyle \mathrm {B} _{n}(k){\underset {\overset {n\rightarrow +\infty }{}}{\sim }}{\frac {\lambda ^{k}}{k!}}\times \left(1-{\frac {\lambda }{n}}\right)^{n-k}={\frac {\lambda ^{k}}{k!}}\times \left(1-{\frac {\lambda }{n}}\right)^{n}\times \left(1-{\frac {\lambda }{n}}\right)^{-k}}

On fait appel à l'une des définitions possibles de la fonction exponentielle :

lim n → ∞ ( 1 − λ n ) n = e − λ {\displaystyle \lim _{n\to \infty }\left(1-{\frac {\lambda }{n}}\right)^{n}=\mathrm {e} ^{-\lambda }} {\displaystyle \lim _{n\to \infty }\left(1-{\frac {\lambda }{n}}\right)^{n}=\mathrm {e} ^{-\lambda }}

Par ailleurs, k {\displaystyle k} {\displaystyle k} étant constant :

lim n → ∞ ( 1 − λ n ) − k = 1 {\displaystyle \lim _{n\to \infty }\left(1-{\frac {\lambda }{n}}\right)^{-k}=1} {\displaystyle \lim _{n\to \infty }\left(1-{\frac {\lambda }{n}}\right)^{-k}=1}

On retrouve donc l'expression de la loi de Poisson[6] :

lim n → ∞ B n ( k ) = λ k k ! e − λ {\displaystyle \lim _{n\to \infty }\mathrm {B} _{n}(k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }} {\displaystyle \lim _{n\to \infty }\mathrm {B} _{n}(k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }}

Comme solution d'une équation différentielle, puis par récurrence

[modifier | modifier le code]

La calcul des valeurs peut aussi se faire de manière inductive en étudiant sur l'intervalle [0 ; T] les fonctions Fk(t), qui donnent la probabilité que l'événement se produise k fois sur l'intervalle de temps [0 ; t]. En utilisant la récurrence et du calcul différentiel, on parvient à retrouver les formules précédentes[7].

On garde les mêmes hypothèses de départ : en moyenne λ {\displaystyle \lambda } {\displaystyle \lambda } évènements pour t=1, évènements indépendants. Dans cette démarche, on note P ( k , t ) {\displaystyle P(k,t)} {\displaystyle P(k,t)} la probabilité qu'il y ait k occurences de l'évènement pendant la période [ 0 , t ] {\displaystyle [0,t]} {\displaystyle [0,t]}. On note aussi que la probabilité étant constante dans le temps, le point de départ noté t=0 est arbitraire, ainsi la probabilité d'obtenir n occurences dans la période [ t 0 , t 0 + Δ t ] {\displaystyle [t_{0},t_{0}+\Delta t]} {\displaystyle [t_{0},t_{0}+\Delta t]} ne dépend pas de t 0 {\displaystyle t_{0}} {\displaystyle t_{0}}, elle vaut P ( k , Δ t ) {\displaystyle P(k,\Delta t)} {\displaystyle P(k,\Delta t)}.

On s'intéresse à P ( k , t + Δ t ) {\displaystyle P(k,t+\Delta t)} {\displaystyle P(k,t+\Delta t)} Par indépendance, on a P ( k , t + Δ t ) = P ( k − 1 , t ) × P ( 1 , Δ t ) + P ( k − 1 , t ) × P ( 2 , Δ t ) + . . . + P ( 0 , t ) × P ( k , Δ t ) {\displaystyle P(k,t+\Delta t)=P(k-1,t)\times P(1,\Delta t)+P(k-1,t)\times P(2,\Delta t)+...+P(0,t)\times P(k,\Delta t)} {\displaystyle P(k,t+\Delta t)=P(k-1,t)\times P(1,\Delta t)+P(k-1,t)\times P(2,\Delta t)+...+P(0,t)\times P(k,\Delta t)} (on additionne toutes les combinaisons arrivant au total k). En prenant une valeur suffisamment petite de Δ t {\displaystyle \Delta t} {\displaystyle \Delta t}, la probabilité d'avoir deux occurences (ou plus) de l'évènement dans l'interval de temps supplémentaire devient négligeable. Le traitement de l'intervall Δ t {\displaystyle \Delta t} {\displaystyle \Delta t} se simplifie : P ( 0 , Δ t ) = 1 − λ {\displaystyle P(0,\Delta t)=1-\lambda } {\displaystyle P(0,\Delta t)=1-\lambda } et P ( 0 , Δ t ) = λ {\displaystyle P(0,\Delta t)=\lambda } {\displaystyle P(0,\Delta t)=\lambda }.

La relation se simplifie en P ( k , t + Δ t ) = P ( k , t ) × P ( 0 , Δ t ) + P ( k − 1 , t ) × P ( 1 , Δ t ) = P ( k , t ) × ( 1 − λ ) + λ Δ t {\displaystyle P(k,t+\Delta t)=P(k,t)\times P(0,\Delta t)+P(k-1,t)\times P(1,\Delta t)=P(k,t)\times (1-\lambda )+\lambda \Delta t} {\displaystyle P(k,t+\Delta t)=P(k,t)\times P(0,\Delta t)+P(k-1,t)\times P(1,\Delta t)=P(k,t)\times (1-\lambda )+\lambda \Delta t}.

De qui permet d'obtenir une équation différentielle : d P ( k , t ) d t = − λ P ( k , t ) + λ P ( k − 1 , t ) {\displaystyle {\frac {dP(k,t)}{dt}}=-\lambda P(k,t)+\lambda P(k-1,t)} {\displaystyle {\frac {dP(k,t)}{dt}}=-\lambda P(k,t)+\lambda P(k-1,t)}

Pour le cas n=0, on obtient d P ( 0 , t ) d t = λ P ( 0 , t ) {\displaystyle {\frac {dP(0,t)}{dt}}=\lambda P(0,t)} {\displaystyle {\frac {dP(0,t)}{dt}}=\lambda P(0,t)}, équation différentielle de premier ordre dont la solution est λ e − λ {\displaystyle \lambda \mathrm {e} ^{-\lambda }} {\displaystyle \lambda \mathrm {e} ^{-\lambda }}. Une fois connue l'expression pour k = 0 {\displaystyle k=0} {\displaystyle k=0}, on en déduit l'expression en k = 1 {\displaystyle k=1} {\displaystyle k=1}, et ainsi de suite. Ce processus itératif permet de retrouver l'expression générale de la loi de Poisson pour toute valeur de k.

Propriétés

[modifier | modifier le code]

Dans toute cette section, X est une variable aléatoire suivant une loi de Poisson de paramètre λ.

Moments et fonctions génératrices

[modifier | modifier le code]

Moments ordinaires

[modifier | modifier le code]

Le premier moment ordinaire, ou espérance, d'une loi de Poisson se calcule par la série entière de l'exponentielle[8],[9] :

E [ X ] = ∑ k = 0 + ∞ k P ( X = k ) = e − λ ∑ k = 1 + ∞ λ k ( k − 1 ) ! = λ e − λ ∑ k = 1 + ∞ λ k − 1 ( k − 1 ) ! = λ e − λ e λ = λ {\displaystyle {\begin{alignedat}{2}\mathbb {E} [X]&=\sum _{k=0}^{+\infty }kP(X=k)\\&=\mathrm {e} ^{-\lambda }\sum _{k=1}^{+\infty }{\lambda ^{k} \over (k-1)!}\\&=\lambda \mathrm {e} ^{-\lambda }\sum _{k=1}^{+\infty }{\lambda ^{k-1} \over (k-1)!}\\\\&=\lambda \mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda }\\&=\lambda \\\end{alignedat}}} {\displaystyle {\begin{alignedat}{2}\mathbb {E} [X]&=\sum _{k=0}^{+\infty }kP(X=k)\\&=\mathrm {e} ^{-\lambda }\sum _{k=1}^{+\infty }{\lambda ^{k} \over (k-1)!}\\&=\lambda \mathrm {e} ^{-\lambda }\sum _{k=1}^{+\infty }{\lambda ^{k-1} \over (k-1)!}\\\\&=\lambda \mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda }\\&=\lambda \\\end{alignedat}}}

Les trois moments ordinaires suivants de la loi de Poisson sont donnés par[10] :

E [ X 2 ] = λ ( 1 + λ ) E [ X 3 ] = λ ( 1 + 3 λ + λ 2 ) E [ X 4 ] = λ ( 1 + 7 λ + 6 λ 2 + λ 3 ) {\displaystyle {\begin{array}{lll}\mathbb {E} [X^{2}]&=&\lambda (1+\lambda )\\\mathbb {E} [X^{3}]&=&\lambda (1+3\lambda +\lambda ^{2})\\\mathbb {E} [X^{4}]&=&\lambda (1+7\lambda +6\lambda ^{2}+\lambda ^{3})\end{array}}} {\displaystyle {\begin{array}{lll}\mathbb {E} [X^{2}]&=&\lambda (1+\lambda )\\\mathbb {E} [X^{3}]&=&\lambda (1+3\lambda +\lambda ^{2})\\\mathbb {E} [X^{4}]&=&\lambda (1+7\lambda +6\lambda ^{2}+\lambda ^{3})\end{array}}}

On en déduit la variance et l'écart type[10] :

V ( X ) = λ σ ( X ) = λ {\displaystyle {\begin{array}{lll}V(X)&=&\lambda \\\sigma (X)&=&{\sqrt {\lambda }}\end{array}}} {\displaystyle {\begin{array}{lll}V(X)&=&\lambda \\\sigma (X)&=&{\sqrt {\lambda }}\end{array}}}

Plus généralement, le n-ième moment ordinaire d'une loi de Poisson de paramètre λ est E ( X n ) = ∑ k = 0 n S ( n , k ) λ k {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}} {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}}où S(n, k) est le nombre de Stirling de seconde espèce de paramètres n et k.

En particulier lorsque λ = 1, le n-ième moment de X correspond au n-ième nombre de Bell. En effet cela est une conséquence de la formule de Dobiński.

La borne suivante majore les moments d'une loi de Poisson[11] : E [ X k ] ≤ [ k ln ⁡ ( k / λ + 1 ) ] k ≤ λ k e k 2 2 λ {\displaystyle \mathbb {E} [X^{k}]\leq \left[{\frac {k}{\ln \left(k/\lambda +1\right)}}\right]^{k}\leq \lambda ^{k}\mathrm {e} ^{\frac {k^{2}}{2\lambda }}} {\displaystyle \mathbb {E} [X^{k}]\leq \left[{\frac {k}{\ln \left(k/\lambda +1\right)}}\right]^{k}\leq \lambda ^{k}\mathrm {e} ^{\frac {k^{2}}{2\lambda }}} Ils sont aussi reliés par la relation de récurrence[12] : E [ X n ] = λ E [ X n − 1 ] + λ ∂ E [ X n − 1 ] ∂ λ {\displaystyle \mathbb {E} [X^{n}]=\lambda \mathbb {E} [X^{n-1}]+\lambda {\frac {\partial \mathbb {E} [X^{n-1}]}{\partial \lambda }}} {\displaystyle \mathbb {E} [X^{n}]=\lambda \mathbb {E} [X^{n-1}]+\lambda {\frac {\partial \mathbb {E} [X^{n-1}]}{\partial \lambda }}}

Moments centrés

[modifier | modifier le code]

Les quatre premiers moments centrés d'une loi de Poisson sont donnés par[10],[12] :

E [ ( X − λ ) 2 ] = λ E [ ( X − λ ) 3 ] = λ E [ ( X − λ ) 4 ] = λ ( 1 + 3 λ ) E [ ( X − λ ) 5 ] = λ ( 1 + 10 λ ) {\displaystyle {\begin{array}{lll}\mathbb {E} [(X-\lambda )^{2}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{3}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{4}]&=&\lambda (1+3\lambda )\\\mathbb {E} [(X-\lambda )^{5}]&=&\lambda (1+10\lambda )\end{array}}} {\displaystyle {\begin{array}{lll}\mathbb {E} [(X-\lambda )^{2}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{3}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{4}]&=&\lambda (1+3\lambda )\\\mathbb {E} [(X-\lambda )^{5}]&=&\lambda (1+10\lambda )\end{array}}}

On en déduit l'asymétrie et le kurtosis normalisé :

γ 1 ( X ) = 1 / λ γ 2 ( X ) = 1 / λ {\displaystyle {\begin{array}{lll}\gamma _{1}(X)&=&1/{\sqrt {\lambda }}\\\gamma _{2}(X)&=&1/\lambda \end{array}}} {\displaystyle {\begin{array}{lll}\gamma _{1}(X)&=&1/{\sqrt {\lambda }}\\\gamma _{2}(X)&=&1/\lambda \end{array}}}

On a la relation de récurrence[12] : E [ ( X − λ ) n + 1 ] = n λ E [ ( X − λ ) n − 1 ] + λ ∂ E [ ( X − λ ) n ] ∂ λ {\displaystyle \mathbb {E} [(X-\lambda )^{n+1}]=n\lambda \mathbb {E} [(X-\lambda )^{n-1}]+\lambda {\frac {\partial \mathbb {E} [(X-\lambda )^{n}]}{\partial \lambda }}} {\displaystyle \mathbb {E} [(X-\lambda )^{n+1}]=n\lambda \mathbb {E} [(X-\lambda )^{n-1}]+\lambda {\frac {\partial \mathbb {E} [(X-\lambda )^{n}]}{\partial \lambda }}}

Moments factoriels

[modifier | modifier le code]

Le r-ième moment factoriel d'une loi de Poisson est

E ( ( X ) r ) = λ r {\displaystyle \mathbb {E} ((X)_{r})=\lambda ^{r}} {\displaystyle \mathbb {E} ((X)_{r})=\lambda ^{r}}

où ( x ) r = x ( x − 1 ) … ( x − r + 1 ) {\displaystyle (x)_{r}=x(x-1)\dots (x-r+1)} {\displaystyle (x)_{r}=x(x-1)\dots (x-r+1)} désigne la factorielle décroissante.

Fonction génératrice des probabilités

[modifier | modifier le code]

La fonction génératrice des probabilités d'une loi de Poisson est[8] :

G X ( t ) ≡ E ( t X ) = e λ ( t − 1 ) . {\displaystyle G_{X}(t)\equiv \mathbb {E} (t^{X})=\mathrm {e} ^{\lambda (t-1)}.} {\displaystyle G_{X}(t)\equiv \mathbb {E} (t^{X})=\mathrm {e} ^{\lambda (t-1)}.}

Fonction génératrice des moments

[modifier | modifier le code]

La fonction génératrice des moments d'une loi de Poisson est[13] :

M X ( t ) ≡ E ( e t X ) = e λ ( e t − 1 ) . {\displaystyle M_{X}(t)\equiv \mathbb {E} (\mathrm {e} ^{tX})=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.} {\displaystyle M_{X}(t)\equiv \mathbb {E} (\mathrm {e} ^{tX})=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.}

On reconnaît la série génératrice des polynômes de Touchard : autrement dit, le n {\displaystyle n} {\displaystyle n}-ième moment E ( X n ) {\displaystyle \mathbb {E} (X^{n})} {\displaystyle \mathbb {E} (X^{n})} est T n ( λ ) {\displaystyle T_{n}(\lambda )} {\displaystyle T_{n}(\lambda )}.

Démonstration

Soit X une variable aléatoire suivant une loi de poisson de paramètre λ. On rappelle que par définition P ( X = k ) = e − λ λ k k ! {\displaystyle \mathbb {P} (X=k)=\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}} {\displaystyle \mathbb {P} (X=k)=\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}}.

Espérance

E ( X ) = ∑ k = 1 ∞ k P ( X = k ) = ∑ k = 1 ∞ k e − λ λ k k ! = e − λ ∑ k = 1 ∞ λ k ( k − 1 ) ! = λ e − λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! ( on reconnaît le développement en série entière de  e λ ) = λ e − λ e λ = λ . {\displaystyle {\begin{aligned}\mathbb {E} (X)&=\sum _{k=1}^{\infty }k\,\mathbb {P} (X=k)\\&=\sum _{k=1}^{\infty }k\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k}}{(k-1)!}}\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\mathrm {e} ^{\lambda }\\&=\lambda .\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {E} (X)&=\sum _{k=1}^{\infty }k\,\mathbb {P} (X=k)\\&=\sum _{k=1}^{\infty }k\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k}}{(k-1)!}}\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\mathrm {e} ^{\lambda }\\&=\lambda .\end{aligned}}}

Variance

V ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = ∑ k = 1 ∞ k 2 P ( X = k ) − λ 2 = ∑ k = 1 ∞ k 2 e − λ λ k k ! − λ 2 = λ e − λ ∑ k = 1 ∞ k λ k − 1 ( k − 1 ) ! − λ 2 = λ e − λ ∑ k = 1 ∞ d d λ λ k ( k − 1 ) ! − λ 2 ( la série entière ayant un rayon de convergence infini, = λ e − λ d d λ ∑ k = 1 ∞ λ k ( k − 1 ) ! − λ 2 on peut inverser la sommation et la dérivation ) = λ e − λ d d λ [ λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! ] − λ 2 ( on reconnaît le développement en série entière de  e λ ) = λ e − λ d d λ [ λ e λ ] − λ 2 = λ e − λ ( λ + 1 ) e λ − λ 2 = λ ( λ + 1 ) − λ 2 = λ . {\displaystyle {\begin{aligned}V(X)&=\mathbb {E} (X^{2})-(\mathbb {E} (X))^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathbb {P} (X=k)-\lambda ^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {k\lambda ^{k-1}}{(k-1)!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {d}{d\lambda }}{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad ({\text{la série entière ayant un rayon de convergence infini,}}\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\sum _{k=1}^{\infty }\,{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad {\text{on peut inverser la sommation et la dérivation}})\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\left[\lambda \sum _{k=1}^{\infty }\,{\frac {\lambda ^{k-1}}{(k-1)!}}\right]-\lambda ^{2}&\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}[\lambda \,\mathrm {e} ^{\lambda }]-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }(\lambda +1)\,\mathrm {e} ^{\lambda }-\lambda ^{2}&\\&=\lambda \,(\lambda +1)-\lambda ^{2}&\\&=\lambda .&\end{aligned}}} {\displaystyle {\begin{aligned}V(X)&=\mathbb {E} (X^{2})-(\mathbb {E} (X))^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathbb {P} (X=k)-\lambda ^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {k\lambda ^{k-1}}{(k-1)!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {d}{d\lambda }}{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad ({\text{la série entière ayant un rayon de convergence infini,}}\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\sum _{k=1}^{\infty }\,{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad {\text{on peut inverser la sommation et la dérivation}})\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\left[\lambda \sum _{k=1}^{\infty }\,{\frac {\lambda ^{k-1}}{(k-1)!}}\right]-\lambda ^{2}&\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}[\lambda \,\mathrm {e} ^{\lambda }]-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }(\lambda +1)\,\mathrm {e} ^{\lambda }-\lambda ^{2}&\\&=\lambda \,(\lambda +1)-\lambda ^{2}&\\&=\lambda .&\end{aligned}}}

Fonction génératrice

On rappelle que la fonction génératrice de X est définie par G X ( t ) = E ( t X ) {\displaystyle G_{X}(t)=\mathbb {E} (t^{X})} {\displaystyle G_{X}(t)=\mathbb {E} (t^{X})}. Ainsi on obtient :

E ( t X ) = ∑ k = 0 ∞ t k P ( X = k ) = ∑ k = 0 ∞ t k e − λ λ k k ! = e − λ ∑ k = 0 ∞ t k λ k k ! = e − λ ∑ k = 0 ∞ ( t λ ) k k ! ( on reconnaît le développement en série entière de  e t λ ) = e − λ e t λ = e λ ( t − 1 ) . {\displaystyle {\begin{aligned}\mathbb {E} (t^{X})&=\sum _{k=0}^{\infty }t^{k}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }t^{k}\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }t^{k}{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(t\lambda )^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{t\lambda })\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{t\lambda }\\&=\mathrm {e} ^{\lambda (t-1)}.\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {E} (t^{X})&=\sum _{k=0}^{\infty }t^{k}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }t^{k}\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }t^{k}{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(t\lambda )^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{t\lambda })\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{t\lambda }\\&=\mathrm {e} ^{\lambda (t-1)}.\end{aligned}}}

Fonction génératrice des moments

On rappelle que la fonction génératrice des moments de X est définie par M X ( t ) = E ( e t X ) {\displaystyle M_{X}(t)=\mathbb {E} (\mathrm {e} ^{tX})} {\displaystyle M_{X}(t)=\mathbb {E} (\mathrm {e} ^{tX})}. Ainsi on obtient :

M X ( t ) = ∑ k = 0 ∞ e t k P ( X = k ) = ∑ k = 0 ∞ e t k λ k k ! e − λ = e − λ ∑ k = 0 ∞ ( λ e t ) k k ! ( on reconnaît le développement en série entière de  e x  évalué en  x = λ e t ) = e − λ e λ e t = e λ ( e t − 1 ) . {\displaystyle {\begin{aligned}M_{X}(t)&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}{\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(\lambda \,\mathrm {e} ^{t})^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{x}{\text{ évalué en }}x=\lambda \mathrm {e} ^{t})\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda \,\mathrm {e} ^{t}}\\&=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.\end{aligned}}} {\displaystyle {\begin{aligned}M_{X}(t)&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}{\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(\lambda \,\mathrm {e} ^{t})^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{x}{\text{ évalué en }}x=\lambda \mathrm {e} ^{t})\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda \,\mathrm {e} ^{t}}\\&=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.\end{aligned}}}

Moments factoriels

E ( ( X ) r ) = e − λ ∑ k = r ∞ k ! ( k − r ) ! λ k k ! = λ r e − λ ∑ k = r ∞ λ k − r ( k − r ) ! = λ r e − λ ∑ k = 0 ∞ λ k k ! = λ r . {\displaystyle {\begin{aligned}\mathbb {E} ((X)_{r})&=\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {k!}{(k-r)!}}{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {\lambda ^{k-r}}{(k-r)!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}.\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {E} ((X)_{r})&=\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {k!}{(k-r)!}}{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {\lambda ^{k-r}}{(k-r)!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}.\end{aligned}}}

Moments

Les nombres de Stirling de seconde espèce vérifient la relation

X n = ∑ k = 0 n S ( n , k ) ( X ) k {\displaystyle X^{n}=\sum _{k=0}^{n}S(n,k)(X)_{k}} {\displaystyle X^{n}=\sum _{k=0}^{n}S(n,k)(X)_{k}}.

Ainsi, en utilisant la formule des moments factoriels d'une loi de Poisson ainsi que la linéarité de l'espérance on conclut que

E ( X n ) = ∑ k = 0 n S ( n , k ) λ k {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}} {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}}.

Diagramme en bâton

[modifier | modifier le code]

Comme toute loi de probabilité discrète, la fonction de masse d'une loi de Poisson peut être représentée par un diagramme en bâtons. Ci-dessous sont représentés les fonctions de masse (bleu) et les fonctions de répartition (rouge) des lois de Poisson de paramètres λ = 1 ; 2 ; 3,4 et 6.

Lorsque le paramètre λ de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bâton est proche de l'histogramme d'une loi normale d'espérance et de variance égales à λ (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale (pour lesquelles des tables de valeurs étaient largement disponibles) en lieu et place de la loi de Poisson dans certains tests[14].

Stabilité de la loi de Poisson par la somme

[modifier | modifier le code]

Si les variables {Xi}i=1,...,n sont indépendantes et suivent une loi de Poisson de paramètres respectifs λi, alors leur somme Y suit une loi de Poisson de paramètre la somme des λi[8] :

Y = ( ∑ i = 1 n X i ) ∼ P ⁡ ( ∑ i = 1 n λ i ) {\displaystyle Y=\left(\sum _{i=1}^{n}X_{i}\right)\sim \operatorname {\mathcal {P}} \left(\sum _{i=1}^{n}\lambda _{i}\right)} {\displaystyle Y=\left(\sum _{i=1}^{n}X_{i}\right)\sim \operatorname {\mathcal {P}} \left(\sum _{i=1}^{n}\lambda _{i}\right)}
Démonstration

On montre le cas n = 2, les cas supérieurs se déduisent par récurrence.

On rappelle que P ( X 1 = n ) = λ 1 n n ! e − λ 1  et  P ( X 2 = n ) = λ 2 n n ! e − λ 2 . {\displaystyle \mathbb {P} (X_{1}=n)={\frac {{\lambda _{1}}^{n}}{n!}}\mathrm {e} ^{-\lambda _{1}}{\text{ et }}\mathbb {P} (X_{2}=n)={\frac {{\lambda _{2}}^{n}}{n!}}\mathrm {e} ^{-{\lambda _{2}}}.} {\displaystyle \mathbb {P} (X_{1}=n)={\frac {{\lambda _{1}}^{n}}{n!}}\mathrm {e} ^{-\lambda _{1}}{\text{  et  }}\mathbb {P} (X_{2}=n)={\frac {{\lambda _{2}}^{n}}{n!}}\mathrm {e} ^{-{\lambda _{2}}}.} On a alors P ( X + Y = n ) = ∑ k = 0 n P ( { X 1 = k } ∩ { X 2 = n − k } ) = ∑ k = 0 n P ( X 1 = k ) P ( X 2 = n − k ) = ∑ k = 0 n λ 1 k k ! e − λ 1 ⋅ λ 2 n − k ( n − k ) ! e − λ 2 = e − λ 1 e − λ 2 n ! ∑ k = 0 n n ! k ! ( n − k ) ! λ 1 k λ 2 n − k = e − ( λ 1 + λ 2 ) n ! ( λ 1 + λ 2 ) n {\displaystyle {\begin{aligned}\mathbb {P} (X+Y=n)&=\sum _{k=0}^{n}\mathbb {P} (\{X_{1}=k\}\cap \{X_{2}=n-k\})=\sum _{k=0}^{n}\mathbb {P} (X_{1}=k)\mathbb {P} (X_{2}=n-k)\\&=\sum _{k=0}^{n}{\frac {\lambda _{1}^{k}}{k!}}\mathrm {e} ^{-\lambda _{1}}\cdot {\frac {\lambda _{2}^{n-k}}{(n-k)!}}\mathrm {e} ^{-\lambda _{2}}\\&={\frac {\mathrm {e} ^{-\lambda _{1}}\mathrm {e} ^{-\lambda _{2}}}{n!}}\sum _{k=0}^{n}{\frac {n!}{k!(n-k)!}}\lambda _{1}^{k}\lambda _{2}^{n-k}={\frac {\mathrm {e} ^{-(\lambda _{1}+\lambda _{2})}}{n!}}(\lambda _{1}+\lambda _{2})^{n}\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {P} (X+Y=n)&=\sum _{k=0}^{n}\mathbb {P} (\{X_{1}=k\}\cap \{X_{2}=n-k\})=\sum _{k=0}^{n}\mathbb {P} (X_{1}=k)\mathbb {P} (X_{2}=n-k)\\&=\sum _{k=0}^{n}{\frac {\lambda _{1}^{k}}{k!}}\mathrm {e} ^{-\lambda _{1}}\cdot {\frac {\lambda _{2}^{n-k}}{(n-k)!}}\mathrm {e} ^{-\lambda _{2}}\\&={\frac {\mathrm {e} ^{-\lambda _{1}}\mathrm {e} ^{-\lambda _{2}}}{n!}}\sum _{k=0}^{n}{\frac {n!}{k!(n-k)!}}\lambda _{1}^{k}\lambda _{2}^{n-k}={\frac {\mathrm {e} ^{-(\lambda _{1}+\lambda _{2})}}{n!}}(\lambda _{1}+\lambda _{2})^{n}\end{aligned}}}

L'indépendance a été utilisée à la 2e égalité. La dernière égalité est obtenue via la formule du binôme de Newton.

Bornes de queue

[modifier | modifier le code]

Un argument de type borne de Chernoff permet de déduire des bornes de queue suivantes, c'est-à-dire de valeurs majorant la probabilité que X s'éloigne de l'espérence au delà d'un x fixé[15] :

P ( X ≥ x ) ≤ e − λ ( e λ ) x x x {\displaystyle \mathbb {P} (X\geq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} {\displaystyle \mathbb {P} (X\geq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} pour tout x > λ et
P ( X ≤ x ) ≤ e − λ ( e λ ) x x x {\displaystyle \mathbb {P} (X\leq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} {\displaystyle \mathbb {P} (X\leq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} pour tout x < λ.

Ces bornes peuvent se réécrire de la manière suivante[16]

P ( X ≥ x + λ ) ≤ e − x 2 2 λ h ( x λ ) {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}} {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}} pour tout x > 0 et
P ( X ≤ − x + λ ) ≤ e − x 2 2 λ h ( − x λ ) {\displaystyle \mathbb {P} (X\leq -x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left(-{\frac {x}{\lambda }}\right)}} {\displaystyle \mathbb {P} (X\leq -x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left(-{\frac {x}{\lambda }}\right)}} pour tout λ > x > 0

où h ( u ) := 2 ( 1 + u ) ln ⁡ ( 1 + u ) − u u 2 {\displaystyle h(u):=2{\frac {(1+u)\ln(1+u)-u}{u^{2}}}} {\displaystyle h(u):=2{\frac {(1+u)\ln(1+u)-u}{u^{2}}}} pour tout u ≥ − 1 {\displaystyle u\geq -1} {\displaystyle u\geq -1}. Ces dernières bornes impliquent en particulier la borne suivante[16] (qui est plus faible mais plus agréable à manipuler)

P ( | X − λ | ≥ x ) ≤ 2 e − x 2 2 ( λ + x ) {\displaystyle \mathbb {P} (|X-\lambda |\geq x)\leq 2\mathrm {e} ^{-{\frac {x^{2}}{2(\lambda +x)}}}} {\displaystyle \mathbb {P} (|X-\lambda |\geq x)\leq 2\mathrm {e} ^{-{\frac {x^{2}}{2(\lambda +x)}}}}.

La borne supérieure donnée par Chernoff peut être améliorée d'un facteur 2 au moins[17]

P ( X ≥ x + λ ) ≤ e − x 2 2 λ h ( x λ ) max { 2 , 2 π x 2 λ h ( x λ ) } {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq {\frac {\mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}}{\max \left\{2,{\sqrt {{\frac {2\pi x^{2}}{\lambda }}h\left({\frac {x}{\lambda }}\right)}}\right\}}}} {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq {\frac {\mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}}{\max \left\{2,{\sqrt {{\frac {2\pi x^{2}}{\lambda }}h\left({\frac {x}{\lambda }}\right)}}\right\}}}} pour tout x > 0.

Il est à noter que la fonction h est liée à la divergence de Kullback-Leibler entre une loi de Poisson de paramètre x + λ et une loi de Poisson de paramètre λ. En effet on a la relation

D K L ( x + λ | | λ ) = ( x + λ ) ln ⁡ ( x λ + 1 ) − x = x 2 2 λ h ( x λ ) {\displaystyle D_{KL}(x+\lambda ||\lambda )=(x+\lambda )\ln \left({\frac {x}{\lambda }}+1\right)-x={\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)} {\displaystyle D_{KL}(x+\lambda ||\lambda )=(x+\lambda )\ln \left({\frac {x}{\lambda }}+1\right)-x={\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}.

Estimation du paramètre λ

[modifier | modifier le code]

L'estimateur par maximum de vraisemblance du paramètre λ d'un échantillon issu d'une loi de Poisson est la moyenne empirique. C'est un estimateur convergent, sans biais, efficace, complet, exhaustif.

Simulation

[modifier | modifier le code]

Un algorithme simple pour simuler la loi de Poisson consiste à utiliser le résultat suivant :

Théorème — Soit (Ei)i ≥ 1 une suite de variables aléatoires indépendantes et de même loi exponentielle de paramètre λ. On pose S1 = E1 et pour n ≥ 2, Sn = E1 + ... + En. On a alors :

∀ n ⩾ 1 ,   P ( S n ⩽ 1 < S n + 1 ) = λ n n ! e − λ {\displaystyle \forall n\geqslant 1,\ \mathbb {P} (S_{n}\leqslant 1<S_{n+1})={\frac {\lambda ^{n}}{n!}}\mathrm {e} ^{-\lambda }} {\displaystyle \forall n\geqslant 1,\ \mathbb {P} (S_{n}\leqslant 1<S_{n+1})={\frac {\lambda ^{n}}{n!}}\mathrm {e} ^{-\lambda }}

La méthode de la transformée inverse permet de donner une façon simple de générer un tirage aléatoire suivant une loi exponentielle :

Si U suit une loi uniforme sur [0 ; 1], alors E = –1/λln(U) suit une loi exponentielle de paramètre λ.

En générant les E i {\displaystyle E_{i}} {\displaystyle E_{i}} par l'intermédiaire de variables aléatoires U i ∼ U [ 0 , 1 ] {\displaystyle U_{i}\sim {\mathcal {U}}[0,1]} {\displaystyle U_{i}\sim {\mathcal {U}}[0,1]}, On a ainsi S n = − 1 λ ln ⁡ ( ∏ i = 1 n U i ) {\textstyle S_{n}=-{\frac {1}{\lambda }}\ln \left(\prod _{i=1}^{n}U_{i}\right)} {\textstyle S_{n}=-{\frac {1}{\lambda }}\ln \left(\prod _{i=1}^{n}U_{i}\right)} et, en notant P n := ∏ i = 1 n U i , n ≥ 1 {\textstyle P_{n}:=\prod _{i=1}^{n}U_{i},n\geq 1} {\textstyle P_{n}:=\prod _{i=1}^{n}U_{i},n\geq 1} : S n ≤ 1 < S n + 1 ⇔ P n ≥ e − λ > P n + 1 ∀ n ∈ N ∗ {\textstyle S_{n}\leq 1<S_{n+1}\Leftrightarrow P_{n}\geq \mathrm {e} ^{-\lambda }>P_{n+1}\;\forall n\in \mathbb {N} ^{*}} {\textstyle S_{n}\leq 1<S_{n+1}\Leftrightarrow P_{n}\geq \mathrm {e} ^{-\lambda }>P_{n+1}\;\forall n\in \mathbb {N} ^{*}}

L'algorithme peut ainsi se simplifier en :

  • k ← 0, p ← 1
  • tant que p > e–λ
    • on tire u selon un tirage aléatoire uniforme sur [0 ; 1]
    • p ← p×u
    • k ← k+1
  • on renvoie k – 1

Lien avec d'autres lois de probabilités

[modifier | modifier le code]
  • Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres respectifs λ et μ, alors X – Y est une variable aléatoire qui suit une loi de Skellam de paramètres (λ,μ).
  • Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres λ et μ, alors la loi conditionnelle de X sachant X + Y est une loi binomiale.
  • Pour de grandes valeurs de λ, on peut approcher la loi de Poisson par la loi normale de moyenne λ et de variance λ.

Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli, la rareté des événements se traduisant par le fait que les paramètres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible). Le lien entre la loi de Poisson et les événements rares peut alors s'énoncer ainsi :

Paradigme de Poisson — La somme S n {\displaystyle S_{n}} {\displaystyle S_{n}} d'un grand nombre de variables de Bernoulli indépendantes de petit paramètre converge en loi vers la loi de Poisson de paramètre E [ S n ] . {\displaystyle \mathbb {E} [S_{n}].} {\displaystyle \mathbb {E} [S_{n}].}

L'inégalité de Le Cam précise le paradigme de Poisson : soit X 1 , n , X 2 , n , … , X a n , n   {\displaystyle X_{1,n},X_{2,n},\dots ,X_{a_{n},n}\ } {\displaystyle X_{1,n},X_{2,n},\dots ,X_{a_{n},n}\ } un tableau de variables aléatoires de Bernoulli indépendantes, avec paramètres respectifs pk,n. On note

S n = ∑ k = 1 a n X k , n et λ n   =   E [ S n ] = ∑ k = 1 a n p k , n .   {\displaystyle S_{n}=\sum _{k=1}^{a_{n}}\,X_{k,n}\quad {\text{et}}\quad \lambda _{n}\ =\ \mathbb {E} [S_{n}]=\sum _{k=1}^{a_{n}}\,p_{k,n}.\ } {\displaystyle S_{n}=\sum _{k=1}^{a_{n}}\,X_{k,n}\quad {\text{et}}\quad \lambda _{n}\ =\ \mathbb {E} [S_{n}]=\sum _{k=1}^{a_{n}}\,p_{k,n}.\ }

Inégalité de Le Cam[18] — Pour tout ensemble A d'entiers naturels,
| P ( S n ∈ A ) − ∑ k ∈ A λ n k e − λ n k ! |   ≤   ∑ k = 1 a n p k , n 2 . {\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\sum _{k\in A}\,{\frac {\lambda _{n}^{k}\,\mathrm {e} ^{-\lambda _{n}}}{k!}}\right|\ \leq \ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.} {\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\sum _{k\in A}\,{\frac {\lambda _{n}^{k}\,\mathrm {e} ^{-\lambda _{n}}}{k!}}\right|\ \leq \ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.}

En particulier, si les deux conditions suivantes sont réunies :

  • lim n λ n = λ > 0 ,   {\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ } {\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ }
  • lim n ∑ k = 1 a n p k , n 2 = 0 ,   {\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0,\ } {\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0,\ }

alors Sn converge en loi vers la loi de Poisson de paramètre λ.

Dans l'énoncé du paradigme de Poisson, on fait deux hypothèses (vagues) sur les termes d'une somme Sn de variables de Bernoulli :

  • les paramètres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entraînent que

lim n ( max 1 ≤ k ≤ a n p k , n ) = 0 ,   {\displaystyle \lim _{n}\,\left(\max _{1\leq k\leq a_{n}}\,p_{k,n}\right)\,=\,0,\ } {\displaystyle \lim _{n}\,\left(\max _{1\leq k\leq a_{n}}\,p_{k,n}\right)\,=\,0,\ } ce qui reformule l'hypothèse « les paramètres des variables de Bernoulli sont petits » de manière plus précise ;

  • il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :

lim n a n = + ∞ .   {\displaystyle \lim _{n}a_{n}\,=\,+\infty .\ } {\displaystyle \lim _{n}a_{n}\,=\,+\infty .\ }

Remarques :
  • Ce paradigme reste pertinent, dans certaines conditions, si l'on relaxe l'hypothèse d'indépendance[19].
    • Un exemple frappant est le nombre de points fixes d'une permutation tirée au hasard.
    • Un autre exemple est le nombre de points isolés du graphe aléatoire, dont la convergence vers la loi de Poisson a permis à Erdös et Rényi de démontrer, en 1960, le théorème double-exponentiel.
  • Le cas particulier an = n, pk,n = λ/n, λn = λ, de l'inégalité de Le Cam, précise la rapidité de convergence de la loi binomiale de paramètres n et λ/n vers la loi de Poisson de paramètre λ.

Domaines d'application

[modifier | modifier le code]

Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz). Mais, depuis la fin du XXe siècle, son champ d'application s'est considérablement élargi[20].

En sciences physiques

[modifier | modifier le code]

La loi de Poisson est utilisée pour prédire la fréquence des évènements de désintégration radioactive d'un isotope instable, par exemple dans le contexte de la médecine nucléaire. Elle présente des limites dans le cas d'isotopes à courte durée de vie, mais constitue une excellante approximation dans presque tous les cas pratiques[21].

Dans les télécommunications

[modifier | modifier le code]

On l'utilise beaucoup dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné)[22], le contrôle de qualité statistique (nombre de défauts en maîtrise statistique des procédés)[23].

En biologie

[modifier | modifier le code]

En biologie, la loi de poisson est utilisée prédire l'occurence mutations génétiques dans l'expérience de Luria et Delbrück[24], ou nombre de potentiels d'actions émis par un neurone en neurosciences).

En finances et commerce

[modifier | modifier le code]

Elle est utilisée pour modéliser la probabilité de défaut d'un crédit, ou pour le yield management des compagnies aériennes[25].

Autres domaines

[modifier | modifier le code]

La loi de Poisson est également utilisable dans le cadre sportif. Elle peut être utilisée afin d'effectuer des prédictions statistiques sur le nombre de buts inscrits lors d'un match. Les probabilités issues de ce modèle permettent aux bookmakers de définir leurs cotes[26].

En littérature

[modifier | modifier le code]

Dans le roman de Thomas Pynchon, L'Arc-en-ciel de la gravité, un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la Seconde Guerre mondiale[27].

Dans le roman Jurassic Park de Michael Crichton, le mathématicien Ian Malcolm utilise la loi de Poisson pour modéliser la démographie d'un groupe de dinosaures et ainsi démontrer qu'il y a une anomalie dans le contrôle des naissances dans le parc[28].

Notes et références

[modifier | modifier le code]

Notes

[modifier | modifier le code]
  1. ↑ a et b Avec les conventions habituelles 0! = 1 et 00 = 1, la définition de la loi de Poisson s'étend à λ = 0 : on trouve alors p(0) = 1 et, dès que k > 0, p(k) = 0. Ainsi une variable aléatoire nulle presque sûrement peut être vue comme suivant la loi de Poisson de paramètre 0. Cette convention est cohérente avec les propriétés essentielles de la loi de Poisson de paramètre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'étude des processus ponctuels de Poisson.

Références

[modifier | modifier le code]
  1. ↑ a b c d et e (en) Therese Donovan et Ruth Mickey, Bayesian Statistics for Beginners : a step-by-step approach, Oxford University Press, 2019 (ISBN 9780191876820, lire en ligne Accès libre), p. 151-153
  2. ↑ Siméon-Denis Poisson, Recherches sur la probabilité des jugements en matière criminelle et en matière civile ; précédées des Règles générales du calcul des probabilités sur Gallica, 1837, passage 81, p. 205.
  3. ↑ (en) Andrew I. Dale, A History of Inverse Probability: From Thomas Bayes to Karl Pearson, Springer New York, coll. « Sources and Studies in the History of Mathematics and Physical Sciences Ser », 1999 (ISBN 978-1-4419-8652-8), p. 572
  4. ↑ Christophe Fiszka et Adrien Sirieys, Maths appliquées - Info - ECG-1: Cours détaillé, méthodes et exercices corrigés, Editions Ellipses, 11 octobre 2022 (ISBN 978-2-340-07432-3, lire en ligne), p. 597
  5. ↑ Céline Chevalier, « Lois de probabilité usuelles (rappels) » Accès libre [PDF]
  6. ↑ a et b Éric Parent et Jacques Bernier, Le raisonnement bayésien: modélisation et interférence, Springer, coll. « Collection Statistique et probabilités appliquées », 2007 (ISBN 978-2-287-33906-6), p. 76
  7. ↑ Voir par exemple, Michel Henry, Autour de la modélisation en probabilités, Presses universitaires de Franche-Comté, 2001 (présentation en ligne), p. 229-231 ou encore ces notes de cours.
  8. ↑ a b et c Jean-Pierre Lecoutre, Statistique et probabilités, Dunod, 2023, 7e éd. (ISBN 978-2-10-078854-5, lire en ligne), chap. 3 (« Lois usuelles »)
  9. ↑ (en) John Gubner, Probability and Random Processes for Electrical and Computer Engineers, Cambridge University Press, 2006 (lire en ligne Accès payant), p. 82
  10. ↑ a b et c (en) Eric W Weisstein, « Poisson Distribution », sur mathworld.wolfram.com
  11. ↑ (en) D Ahle Thomas, « Sharp and Simple Bounds for the raw Moments of the Binomial and Poisson Distributions », 2021.
  12. ↑ a b et c (en) Norman L Johnson, Adrienne W Kemp et Samuel Kotz, Univariate Discrete Distributions, Wiley, 2005, 3e éd. (ISBN 978-0-471-27246-5, lire en ligne), p. 162
  13. ↑ Quentin Berger et Shen Lin, « Introduction aux probabilités » Accès libre [PDF], sur université Sorbonne-Paris-Nord, p. 103
  14. ↑ Dominique Foata et Jacques Franchi, Calcul des probabilités - 3e éd: Cours, exercices et problèmes corrigés, Dunod, 29 août 2022 (ISBN 978-2-10-084980-2, lire en ligne), p. 242
  15. ↑ (en) Michael Mitzenmacher et Eli Upfal, Probability and Computing: Randomized Algorithms and Probabilistic Analysis, Cambridge UK, Cambridge University Press, 2005 (ISBN 978-0-521-83540-4, lire en ligne), p. 97
  16. ↑ a et b (en) « A short note on Poisson tail bounds »
  17. ↑ (en) Michael Short, « Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions », International Scholarly Research Notices, vol. 2013,‎ 2013 (DOI https://doi.org/10.1155/2013/412958, lire en ligne)
  18. ↑ (en) L. Le Cam, « An Approximation Theorem for the Poisson Binomial Distribution », Pacific Journal of Mathematics, vol. 10, no 4,‎ 1960, p. 1181–1197 (lire en ligne, consulté le 13 mai 2009).
  19. ↑ (en) A. D. Barbour, L. Holst et S. Janson, Poisson approximation, Oxford, The Clarendon Press Oxford University Press, 1992, 277 p. (ISBN 0-19-852235-5).
  20. ↑ (de) Ladislaus Bortkiewicz, Das Gesetz der kleinen Zahlen, 1898 (lire en ligne), p. 23.
  21. ↑ (en) Arkadiusz Sitek et Anna M. Celler, « Limitations of Poisson statistics in describing radioactive decay », Physica Medica, vol. 31, no 8,‎ décembre 2015, p. 1105–1107 (DOI 10.1016/j.ejmp.2015.08.015, lire en ligne, consulté le 26 janvier 2026)
  22. ↑ (en) T. C. Brown et P. K. Pollett, « Poisson approximations for telecommunications networks », The Journal of the Australian Mathematical Society. Series B. Applied Mathematics, vol. 32, no 3,‎ janvier 1991, p. 348–364 (ISSN 0334-2700 et 1839-4078, DOI 10.1017/S0334270000006913, lire en ligne, consulté le 2 février 2025)
  23. ↑ (en) Arkadiusz Sitek et Anna M. Celler, « Limitations of Poisson statistics in describing radioactive decay », Physica Medica, vol. 31, no 8,‎ 1er décembre 2015, p. 1105–1107 (ISSN 1120-1797, DOI 10.1016/j.ejmp.2015.08.015, lire en ligne, consulté le 2 février 2025)
  24. ↑ (en) Philip M Meneely, « Pick Your Poisson: An Educational Primer for Luria and Delbrück’s Classic Paper », Genetics, vol. 202, no 2,‎ 1er février 2016, p. 371–375 (ISSN 1943-2631, PMID 26869481, PMCID PMC4766000, DOI 10.1534/genetics.115.184564, lire en ligne, consulté le 2 février 2025)
  25. ↑ (en) Abhijit Gosavi, Emrah Ozkaya et Aykut F. Kahraman, « Simulation optimization for revenue management of airlines with cancellations and overbooking », OR Spectrum, vol. 29, no 1,‎ 24 octobre 2006, p. 21–38 (ISSN 0171-6468 et 1436-6304, DOI 10.1007/s00291-005-0018-z, lire en ligne, consulté le 2 février 2025)
  26. ↑ (en) Michael Cain, David Law et David Peel, « The Favourite‐Longshot Bias and Market Efficiency in UK Football betting », Scottish Journal of Political Economy, vol. 47, no 1,‎ février 2000, p. 25–36 (ISSN 0036-9292 et 1467-9485, DOI 10.1111/1467-9485.00151, lire en ligne, consulté le 2 février 2025)
  27. ↑ Arkady Plotnitsky, « Demons of Chance, Angels of Probability: Thomas Pynchon’s Novels and the Philosophy of Chance and Probability », Transatlantica, no 1,‎ 1er décembre 2020 (ISSN 1765-2766, DOI 10.4000/transatlantica.15498, lire en ligne, consulté le 26 janvier 2026)
  28. ↑ « MathFiction: Jurassic Park (Michael Crichton) », sur kasmana.people.charleston.edu (consulté le 26 janvier 2026)

Voir aussi

[modifier | modifier le code]
  • Régression de Poisson
  • Processus de Poisson

Articles connexes

[modifier | modifier le code]
  • Probabilité
  • Probabilités (mathématiques élémentaires)
  • Loi de probabilité
  • Loi de Bernoulli
  • Loi de Poisson composée (en)
  • Données de comptage

Liens externes

[modifier | modifier le code]

  • Ressources relatives à la santéVoir et modifier les données sur Wikidata :
    • Medical Subject Headings
    • WikiSkripta
  • Notices dans des dictionnaires ou encyclopédies généralistesVoir et modifier les données sur Wikidata :
    • Britannica
    • Den Store Danske Encyklopædi
    • Store norske leksikon
  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • LCCN
    • GND
    • Japon
    • Israël
    • Lettonie
  • Arthur Charpentier, « La loi des petits nombres », sur Freakonometrics, 2014
v · m
Lois de probabilité (liste)
Lois discrètes
à support fini
0 paramètre de forme
  • Dirac
  • Rademacher
1 paramètre de forme
  • Benford
  • Bernoulli
  • uniforme discrète
2 paramètres de forme
  • binomiale
  • Zipf
3 paramètres de forme
  • bêta-binomiale
  • hypergéométrique
N paramètres de forme
  • multinomiale
  • Poisson binomiale
à support infini
0 paramètre de forme
  • Gauss-Kuzmin
1 paramètre de forme
  • géométrique
  • logarithmique
  • Poisson
  • Yule-Simon
  • zêta
2 paramètres de forme
  • binomiale négative
  • Conway-Maxwell-Poisson
  • Skellam
3 paramètres de forme
  • bêta-binomiale négative
  • binomiale négative étendue
  • Delaporte
Lois absolument continues
à support compact
0 paramètre de forme
  • arc sinus
  • cosinus surélevé
  • demi-cercle
  • parabolique
  • uniforme continue
  • réciproque
1 paramètre de forme
  • Bates
  • Irwin-Hall
  • triangulaire
  • Kesten-McKay
2 paramètres de forme
  • bêta
  • Kumaraswamy
  • logit-normale
3 paramètres de forme
  • bêta décentrée
  • bêta rectangulaire
  • bêta PERT
à support semi-infini
0 paramètre de forme
  • demi-logistique
  • demi-normale
  • exponentielle
  • Lévy
  • normale repliée
  • Rayleigh
1 paramètre de forme
  • χ
  • χ²
  • Davis
  • Erlang
  • Fréchet
  • Gamma
  • Gompertz avec dérive
  • inverse-χ²
  • inverse-gamma
  • inverse-gaussienne
  • log-Cauchy
  • log-Laplace
  • log-logistique
  • log-normale
  • Lomax
  • Nakagami
  • normale généralisée v2
  • Pareto
  • Rice
  • Weibull
2 paramètres de forme
  • χ non centrée
  • χ² non centrée
  • Benktander I
  • Benktander II
  • bêta prime
  • Burr
  • Dagum
  • Fisher
  • Gamma généralisée
  • inverse-gaussienne généralisée
  • normale tronquée
3 paramètres de forme
  • bêta prime généralisée
N paramètres de forme
  • hyper-exponentielle
  • hypo-exponentielle
à support infini
0 paramètre de forme
  • Cauchy
  • Gumbel
  • Holtsmark
  • Landau
  • Laplace
  • logistique
  • normale
  • sécante hyperbolique
  • Slash
  • Voigt
1 paramètre de forme
  • Gompertz
  • normale asymétrique
  • Laplace asymétrique
  • normale généralisée v1
  • Student
2 paramètres de forme
  • géométrique stable
  • stable
  • z de Fisher
Autres types de lois
Lois à support mixte continu-discret
  • normale rectifiée
Lois à support variable
  • Tukey-lambda
Lois multidimensionnelles
Discrètes
  • Ewens (en)
  • multinomiale
Continues
  • Dirichlet
  • normale multidimensionnelle
Matricielles
  • Wishart
  • Wishart inverse
Lois directionnelles
Univariantes
  • von Mises
Sphériques bidimensionnelles
  • Kent
Toroïdales bidimensionnelles
  • Von Mises bivariante
Multidimensionnelles
  • Bingham
Lois singulières
  • Cantor
Familles de lois
  • Circulaire (en)
  • Composée (Poisson composé)
  • elliptique (en)
  • exponentielle
  • exponentielle naturelle (en)
  • d'entropie maximale
  • de Pearson
  • de Burr
  • de Johnson
  • fractale parabolique
  • tronquée
  • enveloppée
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
  • Axiomes des probabilités
  • Espace mesurable
  • Probabilité
  • Événement
  • Bon article Tribu
  • Indépendance
  • Variable aléatoire
  • Espérance
  • Bon article Variables iid
Convergence de lois
  • Théorème central limite
  • Loi des grands nombres
  • Théorème de Borel-Cantelli
Calcul stochastique
  • Marche aléatoire
  • Chaîne de Markov
  • Processus stochastique
  • Processus de Markov
  • Martingale
  • Mouvement brownien
  • Équation différentielle stochastique
Lois de probabilité
Lois continues
  • Loi exponentielle
  • Bon article Loi normale
  • Loi uniforme
  • Loi de Student
  • Loi de Fisher
  • Loi du χ²
Lois discrètes
  • Loi de Bernoulli
  • Bon article Loi binomiale
  • Loi de Poisson
  • Loi géométrique
  • Loi hypergéométrique
Mélange entre statistiques et probabilités
  • Intervalle de confiance
Interprétations de la probabilité
  • Bayésianisme
Théorie des statistiques
Statistiques descriptives
Bases théoriques
  • Une statistique
  • Caractère
  • Échantillon
  • Erreur type
  • Intervalle de confiance
  • Fonction de répartition empirique
  • Théorème de Glivenko-Cantelli
  • Inférence bayésienne
  • Régression linéaire
  • Méthode des moindres carrés
  • Analyse des données
  • Corrélation
Tableaux
  • Tableau de contingence
  • Tableau disjonctif complet
  • Table de Burt
Visualisation de données
  • Histogramme
  • Diagramme à barres
  • Graphique en aires
  • Diagramme circulaire
  • Treemap
  • Boîte à moustaches
  • Diagramme en violon
  • Nuage de points
  • Graphique à bulles
  • Diagramme en cascade
  • Graphique en entonnoir
  • Diagramme de Kiviat
  • Corrélogramme
  • Graphique en forêt
  • Diagramme branche-et-feuille
  • Heat map
  • Sparkline
Paramètres de position
  • Moyenne arithmétique
  • Mode
  • Médiane
  • Quantile
    • Quartile
    • Décile
    • Centile
Paramètres de dispersion
  • Étendue
  • Écart moyen
  • Variance
  • Écart type
  • Déviation absolue moyenne
  • Écart interquartile
  • Coefficient de variation
Paramètres de forme
  • Coefficient d'asymétrie
  • Coefficient d'aplatissement
Statistiques inductives
Bases théoriques
  • Hypothèse nulle
  • Estimateur
  • Signification statistique
  • Sensibilité et spécificité
  • Courbe ROC
  • Nombre de sujets nécessaires
  • Valeur p
  • Contraste (statistiques)
  • Statistique de test
  • Taille d'effet
  • Puissance statistique
Tests paramétriques
  • Test d'hypothèse
  • Test de Bartlett
  • Test de normalité
  • Test de Fisher d'égalité de deux variances
  • Test d'Hausman
  • Test d'Anderson-Darling
  • Test de Banerji
  • Test de Durbin-Watson
  • Test de Goldfeld et Quandt
  • Test de Jarque-Bera
  • Test de Mood
  • Test de Lilliefors
  • Test de Wald
  • Test T pour des échantillons indépendants
  • Test T pour des échantillons appariés
  • Test de corrélation de Pearson
Tests non-paramétriques
  • Test U de Mann-Whitney
  • Test de Kruskal-Wallis
  • Test exact de Fisher
  • Test de Kolmogorov-Smirnov
  • Test de Shapiro-Wilk
  • Test de Chow
  • Test de McNemar
  • Test de Spearman
  • Tau de Kendall
  • Test Gamma
  • Test des suites de Wald-Wolfowitz
  • Test de la médiane
  • Test des signes
  • ANOVA de Friedman
  • Concordance de Kendall
  • Test Q de Cochran
  • Test des rangs signés de Wilcoxon
  • Test de Sargan
Application
  • Économétrie
  • Mécanique statistique
  • Jeu de hasard
  • Biomathématique
  • Biostatistique
  • Mathématiques financières
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Loi_de_Poisson&oldid=232822187 ».
Catégories :
  • Loi de probabilité
  • Loi scientifique découverte au XIXe siècle
Catégories cachées :
  • Article à illustrer Distribution statistiques
  • Article utilisant une Infobox
  • Article contenant un appel à traduction en anglais
  • Page utilisant P486
  • Page utilisant P3471
  • Page pointant vers des bases externes
  • Page pointant vers des bases relatives à la santé
  • Page utilisant P1417
  • Page utilisant P8313
  • Page utilisant P4342
  • Page pointant vers des dictionnaires ou encyclopédies généralistes
  • Article de Wikipédia avec notice d'autorité
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id