Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Loi binomiale négative — Wikipédia
Loi binomiale négative — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Loi de Pascal)
Page d’aide sur l’homonymie

« Loi de Pascal » redirige ici. Ne pas confondre avec Principe de Pascal.

Binomiale négative
Image illustrative de l’article Loi binomiale négative
Fonction de masse
pour plusieurs valeurs de n et pour une loi de moyenne 10.
Paramètres n ∈ N ∗ {\displaystyle n\in \mathbb {N} ^{*}} {\displaystyle n\in \mathbb {N} ^{*}}[1]
p ∈ ] 0 , 1 ] {\displaystyle p\in \,]0,1]} {\displaystyle p\in \,]0,1]}
q = 1 − p {\displaystyle q=1-p} {\displaystyle q=1-p}
Support N {\displaystyle \mathbb {N} } {\displaystyle \mathbb {N} }
Fonction de masse ( k + n − 1 k ) p n q k {\displaystyle {\binom {k+n-1}{k}}p^{n}\,q^{k}} {\displaystyle {\binom {k+n-1}{k}}p^{n}\,q^{k}}
Fonction de répartition I p ( n , k + 1 )  où  I p {\displaystyle I_{p}(n,k+1){\text{ où }}I_{p}} {\displaystyle I_{p}(n,k+1){\text{ où  }}I_{p}} est la fonction bêta incomplète régularisée
Espérance n q p {\displaystyle {\frac {nq}{p}}} {\displaystyle {\frac {nq}{p}}}
Mode ⌊ ( n − 1 ) q p ⌋ 1 n ≥ 1 {\displaystyle \left\lfloor {\frac {(n-1)\,q}{p}}\right\rfloor \mathbf {1} _{n\geq 1}} {\displaystyle \left\lfloor {\frac {(n-1)\,q}{p}}\right\rfloor \mathbf {1} _{n\geq 1}}
Variance n q p 2 {\displaystyle {\frac {nq}{p^{2}}}} {\displaystyle {\frac {nq}{p^{2}}}}
Asymétrie q + 1 n q {\displaystyle {\frac {q+1}{\sqrt {nq}}}} {\displaystyle {\frac {q+1}{\sqrt {nq}}}}
Kurtosis normalisé 6 q + p 2 n q {\displaystyle {\frac {6q+p^{2}}{nq}}} {\displaystyle {\frac {6q+p^{2}}{nq}}}
Fonction génératrice des moments ( p 1 − q e t ) n {\displaystyle \left({\frac {p}{1-q\operatorname {e} ^{t}}}\right)^{n}} {\displaystyle \left({\frac {p}{1-q\operatorname {e} ^{t}}}\right)^{n}}
Fonction caractéristique ( p 1 − q e i t ) n {\displaystyle \left({\frac {p}{1-q\operatorname {e} ^{\mathrm {i} t}}}\right)^{n}} {\displaystyle \left({\frac {p}{1-q\operatorname {e} ^{\mathrm {i} t}}}\right)^{n}}
Fonction génératrice des probabilités ( p 1 − q t ) n {\displaystyle \left({\frac {p}{1-qt}}\right)^{n}} {\displaystyle \left({\frac {p}{1-qt}}\right)^{n}}
modifier 

En probabilité et en statistiques, une loi binomiale négative est la distribution de probabilité discrète du nombre d'échecs dans une série d'épreuves de Bernoulli indépendantes et identiquement distribuées jusqu'à avoir un nombre fixe n de succès. Par exemple, c'est la distribution de probabilité du nombre de piles obtenus dans une série de pile ou face jusqu'à avoir vu n faces. Plus précisément, elle décrit la situation suivante : une expérience consiste en une série de tirages indépendants, donnant un succès avec probabilité p (constante durant toute l'expérience) et un échec avec une probabilité complémentaire 1-p. Cette expérience se poursuit jusqu'à l'obtention d'un nombre donné n de succès. La variable aléatoire représentant le nombre d'échecs, avant l'obtention du nombre donné n de succès, suit alors une loi binomiale négative. Ses paramètres sont : le nombre n de succès attendus, et la probabilité p d'un succès. Le paramètre n se note parfois r, comme sur l'illustration ci-contre.

La loi se généralise à deux paramètres r et p, où r peut prendre des valeurs réelles strictement positives. Cette généralisation est aussi connue sous le nom de loi de Pólya[2], en l'honneur du mathématicien George Pólya.

Définition

[modifier | modifier le code]

Définition pour un premier paramètre entier

[modifier | modifier le code]

La loi binomiale négative dépend de deux paramètres, mais plusieurs autres paramétrisations sont envisageables. Une paramétrisation très répandue introduit un entier naturel n non nul et un réel non nul[3] p compris entre 0 et 1. Il est courant d'introduire la probabilité complémentaire q = 1 – p. La fonction de masse d'une variable aléatoire distribuée selon une loi binomiale négative de paramètres n et p prend la forme suivante :

f ( k ; n , p ) = ( k + n − 1 k ) p n q k       ∀ k = 0 , 1 , … {\displaystyle f(k;n,p)={k+n-1 \choose k}p^{n}q^{k}~~~\forall k=0,1,\dots } {\displaystyle f(k;n,p)={k+n-1 \choose k}p^{n}q^{k}~~~\forall k=0,1,\dots }

où ( k + n − 1 k ) {\displaystyle {k+n-1 \choose k}} {\displaystyle {k+n-1 \choose k}} est un coefficient binomial.

La loi binomiale négative s'interprète comme la loi de probabilité de la variable aléatoire X qui compte le nombre d'échecs observés avant l'obtention de n succès pour une série d'expériences indépendantes, sachant que la probabilité d'un succès est p. Ainsi[4],[5]

P ( X = k ) = f ( k ; n , p ) = ( k + n − 1 k ) p n q k = ( k + n − 1 n − 1 ) p n q k       ∀ k = 0 , 1 , … {\displaystyle \mathbb {P} (X=k)=f(k;n,p)={k+n-1 \choose k}\,p^{n}\,q^{k}={k+n-1 \choose n-1}p^{n}q^{k}~~~\forall k=0,1,\dots } {\displaystyle \mathbb {P} (X=k)=f(k;n,p)={k+n-1 \choose k}\,p^{n}\,q^{k}={k+n-1 \choose n-1}p^{n}q^{k}~~~\forall k=0,1,\dots }

La fonction de masse de la binomiale négative peut aussi s'écrire sous la forme

f ( k ; n , p ) = ( − n k ) p n ( − q ) k       ∀ k = 0 , 1 , … {\displaystyle f(k;n,p)={-n \choose k}p^{n}(-q)^{k}~~~\forall k=0,1,\dots } {\displaystyle f(k;n,p)={-n \choose k}p^{n}(-q)^{k}~~~\forall k=0,1,\dots }

où ( − n k ) {\displaystyle {-n \choose k}} {\displaystyle {-n \choose k}} est un coefficient binomial généralisé à un entier négatif et est défini par ( − n k ) = ( − n ) ( − n − 1 ) ⋯ ( − n − k + 1 ) k ! {\displaystyle {-n \choose k}={\frac {(-n)(-n-1)\cdots (-n-k+1)}{k!}}} {\displaystyle {-n \choose k}={\frac {(-n)(-n-1)\cdots (-n-k+1)}{k!}}}.Cette expression justifie le nom de loi binomiale négative donnée à cette loi de probabilité. Elle facilite aussi, grâce à l'usage de la formule du binôme négatif, le calcul de son espérance E [ X ] = n q p {\displaystyle \mathbb {E} [X]={\frac {nq}{p}}} {\displaystyle \mathbb {E} [X]={\frac {nq}{p}}} et de sa variance V a r ( X ) = n q p 2 {\displaystyle Var(X)={\frac {nq}{p^{2}}}} {\displaystyle Var(X)={\frac {nq}{p^{2}}}}.

Si une variable aléatoire X suit une loi binomiale négative de paramètres n et p on pourra alors noter[6] X ∼ B N ( n , p ) {\displaystyle X\sim {\mathcal {BN}}(n,p)} {\displaystyle X\sim {\mathcal {BN}}(n,p)}.

Définitions alternatives

[modifier | modifier le code]
  • On trouve parfois la définition alternative suivante : la loi binomiale négative[7] de paramètres n et p, aussi appelée loi de Pascal pour la distinguer de la première définition[8], est la loi de la variable aléatoire Y comptant le nombre d'essais nécessaires avant l'obtention de n succès. Ainsi P ( Y = m ) = ( m − 1 m − n ) p n q m − n = ( m − 1 n − 1 ) p n q m − n       ∀ m = n , n + 1 , … {\displaystyle \mathbb {P} (Y=m)={m-1 \choose m-n}p^{n}q^{m-n}={m-1 \choose n-1}p^{n}q^{m-n}~~~\forall m=n,n+1,\dots } {\displaystyle \mathbb {P} (Y=m)={m-1 \choose m-n}p^{n}q^{m-n}={m-1 \choose n-1}p^{n}q^{m-n}~~~\forall m=n,n+1,\dots }Les deux fonctions de masse (pour X et pour Y) se déduisent l'une de l'autre par la substitution Y = X + n et m = k + n, ainsi

E [ X ] = E [ Y ] − n = n p − n = n q p  et  Var ⁡ ( X ) = Var ⁡ ( Y ) = n q p 2 {\displaystyle \mathbb {E} [X]=\mathbb {E} [Y]-n={\frac {n}{p}}-n={\frac {nq}{p}}{\text{ et }}\operatorname {Var} (X)=\operatorname {Var} (Y)={\frac {nq}{p^{2}}}} {\displaystyle \mathbb {E} [X]=\mathbb {E} [Y]-n={\frac {n}{p}}-n={\frac {nq}{p}}{\text{ et }}\operatorname {Var} (X)=\operatorname {Var} (Y)={\frac {nq}{p^{2}}}}.

  • La loi de Pascal de paramètres n et p est la loi de la somme de n {\displaystyle n} {\displaystyle n} variables indépendantes suivant la loi géométrique (du premier succès) de paramètre p.
  • La loi binomiale négative est parfois définie comme le nombre de succès observés avant l'obtention du nombre donné n d'échecs, conduisant à intervertir le rôle des paramètres p et q ainsi que les mots « succès » et « échec ».

Dans la suite, on prendra la première définition de la loi binomiale négative.

Généralisation à un premier paramètre réel

[modifier | modifier le code]

Il est possible de généraliser la définition de la loi binomiale négative à un paramètre r réel strictement positif (qui remplace alors le paramètre entier n) en utilisant des coefficients binomiaux généralisés. Plus précisément, pour r réel strictement positif et p réel non nul entre 0 et 1, la loi binomiale négative (généralisée) de paramètres r et p est la loi discrète définie par la fonction de masse

f ( k ; r , p ) = ( k + r − 1 k ) p r q k = ( k + r − 1 ) k k ! p r q k = Γ ( k + r ) k ! Γ ( r ) p r q k       ∀ k = 0 , 1 , … {\displaystyle f(k;r,p)={k+r-1 \choose k}p^{r}q^{k}={\frac {(k+r-1)_{k}}{k!}}p^{r}q^{k}={\frac {\Gamma (k+r)}{k!\Gamma (r)}}p^{r}q^{k}~~~\forall k=0,1,\dots } {\displaystyle f(k;r,p)={k+r-1 \choose k}p^{r}q^{k}={\frac {(k+r-1)_{k}}{k!}}p^{r}q^{k}={\frac {\Gamma (k+r)}{k!\Gamma (r)}}p^{r}q^{k}~~~\forall k=0,1,\dots }

où ( x ) k = x ( x − 1 ) … ( x − k + 1 ) {\displaystyle (x)_{k}=x(x-1)\dots (x-k+1)} {\displaystyle (x)_{k}=x(x-1)\dots (x-k+1)} désigne la factorielle décroissante et Γ {\displaystyle \Gamma } {\displaystyle \Gamma } désigne la fonction gamma. Cette définition reste bien sûr compatible avec la définition dans le cas d'un paramétrage entier. La loi binomiale négative généralisée à un paramètre réel s'appelle parfois Loi de Pólya[2]. Dans le cadre de cette généralisation, il n'est plus possible d'interpréter la loi en termes de nombres de succès.

Propriétés

[modifier | modifier le code]

Fonction de répartition

[modifier | modifier le code]

La fonction de répartition peut s'exprimer à l'aide de la fonction bêta incomplète régularisée :

F ( k ) = I p ( n , k + 1 ) {\displaystyle F(k)=I_{p}(n,k+1)} {\displaystyle F(k)=I_{p}(n,k+1)}.

Une démonstration par récurrence sur k prouve que

F ( k ) = 1 − q k + 1 ∑ i = 0 n − 1 ( k + i i ) p i {\displaystyle F(k)=1-q^{k+1}\,\sum _{i=0}^{n-1}{k+i \choose i}\,p^{i}} {\displaystyle F(k)=1-q^{k+1}\,\sum _{i=0}^{n-1}{k+i \choose i}\,p^{i}}.

Mélange de lois Gamma-Poisson

[modifier | modifier le code]

La loi binomiale négative (généralisée) avec paramètres r réel strictement positif et p = ( 1 + θ ) − 1 {\displaystyle p=(1+\theta )^{-1}} {\displaystyle p=(1+\theta )^{-1}} où θ est un réel strictement positif est égale à un mélange de lois Gamma-Poisson où r et θ sont les paramètres de la loi Gamma.

Démonstration

Soit X λ {\displaystyle X_{\lambda }} {\displaystyle X_{\lambda }} suivant une loi de Poisson de paramètre λ et f ( λ ; r , θ ) {\displaystyle f(\lambda ;r,\theta )} {\displaystyle f(\lambda ;r,\theta )} la densité de la loi Gamma de paramètres r et θ (réels strictement positifs). Si X désigne la variable aléatoire issue du mélange alors pour tout entier k on a

P ( X = k ) = ∫ 0 + ∞ P ( X λ = k ) f ( λ ; r , θ ) d λ = ∫ 0 + ∞ λ k e − λ k ! λ r − 1 e − λ / θ Γ ( r ) θ r d λ = ∫ 0 + ∞ λ k + r − 1 e − λ θ + 1 θ k ! Γ ( r ) θ r d λ {\displaystyle {\begin{aligned}\mathbb {P} (X=k)&=\int _{0}^{+\infty }\mathbb {P} (X_{\lambda }=k)\,f(\lambda ;r,\theta )\,\mathrm {d} \lambda \\&=\int _{0}^{+\infty }{\dfrac {\lambda ^{k}\operatorname {e} ^{-\lambda }}{k!}}{\dfrac {\lambda ^{r-1}\operatorname {e} ^{-\lambda /\theta }}{\Gamma (r)\theta ^{r}}}\,\mathrm {d} \lambda \\&=\int _{0}^{+\infty }{\dfrac {\lambda ^{k+r-1}\operatorname {e} ^{-\lambda {\frac {\theta +1}{\theta }}}}{k!\Gamma (r)\theta ^{r}}}\,\mathrm {d} \lambda \end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {P} (X=k)&=\int _{0}^{+\infty }\mathbb {P} (X_{\lambda }=k)\,f(\lambda ;r,\theta )\,\mathrm {d} \lambda \\&=\int _{0}^{+\infty }{\dfrac {\lambda ^{k}\operatorname {e} ^{-\lambda }}{k!}}{\dfrac {\lambda ^{r-1}\operatorname {e} ^{-\lambda /\theta }}{\Gamma (r)\theta ^{r}}}\,\mathrm {d} \lambda \\&=\int _{0}^{+\infty }{\dfrac {\lambda ^{k+r-1}\operatorname {e} ^{-\lambda {\frac {\theta +1}{\theta }}}}{k!\Gamma (r)\theta ^{r}}}\,\mathrm {d} \lambda \end{aligned}}}

Le changement de variable t = λ ( 1 + θ ) θ − 1 {\displaystyle t=\lambda \,(1+\theta )\theta ^{-1}} {\displaystyle t=\lambda \,(1+\theta )\theta ^{-1}} conduit à :

P ( X = k ) = ( θ θ + 1 ) r + k 1 Γ ( r ) k ! θ r ∫ 0 + ∞ t k + r − 1 e − t d t = Γ ( k + r ) Γ ( r ) k ! ( 1 θ + 1 ) r ( θ θ + 1 ) k {\displaystyle {\begin{aligned}\mathbb {P} (X=k)&=\left({\dfrac {\theta }{\theta +1}}\right)^{r+k}{\dfrac {1}{\Gamma (r)k!\theta ^{r}}}\int _{0}^{+\infty }t^{k+r-1}\operatorname {e} ^{-t}\,\mathrm {d} t\\&={\dfrac {\Gamma (k+r)}{\Gamma (r)k!}}\left({\dfrac {1}{\theta +1}}\right)^{r}\left({\dfrac {\theta }{\theta +1}}\right)^{k}\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {P} (X=k)&=\left({\dfrac {\theta }{\theta +1}}\right)^{r+k}{\dfrac {1}{\Gamma (r)k!\theta ^{r}}}\int _{0}^{+\infty }t^{k+r-1}\operatorname {e} ^{-t}\,\mathrm {d} t\\&={\dfrac {\Gamma (k+r)}{\Gamma (r)k!}}\left({\dfrac {1}{\theta +1}}\right)^{r}\left({\dfrac {\theta }{\theta +1}}\right)^{k}\end{aligned}}}

En posant q = θ ( 1 + θ ) − 1 {\displaystyle q=\theta (1+\theta )^{-1}} {\displaystyle q=\theta (1+\theta )^{-1}}, on remarque que p + q = 1 et

P ( X = k ) = Γ ( k + r ) Γ ( r ) k ! p r q k {\displaystyle \mathbb {P} (X=k)={\dfrac {\Gamma (k+r)}{\Gamma (r)k!}}p^{r}q^{k}} {\displaystyle \mathbb {P} (X=k)={\dfrac {\Gamma (k+r)}{\Gamma (r)k!}}p^{r}q^{k}}

Convergence vers la loi de Poisson

[modifier | modifier le code]

Une loi binomiale négative de paramètres n et p = n ( n + λ ) − 1 {\displaystyle p=n(n+\lambda )^{-1}} {\displaystyle p=n(n+\lambda )^{-1}} avec λ réel fixé strictement positif converge faiblement vers une loi de Poisson de paramètre λ lorsque n converge vers l'infini. En d'autres termes, si X n ∼ B N ( n , n / ( n + λ ) ) {\displaystyle X_{n}\sim {\mathcal {BN(n,n/(n+\lambda ))}}} {\displaystyle X_{n}\sim {\mathcal {BN(n,n/(n+\lambda ))}}} et X ∼ P ( λ ) {\displaystyle X\sim {\mathcal {P}}(\lambda )} {\displaystyle X\sim {\mathcal {P}}(\lambda )} alors on a la convergence en loi X n → X {\displaystyle X_{n}\rightarrow X} {\displaystyle X_{n}\rightarrow X}.

Démonstration

On remarque que fonction de masse de X n {\displaystyle X_{n}} {\displaystyle X_{n}} peut se réécrire :

P ( X n = k ) = λ k k ! A n + k − 1 k ( n + λ ) k 1 ( 1 + λ n ) n {\displaystyle \mathbb {P} (X_{n}=k)={\frac {\lambda ^{k}}{k!}}\,{\frac {A_{n+k-1}^{k}}{(n+\lambda )^{k}}}\,{\frac {1}{\left(1+{\frac {\lambda }{n}}\right)^{n}}}} {\displaystyle \mathbb {P} (X_{n}=k)={\frac {\lambda ^{k}}{k!}}\,{\frac {A_{n+k-1}^{k}}{(n+\lambda )^{k}}}\,{\frac {1}{\left(1+{\frac {\lambda }{n}}\right)^{n}}}}

où A n + k − 1 k {\displaystyle A_{n+k-1}^{k}} {\displaystyle A_{n+k-1}^{k}} est le nombre de permutations ou d'arrangement de k éléments parmi n + k – 1.

On a alors la convergence

lim n → ∞ P ( X n = k ) = λ k k ! 1 1 exp ⁡ ( λ ) = P ( X = k ) {\displaystyle \lim _{n\to \infty }\mathbb {P} (X_{n}=k)={\frac {\lambda ^{k}}{k!}}\,1\,{\frac {1}{\exp(\lambda )}}=\mathbb {P} (X=k)} {\displaystyle \lim _{n\to \infty }\mathbb {P} (X_{n}=k)={\frac {\lambda ^{k}}{k!}}\,1\,{\frac {1}{\exp(\lambda )}}=\mathbb {P} (X=k)}

Lien avec la loi géométrique

[modifier | modifier le code]

Comme il existe deux définitions de la loi binomiale négative, il existe deux définitions de la loi géométrique. Si celle-ci modélise le nombre d'échecs avant le premier succès, elle correspond à la loi binomiale négative de paramètres 1 et p.

G ( p ) = B N ( 1 , p ) {\displaystyle {\mathcal {G}}(p)={\mathcal {BN}}(1,p)} {\displaystyle {\mathcal {G}}(p)={\mathcal {BN}}(1,p)}.

Si Xn est une variable aléatoire distribuée selon la loi binomiale négative de paramètres n et p, alors Xn est la somme de n variables aléatoires indépendantes distribuées selon une loi géométrique de paramètre p. Le théorème central limite indique de plus que Xn est approximativement normal, pour n suffisamment grand.

Lien avec la loi binomiale

[modifier | modifier le code]

En outre, si Yk+n est une variable aléatoire distribuée selon une loi binomiale de paramètre k + n et p, alors

P ( X n ≤ k ) = I p ( n , k + 1 ) = 1 − I 1 − p ( k + 1 , n ) = 1 − I 1 − p ( ( k + n ) − ( n − 1 ) , ( n − 1 ) + 1 ) = 1 − P ( Y k + n ≤ n − 1 ) = P ( Y k + n ≥ n ) . {\displaystyle {\begin{aligned}\mathbb {P} (X_{n}\leq k)&{}=I_{p}(n,k+1)\\&{}=1-I_{1-p}(k+1,n)\\&{}=1-I_{1-p}((k+n)-(n-1),(n-1)+1)\\&{}=1-\mathbb {P} (Y_{k+n}\leq n-1)\\&{}=\mathbb {P} (Y_{k+n}\geq n).\end{aligned}}} {\displaystyle {\begin{aligned}\mathbb {P} (X_{n}\leq k)&{}=I_{p}(n,k+1)\\&{}=1-I_{1-p}(k+1,n)\\&{}=1-I_{1-p}((k+n)-(n-1),(n-1)+1)\\&{}=1-\mathbb {P} (Y_{k+n}\leq n-1)\\&{}=\mathbb {P} (Y_{k+n}\geq n).\end{aligned}}}

La dernière ligne s'interprète ainsi : c'est la probabilité qu'après k + n épreuves, il y ait au moins n succès. Ainsi, la loi binomiale négative peut être vue comme la réciproque de la loi binomiale.

Stabilité par somme

[modifier | modifier le code]

La somme de k variables aléatoires indépendantes et distribuées selon des lois binomiales négatives de paramètres p et respectivement n1, n2,..., nk est encore une loi binomiale négative, de paramètres p et n = n1 +...+ nk. Cette propriété se démontre aisément à partir de l'expression de la fonction génératrice des moments.


Applications

[modifier | modifier le code]

Temps d'attente dans un processus de Bernoulli

[modifier | modifier le code]

Pour tout entier n, la loi binomiale négative est la distribution de succès et d'échecs dans une série d'épreuves de Bernoulli iid. Pour k + n épreuves de Bernoulli, avec probabilité de succès p, la loi binomiale négative donne la probabilité de k échecs et n succès, le dernier tirage étant un succès. Autrement dit, la loi binomiale négative est la distribution du nombre d'échecs avant le n-ième succès dans des épreuves de Bernoulli, de probabilité de succès p.

On considère l'exemple suivant : on lance plusieurs fois un dé honnête, et la face 1 est considérée comme un succès. La probabilité de succès à chaque épreuve est donc de 1/6. Le nombre d'épreuves nécessaires pour obtenir 3 succès appartient à l'ensemble infini { 3, 4, 5, 6, ... }. Ce nombre d'épreuves est une variable aléatoire distribuée selon une loi binomiale négative (décalée, car l'ensemble commence à 3 et pas à 0). Le nombre d'échecs avant le troisième succès appartient à l'ensemble { 0, 1, 2, 3, ... }. Ce nombre d'échecs est aussi distribuée selon une loi binomiale négative.

Loi de Poisson « sur-dispersée »

[modifier | modifier le code]

La loi binomiale négative, en particulier dans sa paramétrisation alternative décrite plus haut, est une alternative intéressante à la loi de Poisson. Elle est particulièrement utile pour des données discrètes, à valeurs dans un ensemble positif non-borné, dont la variance empirique excède la moyenne empirique. Si une Poisson est utilisée pour modéliser de telles données, la moyenne et la variance doivent être égales. Dans ce cas, les observations sont «sur-dispersées» par rapport au modèle Poisson. Puisque la loi binomiale négative possède un paramètre supplémentaire, il peut être utilisé pour ajuster la variance indépendamment de la moyenne.

Références

[modifier | modifier le code]
  1. ↑ La loi binomiale négative peut se généraliser à un paramètre réel strictement positif, dans ce cas on notera le paramètre r plutôt que n par souci de clarté. Pour cette généralisation toutes les formules de l'infoboite restent vraies en changeant les occurrences de n en r. Le coefficient binomial dans la fonction de masse devient alors un coefficient binomial généralisé.
  2. ↑ a et b A ne pas confondre avec la loi de Markov-Pólya.
  3. ↑ La probabilité p ne peut être nulle car sinon il serait impossible d'observer, en temps fini, les n succès attendus. D'ailleurs on remarquera que si on substituait 0 à p dans la formule de la fonction de masse, cette dernière serait alors toujours nulle, quel que soit la valeur de k, ce qui ne conviendrait pas pour une fonction de masse dont la somme sur toutes les valeurs de k se doit de valoir 1.
  4. ↑ Michel Lejeune, Statistiques : la théorie et ses applications, Springer Science & Business Media, 2004 (présentation en ligne), p. 49
  5. ↑ Ohilippe Tassi et Sylvia Legait, Théorie des probabilités en vue des applications statistiques, TECHNIP, 1990 (présentation en ligne), p. 115
  6. ↑ Astrid Jourdan et Célestin C Kokonendji, « Surdispersion et modèle binomial négatif généralisé », Revue de statistique appliquée, vol. 50,‎ 2002, p. 73-86 (lire en ligne)
  7. ↑ D. Ghorbanzadeh, Probabilités : exercices corrigés, Technip, 1998 (lire en ligne), p. 156.
  8. ↑ G. Millot, Comprendre et réaliser les tests statistiques à l'aide de R, De Boeck Supérieur, 2018 (lire en ligne), p. 269-271.

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • Loi binomiale négative étendue
  • Problème du collectionneur de vignettes
  • Loi d'Erlang : analogue de la loi binomiale négative dans le cas continu.

Bibliographie

[modifier | modifier le code]

(en) Joseph M. Hilbe (en), Negative Binomial Regression, Cambridge University Press, 2007 (lire en ligne)

v · m
Lois de probabilité (liste)
Lois discrètes
à support fini
0 paramètre de forme
  • Dirac
  • Rademacher
1 paramètre de forme
  • Benford
  • Bernoulli
  • uniforme discrète
2 paramètres de forme
  • binomiale
  • Zipf
3 paramètres de forme
  • bêta-binomiale
  • hypergéométrique
N paramètres de forme
  • multinomiale
  • Poisson binomiale
à support infini
0 paramètre de forme
  • Gauss-Kuzmin
1 paramètre de forme
  • géométrique
  • logarithmique
  • Poisson
  • Yule-Simon
  • zêta
2 paramètres de forme
  • binomiale négative
  • Conway-Maxwell-Poisson
  • Skellam
3 paramètres de forme
  • bêta-binomiale négative
  • binomiale négative étendue
  • Delaporte
Lois absolument continues
à support compact
0 paramètre de forme
  • arc sinus
  • cosinus surélevé
  • demi-cercle
  • parabolique
  • uniforme continue
  • réciproque
1 paramètre de forme
  • Bates
  • Irwin-Hall
  • triangulaire
  • Kesten-McKay
2 paramètres de forme
  • bêta
  • Kumaraswamy
  • logit-normale
3 paramètres de forme
  • bêta décentrée
  • bêta rectangulaire
  • bêta PERT
à support semi-infini
0 paramètre de forme
  • demi-logistique
  • demi-normale
  • exponentielle
  • Lévy
  • normale repliée
  • Rayleigh
1 paramètre de forme
  • χ
  • χ²
  • Davis
  • Erlang
  • Fréchet
  • Gamma
  • Gompertz avec dérive
  • inverse-χ²
  • inverse-gamma
  • inverse-gaussienne
  • log-Cauchy
  • log-Laplace
  • log-logistique
  • log-normale
  • Lomax
  • Nakagami
  • normale généralisée v2
  • Pareto
  • Rice
  • Weibull
2 paramètres de forme
  • χ non centrée
  • χ² non centrée
  • Benktander I
  • Benktander II
  • bêta prime
  • Burr
  • Dagum
  • Fisher
  • Gamma généralisée
  • inverse-gaussienne généralisée
  • normale tronquée
3 paramètres de forme
  • bêta prime généralisée
N paramètres de forme
  • hyper-exponentielle
  • hypo-exponentielle
à support infini
0 paramètre de forme
  • Cauchy
  • Gumbel
  • Holtsmark
  • Landau
  • Laplace
  • logistique
  • normale
  • sécante hyperbolique
  • Slash
  • Voigt
1 paramètre de forme
  • Gompertz
  • normale asymétrique
  • Laplace asymétrique
  • normale généralisée v1
  • Student
2 paramètres de forme
  • géométrique stable
  • stable
  • z de Fisher
Autres types de lois
Lois à support mixte continu-discret
  • normale rectifiée
Lois à support variable
  • Tukey-lambda
Lois multidimensionnelles
Discrètes
  • Ewens (en)
  • multinomiale
Continues
  • Dirichlet
  • normale multidimensionnelle
Matricielles
  • Wishart
  • Wishart inverse
Lois directionnelles
Univariantes
  • von Mises
Sphériques bidimensionnelles
  • Kent
Toroïdales bidimensionnelles
  • Von Mises bivariante
Multidimensionnelles
  • Bingham
Lois singulières
  • Cantor
Familles de lois
  • Circulaire (en)
  • Composée (Poisson composé)
  • elliptique (en)
  • exponentielle
  • exponentielle naturelle (en)
  • d'entropie maximale
  • de Pearson
  • de Burr
  • de Johnson
  • fractale parabolique
  • tronquée
  • enveloppée
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Loi_binomiale_négative&oldid=227873885#Définitions_alternatives ».
Catégories :
  • Loi de probabilité
  • Coefficient binomial
Catégories cachées :
  • Article à illustrer Distribution statistiques
  • Article utilisant une Infobox
  • Article contenant un appel à traduction en anglais
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id