Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Loi de Poisson binomiale — Wikipédia
Loi de Poisson binomiale — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.

Loi de Poisson binomiale
Paramètres p ∈ [ 0 , 1 ] n {\displaystyle \mathbf {p} \in [0,1]^{n}} {\displaystyle \mathbf {p} \in [0,1]^{n}} — probabilités de succès pour chacun des n essais
Support k ∈ { 0 , … , n } {\displaystyle k\in \{0,\dots ,n\}} {\displaystyle k\in \{0,\dots ,n\}}
Fonction de masse ∑ A ∈ F k ∏ i ∈ A p i ∏ j ∈ A c ( 1 − p j ) {\displaystyle \sum \limits _{A\in F_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})} {\displaystyle \sum \limits _{A\in F_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})}
Fonction de répartition ∑ l = 0 k ∑ A ∈ F l ∏ i ∈ A p i ∏ j ∈ A c ( 1 − p j ) {\displaystyle \sum \limits _{l=0}^{k}\sum \limits _{A\in F_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}{(1-p_{j})}} {\displaystyle \sum \limits _{l=0}^{k}\sum \limits _{A\in F_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}{(1-p_{j})}}
Espérance ∑ i = 1 n p i {\displaystyle \sum \limits _{i=1}^{n}p_{i}} {\displaystyle \sum \limits _{i=1}^{n}p_{i}}
Variance σ 2 = ∑ i = 1 n ( 1 − p i ) p i {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}}} {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}}}
Asymétrie 1 σ 3 ∑ i = 1 n ( 1 − 2 p i ) ( 1 − p i ) p i {\displaystyle {\frac {1}{\sigma ^{3}}}\sum \limits _{i=1}^{n}{\left(1-2{p_{i}}\right)\left(1-{{p}_{i}}\right){{p}_{i}}}} {\displaystyle {\frac {1}{\sigma ^{3}}}\sum \limits _{i=1}^{n}{\left(1-2{p_{i}}\right)\left(1-{{p}_{i}}\right){{p}_{i}}}}
Kurtosis normalisé 1 σ 4 ∑ i = 1 n ( 1 − 6 ( 1 − p i ) p i ) ( 1 − p i ) p i {\displaystyle {\frac {1}{\sigma ^{4}}}\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}} {\displaystyle {\frac {1}{\sigma ^{4}}}\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}}
Fonction génératrice des moments ∏ i = 1 n ( 1 − p i + p i e t ) {\displaystyle \prod \limits _{i=1}^{n}(1-{p_{i}}+{p_{i}}{e^{t}})} {\displaystyle \prod \limits _{i=1}^{n}(1-{p_{i}}+{p_{i}}{e^{t}})}
modifier 

En théorie des probabilités et en statistique, la loi de Poisson binomiale est une loi de probabilité discrète de la somme d'épreuves de Bernoulli indépendantes.

En d'autres termes, c'est la loi de probabilité du nombre de succès (nombre de pile) d'une suite de n {\displaystyle n} {\displaystyle n} lancers de pile ou face dont les probabilités de succès (d'obtenir pile) sont p 1 , p 2 , … , p n {\displaystyle p_{1},p_{2},\dots ,p_{n}} {\displaystyle p_{1},p_{2},\dots ,p_{n}}. La loi binomiale ordinaire est un cas spécial de la loi de Poisson binomiale lorsque toutes les probabilités sont les mêmes : p 1 = p 2 = ⋯ = p n {\displaystyle p_{1}=p_{2}=\dots =p_{n}} {\displaystyle p_{1}=p_{2}=\dots =p_{n}} .

Espérance et variance

[modifier | modifier le code]

Puisque la loi de Poisson binomiale est une somme de n variables aléatoires indépendantes de loi de Bernoulli, son espérance et sa variance sont simplement les sommes des espérances et variances des lois de Bernoulli :

μ = ∑ i = 1 n p i {\displaystyle \mu =\sum \limits _{i=1}^{n}p_{i}} {\displaystyle \mu =\sum \limits _{i=1}^{n}p_{i}}
σ 2 = ∑ i = 1 n ( 1 − p i ) p i . {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-p_{i})p_{i}.} {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-p_{i})p_{i}.}

Fonction de masse

[modifier | modifier le code]

La probabilité d'obtenir k {\displaystyle k} {\displaystyle k} succès sur un total de n essais peut être écrit comme la somme[1] :

P ( K = k ) = ∑ A ∈ F k ∏ i ∈ A p i ∏ j ∈ A c ( 1 − p j ) {\displaystyle \mathbb {P} (K=k)=\sum \limits _{A\in F_{k}}{\prod \limits _{i\in A}{{p}_{i}}\prod \limits _{j\in {{A}^{c}}}{(1-{{p}_{j}})}}} {\displaystyle \mathbb {P} (K=k)=\sum \limits _{A\in F_{k}}{\prod \limits _{i\in A}{{p}_{i}}\prod \limits _{j\in {{A}^{c}}}{(1-{{p}_{j}})}}}

où F k {\displaystyle F_{k}} {\displaystyle F_{k}} est l'ensemble de tous les sous-ensembles de { 1 , 2 , … , n } {\displaystyle \{1,2,\dots ,n\}} {\displaystyle \{1,2,\dots ,n\}} contenant k {\displaystyle k} {\displaystyle k} éléments. Par exemple si n=3, alors F 2 = { { 1 , 2 } , { 1 , 3 } , { 2 , 3 } } {\displaystyle F_{2}=\left\{\{1,2\},\{1,3\},\{2,3\}\right\}} {\displaystyle F_{2}=\left\{\{1,2\},\{1,3\},\{2,3\}\right\}}. A c {\displaystyle A^{c}} {\displaystyle A^{c}} est le complémentaire de A {\displaystyle A} {\displaystyle A}.

L'ensemble F k {\displaystyle F_{k}} {\displaystyle F_{k}} contient ( n k ) = n ! ( n − k ) ! k ! {\textstyle {n \choose k}={\frac {n!}{(n-k)!k!}}} {\textstyle {n \choose k}={\frac {n!}{(n-k)!k!}}} éléments, ainsi les calculs deviennent très grands en pratique, par exemple pour n=30, F 15 {\displaystyle F_{15}} {\displaystyle F_{15}} contient un nombre de l'ordre de 1020 éléments. Il existe cependant des méthodes efficaces pour calculer P ( K = k ) {\displaystyle \mathbb {P} (K=k)} {\displaystyle \mathbb {P} (K=k)}.

On peut utiliser une formule itérative[2],[3] :

P ( K = k ) = { ∏ i = 1 n ( 1 − p i ) s i   k = 0 1 k ∑ i = 1 k ( − 1 ) i − 1 P ( K = k − i ) T ( i ) s i   k > 0 {\displaystyle \mathbb {P} (K=k)=\left\{{\begin{aligned}&\prod _{i=1}^{n}(1-p_{i})&\mathrm {si} \ k=0\\&{\frac {1}{k}}\sum _{i=1}^{k}(-1)^{i-1}\mathbb {P} (K=k-i)T(i)&\mathrm {si} \ k>0\end{aligned}}\right.} {\displaystyle \mathbb {P} (K=k)=\left\{{\begin{aligned}&\prod _{i=1}^{n}(1-p_{i})&\mathrm {si} \ k=0\\&{\frac {1}{k}}\sum _{i=1}^{k}(-1)^{i-1}\mathbb {P} (K=k-i)T(i)&\mathrm {si} \ k>0\end{aligned}}\right.}

où T ( i ) = ∑ j = 1 n ( p j 1 − p j ) i {\displaystyle T(i)=\sum _{j=1}^{n}\left({\frac {p_{j}}{1-p_{j}}}\right)^{i}} {\displaystyle T(i)=\sum _{j=1}^{n}\left({\frac {p_{j}}{1-p_{j}}}\right)^{i}} .

Une autre possibilité est d'utiliser la transformée de Fourier discrète[4] :

P ( K = k ) = 1 n + 1 ∑ l = 0 n ω l k ∏ m = 1 n ( 1 + ( ω l − 1 ) p m ) {\displaystyle \mathbb {P} (K=k)={\frac {1}{n+1}}\sum \limits _{l=0}^{n}{{\omega ^{lk}}\prod \limits _{m=1}^{n}{\left(1+({\omega ^{l}}-1){p_{m}}\right)}}} {\displaystyle \mathbb {P} (K=k)={\frac {1}{n+1}}\sum \limits _{l=0}^{n}{{\omega ^{lk}}\prod \limits _{m=1}^{n}{\left(1+({\omega ^{l}}-1){p_{m}}\right)}}}

où ω = exp ⁡ ( − 2 i π n + 1 ) {\displaystyle \omega =\exp \left(-{\frac {2{\rm {i}}\pi }{n+1}}\right)} {\displaystyle \omega =\exp \left(-{\frac {2{\rm {i}}\pi }{n+1}}\right)} avec i l'unité imaginaire.

D'autres méthodes sont décrites dans les ouvrages de Chen[5].

Références

[modifier | modifier le code]
  1. ↑ (en) Y. H. Wang, « On the number of successes in independent trials », Statistica Sinica, vol. 3, no 2,‎ 1993, p. 295–312 (lire en ligne)
  2. ↑ (en) B. K. Shah, « On the distribution of the sum of independent integer valued random variables », American Statistician, vol. 27, no 3,‎ 1994, p. 123-124 (lire en ligne)
  3. ↑ (en) X. H. Chen, « Weighted finite population sampling to maximize entropy », Biometrika, vol. 81, no 3,‎ 1994, p. 457 (lire en ligne)
  4. ↑ (en) M. Fernandez, « Closed-Form Expression for the Poisson-Binomial Probability Density Function », IEEE Transactions on Aerospace Electronic Systems, vol. 46,‎ 2010, p. 803–817 (DOI 10.1109/TAES.2010.5461658)
  5. ↑ (en) S. X. Chen, « Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions », Statistica Sinica, vol. 7,‎ 1997, p. 875–892 (lire en ligne)
v · m
Lois de probabilité (liste)
Lois discrètes
à support fini
0 paramètre de forme
  • Dirac
  • Rademacher
1 paramètre de forme
  • Benford
  • Bernoulli
  • uniforme discrète
2 paramètres de forme
  • binomiale
  • Zipf
3 paramètres de forme
  • bêta-binomiale
  • hypergéométrique
N paramètres de forme
  • multinomiale
  • Poisson binomiale
à support infini
0 paramètre de forme
  • Gauss-Kuzmin
1 paramètre de forme
  • géométrique
  • logarithmique
  • Poisson
  • Yule-Simon
  • zêta
2 paramètres de forme
  • binomiale négative
  • Conway-Maxwell-Poisson
  • Skellam
3 paramètres de forme
  • bêta-binomiale négative
  • binomiale négative étendue
  • Delaporte
Lois absolument continues
à support compact
0 paramètre de forme
  • arc sinus
  • cosinus surélevé
  • demi-cercle
  • parabolique
  • uniforme continue
  • Xenakis
  • réciproque
1 paramètre de forme
  • Bates
  • Irwin-Hall
  • triangulaire
  • Kesten-McKay
2 paramètres de forme
  • bêta
  • Kumaraswamy
  • logit-normale
3 paramètres de forme
  • bêta décentrée
  • bêta rectangulaire
  • bêta PERT
à support semi-infini
0 paramètre de forme
  • demi-logistique
  • demi-normale
  • exponentielle
  • Lévy
  • normale repliée
  • Rayleigh
1 paramètre de forme
  • χ
  • χ²
  • Davis
  • Erlang
  • Fréchet
  • Gamma
  • Gompertz avec dérive
  • inverse-χ²
  • inverse-gamma
  • inverse-gaussienne
  • log-Cauchy
  • log-Laplace
  • log-logistique
  • log-normale
  • Lomax
  • Nakagami
  • normale généralisée v2
  • Pareto
  • Rice
  • Weibull
2 paramètres de forme
  • χ non centrée
  • χ² non centrée
  • Benktander I
  • Benktander II
  • bêta prime
  • Burr
  • Dagum
  • Fisher
  • Gamma généralisée
  • inverse-gaussienne généralisée
  • normale tronquée
3 paramètres de forme
  • bêta prime généralisée
N paramètres de forme
  • hyper-exponentielle
  • hypo-exponentielle
à support infini
0 paramètre de forme
  • Cauchy
  • Gumbel
  • Holtsmark
  • Landau
  • Laplace
  • logistique
  • normale
  • sécante hyperbolique
  • Slash
  • Voigt
1 paramètre de forme
  • Gompertz
  • normale asymétrique
  • Laplace asymétrique
  • normale généralisée v1
  • Student
2 paramètres de forme
  • géométrique stable
  • stable
  • z de Fisher
Autres types de lois
Lois à support mixte continu-discret
  • normale rectifiée
Lois à support variable
  • Tukey-lambda
Lois multidimensionnelles
Discrètes
  • Ewens (en)
  • multinomiale
Continues
  • Dirichlet
  • normale multidimensionnelle
Matricielles
  • Wishart
  • Wishart inverse
Lois directionnelles
Univariantes
  • von Mises
Sphériques bidimensionnelles
  • Kent
Toroïdales bidimensionnelles
  • Von Mises bivariante
Multidimensionnelles
  • Bingham
Lois singulières
  • Cantor
Familles de lois
  • Circulaire (en)
  • Composée (Poisson composé)
  • elliptique (en)
  • exponentielle
  • exponentielle naturelle (en)
  • d'entropie maximale
  • de Pearson
  • de Burr
  • de Johnson
  • fractale parabolique
  • tronquée
  • enveloppée
  • icône décorative Portail des probabilités et de la statistique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Loi_de_Poisson_binomiale&oldid=217518917 ».
Catégorie :
  • Loi de probabilité
Catégories cachées :
  • Recension temporaire pour le modèle Article
  • Article à illustrer Distribution statistiques
  • Article utilisant une Infobox
  • Article contenant un appel à traduction en anglais
  • Portail:Probabilités et statistiques/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id