Distribution binomiale – Wikipedia

before-content-x4

Distribution binomiale
Distribution de probabilité
Wahrscheinlichkeitsfunktion
Fonction de distribution
Verteilungsfunktion
Paramètre
transporteur
Fonction de probabilité
Fonction de distribution
Valeur d’attente
Médian je. A. Pas de formule fermée, voir ci-dessous
Modus
Variance
Courbé
Courbure
Entropie
Fonction de génération de moment
Fonction caractéristique

Le Distribution binomiale (aussi: Distribution binominale ) est l’une des distributions de probabilité discrètes les plus importantes.

Il décrit le nombre de succès dans une série d’expériences similaires et indépendantes, chacune ayant exactement deux résultats possibles (“succès” ou “échec”). Ces séries de tests sont également appelées processus de Bernoulli.

Est

p {displaystyle p}

La probabilité de succès un Tentative et

n {displaystyle n}

Le nombre d’expériences, alors fait référence à

B ( k p , n ) {Displaystyle b (kmid p, n)}

(aussi

B n , p ( k ) {displayStyle b_ {n, p} (k)}

,

B ( n , p , k ) {displaystyle b (n, p, k)}

[d’abord] ou

B ( n ; p ; k ) {displaystyle b (n; p; k)}

[2] ) la probabilité de exactement

k {displaystyle k}

Pour réussir (voir la définition de la section).

La distribution binomiale et l’expérience de Bernoulli peuvent être illustrées à l’aide du conseil d’administration de Galton. Il s’agit d’un appareil mécanique dans lequel vous jetez des balles. Ceux-ci tombent alors accidentellement dans l’un des nombreux sujets, avec la division de la distribution binomiale. Selon la construction, il existe différents paramètres

n {displaystyle n}

et

p {displaystyle p}

possible.

Bien que la distribution binomiale ait été connue bien avant, le terme a été utilisé pour la première fois en 1911 dans un livre de George Udny Yule. [3]

Table of Contents

Fonction de probabilité, fonction de distribution (cumulée), propriétés [ Modifier | Modifier le texte source ]]

La distribution discrète de la probabilité avec la fonction de probabilité

signifie que Distribution binomiale Aux paramètres

n {displaystyle n}

(Nombre d’expériences) et

p [ 0 , d’abord ]] {DisplayStyle Pin à gauche [0,1Right]}

(le Succès ou Probabilité ).

Un avis: Avec cette formule, la convention est

0 0 : = d’abord {DisplayStyle 0 ^ {0}: = 1}

appliqué (voir zéro zéro élevé).

La formule ci-dessus peut être comprise comme suit: nous avons besoin d’un total de

n {displaystyle n}

Essayer exactement

k {displaystyle k}

Succès de la probabilité

p k {displaystyle p ^ {k}}

et donc ont exactement

n k {displaystyle n-k}

Échecs de la probabilité

( d’abord p ) n k {displayStyle (1-p) ^ {n-k}}

. Cependant, tout le monde peut

k {displaystyle k}

Succès dans chacun des

n {displaystyle n}

Des expériences apparaissent pour que nous soyons toujours avec le nombre

(nk){DisplayStyle {tbinu {n} {k}}}}}

le

k {displaystyle k}

-Ément Sous-coseaux d’un

n {displaystyle n}

-Ément Multipliez beaucoup. Parce qu’il y a autant d’options de tout le monde

n {displaystyle n}

Essaie le

k {displaystyle k}

pour sélectionner réussi.

La probabilité de succès

p {displaystyle p}

Probabilité par défaut complémentaire

d’abord p {displayStyle 1-P}

est souvent avec

q {displayStyle Q}

abrégé.

Si nécessaire pour une distribution de probabilité, les probabilités pour toutes les valeurs possibles doivent

k {displaystyle k}

Pour ajouter 1. Cela résulte du taux d’enseignement binomien comme suit:

Un après

B ( p , n ) {displayStyle b (cdot mid p, n)}

Taille aléatoire distribuée

X {displaystyle x}

Cela signifie en conséquence binomial distribué Avec les paramètres

n {displaystyle n}

et

p {displaystyle p}

ainsi que la fonction de distribution

par lequel

X {displaystyle lfloor xrfloor}

La fonction d’arrondi mentionnée.

D’autres orthographes courantes de la distribution binomiale cumulée sont

F ( k p , n ) {displayStyle f (kmid p, n)}

,

F ( n , p , k ) {displaystyle f (n, p, k)}

[4] et

F ( n ; p ; k ) {displayStyle f (n; p; k)}

. [5]

La dérivation comme une probabilité de Laplace [ Modifier | Modifier le texte source ]]

Schéma expérimental: contient une urne

N {displaystyle n}

Les balles sont d’eux

M {displaystyle m}

noir et

N M {displaystyle n-m}

blanc.
La probabilite

p {displaystyle p}

Tirer une balle noire est ainsi

p = M N {displayStyle p = {frac {m} {n}}}

.
Il y en aura un aléatoire après l’autre

n {displaystyle n}

Balles retirées, leur couleur déterminée et recouverte à nouveau.

Nous calculons le nombre d’options dans lesquelles

k {displaystyle k}

Trouver des boules noires, et à partir de celle-ci Probabilité de Laplace (“Nombre d’options pour l’événement, divisé par le nombre total d’options (également)”).

Avec chacun des

n {displaystyle n}

Il y a des tirages

N {displaystyle n}

Opportunités, donc dans l’ensemble

N n {displaystyle N^{n}}

Possibilités pour la sélection des balles. Si précisément

k {displaystyle k}

ce

n {displaystyle n}

Les balles sont noires, doivent être précises

k {displaystyle k}

le

n {displaystyle n}

Tirez une balle noire. Il y a pour chaque balle noire

M {displaystyle m}

Opportunités, et pour chaque balle blanche

N M {displaystyle n-m}

Possibilités.
Le

k {displaystyle k}

Les boules noires peuvent toujours être sur

(nk){DisplayStyle {tbinu {n} {k}}}}}

Façons possibles sur le

n {displaystyle n}

Les tirages sont distribués, donc il y a

Cas qui exactement

k {displaystyle k}

Les balles noires ont été sélectionnées. La probabilite

p k {displayStyle p_ {k}}

, sous

n {displaystyle n}

Boules exactement

k {displaystyle k}

Donc trouver les Noirs est

Cube de jeu [ Modifier | Modifier le texte source ]]

La probabilité de rouler un 6 avec un cube de jeu normal est

p = 16{displayStyle p = {tfrac {1} {6}}}

. La probabilite

q {displayStyle Q}

que ce n’est pas le cas est

q = d’abord p = 56{displayStyle q = 1-p = {tfrac {5} {6}}}

. Supposons que vous rouliez 10 fois (

n = dix {displayStyle n = 10}

), alors la probabilité qu’un 6 ne soit jamais roulé,

q dix = ( d’abord p ) dix = ( 56) dix = 9765625604661760,162 {displayStyle q ^ {10} = (1-p) ^ {10} = Left ({tfrac {5} {6}} droit) ^ {10} = {tfrac {9765625} {60466176}} Envient 0 {,} 162}

. La probabilité qu’un 6 soit roulé exactement deux fois

(102)( 16) 2 ( 56) 8 {displayStyle {binom {10} {2}} Left ({tfrac {1} {6}} droit) ^ {2} Left ({tfrac {5} {6}} droit) ^ {8}}

. En général, la probabilité

k {displaystyle k}

-Sument un nombre roul

( 0 k dix ) {DisplayStyle (0leq kleq 10)}

, à travers la distribution binomiale

B dix , 16( k ) {displayStyle b_ {10, {tfrac {1} {6}}} (k)}

décrit.

Souvent, le processus décrit par la distribution binomiale est également illustré par un modèle d’urne si appelé. Dans une urne, z. B. 6 balles, 1 d’entre eux blancs, les autres noirs. Maintenant, atteignez l’urne 10 fois, sortez une balle, notez leur couleur et couvrez à nouveau le ballon. Dans une interprétation spéciale de ce processus, tirer une balle blanche est comme événement positif Avec la probabilité

p {displaystyle p}

compris, tirant une balle non blanche comme événement négatif . Les probabilités sont tout aussi distribuées que dans l’exemple avec le cube de jeu.

tissu de monnaie [ Modifier | Modifier le texte source ]]

Une pièce est lancée 7 fois. Lorsque la variable aléatoire discrète

X {displaystyle x}

Le nombre de portées comptes, avec laquelle le “nombre” est lancé

X {displaystyle x}

La distribution binomiale

B ( k 12, 7 ) = { (7k)(12)k(112)7kfallsk{0,1,2,3,4,5,6,7},0sonst.{displaystyle B(kmid {tfrac {1}{2}},7)={begin{cases}{binom {7}{k}}({tfrac {1}{2}})^{k}(1-{tfrac {1}{2}})^{7-k}&{text{falls}}quad kin left{0,1,2,3,4,5,6,7right},\0&{text{sonst.}}end{cases}}}

Les valeurs et leurs probabilités peuvent être résumées dans le tableau suivant:

La valeur des attentes est

La variance est donc donnée par

Avec l’ensemble de décalage, vous obtenez également la même valeur pour la variance:

Il en résulte l’écart type:

symétrie [ Modifier | Modifier le texte source ]]

  • La distribution binomiale est dans les cas spéciaux
  • La distribution binomiale a la propriété

Valeur d’attente [ Modifier | Modifier le texte source ]]

La distribution binomiale a la valeur d’attente

n p {DisplayStyle NP}

.

Preuve

La valeur des attentes

m {displaystyle mu}

Calculer directement à partir de la définition

m = je = d’abord n X je p je {displayStyle mu = sum _ {i = 1} ^ {n} x_ {i} p_ {i}}

Et le taux d’enseignement binomique aussi

Alternativement, vous pouvez en utiliser un

B ( p , n ) {displayStyle b (cdot mid p, n)}

-Révacte aléatoire distribué

X {displaystyle x}

Comme une somme de

n {displaystyle n}

Bernoulli indépendant distribué des variables aléatoires

X je {displayStyle x_ {i}}

avec

ET ( X je ) = p {displayStyle OperatorName {e} (x_ {i}) = p}

peut être écrit. Suit ensuite avec la linéarité de la valeur des attentes

Alternativement, vous pouvez également fournir la preuve suivante à l’aide du taux d’enseignement binomien: si vous différenciez l’équation

Les deux côtés après

un {displaystyle a}

, remis

aussi

Avec

un = p {displayStyle a = p}

et

b = d’abord p {displayStyle b = 1-p}

suit le résultat souhaité.

Variance [ Modifier | Modifier le texte source ]]

La distribution binomiale a la variance

n p q {DisplayStyle NPQ}

avec

q = d’abord p {displayStyle q = 1-p}

.

Preuve

C’est

X {displaystyle x}

un

B ( n , p ) {displayStyle b (n, p)}

-Révance aléatoire distribuée. La variance est déterminée directement à partir du taux de décalage

Était ( X ) = ET ( X 2) ( E(X)) 2 {displayStyle operatorname {var} (x) = opératorname {e} gauche (x ^ {2} droit) -left (Operatorname {e} Left (xRight) droite) ^ {2}}

pour

Ou alternativement à partir de l’équation de Benaymé, appliquée à la variance des variables aléatoires indépendantes si l’on prend en compte les processus individuels identiques

X je {displayStyle x_ {i}}

la distribution de Bernoulli avec

Était ( X je ) = p ( d’abord p ) = p q {displayStyle OperatorName {var} (x_ {i}) = p (1-p) = pq}

se rencontrer aussi

La deuxième égalité s’applique parce que les expériences individuelles sont indépendantes, de sorte que les variables individuelles sont incorporées.

Coefficient de variation [ Modifier | Modifier le texte source ]]

Le coefficient de variation est obtenu à partir de la valeur d’attente et de la variance

Courbé [ Modifier | Modifier le texte source ]]

Le tordu se pose

Courbure [ Modifier | Modifier le texte source ]]

La courbure peut également être affichée fermée comme

Aussi l’excès

Modus [ Modifier | Modifier le texte source ]]

Le mode, c’est-à-dire la valeur avec la probabilité maximale, est pour

p < d’abord {displaystyle p <1}

même

k = n p + p {displayStyle k = lfloor np + prfloor}

et pour

p = d’abord {displayStyle p = 1}

même

n {displaystyle n}

. Chutes

n p + p {DisplayStyle NP + P}

est un nombre naturel

k = n p + p d’abord {displayStyle k = np + p-1}

Aussi un mode. Si la valeur des attentes est un nombre naturel, la valeur d’attente est égale au mode.

Preuve

Être sans restriction

0 < p < d’abord {DisplayStyle 0

. Nous regardons le quotient

S’applique maintenant

un k > d’abord {displaystyle alpha _ {k}> 1}

k < n p + p d’abord {displaystyle k

et

un k < d’abord {displaystyle alpha _ {k} <1}

, chutes

k > n p + p d’abord {displaystyle k> np + p-1}

k>(n+1)p1αk<1B(k+1p,n)<B(kp,n)k=(n+1)p1αk=1B(k+1p,n)=B(kp,n)k<(n+1)p1αk>1B(k+1p,n)>B(kp,n){displayStyle {begin {aligned} k> (n + 1) p-1Rightarrow alpha _ {k} <1RightArrow b (k + 1mid p, n) 1Rightarrow b (k + 1mid p, n)> b (kmid p, n) end {aligné}}}

n p + p d’abord N {Displaystyle np + p-1in mathbb {n}}}

Le quotient a-t-il la valeur 1, i. H.

B ( n p + p d’abord n , p ) = B ( n p + p n , p ) {displayStyle b (np + p-1mid n, p) = b (np + pMid n, p)}

.

Médian [ Modifier | Modifier le texte source ]]

Il n’est pas possible de spécifier une formule générale pour la médiane de la distribution binomiale. Par conséquent, différents cas doivent être pris en compte qui fournissent une médiane appropriée:

  • Est
  • Une médiane
  • Une médiane
  • La médiane est claire et a raison avec
  • Est

Cumulateur [ Modifier | Modifier le texte source ]]

Analogue à la distribution de Bernoulli, la fonction générateurs de cumulator est

Aussi les premiers cumulateurs

K d’abord = n p , K 2 = n p q {displayStyle kappa _ {1} = np, kappa _ {2} = npq}

Et l’équation de la récursivité s’applique

Fonction caractéristique [ Modifier | Modifier le texte source ]]

La fonction caractéristique a la forme

Fonction de génération de probabilité [ Modifier | Modifier le texte source ]]

Pour la fonction de génération de probabilité que vous obtenez

Fonction de génération de moment [ Modifier | Modifier le texte source ]]

La fonction générateurs de moment de la distribution binomiale est

Somme de tailles aléatoires distribuées binomiales [ Modifier | Modifier le texte source ]]

Pour la somme

AVEC = X + ET {displaystyle z = x + y}

Deux tailles aléatoires distribuées binomiales indépendantes

X {displaystyle x}

et

ET {displaystyle y}

Avec les paramètres

n d’abord {displaystyle n_ {1}}

,

p {displaystyle p}

et

n 2 {displayStyle n_ {2}}

,

p {displaystyle p}

Si vous obtenez les probabilités individuelles en utilisant l’identité de Vanderondeschen

Encore une fois une taille aléatoire distribuée binomiale, mais avec les paramètres

n d’abord + n 2 {displaystyle n_{1}+n_{2}}

et

p {displaystyle p}

. S’applique donc au pliage

La distribution binomiale est donc reproductive pour

p {displaystyle p}

ou forme un groupe pliant.

Si la somme

AVEC = X + ET {displaystyle z = x + y}

est connu, chacune des variables aléatoires suit

X {displaystyle x}

et

ET {displaystyle y}

Dans cette condition d’une distribution hypergéométrique. Pour ce faire, la probabilité conditionnelle est calculée:

Cela représente une distribution hypergéométrique.

En général: si le

m {displaystyle m}

Variables aléatoires

X je {displayStyle x_ {i}}

sont stochastiques indépendantes et les distributions binomiales

B ( n je , p ) {displayStyle b (n_ {i}, p)}

assez, alors la somme est aussi

X d’abord + X 2 + + X m {DisplayStyle x_ {1} + x_ {2} + dotsb + x_ {m}}

Binomial distribué, mais avec les paramètres

n d’abord + n 2 + + n m {DisplayStyle n_ {1} + n_ {2} + dotsb + n_ {m}}

et

p {displaystyle p}

. Ajoute des variables aléatoires distribuées binomiales

X d’abord , X 2 {displayStyle x_ {1}, x_ {2}}

avec

p d’abord p 2 {displayStyle p_ {1} neq p_ {2}}

, alors vous obtenez une distribution binomiale généralisée.

Relation avec la distribution de Bernoulli [ Modifier | Modifier le texte source ]]

Un cas particulier de distribution binomiale pour

n = d’abord {displayStyle n = 1}

est la distribution de Bernoulli. La somme des tailles aléatoires indépendantes et identiques à bernoulli est donc suffisante pour la distribution binomiale.

Relation avec la distribution binomiale généralisée [ Modifier | Modifier le texte source ]]

La distribution binomiale est un cas particulier de distribution binomiale généralisée avec

p je = p J {displayStyle p_ {i} = p_ {j}}

pour tous

je , J { d’abord , , n } {displayStyle I, Jin {1, DOTSC, n}}

.
Il est plus précis pour la valeur des attentes fixes et l’ordre fixe de la distribution binomiale généralisée avec une entropie maximale. [dix]

Transition vers la distribution normale [ Modifier | Modifier le texte source ]]

Selon la phrase de Moivre-Laplace, la distribution binomiale converge dans l’affaire limite

n {displaystyle nto infty}

Contre une distribution normale, d. Autrement dit, la distribution normale peut être utilisée comme une approximation utile de la distribution binomiale si la taille de l’échantillon est suffisamment grande et que la proportion de la recherche n’est pas trop petite. Avec le conseil d’administration de Galton, vous pouvez comprendre expérimentalement l’approche de la distribution normale.

Ça s’applique

m = n p {displayStyle mu = np}

et

un 2 = n p q . {displayStyle Sigma ^ {2} = npq.}

En insérant dans la fonction de distribution

Phi {displaystyle phi}

La distribution normale standard suit

Quant à voir, le résultat n’est rien de plus que la valeur fonctionnelle de la distribution normale pour

X = k {displayStyle x = k}

,

m = n p {displayStyle mu = ncdot p}

ainsi que

un 2 = n p q {displayStyle Sigma ^ {2} = ncdot pcdot q}

(lequel est également vivant comme la zone du

k {displaystyle k}

-Te rayures de l’histogramme du Standardisé Distribution binomiale avec

d’abord / / un {DisplayStyle 1 / Sigma}

Comme sa largeur et

Phi ( ( k m ) / / un ) {displaystyle phi ((k-mu) / sigma)}

comme sa hauteur). [11] L’approche de la distribution binomiale à la distribution normale est utilisée dans la proximité normale des singes afin de déterminer rapidement la probabilité de nombreux niveaux de distribution binomiale, surtout s’il n’y a plus de valeurs de tableau (plus) pour eux.

Transition vers la distribution de Poisson [ Modifier | Modifier le texte source ]]

Une distribution binomiale asymétrique, dont la valeur des attentes

n p {DisplayStyle NP}

pour

n {displaystyle nrightarrow infty}

et

p 0 {displaystyle PRIGHTARROW 0}

Contre une constante

l {displaystyle lambda}

Converged, vous pouvez aborder la distribution de Poisson. La valeur

l {displaystyle lambda}

est alors la valeur des attentes pour toutes les distributions binomiales considérées dans la formation de valeur limite ainsi que pour la distribution de Poisson résultante. Ce rapprochement est également appelé approximation de Poisson, la valeur frontalière de Poisonsonsch ou la loi des événements rares.

Une règle de base dit que cette approximation est utilisable si

n 50 {displaystyle ngeq 50}

et

p 0 , 05 {DisplayStyle Elder 0 {,} 05}

.

La distribution de Poisson est donc la distribution aux frontières de la distribution binomiale pour les grands

n {displaystyle n}

et peu

p {displaystyle p}

, Il s’agit d’une convergence dans la distribution.

Relation avec la distribution géométrique [ Modifier | Modifier le texte source ]]

Le nombre d’échecs jusqu’à la première occurrence du succès est décrit par la distribution géométrique.

Relation avec la distribution binomiale négative [ Modifier | Modifier le texte source ]]

La distribution binomiale négative, en revanche, décrit la distribution de probabilité du nombre de tentatives nécessaires pour atteindre un nombre donné de succès dans un processus de Bernoulli.

Relation avec la distribution hypergéométrique [ Modifier | Modifier le texte source ]]

Dans le cas de la distribution binomiale, les échantillons sélectionnés sont retournés au volume de sélection, afin qu’ils puissent être sélectionnés à nouveau à une date ultérieure. En revanche, les échantillons ne sont pas retournés dans la population, la distribution hypergéométrique est utilisée. Les deux distributions vont dans une large mesure

N {displaystyle n}

la population et une petite étendue

n {displaystyle n}

Les échantillons ont fusionné. En règle générale, pour

n / / N 0 , 05 {displayStyle n / nleq 0 {,} 05}

Même si les échantillons ne sont pas suivis, la distribution binomiale peut être utilisée à la place de la distribution hypergéométrique mathématiquement plus exigeante, car les deux dans ce cas ne fournissent que des résultats légèrement différents.

Relation avec la distribution multinomiale [ Modifier | Modifier le texte source ]]

La distribution binomiale est un cas particulier de distribution multinomiale.

Relation avec la distribution Rademacher [ Modifier | Modifier le texte source ]]

Est

ET {displaystyle y}

Binôme distribué au paramètre

p = 0 , 5 {displayStyle p = 0 {,} 5}

et

n {displaystyle n}

, ainsi peut

ET {displaystyle y}

Comme une somme à l’échelle de

n {displaystyle n}

Variables aléatoires distribuées par Rademacher

X d’abord , , X n {displayStyle x_ {1}, dotsc, x_ {n}}

représenter:

Cela est particulièrement évident dans la marche aléatoire symétrique

AVEC {displaystyle mathbb {z}}

utilisé.

Relation avec la distribution de Panjer [ Modifier | Modifier le texte source ]]

La distribution binomiale est un cas particulier de la distribution de Panjer, qui combine la distribution de la distribution binomiale, de la distribution binomiale négative et de la distribution de Poisson dans une classe de distribution.

Relation avec la distribution bêta [ Modifier | Modifier le texte source ]]

Pour de nombreuses applications, il est nécessaire de distribuer la fonction de distribution

à calculer spécifiquement (par exemple dans les tests statistiques ou pour les intervalles de confiance).

La relation suivante à la distribution bêta aide ici:

C’est pour des paramètres positifs entier

un {displaystyle a}

et

b {displaystyle b}

:

À l’équation

Pour prouver, on peut procéder comme suit:

  • Le côté gauche et droit vote pour
  • Les dérivations après

Relation avec la distribution binomiale bêta [ Modifier | Modifier le texte source ]]

Une distribution binomiale, son paramètre

p {displaystyle p}

Est distribué par bêta, est appelé une distribution binomiale bêta. C’est une distribution mixte.

Relation avec la distribution de pólya [ Modifier | Modifier le texte source ]]

La distribution binomiale est un cas particulier de la distribution Pólya (choisissez

c = 0 {displayStyle c = 0}

).

Distribution binomiale symétrique ( p = 1/2) [ Modifier | Modifier le texte source ]]

Ce cas se produit au

n {displaystyle n}

-Fachen Talent de monnaie avec une monnaie équitable (probabilité de têtes égale au nombre, c’est-à-dire seulement 1/2). La première figure montre la distribution binomiale pour

p = 0 , 5 {displayStyle p = 0 {,} 5}

Et pour différentes valeurs de

n {displaystyle n}

En tant que fonction de

k {displaystyle k}

. Ces distributions binomiales sont symétriques du miroir autour de la valeur

k = n / / 2 {displayStyle k = n / 2}

:

Distributions binomiales avec p = 0,5 (avec déplacement autour – n / 2 et à l’échelle) pour n = 4, 6, 8, 12, 16, 23, 32, 46

Les mêmes données dans la production semi-logarithmique

Ceci est illustré dans la deuxième figure.
La largeur de la distribution devient proportionnelle à l’écart type

un = n2 {displayStyle Sigma = {frac {sqrt {n}} {2}}}

. La valeur de la fonction à

k = n / / 2 {displayStyle k = n / 2}

, c’est-à-dire le maximum de la courbe, tombe proportionnellement

un {DisplayStyle Sigma}

.

En conséquence, on peut être des distributions binomiales avec différents

n {displaystyle n}

Échelle les uns sur les autres par l’abscisse

k n / / 2 {displaystyle k-n / 2}

à travers

un {DisplayStyle Sigma}

actions et l’ordonnée avec

un {DisplayStyle Sigma}

multiplié (troisième figure ci-dessus).

Le graphique adjacent montre les distributions binomiales redimensionnées, maintenant pour d’autres valeurs de

n {displaystyle n}

Et dans une miséricorde qui facilite la facilité de réalisation de toutes les valeurs fonctionnelles avec l’augmentation

n {displaystyle n}

converge contre une courbe commune. En utilisant la formule Stirling sur les coefficients binomiaux, vous pouvez voir que cette courbe (tirée en noir sur l’image) est une courbe de cloche Gaußsche:

C’est la densité de probabilité de la distribution normale standard

N ( 0 , d’abord ) {displayStyle {Mathcal {n}} (0,1)}

. Dans la limite centrale, cette constatation est si généralisée que les conséquences d’autres distributions de probabilité discrètes convergent contre la distribution normale.

Le deuxième graphique adjacent montre les mêmes données dans une application semi-logarithmique. Ceci est recommandé si vous souhaitez vérifier s’il existe des événements rares qui s’écartent de plusieurs écarts-types par rapport à la valeur des attentes, une distribution binomiale ou normale.

Tirer des balles [ Modifier | Modifier le texte source ]]

Il y a 80 balles dans un récipient, dont 16 jaunes. Une balle est retirée 5 fois puis couverte à nouveau. En raison du revêtement, la probabilité de tirer une boule jaune est également grande pour tous les retraits, à savoir 16/80 = 1/5. La valeur

B ( k 15; 5 ) {displayStyle Bleft (kmid {tfrac {1} {5}}; 5Right)}

indique que précisément

k {displaystyle k}

Les balles retirées sont jaunes. Par exemple, nous nous attendons

k = 3 {displayStyle k = 3}

:

Dans environ 5% des cas, exactement 3 boules jaunes sont tirées.

B (k | 0,2; 5)
k Probabilité en%
0 00 32 768
d’abord 00 40.96
2 00 20.48
3 000 5.12
4 000 0,64
5 000 0,032
0 100
Valeur adulte 000 d’abord
Variance 000 0.8

Nombre de personnes avec un anniversaire le week-end [ Modifier | Modifier le texte source ]]

La probabilité qu’une personne ait son anniversaire cette année est (par souci de simplicité) 2/7. 10 personnes restent dans une pièce. La valeur

B ( k 2 / / 7 ; dix ) {displayStyle b (kmid 2/7; 10)}

donne (dans le modèle simplifié) la probabilité qui

k {displaystyle k}

Les personnes présentes cette année ont un anniversaire un week-end.

B (k | 2/7; 10)
k Probabilité en% (arrondi)
0 000 3.46
d’abord 00 13.83
2 00 24.89
3 00 26.55
4 00 18.59
5 000 8.92
6 000 2.97
7 000 0,6797
8 000 0.1020
9 000 0,009063
dix 000 0.0003625
0 100
Valeur adulte 000 2.86
Variance 000 2.04

Ensemble dans l’année ensemble [ Modifier | Modifier le texte source ]]

253 personnes se sont réunies. La valeur

B ( k d’abord / / 365 ; 253 ) {displayStyle b (kmid 1/365; 253)}

indique que exactement

k {displaystyle k}

La personne présente un jour choisi au hasard a son anniversaire (sans considérer l’année).

B (k | 1/365; 253)
k Probabilité en% (arrondi)
0 0 49,95
d’abord 0 34,72
2 0 12.02
3 00 2.76
4 00 0,47

La probabilité que “quelqu’un” de ces 253 personnes, c’est-à-dire H. Une ou plusieurs personnes qui ont un anniversaire ce jour-là est donc

d’abord B ( 0 d’abord / / 365 ; 253 ) = 50.05 % {DisplayStyle 1-B (0mid 1/365; 253) = 50,05,%}

.

Dans 252 personnes, la probabilité est

d’abord B ( 0 d’abord / / 365 ; 252 ) = 49.91 % {displayStyle 1-b (0mid 1/365; 252) = 49,91,%}

. Cela signifie que le seuil du nombre de personnes, à partir de laquelle la probabilité qu’au moins une de ces personnes ait un jour choisi au hasard de son anniversaire, soit supérieur à 50% est de 253 personnes (voir aussi le paradoxe de l’anniversaire).

Le calcul direct de la distribution binomiale peut être difficile en raison des grandes facultés. Une approximation de la distribution de Poisson est autorisée ici (

n > 50 , p < 0 , 05 {displayStyle n> 50, p <0 {,} 05}

). Avec le paramètre

l = n p = 253 / / 365 {displaystyle lambda = np = 253/65}

Les valeurs suivantes surviennent: [douzième]

P 253/365 (k)
k Probabilité en% (arrondi)
0 0 50
d’abord 0 34.66
2 0 12.01
3 00 2.78
4 00 0,48

Intervalle de confiance pour une probabilité [ Modifier | Modifier le texte source ]]

Dans une enquête d’opinion

n {displaystyle n}

Personnes

k {displaystyle k}

Les gens à choisir la fête A. Déterminez un intervalle de confiance à 95% pour la proportion inconnue d’électeurs qui choisissent le parti A dans l’électorat global.

Une solution au problème sans L’enregistrement à la distribution normale peut être trouvé dans l’intervalle de confiance de l’article pour la probabilité de succès de la distribution binomiale.

Modèle d’utilisation [ Modifier | Modifier le texte source ]]

En utilisant la formule suivante, la probabilité peut être calculée que

k {displaystyle k}

depuis

n {displaystyle n}

Les gens une activité en moyenne

m {displaystyle m}

Minutes par heure Prises, exécutez en même temps.

Erreurs statistiques de la fréquence des classes dans les histogrammes [ Modifier | Modifier le texte source ]]

L’affichage de la mesure indépendante entraîne un histogramme conduit au regroupement des valeurs mesurées dans les classes.

La probabilité de

n je {displaystyle n_ {i}}

Entrées en classe

je {displayStyle i}

est donné par la distribution binomiale

Valeur d’attente et variance du

n je {displaystyle n_ {i}}

Sont alors

Cela réside l’erreur statistique du nombre d’entrées en classe

je {displayStyle i}

à

Avec un grand nombre de classes,

p je {displayStyle p_ {i}}

petit et petit

un ( n je ) ni{displayStyle Sigma (n_ {i}) approx {sqrt {n_ {i}}}}

.

Par exemple, la précision statistique des simulations de Monte Carlo peut être déterminée.

Les nombres aléatoires pour la distribution binomiale sont généralement générés en utilisant la méthode d’inversion.

Alternativement, vous pouvez également utiliser que la somme des variables aléatoires distribuées de Bernoulli est binomiale. Vous créez ceci

n {displaystyle n}

Bernoulli a distribué des nombres aléatoires et les ajoute; Le résultat est un nombre aléatoire distribué binomial.

Appeler la fonction de probabilité de la distribution binomiale dans les ordinateurs de poche et les logiciels mathématiques se produit généralement certains de certains , pdfbin ou Binomialpdf ( Fonction de densité de probabilité binomiale ). La fonction de distribution accumulée est avec cdfbin ou Binomialcdf ( Fonction de distribution cumulative binomiale ) abrégé. [13]

  1. Peter Kissel: MAC08 Stochastics (partie 2). Darmstadt Study Community 2014, p. 12.
  2. Bigalke, Köhler: Mathématiques 13.2 Cours de base et avancé. Cornelsen, Berlin 2000, p. 130.
  3. George Udny Yule: Une introduction à la théorie des statistiques. Griffin, Londres 1911, S. 287.
  4. Peter Kissel: MAC08 Stochastics. Partie 2e groupe d’étude Darmstadt 2014, p. 23.
  5. Bigalke, / Köhler: Mathématiques 13.2 Cours de base et avancé. Cornelsen, Berlin 2000, p. 144 ff.
  6. P. Neumann: Sur la médiane de la distribution binomiale et de Poisson . Dans: Magazine scientifique de l’Université technique de Dresde . 19e année, 1966, S. 29–33 .
  7. Seigneur, Nick. (Juillet 2010). “Moyenne binomiale Lorsque la moyenne est un entier”, The Mathematical Gazette 94, 331–332.
  8. un b R. Kaas, J.M. Buhrman: Moyenne, médiane et mode dans les distributions binomiales . Dans: Statistiques neerlandiques . 34e année, Non. d’abord , 1980, S. 13–18 , est ce que je: 10.1111 / j.1467-9574.1980.tb00681.x .
  9. un b K. Hamza: La plus petite limite supérieure uniforme sur la distance entre la moyenne et la médiane des distributions binomiales et de Poisson . Dans: Statistiques et lettres de probabilité . 23e année, 1995, S. 21-25 , est ce que je: 10.1016 / 0167-7152 (94) 00090-in .
  10. Peter Harremoës: Distributions binomiales et de Poisson comme distributions d’entropie maximales . Dans: Transactions IEEE sur la théorie de l’information . 47e année. IEEE Information Theory Society, 2001, S. 2039-2041 , est ce que je: 101109/18 930936 .
  11. M. Brokate, N. Henze, F. Hettlich, A. Meister, G. Schranz-Kirchener, Th. Sonar: Connaissance de base des mathématiques: analyse plus élevée, numérique et stochastes. Springer-Verlag, 2015, p. 890.
  12. Dans le cas spécifique, vous devez pour la distribution binomiale
  13. Aide en ligne SCILAB – Statistiques. Consulté le 13 janvier 2022 .

after-content-x4