[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/distribution-binomiale-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/distribution-binomiale-wikipedia\/","headline":"Distribution binomiale – Wikipedia","name":"Distribution binomiale – Wikipedia","description":"before-content-x4 Distribution binomiale Distribution de probabilit\u00e9 Fonction de distribution Param\u00e8tre n\u2208N+{Displaystyle nin mathbb {n} ^ {+}} , p\u2208[0,1]{Pin d’affichage [0,1]}","datePublished":"2023-09-28","dateModified":"2023-09-28","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/7\/75\/Binomial_distribution_pmf.svg\/280px-Binomial_distribution_pmf.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/7\/75\/Binomial_distribution_pmf.svg\/280px-Binomial_distribution_pmf.svg.png","height":"186","width":"280"},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/distribution-binomiale-wikipedia\/","wordCount":50118,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Distribution binomiale Distribution de probabilit\u00e9 Fonction de distribution Param\u00e8tre n\u2208N+{Displaystyle nin mathbb {n} ^ {+}} , p\u2208[0,1]{Pin d’affichage [0,1]} (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4 transporteur k\u2208{0,\u2026,n}{displayStyle kin {0, dotsc, n}} Fonction de probabilit\u00e9 (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4(nk)pk(1\u2212p)n\u2212k{DisplayStyle Text Style {n Choisissez K}, p ^ {k} (1-p) ^ {n-k}} Fonction de distribution I1\u2212p(n\u2212\u230ak\u230b,1+\u230ak\u230b){displayStyle i_ {1-p} (n-lfloor krfloor, 1 + lfloor krfloor)} Valeur d’attente np{DisplayStyle NP} M\u00e9dian je. A. Pas de formule ferm\u00e9e, voir ci-dessous Modus \u230a(n+1)p\u230b{displayStyle lfloor (n + 1) prfloor} ou (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4\u230a(n+1)p\u22121\u230b{displayStyle lfloor (n + 1) p-1rfloor} Variance np(1\u2212p){DisplayStyle NP (1-P)} Courb\u00e9 1\u22122pnp(1\u2212p){displayStyle {frac {1-2p} {sqrt {np (1-p)}}}} Courbure 3+1\u22126p(1\u2212p)np(1\u2212p){displayStyle 3+ {frac {1-6p (1-p)} {np (1-p)}}} Entropie 12log2\u2061(2\u03c0enp(1\u2212p)){displayStyle {frac {1} {2}} log _ {2} {big (} 2pi mathrm {e}, np (1-p) {big)}} +O(1n){displayStyle + {mathcal {o}} gauche ({frac {1} {n}} droit)} Fonction de g\u00e9n\u00e9ration de moment (1\u2212p+pet)n{displayStyle gauche (1-p + pmAtHrm {e} ^ {t} droit) ^ {n}} Fonction caract\u00e9ristique (1\u2212p+peit)n{DisplayStyle gauche (1-p + pmathrm {e} ^ {Mathrm {i} t} droit) ^ {n}} Le Distribution binomiale (aussi: Distribution binominale ) est l’une des distributions de probabilit\u00e9 discr\u00e8tes les plus importantes. Il d\u00e9crit le nombre de succ\u00e8s dans une s\u00e9rie d’exp\u00e9riences similaires et ind\u00e9pendantes, chacune ayant exactement deux r\u00e9sultats possibles (“succ\u00e8s” ou “\u00e9chec”). Ces s\u00e9ries de tests sont \u00e9galement appel\u00e9es processus de Bernoulli. Est p {displaystyle p} La probabilit\u00e9 de succ\u00e8s un Tentative et n {displaystyle n} Le nombre d’exp\u00e9riences, alors fait r\u00e9f\u00e9rence \u00e0 B ( k \u2223 p , n ) {Displaystyle b (kmid p, n)} (aussi B n , p ( k ) {displayStyle b_ {n, p} (k)} , B ( n , p , k ) {displaystyle b (n, p, k)} [d’abord] ou B ( n ; p ; k ) {displaystyle b (n; p; k)} [2] ) la probabilit\u00e9 de exactement k {displaystyle k} Pour r\u00e9ussir (voir la d\u00e9finition de la section). La distribution binomiale et l’exp\u00e9rience de Bernoulli peuvent \u00eatre illustr\u00e9es \u00e0 l’aide du conseil d’administration de Galton. Il s’agit d’un appareil m\u00e9canique dans lequel vous jetez des balles. Ceux-ci tombent alors accidentellement dans l’un des nombreux sujets, avec la division de la distribution binomiale. Selon la construction, il existe diff\u00e9rents param\u00e8tres n {displaystyle n} et p {displaystyle p} possible. Bien que la distribution binomiale ait \u00e9t\u00e9 connue bien avant, le terme a \u00e9t\u00e9 utilis\u00e9 pour la premi\u00e8re fois en 1911 dans un livre de George Udny Yule. [3] Table of ContentsFonction de probabilit\u00e9, fonction de distribution (cumul\u00e9e), propri\u00e9t\u00e9s [ Modifier | Modifier le texte source ]] La d\u00e9rivation comme une probabilit\u00e9 de Laplace [ Modifier | Modifier le texte source ]] Cube de jeu [ Modifier | Modifier le texte source ]] tissu de monnaie [ Modifier | Modifier le texte source ]] sym\u00e9trie [ Modifier | Modifier le texte source ]] Valeur d’attente [ Modifier | Modifier le texte source ]] Variance [ Modifier | Modifier le texte source ]] Coefficient de variation [ Modifier | Modifier le texte source ]] Courb\u00e9 [ Modifier | Modifier le texte source ]] Courbure [ Modifier | Modifier le texte source ]] Modus [ Modifier | Modifier le texte source ]] M\u00e9dian [ Modifier | Modifier le texte source ]] Cumulateur [ Modifier | Modifier le texte source ]] Fonction caract\u00e9ristique [ Modifier | Modifier le texte source ]] Fonction de g\u00e9n\u00e9ration de probabilit\u00e9 [ Modifier | Modifier le texte source ]] Fonction de g\u00e9n\u00e9ration de moment [ Modifier | Modifier le texte source ]] Somme de tailles al\u00e9atoires distribu\u00e9es binomiales [ Modifier | Modifier le texte source ]] Relation avec la distribution de Bernoulli [ Modifier | Modifier le texte source ]] Relation avec la distribution binomiale g\u00e9n\u00e9ralis\u00e9e [ Modifier | Modifier le texte source ]] Transition vers la distribution normale [ Modifier | Modifier le texte source ]] Transition vers la distribution de Poisson [ Modifier | Modifier le texte source ]] Relation avec la distribution g\u00e9om\u00e9trique [ Modifier | Modifier le texte source ]] Relation avec la distribution binomiale n\u00e9gative [ Modifier | Modifier le texte source ]] Relation avec la distribution hyperg\u00e9om\u00e9trique [ Modifier | Modifier le texte source ]] Relation avec la distribution multinomiale [ Modifier | Modifier le texte source ]] Relation avec la distribution Rademacher [ Modifier | Modifier le texte source ]] Relation avec la distribution de Panjer [ Modifier | Modifier le texte source ]] Relation avec la distribution b\u00eata [ Modifier | Modifier le texte source ]] Relation avec la distribution binomiale b\u00eata [ Modifier | Modifier le texte source ]] Relation avec la distribution de p\u00f3lya [ Modifier | Modifier le texte source ]] Distribution binomiale sym\u00e9trique ( p = 1\/2) [ Modifier | Modifier le texte source ]] Tirer des balles [ Modifier | Modifier le texte source ]] Nombre de personnes avec un anniversaire le week-end [ Modifier | Modifier le texte source ]] Ensemble dans l’ann\u00e9e ensemble [ Modifier | Modifier le texte source ]] Intervalle de confiance pour une probabilit\u00e9 [ Modifier | Modifier le texte source ]] Mod\u00e8le d’utilisation [ Modifier | Modifier le texte source ]] Erreurs statistiques de la fr\u00e9quence des classes dans les histogrammes [ Modifier | Modifier le texte source ]] Fonction de probabilit\u00e9, fonction de distribution (cumul\u00e9e), propri\u00e9t\u00e9s [ Modifier | Modifier le texte source ]] La distribution discr\u00e8te de la probabilit\u00e9 avec la fonction de probabilit\u00e9 B ( k \u2223 p , n ) = {(nk)pk(1\u2212p)n\u2212kfallsk\u2208{0,1,\u2026,n},0sonst.{displayStyle b (kmid p, n) = {begin {cas} {binom {n} {k}} p ^ {k} (1-p) ^ {n-k} & {text {chutes}} quad kin gauche {0,1, terr signifie que Distribution binomiale Aux param\u00e8tres n {displaystyle n} (Nombre d’exp\u00e9riences) et p \u2208 [ 0 , d’abord ]] {DisplayStyle Pin \u00e0 gauche [0,1Right]} (le Succ\u00e8s ou Probabilit\u00e9 ). Un avis: Avec cette formule, la convention est 0 0 : = d’abord {DisplayStyle 0 ^ {0}: = 1} appliqu\u00e9 (voir z\u00e9ro z\u00e9ro \u00e9lev\u00e9). La formule ci-dessus peut \u00eatre comprise comme suit: nous avons besoin d’un total de n {displaystyle n} Essayer exactement k {displaystyle k} Succ\u00e8s de la probabilit\u00e9 p k {displaystyle p ^ {k}} et donc ont exactement n – k {displaystyle n-k} \u00c9checs de la probabilit\u00e9 ( d’abord – p ) n – k {displayStyle (1-p) ^ {n-k}} . Cependant, tout le monde peut k {displaystyle k} Succ\u00e8s dans chacun des n {displaystyle n} Des exp\u00e9riences apparaissent pour que nous soyons toujours avec le nombre (nk){DisplayStyle {tbinu {n} {k}}}}} le k {displaystyle k} -\u00c9ment Sous-coseaux d’un n {displaystyle n} -\u00c9ment Multipliez beaucoup. Parce qu’il y a autant d’options de tout le monde n {displaystyle n} Essaie le k {displaystyle k} pour s\u00e9lectionner r\u00e9ussi. La probabilit\u00e9 de succ\u00e8s p {displaystyle p} Probabilit\u00e9 par d\u00e9faut compl\u00e9mentaire d’abord – p {displayStyle 1-P} est souvent avec q {displayStyle Q} abr\u00e9g\u00e9. Si n\u00e9cessaire pour une distribution de probabilit\u00e9, les probabilit\u00e9s pour toutes les valeurs possibles doivent k {displaystyle k} Pour ajouter 1. Cela r\u00e9sulte du taux d’enseignement binomien comme suit: \u2211 k=0n(nk)p k( d’abord – p ) n\u2212k= (p+(1\u2212p))n= d’abord n= d’abord mm Slave Slext ou Alyyal m\u00e2le m kal hyo syma hy huple huperkerk) Mertuber) Mertubate 10-4 Un apr\u00e8s B ( \u22c5 \u2223 p , n ) {displayStyle b (cdot mid p, n)} Taille al\u00e9atoire distribu\u00e9e X {displaystyle x} Cela signifie en cons\u00e9quence binomial distribu\u00e9 Avec les param\u00e8tres n {displaystyle n} et p {displaystyle p} ainsi que la fonction de distribution F X( X ) = P \u2061 ( X \u2264 X ) = \u2211 k=0\u230ax\u230b(nk)p k( d’abord – p ) n\u2212k{displayStyle f_ {x} (x) = op\u00e9ratorname {p} (xleq x) = sum _ {k = 0} ^ {lfloor xrfloor} {binom {n} {k}} p ^ {k} (1-p) ^ {n-k}} , par lequel \u230a X \u230b {displaystyle lfloor xrfloor} La fonction d’arrondi mentionn\u00e9e. D’autres orthographes courantes de la distribution binomiale cumul\u00e9e sont F ( k \u2223 p , n ) {displayStyle f (kmid p, n)} , F ( n , p , k ) {displaystyle f (n, p, k)} [4] et F ( n ; p ; k ) {displayStyle f (n; p; k)} . [5] La d\u00e9rivation comme une probabilit\u00e9 de Laplace [ Modifier | Modifier le texte source ]] Sch\u00e9ma exp\u00e9rimental: contient une urne N {displaystyle n} Les balles sont d’eux M {displaystyle m} noir et N – M {displaystyle n-m} blanc.La probabilite p {displaystyle p} Tirer une balle noire est ainsi p = M N {displayStyle p = {frac {m} {n}}} .Il y en aura un al\u00e9atoire apr\u00e8s l’autre n {displaystyle n} Balles retir\u00e9es, leur couleur d\u00e9termin\u00e9e et recouverte \u00e0 nouveau. Nous calculons le nombre d’options dans lesquelles k {displaystyle k} Trouver des boules noires, et \u00e0 partir de celle-ci Probabilit\u00e9 de Laplace (“Nombre d’options pour l’\u00e9v\u00e9nement, divis\u00e9 par le nombre total d’options (\u00e9galement)”). Avec chacun des n {displaystyle n} Il y a des tirages N {displaystyle n} Opportunit\u00e9s, donc dans l’ensemble N n {displaystyle N^{n}} Possibilit\u00e9s pour la s\u00e9lection des balles. Si pr\u00e9cis\u00e9ment k {displaystyle k} ce n {displaystyle n} Les balles sont noires, doivent \u00eatre pr\u00e9cises k {displaystyle k} le n {displaystyle n} Tirez une balle noire. Il y a pour chaque balle noire M {displaystyle m} Opportunit\u00e9s, et pour chaque balle blanche N – M {displaystyle n-m} Possibilit\u00e9s.Le k {displaystyle k} Les boules noires peuvent toujours \u00eatre sur (nk){DisplayStyle {tbinu {n} {k}}}}} Fa\u00e7ons possibles sur le n {displaystyle n} Les tirages sont distribu\u00e9s, donc il y a (nk)M k( N – M ) n\u2212k{DisplayStyle {binom {n} {k}} m ^ {k} (n-m) ^ {n-k}}} Cas qui exactement k {displaystyle k} Les balles noires ont \u00e9t\u00e9 s\u00e9lectionn\u00e9es. La probabilite p k {displayStyle p_ {k}} , sous n {displaystyle n} Boules exactement k {displaystyle k} Donc trouver les Noirs est pk=(nk)Mk(N\u2212M)n\u2212kNn=(nk)(MN)k(N\u2212MN)n\u2212k=(nk)pk(1\u2212p)n\u2212k.{displayStyle {begin {aligned} p_ {k} & = {binom {n} {k}} {frac {m ^ {k} (n-m) ^ {n-k}} {n ^ {n}}} \\ & = {binom {n} {k}}} ^ gauche ({m}} {K}}} ^ Left ({m}} {K} \u00e9e {k} Left ({frac {n-m} {n}} droit) ^ {n-k} \\ & = {binom {n} {k}} p ^ {k} (1-p) ^ {n-k} .end {align\u00e9}}}} Cube de jeu [ Modifier | Modifier le texte source ]] La probabilit\u00e9 de rouler un 6 avec un cube de jeu normal est p = 16{displayStyle p = {tfrac {1} {6}}} . La probabilite q {displayStyle Q} que ce n’est pas le cas est q = d’abord – p = 56{displayStyle q = 1-p = {tfrac {5} {6}}} . Supposons que vous rouliez 10 fois ( n = dix {displayStyle n = 10} ), alors la probabilit\u00e9 qu’un 6 ne soit jamais roul\u00e9, q dix = ( d’abord – p ) dix = ( 56) dix = 976562560466176\u2248 0,162 {displayStyle q ^ {10} = (1-p) ^ {10} = Left ({tfrac {5} {6}} droit) ^ {10} = {tfrac {9765625} {60466176}} Envient 0 {,} 162} . La probabilit\u00e9 qu’un 6 soit roul\u00e9 exactement deux fois (102)( 16) 2 ( 56) 8 {displayStyle {binom {10} {2}} Left ({tfrac {1} {6}} droit) ^ {2} Left ({tfrac {5} {6}} droit) ^ {8}} . En g\u00e9n\u00e9ral, la probabilit\u00e9 k {displaystyle k} -Sument un nombre roul ( 0 \u2264 k \u2264 dix ) {DisplayStyle (0leq kleq 10)} , \u00e0 travers la distribution binomiale B dix , 16( k ) {displayStyle b_ {10, {tfrac {1} {6}}} (k)} d\u00e9crit. Souvent, le processus d\u00e9crit par la distribution binomiale est \u00e9galement illustr\u00e9 par un mod\u00e8le d’urne si appel\u00e9. Dans une urne, z. B. 6 balles, 1 d’entre eux blancs, les autres noirs. Maintenant, atteignez l’urne 10 fois, sortez une balle, notez leur couleur et couvrez \u00e0 nouveau le ballon. Dans une interpr\u00e9tation sp\u00e9ciale de ce processus, tirer une balle blanche est comme \u00e9v\u00e9nement positif Avec la probabilit\u00e9 p {displaystyle p} compris, tirant une balle non blanche comme \u00e9v\u00e9nement n\u00e9gatif . Les probabilit\u00e9s sont tout aussi distribu\u00e9es que dans l’exemple avec le cube de jeu. tissu de monnaie [ Modifier | Modifier le texte source ]] Une pi\u00e8ce est lanc\u00e9e 7 fois. Lorsque la variable al\u00e9atoire discr\u00e8te X {displaystyle x} Le nombre de port\u00e9es comptes, avec laquelle le “nombre” est lanc\u00e9 X {displaystyle x} La distribution binomiale B ( k \u2223 12, 7 ) = { (7k)(12)k(1\u221212)7\u2212kfallsk\u2208{0,1,2,3,4,5,6,7},0sonst.{displaystyle B(kmid {tfrac {1}{2}},7)={begin{cases}{binom {7}{k}}({tfrac {1}{2}})^{k}(1-{tfrac {1}{2}})^{7-k}&{text{falls}}quad kin left{0,1,2,3,4,5,6,7right},\\0&{text{sonst.}}end{cases}}} Les valeurs et leurs probabilit\u00e9s peuvent \u00eatre r\u00e9sum\u00e9es dans le tableau suivant: La valeur des attentes est \u03bc= n p = 7 \u22c5 12= 3,5{displayStyle {couleur {brickred} mu} = np = 7cdot {frac {1} {2}} = {couleur {brickred} 3 {,} 5}} . La variance est donc donn\u00e9e par \u03c32=\u2211i=07(xi\u2212\u03bc)2pi=(0\u22123,5)2\u22c51128+(1\u22123,5)2\u22c57128+(2\u22123,5)2\u22c521128+(3\u22123,5)2\u22c535128+(4\u22123,5)2\u22c535128+(5\u22123,5)2\u22c521128+(6\u22123,5)2\u22c57128+(7\u22123,5)2\u22c51128=74=1,75{displayStyle {begin {aligned} Sigma ^ {2} & = sum _ {i = 0} ^ {7} (x_ {i} – {Color {Brickred} mu}) ^ {2} p_ {i} = (0- {Color {Brickred} 3 {,} 5}) ^ {2} CD {Frac 8}} + (1- {couleur {brickred} 3 {,} 5}) ^ {2} CDOT {frac {7} {128}} + (2- {Color {Brickred} 3 {,} 5}) ^ {2} CDOT {Brick {21} {128}} + (3- {Color {Brick} 3 {} {} + (3 5}) ^ {2} cdot {frac {35} {128}} \\ & quad + (4- {couleur {brickred} 3 {,} 5}) ^ {2} cdot {frac {35} {128}} + (5- {colore {brickred} 3 {,} 5}) } {128}} +; } = 1 {,} 75end {align\u00e9}}} Avec l’ensemble de d\u00e9calage, vous obtenez \u00e9galement la m\u00eame valeur pour la variance: un 2= ( \u2211i=07xi2pi) – (\u2211i=07xipi)2= 0 2\u22c5 1128+ d’abord 2\u22c5 7128+ 2 2\u22c5 21128+ 3 2\u22c5 35128+ 4 2\u22c5 35128+ 5 2\u22c5 21128+ 6 2\u22c5 7128+ 7 2\u22c5 1128– 3,52= d’abord , 75 {displayStyle Sigma ^ {2} = Left (sum _ {i = 0} ^ {7} x_ {i} ^ {2} p_ {i} droit) -left (sum _ {i = 0} ^ {7} x_ {i} p_ {i} \u00e0 droite) ^ {2} = 0 ^ {2} } + 1 ^ {2} cdot {frac {7} {128}} + 2 ^ {2} CDOT {frac {21} {128}} + 3 ^ {2} CDOT {frac {35} {128}} + 4 ^ {2} CDOT {Frac {35} {128} {frac {21} {128}} + 6 ^ {2} cdot {frac {7} {128}} + 7 ^ {2} CDOT {frac {1} {128}} – {Color {Brickred} 3 {,} 5} ^ {2} = 1 {,} 75} . Il en r\u00e9sulte l’\u00e9cart type: un = \u03c32= 1,75\u2248 1 323 {displayStyle Sigma = {Sqrt {Sigma ^ {2}}} = {Sqrt {1 {,} 75}} Environ 1 {,} 323} . sym\u00e9trie [ Modifier | Modifier le texte source ]] La distribution binomiale est dans les cas sp\u00e9ciaux p = 0 {displayStyle p = 0} , p = 0 , 5 {displayStyle p = 0 {,} 5} et p = d’abord {displayStyle p = 1} sym\u00e9trique et autrement asym\u00e9trique. La distribution binomiale a la propri\u00e9t\u00e9 B ( k | p , n ) = B ( n – k | d’abord – p , n ) . {DisplayStyle b (k | p, n) = b (n-k | 1-p, n).} Valeur d’attente [ Modifier | Modifier le texte source ]] La distribution binomiale a la valeur d’attente n p {DisplayStyle NP} . Preuve La valeur des attentes m {displaystyle mu} Calculer directement \u00e0 partir de la d\u00e9finition m = \u2211 je = d’abord n X je p je {displayStyle mu = sum _ {i = 1} ^ {n} x_ {i} p_ {i}} Et le taux d’enseignement binomique aussi \u03bc=\u2211k=0nk(nk)pk(1\u2212p)n\u2212k=np\u2211k=0nk(n\u22121)!(n\u2212k)!k!pk\u22121(1\u2212p)(n\u22121)\u2212(k\u22121)=np\u2211k=1n(n\u22121)!(n\u2212k)!(k\u22121)!pk\u22121(1\u2212p)(n\u22121)\u2212(k\u22121)=np\u2211k=1n(n\u22121k\u22121)pk\u22121(1\u2212p)(n\u22121)\u2212(k\u22121)=np\u2211\u2113=0n\u22121(n\u22121\u2113)p\u2113(1\u2212p)(n\u22121)\u2212\u2113mit\u00a0\u2113:=k\u22121=np\u2211\u2113=0m(m\u2113)p\u2113(1\u2212p)m\u2212\u2113mit\u00a0m:=n\u22121=np(p+(1\u2212p))m=np1m=np.{displayStyle {begin {align\u00e9} mu & = sum _ {k = 0} ^ {n} k {binom {n} {k}} p ^ {k} (1-p) ^ {n-k} \\ & = npsum _ {k = 0} ^ {n} k {frac {(n-1)! gens {binom {n-1} {k-1}} p ^ {k-1} (1-p) ^ {(n-1) – (k-1)} \\ & = npsum _ {ell = 0} ^ {n-1} {binom {n-1} {ell}} p ^ {ell} (1-p) ^ {(n-1) – : = k-1 \\ & = npsum _ {ell = 0} ^ {m} {binom {m} {ell}} p ^ {ell} (1-p) ^ {m-ell} qquad {text {mit}} m: = n-1 \\ & = npleft (p + gauche (1-pright) {align\u00e9}}} Alternativement, vous pouvez en utiliser un B ( \u22c5 \u2223 p , n ) {displayStyle b (cdot mid p, n)} -R\u00e9vacte al\u00e9atoire distribu\u00e9 X {displaystyle x} Comme une somme de n {displaystyle n} Bernoulli ind\u00e9pendant distribu\u00e9 des variables al\u00e9atoires X je {displayStyle x_ {i}} avec ET \u2061 ( X je ) = p {displayStyle OperatorName {e} (x_ {i}) = p} peut \u00eatre \u00e9crit. Suit ensuite avec la lin\u00e9arit\u00e9 de la valeur des attentes ET \u2061 ( X ) = ET \u2061 ( X 1+ \u22ef + X n) = ET \u2061 ( X 1) + \u22ef + ET \u2061 ( X n) = n p . {DisplayStyle operatorname {e} (x) = op\u00e9ratalName {e} (x_ {1} + dotsb + x_ {n}) = op\u00e9ratorname {e} (x_ {1}) + op\u00e9ratorme {e} (x_ {n}) = np.}) Alternativement, vous pouvez \u00e9galement fournir la preuve suivante \u00e0 l’aide du taux d’enseignement binomien: si vous diff\u00e9renciez l’\u00e9quation ( un + b ) n= \u2211 k=0n(nk)un kb n\u2212kMMS Sleple (Affide? Les deux c\u00f4t\u00e9s apr\u00e8s un {displaystyle a} , remis n ( un + b ) n\u22121= \u2211 k=0nk (nk)un k\u22121b n\u2212kMMS Slepent , aussi n un ( un + b ) n\u22121= \u2211 k=0nk (nk)un kb n\u2212kMMS Sleples in Sleles \u00e0 Pegu-tu-tal maman M\u00f3e Em Kalu Halle Horle Male Mad Houge M\u00e9k\u00e9be comme Maluubal Salubal Salm Hmb\u0254. . Avec un = p {displayStyle a = p} et b = d’abord – p {displayStyle b = 1-p} suit le r\u00e9sultat souhait\u00e9. Variance [ Modifier | Modifier le texte source ]] La distribution binomiale a la variance n p q {DisplayStyle NPQ} avec q = d’abord – p {displayStyle q = 1-p} . Preuve C’est X {displaystyle x} un B ( n , p ) {displayStyle b (n, p)} -R\u00e9vance al\u00e9atoire distribu\u00e9e. La variance est d\u00e9termin\u00e9e directement \u00e0 partir du taux de d\u00e9calage \u00c9tait \u2061 ( X ) = ET \u2061 ( X 2) – ( E\u2061(X)) 2 {displayStyle operatorname {var} (x) = op\u00e9ratorname {e} gauche (x ^ {2} droit) -left (Operatorname {e} Left (xRight) droite) ^ {2}} pour Var\u2061(X)=\u2211k=0nk2\u22c5P(X=k)\u2212(np)2=\u2211k=0nk2\u22c5(nk)pk(1\u2212p)n\u2212k\u2212n2p2=n2p2\u2212np2+np\u2212n2p2=np(1\u2212p)=npq{displayStyle {begin {aligned} op\u00e9ratorname {var} (x) & = sum _ {k = 0} ^ {n} k ^ {2} cdot p (x = k) – (np) ^ {2} \\ & = sum _ {k = 0} ^ {n} k ^ {2} cdot {n. k} -n ^ {2} p ^ {2} \\ & = {annuler {n ^ {2} p ^ {2}}} – np ^ {2} + np {Cance Ou alternativement \u00e0 partir de l’\u00e9quation de Benaym\u00e9, appliqu\u00e9e \u00e0 la variance des variables al\u00e9atoires ind\u00e9pendantes si l’on prend en compte les processus individuels identiques X je {displayStyle x_ {i}} la distribution de Bernoulli avec \u00c9tait \u2061 ( X je ) = p ( d’abord – p ) = p q {displayStyle OperatorName {var} (x_ {i}) = p (1-p) = pq} se rencontrer aussi \u00c9tait \u2061 ( X ) = \u00c9tait \u2061 ( X 1+ \u22ef + X n) = \u00c9tait \u2061 ( X 1) + \u22ef + \u00c9tait \u2061 ( X n) = n \u00c9tait \u2061 ( X 1) = n p ( 1\u2212p) = n p q . {displayStyle operatorname {var} (x) = operatorname {var} (x_ {1} + dotsb + x_ {n}) = op\u00e9ratorname {var} (x_ {1}) + dotsb + operatorname {var} (x_ {n}) = nperatorname {var} (x_ {1}) = nPleft) pq.} La deuxi\u00e8me \u00e9galit\u00e9 s’applique parce que les exp\u00e9riences individuelles sont ind\u00e9pendantes, de sorte que les variables individuelles sont incorpor\u00e9es. Coefficient de variation [ Modifier | Modifier le texte source ]] Le coefficient de variation est obtenu \u00e0 partir de la valeur d’attente et de la variance Cochon \u2061 ( X ) = 1\u2212pnp. {displayStyle OperatorName {vark} (x) = {sqrt {frac {1-p} {np}}}.} Courb\u00e9 [ Modifier | Modifier le texte source ]] Le tordu se pose dans \u2061 ( X ) = 1\u22122pnp(1\u2212p). {displayStyle operatorname {v} (x) = {frac {1-2p} {sqrt {np (1-p)}}}.} Courbure [ Modifier | Modifier le texte source ]] La courbure peut \u00e9galement \u00eatre affich\u00e9e ferm\u00e9e comme b 2= 3 + 1\u22126pqnpq. {displayStyle beta _ {2} = 3 + {frac {1-6pq} {npq}}.} Aussi l’exc\u00e8s c 2= 1\u22126pqnpq. {displayStyle gamma _ {2} = {frac {1-6pq} {npq}}.} Modus [ Modifier | Modifier le texte source ]] Le mode, c’est-\u00e0-dire la valeur avec la probabilit\u00e9 maximale, est pour p < d’abord {displaystyle p {displayStyle k = lfloor np + prfloor} et pour p = d’abord {displayStyle p = 1} m\u00eame n {displaystyle n} . Chutes n p + p {DisplayStyle NP + P} est un nombre naturel k = n p + p – d’abord {displayStyle k = np + p-1} Aussi un mode. Si la valeur des attentes est un nombre naturel, la valeur d’attente est \u00e9gale au mode. Preuve \u00catre sans restriction 0 < p < d’abord {DisplayStyle 0 p,n)B(k\u2223p,n)= n!(k+1)!(n\u2212k\u22121)!n!k!(n\u2212k)!\u22c5 pk+1(1\u2212p)n\u2212k\u22121pk(1\u2212p)n\u2212k= n\u2212kk+1\u22c5 p1\u2212p{displayStyle alpha _ {k}: = {frac {b (k + 1mid p, n)} {b (kmid p, n)}} = {frac {, {frac {n!} {(k + 1)! (n-k-1)!},} {frac {n! ac {p ^ {k + 1} (1-p) ^ {n-k-1}} {p ^ {k} (1-p) ^ {n-k}}} = {frac {n-k} {k + 1}} cdot {frac {p} {1-p}}} . S’applique maintenant "},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/distribution-binomiale-wikipedia\/#breadcrumbitem","name":"Distribution binomiale – Wikipedia"}}]}]