[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/regressionsparameter-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/regressionsparameter-wikipedia\/","headline":"R\u00e9gressionsParameter – Wikipedia","name":"R\u00e9gressionsParameter – Wikipedia","description":"before-content-x4 Cet article ou section suivante n’est pas suffisamment \u00e9quip\u00e9 de supports (par exemple, avis individuels). Des informations sans preuves","datePublished":"2021-04-06","dateModified":"2021-04-06","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/b\/b7\/Qsicon_Quelle.svg\/24px-Qsicon_Quelle.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/b\/b7\/Qsicon_Quelle.svg\/24px-Qsicon_Quelle.svg.png","height":"24","width":"24"},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/regressionsparameter-wikipedia\/","wordCount":6195,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Cet article ou section suivante n’est pas suffisamment \u00e9quip\u00e9 de supports (par exemple, avis individuels). Des informations sans preuves suffisantes pourraient bient\u00f4t \u00eatre supprim\u00e9es. Veuillez aider Wikipedia en recherchant les informations et Ins\u00e9rer de bonnes preuves. R\u00e9gressionsparam\u00e8tre , aussi Coefficient de r\u00e9gression ou Poids de r\u00e9gression Nomm\u00e9, mesurez l’influence d’une variable dans une \u00e9quation de r\u00e9gression. [d’abord] \u00c0 l’aide de l’analyse de r\u00e9gression, la contribution d’une variable ind\u00e9pendante (du r\u00e9gresseur) peut \u00eatre d\u00e9riv\u00e9e du pronostic des variables d\u00e9pendantes. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Dans le cas de la r\u00e9gression multiple, il peut \u00eatre logique de consid\u00e9rer les coefficients de r\u00e9gression standardis\u00e9s afin de pouvoir comparer les contributions explicatives ou pr\u00e9visionnelles des variables ind\u00e9pendantes individuelles (quelles que soient les unit\u00e9s s\u00e9lectionn\u00e9es lors de la mesure des variables), par exemple B. pour voir quel r\u00e9gresseur apporte la plus grande contribution aux pr\u00e9visions de variables d\u00e9pendantes. Le mod\u00e8le lin\u00e9aire multiple est donn\u00e9 (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4yi= \u03b20+ xi1\u03b21+ … + xik\u03b2k+ \u03b5i= xi\u22a4\u03b2+ \u03b5i{Affichestyle y_ {i} = b\u00eata _ {0} + x_ {i1} b\u00eata _ {1} + dotsc + x_ {ik} b\u00eata _ {k} + varapsilon _ {i} = mathbf {x} {{i} ^ {top} {boldsymbbol ou en notation matricielle y= X\u03b2+ \u03b5{displayStyle mathbf {y} = mathbf {x} {boldSymbol {b\u00eata}} + {boldSymbol {varepsilon}}} . Le param\u00e8tre b 0{displaystyle b\u00eata _ {0}} est d\u00e9nomm\u00e9 Param\u00e8tre de niveau , Section axe , Absolument , Constante de r\u00e9gression ou court En permanence (Engl. intercepter ). (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Les param\u00e8tres b 1, … , b k{DisplayStyle beta _ {1}, dotsc, b\u00eata _ {k}} est appel\u00e9 Param\u00e8tre d’escalade , Coefficient enrobage , ou augmenter (Engl. pente ). Le e i{displayStyle Varsilon _ {i}} sont des variables d’interf\u00e9rence. Les cas suivants sont diff\u00e9renci\u00e9s lors de l’interpr\u00e9tation des coefficients de r\u00e9gression: Transformation au niveau [ Modifier | Modifier le texte source ]] Dans le cas o\u00f9 la variable endog\u00e8ne n’est pas transform\u00e9e (niveau) et la variable exog\u00e8ne (niveau) s’applique \u00e9galement sur la base de ET \u2061 ( et | X ) = X b {displayStyle op\u00e9ratorname {e} (mathbf {y} | mathbf {x}) = mathbf {x} {boldsymbol {b\u00eata}}} ET \u2061 ( yi|xi) = \u03b20+ xi1\u03b21+ … + xik\u03b2k{DisplayStyle operatorname {e} (y_ {i} | mathbf {x} _ {i}) = beta _ {0} + x_ {i1} beta _ {1} + dotsc + x_ {ik} b\u00eata _ {k}}}} . Cela s’applique au niveau et aux param\u00e8tres d’inclinaison: \u03b20= ET \u2061 ( yi|xi1= xi2= … = xik= 0 ) {DisplayStyle beta _ {0} = op\u00e9ratalName {e} (y_ {i} | x_ {i1} = x_ {i2} = dotsc = x_ {ik} = 0)} et \u03b2j= \u2202(yi|xi)\u2202xij{displayStyle beta _ {j} = {frac {partial, (y_ {i} | mathbf {x} _ {i})} {partiel, x_ {ij}}}} , le reste des pairs (C.P.) J = d’abord , … , k {displayStyle j = 1, ldots, k} Le param\u00e8tre de niveau peut \u00eatre interpr\u00e9t\u00e9 comme suit: La taille cible et {displaystyle y} Est en moyenne \u03b20{displaystyle b\u00eata _ {0}} (ou. \u03b2^0{displayStyle {hat {b\u00eata}} _ {0}} ) Si tous les r\u00e9gresseurs 0 {DisplayStyle 0} sont . Pour le param\u00e8tre de pente respectif b j{DisplayStyle Beta _ {J}} est applicable: Augmentation xij{DisplayStyle x_ {ij}} C.P. autour d’une unit\u00e9, puis se l\u00e8ve yi{displaystyle y_ {i}} en moyenne \u03b2j{DisplayStyle Beta _ {J}} -Unit\u00e9s . Transformation log-log [ Modifier | Modifier le texte source ]] Dans le cas o\u00f9 la variable endog\u00e8ne transform\u00e9e logarithmique (log) et la variable exog\u00e8ne (log) s’applique \u00e9galement \u03b2j= \u2202(ln\u2061(yi\u2020)|xi)\u2202ln\u2061(xij\u2020)= \u2202((yi\u2020)|xi)yi\u2020|xi\u2202(xij\u2020)xij\u2020{displayStyle beta _ {j} = {frac {partial, (ln (y_ {i} ^ {dagger}) | mathbf {x} _ {i})} {partiel, ln (x_ {ij} ^ {dagger})}} = {frac {frac {frac {Frac {partal, (y_} Mathbf {x} _ {i})} {y_ {i} ^ {dagger} | mathbf {x} _ {i}}} {frac {partial, (x_ {ij} ^ {dagger})} {x_ {ij} ^ {Dagger}}}}} , le reste des pairs (C.P.) J = d’abord , … , k {displayStyle j = 1, ldots, k} Cela peut \u00eatre interpr\u00e9t\u00e9 comme suit: Les augmentations transform\u00e9es xij{DisplayStyle x_ {ij}} C.P. par 1%, puis la transform\u00e9e augmente yi{displaystyle y_ {i}} en moyenne \u03b2j{DisplayStyle Beta _ {J}} -Pour cent . Sur le plan \u00e9conomique, cela correspondrait \u00e0 l’interpr\u00e9tation comme une \u00e9lasticit\u00e9. Le Coefficients de r\u00e9gression standardis\u00e9s b j{DisplayStyle Beta _ {J}} (Parfois \u00e9galement appel\u00e9 valeurs b\u00eata ou poids b\u00eata) r\u00e9sultant d’une r\u00e9gression lin\u00e9aire dans laquelle les variables ind\u00e9pendantes et d\u00e9pendantes ont \u00e9t\u00e9 standardis\u00e9es, c’est-\u00e0-dire que la valeur de l’attente \u00e9tait nulle et la variance a \u00e9t\u00e9 d\u00e9finie. Ils peuvent \u00e9galement \u00eatre calcul\u00e9s directement \u00e0 partir des coefficients de r\u00e9gression de la r\u00e9gression lin\u00e9aire: \u03b2j= bj\u22c5 sxjsy{displayStyle beta _ {j} = b_ {j} cdot {frac {s_ {x_ {j}}} {s_ {y}}}} Sont les variables explicatives standardis\u00e9es AVEC ( X j) {DisplayStyle z (x_ {j})} Ind\u00e9pendant et ind\u00e9pendant de la striction e {displayStyle Varsilon} (Condition pr\u00e9alable dans le mod\u00e8le de r\u00e9gression classique), alors s’applique 1=Var(Z(Y))=Var(\u03b20+\u03b21Z(X1)+\u2026+\u03b2pZ(Xp)+\u03b5)=\u03b212Var(Z(X1))\u23df=1+\u2026+\u03b2p2Var(Z(Xp))\u23df=1+Var(\u03b5),{displayStyle {begin {align\u00e9} 1 = {rm {var}} (z (y)) & = {rm {var}} (b\u00eata _ {0} + b\u00eata _ {1} z (x_ {1}) + ldots + beta _ {p} z (x_ {p}) + VAREPSILON) {p} z (x_ {p}) + VAREPSILON) {P} z (x_ {p}) + VAREPSILON) {P} z (x_ {P}) + VAREPSILON) {2} Underbrace {{rm {var}} (z (x_ {1}))} _ {= 1} + ldots + b\u00eata _ {p} ^ ^ {2} Underbrace {{rm {var}} {z (x_ {p})) align\u00e9}}} Cela signifie que la somme des coefficients de r\u00e9gression standardis\u00e9e des carr\u00e9s est inf\u00e9rieure \u00e0 un. Si un ou plusieurs des coefficients de r\u00e9gression standardis\u00e9s sont sup\u00e9rieurs \u00e0 un ou moins que moins, cela indique la multicolin\u00e9arit\u00e9. Pour la variable d\u00e9pendante Prix \u200b\u200bdes maisons moyennes dans les maisons auto-infirmi\u00e8res par district (En 1000 US $) \u00e0 partir de l’enregistrement des donn\u00e9es sur le logement de Boston, le mod\u00e8le de r\u00e9gression R\u00e9sultats adjacents: Chaque pi\u00e8ce de la maison augmente \u00e9galement le prix d’achat de 4873 $, Chaque kilom\u00e8tre de plus \u00e0 un lieu de travail r\u00e9duit le prix d’achat de 461 $ et Chaque point de pourcentage de plus dans la part de la population de classe inf\u00e9rieure r\u00e9duit le prix d’achat de 723 $. Si vous normalisez toutes les variables, vous pouvez estimer l’influence d’une variable explicative sur la variable d\u00e9pendante: La variable a la plus grande influence Proportion de la population de classe inf\u00e9rieure : \u22120,562, La variable a la deuxi\u00e8me plus grande influence Nombre de chambres : 0,372 et variable de mort Distance des lieux de travail A la moindre influence: \u22120,106. Si les variables \u00e9taient ind\u00e9pendantes les unes des autres, la proportion de la variance d\u00e9clar\u00e9e pourrait \u00eatre sp\u00e9cifi\u00e9e sur la base des coefficients de r\u00e9gression au carr\u00e9: Variable de mort Proportion de la population de classe inf\u00e9rieure explique pr\u00e8s de 32% de la variance du prix des maisons interm\u00e9diaires ( 0,316 = ( – 0,562 )2{DisplayStyle 0 {,} 316 = (-0 {,} 562) ^ {2}} ), variable de mort Nombre de chambres explique pr\u00e8s de 14% de la variance du prix des maisons interm\u00e9diaires ( 0,138 = 0,3722{DisplayStyle 0 {,} 138 = 0 {,} 372 ^ {2}} ) et variable de mort Distance des lieux de travail explique un peu plus de 1% de la variance du prix des maisons interm\u00e9diaires ( 0,011 = ( – 0.106 )2{DisplayStyle 0 {,} 011 = (-0 {,} 106) ^ {2}} ). J\u00fcrgen Bortz, Christof Schuster: Statistiques pour les sciences humaines et sociales . 7., \u00e9dition enti\u00e8rement r\u00e9vis\u00e9e et \u00e9largie. Springer, Berlin 2010, ISBN 978-3-642-12769-4. \u2191 Bortz, Schuster: Statistiques pour les sciences humaines et sociales. Springer-Verlag Berlin Heidelberg New York 2010. ISBN 978-3-642-12769-4, S. 342 ff. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/regressionsparameter-wikipedia\/#breadcrumbitem","name":"R\u00e9gressionsParameter – Wikipedia"}}]}]