[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/bayesche-netz-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/bayesche-netz-wikipedia\/","headline":"Bayesche Netz – Wikipedia","name":"Bayesche Netz – Wikipedia","description":"before-content-x4 UN R\u00e9seau de Bayesch ou R\u00e9seau de Bayes (Nomm\u00e9 d’apr\u00e8s Thomas Bayes) est un graphique azyclique dirig\u00e9 (DAG), dans","datePublished":"2023-11-26","dateModified":"2023-11-26","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/4a8ac673307a6ef0aa6520635acea1b774f0cd7f","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/4a8ac673307a6ef0aa6520635acea1b774f0cd7f","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/bayesche-netz-wikipedia\/","wordCount":9561,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4UN R\u00e9seau de Bayesch ou R\u00e9seau de Bayes (Nomm\u00e9 d’apr\u00e8s Thomas Bayes) est un graphique azyclique dirig\u00e9 (DAG), dans lequel les n\u0153uds d\u00e9crivent des variables al\u00e9atoires et les bords dus aux variables. Chaque n\u0153ud du r\u00e9seau se voit attribuer une distribution de probabilit\u00e9 conditionnelle de la variable al\u00e9atoire repr\u00e9sent\u00e9e par elle, compte tenu des variables al\u00e9atoires sur les n\u0153uds parents. Ils sont d\u00e9crits par des tableaux de probabilit\u00e9. Cette distribution peut \u00eatre arbitraire, mais elle est souvent utilis\u00e9e pour travailler avec des distributions discr\u00e8tes ou normales. Les parents d’un n\u0153ud V sont les n\u0153uds qui m\u00e8nent \u00e0 V. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Un r\u00e9seau bavarois sert \u00e0 repr\u00e9senter la distribution de probabilit\u00e9 commune de toutes les variables impliqu\u00e9es dans l’utilisation de l’ind\u00e9pendance conditionnelle connue aussi compacte que possible. La d\u00e9pendance conditionnelle (UN) sur le sous-ensemble des variables est combin\u00e9e avec les connaissances A-priori. Sont X d’abord , …, X n Certaines des variables al\u00e9atoires (qui sont termin\u00e9es en ajoutant des variables parentales), leur distribution commune est calcul\u00e9e comme (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4P ( X 1, … , X n) = \u220f i=1nP ( X i| ET l t C’est r n ( X i) ) . {displayStyle p (x_ {1}, points, x_ {n}) = prod _ {i = 1} ^ {n} p (x_ {i} | mathrm {elterne} (x_ {i}));. Y a-t-il P ( X d’abord , … , X n ) {displayStyle p (x_ {1}, points, x_ {n})} Une orthographe symbolique pour la distribution de probabilit\u00e9 commune des variables al\u00e9atoires X d’abord , … , X n {displayStyle x_ {1}, points, x_ {n}} .Si un n\u0153ud n’a pas de parents, la distribution associ\u00e9e de la probabilit\u00e9 est une distribution inconditionnelle. Comme dans l’exemple ci-dessous, on vous int\u00e9resse souvent \u00e0 une probabilit\u00e9 marginale qui peut \u00eatre effectu\u00e9e par marginalisation sur toutes les r\u00e9alisations possibles (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4X J {displayStyle x_ {j}} Dans la salle d’\u00c9tat ET J {displayStyle e_ {j}} La variable al\u00e9atoire X J {displayStyle x_ {j}} re\u00e7oit: P ( X 1= X 1) = \u2211 x2\u2208E2… \u2211 xn\u2208EnP ( X 1= X 1, … , X n= X n) . {displayStyle p (x_ {1} = x_ {1}) = sum _ {x_ {2} dans e_ {2}} Dots sum _ {x_ {n} dans e_ {n}} p (x_ {1} = x_ {1}, les points, x_ {n} = x_ {n}). Exemple d’un r\u00e9seau bavarois avec trois n\u0153uds et deux bords. Les valeurs de la fonction de probabilit\u00e9 sont en haut \u00e0 gauche des tables P ( DANS ) {displayStyle p (w)} , \u00e0 droite les valeurs de la fonction de probabilit\u00e9 P ( M ) {displaystyle p (m)} , et en dessous des valeurs de P ( S |DANS , M ) {displaystyle p (s | w, m)} tabelated. Dans l’exemple, les trois variables al\u00e9atoires se forment DANS {displayStyle in} = Temps, M {displaystyle m} = Caf\u00e9t\u00e9ria et S {DisplayStyle S} = Humeur les n\u0153uds d’un r\u00e9seau bavarois. En plus des n\u0153uds pour les variables al\u00e9atoires DANS {displayStyle in} et M {displaystyle m} re\u00e7oivent leurs distributions de probabilit\u00e9 inconditionnelles. En plus du n\u0153ud pour la variable al\u00e9atoire S {DisplayStyle S} Sont quatre distributions de probabilit\u00e9 conditionnelles pour une variable al\u00e9atoire S {DisplayStyle S} , compte tenu des quatre combinaisons possibles de DANS {displayStyle in} et M {displaystyle m} , indiqu\u00e9.Les deux variables al\u00e9atoires DANS {displayStyle in} et M {displaystyle m} Sont les parents de S {DisplayStyle S} Et n’ont pas de parents. Les deux fl\u00e8ches (bords) sont interpr\u00e9t\u00e9es de mani\u00e8re causale. La distribution commune de la probabilit\u00e9 est calcul\u00e9e en raison de l’ind\u00e9pendance stochastique de M et W comme suit: P \u2061 ( S , DANS , M ) = P \u2061 ( S \u2223 DANS , M ) \u22c5 P \u2061 ( DANS ) \u22c5 P \u2061 ( M ) {displayStyle operatorname {p} (s, w, m) = operatorname {p} (smid w, m) cdot operatorname {p} (w) cdot op\u00e9ratorname {p} (m)} Par cons\u00e9quent, avec l’aide de la loi de la probabilit\u00e9 totale, suit la distribution marginale P \u2061 ( S ) = \u2211 w\u2208Ew\u2211 m\u2208EmP \u2061 ( S \u2223 DANS = Dans , M = m ) \u22c5 P \u2061 ( DANS = Dans ) \u22c5 P \u2061 ( M = m ) m tume flay felement fey em. 2) mmumm mook tom emb\u00e9 Quupe mupe m\u00f3t m kmuk, comme sur euan, ” Avec les distributions de probabilit\u00e9 sp\u00e9cifi\u00e9es, la distribution de bord de S {DisplayStyle S} d\u00e9terminer. Par exemple, s’applique P\u2061(S=gut)=\u00a0P\u2061(S=gut\u2223W=Sonne,M=genie\u00dfbar)\u22c5P\u2061(W=Sonne)\u22c5P\u2061(M=genie\u00dfbar)+\u00a0P\u2061(S=gut\u2223W=Sonne,M=ungenie\u00dfbar)\u22c5P\u2061(W=Sonne)\u22c5P\u2061(M=ungenie\u00dfbar)+\u00a0P\u2061(S=gut\u2223W=Regen,M=genie\u00dfbar)\u22c5P\u2061(W=Regen)\u22c5P\u2061(M=genie\u00dfbar)+\u00a0P\u2061(S=gut\u2223W=Regen,M=ungenie\u00dfbar)\u22c5P\u2061(W=Regen)\u22c5P\u2061(M=ungenie\u00dfbar)=\u00a00,95\u22c50,40\u22c50,90+0,70\u22c50,40\u22c50,10+0,75\u22c50,60\u22c50,90+0,10\u22c50,60\u22c50,10,{displaystyle {begin{alignedat}{1}operatorname {P} (S={text{gut}})&= &operatorname {P} (S={text{gut}}mid W={text{Sonne}},M={text{genie\u00dfbar}})cdot operatorname {P} (W={text{Sonne}})cdot operatorname {P} (M={text{genie\u00dfbar}})\\&&+ operatorname {P} (S={text{gut}}mid W={text{Sonne}},M={text{ungenie\u00dfbar}})cdot operatorname {P} (W={text{Sonne}})cdot operatorname {P} (M={text{ungenie\u00dfbar}})\\&&+ operatorname {P} (S={text{gut}}mid W={text{Regen}},M={text{genie\u00dfbar}})cdot operatorname {P} (W={text{Regen}})cdot operatorname {P} (M={text{genie\u00dfbar}})\\&&+ operatorname {P} (S={text{gut}}mid W={text{Regen}},M={text{ungenie\u00dfbar}})cdot operatorname {P} (W={text{Regen}})cdot operatorname {P} (M={text{ungenie\u00dfbar}})\\&= &0{,}95cdot 0{,}40cdot 0{,}90+0{,}70cdot 0{,}40cdot 0{,}10+0{,}75cdot 0{,}60cdot 0{,}90+0{,}10cdot 0{,}60cdot 0{,}10;,end{alignedat}}} Toutes les probabilit\u00e9s requises peuvent \u00eatre trouv\u00e9es dans les trois tables. Peut aussi \u00eatre termin\u00e9 P \u2061 ( S = s , DANS = Dans , M = m ) = P \u2061 ( S = s \u2223 DANS = Dans , M = m ) P \u2061 ( DANS = Dans , M = m ) = P \u2061 ( S = s \u2223 DANS = Dans , M = m ) P ( DANS = Dans ) P ( M = m ) {displayStyle operatorname {p} (s = s, w = w, m = m) = op\u00e9ratorname {p} (s = smid w = w, m = m) op\u00e9ratorname {p} (w = w, m = m) = op\u00e9ratorname {p} (s = smid w = w, m) p (w = w) p (m = m)} pour s \u2208 { intestin , mauvais } {DisplayStyle sin {{text {good}}, {text {bad}}}} , Dans \u2208 { Soleil , Pluie } {DisplayStyle win {text {Sun}}, {text {rain}}}} et m \u2208 { comestible , immangeable } {DisplayStyle min {{text {agr\u00e9able}}, {text {nonectible}}}} La distribution commune de la probabilit\u00e9 de S {DisplayStyle S} , DANS {displayStyle in} et M {displaystyle m} d\u00e9terminer. Le premier signe d’\u00e9galit\u00e9 r\u00e9sulte de la d\u00e9finition d’une probabilit\u00e9 conditionnelle et le deuxi\u00e8me signe d’\u00e9galit\u00e9 utilise l’ind\u00e9pendance stochastique des variables al\u00e9atoires DANS {displayStyle in} et M {displaystyle m} . Z. B. dor\u00e9 P\u2061(S=gut,W=Sonne,M=genie\u00dfbar)=P\u2061(S=gut\u2223W=Sonne,M=genie\u00dfbar)P(W=Sonne)P(M=genie\u00dfbar)=0,95\u22c50,40\u22c50,90{DisplayStyle {begin {aligned} op\u00e9ratorname {p} (s = {text {good}}, w = {text {Sun}}, m = {text {g\u00e9nie}) & = operatorname {p} (s = m = {text {agr\u00e9able}) \\ & = 0 {,} 95cdot 0 {,} 40cdot 0 {,} 90end {align\u00e9}} . De m\u00eame, sept autres probabilit\u00e9s pour toutes les autres combinaisons de valeurs de variables al\u00e9atoires peuvent \u00eatre S {DisplayStyle S} , DANS {displayStyle in} et M {displaystyle m} calculer. La distribution commune de la probabilit\u00e9 de S {DisplayStyle S} et DANS {displayStyle in} vous obtenez de la distribution de probabilit\u00e9 commune de S {DisplayStyle S} , DANS {displayStyle in} et M {displaystyle m} quand P \u2061 ( S = s , DANS = Dans ) = P \u2061 ( S = s , DANS = Dans , M = comestible ) + P \u2061 ( S = s , DANS = Dans , M = immangeable ) {DisplayStyle operatorname {p} (s = s, w = w) = op\u00e9ratorname {p} (s = s, w, m = {text {gremable}) + op\u00e9ratorname {p} (s = s, w, m = {text {nonedible}})}} pour s \u2208 { intestin , mauvais } {DisplayStyle sin {{text {good}}, {text {bad}}}} et Dans \u2208 { Soleil , Pluie } {DisplayStyle win {text {Sun}}, {text {rain}}}} . S’il est connu que l’humeur est bonne, la probabilit\u00e9 de temps ensoleill\u00e9 peut \u00eatre attir\u00e9: P\u2061(W=Sonne\u2223S=gut)=P\u2061(S=gut,W=Sonne)P\u2061(S=gut)=P\u2061(S=gut,W=Sonne)P\u2061(S=gut,W=Sonne)+P\u2061(S=gut,W=Regen),{Displaystyle {Begin {aligned} operatorname {p} (w = {text {sun}} mid s = {text {gut}) & = {frac {operatorname {p} (s = {text {gut}}, w = {text {sun}}} {p} (s = {text {text }}}} \\ & = {frac {operatorname {p} (s = {text {good}}, w = {text {sun})} {operatorname {p} (s = {text {good}}, w = {text {sun}})+operatorname {p} (text}, w =}} {Rain})};, end {aligned}}} o\u00f9 toutes les probabilit\u00e9s requises de la distribution de probabilit\u00e9 commune de S {DisplayStyle S} et DANS {displayStyle in} r\u00e9sultat. Provient de certaines des variables, \u00e0 propos ET d’abord , …, ET m , la valeur connue, d. H. Si des preuves sont disponibles, \u00e0 l’aide de divers algorithmes, la distribution de probabilit\u00e9 conditionnelle de X d’abord , …, X n Avec donn\u00e9 ET d’abord , …, ET m sont calcul\u00e9s et donc op\u00e9r\u00e9s. Le probl\u00e8me d’inf\u00e9rence, \u00e0 la fois exactement et approximatif, dans les r\u00e9seaux de Bayes, est NP-Shw. Des proc\u00e9dures approximatives sont disponibles dans des r\u00e9seaux plus grands. Les proc\u00e9dures exactes sont un peu plus pr\u00e9cises qu’approximativement, mais cela ne joue souvent qu’un r\u00f4le insignifiant dans la pratique, car les r\u00e9seaux bay\u00e9siens sont utilis\u00e9s pour prendre des d\u00e9cisions o\u00f9 les probabilit\u00e9s exactes ne sont pas n\u00e9cessaires. Il convient de noter que, dans le cas des impl\u00e9mentations logicielles, pr\u00e9cis\u00e9ment seulement deux fois des num\u00e9ros de virgules coulissants pr\u00e9cis sont utilis\u00e9s. Cela limite la pr\u00e9cision de ces calculs. Table of ContentsInf\u00e9rence exacte [ Modifier | Modifier le texte source ]] Approximative Inferenz [ Modifier | Modifier le texte source ]] Types d’inf\u00e9rence [ Modifier | Modifier le texte source ]] Param\u00e8tre d’apprentissage [ Modifier | Modifier le texte source ]] Apprentissage structurel [ Modifier | Modifier le texte source ]] Inf\u00e9rence exacte [ Modifier | Modifier le texte source ]] Pour l’inf\u00e9rence exacte \u00e0 Bayesche Netzen, entre autres. ce qui suitAlgorithmes: Approximative Inferenz [ Modifier | Modifier le texte source ]] Types d’inf\u00e9rence [ Modifier | Modifier le texte source ]] Diagnostic: des effets aux causes Causal: des causes aux effets Intercausal: entre les causes d’un effet commun Mixte: combinaison de la pr\u00e9c\u00e9dente Si un r\u00e9seau bavarois doit \u00eatre g\u00e9n\u00e9r\u00e9 automatiquement \u00e0 partir des donn\u00e9es disponibles, qui d\u00e9crit les donn\u00e9es ainsi que possible, deux probl\u00e8mes possibles surviennent: soit la structure du graphique du r\u00e9seau est d\u00e9j\u00e0 donn\u00e9e et vous n’avez plus \u00e0 prendre soin de la d\u00e9termination de l’ind\u00e9pendance conditionnelle, mais uniquement pour calculer la distribution conditionnelle sur le n\u0153ud du r\u00e9seau, ou vous devez \u00e9galement apprendre une structure d’un r\u00e9seau adapt\u00e9 en plus des param\u00e8tres. Param\u00e8tre d’apprentissage [ Modifier | Modifier le texte source ]] Si vous n’assumez pas un mod\u00e8le de probabilit\u00e9 complet (bay\u00e9sien), vous choisissez g\u00e9n\u00e9ralement comme m\u00e9thode d’estimation. En cas de mod\u00e8le de probabilit\u00e9 complet (Bayesche), l’estimation du point est \u00e0. Les maxima locaux de la probabilit\u00e9 ou du Post\u00e9riorifusten en cas de donn\u00e9es compl\u00e8tes et de variables enti\u00e8rement observ\u00e9es peuvent g\u00e9n\u00e9ralement \u00eatre utilis\u00e9es avec des algorithmes d’optimisation communs tels que \u00eatre trouv\u00e9. Pour que le cas des observations manquantes soit consid\u00e9r\u00e9e comme la r\u00e8gle), la puissante et la r\u00e9partition sont g\u00e9n\u00e9ralement utilis\u00e9. Apprentissage structurel [ Modifier | Modifier le texte source ]] L’apprentissage structurel peut avec l’algorithme K2 (approximativement, en utilisant une fonction cible appropri\u00e9e) ou l’algorithme PC. Pour d\u00e9terminer l’ind\u00e9pendance conditionnelle de deux quantit\u00e9s de variables, un tiers de ces quantit\u00e9s est suffisant pour examiner la structure du graphique du r\u00e9seau. On peut montrer que le concept (th\u00e9orique graphique) de la s\u00e9paration D co\u00efncide avec le concept d’ind\u00e9pendance conditionnelle. Les moustiquaires Bayesch sont utilis\u00e9s comme une forme de syst\u00e8mes d’experts probabilistes, par lesquels les domaines d’application se trouvent en bioinformatique, analyse des \u00e9chantillons, m\u00e9decine et sciences de l’ing\u00e9nierie. Dans la tradition de l’intelligence artificielle, l’accent est mis sur Bayescher Netze sur l’utilisation de leurs structures graphiques pour permettre des conclusions abducteurs et d\u00e9ductives qui seraient inspectives dans une probabilit\u00e9 non li\u00e9e. Ceci est r\u00e9alis\u00e9 par les diff\u00e9rents algorithmes d’inf\u00e9rence. L’id\u00e9e de base des r\u00e9seaux de Bayescher, \u00e0 savoir la factorisation graphique d’un mod\u00e8le de probabilit\u00e9, est \u00e9galement utilis\u00e9e dans d’autres traditions, telles que dans les statistiques bay\u00e9siennes et dans la tradition des mod\u00e8les graphiques So appel\u00e9s \u00e0 des fins de mod\u00e9lisation des donn\u00e9es. Les domaines d’application sont principalement l’\u00e9pid\u00e9miologie, la m\u00e9decine et les sciences sociales. Enrique Castillo, Jose Manuel Gutierrez, Ali S. Hadi: Syst\u00e8mes experts et mod\u00e8les de r\u00e9seau probabiliste . Springs-Publinging, New York 1997, ISBN 0-387-94858-9. Finn V. Jensen: R\u00e9seaux bay\u00e9siens et graphiques de d\u00e9cision . Spring Pleans, New York, New Hork 2001, ISBN 0-387-9525259-4. Richard E. Napolitan: Apprendre les r\u00e9seaux bay\u00e9siens . Prentice Hall, 2003, ISBN 0-13-012534-2. Judea Pearl: Raisonnement probabiliste dans les syst\u00e8mes intelligents: r\u00e9seaux d’inf\u00e9rence plausible . Morgan Kauffmann Publishers, San Francisco 1988, ISBN 0-934613-73-7 Judea Pearl: Causalit\u00e9 . Cambridge University Press, Cambridge 2000, ISBN 0-521-77362-8. Stuart Russell, Peter Norvig: Intelligence artificielle – une approche moderne . Pearson Education Allemagne, Allemagne 2004, ISBN 3-8273-7089-2. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/bayesche-netz-wikipedia\/#breadcrumbitem","name":"Bayesche Netz – Wikipedia"}}]}]