[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/entropie-sciences-sociales-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/entropie-sciences-sociales-wikipedia\/","headline":"Entropie (sciences sociales) – Wikipedia","name":"Entropie (sciences sociales) – Wikipedia","description":"before-content-x4 Le concept de Entropie ou la entropie sociale Trouv\u00e9 dans les sciences sociales, en particulier dans le domaine de","datePublished":"2023-02-12","dateModified":"2023-02-12","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/7daff47fa58cdfd29dc333def748ff5fa4c923e3","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/7daff47fa58cdfd29dc333def748ff5fa4c923e3","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/entropie-sciences-sociales-wikipedia\/","wordCount":9794,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Le concept de Entropie ou la entropie sociale Trouv\u00e9 dans les sciences sociales, en particulier dans le domaine de la th\u00e9orie du syst\u00e8me sociologique au sein de la sociologie, la r\u00e9ception comme un degr\u00e9 d’in\u00e9galit\u00e9 ou de trouble \u00e0 l’origine \u00e0 l’origine de la physique. Il est g\u00e9n\u00e9ralement compris comme une mesure du degr\u00e9 d’ordre ou de trouble dans un syst\u00e8me social, par exemple pour d\u00e9crire les in\u00e9galit\u00e9s sociales. En partie comme l’entropie sociale est \u00e9galement comprise comme une tendance \u00e0 changer les structures sociales au lieu d’une mesure \u00e9volutive. [d’abord] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Un moyen accompagnant le sens de l’entropie d’une mani\u00e8re compr\u00e9hensible est qu’il n’est pas l’entropie elle-m\u00eame, mais la changement Pour regarder l’entropie, c’est-\u00e0-dire l’augmentation ou la r\u00e9duction de l’entropie. Le gain d’entropie est la perte d’informations: Gilbert Newton Lewis a \u00e9crit en 1930: “Une augmentation de l’entropie signifie la perte d’informations et rien d’autre.” [2] Le bref r\u00e9sum\u00e9 d’une explication de l’entropie de Murray Gell-Mann en 1994 est: \u00abL’entropie est MANGEL D’INFORMATION dont la taille est mesur\u00e9e par rapport \u00e0 l’effort qui serait n\u00e9cessaire pour rem\u00e9dier \u00e0 ce manque d’informations. \u00bb(D\u00e9tails Voir ci-dessous) Un syst\u00e8me a besoin de son environnement pour r\u00e9duire l’entropie: Un syst\u00e8me ne peut r\u00e9duire son entropie qu’en allongant son environnement. Il doit \u00eatre ouvert \u00e0 cela. Si l’un de ses sous-syst\u00e8mes r\u00e9duit son entropie, soit la somme de l’entropias des autres sous-syst\u00e8mes du syst\u00e8me global doit augmenter, soit le syst\u00e8me global doit masquer son environnement avec l’entropie. L’augmentation de l’entropie r\u00e9duit le Capacit\u00e9 \u00e0 changer d’un syst\u00e8me: Un syst\u00e8me d’entropie faible peut changer plus facilement sans contrainte sur son environnement qu’un syst\u00e8me \u00e0 entropie \u00e9lev\u00e9e. Si un syst\u00e8me change ind\u00e9pendamment de son environnement, son entropie augmente. Un syst\u00e8me avec une entropie maximale peut \u00eatre poss\u00e9der Ne change plus de force du tout. Ces deux faits s’appliquent \u00e9galement aux sous-syst\u00e8mes d’un syst\u00e8me. Table of ContentsChoix de mots [ Modifier | Modifier le texte source ]] Le rapport d’entropie et de “trouble” [ Modifier | Modifier le texte source ]] Trait de l’homme \u00e0 l’entropie [ Modifier | Modifier le texte source ]] Intuition et connaissance implicite de l’entropie [ Modifier | Modifier le texte source ]] Exemple: l’indice de pi\u00e8ce [ Modifier | Modifier le texte source ]] La diff\u00e9rence entre deux entropies est la redondance [ Modifier | Modifier le texte source ]] Du seul ordre est de l’autre trouble [ Modifier | Modifier le texte source ]] Conformit\u00e9 de la formule et de la d\u00e9claration d’entropie [ Modifier | Modifier le texte source ]] Physique statistique [ Modifier | Modifier le texte source ]] Macro \u00e9tat et ses micro-\u00e9tats [ Modifier | Modifier le texte source ]] Fluctuations [ Modifier | Modifier le texte source ]] Choix de mots [ Modifier | Modifier le texte source ]] Le physicien Leon Cooper m\u00e8ne des difficult\u00e9s \u00e0 comprendre le concept de l’entropie, essentiellement au choix du mauvais terme de Rudolf Clausius: “… Au lieu de prendre le nom du corps des langues contemporaines, il a r\u00e9ussi \u00e0 fa\u00e7onner un mot qui signifiait pour tout le monde: rien.” [3] Clausius a fond\u00e9 son choix de mots en pr\u00e9f\u00e9rant les vieilles langues pour des tailles scientifiques importantes car elles signifiaient la m\u00eame chose pour tout le monde dans les vieilles langues. Et Claude Shannon a choisi au lieu du terme initialement pr\u00e9vu incertitude ( incertitude ) Le concept d’entropie pour la th\u00e9orie de l’information, car il a repris une id\u00e9e quelque peu ironique de John von Neumann: “… Personne ne sait ce qu’est vraiment l’entropie, vous aurez donc toujours un avantage dans le d\u00e9bat.” C’est pourquoi le manuel thermodynamique isra\u00e9lien avec un raisonnement (* 1934) m\u00e8ne le concept du terme “manque d’informations” (avec un manque de thermodynamique “. MOI , Information manquante ) remplac\u00e9. [4] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Le rapport d’entropie et de “trouble” [ Modifier | Modifier le texte source ]] En raison de l’\u00e9quation fr\u00e9quente et populaire de l’entropie avec un \u00abtrouble\u00bb, l’utilisation du terme entropie de toute science est id\u00e9ale, qui recherche les processus ordonn\u00e9s et l’ordre des syst\u00e8mes sociaux. L’entropie est souvent utilis\u00e9e comme synonyme de d\u00e9sordre dans les repr\u00e9sentations populaires des sujets des sciences sociales. Un exemple est “l’entropie sociale” [5] , un concept de macrosociologie qui signifie souvent \u00abtrouble social\u00bb dans la discussion publique. Cependant, l’\u00e9quation de l’entropie avec un trouble est controvers\u00e9e. Il n’est pas en principe non autoris\u00e9, mais l’admissibilit\u00e9 de l’\u00e9quation d\u00e9pend de nombreuses conditions suppl\u00e9mentaires, y compris des perspectives subjectives et des \u00e9valuations normatives. L’utilisation de l’entropie comme synonyme de trouble conduit donc facilement \u00e0 des d\u00e9clarations d\u00e9routantes, peu claires et contestables. Arieh Ben-Naim montre Entropie d\u00e9mystifi\u00e9e (2007) que le concept d’ordre et de trouble n’est pas utile pour expliquer l’entropie et qu’une explication de la M\u00e9canismes d’action Aussi l’entropie thermodynamique exactement n’est possible que par la th\u00e9orie de l’information et la th\u00e9orie des probabilit\u00e9s. Le concept d’entropie a \u00e9t\u00e9 initialement d\u00e9velopp\u00e9 en physique, mais il serait bas\u00e9 sur la th\u00e9orie des informations et des probabilit\u00e9s. [6] L’ordre (dans le sens de \u00abordonnance\u00bb) peut \u00eatre vu que la propri\u00e9t\u00e9 commune de plusieurs parties pour former un syst\u00e8me fonctionnel ensemble. Cela peut \u00eatre un travail o\u00f9 tout est n\u00e9cessaire. Une voiture o\u00f9 tout ce qui appartient ensemble est correctement assembl\u00e9e est “correct”. Habituellement, il n’y a que quelques dispositions des parties individuelles qui se traduisent par un syst\u00e8me fonctionnel, mais beaucoup plus qui ne r\u00e9pondent pas \u00e0 ce crit\u00e8re et sont donc per\u00e7us comme un “trouble”. Voici une analogie avec le concept d’entropie qui a \u00e9t\u00e9 \u00e0 l’origine fa\u00e7onn\u00e9e en relation avec la distribution des mol\u00e9cules, mais s’applique \u00e9galement \u00e0 la distribution des grenouilles dans un \u00e9tang: il n’y a que quelques arrangements dans lesquels les grenouilles (ou les mol\u00e9cules) forment un motif g\u00e9om\u00e9trique, mais de nombreuses autres arrangements dans lesquels ils sont distribu\u00e9s comme d\u00e9sir\u00e9. Cette condition est beaucoup plus probable. Le nombre d’options de distribution est la mesure de la probabilit\u00e9 que vous voyiez une image ordonn\u00e9e ou d\u00e9sorganis\u00e9e lorsque vous le regardez. Selon Ludwig Boltzmann, le logarithme naturel de ce nombre est l’entropie [7] Les quelques dispositions qui se traduisent par un ensemble significatif et sont consid\u00e9r\u00e9es comme un \u00e9tat ordonn\u00e9 sont caract\u00e9ris\u00e9es par une petite application d’entropie. Un \u00e9tat du trouble est une forte probabilit\u00e9 car il existe de nombreuses fa\u00e7ons de le r\u00e9aliser. Son entropie est en cons\u00e9quence \u00e9lev\u00e9e. \u00c9tant donn\u00e9 que rien ne fonctionne \u00e0 lui, le trouble et l’entropie \u00e9lev\u00e9e sont per\u00e7us comme n\u00e9gatifs. Trait de l’homme \u00e0 l’entropie [ Modifier | Modifier le texte source ]] Lorsqu’ils traitent de l’entropie, les gens ne peuvent utiliser l’intuition que dans une mesure limit\u00e9e [8] , c’est pourquoi sa pr\u00e9occupation est principalement la recherche de So-appeled Sources d’\u00e9nergie s’applique sans la production d’entropie associ\u00e9e \u00e0 une conversion d’\u00e9nergie et \u00e0 la n\u00e9cessit\u00e9 de Entropies (par exemple, par exemple, les d\u00e9p\u00f4ts pour les d\u00e9chets). Cependant, les processus avec lesquels l’entropie est export\u00e9 vers l’environnement est de plus en plus per\u00e7u en raison de leurs effets stressants. Cela comprend en particulier la production de d\u00e9chets. Dans les affaires et la politique, la production d’entropie est un fardeau pour l’environnement partag\u00e9 par l’entreprise, qui est d\u00e9j\u00e0 impos\u00e9e dans de nombreux pays. De telles taxes d’entropie [9] avec lequel la pollution de l’environnement est tax\u00e9e selon le principe de cause [dix] est g\u00e9n\u00e9ralement impl\u00e9ment\u00e9 aujourd’hui sous forme d’\u00e9co-taxes. La r\u00e9duction de la production d’entropie peut \u00e9galement \u00eatre subventionn\u00e9e, par exemple en favorisant des disques efficaces, un chauffage, etc. Avec le commerce des droits d’\u00e9mission, le droit d’exporter l’entropie dans la biosph\u00e8re utilis\u00e9e conjointement dans une marchandise. [11] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Intuition et connaissance implicite de l’entropie [ Modifier | Modifier le texte source ]] Siddhartha Gautama: “O\u00f9 pourrait [\u2026] \u00eatre obtenu du fait que quelque chose est n\u00e9, est devenu compos\u00e9, compos\u00e9, soumis \u00e0 la d\u00e9composition, car il ne devrait pas tomber.” [douzi\u00e8me] Les gens ont une connaissance implicite des limites de la r\u00e9versibilit\u00e9 de la destruction des structures (par exemple, les choses et les \u00eatres vivants). En traitant l’entropie et les lois qui y sont associ\u00e9es, les gens reconnaissent intuitivement les processus qui sont per\u00e7us comme impossibles et dans lesquels la deuxi\u00e8me clause principale de thermodynamique, la th\u00e9orie de la probabilit\u00e9, etc. est viol\u00e9e. Si l’homme voit dans un film comment une maison s’accumule \u00e0 partir de d\u00e9combres et de cendres ind\u00e9pendamment, blanc Il est intuitivement que le film est jou\u00e9 en arri\u00e8re. L’homme a donc une connaissance implicite des lois de l’irr\u00e9versibilit\u00e9 et de la r\u00e9versibilit\u00e9. Il sent, souvent sans pouvoir d\u00e9crire le fait que l’entropie d’un syst\u00e8me ne peut pas diminuer sans l’aide de l’environnement du syst\u00e8me. L’intuition de l’homme est bas\u00e9e sur des connaissances implicites vitales. En revanche, la connaissance des cons\u00e9quences de ses propres actions est \u00e9galement en partie inhibant vos propres options de d\u00e9veloppement. Ici, les gens n’arrivent pas la connaissance de l’influence de l’environnement par leur propre action, mais la connaissance des sanctions sociales et des pertes personnelles. Dans la mesure o\u00f9 les avertissements de cons\u00e9quences pr\u00e9judiciables probables ne sont pas n\u00e9cessaires \u00e0 l’acteur, la r\u00e9pression et l’\u00e9vitement des connaissances peuvent aider \u00e0 ne pas affecter le d\u00e9veloppement prioritaire plus \u00e9lev\u00e9 en perturbant les connaissances. La structure trouve cela dans les syst\u00e8mes de croyances dans lesquels les miracles sont approuv\u00e9s et lib\u00e8rent donc les personnes agissant de leur responsabilit\u00e9. Ce sont les causes des difficult\u00e9s de l’homme avec leurs options de conversion d’\u00e9nergie actuelles, qui, dans l’histoire du d\u00e9veloppement, en si peu de temps, ont pris en si peu de temps que les gens n’ont pas encore accumul\u00e9 des connaissances implicites et collectives ad\u00e9quates. [8] En tant que mesure de la th\u00e9orie de l’information, l’entropie de Shannon a trouv\u00e9 son chemin dans les sciences sociales dans le d\u00e9veloppement des dimensions de concentration et des chiffres cl\u00e9s pour la distribution in\u00e9gale, par exemple, de la distribution du revenu et de la distribution. De l\u00e0, le Henri Theil [13] [14] , Anthony Atkinson [13] [15] et serge-christophe kolm [15] . Cependant, l’indice de pi\u00e8ce et la mesure d’Atkinson sont non seulement utilis\u00e9s lors de l’examen des distributions de revenus et d’actifs, mais, par exemple, dans le sociologie \u00e9galement lors de l’observation de la s\u00e9gr\u00e9gation des groupes de population. Exemple: l’indice de pi\u00e8ce [ Modifier | Modifier le texte source ]] Le terme \u00abentropie\u00bb cr\u00e9e des difficult\u00e9s m\u00eame d’excellents scientifiques. Dans Sur les in\u00e9galit\u00e9s \u00e9conomiques (Chapitre 2.11) [16] Amartya a d\u00e9clar\u00e9 que le terme entropie n’\u00e9tait pas exactement intuitif. Bien que la partie de la partie utilis\u00e9e par son co-auteur (James Foster), elle \u00e9tait “int\u00e9ressante”, mais il a \u00e9t\u00e9 surpris qu’une distribution \u00e9lev\u00e9e de revenus in\u00e9gale, par exemple, entra\u00eenerait une entropie \u00e9lev\u00e9e et donc un trouble \u00e9lev\u00e9. Sen va m\u00eame loin pour \u00e9valuer en partie comme “arbitraire”. La diff\u00e9rence entre deux entropies est la redondance [ Modifier | Modifier le texte source ]] Si un syst\u00e8me a une redondance dans l’une de ses cat\u00e9gories, cela signifie que le syst\u00e8me de cette cat\u00e9gorie propres fonds Peut changer. Le calcul de l’indice de pi\u00e8ces, qui est une distribution in\u00e9gale qui est utilis\u00e9e dans la socom\u00e9trie et l’\u00e9conomie, montre comment la redondance d’un syst\u00e8me (pour la cat\u00e9gorie de la distribution des ressources internes) peut \u00eatre d\u00e9termin\u00e9e \u00e0 partir de la diff\u00e9rence entre deux entropias du syst\u00e8me, qui d\u00e9rive de la th\u00e9orie de l’information. En ce qui concerne l’intelligibilit\u00e9 g\u00e9n\u00e9rale, cet article devrait se faire sans formules; Ce n’est que dans ce qui suit se trouve une exception et partiellement utilis\u00e9e pour toutes les dimensions de distribution in\u00e9gales con\u00e7ues comme une dimension d’entropie. Les d\u00e9tails sont expliqu\u00e9s dans l’article principal en partie. Avec la variante de la formule sp\u00e9cifi\u00e9e ici, des distributions in\u00e9gales peuvent \u00eatre calcul\u00e9es, dans lesquelles N les zones sont d\u00e9limit\u00e9es avec du quantile (dans cet exemple, les groupes de b\u00e9n\u00e9ficiaires de revenus) sont une largeur diff\u00e9rente UN {displaystyle a} ont: ET je {displayStyle e_ {i}} \u00eatre le revenu en je -Ten zone et UN je {displayStyle a_ {i}} \u00eatre le nombre (ou le pourcentage de part) des b\u00e9n\u00e9ficiaires de revenus je -Ten zone. [17] ET gesamt{DisplayStyle e_ {morhrm {total}}} \u00eatre la somme du revenu de tous N Zones et UN gesamt{Style d’affichage a_ {mhrmm {global}}} \u00eatre la somme des b\u00e9n\u00e9ficiaires de revenus de tous N Zones (ou 100%). Dans ce cas, Sens Surprise n’est pas le probl\u00e8me (voir ci-dessus) d’attribuer l’\u00e9quation de l’entropie et du trouble, mais le probl\u00e8me de dissolution du sens se pose si vous formulez en partie [18] divis\u00e9 en deux parties et repr\u00e9sente comme suit: La formule pour les actions de population divis\u00e9es en revenus dans une partie \u00e0 gauche et une partie droite fonctionne avec des sommes li\u00e9es au revenu: T T= LN \u2061 AgesamtEgesamt– \u2211i=1NEiln\u2061AiEiEgesamt{Displaystyle t_ {ln {a} {a}}}}} athy} gatan }}}}}}}}}}}}}}}}}}}}}}}} La formule de revenu divis\u00e9 en une partie gauche et une partie droite, qui sont distribu\u00e9es aux composantes de la population [19] : T L= LN \u2061 EgesamtAgesamt– \u2211i=1NAiln\u2061EiAiAgesamt{Displaystyle t_ {ln} {a}}} athy} athy} athy} gatch athy athy} athathy ath athathy athy athy} athy} athy athy} athy} ath athy} athy} ath athy athy} athy} athy athy} ath aty. }}}}}}}}}}}}}}}}}}}}}}}}}}}}}} En fait, chacune des deux formules contient deux Entropias. La pi\u00e8ce \u00e0 gauche du signe moins est l’entropie maximale (avec une distribution \u00e9gale). La partie \u00e0 droite du signe moins est l’entropie r\u00e9elle (pour une distribution r\u00e9ellement donn\u00e9e). Une telle diff\u00e9rence est bas\u00e9e sur la th\u00e9orie de l’information [20] Pas d’entropie, mais une redondance . Amartya Sen a \u00e9t\u00e9 \u00e0 juste titre surpris: l’indice de pi\u00e8ce ne fait pas partie de la partie de l’\u00e9poque, mais une partie de la partie. Cependant, comme une diff\u00e9rence entre deux entropies, la redondance reste dans le tomana entropi\u00e9. Bien que, en partie, les dimensions de la distribution in\u00e9gales d’Atkinsons et de Kolm sont des redondances, ils peuvent donc continuer \u00e0 \u00eatre appel\u00e9s une route d’entropie. Les appeler “l’entropie” peut entra\u00eener une confusion. Avec normalis\u00e9 Donn\u00e9es Ei\u2032 = ET je \/ \/ ET au total {DisplayStyle {{e} ‘_ {i}} = e_ {i} \/ e_ {text {gesamt}}}} et Ai\u2032 = UN je \/ \/ UN au total {DisplayStyle {{a} ‘_ {i}} = a_ {i} \/ a_ {text {gesamt}}}} Les formules deviennent encore plus faciles: T T= 0 – \u2211i=1NEi\u2032ln\u2061Ai\u2032Ei\u20321= \u2211 i=1NEi\u2032LN \u2061 Ei\u2032Ai\u2032{displayStyle t_ {t} = 0- {frac {sum _ {i = 1} ^ {n} {{e} ‘_ {i}} ln {frac {{a}’ _ {i}} {{e} ‘_ {i}}}} {{1} = n = 1} ^}}}}} {1} = n = 1} ^}}}} {{E} ‘_ {i}} ln {frac {{e}’ _ {i}} {{a} ‘_ {i}}}} T L= 0 – \u2211i=1NAi\u2032ln\u2061Ei\u2032Ai\u20321= \u2211 i=1NAi\u2032LN \u2061 Ai\u2032Ei\u2032{displayStyle t_ {l} = 0- {frac {sum _ {i = 1} ^ {n} {{a} ‘_ {i}} ln {frac {{e}’ _ {i}} {{a} ‘_ {i}}}} {{1} = n = 1} ^}}}} {1} = n = 1} ^}}}}} {1} = N = 1} ^}}}} {{A} ‘_ {i}} ln {frac {{a}’ _ {i}} {{e} ‘_ {i}}}} L’entropie maximale est d\u00e9plac\u00e9e \u00e0 z\u00e9ro. La distribution r\u00e9elle est alors une entropie n\u00e9gative. Il s’agit de redondance. La moyenne des deux redondances est un indice de partie sym\u00e9trique: T s= 12\u2211 i=1NLN \u2061 Ei\u2032Ai\u2032( Ei\u2032\u2212Ai\u2032) {displayStyle t_ {s} = {frac {1} {2}} sum _ {i = 1} ^ {n} ln {frac {{e} ‘_ {i}} {{a}’ _ {i}}} gauche ({e} ‘_ {i} } \u00e0 droite)} Du seul ordre est de l’autre trouble [ Modifier | Modifier le texte source ]] L’exemple illustre \u00e9galement le probl\u00e8me de l’\u00e9quation de l’entropie avec un trouble. Lorsque vous atteignez une distribution \u00e9gale compl\u00e8te, l’indice de pi\u00e8ce suppose la valeur “z\u00e9ro”. Il s’agit d’une entropie maximale ou d’une redondance minimale. Mais cela signifie-t-il aussi “trouble maximal”? La concentration maximale est-elle \u00abordre maximum\u00bb? S’il est facile de trouver un crit\u00e8re de commande, il y a en fait une commande maximale avec une distribution maximale in\u00e9gale, car cette distribution se traduit si, par exemple, l’ensemble des actifs d’une soci\u00e9t\u00e9 est adapt\u00e9 en une seule personne. Avec la d\u00e9finition th\u00e9orique de l’information de l’entropie comme mesure du manque d’informations, le crit\u00e8re de trouble facile est en ligne. Afin de trouver les actifs de tous contenus d’une mani\u00e8re, une seule adresse doit \u00eatre demand\u00e9e et communiqu\u00e9e. Ce petit manque d’informations est facile \u00e0 corriger. Dans une soci\u00e9t\u00e9 r\u00e9elle, cependant, il y aurait \u00e9galement un maximum de conflits avec cet ordre maximal, caus\u00e9 par l’injustice comme maximum per\u00e7ue. Cependant, l’ordre maximum est la distribution \u00e9gale des actifs pour les \u00e9galitaires. \u00c9tudes empiriques [21] Cependant, montrez que de nombreuses personnes consid\u00e8rent une distribution in\u00e9gale dans une zone floue entre la distribution totale \u00e9gale et la distribution totale in\u00e9gale pour \u00eatre optimale. Conformit\u00e9 de la formule et de la d\u00e9claration d’entropie [ Modifier | Modifier le texte source ]] Une partie de la formule est \u00e9galement conforme \u00e0 l’explication de l’entropie par Gell-Mann, dans laquelle on parle d’un \u00abeffort\u00bb.\u00c0 gauche du signe moins UN au total \/ \/ ET au total {DisplayStyle a_ {text {total} \/ e_ {text {total}}}} Par exemple, les actifs du m\u00eame temps par propri\u00e9taire.Comment l’effort d’information est-il n\u00e9cessaire pour pr\u00e9senter le quotient r\u00e9sultant de cette pause? Cela se produit avec une fonction de mise \u00e0 l’\u00e9chelle appel\u00e9e logarithme:Le logarithme d’un nombre est proportionnel \u00e0 l’effort utilis\u00e9 pour noter ce nombre. Il s’agit de l’effort d’information qui est n\u00e9cessaire pour communiquer les actifs par habitant de m\u00eame temps.\u00c0 droite du signe moins UN je \/ \/ ET je {displayStyle a_ {i} \/ e_ {i}} Les actifs r\u00e9els par groupe de propri\u00e9taires. Encore une fois, le logarithme de ce num\u00e9ro d\u00e9crit l’espace utilis\u00e9 pour noter ce num\u00e9ro. Cependant, comme le groupe a moins de poids que l’ensemble, les d\u00e9penses individuelles doivent encore ET je \/ \/ ET au total {DisplayStyle e_ {i} \/ e_ {text {total}}} \u00eatre pond\u00e9r\u00e9. Murray Gell-Mans Explication de l’entropie comme un effort n\u00e9cessaire pour r\u00e9duire “l’ignorance” n’a \u00e9t\u00e9 reproduite que raccourcie au d\u00e9but de cet article. Son explication a \u00e9t\u00e9 critiqu\u00e9e par Ilya Prigogine [22] Parce qu’il a dit que cela pourrait r\u00e9duire l’entropie en changeant les connaissances dans un syst\u00e8me ferm\u00e9. Il est donc important de noter \u00e0 la d\u00e9finition de Gell-Mann qu’il ne stipule pas que le manque d’informations doit r\u00e9ellement \u00eatre corrig\u00e9. Il s’agit du potentiel Effort pour rem\u00e9dier \u00e0 un manque d’informations. Si l’effort dans le syst\u00e8me ferm\u00e9 \u00e9tait r\u00e9alis\u00e9 et provoquant ainsi une am\u00e9lioration de l’entropie, cette r\u00e9duction serait au moins compens\u00e9e par une augmentation de l’effort caus\u00e9 par l’effort. Ici encore, le cercle se ferme avec Le\u00f3 Szil\u00e1rd (voir ci-dessus), qui a \u00e9t\u00e9 montr\u00e9 dans ce contexte que les \u00eatres intelligents (y compris le d\u00e9mon de Maxwell) ne peuvent pas r\u00e9duire l’entropie dans un syst\u00e8me ferm\u00e9. Physique statistique [ Modifier | Modifier le texte source ]] L’entropie a d’abord \u00e9t\u00e9 utilis\u00e9e comme taille physique dans la thermodynamique et a compris ph\u00e9nom\u00e9nologiquement. Les processus et les relations qui sous-tendent les connaissances de la physique statistique fond\u00e9s par Ludwig Boltzmann (\u00e9galement appel\u00e9s m\u00e9canismes statistiques) peuvent \u00eatre expliqu\u00e9s. L’entropie de Boltzmann comme base commune pour le Explication Le thermodynamique (selon Clausius) et l’entropie th\u00e9orique de l’information (selon Shannon) [23] . Macro \u00e9tat et ses micro-\u00e9tats [ Modifier | Modifier le texte source ]] Par exemple, les sp\u00e9cialistes des sciences sociales d\u00e9crivent l’\u00e9tat macro d’une soci\u00e9t\u00e9 qui d\u00e9coule des nombreux micro-\u00e9tats des personnes agissant dans leur environnement. Si n\u00e9cessaire, ces micro-\u00e9tats sont \u00e9galement macro en eux-m\u00eames, qui peuvent \u00eatre d\u00e9compos\u00e9s en micro-\u00e9tats encore plus petits. Cela conduit \u00e0 des syst\u00e8mes complexes qui ne conduisent qu’au niveau macro [24] peut devenir. La connaissance de l’interaction des micro-\u00e9tats aide \u00e0 estimer le macro-\u00e9tat possible, mais les micro-\u00e9tats eux-m\u00eames \u00e9vitent la manipulation pratique. En physique statistique, les macro-carburants d’un syst\u00e8me sont trait\u00e9s comme une description statistique des micro-\u00e9tats qui m\u00e8nent \u00e0 l’\u00e9tat macro. Par exemple, la temp\u00e9rature est une taille statistique dans la zone macro, qui fluctue dans la zone micro (localement et dans le temps) et r\u00e9sulte du comportement individuel des nombreuses particules du corps pour lesquelles cette temp\u00e9rature est mesur\u00e9e. M\u00eame si le comportement d’une seule particule pouvait \u00eatre observ\u00e9, une observation de toutes les particules du corps visible dans notre monde quotidien n’a pas pu \u00eatre r\u00e9alis\u00e9e pour nous \u00e0 l’\u0153il nu. Cet exemple sert d\u00e9sormais \u00e0 introduire les termes macro et micro-\u00e9tat avant que l’une des possibilit\u00e9s ne suit l’entropie: \u00abL’entropie et les informations ont une connexion \u00e9troite. En fait, l’entropie peut \u00eatre comprise comme une mesure de l’ignorance. S’il est connu seulement qu’un syst\u00e8me se trouve dans un macro-\u00e9tat donn\u00e9, l’entropie d’un macro \u00e9tat d\u00e9crit le degr\u00e9 d’ignorance sur le microstatus. Ce dipl\u00f4me est le nombre de bits d’informations suppl\u00e9mentaires n\u00e9cessaires pour sp\u00e9cifier compl\u00e8tement le microstatus. Tous les micro-\u00e9tats sont trait\u00e9s comme probables. ” [25] Dans une th\u00e9orie du syst\u00e8me pour les psychologues, l’entropie de Norbert Bischof d\u00e9crit de la m\u00eame mani\u00e8re que “la mesure du quantum de la topique impr\u00e9visible, c’est-\u00e0-dire que les” informations “, qui est g\u00e9n\u00e9r\u00e9e en moyenne par chaque s\u00e9lection de la source de signal”. [26] Selon Richard Becker, l’entropie n’est pas ignorante, mais une fonction de l’ignorance: S = k ln (ignorance) . [27] Cela signifie que l’entropie reste \u00e9galement une mesure de l’ignorance. Fluctuations [ Modifier | Modifier le texte source ]] Les fluctuations sont des diff\u00e9rences locales \u00e0 court terme \u00e0 court terme, et donc des r\u00e9ductions de l’entropie locale. Avec un grand syst\u00e8me macro, la survenue de fluctuations locales peut \u00eatre observ\u00e9e: bon nombre du faible niveau de performance en eux-m\u00eames peut entra\u00eener une probabilit\u00e9 suffisamment \u00e9lev\u00e9e qu’un \u00e9v\u00e9nement inattendu puisse \u00eatre observ\u00e9 quelque part. La possibilit\u00e9 de fluctuations signifie que l’analyse du syst\u00e8me doit \u00eatre bien comprise si les fluctuations dues \u00e0 de courtes fluctuations doivent \u00eatre prises en compte dans les syst\u00e8mes avec seulement quelques carburants macro, qui ne doivent plus \u00eatre identifi\u00e9s par une augmentation de l’entropie. De plus, en ce qui concerne l’infini et aussi la dur\u00e9e de l’histoire humaine, “Short” peut \u00e9galement r\u00e9sister pendant de nombreuses ann\u00e9es. Pour les sciences sociales, cela signifie qu’il n’est pas toujours certain qu’un \u00c9tat (par exemple la croissance \u00e9conomique) soit une dur\u00e9e significative, ou seule une fluctuation est disponible. Le couplage structurel entre l’\u00e9conomie et la soci\u00e9t\u00e9 ainsi qu’entre la soci\u00e9t\u00e9 et l’environnement mat\u00e9riel permettent divers types de transfert d’entropie, c’est-\u00e0-dire \u00e9galement une interaction du sanctuaire d’information et des entropies thermodynamiques. Jusqu’o\u00f9 l’entropie physique peut \u00eatre r\u00e9unie avec l’entropie m\u00e9taphysique est en discussion. [28] Deux chemins qui y m\u00e8nent ont d\u00e9j\u00e0 \u00e9t\u00e9 mentionn\u00e9s: L’entropie de la th\u00e9orie de l’information est transf\u00e9r\u00e9e \u00e0 la thermodynamique. [29] L’entropie thermodynamique est expliqu\u00e9e en termes d’informations et de probabilit\u00e9. [4] [6] En fait, une explication de la M\u00e9canismes d’action Entropie thermodynamique possible via la th\u00e9orie de la probabilit\u00e9. L’indication quantitative de l’entropie et la description quantitative des changements d’entropie dans les complexes [30] Les syst\u00e8mes restent difficiles ou impossibles, ce qui peut s’expliquer par l’entropie des syst\u00e8mes descriptifs (les personnes et leurs sida). N\u00e9anmoins, une compr\u00e9hension de l’effet de l’entropie des syst\u00e8mes (voir l’initiation de cet article) est utile pour comprendre l’interaction entre les syst\u00e8mes et son environnement. [trente et un] Cela comprend l’impossibilit\u00e9 fondamentale de l’action de soi. Si un syst\u00e8me s’ouvre, l’objectif de cette ouverture est d’\u00e9viter l’ind\u00e9pendance. Kenneth D. Bailey: Th\u00e9orie de l’entropie sociale . State University of New York Press, New York 1990, ISBN 978-0-7914-0056-2 (Englisch, 310 S.). Karl-Michael Brunner: Entropie sociale: la diff\u00e9rence de la soci\u00e9t\u00e9 naturelle en utilisant l’exemple des mod\u00e8les sociaux thermodynamiques . Dans: Karl-Siegbert Rehberg (\u00e9d.): Diff\u00e9rence et int\u00e9gration . Groupe 2 . Westdt. Verlag, Charging 1997, ISBN 3-531-12878-7 ( en ligne – Contribution de la conf\u00e9rence). Jakl, Thomas, sak\u00e9, Manfred, HRG.: Rendre la durabilit\u00e9 tangible – Gain dans une entropie comme mesure de la durabilit\u00e9. Conf\u00e9rence Band on the Symposium le 27 avril 2012, Diplomatic Academy, Vienne 2012. Welf A. Kreiner: Entropie – Qu’est-ce que c’est? Aper\u00e7u pour les \u00e9l\u00e8ves et les enseignants. \u2191 Ditmar Brock U. un.: Paradigmes sociologiques selon Talcott Parsons: une introduction . 1\u00e8re \u00e9dition. VS Verlag pour les sciences sociales, Wiesbaden 2009, ISBN 978-3-531-16216-4, S. 388 ( Aper\u00e7u limit\u00e9 dans la recherche de livres Google). \u2191 Lewis, Gilbert Newton (1930): La sym\u00e9trie du temps en physique , Science, 71, 0569 \u2191 Leon Neil Cooper (1968): Une introduction au sens et \u00e0 la structure de la physique \u2191 un b Ben-Naim, Arieh (2008): Un adieu \u00e0 l’entropie: thermodynamique statistique bas\u00e9e sur les informations \u2191 W\u00f6hlcke, Manfred (2003): La fin de la civilisation. Sur l’entropie sociale et l’auto-destruction collective. \u2191 un b Ben-Naim, Arieh (2007): Entropie d\u00e9mystifi\u00e9e , Chapitre 8.2: L’association de l’entropie avec le \u00abtrouble\u00bb \u2191 Ludwig Boltzmann (2008). Entropie et probabilit\u00e9. Ostwald’s Classic of Exact Sciences, vol. 286. Verlag Harry Deutsch. \u2191 un b Verbeeck, Bernhard (1998): Anthropologie de la d\u00e9gradation de l’environnement \u2191 Scheer, Hermann (1998): Strat\u00e9gie solaire , dans ce La taxe d’entropie (Chapitre 8) \u2191 Peter Kafka (1998), C’est l’heure de se lever ( M\u00e9mento des Originaux \u00e0 partir du 22 octobre 2007 Archives Internet ) Info: Le lien d’archive a \u00e9t\u00e9 utilis\u00e9 automatiquement et non encore v\u00e9rifi\u00e9. Veuillez v\u00e9rifier le lien d’origine et d’archiver en fonction des instructions, puis supprimez cette note. @d’abord @ 2 Mod\u00e8le: webachiv \/ iabot \/ www.peterkafka.de : “Vous pouvez \u00e9galement appeler cette taxe sur la” confusion de la biosph\u00e8re “comme une” taxe d’entropie “.” \u2191 Luhmann, Niklas (1988): L’\u00e9conomie de la soci\u00e9t\u00e9 . Dans le livre, Luhmann montre que seul l’argent est le moyen de communication de l’\u00e9conomie; Une taille physique telle que \u00abl’entropie\u00bb ne peut pas \u00eatre communiqu\u00e9e dans le syst\u00e8me \u00e9conomique class\u00e9 op\u00e9rationnel. Cependant, l’\u00e9conomie est jusqu’\u00e0 pr\u00e9sent avec son environnement structurellement li\u00e9 Cette communication environnementale dans le syst\u00e8me \u00e9conomique provoque. Cependant, cela se fait toujours via les moyens de communication. Par cons\u00e9quent, cette communication du commerce ne conf\u00e8re pas une relation directement perceptible entre la pollution de l’environnement et les co\u00fbts. \u2191 Probablement \u00e0 partir de 483 avant JC Chr. Surmis: Mah\u00e1parinibb\u00e1na Sutta, Digha Ki Kijiyah 16.3.6 \u2191 un b Cowell, Frank A. (2002, 2003): Theil, in\u00e9galit\u00e9 et structure de la distribution des revenus (PDF; 320 Ko) , London School of Economics and Political Sciences (avec r\u00e9f\u00e9rences \u00e0 la \u00abclasse des indices Kolm\u00bb, qui sont des mesures de distributions in\u00e9gales telles que l’indice de pi\u00e8ce) \u2191 Theil, Henri (1971): Principes de l’\u00e9conom\u00e9trie \u2191 un b Tsui, Kai-Yuen (1995): G\u00e9n\u00e9ralisations multidimensionnelles des indices d’in\u00e9galit\u00e9 relatifs et absolus: l’approche Atkinson-Kolm-Sen . Journal of Economic Theory 67, 251-265. \u2191 Sen, Amartya (1997): Sur les in\u00e9galit\u00e9s \u00e9conomiques , \u00c9dition \u00e9largie avec une annexe substantielle apr\u00e8s un quart de si\u00e8cle avec James Foster, Oxford \u2191 La notation avec E et A suit la notation d’une petite collection de formules par Lonnel Maugis: Mesures d’in\u00e9galit\u00e9 en programmation math\u00e9matique pour le probl\u00e8me de gestion du flux a\u00e9rien avec les capacit\u00e9s en route (pour Ifors 96), 1996 \u2191 Cuong Nguyen Viet (2007): Les envois de fonds \u00e9trangers sont-ils importants pour la pauvret\u00e9 et les in\u00e9galit\u00e9s? Preuve du Vietnam ( M\u00e9mento des Originaux du 25 mars 2009 Archives Internet ) Info: Le lien d’archive a \u00e9t\u00e9 utilis\u00e9 automatiquement et non encore v\u00e9rifi\u00e9. Veuillez v\u00e9rifier le lien d’origine et d’archiver en fonction des instructions, puis supprimez cette note. @d’abord @ 2 Mod\u00e8le: webachiv \/ iabot \/ economicsbulletin.vanderbilt.edu (Les formules s’appliquent aux zones avec la m\u00eame largeur (Quantle \u00e0 la m\u00eame distance). Les formules indiqu\u00e9es ici dans l’article peuvent \u00e9galement \u00eatre appliqu\u00e9es aux zones avec diff\u00e9rentes largeurs.) \u2191 Helpman, Elhanan (2004): Le myst\u00e8re de la croissance \u00e9conomique (Les deux formules correspondent aux deux m\u00e9thodes de calcul de l’indice de pi\u00e8ce mentionn\u00e9es par l’auteur \u00e0 la p. 150: Dans la premi\u00e8re formule, la pond\u00e9ration est effectu\u00e9e par la part du revenu, dans la seconde par la part de la population. sym\u00e9tr\u00e9 Index de pi\u00e8ce.) \u2191 ISO \/ IEC DIS 2382-16: 1996 d\u00e9finit le redondance En th\u00e9orie de l’information \u2191 Amiel \/ Cowell, F.A. (1999): Penser \u00e0 l’in\u00e9galit\u00e9 , 1999 \u2191 Prigogine, Ilya (1997): La fin de la certitude, du temps, du chaos et des nouvelles lois de la nature \u2191 Ben-Naim, Arieh (2007): Entropie d\u00e9mystifi\u00e9e (scientifique populaire); Ben-Naim, Arieh (2008): Thermodynamique statistique bas\u00e9e sur les informations: un adieu \u00e0 l’entropie (Cahier de texte) \u2191 Malik, Fredmund (1984\/2006): Strat\u00e9gie de gestion des syst\u00e8mes complexes \u2191 Gell-Mann, Murray (1994): Le Quark et le Jaguar (Citation pour une meilleure intelligibilit\u00e9 syntaxiquement et grammaticalement chang\u00e9 facilement. “L’ignorance” a \u00e9t\u00e9 traduite par “ignorance”.) \u2191 Norbert Bischof (1998): Structure et sens (Dans la “source” d’origine au lieu de “Source Source” dans la citation.) \u2191 Richard Becker (1955): Th\u00e9orie de la chaleur \u2191 Vojta, G\u00fcnter \/ Vojta, Matthias (2000): Broch\u00e9 de la physique statistique , Chapitre 7 Physique statistique et th\u00e9orie de l’information \u2191 Lange, Franz H. (1966): Signaux et syst\u00e8mes , Bande 3, S. 64. \u2191 Ebeling, W. \/ Freund, J., Schweitzer, F. (1998): Structures complexes: entropie et informations \u2191 Vojta, G\u00fcnter \/ Vojta, Matthias (2000): Broch\u00e9 de la physique statistique , Chapitre 13.2.2 Th\u00e9ories stochastiques du comportement : “Apr\u00e8s tout, l’utilisation des m\u00e9thodes de physique statistique ouvre de nouvelles fa\u00e7ons de rechercher et de comprendre le comportement des syst\u00e8mes tr\u00e8s complexes en sociologie, en \u00e9cologie et en \u00e9conomie.” (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/entropie-sciences-sociales-wikipedia\/#breadcrumbitem","name":"Entropie (sciences sociales) – Wikipedia"}}]}]