Entropie (sciences sociales) – Wikipedia

before-content-x4

Le concept de Entropie ou la entropie sociale Trouvé dans les sciences sociales, en particulier dans le domaine de la théorie du système sociologique au sein de la sociologie, la réception comme un degré d’inégalité ou de trouble à l’origine à l’origine de la physique. Il est généralement compris comme une mesure du degré d’ordre ou de trouble dans un système social, par exemple pour décrire les inégalités sociales. En partie comme l’entropie sociale est également comprise comme une tendance à changer les structures sociales au lieu d’une mesure évolutive. [d’abord]

after-content-x4

Un moyen accompagnant le sens de l’entropie d’une manière compréhensible est qu’il n’est pas l’entropie elle-même, mais la changement Pour regarder l’entropie, c’est-à-dire l’augmentation ou la réduction de l’entropie.

  • Le gain d’entropie est la perte d’informations:
Gilbert Newton Lewis a écrit en 1930: “Une augmentation de l’entropie signifie la perte d’informations et rien d’autre.” [2]
Le bref résumé d’une explication de l’entropie de Murray Gell-Mann en 1994 est: «L’entropie est MANGEL D’INFORMATION dont la taille est mesurée par rapport à l’effort qui serait nécessaire pour remédier à ce manque d’informations. »(Détails Voir ci-dessous)
  • Un système a besoin de son environnement pour réduire l’entropie:
Un système ne peut réduire son entropie qu’en allongant son environnement. Il doit être ouvert à cela. Si l’un de ses sous-systèmes réduit son entropie, soit la somme de l’entropias des autres sous-systèmes du système global doit augmenter, soit le système global doit masquer son environnement avec l’entropie.
  • L’augmentation de l’entropie réduit le Capacité à changer d’un système:
Un système d’entropie faible peut changer plus facilement sans contrainte sur son environnement qu’un système à entropie élevée. Si un système change indépendamment de son environnement, son entropie augmente. Un système avec une entropie maximale peut être posséder Ne change plus de force du tout. Ces deux faits s’appliquent également aux sous-systèmes d’un système.

Choix de mots [ Modifier | Modifier le texte source ]]

Le physicien Leon Cooper mène des difficultés à comprendre le concept de l’entropie, essentiellement au choix du mauvais terme de Rudolf Clausius: “… Au lieu de prendre le nom du corps des langues contemporaines, il a réussi à façonner un mot qui signifiait pour tout le monde: rien.” [3] Clausius a fondé son choix de mots en préférant les vieilles langues pour des tailles scientifiques importantes car elles signifiaient la même chose pour tout le monde dans les vieilles langues. Et Claude Shannon a choisi au lieu du terme initialement prévu incertitude ( incertitude ) Le concept d’entropie pour la théorie de l’information, car il a repris une idée quelque peu ironique de John von Neumann: “… Personne ne sait ce qu’est vraiment l’entropie, vous aurez donc toujours un avantage dans le débat.” C’est pourquoi le manuel thermodynamique israélien avec un raisonnement (* 1934) mène le concept du terme “manque d’informations” (avec un manque de thermodynamique “. MOI , Information manquante ) remplacé. [4]

Le rapport d’entropie et de “trouble” [ Modifier | Modifier le texte source ]]

En raison de l’équation fréquente et populaire de l’entropie avec un «trouble», l’utilisation du terme entropie de toute science est idéale, qui recherche les processus ordonnés et l’ordre des systèmes sociaux. L’entropie est souvent utilisée comme synonyme de désordre dans les représentations populaires des sujets des sciences sociales. Un exemple est “l’entropie sociale” [5] , un concept de macrosociologie qui signifie souvent «trouble social» dans la discussion publique. Cependant, l’équation de l’entropie avec un trouble est controversée. Il n’est pas en principe non autorisé, mais l’admissibilité de l’équation dépend de nombreuses conditions supplémentaires, y compris des perspectives subjectives et des évaluations normatives. L’utilisation de l’entropie comme synonyme de trouble conduit donc facilement à des déclarations déroutantes, peu claires et contestables. Arieh Ben-Naim montre Entropie démystifiée (2007) que le concept d’ordre et de trouble n’est pas utile pour expliquer l’entropie et qu’une explication de la Mécanismes d’action Aussi l’entropie thermodynamique exactement n’est possible que par la théorie de l’information et la théorie des probabilités. Le concept d’entropie a été initialement développé en physique, mais il serait basé sur la théorie des informations et des probabilités. [6]

L’ordre (dans le sens de «ordonnance») peut être vu que la propriété commune de plusieurs parties pour former un système fonctionnel ensemble. Cela peut être un travail où tout est nécessaire. Une voiture où tout ce qui appartient ensemble est correctement assemblée est “correct”. Habituellement, il n’y a que quelques dispositions des parties individuelles qui se traduisent par un système fonctionnel, mais beaucoup plus qui ne répondent pas à ce critère et sont donc perçus comme un “trouble”. Voici une analogie avec le concept d’entropie qui a été à l’origine façonnée en relation avec la distribution des molécules, mais s’applique également à la distribution des grenouilles dans un étang: il n’y a que quelques arrangements dans lesquels les grenouilles (ou les molécules) forment un motif géométrique, mais de nombreuses autres arrangements dans lesquels ils sont distribués comme désiré. Cette condition est beaucoup plus probable. Le nombre d’options de distribution est la mesure de la probabilité que vous voyiez une image ordonnée ou désorganisée lorsque vous le regardez. Selon Ludwig Boltzmann, le logarithme naturel de ce nombre est l’entropie [7] Les quelques dispositions qui se traduisent par un ensemble significatif et sont considérées comme un état ordonné sont caractérisées par une petite application d’entropie.

Un état du trouble est une forte probabilité car il existe de nombreuses façons de le réaliser. Son entropie est en conséquence élevée. Étant donné que rien ne fonctionne à lui, le trouble et l’entropie élevée sont perçus comme négatifs.

Trait de l’homme à l’entropie [ Modifier | Modifier le texte source ]]

Lorsqu’ils traitent de l’entropie, les gens ne peuvent utiliser l’intuition que dans une mesure limitée [8] , c’est pourquoi sa préoccupation est principalement la recherche de So-appeled Sources d’énergie s’applique sans la production d’entropie associée à une conversion d’énergie et à la nécessité de Entropies (par exemple, par exemple, les dépôts pour les déchets). Cependant, les processus avec lesquels l’entropie est exporté vers l’environnement est de plus en plus perçu en raison de leurs effets stressants. Cela comprend en particulier la production de déchets. Dans les affaires et la politique, la production d’entropie est un fardeau pour l’environnement partagé par l’entreprise, qui est déjà imposée dans de nombreux pays. De telles taxes d’entropie [9] avec lequel la pollution de l’environnement est taxée selon le principe de cause [dix] est généralement implémenté aujourd’hui sous forme d’éco-taxes. La réduction de la production d’entropie peut également être subventionnée, par exemple en favorisant des disques efficaces, un chauffage, etc. Avec le commerce des droits d’émission, le droit d’exporter l’entropie dans la biosphère utilisée conjointement dans une marchandise. [11]

after-content-x4

Intuition et connaissance implicite de l’entropie [ Modifier | Modifier le texte source ]]

Siddhartha Gautama: “Où pourrait […] être obtenu du fait que quelque chose est né, est devenu composé, composé, soumis à la décomposition, car il ne devrait pas tomber.” [douzième]

Les gens ont une connaissance implicite des limites de la réversibilité de la destruction des structures (par exemple, les choses et les êtres vivants). En traitant l’entropie et les lois qui y sont associées, les gens reconnaissent intuitivement les processus qui sont perçus comme impossibles et dans lesquels la deuxième clause principale de thermodynamique, la théorie de la probabilité, etc. est violée. Si l’homme voit dans un film comment une maison s’accumule à partir de décombres et de cendres indépendamment, blanc Il est intuitivement que le film est joué en arrière. L’homme a donc une connaissance implicite des lois de l’irréversibilité et de la réversibilité. Il sent, souvent sans pouvoir décrire le fait que l’entropie d’un système ne peut pas diminuer sans l’aide de l’environnement du système.

L’intuition de l’homme est basée sur des connaissances implicites vitales. En revanche, la connaissance des conséquences de ses propres actions est également en partie inhibant vos propres options de développement. Ici, les gens n’arrivent pas la connaissance de l’influence de l’environnement par leur propre action, mais la connaissance des sanctions sociales et des pertes personnelles. Dans la mesure où les avertissements de conséquences préjudiciables probables ne sont pas nécessaires à l’acteur, la répression et l’évitement des connaissances peuvent aider à ne pas affecter le développement prioritaire plus élevé en perturbant les connaissances. La structure trouve cela dans les systèmes de croyances dans lesquels les miracles sont approuvés et libèrent donc les personnes agissant de leur responsabilité. Ce sont les causes des difficultés de l’homme avec leurs options de conversion d’énergie actuelles, qui, dans l’histoire du développement, en si peu de temps, ont pris en si peu de temps que les gens n’ont pas encore accumulé des connaissances implicites et collectives adéquates. [8]

En tant que mesure de la théorie de l’information, l’entropie de Shannon a trouvé son chemin dans les sciences sociales dans le développement des dimensions de concentration et des chiffres clés pour la distribution inégale, par exemple, de la distribution du revenu et de la distribution. De là, le Henri Theil [13] [14] , Anthony Atkinson [13] [15] et serge-christophe kolm [15] . Cependant, l’indice de pièce et la mesure d’Atkinson sont non seulement utilisés lors de l’examen des distributions de revenus et d’actifs, mais, par exemple, dans le sociologie également lors de l’observation de la ségrégation des groupes de population.

Exemple: l’indice de pièce [ Modifier | Modifier le texte source ]]

Le terme «entropie» crée des difficultés même d’excellents scientifiques. Dans Sur les inégalités économiques (Chapitre 2.11) [16] Amartya a déclaré que le terme entropie n’était pas exactement intuitif. Bien que la partie de la partie utilisée par son co-auteur (James Foster), elle était “intéressante”, mais il a été surpris qu’une distribution élevée de revenus inégale, par exemple, entraînerait une entropie élevée et donc un trouble élevé. Sen va même loin pour évaluer en partie comme “arbitraire”.

La différence entre deux entropies est la redondance [ Modifier | Modifier le texte source ]]

Si un système a une redondance dans l’une de ses catégories, cela signifie que le système de cette catégorie propres fonds Peut changer. Le calcul de l’indice de pièces, qui est une distribution inégale qui est utilisée dans la socométrie et l’économie, montre comment la redondance d’un système (pour la catégorie de la distribution des ressources internes) peut être déterminée à partir de la différence entre deux entropias du système, qui dérive de la théorie de l’information.

En ce qui concerne l’intelligibilité générale, cet article devrait se faire sans formules; Ce n’est que dans ce qui suit se trouve une exception et partiellement utilisée pour toutes les dimensions de distribution inégales conçues comme une dimension d’entropie. Les détails sont expliqués dans l’article principal en partie. Avec la variante de la formule spécifiée ici, des distributions inégales peuvent être calculées, dans lesquelles N les zones sont délimitées avec du quantile (dans cet exemple, les groupes de bénéficiaires de revenus) sont une largeur différente

UN {displaystyle a}

ont:

ET je {displayStyle e_ {i}}

être le revenu en je -Ten zone et

UN je {displayStyle a_ {i}}

être le nombre (ou le pourcentage de part) des bénéficiaires de revenus je -Ten zone. [17]

ET gesamt{DisplayStyle e_ {morhrm {total}}}

être la somme du revenu de tous N Zones et

UN gesamt{Style d’affichage a_ {mhrmm {global}}}

être la somme des bénéficiaires de revenus de tous N Zones (ou 100%).

Dans ce cas, Sens Surprise n’est pas le problème (voir ci-dessus) d’attribuer l’équation de l’entropie et du trouble, mais le problème de dissolution du sens se pose si vous formulez en partie [18] divisé en deux parties et représente comme suit:

  • La formule pour les actions de population divisées en revenus dans une partie à gauche et une partie droite fonctionne avec des sommes liées au revenu:
  • La formule de revenu divisé en une partie gauche et une partie droite, qui sont distribuées aux composantes de la population [19] :

En fait, chacune des deux formules contient deux Entropias. La pièce à gauche du signe moins est l’entropie maximale (avec une distribution égale). La partie à droite du signe moins est l’entropie réelle (pour une distribution réellement donnée). Une telle différence est basée sur la théorie de l’information [20] Pas d’entropie, mais une redondance .

Amartya Sen a été à juste titre surpris: l’indice de pièce ne fait pas partie de la partie de l’époque, mais une partie de la partie. Cependant, comme une différence entre deux entropies, la redondance reste dans le tomana entropié. Bien que, en partie, les dimensions de la distribution inégales d’Atkinsons et de Kolm sont des redondances, ils peuvent donc continuer à être appelés une route d’entropie. Les appeler “l’entropie” peut entraîner une confusion.

Avec normalisé Données

Ei= ET je / / ET au total {DisplayStyle {{e} ‘_ {i}} = e_ {i} / e_ {text {gesamt}}}}

et

Ai= UN je / / UN au total {DisplayStyle {{a} ‘_ {i}} = a_ {i} / a_ {text {gesamt}}}}

Les formules deviennent encore plus faciles:

L’entropie maximale est déplacée à zéro. La distribution réelle est alors une entropie négative. Il s’agit de redondance.

La moyenne des deux redondances est un indice de partie symétrique:

Du seul ordre est de l’autre trouble [ Modifier | Modifier le texte source ]]

L’exemple illustre également le problème de l’équation de l’entropie avec un trouble. Lorsque vous atteignez une distribution égale complète, l’indice de pièce suppose la valeur “zéro”. Il s’agit d’une entropie maximale ou d’une redondance minimale. Mais cela signifie-t-il aussi “trouble maximal”? La concentration maximale est-elle «ordre maximum»? S’il est facile de trouver un critère de commande, il y a en fait une commande maximale avec une distribution maximale inégale, car cette distribution se traduit si, par exemple, l’ensemble des actifs d’une société est adapté en une seule personne. Avec la définition théorique de l’information de l’entropie comme mesure du manque d’informations, le critère de trouble facile est en ligne. Afin de trouver les actifs de tous contenus d’une manière, une seule adresse doit être demandée et communiquée. Ce petit manque d’informations est facile à corriger. Dans une société réelle, cependant, il y aurait également un maximum de conflits avec cet ordre maximal, causé par l’injustice comme maximum perçue. Cependant, l’ordre maximum est la distribution égale des actifs pour les égalitaires. Études empiriques [21] Cependant, montrez que de nombreuses personnes considèrent une distribution inégale dans une zone floue entre la distribution totale égale et la distribution totale inégale pour être optimale.

Conformité de la formule et de la déclaration d’entropie [ Modifier | Modifier le texte source ]]

Une partie de la formule est également conforme à l’explication de l’entropie par Gell-Mann, dans laquelle on parle d’un «effort».
À gauche du signe moins

UN au total / / ET au total {DisplayStyle a_ {text {total} / e_ {text {total}}}}

Par exemple, les actifs du même temps par propriétaire.
Comment l’effort d’information est-il nécessaire pour présenter le quotient résultant de cette pause? Cela se produit avec une fonction de mise à l’échelle appelée logarithme:
Le logarithme d’un nombre est proportionnel à l’effort utilisé pour noter ce nombre. Il s’agit de l’effort d’information qui est nécessaire pour communiquer les actifs par habitant de même temps.
À droite du signe moins

UN je / / ET je {displayStyle a_ {i} / e_ {i}}

Les actifs réels par groupe de propriétaires. Encore une fois, le logarithme de ce numéro décrit l’espace utilisé pour noter ce numéro. Cependant, comme le groupe a moins de poids que l’ensemble, les dépenses individuelles doivent encore

ET je / / ET au total {DisplayStyle e_ {i} / e_ {text {total}}}

être pondéré.

Murray Gell-Mans Explication de l’entropie comme un effort nécessaire pour réduire “l’ignorance” n’a été reproduite que raccourcie au début de cet article. Son explication a été critiquée par Ilya Prigogine [22] Parce qu’il a dit que cela pourrait réduire l’entropie en changeant les connaissances dans un système fermé. Il est donc important de noter à la définition de Gell-Mann qu’il ne stipule pas que le manque d’informations doit réellement être corrigé. Il s’agit du potentiel Effort pour remédier à un manque d’informations. Si l’effort dans le système fermé était réalisé et provoquant ainsi une amélioration de l’entropie, cette réduction serait au moins compensée par une augmentation de l’effort causé par l’effort. Ici encore, le cercle se ferme avec Leó Szilárd (voir ci-dessus), qui a été montré dans ce contexte que les êtres intelligents (y compris le démon de Maxwell) ne peuvent pas réduire l’entropie dans un système fermé.

Physique statistique [ Modifier | Modifier le texte source ]]

L’entropie a d’abord été utilisée comme taille physique dans la thermodynamique et a compris phénoménologiquement. Les processus et les relations qui sous-tendent les connaissances de la physique statistique fondés par Ludwig Boltzmann (également appelés mécanismes statistiques) peuvent être expliqués. L’entropie de Boltzmann comme base commune pour le Explication Le thermodynamique (selon Clausius) et l’entropie théorique de l’information (selon Shannon) [23] .

Macro état et ses micro-états [ Modifier | Modifier le texte source ]]

Par exemple, les spécialistes des sciences sociales décrivent l’état macro d’une société qui découle des nombreux micro-états des personnes agissant dans leur environnement. Si nécessaire, ces micro-états sont également macro en eux-mêmes, qui peuvent être décomposés en micro-états encore plus petits. Cela conduit à des systèmes complexes qui ne conduisent qu’au niveau macro [24] peut devenir. La connaissance de l’interaction des micro-états aide à estimer le macro-état possible, mais les micro-états eux-mêmes évitent la manipulation pratique.

En physique statistique, les macro-carburants d’un système sont traités comme une description statistique des micro-états qui mènent à l’état macro. Par exemple, la température est une taille statistique dans la zone macro, qui fluctue dans la zone micro (localement et dans le temps) et résulte du comportement individuel des nombreuses particules du corps pour lesquelles cette température est mesurée. Même si le comportement d’une seule particule pouvait être observé, une observation de toutes les particules du corps visible dans notre monde quotidien n’a pas pu être réalisée pour nous à l’œil nu. Cet exemple sert désormais à introduire les termes macro et micro-état avant que l’une des possibilités ne suit l’entropie:

«L’entropie et les informations ont une connexion étroite. En fait, l’entropie peut être comprise comme une mesure de l’ignorance. S’il est connu seulement qu’un système se trouve dans un macro-état donné, l’entropie d’un macro état décrit le degré d’ignorance sur le microstatus. Ce diplôme est le nombre de bits d’informations supplémentaires nécessaires pour spécifier complètement le microstatus. Tous les micro-états sont traités comme probables. ” [25]

Dans une théorie du système pour les psychologues, l’entropie de Norbert Bischof décrit de la même manière que “la mesure du quantum de la topique imprévisible, c’est-à-dire que les” informations “, qui est générée en moyenne par chaque sélection de la source de signal”. [26]

Selon Richard Becker, l’entropie n’est pas ignorante, mais une fonction de l’ignorance: S = k ln (ignorance) . [27] Cela signifie que l’entropie reste également une mesure de l’ignorance.

Fluctuations [ Modifier | Modifier le texte source ]]

Les fluctuations sont des différences locales à court terme à court terme, et donc des réductions de l’entropie locale. Avec un grand système macro, la survenue de fluctuations locales peut être observée: bon nombre du faible niveau de performance en eux-mêmes peut entraîner une probabilité suffisamment élevée qu’un événement inattendu puisse être observé quelque part.

La possibilité de fluctuations signifie que l’analyse du système doit être bien comprise si les fluctuations dues à de courtes fluctuations doivent être prises en compte dans les systèmes avec seulement quelques carburants macro, qui ne doivent plus être identifiés par une augmentation de l’entropie. De plus, en ce qui concerne l’infini et aussi la durée de l’histoire humaine, “Short” peut également résister pendant de nombreuses années. Pour les sciences sociales, cela signifie qu’il n’est pas toujours certain qu’un État (par exemple la croissance économique) soit une durée significative, ou seule une fluctuation est disponible.

Le couplage structurel entre l’économie et la société ainsi qu’entre la société et l’environnement matériel permettent divers types de transfert d’entropie, c’est-à-dire également une interaction du sanctuaire d’information et des entropies thermodynamiques. Jusqu’où l’entropie physique peut être réunie avec l’entropie métaphysique est en discussion. [28] Deux chemins qui y mènent ont déjà été mentionnés:

  • L’entropie de la théorie de l’information est transférée à la thermodynamique. [29]
  • L’entropie thermodynamique est expliquée en termes d’informations et de probabilité. [4] [6]

En fait, une explication de la Mécanismes d’action Entropie thermodynamique possible via la théorie de la probabilité.

L’indication quantitative de l’entropie et la description quantitative des changements d’entropie dans les complexes [30] Les systèmes restent difficiles ou impossibles, ce qui peut s’expliquer par l’entropie des systèmes descriptifs (les personnes et leurs sida). Néanmoins, une compréhension de l’effet de l’entropie des systèmes (voir l’initiation de cet article) est utile pour comprendre l’interaction entre les systèmes et son environnement. [trente et un] Cela comprend l’impossibilité fondamentale de l’action de soi. Si un système s’ouvre, l’objectif de cette ouverture est d’éviter l’indépendance.

  • Kenneth D. Bailey: Théorie de l’entropie sociale . State University of New York Press, New York 1990, ISBN 978-0-7914-0056-2 (Englisch, 310 S.).
  • Karl-Michael Brunner: Entropie sociale: la différence de la société naturelle en utilisant l’exemple des modèles sociaux thermodynamiques . Dans: Karl-Siegbert Rehberg (éd.): Différence et intégration . Groupe 2 . Westdt. Verlag, Charging 1997, ISBN 3-531-12878-7 ( en ligne – Contribution de la conférence).
  • Jakl, Thomas, saké, Manfred, HRG.: Rendre la durabilité tangible – Gain dans une entropie comme mesure de la durabilité. Conférence Band on the Symposium le 27 avril 2012, Diplomatic Academy, Vienne 2012.
  • Welf A. Kreiner: Entropie – Qu’est-ce que c’est? Aperçu pour les élèves et les enseignants.
  1. Ditmar Brock U. un.: Paradigmes sociologiques selon Talcott Parsons: une introduction . 1ère édition. VS Verlag pour les sciences sociales, Wiesbaden 2009, ISBN 978-3-531-16216-4, S. 388 ( Aperçu limité dans la recherche de livres Google).
  2. Lewis, Gilbert Newton (1930): La symétrie du temps en physique , Science, 71, 0569
  3. Leon Neil Cooper (1968): Une introduction au sens et à la structure de la physique
  4. un b Ben-Naim, Arieh (2008): Un adieu à l’entropie: thermodynamique statistique basée sur les informations
  5. Wöhlcke, Manfred (2003): La fin de la civilisation. Sur l’entropie sociale et l’auto-destruction collective.
  6. un b Ben-Naim, Arieh (2007): Entropie démystifiée , Chapitre 8.2: L’association de l’entropie avec le «trouble»
  7. Ludwig Boltzmann (2008). Entropie et probabilité. Ostwald’s Classic of Exact Sciences, vol. 286. Verlag Harry Deutsch.
  8. un b Verbeeck, Bernhard (1998): Anthropologie de la dégradation de l’environnement
  9. Scheer, Hermann (1998): Stratégie solaire , dans ce La taxe d’entropie (Chapitre 8)
  10. Peter Kafka (1998), C’est l’heure de se lever ( Mémento des Originaux à partir du 22 octobre 2007 Archives Internet ) Info: Le lien d’archive a été utilisé automatiquement et non encore vérifié. Veuillez vérifier le lien d’origine et d’archiver en fonction des instructions, puis supprimez cette note. @d’abord @ 2 Modèle: webachiv / iabot / www.peterkafka.de : “Vous pouvez également appeler cette taxe sur la” confusion de la biosphère “comme une” taxe d’entropie “.”
  11. Luhmann, Niklas (1988): L’économie de la société . Dans le livre, Luhmann montre que seul l’argent est le moyen de communication de l’économie; Une taille physique telle que «l’entropie» ne peut pas être communiquée dans le système économique classé opérationnel. Cependant, l’économie est jusqu’à présent avec son environnement structurellement lié Cette communication environnementale dans le système économique provoque. Cependant, cela se fait toujours via les moyens de communication. Par conséquent, cette communication du commerce ne confère pas une relation directement perceptible entre la pollution de l’environnement et les coûts.
  12. Probablement à partir de 483 avant JC Chr. Surmis: Maháparinibbána Sutta, Digha Ki Kijiyah 16.3.6
  13. un b Cowell, Frank A. (2002, 2003): Theil, inégalité et structure de la distribution des revenus (PDF; 320 Ko) , London School of Economics and Political Sciences (avec références à la «classe des indices Kolm», qui sont des mesures de distributions inégales telles que l’indice de pièce)
  14. Theil, Henri (1971): Principes de l’économétrie
  15. un b Tsui, Kai-Yuen (1995): Généralisations multidimensionnelles des indices d’inégalité relatifs et absolus: l’approche Atkinson-Kolm-Sen . Journal of Economic Theory 67, 251-265.
  16. Sen, Amartya (1997): Sur les inégalités économiques , Édition élargie avec une annexe substantielle après un quart de siècle avec James Foster, Oxford
  17. La notation avec E et A suit la notation d’une petite collection de formules par Lonnel Maugis: Mesures d’inégalité en programmation mathématique pour le problème de gestion du flux aérien avec les capacités en route (pour Ifors 96), 1996
  18. Cuong Nguyen Viet (2007): Les envois de fonds étrangers sont-ils importants pour la pauvreté et les inégalités? Preuve du Vietnam ( Mémento des Originaux du 25 mars 2009 Archives Internet ) Info: Le lien d’archive a été utilisé automatiquement et non encore vérifié. Veuillez vérifier le lien d’origine et d’archiver en fonction des instructions, puis supprimez cette note. @d’abord @ 2 Modèle: webachiv / iabot / economicsbulletin.vanderbilt.edu (Les formules s’appliquent aux zones avec la même largeur (Quantle à la même distance). Les formules indiquées ici dans l’article peuvent également être appliquées aux zones avec différentes largeurs.)
  19. Helpman, Elhanan (2004): Le mystère de la croissance économique (Les deux formules correspondent aux deux méthodes de calcul de l’indice de pièce mentionnées par l’auteur à la p. 150: Dans la première formule, la pondération est effectuée par la part du revenu, dans la seconde par la part de la population. symétré Index de pièce.)
  20. ISO / IEC DIS 2382-16: 1996 définit le redondance En théorie de l’information
  21. Amiel / Cowell, F.A. (1999): Penser à l’inégalité , 1999
  22. Prigogine, Ilya (1997): La fin de la certitude, du temps, du chaos et des nouvelles lois de la nature
  23. Ben-Naim, Arieh (2007): Entropie démystifiée (scientifique populaire); Ben-Naim, Arieh (2008): Thermodynamique statistique basée sur les informations: un adieu à l’entropie (Cahier de texte)
  24. Malik, Fredmund (1984/2006): Stratégie de gestion des systèmes complexes
  25. Gell-Mann, Murray (1994): Le Quark et le Jaguar (Citation pour une meilleure intelligibilité syntaxiquement et grammaticalement changé facilement. “L’ignorance” a été traduite par “ignorance”.)
  26. Norbert Bischof (1998): Structure et sens (Dans la “source” d’origine au lieu de “Source Source” dans la citation.)
  27. Richard Becker (1955): Théorie de la chaleur
  28. Vojta, Günter / Vojta, Matthias (2000): Broché de la physique statistique , Chapitre 7 Physique statistique et théorie de l’information
  29. Lange, Franz H. (1966): Signaux et systèmes , Bande 3, S. 64.
  30. Ebeling, W. / Freund, J., Schweitzer, F. (1998): Structures complexes: entropie et informations
  31. Vojta, Günter / Vojta, Matthias (2000): Broché de la physique statistique , Chapitre 13.2.2 Théories stochastiques du comportement : “Après tout, l’utilisation des méthodes de physique statistique ouvre de nouvelles façons de rechercher et de comprendre le comportement des systèmes très complexes en sociologie, en écologie et en économie.”
after-content-x4