[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/theorie-du-taux-distorsion-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/theorie-du-taux-distorsion-wikipedia\/","headline":"Th\u00e9orie du taux – distorsion – Wikipedia wiki","name":"Th\u00e9orie du taux – distorsion – Wikipedia wiki","description":"before-content-x4 Th\u00e9orie du taux de distorsion est une branche majeure de la th\u00e9orie de l’information qui fournit les fondements th\u00e9oriques","datePublished":"2021-07-29","dateModified":"2021-07-29","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/c9645c498c9701c88b89b8537773dd7c?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/c9645c498c9701c88b89b8537773dd7c?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/3\/36\/Rate_distortion_theory_problem_setup.svg\/512px-Rate_distortion_theory_problem_setup.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/3\/36\/Rate_distortion_theory_problem_setup.svg\/512px-Rate_distortion_theory_problem_setup.svg.png","height":"129","width":"512"},"url":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/theorie-du-taux-distorsion-wikipedia\/","wordCount":10332,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Th\u00e9orie du taux de distorsion est une branche majeure de la th\u00e9orie de l’information qui fournit les fondements th\u00e9oriques de la compression des donn\u00e9es avec perte; Il aborde le probl\u00e8me de la d\u00e9termination du nombre minimal de bits par symbole, tel que mesur\u00e9 par le taux R , cela doit \u00eatre communiqu\u00e9 sur un canal, afin que la source (signal d’entr\u00e9e) puisse \u00eatre approximativement reconstruite au niveau du r\u00e9cepteur (signal de sortie) sans d\u00e9passer une distorsion attendue D . (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4 Table of ContentsIntroduction [ modifier ]] Fonctions de distorsion [ modifier ]] Distorsion de Hamming [ modifier ]] Distorsion d’erreur carr\u00e9e [ modifier ]] Fonctions de taux de distorsion [ modifier ]] Source gaussienne sans m\u00e9moire (ind\u00e9pendante avec une distorsion d’erreur carr\u00e9e [ modifier ]] Source de Bernoulli sans m\u00e9moire (ind\u00e9pendante) avec distorsion de Hamming [ modifier ]] Connexion de la th\u00e9orie des taux de distorsion \u00e0 la capacit\u00e9 du canal [3] [ modifier ]] Voir \u00e9galement [ modifier ]] Les r\u00e9f\u00e9rences [ modifier ]] Liens externes [ modifier ]] Introduction [ modifier ]] La th\u00e9orie du taux-distorsion donne une expression analytique pour la quantit\u00e9 de compression que la compression peut \u00eatre obtenue en utilisant des m\u00e9thodes de compression avec perte. Bon nombre des techniques de compression audio, de la parole, de l’image et des vid\u00e9os existantes ont des proc\u00e9dures de transformations, de quantification et d’allocation de taux de bit qui capitalisent sur la forme g\u00e9n\u00e9rale des fonctions de taux-distorsion. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4La th\u00e9orie du taux-distorsion a \u00e9t\u00e9 cr\u00e9\u00e9e par Claude Shannon dans son travail fondamental sur la th\u00e9orie de l’information. Dans la th\u00e9orie du taux – distorsion, le taux est g\u00e9n\u00e9ralement compris comme le nombre de bits par \u00e9chantillon de donn\u00e9es \u00e0 stocker ou \u00e0 transmettre. La notion de Distorsion est un sujet de discussion en cours. [d’abord] Dans le cas le plus simple (qui est r\u00e9ellement utilis\u00e9 dans la plupart des cas), la distorsion est d\u00e9finie comme la valeur attendue du carr\u00e9 de la diff\u00e9rence entre l’entr\u00e9e et le signal de sortie (c’est-\u00e0-dire l’erreur carr\u00e9 moyenne). Cependant, puisque nous savons que la plupart des techniques de compression avec perte fonctionnent sur des donn\u00e9es qui seront per\u00e7ues par les consommateurs humains (\u00e9couter de la musique, regarder des images et des vid\u00e9os), la mesure de la distorsion devrait de pr\u00e9f\u00e9rence \u00eatre mod\u00e9lis\u00e9e sur la perception humaine et peut-\u00eatre l’esth\u00e9tique: un peu comme l’utilisation de la probabilit\u00e9 Dans la compression sans perte, les mesures de distorsion peuvent finalement \u00eatre identifi\u00e9es avec les fonctions de perte utilis\u00e9es dans l’estimation bay\u00e9sienne et la th\u00e9orie de la d\u00e9cision. Dans la compression audio, les mod\u00e8les perceptuels (et donc les mesures de distorsion perceptuelle) sont relativement bien d\u00e9velopp\u00e9s et syst\u00e9matiquement utilis\u00e9s dans les techniques de compression tels que MP3 ou Vorbis, mais ne sont souvent pas faciles \u00e0 inclure dans la th\u00e9orie du taux-distorsion. Dans la compression d’image et de vid\u00e9o, les mod\u00e8les de perception humaine sont moins bien d\u00e9velopp\u00e9s et l’inclusion est principalement limit\u00e9e \u00e0 la matrice JPEG et MPEG de pond\u00e9ration (quantification, normalisation). Fonctions de distorsion [ modifier ]] Les fonctions de distorsion mesurent le co\u00fbt de la repr\u00e9sentation d’un symbole X {displaystyle x} par un symbole approximatif (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4x^{displayStyle {hat {x}}} . Les fonctions de distorsion typiques sont la distorsion de Hamming et la distorsion d’erreur carr\u00e9e. Distorsion de Hamming [ modifier ]] d ( X , x^) = {0if\u00a0x=x^1if\u00a0x\u2260x^{displayStyle d (x, {hat {x}}) = {begin {case} 0 & {text {if}} x = {hat {x}} \\ 1 & {text {if}} xneq {hat {x}} end {cas}}} Distorsion d’erreur carr\u00e9e [ modifier ]] d ( X , x^) = (x\u2212x^)2{displayStyle d (x, {hat {x}}) = Left (x- {hat {x}} droit) ^ {2}} Fonctions de taux de distorsion [ modifier ]] Les fonctions qui relient le taux et la distorsion sont trouv\u00e9es comme la solution du probl\u00e8me de minimisation suivant: infirme QY\u2223X(y\u2223x)je Q( ET ; X ) sujet \u00e0 D Q\u2264 D \u2217. {displayStyle inf _ {q_ {ymid x} (ymid x)} i_ {q} (y; x) {texte {soumis \u00e0}} d_ {q} leq d ^ {*}.}. Ici Q ET \u2223 X ( et \u2223 X ) {displayStyle q_ {ymid x} (ymid x)} , parfois appel\u00e9 canal de test, est la fonction de densit\u00e9 de probabilit\u00e9 conditionnelle (PDF) de la sortie du canal de communication (signal compress\u00e9) ET {displaystyle y} pour une entr\u00e9e donn\u00e9e (signal d’origine) X {displaystyle x} , et je Q ( ET ; X ) {displayStyle i_ {q} (y; x)} est le informations mutuelles entre ET {displaystyle y} et X {displaystyle x} d\u00e9fini comme je ( ET ; X ) = H ( ET ) – H ( ET \u2223 X ) {displayStyle i (y; x) = h (y) -h (ymid x),} o\u00f9 H ( ET ) {displayStyle h (y)} et H ( ET \u2223 X ) {displayStyle h (ymid x)} sont l’entropie du signal de sortie ET et l’entropie conditionnelle du signal de sortie \u00e9tant donn\u00e9 le signal d’entr\u00e9e, respectivement: H ( ET ) = – \u222b \u2212\u221e\u221eP Y( et ) enregistrer 2\u2061 ( P Y( et ) ) d et {DisplayStyle h (y) = -int _ {-infty} ^ {infty} p_ {y} (y) log _ {2} (p_ {y} (y)), dy} H ( ET \u2223 X ) = – \u222b \u2212\u221e\u221e\u222b \u2212\u221e\u221eQ Y\u2223X( et \u2223 X ) P X( X ) enregistrer 2\u2061 ( Q Y\u2223X( et \u2223 X ) ) d X d et . {displayStyle h (ymid x) = – int _ {- infty} ^ {infty} int _ {- infty} ^ {infty} q_ {ymid x} (ymid x) p_ {x} (x) log _ {2} (Q_ {ymid x} (ymid x)), dx, dy.} Le probl\u00e8me peut \u00e9galement \u00eatre formul\u00e9 comme une fonction de distorsion-taux, o\u00f9 nous trouvons l’infimum sur les distorsions r\u00e9alisables pour la contrainte de taux donn\u00e9e. L’expression pertinente est: infirme QY\u2223X(y\u2223x)ET [ D Q[ X , ET ]] ]] sujet \u00e0 je Q( ET ; X ) \u2264 R . {displayStyle inf _ {q_ {ymid x} (ymid x)} e [d_ {q} [x, y]] {texte {soumis \u00e0}} i_ {q} (y; x) leq r.} Les deux formulations conduisent \u00e0 des fonctions qui sont invers\u00e9es les unes des autres. Les informations mutuelles peuvent \u00eatre comprises comme une mesure pour l’incertitude \u00abant\u00e9rieure\u00bb que le r\u00e9cepteur a sur le signal de l’exp\u00e9diteur ( H ( ET )), diminu\u00e9 par l’incertitude qui reste apr\u00e8s avoir re\u00e7u des informations sur le signal de l’exp\u00e9diteur ( H ( ET \u2223 X ) {displayStyle h (ymid x)} ). Bien s\u00fbr, la diminution de l’incertitude est due \u00e0 la quantit\u00e9 communiqu\u00e9e d’informations, qui est je ( ET ; X ) {displayStyle ileft (y; xRight)} . Par exemple, en cas de cas Non communication du tout, alors H ( ET \u2223 X ) = H ( ET ) {displayStyle h (ymid x) = h (y)} et je ( ET ; X ) = 0 {displayStyle i (y; x) = 0} . Alternativement, si le canal de communication est parfait et le signal re\u00e7u ET {displaystyle y} est identique au signal X {displaystyle x} \u00e0 l’exp\u00e9diteur, alors H ( ET \u2223 X ) = 0 {displayStyle h (ymid x) = 0} et je ( ET ; X ) = H ( X ) = H ( ET ) {DisplayStyle i (y; x) = h (x) = (y)} . Dans la d\u00e9finition de la fonction taux-distorsion, D Q {displayStyle d_ {q}} et D \u2217 {displayStyle d ^ {*}} sont la distorsion entre X {displaystyle x} et ET {displaystyle y} pour une donn\u00e9e Q ET \u2223 X ( et \u2223 X ) {displayStyle q_ {ymid x} (ymid x)} et la distorsion maximale prescrite, respectivement. Lorsque nous utilisons l’erreur quadratique moyenne comme mesure de distorsion, nous avons (pour les signaux continues de l’amplitude): D Q= \u222b \u2212\u221e\u221e\u222b \u2212\u221e\u221eP X,Y( X , et ) ( X – et ) 2d X d et = \u222b \u2212\u221e\u221e\u222b \u2212\u221e\u221eQ Y\u2223X( et \u2223 X ) P X( X ) ( X – et ) 2d X d et . {displayStyle d_ {q} = int _ {- infty} ^ {infty} int _ {- infty} ^ {infty} p_ {x, y} (x, y) (x-y) ^ {2}, dx, dy = int _ {- infty} ^ {infty} int _ {- infty} ^ {infty} q_ {ymid x} (ymid x) p_ {x} (x) (x-y) ^ {2}, dx, dy.} Comme le montrent les \u00e9quations ci-dessus, le calcul d’une fonction de taux-distorsion n\u00e9cessite la description stochastique de l’entr\u00e9e X {displaystyle x} en termes de PDF P X ( X ) {displayStyle p_ {x} (x)} , puis vise \u00e0 trouver le PDF conditionnel Q ET \u2223 X ( et \u2223 X ) {displayStyle q_ {ymid x} (ymid x)} qui minimisent le taux pour une distorsion donn\u00e9e D \u2217 {displayStyle d ^ {*}} . Ces d\u00e9finitions peuvent \u00eatre formul\u00e9es en th\u00e9orie pour tenir compte des variables al\u00e9atoires discr\u00e8tes et mixtes. Une solution analytique \u00e0 ce probl\u00e8me de minimisation est souvent difficile \u00e0 obtenir, sauf dans certains cas pour lesquelles nous proposons ensuite deux des exemples les plus connus. La fonction de taux-distorsion de toute source est connue pour ob\u00e9ir \u00e0 plusieurs propri\u00e9t\u00e9s fondamentales, les plus importantes \u00e9tant qu’il s’agit d’une fonction convexe (U) continue et d\u00e9croissante monotone et donc la forme de la fonction dans les exemples est typique (m\u00eame le taux mesur\u00e9 mesur\u00e9 \u2013Les fonctions de distorsion dans la vie r\u00e9elle ont tendance \u00e0 avoir des formes tr\u00e8s similaires). Bien que les solutions analytiques \u00e0 ce probl\u00e8me soient rares, il existe des limites sup\u00e9rieures et inf\u00e9rieures \u00e0 ces fonctions, notamment la c\u00e9l\u00e8bre borne inf\u00e9rieure de Shannon (SLB), qui dans le cas d’une erreur carr\u00e9e et de sources sans m\u00e9moire, indique que pour des sources arbitraires avec une entropie diff\u00e9rentielle finie, R ( D ) \u2265 H ( X ) – H ( D ) {displayStyle r (d) geq h (x) -h (d),} o\u00f9 H ( D ) est l’entropie diff\u00e9rentielle d’une variable al\u00e9atoire gaussienne avec la variance D. Cette limite inf\u00e9rieure est extensible aux sources avec la m\u00e9moire et d’autres mesures de distorsion. Une caract\u00e9ristique importante du SLB est qu’elle est asymptotiquement serr\u00e9e dans le r\u00e9gime de faible distorsion pour une large classe de sources et \u00e0 certaines occasions, il co\u00efncide en fait avec la fonction de taux-distorsion. Les limites inf\u00e9rieures de Shannon peuvent g\u00e9n\u00e9ralement \u00eatre trouv\u00e9es si la distorsion entre deux nombres peut \u00eatre exprim\u00e9e en fonction de la diff\u00e9rence entre la valeur de ces deux nombres. L’algorithme de Blahut – Arimoto, co-invent\u00e9 par Richard Blahut, est une technique it\u00e9rative \u00e9l\u00e9gante pour obtenir des fonctions de taux de taux et de distorsion num\u00e9rique des sources d’alphabet d’entr\u00e9e \/ sortie finies arbitraires et beaucoup de travail a \u00e9t\u00e9 fait pour l’\u00e9tendre \u00e0 des instances de probl\u00e8mes plus g\u00e9n\u00e9rales. Lorsque vous travaillez avec des sources stationnaires avec de la m\u00e9moire, il est n\u00e9cessaire de modifier la d\u00e9finition de la fonction de distorsion de taux et il doit \u00eatre compris dans le sens d’une limite de s\u00e9quences prises en fonction des longueurs croissantes. R ( D ) = lim n\u2192\u221eR n( D ) {displayStyle r (d) = lim _ {nrightarrow infty} r_ {n} (d)} o\u00f9 R n( D ) = 1ninfirme QYn\u2223Xn\u2208Qje ( ET n, X n) gens }, X ^ {n})} et Q= { Q Yn\u2223Xn( ET n\u2223 X n, X 0) : ET [ d ( X n, ET n) ]] \u2264 D } {displayStyle {mathcal {q}} = {q_ {y ^ {n} mid x ^ {n}} (y \u200b\u200b^ {n} mid x ^ {n}, x_ {0}): e [d (x ^ {{ n}, y ^ {n})] leq d}} o\u00f9 les expos\u00e9s indiquent une s\u00e9quence compl\u00e8te jusqu’\u00e0 ce moment et l’indice 0 indique l’\u00e9tat initial. Source gaussienne sans m\u00e9moire (ind\u00e9pendante avec une distorsion d’erreur carr\u00e9e [ modifier ]] Si nous supposons que X {displaystyle x} est une variable al\u00e9atoire gaussienne avec variance un 2 {displayStyle Sigma ^ {2}} , et si nous supposons que des \u00e9chantillons successifs du signal X {displaystyle x} sont stochastiques ind\u00e9pendantes (ou de mani\u00e8re \u00e9quivalente, la source est sans m\u00e9moire ou le signal est non corr\u00e9l\u00e9 ), nous trouvons l’expression analytique suivante pour la fonction de taux-distorsion: "},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/en2fr\/wiki28\/theorie-du-taux-distorsion-wikipedia\/#breadcrumbitem","name":"Th\u00e9orie du taux – distorsion – Wikipedia wiki"}}]}]