[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/25\/kanalkapazitat-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/25\/kanalkapazitat-wikipedia\/","headline":"Kanalkapazit\u00e4t – Wikipedia","name":"Kanalkapazit\u00e4t – Wikipedia","description":"Kanalkapazit\u00e4tIn der Elektrotechnik, Informatik und Informationstheorie ist dies die enge Obergrenze f\u00fcr die Geschwindigkeit, mit der Informationen zuverl\u00e4ssig \u00fcber einen","datePublished":"2020-12-25","dateModified":"2020-12-25","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki11\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki11\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/c\/c7\/Channel_model.svg\/700px-Channel_model.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/c\/c7\/Channel_model.svg\/700px-Channel_model.svg.png","height":"68","width":"700"},"url":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/25\/kanalkapazitat-wikipedia\/","wordCount":18038,"articleBody":"Kanalkapazit\u00e4tIn der Elektrotechnik, Informatik und Informationstheorie ist dies die enge Obergrenze f\u00fcr die Geschwindigkeit, mit der Informationen zuverl\u00e4ssig \u00fcber einen Kommunikationskanal \u00fcbertragen werden k\u00f6nnen. Gem\u00e4\u00df den Bestimmungen des Satzmodells f\u00fcr verrauschte Kan\u00e4le ist die Kanalkapazit\u00e4t eines bestimmten Kanals die h\u00f6chste Informationsrate (in Informationseinheiten pro Zeiteinheit), die mit einer beliebig kleinen Fehlerwahrscheinlichkeit erreicht werden kann. [1][2]Die 1948 von Claude E. Shannon entwickelte Informationstheorie definiert den Begriff der Kanalkapazit\u00e4t und liefert ein mathematisches Modell, mit dem man sie berechnen kann. Das Hauptergebnis besagt, dass die Kapazit\u00e4t des Kanals, wie oben definiert, durch das Maximum der gegenseitigen Information zwischen dem Eingang und dem Ausgang des Kanals gegeben ist, wobei die Maximierung in Bezug auf die Eingangsverteilung erfolgt. [3]Der Begriff der Kanalkapazit\u00e4t war von zentraler Bedeutung f\u00fcr die Entwicklung moderner drahtgebundener und drahtloser Kommunikationssysteme. Mit dem Aufkommen neuartiger Fehlerkorrekturcodierungsmechanismen wurde eine Leistung erzielt, die sehr nahe an den durch die Kanalkapazit\u00e4t versprochenen Grenzen liegt. Table of ContentsFormale Definition[edit]Additivit\u00e4t der Kanalkapazit\u00e4t[edit]Shannon-Kapazit\u00e4t eines Graphen[edit]Noisy-Channel-Codierungssatz[edit]Beispielanwendung[edit]Kanalkapazit\u00e4t in der drahtlosen Kommunikation[edit]Bandbegrenzter AWGN-Kanal[edit]Frequenzselektiver AWGN-Kanal[edit]Langsam verblassender Kanal[edit]Schnell verblassender Kanal[edit]Siehe auch[edit]Fortgeschrittene Kommunikationsthemen[edit]Externe Links[edit]Verweise[edit]Formale Definition[edit]Das grundlegende mathematische Modell f\u00fcr ein Kommunikationssystem ist das folgende:wo:Lassen X.{ displaystyle X} und Y.{ displaystyle Y} als Zufallsvariablen modelliert werden. Weiterhin lassen pY.|X.((y|x){ displaystyle p_ {Y | X} (y | x)} sei die bedingte Wahrscheinlichkeitsverteilungsfunktion von Y.{ displaystyle Y} gegeben X.{ displaystyle X}Dies ist eine inh\u00e4rente feste Eigenschaft des Kommunikationskanals. Dann die Wahl der Randverteilung pX.((x){ displaystyle p_ {X} (x)} bestimmt die gemeinsame Verteilung vollst\u00e4ndig pX.,Y.((x,y){ displaystyle p_ {X, Y} (x, y)} aufgrund der Identit\u00e4t pX.,Y.((x,y)=pY.|X.((y|x)pX.((x){ displaystyle p_ {X, Y} (x, y) = p_ {Y | X} (y | x) , p_ {X} (x)}was wiederum eine gegenseitige Information induziert ich((X.;;Y.){ displaystyle I (X; Y)}. Das Kanalkapazit\u00e4t ist definiert als C.=suppX.((x)ich((X.;;Y.){ displaystyle C = sup _ {p_ {X} (x)} I (X; Y) ,}wo das Supremum alle m\u00f6glichen Entscheidungen von \u00fcbernommen wird pX.((x){ displaystyle p_ {X} (x)}.Additivit\u00e4t der Kanalkapazit\u00e4t[edit]Die Kanalkapazit\u00e4t addiert sich gegen\u00fcber unabh\u00e4ngigen Kan\u00e4len.[4] Dies bedeutet, dass die kombinierte Verwendung von zwei unabh\u00e4ngigen Kan\u00e4len die gleiche theoretische Kapazit\u00e4t bietet wie die unabh\u00e4ngige Verwendung. Formeller, lassen Sie p1{ displaystyle p_ {1}} und p2{ displaystyle p_ {2}} zwei unabh\u00e4ngige Kan\u00e4le sein, die wie oben modelliert sind; p1{ displaystyle p_ {1}} mit einem Eingabealphabet X.1{ displaystyle { mathcal {X}} _ {1}} und ein Ausgabealphabet Y.1{ displaystyle { mathcal {Y}} _ {1}}. Idem f\u00fcr p2{ displaystyle p_ {2}}. Wir definieren den Produktkanal p1\u00d7p2{ displaystyle p_ {1} times p_ {2}} wie\u2200((x1,x2)\u2208((X.1,X.2),((y1,y2)\u2208((Y.1,Y.2),((p1\u00d7p2)((((y1,y2)|((x1,x2))=p1((y1|x1)p2((y2|x2){ displaystyle forall (x_ {1}, x_ {2}) in ({ mathcal {X}} _ {1}, { mathcal {X}} _ {2}), ; (y_ {1 }, y_ {2}) in ({ mathcal {Y}} _ {1}, { mathcal {Y}} _ {2}), ; (p_ {1} times p_ {2}) ( (y_ {1}, y_ {2}) | (x_ {1}, x_ {2})) = p_ {1} (y_ {1} | x_ {1}) p_ {2} (y_ {2} | x_ {2})}Dieser Satz besagt:C.((p1\u00d7p2)=C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) = C (p_ {1}) + C (p_ {2})}Beweis – – Das zeigen wir zuerst C.((p1\u00d7p2)\u2265C.((p1)+C.((p2){ Anzeigestil C (p_ {1} mal p_ {2}) geq C (p_ {1}) + C (p_ {2})}.Lassen X.1{ displaystyle X_ {1}} und X.2{ displaystyle X_ {2}} zwei unabh\u00e4ngige Zufallsvariablen sein. Lassen Y.1{ displaystyle Y_ {1}} eine Zufallsvariable sein, die der Ausgabe von entspricht X.1{ displaystyle X_ {1}} durch den Kanal p1{ displaystyle p_ {1}}, und Y.2{ displaystyle Y_ {2}} zum X.2{ displaystyle X_ {2}} durch p2{ displaystyle p_ {2}}.Per Definition C.((p1\u00d7p2)=suppX.1,X.2((ich((X.1,X.2::Y.1,Y.2)){ displaystyle C (p_ {1} times p_ {2}) = sup _ {p_ {X_ {1}, X_ {2}}} (I (X_ {1}, X_ {2}: Y_ {1) }, Y_ {2}))}.Schon seit X.1{ displaystyle X_ {1}} und X.2{ displaystyle X_ {2}} sind unabh\u00e4ngig, sowie p1{ displaystyle p_ {1}} und p2{ displaystyle p_ {2}}, ((X.1,Y.1){ displaystyle (X_ {1}, Y_ {1})} ist unabh\u00e4ngig von ((X.2,Y.2){ displaystyle (X_ {2}, Y_ {2})}. Wir k\u00f6nnen die folgende Eigenschaft der gegenseitigen Information anwenden: ich((X.1,X.2::Y.1,Y.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2} )}Im Moment m\u00fcssen wir nur eine Distribution finden pX.1,X.2{ displaystyle p_ {X_ {1}, X_ {2}}} so dass ich((X.1,X.2::Y.1,Y.2)\u2265ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) geq I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2 })}. Eigentlich, \u03c01{ displaystyle pi _ {1}} und \u03c02{ displaystyle pi _ {2}}zwei Wahrscheinlichkeitsverteilungen f\u00fcr X.1{ displaystyle X_ {1}} und X.2{ displaystyle X_ {2}} erreichen C.((p1){ displaystyle C (p_ {1})} und C.((p2){ displaystyle C (p_ {2})}, gen\u00fcgen:C.((p1\u00d7p2)\u2265ich((X.1,X.2::Y.1,Y.2)=ich((X.1::Y.1)+ich((X.2::Y.2)=C.((p1)+C.((p2){ Anzeigestil C (p_ {1} mal p_ {2}) geq I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ { 1}) + I (X_ {2}: Y_ {2}) = C (p_ {1}) + C (p_ {2})}dh. C.((p1\u00d7p2)\u2265C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) geq C (p_ {1}) + C (p_ {2})}Lassen Sie uns das jetzt zeigen C.((p1\u00d7p2)\u2264C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) leq C (p_ {1}) + C (p_ {2})}.Lassen \u03c012{ displaystyle pi _ {12}} eine Verteilung f\u00fcr den Kanal sein p1\u00d7p2{ displaystyle p_ {1} times p_ {2}} definieren ((X.1,X.2){ displaystyle (X_ {1}, X_ {2})} und die entsprechende Ausgabe ((Y.1,Y.2){ displaystyle (Y_ {1}, Y_ {2})}. Lassen X.1{ displaystyle { mathcal {X}} _ {1}} sei das Alphabet von X.1{ displaystyle X_ {1}}, Y.1{ displaystyle { mathcal {Y}} _ {1}} zum Y.1{ displaystyle Y_ {1}}und analog X.2{ displaystyle { mathcal {X}} _ {2}} und Y.2{ displaystyle { mathcal {Y}} _ {2}}.Per Definition der gegenseitigen Information haben wirich((X.1,X.2::Y.1,Y.2)=H.((Y.1,Y.2)– –H.((Y.1,Y.2|X.1,X.2)\u2264H.((Y.1)+H.((Y.2)– –H.((Y.1,Y.2|X.1,X.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & = H (Y_ {1}, Y_ {2}) – H (Y_ { 1}, Y_ {2} | X_ {1}, X_ {2}) \\ & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) end {align}}}Schreiben wir den letzten Begriff der Entropie neu.H.((Y.1,Y.2|X.1,X.2)=\u2211((x1,x2)\u2208X.1\u00d7X.2P.((X.1,X.2=x1,x2)H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = sum _ {(x_ {1}, x_ {2}) in { mathcal {X}} _ {1} times { mathcal {X}} _ {2}} mathbb {P} (X_ {1}, X_ {2} = x_ {1}, x_ {2}) H (Y_ {1} , Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}Per Definition des Produktkanals, P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)=P.((Y.1=y1|X.1=x1)P.((Y.2=y2|X.2=x2){ displaystyle mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = mathbb {P} (Y_ {1} = y_ {1} | X_ {1} = x_ {1}) mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ {2 })}. F\u00fcr ein bestimmtes Paar ((x1,x2){ displaystyle (x_ {1}, x_ {2})}k\u00f6nnen wir umschreiben H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})} wie:H.((Y.1,Y.2|X.1,X.2=x1,x2)=\u2211((y1,y2)\u2208Y.1\u00d7Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)Log\u2061((P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2))=\u2211((y1,y2)\u2208Y.1\u00d7Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)[log\u2061(P(Y1=y1|X1=x1))+log\u2061(P(Y2=y2|X2=x2))]=H.((Y.1|X.1=x1)+H.((Y.2|X.2=x2){ displaystyle { begin {align} H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) & = sum _ {(y_ { 1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) log ( mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})) \\ & = sum _ {(y_ {1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ { 2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})[log(mathbb {P} (Y_{1}=y_{1}|X_{1}=x_{1}))+log(mathbb {P} (Y_{2}=y_{2}|X_{2}=x_{2}))]\\ & = H (Y_ {1} | X_ {1} = x_ {1}) + H (Y_ {2} | X_ {2} = x_ {2}) end {align}}}Indem wir diese Gleichheit \u00fcber alle summieren ((x1,x2){ displaystyle (x_ {1}, x_ {2})}, wir erhaltenH.((Y.1,Y.2|X.1,X.2)=H.((Y.1|X.1)+H.((Y.2|X.2){ Anzeigestil H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = H (Y_ {1} | X_ {1}) + H (Y_ {2} | X_ {2} )}.Wir k\u00f6nnen jetzt eine Obergrenze f\u00fcr gegenseitige Informationen festlegen:ich((X.1,X.2::Y.1,Y.2)\u2264H.((Y.1)+H.((Y.2)– –H.((Y.1|X.1)– –H.((Y.2|X.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1} | X_ {1}) – H (Y_ {2} | X_ {2}) \\ & = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) end {align}}}Diese Beziehung bleibt im Supremum erhalten. DeshalbC.((p1\u00d7p2)\u2264C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) leq C (p_ {1}) + C (p_ {2})}Wenn wir die beiden von uns bewiesenen Ungleichungen kombinieren, erhalten wir das Ergebnis des Satzes:C.((p1\u00d7p2)=C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) = C (p_ {1}) + C (p_ {2})}Shannon-Kapazit\u00e4t eines Graphen[edit]Wenn G Ist ein ungerichteter Graph, kann er verwendet werden, um einen Kommunikationskanal zu definieren, in dem die Symbole die Eckpunkte des Graphen sind, und zwei Codew\u00f6rter k\u00f6nnen miteinander verwechselt werden, wenn ihre Symbole an jeder Position gleich oder benachbart sind. Die rechnerische Komplexit\u00e4t beim Finden der Shannon-Kapazit\u00e4t eines solchen Kanals bleibt offen, kann jedoch durch eine andere wichtige Graphinvariante, die Lov\u00e1sz-Zahl, begrenzt werden.[5]Noisy-Channel-Codierungssatz[edit]Der Noisy-Channel-Codierungssatz besagt, dass f\u00fcr jede Fehlerwahrscheinlichkeit \u03b5> 0 und f\u00fcr jede \u00dcbertragungsrate gilt R. weniger als die Kanalkapazit\u00e4t C.gibt es ein Codierungs- und Decodierungsschema, das Daten mit einer Rate \u00fcbertr\u00e4gt R. deren Fehlerwahrscheinlichkeit kleiner als \u03b5 ist, f\u00fcr eine ausreichend gro\u00dfe Blockl\u00e4nge. F\u00fcr jede Rate, die gr\u00f6\u00dfer als die Kanalkapazit\u00e4t ist, geht die Fehlerwahrscheinlichkeit am Empf\u00e4nger auf 0,5, wenn die Blockl\u00e4nge auf unendlich geht.Beispielanwendung[edit]Eine Anwendung des Kanalkapazit\u00e4tskonzepts auf einen additiven wei\u00dfen Gau\u00dfschen Rauschkanal (AWGN) mit B. Hz-Bandbreite und Signal-Rausch-Verh\u00e4ltnis S \/ N. ist der Shannon-Hartley-Satz:C.=B.Log2\u2061((1+S.N.) { displaystyle C = B log _ {2} left (1 + { frac {S} {N}} right) }C. wird in Bit pro Sekunde gemessen, wenn der Logarithmus in Basis 2 genommen wird, oder in Nats pro Sekunde, wenn der nat\u00fcrliche Logarithmus verwendet wird, vorausgesetzt B. ist in Hertz; die Signal- und Rauschleistungen S. und N. werden in einem linearen Netzteil (wie Watt oder Volt) ausgedr\u00fcckt2). Schon seit S \/ N. Zahlen werden oft in dB angegeben, eine Umrechnung kann erforderlich sein. Beispielsweise entspricht ein Signal-Rausch-Verh\u00e4ltnis von 30 dB einem linearen Leistungsverh\u00e4ltnis von 1030\/.10=103=1000{ displaystyle 10 ^ {30\/10} = 10 ^ {3} = 1000}.Kanalkapazit\u00e4t in der drahtlosen Kommunikation[edit]Diese Abteilung[6] konzentriert sich auf das Einzelantennen-Punkt-zu-Punkt-Szenario. Informationen zur Kanalkapazit\u00e4t in Systemen mit mehreren Antennen finden Sie im Artikel zu MIMO.Bandbegrenzter AWGN-Kanal[edit] AWGN-Kanalkapazit\u00e4t mit dem angegebenen leistungsbegrenzten und bandbreitenbegrenzten Regime. Hier, P.\u00afN.0=1{ displaystyle { frac { bar {P}} {N_ {0}}} = 1};; B. und C. kann f\u00fcr andere Werte proportional skaliert werden.Wenn die durchschnittliche Empfangsleistung ist P.\u00af{ displaystyle { bar {P}}} [W]betr\u00e4gt die Gesamtbandbreite W.{ displaystyle W} in Hertz, und die Rauschleistungsspektraldichte ist N.0{ displaystyle N_ {0}} [W\/Hz]betr\u00e4gt die AWGN-Kanalkapazit\u00e4tC.AWGN=W.Log2\u2061((1+P.\u00afN.0W.){ displaystyle C _ { text {AWGN}} = W log _ {2} left (1 + { frac { bar {P}} {N_ {0} W}} right)} [bits\/s],wo P.\u00afN.0W.{ displaystyle { frac { bar {P}} {N_ {0} W}}} ist das empfangene Signal-Rausch-Verh\u00e4ltnis (SNR). Dieses Ergebnis ist als bekannt Shannon-Hartley-Theorem.[7]Wenn das SNR gro\u00df ist (SNR >> 0 dB), ist die Kapazit\u00e4t C.\u2248W.Log2\u2061P.\u00afN.0W.{ displaystyle C approx W log _ {2} { frac { bar {P}} {N_ {0} W}}} ist logarithmisch in der Leistung und ungef\u00e4hr linear in der Bandbreite. Dies nennt man das bandbreitenbegrenztes Regime.Wenn das SNR klein ist (SNR N.0ln\u20612{ displaystyle C approx { frac { bar {P}} {N_ {0} ln 2}}} ist linear in der Leistung, aber unempfindlich gegen\u00fcber Bandbreite. Dies nennt man das Machtbegrenztes Regime.Das bandbreitenbegrenzte Regime und das leistungsbegrenzte Regime sind in der Figur dargestellt.Frequenzselektiver AWGN-Kanal[edit]Die Kapazit\u00e4t des frequenzselektiven Kanals ergibt sich aus der sogenannten Wasserf\u00fcllleistungszuweisung,C.N.c=\u2211n=0N.c– –1Log2\u2061((1+P.n\u2217|h\u00afn|2N.0),{ displaystyle C_ {N_ {c}} = sum _ {n = 0} ^ {N_ {c} -1} log _ {2} left (1 + { frac {P_ {n} ^ {* } | { bar {h}} _ {n} | ^ {2}} {N_ {0}}} right),}wo P.n\u2217=max{((1\u03bb– –N.0|h\u00afn|2),0}}{ displaystyle P_ {n} ^ {*} = max left { left ({ frac {1} { lambda}} – { frac {N_ {0}} {| { bar {h} } _ {n} | ^ {2}}} right), 0 right }} und |h\u00afn|2{ displaystyle | { bar {h}} _ {n} | ^ {2}} ist der Gewinn des Unterkanals n{ displaystyle n}mit \u03bb{ displaystyle lambda} ausgew\u00e4hlt, um die Leistungsbeschr\u00e4nkung zu erf\u00fcllen.Langsam verblassender Kanal[edit]In einem langsam verblassenden Kanal, in dem die Koh\u00e4renzzeit gr\u00f6\u00dfer als die Latenzzeit ist, gibt es keine bestimmte Kapazit\u00e4t als maximale Rate zuverl\u00e4ssiger Kommunikation, die vom Kanal unterst\u00fctzt wird. Log2\u2061((1+|h|2S.N.R.){ displaystyle log _ {2} (1+ | h | ^ {2} SNR)}h\u00e4ngt von der zuf\u00e4lligen Kanalverst\u00e4rkung ab |h|2{ displaystyle | h | ^ {2}}, die dem Sender unbekannt ist. Wenn der Sender Daten mit einer Rate codiert R.{ displaystyle R} [bits\/s\/Hz]gibt es eine Wahrscheinlichkeit ungleich Null, dass die Decodierungsfehlerwahrscheinlichkeit nicht beliebig klein gemacht werden kann,p\u00d6ut=P.((Log\u2061((1+|h|2S.N.R.){ displaystyle epsilon}Ausfallkapazit\u00e4t.Schnell verblassender Kanal[edit]In einem schnell verblassenden Kanal, in dem die Latenzzeit gr\u00f6\u00dfer als die Koh\u00e4renzzeit ist und die Codewortl\u00e4nge viele Koh\u00e4renzperioden umfasst, kann man \u00fcber viele unabh\u00e4ngige Kanal\u00fcberblendungen mittels Codierung \u00fcber eine gro\u00dfe Anzahl von Koh\u00e4renzzeitintervallen mitteln. Somit ist es m\u00f6glich, eine zuverl\u00e4ssige Kommunikationsrate von zu erreichen E.((Log2\u2061((1+|h|2S.N.R.)){ displaystyle mathbb {E} ( log _ {2} (1+ | h | ^ {2} SNR))} [bits\/s\/Hz] und es ist sinnvoll, von diesem Wert als der Kapazit\u00e4t des schnell verblassenden Kanals zu sprechen.Siehe auch[edit]Fortgeschrittene Kommunikationsthemen[edit]Externe Links[edit]Verweise[edit]^ Saleem Bhatti. “Kanalkapazit\u00e4t”. Vorlesungsunterlagen f\u00fcr M.Sc. Datenkommunikationsnetze und verteilte Systeme D51 – Grundlegende Kommunikation und Netzwerke. Archiviert von das Original am 21.08.2007.^ Jim Lesurf. “Signale sehen aus wie Rauschen!”. Information und Messung, 2. Aufl.^ Thomas M. Cover, Joy A. Thomas (2006). Elemente der Informationstheorie. John Wiley & Sons, New York. ISBN 9781118585771.^ Cover, Thomas M.; Thomas, Joy A. (2006). “Kapitel 7: Kanalkapazit\u00e4t”. Elemente der Informationstheorie (Zweite Ausgabe). Wiley-Interscience. S. 206\u2013207. ISBN 978-0-471-24195-9.^ Lov\u00e1sz, L\u00e1szl\u00f3 (1979), “\u00dcber die Shannon-Kapazit\u00e4t eines Graphen”, IEEE-Transaktionen zur Informationstheorie, IT-25 (1): 1\u20137, doi:10.1109 \/ tit.1979.1055985.^ David Tse, Pramod Viswanath (2005), Grundlagen der drahtlosen Kommunikation, Cambridge University Press, Gro\u00dfbritannien, ISBN 9780521845274^ Das Handbuch der Elektrotechnik. Verband f\u00fcr Forschung und Bildung. 1996. p. D-149. ISBN 9780878919819."},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki11\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki11\/2020\/12\/25\/kanalkapazitat-wikipedia\/#breadcrumbitem","name":"Kanalkapazit\u00e4t – Wikipedia"}}]}]