Kanalkapazität – Wikipedia
KanalkapazitätIn der Elektrotechnik, Informatik und Informationstheorie ist dies die enge Obergrenze für die Geschwindigkeit, mit der Informationen zuverlässig über einen Kommunikationskanal übertragen werden können.
Gemäß den Bestimmungen des Satzmodells für verrauschte Kanäle ist die Kanalkapazität eines bestimmten Kanals die höchste Informationsrate (in Informationseinheiten pro Zeiteinheit), die mit einer beliebig kleinen Fehlerwahrscheinlichkeit erreicht werden kann. [1][2]
Die 1948 von Claude E. Shannon entwickelte Informationstheorie definiert den Begriff der Kanalkapazität und liefert ein mathematisches Modell, mit dem man sie berechnen kann. Das Hauptergebnis besagt, dass die Kapazität des Kanals, wie oben definiert, durch das Maximum der gegenseitigen Information zwischen dem Eingang und dem Ausgang des Kanals gegeben ist, wobei die Maximierung in Bezug auf die Eingangsverteilung erfolgt. [3]
Der Begriff der Kanalkapazität war von zentraler Bedeutung für die Entwicklung moderner drahtgebundener und drahtloser Kommunikationssysteme. Mit dem Aufkommen neuartiger Fehlerkorrekturcodierungsmechanismen wurde eine Leistung erzielt, die sehr nahe an den durch die Kanalkapazität versprochenen Grenzen liegt.
Formale Definition[edit]
Das grundlegende mathematische Modell für ein Kommunikationssystem ist das folgende:
wo:
Lassen
Y.{ displaystyle Y} und
pY.|X.((y|x){ displaystyle p_ {Y | X} (y | x)} als Zufallsvariablen modelliert werden. Weiterhin lassen
Y.{ displaystyle Y} sei die bedingte Wahrscheinlichkeitsverteilungsfunktion von
X.{ displaystyle X} gegeben
pX.((x){ displaystyle p_ {X} (x)} Dies ist eine inhärente feste Eigenschaft des Kommunikationskanals. Dann die Wahl der Randverteilung
pX.,Y.((x,y){ displaystyle p_ {X, Y} (x, y)} bestimmt die gemeinsame Verteilung vollständig
aufgrund der Identität
- pX.,Y.((x,y)=pY.|X.((y|x)pX.((x){ displaystyle p_ {X, Y} (x, y) = p_ {Y | X} (y | x) , p_ {X} (x)}
was wiederum eine gegenseitige Information induziert
ich((X.;;Y.){ displaystyle I (X; Y)}. Das Kanalkapazität ist definiert als
- C.=suppX.((x)ich((X.;;Y.){ displaystyle C = sup _ {p_ {X} (x)} I (X; Y) ,}
wo das Supremum alle möglichen Entscheidungen von übernommen wird
pX.((x){ displaystyle p_ {X} (x)}.
Additivität der Kanalkapazität[edit]
Die Kanalkapazität addiert sich gegenüber unabhängigen Kanälen.[4] Dies bedeutet, dass die kombinierte Verwendung von zwei unabhängigen Kanälen die gleiche theoretische Kapazität bietet wie die unabhängige Verwendung. Formeller, lassen Sie
p1{ displaystyle p_ {1}}p2{ displaystyle p_ {2}} und
p1{ displaystyle p_ {1}} zwei unabhängige Kanäle sein, die wie oben modelliert sind;
X.1{ displaystyle { mathcal {X}} _ {1}} mit einem Eingabealphabet
Y.1{ displaystyle { mathcal {Y}} _ {1}} und ein Ausgabealphabet
p2{ displaystyle p_ {2}} . Idem für
p1×p2{ displaystyle p_ {1} times p_ {2}} . Wir definieren den Produktkanal
Dieser Satz besagt:
Das zeigen wir zuerst
C.((p1×p2)≥C.((p1)+C.((p2){ Anzeigestil C (p_ {1} mal p_ {2}) geq C (p_ {1}) + C (p_ {2})}.
Lassen
X.1{ displaystyle X_ {1}}X.2{ displaystyle X_ {2}} und
Y.1{ displaystyle Y_ {1}} zwei unabhängige Zufallsvariablen sein. Lassen
X.1{ displaystyle X_ {1}} eine Zufallsvariable sein, die der Ausgabe von entspricht
p1{ displaystyle p_ {1}} durch den Kanal
Y.2{ displaystyle Y_ {2}} , und
X.2{ displaystyle X_ {2}} zum
p2{ displaystyle p_ {2}} durch
.
Per Definition
C.((p1×p2)=suppX.1,X.2((ich((X.1,X.2::Y.1,Y.2)){ displaystyle C (p_ {1} times p_ {2}) = sup _ {p_ {X_ {1}, X_ {2}}} (I (X_ {1}, X_ {2}: Y_ {1) }, Y_ {2}))}.
Schon seit
X.1{ displaystyle X_ {1}}X.2{ displaystyle X_ {2}} und
p1{ displaystyle p_ {1}} sind unabhängig, sowie
p2{ displaystyle p_ {2}} und
((X.1,Y.1){ displaystyle (X_ {1}, Y_ {1})} ,
((X.2,Y.2){ displaystyle (X_ {2}, Y_ {2})} ist unabhängig von
ich((X.1,X.2::Y.1,Y.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2} )} . Wir können die folgende Eigenschaft der gegenseitigen Information anwenden:
Im Moment müssen wir nur eine Distribution finden
pX.1,X.2{ displaystyle p_ {X_ {1}, X_ {2}}}ich((X.1,X.2::Y.1,Y.2)≥ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) geq I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2 })} so dass
π1{ displaystyle pi _ {1}} . Eigentlich,
π2{ displaystyle pi _ {2}} und
X.1{ displaystyle X_ {1}} zwei Wahrscheinlichkeitsverteilungen für
X.2{ displaystyle X_ {2}} und
C.((p1){ displaystyle C (p_ {1})} erreichen
C.((p2){ displaystyle C (p_ {2})} und
, genügen:
- C.((p1×p2)≥ich((X.1,X.2::Y.1,Y.2)=ich((X.1::Y.1)+ich((X.2::Y.2)=C.((p1)+C.((p2){ Anzeigestil C (p_ {1} mal p_ {2}) geq I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ { 1}) + I (X_ {2}: Y_ {2}) = C (p_ {1}) + C (p_ {2})}
dh.
C.((p1×p2)≥C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) geq C (p_ {1}) + C (p_ {2})}
Lassen Sie uns das jetzt zeigen
C.((p1×p2)≤C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) leq C (p_ {1}) + C (p_ {2})}.
Lassen
π12{ displaystyle pi _ {12}}p1×p2{ displaystyle p_ {1} times p_ {2}} eine Verteilung für den Kanal sein
((X.1,X.2){ displaystyle (X_ {1}, X_ {2})} definieren
((Y.1,Y.2){ displaystyle (Y_ {1}, Y_ {2})} und die entsprechende Ausgabe
X.1{ displaystyle { mathcal {X}} _ {1}} . Lassen
X.1{ displaystyle X_ {1}} sei das Alphabet von
Y.1{ displaystyle { mathcal {Y}} _ {1}} ,
Y.1{ displaystyle Y_ {1}} zum
X.2{ displaystyle { mathcal {X}} _ {2}} und analog
Y.2{ displaystyle { mathcal {Y}} _ {2}} und
.
Per Definition der gegenseitigen Information haben wir
ich((X.1,X.2::Y.1,Y.2)=H.((Y.1,Y.2)– –H.((Y.1,Y.2|X.1,X.2)≤H.((Y.1)+H.((Y.2)– –H.((Y.1,Y.2|X.1,X.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & = H (Y_ {1}, Y_ {2}) – H (Y_ { 1}, Y_ {2} | X_ {1}, X_ {2}) \ & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) end {align}}}
Schreiben wir den letzten Begriff der Entropie neu.
H.((Y.1,Y.2|X.1,X.2)=∑((x1,x2)∈X.1×X.2P.((X.1,X.2=x1,x2)H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = sum _ {(x_ {1}, x_ {2}) in { mathcal {X}} _ {1} times { mathcal {X}} _ {2}} mathbb {P} (X_ {1}, X_ {2} = x_ {1}, x_ {2}) H (Y_ {1} , Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}
Per Definition des Produktkanals,
P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)=P.((Y.1=y1|X.1=x1)P.((Y.2=y2|X.2=x2){ displaystyle mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = mathbb {P} (Y_ {1} = y_ {1} | X_ {1} = x_ {1}) mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ {2 })}((x1,x2){ displaystyle (x_ {1}, x_ {2})} . Für ein bestimmtes Paar
H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})} können wir umschreiben
wie:
H.((Y.1,Y.2|X.1,X.2=x1,x2)=∑((y1,y2)∈Y.1×Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)Log((P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2))=∑((y1,y2)∈Y.1×Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)[log(P(Y1=y1|X1=x1))+log(P(Y2=y2|X2=x2))]=H.((Y.1|X.1=x1)+H.((Y.2|X.2=x2){ displaystyle { begin {align} H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) & = sum _ {(y_ { 1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) log ( mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})) \ & = sum _ {(y_ {1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ { 2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})[log(mathbb {P} (Y_{1}=y_{1}|X_{1}=x_{1}))+log(mathbb {P} (Y_{2}=y_{2}|X_{2}=x_{2}))]\ & = H (Y_ {1} | X_ {1} = x_ {1}) + H (Y_ {2} | X_ {2} = x_ {2}) end {align}}}
Indem wir diese Gleichheit über alle summieren
((x1,x2){ displaystyle (x_ {1}, x_ {2})}
.
Wir können jetzt eine Obergrenze für gegenseitige Informationen festlegen:
ich((X.1,X.2::Y.1,Y.2)≤H.((Y.1)+H.((Y.2)– –H.((Y.1|X.1)– –H.((Y.2|X.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1} | X_ {1}) – H (Y_ {2} | X_ {2}) \ & = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) end {align}}}
Diese Beziehung bleibt im Supremum erhalten. Deshalb
- C.((p1×p2)≤C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) leq C (p_ {1}) + C (p_ {2})}
Wenn wir die beiden von uns bewiesenen Ungleichungen kombinieren, erhalten wir das Ergebnis des Satzes:
- C.((p1×p2)=C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) = C (p_ {1}) + C (p_ {2})}
Shannon-Kapazität eines Graphen[edit]
Wenn G Ist ein ungerichteter Graph, kann er verwendet werden, um einen Kommunikationskanal zu definieren, in dem die Symbole die Eckpunkte des Graphen sind, und zwei Codewörter können miteinander verwechselt werden, wenn ihre Symbole an jeder Position gleich oder benachbart sind. Die rechnerische Komplexität beim Finden der Shannon-Kapazität eines solchen Kanals bleibt offen, kann jedoch durch eine andere wichtige Graphinvariante, die Lovász-Zahl, begrenzt werden.[5]
Noisy-Channel-Codierungssatz[edit]
Der Noisy-Channel-Codierungssatz besagt, dass für jede Fehlerwahrscheinlichkeit ε> 0 und für jede Übertragungsrate gilt R. weniger als die Kanalkapazität C.gibt es ein Codierungs- und Decodierungsschema, das Daten mit einer Rate überträgt R. deren Fehlerwahrscheinlichkeit kleiner als ε ist, für eine ausreichend große Blocklänge. Für jede Rate, die größer als die Kanalkapazität ist, geht die Fehlerwahrscheinlichkeit am Empfänger auf 0,5, wenn die Blocklänge auf unendlich geht.
Beispielanwendung[edit]
Eine Anwendung des Kanalkapazitätskonzepts auf einen additiven weißen Gaußschen Rauschkanal (AWGN) mit B. Hz-Bandbreite und Signal-Rausch-Verhältnis S / N. ist der Shannon-Hartley-Satz:
- C.=B.Log2((1+S.N.) { displaystyle C = B log _ {2} left (1 + { frac {S} {N}} right) }
C. wird in Bit pro Sekunde gemessen, wenn der Logarithmus in Basis 2 genommen wird, oder in Nats pro Sekunde, wenn der natürliche Logarithmus verwendet wird, vorausgesetzt B. ist in Hertz; die Signal- und Rauschleistungen S. und N. werden in einem linearen Netzteil (wie Watt oder Volt) ausgedrückt2). Schon seit S / N. Zahlen werden oft in dB angegeben, eine Umrechnung kann erforderlich sein. Beispielsweise entspricht ein Signal-Rausch-Verhältnis von 30 dB einem linearen Leistungsverhältnis von
1030/.10=103=1000{ displaystyle 10 ^ {30/10} = 10 ^ {3} = 1000}.
Kanalkapazität in der drahtlosen Kommunikation[edit]
Diese Abteilung[6] konzentriert sich auf das Einzelantennen-Punkt-zu-Punkt-Szenario. Informationen zur Kanalkapazität in Systemen mit mehreren Antennen finden Sie im Artikel zu MIMO.
Bandbegrenzter AWGN-Kanal[edit]
Wenn die durchschnittliche Empfangsleistung ist
P.¯{ displaystyle { bar {P}}}W.{ displaystyle W} [W]beträgt die Gesamtbandbreite
N.0{ displaystyle N_ {0}} in Hertz, und die Rauschleistungsspektraldichte ist
[W/Hz]beträgt die AWGN-Kanalkapazität
- C.AWGN=W.Log2((1+P.¯N.0W.){ displaystyle C _ { text {AWGN}} = W log _ {2} left (1 + { frac { bar {P}} {N_ {0} W}} right)} [bits/s],
wo
P.¯N.0W.{ displaystyle { frac { bar {P}} {N_ {0} W}}}ist das empfangene Signal-Rausch-Verhältnis (SNR). Dieses Ergebnis ist als bekannt Shannon-Hartley-Theorem.[7]
Wenn das SNR groß ist (SNR >> 0 dB), ist die Kapazität
C.≈W.Log2P.¯N.0W.{ displaystyle C approx W log _ {2} { frac { bar {P}} {N_ {0} W}}}ist logarithmisch in der Leistung und ungefähr linear in der Bandbreite. Dies nennt man das bandbreitenbegrenztes Regime.
Wenn das SNR klein ist (SNR << 0 dB), ist die Kapazität
C.≈P.¯N.0ln2{ displaystyle C approx { frac { bar {P}} {N_ {0} ln 2}}}ist linear in der Leistung, aber unempfindlich gegenüber Bandbreite. Dies nennt man das Machtbegrenztes Regime.
Das bandbreitenbegrenzte Regime und das leistungsbegrenzte Regime sind in der Figur dargestellt.
Frequenzselektiver AWGN-Kanal[edit]
Die Kapazität des frequenzselektiven Kanals ergibt sich aus der sogenannten Wasserfüllleistungszuweisung,
- C.N.c=∑n=0N.c– –1Log2((1+P.n∗|h¯n|2N.0),{ displaystyle C_ {N_ {c}} = sum _ {n = 0} ^ {N_ {c} -1} log _ {2} left (1 + { frac {P_ {n} ^ {* } | { bar {h}} _ {n} | ^ {2}} {N_ {0}}} right),}
wo
P.n∗=max{((1λ– –N.0|h¯n|2),0}}{ displaystyle P_ {n} ^ {*} = max left { left ({ frac {1} { lambda}} – { frac {N_ {0}} {| { bar {h} } _ {n} | ^ {2}}} right), 0 right }}|h¯n|2{ displaystyle | { bar {h}} _ {n} | ^ {2}} und
n{ displaystyle n} ist der Gewinn des Unterkanals
λ{ displaystyle lambda} mit
ausgewählt, um die Leistungsbeschränkung zu erfüllen.
Langsam verblassender Kanal[edit]
In einem langsam verblassenden Kanal, in dem die Kohärenzzeit größer als die Latenzzeit ist, gibt es keine bestimmte Kapazität als maximale Rate zuverlässiger Kommunikation, die vom Kanal unterstützt wird.
Log2((1+|h|2S.N.R.){ displaystyle log _ {2} (1+ | h | ^ {2} SNR)}|h|2{ displaystyle | h | ^ {2}} hängt von der zufälligen Kanalverstärkung ab
R.{ displaystyle R} , die dem Sender unbekannt ist. Wenn der Sender Daten mit einer Rate codiert
[bits/s/Hz]gibt es eine Wahrscheinlichkeit ungleich Null, dass die Decodierungsfehlerwahrscheinlichkeit nicht beliebig klein gemacht werden kann,
- pÖut=P.((Log((1+|h|2S.N.R.)<R.){ displaystyle p_ {out} = mathbb {P} ( log (1+ | h | ^ {2} SNR) ,
In diesem Fall soll das System ausfallen. Mit einer Wahrscheinlichkeit ungleich Null, dass sich der Kanal in einem tiefen Fade befindet, ist die Kapazität des langsam verblassenden Kanals im engeren Sinne Null. Es ist jedoch möglich, den größten Wert von zu bestimmen
R.{ displaystyle R}pÖut{ displaystyle p_ {out}} so dass die Ausfallwahrscheinlichkeit
ϵ{ displaystyle epsilon} ist weniger als
ϵ{ displaystyle epsilon} . Dieser Wert wird als bezeichnet
Ausfallkapazität.
Schnell verblassender Kanal[edit]
In einem schnell verblassenden Kanal, in dem die Latenzzeit größer als die Kohärenzzeit ist und die Codewortlänge viele Kohärenzperioden umfasst, kann man über viele unabhängige Kanalüberblendungen mittels Codierung über eine große Anzahl von Kohärenzzeitintervallen mitteln. Somit ist es möglich, eine zuverlässige Kommunikationsrate von zu erreichen
E.((Log2((1+|h|2S.N.R.)){ displaystyle mathbb {E} ( log _ {2} (1+ | h | ^ {2} SNR))}[bits/s/Hz] und es ist sinnvoll, von diesem Wert als der Kapazität des schnell verblassenden Kanals zu sprechen.
Siehe auch[edit]
Fortgeschrittene Kommunikationsthemen[edit]
Externe Links[edit]
Verweise[edit]
- ^ Saleem Bhatti. “Kanalkapazität”. Vorlesungsunterlagen für M.Sc. Datenkommunikationsnetze und verteilte Systeme D51 – Grundlegende Kommunikation und Netzwerke. Archiviert von das Original am 21.08.2007.
- ^ Jim Lesurf. “Signale sehen aus wie Rauschen!”. Information und Messung, 2. Aufl.
- ^ Thomas M. Cover, Joy A. Thomas (2006). Elemente der Informationstheorie. John Wiley & Sons, New York. ISBN 9781118585771.
- ^ Cover, Thomas M.; Thomas, Joy A. (2006). “Kapitel 7: Kanalkapazität”. Elemente der Informationstheorie (Zweite Ausgabe). Wiley-Interscience. S. 206–207. ISBN 978-0-471-24195-9.
- ^ Lovász, László (1979), “Über die Shannon-Kapazität eines Graphen”, IEEE-Transaktionen zur Informationstheorie, IT-25 (1): 1–7, doi:10.1109 / tit.1979.1055985.
- ^ David Tse, Pramod Viswanath (2005), Grundlagen der drahtlosen Kommunikation, Cambridge University Press, Großbritannien, ISBN 9780521845274
- ^ Das Handbuch der Elektrotechnik. Verband für Forschung und Bildung. 1996. p. D-149. ISBN 9780878919819.
Recent Comments