Kanalkapazität – Wikipedia

before-content-x4

KanalkapazitätIn der Elektrotechnik, Informatik und Informationstheorie ist dies die enge Obergrenze für die Geschwindigkeit, mit der Informationen zuverlässig über einen Kommunikationskanal übertragen werden können.

Gemäß den Bestimmungen des Satzmodells für verrauschte Kanäle ist die Kanalkapazität eines bestimmten Kanals die höchste Informationsrate (in Informationseinheiten pro Zeiteinheit), die mit einer beliebig kleinen Fehlerwahrscheinlichkeit erreicht werden kann. [1][2]

Die 1948 von Claude E. Shannon entwickelte Informationstheorie definiert den Begriff der Kanalkapazität und liefert ein mathematisches Modell, mit dem man sie berechnen kann. Das Hauptergebnis besagt, dass die Kapazität des Kanals, wie oben definiert, durch das Maximum der gegenseitigen Information zwischen dem Eingang und dem Ausgang des Kanals gegeben ist, wobei die Maximierung in Bezug auf die Eingangsverteilung erfolgt. [3]

Der Begriff der Kanalkapazität war von zentraler Bedeutung für die Entwicklung moderner drahtgebundener und drahtloser Kommunikationssysteme. Mit dem Aufkommen neuartiger Fehlerkorrekturcodierungsmechanismen wurde eine Leistung erzielt, die sehr nahe an den durch die Kanalkapazität versprochenen Grenzen liegt.

Formale Definition[edit]

Das grundlegende mathematische Modell für ein Kommunikationssystem ist das folgende:

Kanalmodell

wo:

Lassen

X.{ displaystyle X}

und

Y.{ displaystyle Y}

als Zufallsvariablen modelliert werden. Weiterhin lassen

pY.|X.((y|x){ displaystyle p_ {Y | X} (y | x)}

sei die bedingte Wahrscheinlichkeitsverteilungsfunktion von

Y.{ displaystyle Y}

gegeben

X.{ displaystyle X}

Dies ist eine inhärente feste Eigenschaft des Kommunikationskanals. Dann die Wahl der Randverteilung

pX.((x){ displaystyle p_ {X} (x)}

bestimmt die gemeinsame Verteilung vollständig

pX.,Y.((x,y){ displaystyle p_ {X, Y} (x, y)}

aufgrund der Identität

was wiederum eine gegenseitige Information induziert

ich((X.;;Y.){ displaystyle I (X; Y)}

. Das Kanalkapazität ist definiert als

wo das Supremum alle möglichen Entscheidungen von übernommen wird

pX.((x){ displaystyle p_ {X} (x)}

.

Additivität der Kanalkapazität[edit]

Die Kanalkapazität addiert sich gegenüber unabhängigen Kanälen.[4] Dies bedeutet, dass die kombinierte Verwendung von zwei unabhängigen Kanälen die gleiche theoretische Kapazität bietet wie die unabhängige Verwendung. Formeller, lassen Sie

p1{ displaystyle p_ {1}}

und

p2{ displaystyle p_ {2}}

zwei unabhängige Kanäle sein, die wie oben modelliert sind;

p1{ displaystyle p_ {1}}

mit einem Eingabealphabet

X.1{ displaystyle { mathcal {X}} _ {1}}

und ein Ausgabealphabet

Y.1{ displaystyle { mathcal {Y}} _ {1}}

. Idem für

p2{ displaystyle p_ {2}}

. Wir definieren den Produktkanal

p1×p2{ displaystyle p_ {1} times p_ {2}}

wie

((x1,x2)((X.1,X.2),((y1,y2)((Y.1,Y.2),((p1×p2)((((y1,y2)|((x1,x2))=p1((y1|x1)p2((y2|x2){ displaystyle forall (x_ {1}, x_ {2}) in ({ mathcal {X}} _ {1}, { mathcal {X}} _ {2}), ; (y_ {1 }, y_ {2}) in ({ mathcal {Y}} _ {1}, { mathcal {Y}} _ {2}), ; (p_ {1} times p_ {2}) ( (y_ {1}, y_ {2}) | (x_ {1}, x_ {2})) = p_ {1} (y_ {1} | x_ {1}) p_ {2} (y_ {2} | x_ {2})}

Dieser Satz besagt:

Beweis – –

Das zeigen wir zuerst

C.((p1×p2)C.((p1)+C.((p2){ Anzeigestil C (p_ {1} mal p_ {2}) geq C (p_ {1}) + C (p_ {2})}

.

Lassen

X.1{ displaystyle X_ {1}}

und

X.2{ displaystyle X_ {2}}

zwei unabhängige Zufallsvariablen sein. Lassen

Y.1{ displaystyle Y_ {1}}

eine Zufallsvariable sein, die der Ausgabe von entspricht

X.1{ displaystyle X_ {1}}

durch den Kanal

p1{ displaystyle p_ {1}}

, und

Y.2{ displaystyle Y_ {2}}

zum

X.2{ displaystyle X_ {2}}

durch

p2{ displaystyle p_ {2}}

.

Per Definition

C.((p1×p2)=suppX.1,X.2((ich((X.1,X.2::Y.1,Y.2)){ displaystyle C (p_ {1} times p_ {2}) = sup _ {p_ {X_ {1}, X_ {2}}} (I (X_ {1}, X_ {2}: Y_ {1) }, Y_ {2}))}

.

Schon seit

X.1{ displaystyle X_ {1}}

und

X.2{ displaystyle X_ {2}}

sind unabhängig, sowie

p1{ displaystyle p_ {1}}

und

p2{ displaystyle p_ {2}}

,

((X.1,Y.1){ displaystyle (X_ {1}, Y_ {1})}

ist unabhängig von

((X.2,Y.2){ displaystyle (X_ {2}, Y_ {2})}

. Wir können die folgende Eigenschaft der gegenseitigen Information anwenden:

ich((X.1,X.2::Y.1,Y.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2} )}

Im Moment müssen wir nur eine Distribution finden

pX.1,X.2{ displaystyle p_ {X_ {1}, X_ {2}}}

so dass

ich((X.1,X.2::Y.1,Y.2)ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) geq I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2 })}

. Eigentlich,

π1{ displaystyle pi _ {1}}

und

π2{ displaystyle pi _ {2}}

zwei Wahrscheinlichkeitsverteilungen für

X.1{ displaystyle X_ {1}}

und

X.2{ displaystyle X_ {2}}

erreichen

C.((p1){ displaystyle C (p_ {1})}

und

C.((p2){ displaystyle C (p_ {2})}

, genügen:

dh.

C.((p1×p2)C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) geq C (p_ {1}) + C (p_ {2})}

Lassen Sie uns das jetzt zeigen

C.((p1×p2)C.((p1)+C.((p2){ displaystyle C (p_ {1} times p_ {2}) leq C (p_ {1}) + C (p_ {2})}

.

Lassen

π12{ displaystyle pi _ {12}}

eine Verteilung für den Kanal sein

p1×p2{ displaystyle p_ {1} times p_ {2}}

definieren

((X.1,X.2){ displaystyle (X_ {1}, X_ {2})}

und die entsprechende Ausgabe

((Y.1,Y.2){ displaystyle (Y_ {1}, Y_ {2})}

. Lassen

X.1{ displaystyle { mathcal {X}} _ {1}}

sei das Alphabet von

X.1{ displaystyle X_ {1}}

,

Y.1{ displaystyle { mathcal {Y}} _ {1}}

zum

Y.1{ displaystyle Y_ {1}}

und analog

X.2{ displaystyle { mathcal {X}} _ {2}}

und

Y.2{ displaystyle { mathcal {Y}} _ {2}}

.

Per Definition der gegenseitigen Information haben wir

ich((X.1,X.2::Y.1,Y.2)=H.((Y.1,Y.2)– –H.((Y.1,Y.2|X.1,X.2)H.((Y.1)+H.((Y.2)– –H.((Y.1,Y.2|X.1,X.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & = H (Y_ {1}, Y_ {2}) – H (Y_ { 1}, Y_ {2} | X_ {1}, X_ {2}) \ & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) end {align}}}

Schreiben wir den letzten Begriff der Entropie neu.

H.((Y.1,Y.2|X.1,X.2)=((x1,x2)X.1×X.2P.((X.1,X.2=x1,x2)H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = sum _ {(x_ {1}, x_ {2}) in { mathcal {X}} _ {1} times { mathcal {X}} _ {2}} mathbb {P} (X_ {1}, X_ {2} = x_ {1}, x_ {2}) H (Y_ {1} , Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}

Per Definition des Produktkanals,

P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)=P.((Y.1=y1|X.1=x1)P.((Y.2=y2|X.2=x2){ displaystyle mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) = mathbb {P} (Y_ {1} = y_ {1} | X_ {1} = x_ {1}) mathbb {P} (Y_ {2} = y_ {2} | X_ {2} = x_ {2 })}

. Für ein bestimmtes Paar

((x1,x2){ displaystyle (x_ {1}, x_ {2})}

können wir umschreiben

H.((Y.1,Y.2|X.1,X.2=x1,x2){ displaystyle H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})}

wie:

H.((Y.1,Y.2|X.1,X.2=x1,x2)=((y1,y2)Y.1×Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)Log((P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2))=((y1,y2)Y.1×Y.2P.((Y.1,Y.2=y1,y2|X.1,X.2=x1,x2)[log(P(Y1=y1|X1=x1))+log(P(Y2=y2|X2=x2))]=H.((Y.1|X.1=x1)+H.((Y.2|X.2=x2){ displaystyle { begin {align} H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) & = sum _ {(y_ { 1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2}) log ( mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ {2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})) \ & = sum _ {(y_ {1}, y_ {2}) in { mathcal {Y}} _ {1} times { mathcal {Y}} _ {2}} mathbb {P} (Y_ {1}, Y_ {2} = y_ {1}, y_ { 2} | X_ {1}, X_ {2} = x_ {1}, x_ {2})[log(mathbb {P} (Y_{1}=y_{1}|X_{1}=x_{1}))+log(mathbb {P} (Y_{2}=y_{2}|X_{2}=x_{2}))]\ & = H (Y_ {1} | X_ {1} = x_ {1}) + H (Y_ {2} | X_ {2} = x_ {2}) end {align}}}

Indem wir diese Gleichheit über alle summieren

((x1,x2){ displaystyle (x_ {1}, x_ {2})}

, wir erhalten

H.((Y.1,Y.2|X.1,X.2)=H.((Y.1|X.1)+H.((Y.2|X.2){ Anzeigestil H (Y_ {1}, Y_ {2} | X_ {1}, X_ {2}) = H (Y_ {1} | X_ {1}) + H (Y_ {2} | X_ {2} )}

.

Wir können jetzt eine Obergrenze für gegenseitige Informationen festlegen:

ich((X.1,X.2::Y.1,Y.2)H.((Y.1)+H.((Y.2)– –H.((Y.1|X.1)– –H.((Y.2|X.2)=ich((X.1::Y.1)+ich((X.2::Y.2){ displaystyle { begin {align} I (X_ {1}, X_ {2}: Y_ {1}, Y_ {2}) & leq H (Y_ {1}) + H (Y_ {2}) – H (Y_ {1} | X_ {1}) – H (Y_ {2} | X_ {2}) \ & = I (X_ {1}: Y_ {1}) + I (X_ {2}: Y_ {2}) end {align}}}

Diese Beziehung bleibt im Supremum erhalten. Deshalb

Wenn wir die beiden von uns bewiesenen Ungleichungen kombinieren, erhalten wir das Ergebnis des Satzes:

Shannon-Kapazität eines Graphen[edit]

Wenn G Ist ein ungerichteter Graph, kann er verwendet werden, um einen Kommunikationskanal zu definieren, in dem die Symbole die Eckpunkte des Graphen sind, und zwei Codewörter können miteinander verwechselt werden, wenn ihre Symbole an jeder Position gleich oder benachbart sind. Die rechnerische Komplexität beim Finden der Shannon-Kapazität eines solchen Kanals bleibt offen, kann jedoch durch eine andere wichtige Graphinvariante, die Lovász-Zahl, begrenzt werden.[5]

Noisy-Channel-Codierungssatz[edit]

Der Noisy-Channel-Codierungssatz besagt, dass für jede Fehlerwahrscheinlichkeit ε> 0 und für jede Übertragungsrate gilt R. weniger als die Kanalkapazität C.gibt es ein Codierungs- und Decodierungsschema, das Daten mit einer Rate überträgt R. deren Fehlerwahrscheinlichkeit kleiner als ε ist, für eine ausreichend große Blocklänge. Für jede Rate, die größer als die Kanalkapazität ist, geht die Fehlerwahrscheinlichkeit am Empfänger auf 0,5, wenn die Blocklänge auf unendlich geht.

Beispielanwendung[edit]

Eine Anwendung des Kanalkapazitätskonzepts auf einen additiven weißen Gaußschen Rauschkanal (AWGN) mit B. Hz-Bandbreite und Signal-Rausch-Verhältnis S / N. ist der Shannon-Hartley-Satz:

C. wird in Bit pro Sekunde gemessen, wenn der Logarithmus in Basis 2 genommen wird, oder in Nats pro Sekunde, wenn der natürliche Logarithmus verwendet wird, vorausgesetzt B. ist in Hertz; die Signal- und Rauschleistungen S. und N. werden in einem linearen Netzteil (wie Watt oder Volt) ausgedrückt2). Schon seit S / N. Zahlen werden oft in dB angegeben, eine Umrechnung kann erforderlich sein. Beispielsweise entspricht ein Signal-Rausch-Verhältnis von 30 dB einem linearen Leistungsverhältnis von

1030/.10=103=1000{ displaystyle 10 ^ {30/10} = 10 ^ {3} = 1000}

.

Kanalkapazität in der drahtlosen Kommunikation[edit]

Diese Abteilung[6] konzentriert sich auf das Einzelantennen-Punkt-zu-Punkt-Szenario. Informationen zur Kanalkapazität in Systemen mit mehreren Antennen finden Sie im Artikel zu MIMO.

Bandbegrenzter AWGN-Kanal[edit]

AWGN-Kanalkapazität mit dem angegebenen leistungsbegrenzten und bandbreitenbegrenzten Regime. Hier,

Wenn die durchschnittliche Empfangsleistung ist

P.¯{ displaystyle { bar {P}}}

[W]beträgt die Gesamtbandbreite

W.{ displaystyle W}

in Hertz, und die Rauschleistungsspektraldichte ist

N.0{ displaystyle N_ {0}}

[W/Hz]beträgt die AWGN-Kanalkapazität

wo

P.¯N.0W.{ displaystyle { frac { bar {P}} {N_ {0} W}}}

ist das empfangene Signal-Rausch-Verhältnis (SNR). Dieses Ergebnis ist als bekannt Shannon-Hartley-Theorem.[7]

Wenn das SNR groß ist (SNR >> 0 dB), ist die Kapazität

C.W.Log2P.¯N.0W.{ displaystyle C approx W log _ {2} { frac { bar {P}} {N_ {0} W}}}

ist logarithmisch in der Leistung und ungefähr linear in der Bandbreite. Dies nennt man das bandbreitenbegrenztes Regime.

Wenn das SNR klein ist (SNR << 0 dB), ist die Kapazität

C.P.¯N.0ln2{ displaystyle C approx { frac { bar {P}} {N_ {0} ln 2}}}

ist linear in der Leistung, aber unempfindlich gegenüber Bandbreite. Dies nennt man das Machtbegrenztes Regime.

Das bandbreitenbegrenzte Regime und das leistungsbegrenzte Regime sind in der Figur dargestellt.

Frequenzselektiver AWGN-Kanal[edit]

Die Kapazität des frequenzselektiven Kanals ergibt sich aus der sogenannten Wasserfüllleistungszuweisung,

wo

P.n=max{((1λ– –N.0|h¯n|2),0}}{ displaystyle P_ {n} ^ {*} = max left { left ({ frac {1} { lambda}} – { frac {N_ {0}} {| { bar {h} } _ {n} | ^ {2}}} right), 0 right }}

und

|h¯n|2{ displaystyle | { bar {h}} _ {n} | ^ {2}}

ist der Gewinn des Unterkanals

n{ displaystyle n}

mit

λ{ displaystyle lambda}

ausgewählt, um die Leistungsbeschränkung zu erfüllen.

Langsam verblassender Kanal[edit]

In einem langsam verblassenden Kanal, in dem die Kohärenzzeit größer als die Latenzzeit ist, gibt es keine bestimmte Kapazität als maximale Rate zuverlässiger Kommunikation, die vom Kanal unterstützt wird.

Log2((1+|h|2S.N.R.){ displaystyle log _ {2} (1+ | h | ^ {2} SNR)}

hängt von der zufälligen Kanalverstärkung ab

|h|2{ displaystyle | h | ^ {2}}

, die dem Sender unbekannt ist. Wenn der Sender Daten mit einer Rate codiert

R.{ displaystyle R}

[bits/s/Hz]gibt es eine Wahrscheinlichkeit ungleich Null, dass die Decodierungsfehlerwahrscheinlichkeit nicht beliebig klein gemacht werden kann,

In diesem Fall soll das System ausfallen. Mit einer Wahrscheinlichkeit ungleich Null, dass sich der Kanal in einem tiefen Fade befindet, ist die Kapazität des langsam verblassenden Kanals im engeren Sinne Null. Es ist jedoch möglich, den größten Wert von zu bestimmen

R.{ displaystyle R}

so dass die Ausfallwahrscheinlichkeit

pÖut{ displaystyle p_ {out}}

ist weniger als

ϵ{ displaystyle epsilon}

. Dieser Wert wird als bezeichnet

ϵ{ displaystyle epsilon}

Ausfallkapazität.

Schnell verblassender Kanal[edit]

In einem schnell verblassenden Kanal, in dem die Latenzzeit größer als die Kohärenzzeit ist und die Codewortlänge viele Kohärenzperioden umfasst, kann man über viele unabhängige Kanalüberblendungen mittels Codierung über eine große Anzahl von Kohärenzzeitintervallen mitteln. Somit ist es möglich, eine zuverlässige Kommunikationsrate von zu erreichen

E.((Log2((1+|h|2S.N.R.)){ displaystyle mathbb {E} ( log _ {2} (1+ | h | ^ {2} SNR))}

[bits/s/Hz] und es ist sinnvoll, von diesem Wert als der Kapazität des schnell verblassenden Kanals zu sprechen.

Siehe auch[edit]

Fortgeschrittene Kommunikationsthemen[edit]

Externe Links[edit]

Verweise[edit]

  1. ^ Saleem Bhatti. “Kanalkapazität”. Vorlesungsunterlagen für M.Sc. Datenkommunikationsnetze und verteilte Systeme D51 – Grundlegende Kommunikation und Netzwerke. Archiviert von das Original am 21.08.2007.
  2. ^ Jim Lesurf. “Signale sehen aus wie Rauschen!”. Information und Messung, 2. Aufl.
  3. ^ Thomas M. Cover, Joy A. Thomas (2006). Elemente der Informationstheorie. John Wiley & Sons, New York. ISBN 9781118585771.
  4. ^ Cover, Thomas M.; Thomas, Joy A. (2006). “Kapitel 7: Kanalkapazität”. Elemente der Informationstheorie (Zweite Ausgabe). Wiley-Interscience. S. 206–207. ISBN 978-0-471-24195-9.
  5. ^ Lovász, László (1979), “Über die Shannon-Kapazität eines Graphen”, IEEE-Transaktionen zur Informationstheorie, IT-25 (1): 1–7, doi:10.1109 / tit.1979.1055985.
  6. ^ David Tse, Pramod Viswanath (2005), Grundlagen der drahtlosen Kommunikation, Cambridge University Press, Großbritannien, ISBN 9780521845274
  7. ^ Das Handbuch der Elektrotechnik. Verband für Forschung und Bildung. 1996. p. D-149. ISBN 9780878919819.

after-content-x4