[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki10\/2020\/12\/24\/turbo-code-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki10\/2020\/12\/24\/turbo-code-wikipedia\/","headline":"Turbo-Code – Wikipedia","name":"Turbo-Code – Wikipedia","description":"before-content-x4 Hochleistungs-Vorw\u00e4rtsfehlerkorrekturcodes after-content-x4 In der Informationstheorie Turbocodes (urspr\u00fcnglich auf Franz\u00f6sisch Turbocodes) sind eine Klasse von Hochleistungs-Vorw\u00e4rtsfehlerkorrekturcodes (FEC), die zwischen 1990","datePublished":"2020-12-24","dateModified":"2020-12-24","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki10\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki10\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/3\/35\/Turbo_encoder.svg\/235px-Turbo_encoder.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/3\/35\/Turbo_encoder.svg\/235px-Turbo_encoder.svg.png","height":"298","width":"235"},"url":"https:\/\/wiki.edu.vn\/wiki10\/2020\/12\/24\/turbo-code-wikipedia\/","wordCount":8140,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Hochleistungs-Vorw\u00e4rtsfehlerkorrekturcodes (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4In der Informationstheorie Turbocodes (urspr\u00fcnglich auf Franz\u00f6sisch Turbocodes) sind eine Klasse von Hochleistungs-Vorw\u00e4rtsfehlerkorrekturcodes (FEC), die zwischen 1990 und 1991 entwickelt wurden, aber erstmals 1993 ver\u00f6ffentlicht wurden. Sie waren die ersten praktischen Codes, die sich der maximalen Kanalkapazit\u00e4t oder der Shannon-Grenze, einem theoretischen Maximum f\u00fcr den Code, ann\u00e4herten Rate, mit der bei einem bestimmten Ger\u00e4uschpegel noch eine zuverl\u00e4ssige Kommunikation m\u00f6glich ist. Turbo-Codes werden in der 3G \/ 4G-Mobilkommunikation (z. B. in UMTS und LTE) und in der (Weltraum-) Satellitenkommunikation sowie in anderen Anwendungen verwendet, in denen Entwickler eine zuverl\u00e4ssige Informations\u00fcbertragung \u00fcber Kommunikationsverbindungen mit eingeschr\u00e4nkter Bandbreite oder Latenz in der USA anstreben Vorhandensein von datenverf\u00e4lschendem Rauschen. Turbo-Codes konkurrieren mit LDPC-Codes (“Parity-Check mit niedriger Dichte”), die eine \u00e4hnliche Leistung bieten.Der Name “Turbocode” entstand aus der R\u00fcckkopplungsschleife, die w\u00e4hrend der normalen Turbocode-Decodierung verwendet wurde, analog zu der Abgasr\u00fcckkopplung, die f\u00fcr die Turboaufladung des Motors verwendet wurde. Hagenauer hat argumentiert, dass der Begriff Turbocode eine Fehlbezeichnung ist, da keine R\u00fcckkopplung in den Codierungsprozess involviert ist.[1]Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Geschichte[edit]Ein Beispiel-Encoder[edit]Der Decoder[edit]Weicher Entscheidungsansatz[edit]Hypothesen l\u00f6sen, um Bits zu finden[edit]Performance[edit]Praktische Anwendungen mit Turbocodes[edit]Bayesianische Formulierung[edit]Siehe auch[edit]Verweise[edit]Externe Links[edit]Weiterf\u00fchrende Literatur[edit]Ver\u00f6ffentlichungen[edit]Geschichte[edit]Die grundlegende Patentanmeldung f\u00fcr Turbocodes wurde am 23. April 1991 eingereicht. In der Patentanmeldung wird Claude Berrou als einziger Erfinder von Turbocodes aufgef\u00fchrt. Die Patentanmeldung f\u00fchrte zu mehreren Patenten, darunter US-Patent 5,446,747, die am 29. August 2013 abgelaufen ist.Die erste \u00f6ffentliche Zeitung \u00fcber Turbocodes war “Near Shannon Limit Fehlerkorrektur Codierung und Decodierung: Turbo-Codes“.[2] Dieses Papier wurde 1993 in der Proceedings of IEEE International Communications Conference ver\u00f6ffentlicht. Das Papier von 1993 wurde aus drei separaten Einreichungen gebildet, die aus Platzgr\u00fcnden kombiniert wurden. Die Fusion veranlasste das Papier, drei Autoren aufzulisten: Berrou, Glavieux und Thitimajshima (von T\u00e9l\u00e9com Bretagne, ehemalige ENST Bretagne, Frankreich). Aus der urspr\u00fcnglichen Patentanmeldung geht jedoch hervor, dass Berrou der einzige Erfinder von Turbocodes ist und dass die anderen Autoren des Papiers anderes Material als die Kernkonzepte beigesteuert haben.Turbo-Codes waren zum Zeitpunkt ihrer Einf\u00fchrung so revolution\u00e4r, dass viele Experten auf dem Gebiet der Codierung den gemeldeten Ergebnissen nicht glaubten. Als die Leistung best\u00e4tigt wurde, fand eine kleine Revolution in der Welt der Codierung statt, die zur Untersuchung vieler anderer Arten der iterativen Signalverarbeitung f\u00fchrte.Die erste Klasse von Turbocode war der parallele verkettete Faltungscode (PCCC). Seit der Einf\u00fchrung der urspr\u00fcnglichen parallelen Turbocodes im Jahr 1993 wurden viele andere Klassen von Turbocodes entdeckt, einschlie\u00dflich serieller Versionen von seriell verketteten Faltungscodes und Wiederholungsakkumulationscodes. Iterative Turbodecodierungsverfahren wurden auch auf konventionellere FEC-Systeme angewendet, einschlie\u00dflich Reed-Solomon-korrigierter Faltungscodes, obwohl diese Systeme f\u00fcr praktische Implementierungen iterativer Decodierer zu komplex sind. Der Turboausgleich ergab sich auch aus dem Konzept der Turbocodierung. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Neben Turbocodes erfand Berrou auch rekursive systematische Faltungscodes (RSC), die bei der beispielhaften Implementierung der im Patent beschriebenen Turbocodes verwendet werden. Turbocodes, die RSC-Codes verwenden, scheinen eine bessere Leistung zu erzielen als Turbocodes, die keine RSC-Codes verwenden.Vor Turbocodes waren die besten Konstruktionen seriell verkettete Codes, die auf einem \u00e4u\u00dferen Reed-Solomon-Fehlerkorrekturcode in Kombination mit einem inneren Viterbi-decodierten Faltungscode mit kurzer Einschr\u00e4nkungsl\u00e4nge, auch als RSV-Codes bekannt, basierten.In einem sp\u00e4teren Artikel w\u00fcrdigte Berrou die Intuition von “G. Battail, J. Hagenauer und P. Hoeher, die Ende der 80er Jahre das Interesse an probabilistischer Verarbeitung hervorhoben”. Er f\u00fcgt hinzu, “R. Gallager und M. Tanner hatten sich bereits Codierungs- und Decodierungstechniken vorgestellt, deren allgemeine Prinzipien eng miteinander verbunden sind”, obwohl die notwendigen Berechnungen zu dieser Zeit unpraktisch waren.[3]Ein Beispiel-Encoder[edit]Es gibt viele verschiedene F\u00e4lle von Turbocodes, bei denen unterschiedliche Komponentencodierer, Eingangs- \/ Ausgangsverh\u00e4ltnisse, Interleaver und Punktionsmuster verwendet werden. Diese beispielhafte Encoder-Implementierung beschreibt einen klassischen Turbo-Encoder und demonstriert den allgemeinen Aufbau paralleler Turbo-Codes.Diese Codiererimplementierung sendet drei Teilbl\u00f6cke von Bits. Der erste Unterblock ist der m-bit Block von Nutzdaten. Der zweite Unterblock ist n \/ 2 Parit\u00e4tsbits f\u00fcr die Nutzdaten, berechnet unter Verwendung eines rekursiven systematischen Faltungscodes (RSC-Code). Der dritte Unterblock ist n \/ 2 Parit\u00e4tsbits f\u00fcr eine bekannte Permutation der Nutzdaten, die wiederum unter Verwendung eines RSC-Codes berechnet werden. Somit werden zwei redundante, aber unterschiedliche Unterbl\u00f6cke von Parit\u00e4tsbits mit der Nutzlast gesendet. Der komplette Block hat m + n Datenbits mit einer Coderate von m\/ ((m + n). Die Permutation der Nutzdaten wird von einem Ger\u00e4t durchgef\u00fchrt, das als Interleaver bezeichnet wird.In Bezug auf die Hardware besteht dieser Turbocode-Encoder aus zwei identischen RSC-Codierern, \u04211 und C2, wie in der Figur dargestellt, die \u00fcber ein Verkettungsschema miteinander verbunden sind, genannt parallele Verkettung::In der Figur, M. ist ein Speicherregister. Die Verz\u00f6gerungsleitung und die Interleaver-Kraft-Eingangsbits dk in verschiedenen Sequenzen erscheinen. Bei der ersten Iteration die Eingabesequenz dk erscheint an beiden Ausg\u00e4ngen des Encoders, xk und y1k oder y2k aufgrund der systematischen Natur des Encoders. Wenn die Encoder C.1 und C.2 werden in verwendet n1 und n2 Iterationen sind ihre Raten jeweils gleich R.1=n1+n22n1+n2 R.2=n1+n2n1+2n2{ displaystyle { begin {align} ~ R_ {1} & = { frac {n_ {1} + n_ {2}} {2n_ {1} + n_ {2}}} \\ ~ R_ {2} & = { frac {n_ {1} + n_ {2}} {n_ {1} + 2n_ {2}}} end {align}}}Der Decoder[edit]Der Decoder ist \u00e4hnlich wie der obige Encoder aufgebaut. Zwei Elementardecoder sind miteinander verbunden, jedoch in Reihe und nicht parallel. Das D.E.C.1{ displaystyle textstyle DEC_ {1}} Decoder arbeitet mit niedrigerer Geschwindigkeit (dh R.1{ displaystyle textstyle R_ {1}}), also ist es f\u00fcr die C.1{ displaystyle textstyle C_ {1}} Encoder und D.E.C.2{ displaystyle textstyle DEC_ {2}} ist f\u00fcr C.2{ displaystyle textstyle C_ {2}} entsprechend. D.E.C.1{ displaystyle textstyle DEC_ {1}} ergibt eine weiche Entscheidung, die verursacht L.1{ displaystyle textstyle L_ {1}} verz\u00f6gern. Die gleiche Verz\u00f6gerung wird durch die Verz\u00f6gerungsleitung im Encoder verursacht. Das D.E.C.2{ displaystyle textstyle DEC_ {2}}‘s Betrieb verursacht L.2{ displaystyle textstyle L_ {2}} verz\u00f6gern.Ein zwischen den beiden Decodern installierter Interleaver wird hier verwendet, um Fehlerbursts zu streuen, die von kommen D.E.C.1{ displaystyle textstyle DEC_ {1}} Ausgabe. DI Block ist ein Demultiplex- und Einf\u00fcgemodul. Es funktioniert als Schalter und leitet Eingangsbits an um D.E.C.1{ displaystyle textstyle DEC_ {1}} in einem Moment und zu D.E.C.2{ displaystyle textstyle DEC_ {2}} bei einem anderen. Im AUS-Zustand werden beide gespeist y1k{ displaystyle textstyle y_ {1k}} und y2k{ displaystyle textstyle y_ {2k}} Eing\u00e4nge mit F\u00fcllbits (Nullen).Betrachten Sie einen speicherlosen AWGN-Kanal und nehmen Sie an, dass bei k-th Iteration, der Decoder empf\u00e4ngt ein Paar von Zufallsvariablen: xk=((2dk– –1)+eink yk=2((Y.k– –1)+bk{ displaystyle { begin {align} ~ x_ {k} & = (2d_ {k} -1) + a_ {k} \\ ~ y_ {k} & = 2 (Y_ {k} -1) + b_ { k} end {align}}}wo eink{ displaystyle textstyle a_ {k}} und bk{ displaystyle textstyle b_ {k}} sind unabh\u00e4ngige Rauschkomponenten mit der gleichen Varianz \u03c32{ displaystyle textstyle sigma ^ {2}}. Y.k{ displaystyle textstyle Y_ {k}} ist ein k-th Bit von yk{ displaystyle textstyle y_ {k}} Geberausgang.Redundante Informationen werden demultiplext und gesendet DI zu D.E.C.1{ displaystyle textstyle DEC_ {1}} (wann yk=y1k{ displaystyle textstyle y_ {k} = y_ {1k}}) und zu D.E.C.2{ displaystyle textstyle DEC_ {2}} (wann yk=y2k{ displaystyle textstyle y_ {k} = y_ {2k}}).D.E.C.1{ displaystyle textstyle DEC_ {1}} ergibt eine weiche Entscheidung; dh:\u039b((dk)=Log\u2061p((dk=1)p((dk=0){ displaystyle Lambda (d_ {k}) = log { frac {p (d_ {k} = 1)} {p (d_ {k} = 0)}}}und liefert es an D.E.C.2{ displaystyle textstyle DEC_ {2}}. \u039b((dk){ displaystyle textstyle Lambda (d_ {k})} hei\u00dft das Logarithmus des Wahrscheinlichkeitsverh\u00e4ltnisses (LLR). p((dk=ich),ich\u2208{0,1}}{ displaystyle textstyle p (d_ {k} = i), , i in {0,1 }} ist der a posteriori Wahrscheinlichkeit (APP) der dk{ displaystyle textstyle d_ {k}} Datenbit, das die Wahrscheinlichkeit der Interpretation eines empfangenen anzeigt dk{ displaystyle textstyle d_ {k}} bisschen wie ich{ displaystyle textstyle i}. Nehmen Sie die LLR ber\u00fccksichtigen, D.E.C.2{ displaystyle textstyle DEC_ {2}} ergibt eine schwere Entscheidung; dh ein dekodiertes Bit.Es ist bekannt, dass der Viterbi-Algorithmus APP nicht berechnen kann und daher nicht in verwendet werden kann D.E.C.1{ displaystyle textstyle DEC_ {1}}. Stattdessen wird ein modifizierter BCJR-Algorithmus verwendet. Zum D.E.C.2{ displaystyle textstyle DEC_ {2}}ist der Viterbi-Algorithmus geeignet.Die dargestellte Struktur ist jedoch nicht optimal, weil D.E.C.1{ displaystyle textstyle DEC_ {1}} verwendet nur einen angemessenen Bruchteil der verf\u00fcgbaren redundanten Informationen. Um die Struktur zu verbessern, wird eine R\u00fcckkopplungsschleife verwendet (siehe die gepunktete Linie in der Abbildung).Weicher Entscheidungsansatz[edit]Das Decoder-Front-End erzeugt f\u00fcr jedes Bit im Datenstrom eine Ganzzahl. Diese Ganzzahl ist ein Ma\u00df daf\u00fcr, wie wahrscheinlich es ist, dass das Bit eine 0 oder 1 ist und auch aufgerufen wird weiches St\u00fcck. Die Ganzzahl k\u00f6nnte aus dem Bereich gezogen werden [\u2212127, 127], wo:\u2212127 bedeutet “sicherlich 0”\u2212100 bedeutet “sehr wahrscheinlich 0”0 bedeutet “es k\u00f6nnte entweder 0 oder 1 sein”100 bedeutet “sehr wahrscheinlich 1”127 bedeutet “sicherlich 1”Dies f\u00fchrt einen probabilistischen Aspekt in den Datenstrom vom Front-End ein, vermittelt jedoch mehr Informationen \u00fcber jedes Bit als nur 0 oder 1.Beispielsweise muss das Front-End eines herk\u00f6mmlichen Funkempf\u00e4ngers f\u00fcr jedes Bit entscheiden, ob eine interne analoge Spannung \u00fcber oder unter einem bestimmten Schwellenspannungspegel liegt. F\u00fcr einen Turbocode-Decoder w\u00fcrde das Front-End ein ganzzahliges Ma\u00df daf\u00fcr liefern, wie weit die interne Spannung von dem gegebenen Schwellenwert entfernt ist.Um die zu entschl\u00fcsseln m + n-Bit-Datenblock, das Decoder-Front-End erstellt einen Block von Wahrscheinlichkeitsma\u00dfen mit einem Wahrscheinlichkeitsma\u00df f\u00fcr jedes Bit im Datenstrom. Es gibt zwei parallele Decoder, einen f\u00fcr jeden dern\u20442-bit Parit\u00e4tsunterbl\u00f6cke. Beide Decoder verwenden den Unterblock von m Wahrscheinlichkeiten f\u00fcr die Nutzdaten. Der Decoder, der an dem zweiten Parit\u00e4tsunterblock arbeitet, kennt die Permutation, die der Codierer f\u00fcr diesen Unterblock verwendet hat.Hypothesen l\u00f6sen, um Bits zu finden[edit]Die Schl\u00fcsselinnovation von Turbocodes besteht darin, wie sie die Wahrscheinlichkeitsdaten verwenden, um Unterschiede zwischen den beiden Decodern auszugleichen. Jeder der beiden Faltungsdecoder generiert eine Hypothese (mit abgeleiteten Wahrscheinlichkeiten) f\u00fcr das Muster von m Bits im Nutzlast-Unterblock. Die Hypothesenbitmuster werden verglichen, und wenn sie sich unterscheiden, tauschen die Decoder die abgeleiteten Wahrscheinlichkeiten aus, die sie f\u00fcr jedes Bit in den Hypothesen haben. Jeder Decodierer enth\u00e4lt die vom anderen Decodierer abgeleiteten Wahrscheinlichkeitssch\u00e4tzungen, um eine neue Hypothese f\u00fcr die Bits in der Nutzlast zu generieren. Dann vergleichen sie diese neuen Hypothesen. Dieser iterative Prozess wird fortgesetzt, bis die beiden Decoder dieselbe Hypothese f\u00fcr die m-Bit-Muster der Nutzlast, typischerweise in 15 bis 18 Zyklen.Es kann eine Analogie zwischen diesem Prozess und dem L\u00f6sen von Querverweisr\u00e4tseln wie Kreuzwortr\u00e4tsel oder Sudoku gezogen werden. Betrachten Sie ein teilweise abgeschlossenes, m\u00f6glicherweise verst\u00fcmmeltes Kreuzwortr\u00e4tsel. Zwei R\u00e4tsell\u00f6ser (Decoder) versuchen es zu l\u00f6sen: einer besitzt nur die “Ab” -Hinweise (Parit\u00e4tsbits) und der andere nur die “\u00dcber” -Hinweise. Zu Beginn erraten beide L\u00f6ser die Antworten (Hypothesen) auf ihre eigenen Hinweise und notieren, wie sicher sie in jedem Buchstaben sind (Nutzlastbit). Anschlie\u00dfend vergleichen sie Notizen, indem sie Antworten und Vertrauensbewertungen miteinander austauschen und feststellen, wo und wie sie sich unterscheiden. Basierend auf diesem neuen Wissen liefern beide aktualisierte Antworten und Vertrauensbewertungen und wiederholen den gesamten Prozess, bis sie zur gleichen L\u00f6sung konvergieren.Performance[edit]Turbo-Codes weisen aufgrund der attraktiven Kombination des zuf\u00e4lligen Auftretens des Codes auf dem Kanal zusammen mit der physikalisch realisierbaren Decodierungsstruktur eine gute Leistung auf. Turbo-Codes sind von einer Fehleruntergrenze betroffen.Praktische Anwendungen mit Turbocodes[edit]Telekommunikation:Bayesianische Formulierung[edit]Unter dem Gesichtspunkt der k\u00fcnstlichen Intelligenz k\u00f6nnen Turbocodes als ein Beispiel f\u00fcr die Verbreitung von schleifenhaften \u00dcberzeugungen in Bayes’schen Netzwerken betrachtet werden.[5]Siehe auch[edit]Verweise[edit]^ Joachim Hagenauer, Joachim; et al. “Iterative Decodierung von Bin\u00e4rblock- und Faltungscodes” (PDF). Archiviert von das Original (PDF) am 11. Juni 2013. Abgerufen 20. M\u00e4rz 2014.^ Berrou, Claude; Glavieux, Alain; Thitimajshima, Punya, Near Shannon Limit Error – Korrekturabgerufen 11. Februar 2010^ Berrou, Claude, Die zehn Jahre alten Turbocodes werden in Betrieb genommen, Bretagne, Frankreichabgerufen 11. Februar 2010^ Digital Video Broadcasting (DVB); Interaktionskanal f\u00fcr Satellitenverteilungssysteme, ETSI EN 301 790, V1.5.1, Mai 2009.^ McEliece, Robert J.; MacKay, David JC; Cheng, Jung-Fu (1998), “Turbo-Decodierung als Instanz von Perles” Glaubensausbreitungs “-Algorithmus” (PDF), IEEE Journal zu ausgew\u00e4hlten Bereichen der Kommunikation, 16 (2): 140\u2013152, doi:10.1109 \/ 49.661103, ISSN 0733-8716.Externe Links[edit]“Den perfekten Code schlie\u00dfen”, IEEE Spectrum, M\u00e4rz 2004“Der UMTS-Turbo-Code und eine effiziente Decoder-Implementierung, die f\u00fcr softwaredefinierte Funkger\u00e4te geeignet ist” ((Internationales Journal f\u00fcr drahtlose Informationsnetzwerke)Dana Mackenzie (2005), “Bring es an die Grenzen”, Neuer Wissenschaftler, 187 (2507): 38\u201341, ISSN 0262-4079. ((Vorschau, Kopieren)“Das Limit \u00fcberschreiten”, ein Wissenschaftsnachrichten Feature \u00fcber die Entwicklung und Entstehung von TurbocodesInternationales Symposium \u00fcber TurbocodesCodierte Modulationsbibliothek, eine Open-Source-Bibliothek zur Simulation von Turbocodes in Matlab“Turbo Equalization: Prinzipien und neue Ergebnisse”, ein IEEE-Transaktionen zur Kommunikation Artikel \u00fcber die Verwendung von Faltungscodes zusammen mit dem Kanalausgleich.IT ++ Homepage IT ++ ist eine leistungsstarke C ++ – Bibliothek, die insbesondere Turbocodes unterst\u00fctztTurbo-Code-Ver\u00f6ffentlichungen von David MacKayAFF3CT-Homepage (A Fast Forward Error Correction Toolbox) f\u00fcr Hochgeschwindigkeits-Turbocodesimulationen in SoftwareTurbo-Code von Dr. Sylvie Kerou\u00e9dan und Dr. Claude Berrou (Scholarpedia.org).3GPP LTE Turbo Referenzdesign.Sch\u00e4tzen Sie die Turbo Code BER-Leistung in AWGN (MatLab).Parallele verkettete Faltungscodierung: Turbo-Codes (MatLab Simulink)Weiterf\u00fchrende Literatur[edit]Ver\u00f6ffentlichungen[edit]Battail, G\u00e9rard. “Ein konzeptioneller Rahmen f\u00fcr das Verst\u00e4ndnis von Turbocodes.” IEEE Journal on Selected Areas in Communications 16.2 (1998): 245\u2013254.Brejza, Matthew F. et al. “20 Jahre Turbo-Codierung und energiebewusste Designrichtlinien f\u00fcr drahtlose Anwendungen mit eingeschr\u00e4nkter Energieversorgung.” IEEE Communications Surveys & Tutorials 18.1 (2016): 8\u201328.Garz\u00f3n-Boh\u00f3rquez, Ronald, Charbel Abdel Nour und Catherine Douillard. “Verbesserung der Turbo-Codes f\u00fcr 5G mit Interleavern mit eingeschr\u00e4nkter Parit\u00e4tspunktion.” Turbocodes und iterative Informationsverarbeitung (ISTC), 9. Internationales Symposium 2016 \u00fcber. IEEE, 2016. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki10\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki10\/2020\/12\/24\/turbo-code-wikipedia\/#breadcrumbitem","name":"Turbo-Code – Wikipedia"}}]}]