H.261 – Wikipedia

Videokomprimierungsstandard

H.261
Status Veröffentlicht
Jahr begonnen 1988
Letzte Version (03/93)
Organisation ITU-T, Hitachi, PictureTel, NTT, BT, Toshiba usw.
Komitee ITU-T Studiengruppe 16 VCEG (damals: Fachgruppe Coding for Visual Telephony)
Zugehörige Normen H.262, H.263, H.264, H.265, H.266, H.320
Domain Video-Kompression
Webseite https://www.itu.int/rec/T-REC-H.261

H.261 ist ein ITU-T-Videokompressionsstandard, der erstmals im November 1988 ratifiziert wurde.[1][2] Es ist das erste Mitglied der H.26x-Familie von Videocodierungsstandards im Bereich der ITU-T Study Group 16 Video Coding Experts Group (VCEG, dann Specialists Group on Coding for Visual Telephony) und wurde mit einer Reihe von Unternehmen, darunter Hitachi, PictureTel, NTT, BT und Toshiba. Es war der erste praktisch brauchbare Videocodierungsstandard.

H.261 wurde ursprünglich für die Übertragung über ISDN-Leitungen entwickelt, bei denen die Datenraten ein Vielfaches von 64 kbit/s betragen. Der Codierungsalgorithmus wurde so konzipiert, dass er mit Video-Bitraten zwischen 40 kbit/s und 2 Mbit/s arbeiten kann. Der Standard unterstützt zwei Videobildgrößen: CIF (352×288 Luma mit 176×144 Chroma) und QCIF (176×144 mit 88×72 Chroma) mit einem 4:2:0 Sampling-Schema. Es verfügt auch über einen abwärtskompatiblen Trick zum Senden von Standbildern mit einer Auflösung von 704 × 576 Luma und einer Auflösung von 352 × 288 Chroma (der 1993 in einer späteren Überarbeitung hinzugefügt wurde).

Geschichte[edit]

Die diskrete Kosinustransformation (DCT), eine Form der verlustbehafteten Kompression, wurde erstmals 1972 von Nasir Ahmed vorgeschlagen.[3] Ahmed entwickelte 1973 mit T. Natarajan und KR Rao einen funktionierenden Algorithmus,[3] und veröffentlichte es 1974.[4][5] DCT wurde später die Basis für H.261.[6]

Der erste digitale Videocodierungsstandard war H.120, der 1984 von der CCITT (jetzt ITU-T) entwickelt wurde.[7] H.120 war in der Praxis nicht brauchbar, da seine Leistung zu gering war.[7] H.120 basierte auf differentieller Pulscode-Modulation (DPCM), die eine ineffiziente Kompression aufwies. In den späten 1980er Jahren begannen eine Reihe von Unternehmen mit der viel effizienteren DCT-Kompression für die Videocodierung zu experimentieren, wobei die CCITT 14 Vorschläge für DCT-basierte Videokompressionsformate erhielt, im Gegensatz zu einem einzigen Vorschlag, der auf der Vektorquantisierungskompression (VQ) basiert . Anschließend wurde der H.261-Standard basierend auf der DCT-Komprimierung entwickelt.[6]

H.261 wurde von der CCITT Study Group XV Specialists Group on Coding for Visual Telephony (die später Teil von ITU-T SG16 wurde) unter dem Vorsitz von Sakae Okubo von NTT entwickelt.[8] An der Entwicklung waren eine Reihe von Unternehmen beteiligt, darunter Hitachi, PictureTel, NTT, BT und Toshiba.[9] Seit H.261 wurde die DCT-Komprimierung von allen folgenden wichtigen Videocodierungsstandards übernommen.[6]

Während H.261 1984 H.120 als digitaler Videocodierungsstandard vorausging (der 1988 ebenfalls einer Überarbeitung von einiger historischer Bedeutung unterzogen wurde), war H.261 der erste wirklich praktikable digitale Videocodierungsstandard (in Bezug auf die Produktunterstützung). in erheblichen Mengen). Tatsächlich haben alle nachfolgenden internationalen Videocodierungsstandards (MPEG-1 Teil 2, H.262/MPEG-2 Teil 2, H.263, MPEG-4 Teil 2, H.264/MPEG-4 Teil 10 und HEVC) eng an das H.261-Design angelehnt. Darüber hinaus sind die Methoden, die das H.261-Entwicklungskomitee verwendet, um den Standard gemeinsam zu entwickeln, der grundlegende Arbeitsprozess für die nachfolgende Standardisierungsarbeit in diesem Bereich geblieben.[8]

Obwohl H.261 erstmals 1988 als Standard genehmigt wurde, fehlten in der ersten Version einige wichtige Elemente, die erforderlich waren, um eine vollständige Interoperabilitätsspezifikation zu erstellen. Verschiedene Teile davon wurden als “Under Study” gekennzeichnet.[2] Es wurde später im Jahr 1990 überarbeitet, um die verbleibenden notwendigen Aspekte hinzuzufügen,[10] und wurde dann 1993 erneut überarbeitet.[11] Die Überarbeitung von 1993 fügte einen Anhang D mit dem Titel “Standbildübertragung” hinzu, der eine abwärtskompatible Möglichkeit zum Senden von Standbildern mit einer Auflösung von 704 × 576 Luma und einer Auflösung von 352 × 288 Chroma bot, indem eine gestaffelte 2: 1-Unterabtastung horizontal und vertikal zum Trennen verwendet wurde das Bild in vier Teilbilder, die nacheinander gesendet wurden.[11]

H.261-Design[edit]

Die grundlegende Verarbeitungseinheit des Designs wird Makroblock genannt, und H.261 war der erste Standard, in dem das Makroblockkonzept auftauchte. Jeder Makroblock besteht aus einem 16×16-Array von Luma-Samples und zwei entsprechenden 8×8-Arrays von Chroma-Samples unter Verwendung von 4:2:0-Sampling und einem YCbCr-Farbraum. Der Codierungsalgorithmus verwendet eine Mischung aus bewegungskompensierter Inter-Picture-Prediction und Spatial-Transformation-Codierung mit skalarer Quantisierung, Zick-Zack-Abtastung und Entropiecodierung.

Die Prädiktion zwischen Bildern reduziert die zeitliche Redundanz, wobei Bewegungsvektoren verwendet werden, um die Bewegung zu kompensieren. Während in H.261 nur ganzzahlige Bewegungsvektoren unterstützt werden, kann ein Unschärfefilter auf das Vorhersagesignal angewendet werden – um den Mangel an Bruchteil-Abtast-Bewegungsvektor-Präzision teilweise zu mildern. Eine Transformationscodierung unter Verwendung einer 8×8 diskreten Kosinustransformation (DCT) reduziert die räumliche Redundanz. Das in dieser Hinsicht weit verbreitete DCT wurde 1974 von N. Ahmed, T. Natarajan und KR Rao eingeführt.[12] Anschließend wird eine skalare Quantisierung angewendet, um die Transformationskoeffizienten auf die geeignete Genauigkeit zu runden, die durch einen Schrittgrößensteuerparameter bestimmt wird, und die quantisierten Transformationskoeffizienten werden zick-zack-getastet und entropiekodiert (unter Verwendung eines “Run-Level”-Codes variabler Länge) zu statistische Redundanz entfernen.

Der H.261-Standard spezifiziert eigentlich nur, wie das Video dekodiert wird. Den Entwicklern von Encodern war es freigestellt, ihre eigenen Codierungsalgorithmen (wie ihre eigenen Bewegungsschätzungsalgorithmen) zu entwerfen, solange ihre Ausgabe richtig eingeschränkt war, damit sie von jedem gemäß dem Standard hergestellten Decoder decodiert werden konnte. Codierern steht es auch frei, jede gewünschte Vorverarbeitung ihres Eingangsvideos durchzuführen, und Decodierer dürfen jede gewünschte Nachverarbeitung ihres decodierten Videos vor der Anzeige durchführen. Eine effektive Nachbearbeitungstechnik, die zu einem Schlüsselelement der besten H.261-basierten Systeme wurde, wird Deblocking-Filterung genannt. Dies reduziert das Auftreten von blockförmigen Artefakten, die durch die blockbasierte Bewegungskompensation und die räumlichen Transformationsteile des Designs verursacht werden. Tatsächlich ist das Blockieren von Artefakten wahrscheinlich ein bekanntes Phänomen für fast jeden, der sich digitale Videos angesehen hat. Die Deblocking-Filterung ist inzwischen ein integraler Bestandteil der neueren Standards H.264 und HEVC (obwohl selbst bei Verwendung dieser neueren Standards zusätzliche Nachbearbeitungen noch erlaubt sind und die visuelle Qualität bei guter Ausführung verbessern können).

Designverfeinerungen, die in späteren Standardisierungsbemühungen eingeführt wurden, haben zu erheblichen Verbesserungen der Komprimierungskapazität im Vergleich zum H.261-Design geführt. Dies hat dazu geführt, dass H.261 im Wesentlichen veraltet ist, obwohl es in einigen Videokonferenzsystemen (wie H.323) und für einige Arten von Internetvideo immer noch als Abwärtskompatibilitätsmodus verwendet wird. H.261 bleibt jedoch ein wichtiger historischer Meilenstein im Bereich der Videocodierungsentwicklung.

Softwareimplementierungen[edit]

Der LGPL-lizenzierte libavcodec enthält einen H.261-Encoder und -Decoder. Es wird vom kostenlosen VLC Media Player und MPlayer Multimedia Playern sowie in ffdshow- und FFmpeg-Decoderprojekten unterstützt.

Patentinhaber[edit]

Folgende Firmen haben Patente zur Entwicklung des H.261-Formats beigetragen:[13]

Siehe auch[edit]

Verweise[edit]

  1. ^ “(Nokia Positionspapier) Überlegungen zu Webarchitektur und Codecs für audiovisuelle Dienste” (PDF). H.261, das (in seiner ersten Version) im November 1988 ratifiziert wurde.
  2. ^ ein B ITU-T (1988). “H.261 : Videocodec für audiovisuelle Dienste bei px 384 kbit/s – Empfehlung H.261 (11/88)”. Abgerufen 2010-10-21.
  3. ^ ein B Ahmed, Nasir (Januar 1991). „Wie ich auf die diskrete Kosinustransformation kam“. Digitale Signalverarbeitung. 1 (1): 4–5. mach:10.1016/1051-2004(91)90086-Z.
  4. ^ Ahmed, Nasir; Natarajan, T.; Rao, KR (Januar 1974), “Diskrete Kosinustransformation”, IEEE-Transaktionen auf Computern, C-23 (1): 90–93, doi:10.1109/TC.1974.223784
  5. ^ Rao, KR; Yip, P. (1990), Diskrete Kosinustransformation: Algorithmen, Vorteile, Anwendungen, Boston: Akademische Presse, ISBN 978-0-12-580203-1
  6. ^ ein B C Ghanbari, Mohammed (2003). Standard-Codecs: Bildkomprimierung zu erweiterter Videocodierung. Institut für Technik und Technologie. S. 1–2. ISBN 9780852967102.
  7. ^ ein B “Die Geschichte der Videodateiformate Infografik”. RealNetworks. 22. April 2012. Abgerufen 5. August 2019.
  8. ^ ein B S. Okubo, „Referenzmodell-Methodik – Ein Werkzeug zur kollaborativen Erstellung von Videocodierungsstandards“, Verfahren des IEEE, Bd. 83, Nr. 2, Feb. 1995, S. 139–150
  9. ^ “ITU-T-Empfehlung zum Patent erklärt”. ITU. Abgerufen 12. Juli 2019.
  10. ^ ITU-T (1990). “H.261 : Videocodec für audiovisuelle Dienste bei px 64 kbit/s – Empfehlung H.261 (12/90)”. Abgerufen 2015-12-10.
  11. ^ ein B ITU-T (1993). “H.261 : Videocodec für audiovisuelle Dienste bei px 64 kbit/s – Empfehlung H.261 (03/93)”. Abgerufen 2015-12-10.
  12. ^ N. Ahmed, T. Natarajan und KR Rao, “Diskrete Kosinustransformation”, IEEE-Transaktionen auf Computern, Jan. 1974, S. 90-93; PDF Datei.
  13. ^ “ITU-T-Empfehlung zum Patent erklärt”. ITU. Abgerufen 12. Juli 2019.
  14. ^ “Patenterklärungserklärung registriert als H261-07”. ITU. Abgerufen 11. Juli 2019.

Externe Links[edit]