Diplomarbeit über Bildqualitätsbeurteilung  
     
Homepage
 
Vorwort
Zusammenfassung
Inhalt
Einleitung / Kapitel 1
Kapitel 2
Kapitel 3
Kapitel 4
Kapitel 5
Kapitel 6
Kapitel 7
Kapitel 8
Kapitel 9
Kapitel 10
Kapitel 11
Kapitel 11
Abkürzungen
Literaturverzeichnis

QoS-Parameter für die Übertragung

Einführung

Die digitale Echtzeitübertragung von Audio- und Videodaten stellt bisher noch nicht dagewesene Anforderungen an die Rechenleistung von Prozessoren und die Eigenschaften der Übertragungsbnetze und es müssen verschiedene Aufgaben gelöst werden, bevor eine befriedigende Lösung weitverbreitet verfügbar wird. Digitales Video stellt dabei bei weitem die höchsten Ansprüche an die Übertragung: es braucht eine grosse Bandbreite, es muss mit minimaler Verzögerung übertragen werden und toleriert keine hohe Fehlerrate.

Auch nach der Komprimierung und Codierung benötigt eine Videoübertragung in Broadcastqualität immer noch 4 bis 10 MBit/s; das ist eine unannehmbar hohe Datenrate für die heute verfügbaren lokalen Netze (LANs) und die meisten grösseren Netze (WANs).

Verzögerungen bei Videodaten sind deshalb kritisch, weil die Einzelbilder mit einer Rate von 25 (bzw. 30) Bilder/s dargestellt werden müssen. Echtzeitübertragungen vertragen insbesondere keine Schwankungen der absoluten Verzögerungszeit der einzelnen Frames, wie sie aber bei den meisten verfügbareb Netzen üblicherweise auftreten.

Kommunikationsnetze sind ausserdem nie fehlerfrei und stören so die Übertragung, indem zum Beispiel einzelne Bits verfälscht werden oder ganze Pakete verloren gehen, was sich wiederum störend auswirkt, da das komprimierte Videosignal auf Fehler besonders anfällig ist, weil die örtliche und zeitliche Redundanz zuvor entfernt wurde.

Die vom Kommunikationsnetz zur Verfügung gestellte Leistung hängt von verschiedenen Parametern wie Datenrate, Verzögerung, Verzögerungsschwankungen und Fehlerwahrscheinlichkeit ab, die als Quality of Service-Parameter (QoS-Parameter) bezeichnet werden. Viele der bestehenden Netze garantieren dem Benutzer aber keine bestimmten Grenzen für die QoS-Parameter, was bedeutet, dass diesesich in unvorhersehbarer Weise ändern können (eine Ausnahme ist z. B. B-ISDN über ATM, bei dem bei Verbindungsaufbau die QoS-Parameter ausgehandelt werden).

Um einen zuverlässigen und effektiven Videokommunikationsdienst über diverse Netze anbieten zu können, ist es wichtig, die QoS-Anforderungen von codierten Videosignalen zu untersuchen. Nachfolgend befasse ich mich mit einigen wichtigen Aspekten in diesem Zusammenhang und es wird sich herausstellen, dass es nicht möglich ist, alle Anforderungen zu erfüllen, da sie sich zum Teil widersprechen.

Anforderungen der Videoqualität

Zuerst sollen die idealen" Übertragungsanforderungen für digitales Video betrachtet werden, also die Höhe der Qualitätsstufe, die die digitalen Netze zur Verfügung stellen sollen.

Bildqualität

In einem idealen digitalen Videokommunikationssystem sollte die vom Benutzer wahrgenommene Bildqualität weder vom Codec noch von der Übertragungsmedium abhängen. Wie wir später sehen werden, ist das nicht möglich, da diese beiden Faktoren in der Praxis eine Signalverschlechterung erzeugen, die zusätzlich zu den Begrenzungen von Aufnahmespeicherung (Recorder) und Darstellung (Display, Monitor) auftreten.

Wenn wir hinnehmen, dass ein solches System die Videoqualität auf einer bestimmten Stufe ansetzt, dann sollte diese über die gesamte Übertragungsdauer auch konstant sein. Ausserdem sollte die dargestellte Qualität unabhängig vom Szeneninhalt und vom momentanen Systemzustand sein. In Wirklichkeit kann der Szeneninhalt eine bedeutende Auswirkung auf die momentane Datenrate haben und die Videoqualität kann vom momentanen Zustand des Übertragungsnetzes (Verkehrswert) abhängen.

Sichtbare Fehler

Idealerweise sollte eine decodierte Videosequenz keine Verschlechterungen zeigen aufgrund von Fehlern oder Verlusten im Kommunikationssystem (Rauschen -> Bitfehler, verlorene Pakete, fehlgeleitete Pakete, Überlast -> Zerstörung von Zellen etc).

Das menschliche visuelle Wahrnehmunssystem (Human Visual Model, HVS) reagiert sehr empfindlich auf Fehler oder Verschlechterungen in der Bildinformation. Ein Fehler, der nur in einem einzelnen Bild (Frame) auftritt, ist für 1/25 s (bzw. 1/30 s) sichtbar und wird keinen grossen Einfluss auf den Zuschauer haben, es sei denn er betrifft einen sehr grossen Bildbereich. Wenn viele solcher Einzelfehler in einer Sequenz auftreten, wird es als Flimmern wahrgenommen und wirkt störender. Wirkt sich ein Fehler oder eine Signalverschlechterung über mehrere Frames hinweg aus, ist es sehr wahrscheinlich, dass dies vom Betrachter wahrgenommen und auch beanstandet wird.

Ein Videokommunikationssystem sollte versuchen, das Erscheinen von Fehlern durch die Übertragung oder die Datenreduktion im Bild möglichst klein zu halten, besonders bei Fehlern die sich auf mehrere decodierte Bilder auswirken.

Verzögerung

Die Verzögerung ist ein wichtiger Faktor bei der Darstellung von Echtzeitdaten wie digitalem Video und die Gesamtverzögerungszeit des Systems ist besonders bedeutend bei der Zweiwegkommunikation (z. B. Videotelefonie). Idealerweise sollten in beide Richtungen keine wahrnehmbaren Verzögerungen auftreten. Jede deutlich merkliche Verzögerung führt zu Kommunikationsschwierigkeiten, z. B. wird eine normale Unterhaltung sehr schwierig, wenn die Verzögerung 300 ms überschreitet. Wenn zusätzlich der Ton dem Bild vor- oder nacheilt, verliert der Benutzer die Synchronisation (z. B. die Lippensynchronisation beim Reden).

Für viele verwendete oder sich in Planung befindliche Videodienste (Video on Demand, Homeshopping etc.) ist es wichtig, dass keine merkliche Verzögerung zwischen den Steuerbefehlen des Benutzers und der Reaktion des Dienstes auftritt.

Bei Einwegübertragungen (z. B. digitales Satellitenfernsehen) ist die Gesamtverzögerungszeit nicht so bedeutend, umso mehr muss darauf geachtet werden, dass keine Schwankungen der absoluten Verzögerung auftreten. Da jede Bild- und Toninformation dem Anwender mit einer konstanten Rate präsentiert werden muss, müssen eventuelle Schwankungen vor der Darstellung ausgeglichen werden.

Qualitätsanforderungen an ein Videoübertragungssystem

Ein Videoübertragungssystem ist dafür verantwortlich, dass die Videodaten von einem Ende bis zum anderen gelangen. Der QoS bezieht sich auf die Dienstebene, die der Videoanwendung vom Transportsystem zur Verfügung gestellt wird und ist gekennzeichnet durch die Bandbreite, die Fehlerrate und die Verzögerung. Das Transportsystem kann begrifflich in ein unterliegendes Netzwerk und ein Ende-zu-Ende Transportprotokoll aufgeteilt werden. Letzteres verbessert den QoS des unterliegenden Netzwerks, um den Ansprüchen des Dienstes zu genügen und dessen Komplexität ist abhängig von der Fehlanpassung des gebotenen und gewünschten QoS. Wenn das Netzwerk schon die geforderten Bedingungen bezüglich QoS erfüllt, benötigt es kein weiteres Transportprotokoll.

Zum Beispiel wird innerhalb des Internets TCP als Ende-zu-Ende Protokoll verwendet, um den durch das Netzwerk zur Verfügung gestellten QoS an den von den Anwendungen geforderten anzupassen.

Wenn Resourcen für jede Verbindung innerhalb eines paketvermittelten Netzes reserviert werden, ist es möglich, Garantien für die maximale Verzögerung und minimale Bandbreite abzugeben (z. B. B-ISDN über ATM).

QoS für encodiertes Video

Die heute verfügbaren Kommunikationsnetze besitzen Begrenzungen beim QoS. Nachfolgend werden die Auswirkungen dieser Grenzen bei der Übertragung von codierten Videosequenzen untersucht.

Datenübertragungsrate

Die verfügbare Datenübertragungsrate hat signifikante Auswirkungen auf die Qualität der codierten Videodaten. Gängige Videocodierverfahren sind üblicherweise verlustbehaftet, was bedeutet, dass zum Teil wichtige Daten bei der Encodierung und Kompression verloren gehen. Bei jedem verlustbehafteten Videocodierverfahren ist im allgemeinen die durchschnittliche Bitrate der codierten Daten proportional zur decodierten Darstellungsqualität. Bei einem DCT-basierten Videocodec (z. B. MPEG 1, MPEG2, H.261, H.263) tritt der Qualitätsverlust beim Quantisieren auf. Eine gröbere Quantisierung führt zu einer schlechteren Bildqualität nach der Decodierung, gleichzeitig findet aber auch eine höhere Komprimierung statt und es resultiert eine geringere Datenrate. Somit ist die Quantisierungsauflösung ein Schlüsselparameter für die Kontrolle der Videobitrate.

Übertragung bei konstanter Bitrate (Constant Bit Rate Transmission)

Viele etablierte Videokommunikationssysteme benutzen einen Kanal mit fester Datenrate (z. B. ISDN-B-Kanal, Fernsehkanal), deshalb muss das codierte Signal mit einer konstanten Datenrate (CBR) übertragen werden. Dies bringt aber Probleme mit sich, da die mit fast allen gängigen Methoden codierten Videodaten hochgradig schwankende Datenraten besitzen. Namentlich die mit einem auf DCT-basierten Verfahren codierten Datenströme wachsen bei Bildern mit hoher Detailauflösung oder Sequenzen mit viel Bewegung stark an. Bei wenig Details und keiner oder wenig Bewegung hingegen wird die Datenrate sehr gering. Schlussendlich produzieren die verschiedenen Codierverfahren (z. B. nach dem MPEG Standard) ihrerseits variable Datenmengen. Bekannterweise sind I-Bilder am wenigsten, P-Bilder stärker und B-Bilder am stärksten komprimiert und entsprechend schwankt bei einer GOP von 12 (z. B. I; B; B; B; P; B; B; B; P; B; B; B; I) die Datenrate.

Damit nun diese alles andere als statische Datenrate in einem Kanal mit konstanter Bandbreite untergebracht werden kann, werden die Daten vor der Übertragung in einem Pufferspeicher zwischengelagert und mit konstanter Rate ausgelesen. Somit werden die kurzzeitigen Änderungen ausgeglättet. Um auch längerfristige Schwankungen auszugleichen müssten grössere Pufferspeicher verwendet werden. Da dies aus Gründen der Verzögerungszeit meist nicht machbar ist, verwendet man eine Rückkopplung zum Quantisierer. Abhängig von der freien Kanalkapazität wird durch Veränderung der Grösse der Quantisierungsschritte die Datenrate entsprechend reguliert.

Das bedeutet, dass die Qualität des anschliessend decodierten Videosignals nicht konstant ist und sich in Abhängigkeit der Datenmenge am Ausgang des Quantisierers verändert. Dummerweise wird aber gerade dann die Quantisierung vergröbert, wenn eine feinere Auflösung nötig wäre. Denn die grösste Datenmenge fällt offensichtlich dann an, wenn die Sequenz viele feine Strukturen oder starke Bewegungsabläufe enthält.

Übertragung mit veränderlicher Bitrate (Variable Bit Rate Transmission)

Paketvermittelte Netzwerke können die Übertragung mit veränderlicher Datenrate (VBR) unterstützen. Dieses Verfahren bietet einige Vorteile gegenüber dem mit CBR. Auf DCT-Basis encodierte Videodaten liefern z. B. eine konstante Bildqualität beim Empfänger, da die Quantisierungsschritte immer konstant gehalten werden können. Allerdings kann es auch hier zu Problemen kommen, wenn z. B. viele Szenenwechsel oder schnelle Bewegungsabläufe die momentane Datenrate derart stark anwachsen lassen, dass die ausgehandelte maximale Datenrate im Kanal überschritten wird. Es müssen also auch hier Vorkehrungen getroffen werden, dass erstens die Bildqualität in einem solchen Fall nicht leidet und zweitens trotzdem eine effiziente Nutzung der vorhandenen Resourcen stattfindet.

Fehler und Verluste

Die in der Praxis anzutreffenden Kommunikationsnetze verfälschen die zu übertragenden Daten, indem sie Information verändern oder verlieren. Sogar eine relativ niedrige Fehlerrate oder ein sehr geringer Datenverlust kann eine ernsthafte Auswirkung auf die decodierten Sequenzen haben. Kompressionsalgorithmen entfernen viel von der vorher vorhandenen örtlichen und zeitlichen Redundanz im Signal, was viel schneller zu Problemen führt, wenn das codierte Signal verfälscht wird als dies beim uncodierten der Fall wäre.

Innerhalb eines Frames von codierten MPEG-Videodaten werden die quantisierten DCT-Koeffizienten mit variablen Lauflängencodes (VLCs) codiert. Der Decoder weiss die Länge des aktuellen VLCs von vornherein nicht; wenn jetzt einer beschädigt wird, ist es möglich, dass der Decoder eine gesamte Subsequenz falsch decodiert.

Zusätzlich werden einige Daten (z. B. DC-Koeffizienten und Bewegungsvektoren bei MPEG) nicht unabhängig (I-Frames) sondern relativ zu vorhergehenden (P-Frames) oder sogar zukünftigen (B-Frames) Daten codiert. Somit führt ein Fehler in einem I-Frame auch zu Folgefehlern in davon abhängigen P- und B-Frames. Für solche Fälle sind im encodierten Bitstrom in regelmässigen Abständen Markierungen vorhanden, die dem Decoder die korrekte Synchronisation ermöglichen. Solch ein Fehler kann quer durch einen Frame seine Auswirkungen haben, bis die nächste Markierung erreicht wird (Bild 3.1).

Bewegungskompensierte zeitliche Prädiktion kann dazu führen, dass sich der Fehler sowohl zeitlich als auch örtlich fortpflanzt. Wie unter 3.1.1.2 besprochen, sind Fehler für den Betrachter sehr augenfällig, die eine wichtige Stelle im Bild betreffen oder wenn sie sich über mehrere Bilder hinweg ausbreiten. Aus diesem Grund kann ein encodiertes Videosignal nur eine sehr niedrige Fehlerrate tolerieren, bevor die Qualität merklich abfällt. Eine Fehlerwahrscheinlichkeit von mehr als 10-6 (das heisst ein Fehler auf 106 Bits) kann schon einen bemerkbaren Qualitätsverlust bedeuten.

Verzögerung

Verschiedene Faktoren tragen zur Gesamtverzögerungszeit in einem Videokommunikationssystem bei. Die erste Verzögerung führt die Encodierung ein. In einem blockbasierten Codierungsschema (wie den DCT-basierten Kompressionen) müssen einige Zeilen eines Frames gespeichert werden, bevor jede Reihe von Blocks codiert und übertragen werden kann (meist sind dies 8 oder 16 Zeilen, da die Blockgrösse 8 x 8 oder 16 x 16 Pixel umfasst).Diese Speicherung erzeugt eine Verzögerung von einigen Millisekunden. Die Pufferspeicherung vor der Übertragung in einem CBR-Encoder fügt eine zusätzliche Verzögerung ein, die proportional zur Grösse des Speichers ist. Es gilt demnach einen Kompromiss zu finden zwischen einem grossen Pufferspeicher, der geringere Datenraten am Ausgang erlaubt, oder einem kleineren, der den Vorteil von weniger Verzögerungszeit bietet.

Bidirektionale Prädiktion - wie sie bei MPEG vorkommt - erhöht die Verzögerung weiter, da die Frames vor und nach einem Set von B-Frames gespeichert werden müssen, bevor die Codierung beginnen kann. Sind dies wie im Beispiel weiter oben 3 Frames (I; B; B; B; P; ...), müssen insgesamt 5 Frames zwischengespeichert werden und es entsteht eine Verzögerung von etwa 160 ms.

Als nächstes entsteht eine weitere Verzögerung durch das Übertragungsmedium. Diese kann entweder konstant und voraussagbar sein (z. B. bei ISDN) oder aber variabel (z. B. in einem IP-Netzwerk wie dem Internet).

Die letzte Verzögerung wird durch den Decoder herbeigeführt. Um eine mögliche Verzögerungsschwankung des Übertragungsnetzes auszugleichen, muss wiederum ein Pufferspeicher verwendet werden. Zusätzlich müssen bei der Verwendung von P- und B-Bildern wieder Frames zwischengespeichert werden. Da im Encoder eine Umsortierung vor der Übertragung vorgenommen wird (Reihenfolge: I; P; B; B; B; ...), beschränkt sich die Verzögerung aber auf nur einen Frame.

Bei einem Zweiweg-Videokommunikationssystem ist die Gesamtverzögerungszeit sehr kritisch. Beträgt diese mehr als 300 ms, wird eine natürliche" Konversation schwierig.

Bei einem Einweg-Videokommunikationssystem ist hingegen die Variation der Verzögerungszeiten kritischer. Je grösser diese ist, umso grösser muss der Eingangspufferspeicher des Decoders sein. Bei sehr grossen Schwankungen können die Kosten des letzteren ins Gewicht fallen.

Für tiefergehende Informationen über QoS von Übertragungsnetzen, im speziellen auch bei ATM-Neten, verweise ich auf [5], [14], [15], [16], [17].

 
Homepage
Zurück Top Weiter
 
Diese Seite verwendet keine Frames !
e-mail: Alexander Braun Diese Seite wurde auf einem A4000 gestaltet 31. Juli 1998