Streaming hat die Welt erobert.
Laut Grand View Research beläuft sich das Volumen des globalen Marktes für Live-Streaming im Jahre 2020 auf 50,1 Mrd. US-Dollar und soll bis 2028 um durchschnittlich 21% pro Jahr wachsen.
Je größer die Menge an Videoinhalten auf dem Markt ist, desto größer ist der Wettbewerb und damit sind auch die Qualitätsanforderungen höher. Deshalb muss nicht nur der Inhalt selbst hervorragend sein, sondern auch die Ausstrahlung. Nur wenige Leute werden sich ein Video bis zum Ende ansehen, wenn es langsam lädt, in schlechter Qualität abgespielt wird oder große Verzögerungen aufweist. Alle diese Punkte hängen weitgehend davon ab, welche Streaming-Plattform Sie wählen.
Wie soll fortschrittliches Streaming im Jahre 2021 aussehen? Hier ist ein Blick auf die fünf wichtigsten Trends.
1. Minimale Verzögerungen
Stellen Sie sich vor: Sie führen ein Online-Quiz durch. Die Teilnehmer haben genau eine Minute Zeit, um eine Frage zu beantworten. Sie stechen die Kontrolluhr und hören auf die Sekunde genau mit der Einholung von Antworten auf. Aber die Hälfte der Spieler hatte keine Zeit, sie abzuschicken, weil das Quiz mit einer Verzögerung von 30 Sekunden ausgestrahlt wird. Und wenn Sie keine Zeit mehr haben, denken die Teilnehmer, sie hätten noch eine halbe Minute Zeit.
Um diese Art von Problemen zu vermeiden, sollte die Übertragung so nah wie möglich an der Echtzeit sein. Dies ist besonders wichtig für:
- Sportveranstaltungen
- Quiz und Gewinnspiele
- Online-Schulung
- Konferenzen und Live-Übertragungen
Obwohl dies nicht die einzigen Bereiche sind, in denen man versucht, die Latenzzeit so weit wie möglich zu reduzieren. Streaming mit niedriger Latenzzeit wird allmählich zu einer Voraussetzung für jede Übertragung.
Woher kommt die Verzögerung?
Um es zu verstehen, sollten Sie wissen, woraus sich eine Videoübertragung im Allgemeinen zusammensetzt.
- Eine Kamera nimmt ein Bild auf. Die Datei mit der Aufnahme wird im Speicher abgelegt.
- Das Bild wird in den Kodierpuffer übertragen.
- Der Komprimierungsalgorithmus wählt die geeignete Methode zur Komprimierung des Videos aus.
- Die Datei wird an einen Videoserver übertragen.
- Dort wird das Video neu aufbereitet und für die Übertragung über das öffentliche Internet zum endgültigen Betrachter auf seinem Gerät (Computer, Smart TV, Mobilgerät, Set-Top-Box usw.) optimiert.
- Von dort aus wird es an die Betrachter gesendet.
- Das Video gelangt zum Decoder, der Frames für das Rendering liefert.
- Das Video wird im Player des Benutzers wiedergegeben.
Um die Latenzzeit so gering wie möglich zu halten, sollten wir versuchen, die Zeit in allen Phasen zu reduzieren.
Welche Technologien gibt es für Low Latency
Low Latency Streaming ist Streaming mit einer Verzögerung von maximal 4s. Die wichtigsten Mechanismen, die derzeit dafür verwendet werden, sind Chunked CMAF, HTTP CTE, Low Latency HLS, SRT, Low Latency CDN.
Chunked CMAF
CMAF ist ein Video-Streaming-Protokoll. Es wurde im Auftrag von Apple und Microsoft im Jahre 2017 entwickelt.
Auf seiner Basis wurde ein erweitertes Format — Chunked CMAF — erstellt.
In CMAF wird das Video in Segmente (Wiedergabelisten) von 2–6 s Dauer unterteilt. Während ein Segment abgespielt wird, werden die restlichen in den Puffer geladen. Dort befinden sich in der Regel 3–4 Segmente. Und solange der Puffer nicht voll ist, wird die Wiedergabe nicht gestartet. Dies führt zu Verzögerungen von 10–30 s.
In Chunked CMAF werden die Segmente in Untersegmente (Chunks) unterteilt. Sie sind viel kürzer und können abgespielt werden, bevor die gesamte Wiedergabeliste übertragen wird. Dadurch wird die Verzögerung um ein Vielfaches reduziert.
HTTP CTE
CTE (Chunked Transfer Encoding) ist ein Datenübertragungsmechanismus im HTTP-Protokoll. Verfügbar ab HTTP 1.1.
Die Funktionsweise ist genau die gleiche wie beim Chunked CMAF. Das CTE zerlegt eine Datei in eine Anzahl kleiner Elemente. Sie können jede Größe bis hin zu einem einzelnen Datenframe haben.
Dieser Mechanismus ist sehr nützlich, wenn die endgültige Größe der gesamten Nachricht unbekannt ist. Ohne das HTTP-CTE wäre es notwendig gewesen, bei jedem Paket einen Content-Length-Header anzugeben, damit der Client das Ende finden konnte. Und bei einer Online-Sendung ist es nicht immer möglich, genau vorherzusagen, wann sie enden wird.
Beim CTE werden Fragmente zusammen mit ihrer Größe gesendet, und das Ende der Übertragung wird durch das letzte Fragment mit der Länge Null angezeigt.
HLS mit niedriger Latenzzeit
Die aktualisierte Version von HLS wird Low Latency (niedrige Latenzzeit) unterstützen. Sie unterscheidet sich von der Vorgängerversion dadurch, dass wie bei Chunked CMAF die Wiedergabelisten in kleine Teile unterteilt werden. Die minimale Chunk-Länge beträgt 200 ms.
Außerdem wurde in der neuen Version die Handhabung von Wiedergabelisten verbessert. Sie werden sofort nach Updates aktualisiert, anstatt angefordert zu werden, und es wird nur ein Teil des Fragments anstelle des gesamten Fragments gesendet. Das bedeutet, dass die ursprüngliche Wiedergabeliste gespeichert wird und der Client nur ein aktualisiertes Fragment erhält.
Wenn Low Latency HLS zusammen mit CDN verwendet wird, kann die Latenzzeit auf die gleichen 4 Sekunden reduziert werden.
SRT
Dies ist ein UDP-basiertes Übertragungsprotokoll. Es wurde durch die Firma Haivision extra für die Videoübertragung über unvorhersehbare Netzwerke entwickelt.
UDP ist ein einfacheres Protokoll als TCP. Sein Übertragungsmodell enthält keine „Handshakes“ zur Datenordnung und Integritätsprüfung. Daher liefert es Pakete schneller als TCP.
Da UDP jedoch nicht über eine ordnungsgemäße Paketreihenfolge, Integritätsprüfung und Fehlerkorrektur verfügt, kann es in unvorhersehbaren Netzwerken Daten fehlerhaft übertragen. Einige Pakete können verloren gehen und einige können in der falschen Reihenfolge ankommen.
SRT wurde entwickelt, um dieses Problem zu lösen. Es überträgt Daten genauso schnell wie UDP, aber es gibt eine Funktion zur Wiederherstellung verlorener Pakete, zur Überwachung des Netzwerkstatus und zur Korrektur von Fehlern.
Wie Integrität und korrekte Reihenfolge sichergestellt werden:
- SRT prüft jedes Paket anhand seiner Sequenznummer.
- Wenn ein neues Paket auf der Zielseite um mehr als 1 vom vorherigen abweicht, wird dieses Paket nicht zugestellt. Es wird ein Signal an den Absender gesendet, dass das Paket nicht empfangen wurde (NACK).
- Das gewünschte Paket wird erneut übertragen.
Ein solches Arbeitsprinzip ist zuverlässig und bietet somit eine höhere Übertragungsgeschwindigkeit, als bei TCP. TCP wird in ähnlicher Situation anders arbeiten. Es bestätigt gleich wie SRT den Empfang von Paketen, aber tut es nicht nach jedem Paket, sondern nach bestimmten Serien. Wenn etwas fehlt, meldet TCP den Fehler und dem Empfänger wird die gesamte Serie statt eines einzelnen Pakets erneut gesendet.
Mit SRT beträgt die Verzögerung 0,5-3 Sekunden. Dadurch wird nicht nur die Latenzzeit reduziert, sondern auch eine zuverlässige Datenübertragung gewährleistet.
CDN mit niedriger Latenz
CDN ist eine Reihe von miteinander verbundenen Servern (Points of Presence, Präsenzpunkte), die Daten von einem Quellserver abrufen, zwischenlagern und an die Endbenutzer liefern. Der Hauptzweck, für den CDN erfunden wurde, ist es, sicherzustellen, dass Inhalte reibungslos und so schnell wie möglich an eine sehr große Anzahl von Endbenutzern geliefert werden, egal ob es sich um 1 Benutzer, 1.000 oder 1.000.000+ gleichzeitig handelt.
Sie senden zum Beispiel von Deutschland aus und möchten, dass Ihr Video weltweit verfügbar ist. Mit einem CDN erhalten alle Betrachter es gleich schnell.
CDN-Server nehmen das Video vom Quellserver und liefern es an die Endbenutzer. Gleichzeitig sind die Points of Presence selbst so nah wie möglich an den Verbrauchern platziert. Dies führt zu einem ausgebauten Netzwerk mit einer großen Anzahl von Routen und Knoten.
Bei statischen Inhalten werden die Informationen, die der Benutzer zuvor angefordert hat, auf CDN-Servern zwischengespeichert und schnell für die nächsten Anfragen bereitgestellt. Im Falle von Online-Übertragungen funktioniert das CDN so:
- Der Quellserver empfängt das Video von den Kameras.
- Die Quelle überträgt sie sofort an die Präsenzpunkte.
- Von den Präsenzpunkten aus wird das Video an die nächstgelegenen Betrachter geliefert.
Die Last wird dabei gleichmäßig verteilt. Und wenn ein CDN-Server überlastet ist, können die Clients das Video vom nächstgelegenen Server abrufen. Das ist besonders wichtig, wenn Ihre Streams von Millionen von Menschen gesehen werden.
Der Standard-Caching-Mechanismus im CDN geht davon aus, dass die Inhalte auf den Festplatten als komplette, vollständige Segmente von jeweils 6-10 Sekunden gespeichert werden. Für das Online-Streaming ist dies jedoch nicht optimal: Es dauert eine Weile, bis die Inhalte von den Festplatten zurückgegeben werden, und dies führt zu Verzögerungen.
Um dies zu vermeiden, zwischenspeichern wir Videos im RAM und unterteilen die Segmente in kleinere Chunks. Auf diese Weise werden sie schneller an die Benutzer ausgeliefert.
Ultra niedrige Latenzzeit und WebRTC
Ultra Low Latency bezieht sich auf Verzögerungen innerhalb von 1s. Die wichtigste Technologie, die diese Übertragungsgeschwindigkeit bieten kann, ist WebRTC.
Es handelt sich um einen Kommunikationsstandard, der die direkte Übertragung von Videos zwischen Browsern ohne zusätzliche Erweiterungen oder Programme ermöglicht.
Die Technologie kann sowohl für Videoanrufe als auch für Online-Übertragungen verwendet werden.
Wie es funktioniert:
- Der Browser, der die Verbindung initiiert, erzeugt ein SDP-Paket — einen Satz von Informationen über die Verbindungsparameter: was übertragen wird und mit welchen Codecs, ob der Browser nur Inhalte empfängt (im Falle einer Online-Sendung) oder sowohl empfängt als auch sendet (im Falle eines Video-Chats).
- Der empfangende Browser analysiert das SDP-Paket, formt daraus sein eigenes Paket und sendet es zurück.
- Gleichzeitig analysieren die Clients den Zustand der Verbindung zum Netzwerk, die UDP-Paketübertragung wird konfiguriert.
- Sobald die notwendigen Austauschvorgänge und Einstellungen abgeschlossen sind, wird die Verbindung hergestellt und die Browser tauschen in Echtzeit Videos aus.
Daneben verwendet WebRTC auch UDP. Bei Online-Übertragungen oder Video-Chats ist die richtige Reihenfolge der Dateien nicht so relevant, da die Videoübertragung in Echtzeit erfolgt. Daher ist die Verwendung einer weniger zuverlässigen, aber einfacheren und schnelleren Verbindung in diesem Fall die beste Lösung.
Mit WebRTC ist es sehr einfach, einen Video-Chat oder eine Online-Konferenz einzurichten, da keine zusätzliche Software installiert und konfiguriert werden muss.
Da der Standard ursprünglich für Videoanrufe entwickelt wurde, ist er auf eine möglichst geringe Latenzzeit ausgelegt.
2. Sicherheit
Einzigartige Inhalte müssen gut geschützt werden. Andernfalls können Raubkopierer das Video leicht kopieren und sich aneignen oder es kostenlos online stellen. Und dann verliert Ihr Produkt seine Einzigartigkeit und Sie — den gewünschten Gewinn.
Eine moderne Streaming-Plattform muss effektive Mechanismen zum Schutz der Inhalte verwenden.
Technologien zum zuverlässigen Schutz von Informationen:
- AES 128/256 Encryption ist ein Verschlüsselungsalgorithmus, der Videos bei der Übertragung schützt.
- Tokenization and Signed URLs — einmalige sichere Links. Sie helfen einige unautorisierte Verbindungen zu Sendungen ausschließen und vor illegalem Kopieren schützen.
- DRM ist ein Komplex von Systemen, der den Zugang zu Inhalten definiert. Er garantiert eines der höchsten Schutzniveaus.
- CORS — mit dieser Technologie kann der Zugriff auf eine Ressource für eine begrenzte Anzahl von Domains ermöglicht werden. Andere haben keinen Zugriff auf den Inhalt.
Weitere Informationen zu diesen Technologien finden Sie unter „Wie man Videoinhalte effektiv schützt“.
3. Hohe Qualität und Verfügbarkeit von Video
Eine fortschrittliche Streaming-Plattform sollte die Verfügbarkeit von Sendungen bei jeder Internetverbindung gewährleisten und Videos in hoher Qualität übertragen.
Adaptives Bitrate Streaming
Adaptives Bitrate Streaming wird verwendet, um Videos für jede Qualität der Internetverbindung schnell zu machen. Dies ist eine Methode, mit der Sie die Videoqualität an die Internetgeschwindigkeit jedes einzelnen Benutzers anpassen können.
Wenn die Zuschauer eine gute Internetverbindung haben, wird die Übertragung in 4K/8K erfolgen. Wenn die Verbindung schlecht ist, ist das Video zwar immer noch verfügbar, aber in geringerer Qualität.
Dabei kann die geringere Qualität nicht für das gesamte Video, sondern für einzelne Fragmente gelten. Der Betrachter sieht zum Beispiel eine Übertragung unterwegs. In einigen Teilen der Straße wird er 4G haben, und das Video wird in höchster Qualität verfügbar sein. Und wo das mobile Internet schlechter ist, wird auch die Qualität schlechter sein.
Video-Codecs, Videokompression
Ein Video in guter Qualität hat eine große Dateigröße. Würde sie „wie sie ist“ ohne Änderungen versendet werden, würde es sehr lange dauern, bis sie die Empfänger erreicht hat. Und es gäbe keinen Platz, um eine so große Datei alleine zu speichern. Um das Video einfacher zu senden und zu speichern, wird es vor dem Senden komprimiert.
Es gibt verschiedene Methoden zur Reduzierung der Dateigröße. Man kann zum Beispiel bestimmte Elemente eines Videos entfernen: Töne oder Farbcodierung.
Dies bedeutet nicht, dass das Video definitiv von geringerer Qualität sein wird. Normalerweise werden die unwichtigen Elemente, die vom Menschen nicht wahrgenommen werden, entfernt. Zum Beispiel ist unser Auge empfindlicher für Helligkeit als für Farbe, und die Anzahl der Bits, die für die Farbkodierung vorgesehen sind, kann reduziert werden. Eine normale Person ohne professionelle Ausrüstung wird keinen Unterschied bemerken.
Wir erklären an einem einfachen Beispiel, wie es funktioniert. Stellen Sie sich vor, wir haben einen Turm aus Würfeln: unten sind 3 blaue Würfel , weiter kommen 4 grüne Würfel und oben sind 2 rote Würfel. Das ergibt 9 Würfel.
Anstatt alle 9 Würfel zu zeigen, können wir einen Würfel von jeder Farbe stehen lassen und angeben, wie viele welche Würfel es sein sollen. Statt 9 wären dann noch 3 übrig.
Das Objekt ist kleiner geworden. Aber aus den Zahlen können wir verstehen, was das Original war und den ursprünglichen Zustand wiederherstellen.
Das Gleiche passiert mit Video. Anstatt jedes Pixel zu erfassen, bestimmt der Algorithmus die Anzahl der identischen Pixel, ihre Position und speichert nur die Daten der einzigartigen Pixel.
Den Algorithmus, der für die Videokomprimierung verantwortlich ist, nennt man Videocodec. Es reduziert die Größe des Videos in Megabytes, wobei die visuelle Komponente erhalten bleibt.
Die derzeit beliebtesten Codecs sind AVC (H.264), HEVC (H.265), VP8 und VP9. Auch AV1 und VVX (H.266) werden bereits diskutiert und eingesetzt.
- AVC (H.264). Ein lizenzierter Videokompressionsstandard. Entwickelt von der ITU-T-Expertengruppe für Videocodierung zusammen mit der ISO/IEC Moving Picture Experts Group (MPEG) im Jahre 2003. Er kann die Dateigröße um mehr als 80% reduzieren, ohne die Qualität zu beeinträchtigen.
Dieser Codec ist sehr wichtig für Übertragungen mit geringer Latenzzeit. Er kann Video mit bis zu 10 Mbit/s übertragen.
Das Video wird komprimiert, indem die gleichen Elemente zusammengeführt werden. Anstatt jedes Pixel eines einfarbigen Hintergrunds zu übertragen, fasst AVC diese zu einem Makroblock zusammen und gibt an, dass das gesamte Fragment die gleiche Farbe hat. Und bei der Wiedergabe werden die Pixel so rekonstruiert, wie sie im Original angeordnet waren. Dies wird als Intraframe-Vorhersage bezeichnet.
Gleichzeitig kann der Codec Fragmente nicht nur innerhalb eines Frames zu Makroblöcken kombinieren. Es schaut durch mehrere Frames und stellt fest, dass es Bereiche darin gibt, die sich nicht ändern. Beispiel: Sie übertragen ein Webinar. Der Redner sitzt an einem Tisch und hält einen Vortrag. Bild für Bild verändert sich nur das Gesicht des Sprechers, seine Lippen bewegen sich, während der Tisch und der Hintergrund unverändert bleiben. AVC berechnet, welche Teile eines Bildes betroffen sind und überträgt diese erneut, während alles andere unverändert bleibt. Dies wird als Inter-Frame-Vorhersage bezeichnet.
Die maximale Größe von Makroblöcken beträgt 16×16.
Nun ist AVC einer der am häufigsten verwendeten Codecs. Er wird in allen Browsern und auf allen Geräten unterstützt.
- HEVC (H.265). Dieser Codec wurde als besserer Ersatz für AVC entwickelt. Der Zweck seiner Erstellung ist die Halbierung der Videogröße bei gleichbleibender Qualität. Er unterstützt Formate bis zu 8K und Auflösungen bis zu 8192×4320 Pixel.
Die Technologie ist besonders wichtig für Sendungen in 4K. So können Sie eine hohe Qualität beibehalten und gleichzeitig einen Videostream so schnell wie möglich bereitstellen.
Wie AVC nutzt auch HEVC die Intra- und Inter-Frame-Vorhersage, allerdings wesentlich effizienter. Makroblöcke können bis zu 64×64 groß sein — um Vielfaches größer als AVC. Das bedeutet, dass HEVC weniger Fragmente liefern kann und die Gesamtgröße des Videos kleiner ist.
Verschiedenen Studien zufolge übertrifft H.265 seinen Vorgänger um 35–45%. Der Codec wird auf iOS und Android, auf den meisten Set-Top-Boxen und Smart TVs unterstützt, funktioniert in Safari, Edge, Internet Explorer, wird aber nicht in Chrome und Firefox unterstützt.
- VP8. Entwickelt von On2 Technologies. Er wurde im Jahre 2008 angekündigt.
Vom Kompressionsprinzip her ist dieser Codec ähnlich wie AVC und hat ungefähr die gleiche Effizienz. Es verwendet auch Intraframe- und Interframe-Vorhersagemethoden. Die maximale Größe von Makroblöcken beträgt 16×16. Daher verliert es, genau wie AVC, sehr gegenüber HEVC in Bezug auf die Effizienz der Videoübertragung in Full HD und 4K.
VP8 beherrscht jedoch die Echtzeit-Videokomprimierung gut, weshalb er in WebRTC als Standard-Video-Codec verwendet wird.
VP8 wird von allen gängigen Browsern und Android-Geräten unterstützt. Unter iOS funktioniert sie jedoch nur in Apps von Drittanbietern.
- VP9. Ein Video-Codec, der 2013 von Google entwickelt wurde. Der evolutionäre Nachfolger des VP8-Standards. Seit 2014 wird es bei YouTube unterstützt.
VP9 ist in vielerlei Hinsicht mit HEVC vergleichbar. Beide Codecs sind gleich effizient und eignen sich hervorragend für 4K-Video-Streaming. Wie HEVC unterstützt auch VP9 Makroblöcke bis zu 64×64. Aber während diese Blöcke bei HEVC nur quadratisch sein können, ist dies bei VP9 optional — die Technologie kann auch Pixel zu einem rechteckigen Fragment zusammenfassen. Diese Blöcke können effizienter verarbeitet werden, und das verschafft VP9 einen Vorteil.
Auf der anderen Seite hat es aber nur 10 Vorhersageoptionen, während HEVC 35 hat. Die größere Anzahl von Vorhersagen gibt HEVC einen visuellen Vorteil. Es stellt sich heraus, dass mit HEVC die Qualität etwas höher sein wird, aber VP9 bietet die gleiche schnelle Videoübertragung.
Eine Studie aus dem Jahr 2014 zeigte, dass VP9, wie auch HEVC, AVC und VP8 um 40–45% übertrifft.
Der Codec wird von allen mobilen Geräten, den meisten Set-Top-Boxen und Smart TVs unterstützt. Er funktioniert in allen gängigen Browsern außer Safari.
- AV1. Dies ist der nächste Schritt in der Entwicklung der Videokompression nach VP9. Er wurde 2018 von der Alliance for Open Media ins Leben gerufen, zu der Google, Microsoft, Apple, Netflix, Amazon und andere große Unternehmen aus den Bereichen Elektronik, Videoproduktion und Browserentwicklung gehören.
Die Codec-Entwickler setzten auf die Entwicklungen von VP9, Cisco Thor Project und Mozilla Daala. Ihr Ziel war es, einen Codec zu schaffen, der prinzipiell besser ist als bestehende Lösungen. Und das ist ihnen gelungen. Im April 2018 führte Facebook Engineering eine Studie durch und stellte fest, dass AV1 30% besser als VP9 und 50% besser als AVC sei.
Eine höhere Effizienz wurde durch die Verbesserung der Intraframe-Vorhersage erreicht.
Die Inter-Frame-Vorhersage funktioniert in HEVC und VP9 sehr gut. Erinnern wir uns an unser Beispiel mit einem Webinar. Das Video beginnt damit, dass der Sprecher an einem Tisch sitzt und einen Vortrag hält. Der Codec überträgt das erste Bild komplett — das Bild des Sprechers, den Tisch und den Hintergrund. Die nächsten Frames werden nicht vollständig übertragen, sondern nur die Änderungen werden gesendet. Der erste Frame wird als Referenzframe bezeichnet. Es kann viele davon in einem Video geben und ihre Anzahl hängt davon ab, wie dynamisch die Aktion ist und wie oft die Szenen wechseln.
Und während die Zwischenframes, in denen nur Änderungen gesendet werden, eine geringe Größe haben, sind die Referenzframes immer noch recht massiv. Die Entwickler von AV1 beschlossen, dass es sich lohne, den Schwerpunkt auf die Verringerung der Größe der Referenzframes und damit auf die In-Frame-Vorhersage zu legen.
AV1 verwendet z.B. eine leuchtdichtebasierte Farbvorhersage. Nur die Leuchtdichte eines Frames wird vollständig kodiert, und die Farben werden anhand der Leuchtdichtwerte rekonstruiert. Dadurch werden die Menge der Farbinformationen und die Größe reduziert.
Um die Vorhersage mit minimalen Farbinformationen genau zu machen, erfolgt die Vorhersage fragmentweise. Sie haben zum Beispiel den Himmel im Bild. In einem Teil ist er heller, im anderen — dunkler. Wir möchten nicht alle Blautöne anzeigen, daher wird der gesamte Himmel in einem einzigen Fragment zusammengefasst. Dabei sollte der Teil mit der höheren Helligkeit ein helleres Blau aufweisen, während die Farbe umso dunkler wird, je geringer die Helligkeit ist, bis hin zu einem dunkleren Blau.
Durch diese Vorhersage können Pixel zu größeren Fragmenten zusammengefasst werden. Je größer die Fragmente sind, desto kleiner sind sie und desto weniger Größe wird das Video haben.
Der einzige Nachteil an diesem Codec ist, dass er noch nicht weit verbreitet ist. Set-Top-Boxen und Smart TV, die ihn unterstützen würden, sind noch nicht sehr verbreitet, da der Codec noch recht jung ist. Aber es funktioniert bereits in den beliebtesten Browsern — Mozilla Firefox, Edge und Chromium-basierten Browsern.
4. Richtige Monetarisierung
Es gibt viele Möglichkeiten, mit Streaming Geld zu verdienen.
Man kann ein Video oder einen Sendezugriff gegen Geld verkaufen. Oder man kann kostenlose Inhalte erstellen, aber an der Werbung verdienen. Wenn Sie den zweiten Weg gewählt haben, stellt sich die Frage, wie Sie sicherstellen, dass die Werbung nicht von Adblock blockiert wird.
Vorführung von Werbeblöcken
Werbeblöcke können auf unterschiedliche Weise in Videos eingebettet werden:
- Eine Pre-Roll-Werbung wird vor dem Video angezeigt.
- Ein Mid-Roll-Werbespot wird einige Zeit nach dem Beginn des Videos abgespielt.
- Eine Post-Roll-Werbeanzeige beginnt nach dem Video.
- Ein Pause-Roll-Werbespot läuft, wenn der Betrachter das Video pausiert.
Ein Werbeblock kann nach DTMF/SCTE-35-Tags innerhalb eines Streams oder nach einem Chunk-Zeitplan laufen. Es können VAST/VPAID-Werbeprotokolle verwendet werden.
Mit der heutigen Technologie der Vorführung von Werbespots lassen sich nicht nur Werbeanzeigen einblenden, sondern auch Statistiken über die Interaktion mit den Betrachtern einsammeln. So können Sie sehen, wie viele Leute sich das Video angeschaut haben, welche Anzeigen von den Nutzern häufiger übersprungen werden und welche Anzeigen bis zum Ende gesehen werden, oder ob die Position der Anzeigen im Video einen Einfluss darauf hat.
Anti-Adblock-Funktion
Es gibt spezielle Programme zum Blockieren von Adblock. Sie funktionieren auf unterschiedliche Weise. Einige blockieren einfach die Funktion des Adblockers, während andere so eingestellt sind, dass sie den Betrachtern ein Banner zeigen, das sie auffordert, Adblock zu deaktivieren, um die Produzenten von Inhalten zu unterstützen.
Solche Methoden helfen teilweise beim Werbeblocker. Aber es gibt einen effektiveren Mechanismus — die Anzeigeneinblendung in Videos.
Server-seitige Werbeeinblendung: Werbeeinblendung im Video
Server-Side Ad Insertion ist ein spezielles Modul, das es Ihnen ermöglicht, Videoanzeigen auch denjenigen zu zeigen, die Adblock verwenden.
Der Mechanismus platziert Anzeigen innerhalb des Videoinhalts, so dass der Werbeblocker nicht zwischen dem ursprünglichen Inhalt und den Anzeigen unterscheiden kann. Diese Methode ist technologisch komplexer, bietet aber eine Menge Vorteile und Möglichkeiten zur Monetarisierung.
Wenn die Streaming-Plattform diese Funktion nicht unterstützt, werden die meisten Benutzer Ihre Anzeigen einfach nicht sehen und Sie verlieren einen Teil Ihrer Einnahmen.
5. Komplettlösung oder separate Module
Benötigen Sie eine ganzheitliche Plattform, mit der Unterstützung der Ausstrahlung von der Videoaufnahme bis hin zur Videowiedergabe? Oder Sie haben ein eigenes System, wollen es aber mit separaten Technologien aufrüsten?
Es sollte immer eine Wahlmöglichkeit geben: Nehmen Sie das ganze System, oder schließen Sie nur die einzelnen Funktionen an und zahlen Sie nicht extra.
Zum Beispiel unterstützt unsere Streaming-Plattform alle Stufen der Ausstrahlung:
- Videoaufzeichnung
- Stream-Konvertierung
- Verwaltung von Medieninhalten
- Lieferung über CDN
- Wiedergabe
Aber wenn Sie nicht die ganze Plattform benötigen, können wir einzelne Module in Ihr Unternehmen integrieren.
Gcore Streaming-Plattform
Unsere Plattform erfüllt alle gegenwärtige Anforderungen. Wir verwenden fortschrittliche Technologien, um Videos zu übertragen und Latenzzeiten zu reduzieren. Wir bieten eine Latenzzeit von 4 s oder 1 s.
Wir schützen Inhalte vor illegalem Ansehen und Kopieren mit AES, DRM, CORS und sicheren Links.
Wir verwenden alle in diesem Artikel erwähnten modernen Codecs und können Videos bis zu 8K-Qualität übertragen. Aber gleichzeitig ist Ihre Sendung dank adaptiver Bitrate auf jedem Gerät mit jedem Internet verfügbar.
Wir betten Werbung organisch in Videos ein und umgehen so Adblock. Wir unterstützen vier Werbemodi: Pre-Roll, Mid-Roll, Post-Roll und Pause-Roll.
Was kann unsere Plattform noch leisten
- Transcoding. Konvertierung von Videos einem Format in ein anderes, so dass sie den Anforderungen des Geräts entsprechen, auf dem sie wiedergegeben werden.
Einige Formate werden z.B. auf Smartphones und Tablets möglicherweise nicht unterstützt. Um zwei Übertragungen zu vermeiden, wird eine Transcodierung verwendet. Das Video wird in die richtigen Formate für verschiedene Geräte transkodiert.
Der Transcoder ändert auch die Qualität des Videos und passt sie für verschiedene Benutzer an. Manche Betrachter haben zum Beispiel einen alten Computer, der kein Full HD unterstützt — für diese Benutzer wird das Video in HD transkodiert. Zum Beispiel schaut sich jemand eine Sendung mit schlechter Internetverbindung an — für ihn wird das Video auf optimale Qualität heruntergestuft, damit es nicht alle zehn Sekunden langsamer wird.
Mit unserer Streaming-Plattform können Sie Videos an jedes Gerät in HD, Full HD, 4K und 8K liefern. Die Transkodierung erfolgt auf unseren leistungsfähigen Servern.
Wie es funktioniert:
- Das aufgezeichnete Video wird an unsere Server übertragen.
- Dort wird sie umcodiert. Logo und Werbung werden bei Bedarf in den Videostream eingefügt.
- Das Video wird in ein CDN hochgeladen.
- Sie wird auf dem kürzesten Weg an die Benutzer geliefert.
Ihre Sendung wird für jeden verfügbar sein, auf jedem Gerät und bei jeder Internetverbindung.
- HTML5-Player.
- Unterstützt Live- und Videoübertragungen auf Abruf.
- Kompatibel mit jeder Plattform.
- Kann Video um das 2-fache beschleunigen.
- Unterstützt Untertitel.
- Bietet Optionen für die Einstellung von Video-Autoplay.
- Unterstützt Werbeprotokolle.
- Speichert Meta-Tags für Radiosender.
- Erzeugt Screenshots in voreingestellten Intervallen.
- Das Erscheinungsbild kann angepasst werden.
- DVR. Aufnehmen und Umspulen von Live-Übertragungen. Kein Problem, wenn ein Zuschauer einen wichtigen Moment verpasst: er kann die Sendung jederzeit zurückspulen und sich den verpassten Teil anschauen. Für Zuschauer ist das sehr praktisch.
Mit dieser Funktion kann man bis zu 4 Stunden einer Live-Übertragung aufzeichnen.
- Ein einheitliches Bedienfeld für Streaming und CDN. Wenn Sie bereits unser CDN haben, brauchen Sie kein separates Benutzerkonto für Ihre Streaming-Plattform anlegen. Verwalten Sie Ihre Produkte über ein gemeinsames Bedienfeld mit einer benutzerfreundlichen Oberfläche.
- Statistik und Analytik. Ermitteln Sie die Anzahl der Betrachter, der eindeutigen Benutzer, die Liste der Weiterempfehlungen und andere wichtige Informationen. Sie können regelmäßig alle Statistiken über Ihr persönliches Kabinett erhalten.
- Weiterleitung an beliebige soziale Netzwerke. Sie können in mehrere soziale Netzwerke gleichzeitig streamen. Sie müssen nichts zusätzlich anschließen. Fügen Sie einfach die gewünschten sozialen Netzwerke hinzu, und das Video wird dort automatisch gestreamt.
- Stündlich kostenloser technischer Support. Bei der Organisation einer Online-Übertragung ist es besonders wichtig, dass alles gut funktioniert: Dass alle Benutzer einen ausgezeichneten Ton und ein klares Bild haben, das Video schnell geladen wird und sich nicht verlangsamt. Und wenn Probleme auftreten, ist es wichtig, diese so schnell wie möglich zu beheben.
Unsere Spezialisten werden jedes Problem umgehend lösen. Und egal, zu welcher Tages- oder Nachtzeit Sie streamen — der Support ist rund um die Uhr verfügbar.
Testen Sie unsere Streaming-Plattform. Schauen Sie mal, wie sie funktioniert, und prüfen Sie, ob es eine effektive Lösung ist. Oder beginnen Sie mit einer kostenlosen Beratung.