Funktionen
Automatische Moderation von nutzergenerierten VOD-Inhalten
Videos, die aufgrund ethischer, geografischer oder anderer Vorschriften nicht veröffentlicht werden dürfen, werden identifiziert. Die Analyse ermöglicht die automatische, schnelle und genaue Identifizierung der meisten ungültigen Inhalte. Ein kleiner Teil des Inhalts wird zur manuellen Moderation gesendet: Das Video wird mit der Angabe von Wahrscheinlichkeiten markiert und von menschlichen Moderatoren überprüft.
Automatische Live-Analyse (Beta)
Livestreams werden ständig auf bestimmte Objekte hin analysiert. Wenn sie in einem Livestream erscheinen, können restriktive Maßnahmen durchgeführt werden. Dies ermöglicht die automatische Überwachung der Einhaltung von Veröffentlichungsregeln.
Inhaltsvermerke und -markierung (Beta)
Computer Vision (CV) ermöglicht die Markierung von Videos auf der Grundlage der Identifizierung von Szenen, Aktionen oder bestimmten Objekten. Tags sind in den Metadaten enthalten und können als Grundlage für die Katalogisierung von Inhalten dienen oder in Videobeschreibungen angezeigt werden.
KI ASR
Automated Speech Recognition (ASR) ermöglicht Anbietern von VOD- und Live-Inhalten die Umwandlung von Sprache in Text. Dabei handelt es sich um eine Spracherkennungssoftware, die menschliche Sprache verarbeitet und in Text umwandelt und mehr als 100 Sprachen unterstützt.
Was kann AI Content Moderation
erkennen?- Menschen
- Gesichter
- Haustiere
- Haushaltsgegenstände
- Logos
- Fahrzeuge und Transportmittel
- Über 1.000 Objekte
- Tanzen
- Essen
- Fitness
- Viele andere Aktionen
- Weibliche und männliche Gesichter
- Bedeckte und freiliegende Körperteile
- Andere Körperteile
Nutzungsanleitungen
für Live & VODDas Ergebnis dieser Funktion sind Metadaten mit einer Liste der gefundenen Objekte und den Wahrscheinlichkeiten ihrer Erkennung.
{
"detection-annotations": [
{
"frame-no": 0,
"annotations": [
{
"top": 390,
"left": 201,
"width": 32,
"height": 32,
"object-name": "cell phone",
"object-score": 0.2604694366455078
}
]
}
]
}
Vorteile unserer Lösung
5x schnellere Verarbeitung
Die Videoanalyse erfolgt nur durch Schlüsselbilder und nicht durch das gesamte Video. Die Videobearbeitungszeit ist bis zu 30-mal kürzer im Vergleich zur herkömmlichen Analyse. Die durchschnittliche Bearbeitungszeit beträgt 1:5.
Automatische Stopptrigger
Die Analyse stoppt an dem Punkt, an dem der Trigger aktiviert wird. So erhalten Sie sofortige Antworten, ohne auf die vollständige Verarbeitung des Videos warten zu müssen.
Interaktives Training und Verbesserung der Funktionalität
Ihr Projekt benötigt möglicherweise individuelle Funktionen. Daher kann die Quellbasis des maschinellen Lernens mit Ihren Bildern ergänzt werden. Wir sind offen für Vorschläge zur Integration neuer Lösungen.
Kostenoptimierung
Die Analyse ist schneller und führt keine unnötigen Aktionen bei der Erkennung der erforderlichen Objekte durch, was Ihr Budget einspart. Wir verwenden auch unsere eigene Cloud-Infrastruktur mit aktuellen Technologien.
Vergleichen Sie die Servicefunktionen
Die Daten sind gültig ab dem 30. April 2021.
Annotation | ||||
Objekte | ||||
Inhaltsmoderation | ||||
VOD-Verarbeitung | ||||
Live-Verarbeitung | ||||
Kostenreduzierung | ||||
Anbindung externer Speicher | ||||
Schnelle Analyse | ||||
Automatische Stopp-Auslöser |
Choose company:
Annotation | |
Objekte | |
Inhaltsmoderation | |
VOD-Verarbeitung | |
Live-Verarbeitung | |
Kostenreduzierung | |
Anbindung externer Speicher | |
Schnelle Analyse | |
Automatische Stopp-Auslöser |
Häufig gestellte Fragen
Eine vollständige Beschreibung, Anwendungsfälle und die notwendige Dokumentation finden Sie in der Wissensdatenbank.
Unsere Modelle basieren auf OpenCV, TensorFlow und anderen Bibliotheken.
OpenCV ist eine Open-Source-Bibliothek für Computer Vision, Bildverarbeitung und allgemeine numerische Algorithmen.
TensorFlow ist eine Open-Source-Softwarebibliothek für maschinelles Lernen, die von Google entwickelt wurde, um die Probleme beim Aufbau und Training eines neuronalen Netzwerks zur automatischen Suche und Klassifizierung von Bildern zu lösen und die Qualität der menschlichen Wahrnehmung zu erreichen.
In Ihren Videos bestimmt die Content Moderation sowohl die Objekte als auch die Wahrscheinlichkeit, mit der sie entdeckt werden. Jedes Projekt hat seine eigene Wahrscheinlichkeitsstufe, die von einem leichten Hinweis bis hin zur Unmöglichkeit des Auftretens eines bestimmten Objekttyps reicht. Beispiel: Ein Video hat das Tag EXPOSED_BREAST_F und einen Wert von 0,51.
Um den Durchschnittswert Ihres Projekts zu bestimmen, empfehlen wir, zuerst eine Reihe von Videos (zum Beispiel für einen Tag oder eine Woche) zu nehmen. Berechnen Sie dann die Punktzahl der angegebenen Tags für jedes Video. Legen Sie schließlich Koeffizienten basierend auf der Ergebnisanalyse fest. Zum Beispiel normal (max. 30%), fragwürdig (max. 50%) und zensiert (51% und höher).
Wir arbeiten mit Bild- und Videosätzen, die eine Vielzahl von Anwendungen abdecken. Manchmal muss das System jedoch für bestimmte Fälle zusätzlich trainiert werden. Wir empfehlen, einen Satz fehlender Videos zu erstellen und diese separat zur Analyse einzusenden. In der nächsten Iteration wird das System auch auf diese Videos trainiert.
Senden Sie Bilder auf die gleiche Weise wie Videos zur Verarbeitung an das System. Ein Bild wird als 1-Sekunden-Video abgerechnet.
Das System berücksichtigt die Dauer jedes verarbeiteten Videos in Sekunden. Am Ende des Monats wird die Gesamtzahl an Abrechnung gesendet. Der Tarif wird in Minuten berechnet.
Angenommen, Sie haben drei Videos hochgeladen, die 10 Sekunden, 1 Minute und 30 Sekunden und 5 Minuten und 10 Sekunden dauern. Die Summe am Ende des Monats beträgt 10 s + 90 s + 310 s = 410 Sekunden = 6 Minuten und 50 Sekunden. Die Abrechnung berechnet 7 Minuten. In Ihrem persönlichen Konto können Sie eine Grafik des Minutenverbrauchs für jeden Tag sehen.
Nein. Die Streaming-Plattform löscht Ihre Videos und Bilder automatisch nach der Analyse und verwendet Ihre Daten nicht zum Training von Basismodellen. Ihre Videodateien verlassen nicht Ihren Speicher und werden nicht an Edge-Server gesendet, wenn der Container ausgeführt wird.
Kontaktieren Sie uns, um ein personalisiertes Angebot zu erhalten.
Spitzen-Streaming-Technologien verwenden, ohne in die Infrastruktur zu investieren.
Jetzt kostenlos ausprobieren14 Tage kostenlos
Probieren Sie unsere Lösung ohne Sorgen um Kosten aus
Einfache Integration
In nur 10 Minuten einsatzbereit
Kompetenter technischer Support rund um die Uhr
Unsere Experten helfen bei der Integration und bieten später Unterstützung