KI ASR &

Content Moderation

Gcore bietet vollständig gemanagte KI-Videodienste für VOD und Live-Video, einschließlich KI-Sprachtranskription, Untertitelübersetzung und Inhaltsmoderation.

Funktionen

Automatische Moderation von nutzergenerierten VOD-Inhalten

Videos, die aufgrund ethischer, geografischer oder anderer Vorschriften nicht veröffentlicht werden dürfen, werden identifiziert. Die Analyse ermöglicht die automatische, schnelle und genaue Identifizierung der meisten ungültigen Inhalte. Ein kleiner Teil des Inhalts wird zur manuellen Moderation gesendet: Das Video wird mit der Angabe von Wahrscheinlichkeiten markiert und von menschlichen Moderatoren überprüft.

Automatische Live-Analyse (Beta)

Livestreams werden ständig auf bestimmte Objekte hin analysiert. Wenn sie in einem Livestream erscheinen, können restriktive Maßnahmen durchgeführt werden. Dies ermöglicht die automatische Überwachung der Einhaltung von Veröffentlichungsregeln.

Inhaltsvermerke und -markierung (Beta)

Computer Vision (CV) ermöglicht die Markierung von Videos auf der Grundlage der Identifizierung von Szenen, Aktionen oder bestimmten Objekten. Tags sind in den Metadaten enthalten und können als Grundlage für die Katalogisierung von Inhalten dienen oder in Videobeschreibungen angezeigt werden.

Video-Markup (Beta)

Automated Speech Recognition (ASR) ermöglicht Inhabern von VOD- und Live-Inhalten die Umwandlung von Sprache in Text. Dabei handelt es sich um eine Spracherkennungssoftware, die menschliche Sprache verarbeitet und in Text umwandelt und mehr als 100 Sprachen unterstützt.

Was kann mit Hilfe

von CV/ML erkannt werden

Objekte
  • Menschen
  • Gesichter
  • Haustiere
  • Haushaltsgegenstände
  • Logos
  • Fahrzeuge und Transportmittel
  • Über 1.000 Objekte
Aktionen
  • Tanzen
  • Essen
  • Fitness
  • Viele andere Aktionen
Nacktheit
  • Weibliche und männliche Gesichter
  • Bedeckte und freiliegende Körperteile
  • Andere Körperteile

Nutzungsanleitungen

für Live & VOD

Nutzungsanleitungen für Live & VODNutzungsanleitungen für Live & VOD

Das Ergebnis dieser Funktion sind Metadaten mit einer Liste der gefundenen Objekte und den Wahrscheinlichkeiten ihrer Erkennung.

{
    "detection-annotations": [
        {
            "frame-no": 0,
            "annotations": [
                {
                    "top": 390,
                    "left": 201,
                    "width": 32,
                    "height": 32,
                    "object-name": "cell phone",
                    "object-score": 0.2604694366455078
                }
            ]
        }
    ]
}

Vorteile unserer Lösung

5x schnellere Verarbeitung

Die Videoanalyse erfolgt nur durch Schlüsselbilder und nicht durch das gesamte Video. Die Videobearbeitungszeit ist bis zu 30-mal kürzer im Vergleich zur herkömmlichen Analyse. Die durchschnittliche Bearbeitungszeit beträgt 1:5.

Automatische Stopptrigger

Die Analyse stoppt an dem Punkt, an dem der Trigger aktiviert wird. So erhalten Sie sofortige Antworten, ohne auf die vollständige Verarbeitung des Videos warten zu müssen.

Interaktives Training und Verbesserung der Funktionalität

Ihr Projekt benötigt möglicherweise individuelle Funktionen. Daher kann die Quellbasis des maschinellen Lernens mit Ihren Bildern ergänzt werden. Wir sind offen für Vorschläge zur Integration neuer Lösungen.

Kostenoptimierung

Die Analyse ist schneller und führt keine unnötigen Aktionen bei der Erkennung der erforderlichen Objekte durch, was Ihr Budget einspart. Wir verwenden auch unsere eigene Cloud-Infrastruktur mit aktuellen Technologien.

Vergleichen Sie die Servicefunktionen

Die Daten sind gültig ab dem 30. April 2021.

Annotation

Objekte

Inhaltsmoderation

VOD-Verarbeitung

Live-Verarbeitung

Kostenreduzierung

Anbindung externer Speicher

Schnelle Analyse

Automatische Stopp-Auslöser

Choose company:

Annotation
Objekte
Inhaltsmoderation
VOD-Verarbeitung
Live-Verarbeitung
Kostenreduzierung
Anbindung externer Speicher
Schnelle Analyse
Automatische Stopp-Auslöser

Häufig gestellte Fragen

Eine vollständige Beschreibung, Anwendungsfälle und die notwendige Dokumentation finden Sie in der Wissensdatenbank.

Unsere Modelle basieren auf OpenCV, TensorFlow und anderen Bibliotheken.

OpenCV ist eine Open-Source-Bibliothek für Computer Vision, Bildverarbeitung und allgemeine numerische Algorithmen.

TensorFlow ist eine Open-Source-Softwarebibliothek für maschinelles Lernen, die von Google entwickelt wurde, um die Probleme beim Aufbau und Training eines neuronalen Netzwerks zur automatischen Suche und Klassifizierung von Bildern zu lösen und die Qualität der menschlichen Wahrnehmung zu erreichen.

In Ihren Videos bestimmt die Content Moderation sowohl die Objekte als auch die Wahrscheinlichkeit, mit der sie entdeckt werden. Jedes Projekt hat seine eigene Wahrscheinlichkeitsstufe, die von einem leichten Hinweis bis hin zur Unmöglichkeit des Auftretens eines bestimmten Objekttyps reicht. Beispiel: Ein Video hat das Tag EXPOSED_BREAST_F und einen Wert von 0,51.

Um den Durchschnittswert Ihres Projekts zu bestimmen, empfehlen wir, zuerst eine Reihe von Videos (zum Beispiel für einen Tag oder eine Woche) zu nehmen. Berechnen Sie dann die Punktzahl der angegebenen Tags für jedes Video. Legen Sie schließlich Koeffizienten basierend auf der Ergebnisanalyse fest. Zum Beispiel normal (max. 30%), fragwürdig (max. 50%) und zensiert (51% und höher).

Wir arbeiten mit Bild- und Videosätzen, die eine Vielzahl von Anwendungen abdecken. Manchmal muss das System jedoch für bestimmte Fälle zusätzlich trainiert werden. Wir empfehlen, einen Satz fehlender Videos zu erstellen und diese separat zur Analyse einzusenden. In der nächsten Iteration wird das System auch auf diese Videos trainiert.

Senden Sie Bilder auf die gleiche Weise wie Videos zur Verarbeitung an das System. Ein Bild wird als 1-Sekunden-Video abgerechnet.

Das System berücksichtigt die Dauer jedes verarbeiteten Videos in Sekunden. Am Ende des Monats wird die Gesamtzahl an Abrechnung gesendet. Der Tarif wird in Minuten berechnet.

Angenommen, Sie haben drei Videos hochgeladen, die 10 Sekunden, 1 Minute und 30 Sekunden und 5 Minuten und 10 Sekunden dauern. Die Summe am Ende des Monats beträgt 10 s + 90 s + 310 s = 410 Sekunden = 6 Minuten und 50 Sekunden. Die Abrechnung berechnet 7 Minuten. In Ihrem persönlichen Konto können Sie eine Grafik des Minutenverbrauchs für jeden Tag sehen.

Nein. Die Streaming-Plattform löscht Ihre Videos und Bilder automatisch nach der Analyse und verwendet Ihre Daten nicht zum Training von Basismodellen. Ihre Videodateien verlassen nicht Ihren Speicher und werden nicht an Edge-Server gesendet, wenn der Container ausgeführt wird.

Kontaktieren Sie uns, um ein personalisiertes Angebot zu erhalten.

Spitzen-Streaming-Technologien verwenden, ohne in die Infrastruktur zu investieren.

Jetzt kostenlos ausprobieren

14 Tage kostenlos

Probieren Sie unsere Lösung ohne Sorgen um Kosten aus

Einfache Integration

In nur 10 Minuten einsatzbereit

Kompetenter technischer Support rund um die Uhr

Unsere Experten helfen bei der Integration und bieten später Unterstützung