NVIDIA H100 GPUs mit InfiniBand für unübertroffene KI-Leistung.Jetzt starten!

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

Function

as a service

Führen Sie Code als Funktion aus, ohne virtuelle Maschinen erstellen und warten zu müssen. Profitieren Sie von einem 99,9% SLA auf Produktionsniveau und wettbewerbsfähigen Preisen. Hier sehen Sie, wie sich unsere Preise von denen der Konkurrenz unterscheiden

Function as a service

Preise vergleichen

Wir bieten das beste Preis-Leistungs-Verhältnis für den gleichen Workload und garantieren ein SLA auf Produktionsniveau von 99,9% ohne zusätzliche Kosten.

Preisvergleich auf Basis der Region Frankfurt *

Gcore Functions

Azure Functions

AWS Lambda

GCP Cloud Functions

Scaleway

4 000 000 Zugriffe

$0.60

$0.60

$0.80

$0.49

GB pro Sekunde für 1000 ms Laufzeit

$15.32

$57.60

$60

$9

$47.13

GHz Sec

$54

Egress-Preis für 400 GB

kostenlos

$26.10

$27

$47.40

kostenlos

Gesamtkosten

$15.32

$84.10

$87.60

$111.20

$47.64

Choose company:

4 000 000 Zugriffe

GB pro Sekunde für 1000 ms Laufzeit

$15.32

GHz Sec

Egress-Preis für 400 GB

kostenlos

Gesamtkosten

$15.32

Gcore-Features werden auf der Grundlage der Dauer der Pods berechnet, die für die Ausführung Ihres Codes zugewiesen wurden. Wenn keine Anfragen vorliegen und das von Ihnen konfigurierte Pod-Timeout abgelaufen ist, wird der Pod heruntergefahren und der Abschaltvorgang kann bis zu einer Minute dauern. Sie können die in der obigen Tabelle aufgeführten Kosteneinsparungen erzielen, wenn die Anfragen häufig sind oder die Pods länger als die kombinierte Abschaltzeit aktiv bleiben, um Anfragen zu bedienen. Sie können die Pods auch so konfigurieren, dass sie ständig aktiv (aufgewärmt) bleiben, um schnellere Antwortzeiten zu erzielen. Je mehr Zeit die Pods für die Bearbeitung Ihrer Anfragen aufwenden, desto eher entsprechen Ihre Kosten den Werten in der Tabelle.

Cloud Calculator

Konfigurieren Sie Ihre Einrichtung und ermitteln Sie den genauen Preis auf der Registerkarte "Functions".

Konfiguration FS-1

Region
Pod configuration
Number of pods

1

50

Unterstützte Programmiersprachen

  • node
  • java
  • net
  • python
  • go

FaaS Lokationen

Wie FaaS funktioniert

FaaS wird oft genutzt, um die Funktionalität von Anwendungen zu erweitern, indem eigene Microservices über HTTP-API erstellt oder Drittanbieter-Services über Webhooks integriert werden.

Beispiel­anwendungen

Integration mit Diensten und APIs von Drittanbietern

Integration mit Diensten und APIs von Drittanbietern

Serverless mobile Backends

Serverless mobile Backends

Echtzeit-Dateiverarbeitung

Echtzeit-Dateiverarbeitung

Automatisierter DevOPS Prozess

Serverless IoT backends

Real-time Streaming Prozess

Activate FaaS →

Vorteile von Edge-Cloud-FaaS

Automatisierte Skalierung

Mit zunehmender Anzahl von Anfragen passen sich Ihre Funktionen automatisch an die Last an.

DDoS-Schutz

Standardmäßig sind alle Projekte in der Cloud gegen Angriffe auf Netzwerk- und Transportebene geschützt.

Tier-III- und IV-Rechenzentren

Unsere Server befinden sich in den zuverlässigsten und ausfallsichersten Rechenzentren.

Professioneller 24/7 technischer Support

Wir bieten 24/7 Expertenhilfe bei Aktivierung und Konfiguration des Services.

Kostenloser ausgehender Datenverkehr

Nur eingehende Anfragen werden berechnet.

Häufig gestellte Fragen

FaaS ist ein Cloud-Service, der es Ihnen ermöglicht, Codes zu entwickeln, ohne eine Entwicklungsumgebung designen und pflegen zu müssen. dazu ist der gesamte Serverteil ist in Funktionen unterteilt, die aktiviert werden, wenn ein bestimmtes Ereignis eintritt (z. B. wenn eine HTTP-Anforderung empfangen wird).

Dadurch ermöglicht FaaS Entwicklern, sich vollständig auf die Entwicklung zu konzentrieren, ohne sich um die Infrastrukturverwaltung kümmern zu müssen.

Dies ist die Grundlage von FaaS, einer Methode zur Bereitstellung von Cloud-Services, bei der die Rechenressourcen automatisch an Ihre Last angepasst werden. Sie müssen keine virtuellen Instanzen und physischen Server mieten oder die erforderlichen Kapazitäten selbst bestimmen. Die erforderliche Menge an Ressourcen wird automatisch für Sie zugewiesen, und wenn einige Instanzen nicht mehr benötigt werden, werden sie auch automatisch gelöscht.

Bei serverlosem Computing umfasst der Verantwortungsbereich des Anbieters das Hinzufügen, Entfernen, Überwachen und andere Operationen mit virtuellen und physischen Instanzen. Sie schreiben und aktualisieren den Code, und die IT-Infrastruktur passt sich Ihren Bedürfnissen an.

Funktionen sind perfekt für eine Microservice-Architektur geeignet. Mit ihnen wird es noch einfacher, den Code unabhängiger Anwendungskomponenten zu ändern. Alle Änderungen werden "on the fly" vorgenommen, ohne dass die Anwendung gestoppt werden muss. Gleichzeitig benötigen Sie kein Docker oder Kubernetes. Wir kümmern uns auch um die Container-Verwaltung. Darüber hinaus ist FaaS eine großartige Lösung, wenn es entscheidend ist, ein Produkt so schnell wie möglich auf den Markt zu bringen. FaaS beschleunigt den Startprozess erheblich, indem es Ihrem Team erspart, Zeit für die Verwaltung der Infrastruktur aufzuwenden.

Es ist auch sinnvoll bei Skalierungsproblemen. FaaS ist die richtige Wahl, wenn die Last auf Ihren Anwendungen stark schwankt und Sie häufige Verkehrsstoßzeiten haben. Die Rechenleistung wird automatisch erhöht und verringert.

Mit FaaS passt sich die Infrastruktur automatisch an Ihre Bedürfnisse an. Es wird nur die benötigte Rechenleistung verwendet. Daher stehen keine Ressourcen ungenutzt herum, und Sie zahlen nur für die Kapazitäten, die Sie tatsächlich nutzen.

Bald verfügbar: Node.js, .NET Framework, Java, Python, Go und andere beliebte Programmiersprachen.

Gcore Cloud hat die PCI DSS- und ISO 27001-Zertifizierung bestanden. Dies bedeutet, dass alle Daten in unserer Cloud vor unbefugtem Zugriff und Änderungen geschützt sind.

DDoS-Schutz ist standardmäßig für alle Cloud-Kunden verfügbar. Wir schützen auch alle Ihre Daten vor Verlust durch eine SAN-Replikation mit drei Faktoren und Katastrophenschutzmaßnahmen.

Wenn Sie die Mindestanzahl an Pods in das Autoscaler setting einsetzen mit einer Zahl größer 1, wird die konfigurierte Mindestanzahl der Pods kontinuierlich berechnet, da der Service sie 24x7 produktiv hält.

Wenn Sie die Mindestanzahl an Pods in das Autoscaler setting mit 0 einsetzen, wird nichts berechnet bis die erste Anfrage gestellt wird.

Wenn Sie eine spezifische Anzahl von Sekunden für die Laufzeit der Pods definieren, wird das System die Pods automatisch nach Beenden der Laufzeit löschen.

Das Reduzieren der Anzahl der Pods braucht eine gewisse Zeit, maximal eine Minute.

Die Laufzeit der Pods wird in Sekunden abgerechnet und jede angefangen Sekunde wird auf die nächste ganze Sekunde aufgerundet.

Jede Pod Konfiguration mit unterschiedlichen mCPU und RAM Spezifikationen wird auf der Basis eines Preises per Gibabyte (GB) RAM/Sekunde abgerechnet.

Kontaktieren Sie uns, um ein persönliches Angebot zu erhalten