Gcore ist erfreut, die Verfügbarkeit von Pienso auf der Gcore Cloud-Platform powered by Graphcore IPUs bekannt zu geben. Pienso ist ein Softwareunternehmen für die Verarbeitung natürlicher Sprache (NLP) mithilfe von Deep Learning. Damit können Large Language Models verwendet werden, um KI-Modelle zu erstellen, zu trainieren und zu verwalten, die auf die Daten des Unternehmens abgestimmt sind. Da Pienso no-code/low-code ist, können Experten Modelle gestalten, ohne jemals eine Zeile Code zu sehen.
Pienso wird die für KI entwickelte Graphcore IPU-Technologie auf der Gcore Cloud-Plattform einsetzen, um den Endkunden die schnellsten und kostengünstigsten KI-Lösungen anzubieten. Die Graphcore IPU-Technologie ist bekannt dafür, KI-Workloads zu beschleunigen und so die Zeit und die Kosten zu reduzieren, um wichtige Erkenntnisse zu erlangen. Durch die Partnerschaft mit Gcore wird Pienso die leistungsstarken KI-Beschleuniger von Graphcore nutzen, die die Komplexität von MLOps abstrahieren, um eine schlüsselfertige Lösung anzubieten. Dies bietet Endkunden eine kosteneffiziente Wahl, wie und wo sie interaktive KI-Modelle erstellen und einsetzen.
Interaktive KI-Technologie vom MIT powered by Graphcore IPUs
„Wir freuen uns über die Partnerschaft mit Pienso, um die Graphcore IPU-Technologie als Service auf der Gcore Cloud-Plattform anzubieten“, kommentierte Andre Reitenbach, CEO von Gcore. „Gemeinsam rüsten wir Organisationen des öffentlichen und privaten Sektors dafür aus, einen Mehrwert aus ihrer KI zu ziehen und einen echten Einfluss auf ihre Workflows zu nehmen.“
Die Zusammenarbeit erlaubt Pienso, Large Language Models zu nutzen – ohne das Risiko einer Anbieterbindung oder exorbitanter Gebühren. Damit ist Pienso in der Lage, die wachsende Nachfrage nach leichter zugänglichen KI-Lösungen in einer Vielzahl von Branchen zu befriedigen, insbesondere in Branchen und Regionen, die Wert auf Datensouveränität legen.
„Wir freuen uns, mit Gcore zusammenzuarbeiten, um mit mehr Fachwissen im Bereich Cloud Computing die Leistung der Graphcore IPUs für KI-Kunden in Unternehmen als Service bereitzustellen. Für Unternehmen und Behörden, die Bedenken hinsichtlich des Datenschutzes haben, ist die Lösung von Pienso eine ideale Alternative zu Large Language Models, auf die über eine von CSPs gehostete API zugegriffen wird“, sagte Birago Jones, CEO von Pienso. „Unsere codefreie Schnittstelle in Verbindung mit den Graphcore IPUs, die für KI-Workloads entwickelt wurden, bietet eine Benutzererfahrung, die zum Experimentieren einlädt. Interaktive KI mit schnellem Durchsatz und geringer Latenz liefert Erkenntnisse rechtzeitig, um darauf zu reagieren. Das Self-Service-Portal und die On-Demand-Preise, die Gcore anbietet, machen es Benutzern leicht, schnell loszulegen.“
Cloudnativer Datenschutz
Der Service von Pienso läuft auf Graphcore IPUs auf der Gcore Cloud-Platform und nutzt Rechenzentren auf dem europäischen Festland – eine Voraussetzung für Kunden, die Datenschutz und Datensouveränität gewährleisten müssen.
Der Ruf von Gcore als Anbieter mit extrem niedrigen Latenzzeiten machte das Unternehmen für die Unterstützung des Pienso-Dienstes zur idealen Wahl. Die Kombination aus der durch die IPUs ermöglichten Leistungssteigerung und der niedrigen Cloud-Latenz von Gcore ermöglicht es Pienso, die wachsende Zahl von Kunden zu bedienen, die Einblicke in nahezu Echtzeit benötigen, wie z. B. Kundenkontaktzentren, die in großen Datenmengen aufkommende Probleme und Möglichkeiten überwachen wollen.
Um Pienso auf der mit Graphcore IPUs betriebenen Gcore Cloud-Plattform zu testen, wenden Sie sich bitte an sales@gcore.com.