Neuer Radar Report: DDoS - Trends entdecken, Schutz optimieren.Zum Report

Produkte

Lösungen

Ressourcen

Partner

Warum Gcore

  1. Home
  2. Blog
  3. Gcore und Pienso bieten Zugang zu umfangreichen Sprachmodellen für Unternehmen

Gcore und Pienso bieten Zugang zu umfangreichen Sprachmodellen für Unternehmen

  • By Gcore
  • May 16, 2023
  • 2 min read
Gcore und Pienso bieten Zugang zu umfangreichen Sprachmodellen für Unternehmen

Table of content

Try Gcore AI

Try for free

Gcore ist erfreut, die Verfügbarkeit von Pienso auf der Gcore Cloud-Platform powered by Graphcore IPUs bekannt zu geben. Pienso ist ein Softwareunternehmen für die Verarbeitung natürlicher Sprache (NLP) mithilfe von Deep Learning. Damit können Large Language Models verwendet werden, um KI-Modelle zu erstellen, zu trainieren und zu verwalten, die auf die Daten des Unternehmens abgestimmt sind. Da Pienso no-code/low-code ist, können Experten Modelle gestalten, ohne jemals eine Zeile Code zu sehen.

Pienso wird die für KI entwickelte Graphcore IPU-Technologie auf der Gcore Cloud-Plattform einsetzen, um den Endkunden die schnellsten und kostengünstigsten KI-Lösungen anzubieten. Die Graphcore IPU-Technologie ist bekannt dafür, KI-Workloads zu beschleunigen und so die Zeit und die Kosten zu reduzieren, um wichtige Erkenntnisse zu erlangen. Durch die Partnerschaft mit Gcore wird Pienso die leistungsstarken KI-Beschleuniger von Graphcore nutzen, die die Komplexität von MLOps abstrahieren, um eine schlüsselfertige Lösung anzubieten. Dies bietet Endkunden eine kosteneffiziente Wahl, wie und wo sie interaktive KI-Modelle erstellen und einsetzen.

Interaktive KI-Technologie vom MIT powered by Graphcore IPUs

„Wir freuen uns über die Partnerschaft mit Pienso, um die Graphcore IPU-Technologie als Service auf der Gcore Cloud-Plattform anzubieten“, kommentierte Andre Reitenbach, CEO von Gcore. „Gemeinsam rüsten wir Organisationen des öffentlichen und privaten Sektors dafür aus, einen Mehrwert aus ihrer KI zu ziehen und einen echten Einfluss auf ihre Workflows zu nehmen.“

Die Zusammenarbeit erlaubt Pienso, Large Language Models zu nutzen – ohne das Risiko einer Anbieterbindung oder exorbitanter Gebühren. Damit ist Pienso in der Lage, die wachsende Nachfrage nach leichter zugänglichen KI-Lösungen in einer Vielzahl von Branchen zu befriedigen, insbesondere in Branchen und Regionen, die Wert auf Datensouveränität legen.

„Wir freuen uns, mit Gcore zusammenzuarbeiten, um mit mehr Fachwissen im Bereich Cloud Computing die Leistung der Graphcore IPUs für KI-Kunden in Unternehmen als Service bereitzustellen. Für Unternehmen und Behörden, die Bedenken hinsichtlich des Datenschutzes haben, ist die Lösung von Pienso eine ideale Alternative zu Large Language Models, auf die über eine von CSPs gehostete API zugegriffen wird“, sagte Birago Jones, CEO von Pienso. „Unsere codefreie Schnittstelle in Verbindung mit den Graphcore IPUs, die für KI-Workloads entwickelt wurden, bietet eine Benutzererfahrung, die zum Experimentieren einlädt. Interaktive KI mit schnellem Durchsatz und geringer Latenz liefert Erkenntnisse rechtzeitig, um darauf zu reagieren. Das Self-Service-Portal und die On-Demand-Preise, die Gcore anbietet, machen es Benutzern leicht, schnell loszulegen.“

Cloudnativer Datenschutz

Der Service von Pienso läuft auf Graphcore IPUs auf der Gcore Cloud-Platform und nutzt Rechenzentren auf dem europäischen Festland – eine Voraussetzung für Kunden, die Datenschutz und Datensouveränität gewährleisten müssen.

Der Ruf von Gcore als Anbieter mit extrem niedrigen Latenzzeiten machte das Unternehmen für die Unterstützung des Pienso-Dienstes zur idealen Wahl. Die Kombination aus der durch die IPUs ermöglichten Leistungssteigerung und der niedrigen Cloud-Latenz von Gcore ermöglicht es Pienso, die wachsende Zahl von Kunden zu bedienen, die Einblicke in nahezu Echtzeit benötigen, wie z. B. Kundenkontaktzentren, die in großen Datenmengen aufkommende Probleme und Möglichkeiten überwachen wollen.

Um Pienso auf der mit Graphcore IPUs betriebenen Gcore Cloud-Plattform zu testen, wenden Sie sich bitte an sales@gcore.com.

Table of content

Try Gcore AI

Try for free

Related Articles

Ein globaler KI-Spickzettel: KI-Vorschriften der wichtigsten Regionen im Vergleich

KI-Entwicklungen erobern die Welt im Sturm. Unternehmen sollten sich aber bewusst sein, dass neue Chancen auch neue Herausforderungen mit sich bringen. Dem Impuls, die Technologie zu nutzen, müssen verantwortungsvolle Regel für deren Einsatz vorausgehen. Nur so ist sichergestellt, dass durch KI weder Unternehmen noch ihre Kunden Risiken ausgesetzt sind. Um diesem Anspruch gerecht zu werden, entwickeln Regierungen weltweit Gesetze zur Regulierung von KI und Datennutzung.Sich in einem immer komplexeren Netz von internationalen Vorschriften zurechtzufinden, kann überfordernd sein. Deshalb werden wir in diesem Artikel die Gesetzgebung einiger führender KI-Hubs auf allen Kontinenten aufschlüsseln und Ihnen genau die Informationen zur Verfügung stellen, die Ihr Unternehmen benötigt, um KI optimal zu nutzen – sicher, legal und ethisch vertretbar.Falls Sie unsere früheren Blogs verpasst haben, in denen wir die KI-Vorschriften nach Regionen aufgeschlüsselt haben, lesen Sie sie hier: Nordamerika, Lateinamerika, Europa, APAC, Naher Osten.Um die Zusammenfassung zu lesen, gehen Sie bitte zur Übersichtstabelle.Globale Trends der KI-RegulierungAuch wenn die Vorschriften je nach Standort variieren, haben sich 2024 weltweit mehrere übergreifende Trends herauskristallisiert. Dazu zählen eine Fokussierung auf Datenlokalisierung, risikoabhängige Regulierung und eine Priorisierung des Datenschutzes. Sie sind zu allgemein anerkannten Leitlinien geworden. Das gemeinsame Ziel aller Länder ist es, Innovationen zu fördern und gleichzeitig die Verbraucher zu schützen – auch wenn die einzelnen Regionen diese Ziele auf unterschiedliche Weise zu erreichen versuchen.Viele Länder folgen dem Beispiel der EU, deren KI-Gesetz ein mehrstufiges Regulierungsmodell je nach potenziellem Risikograd vorsieht. Bei diesem System gelten für jede Risikostufe unterschiedliche Anforderungen: Für Hochrisikoanwendungen, die entweder die öffentliche Sicherheit oder Bürgerrechte betreffen, gilt eine andere Sicherheitsstufe als für allgemeine KI-Anwendungen, bei denen die Risiken weniger hoch eingestuft werden.Europa: strukturiert und stringentEuropa hat einige der strengsten KI-Vorschriften der Welt mit Schwerpunkt Datenschutz gemäß der DSGVO sowie dem neuen risikoabhängigen KI-Gesetz. Dieser Ansatz beruht vor allem darauf, dass die EU den Schwerpunkt auf Verbraucherrechte legt und dafür sorgt, dass die Sicherheit der Nutzerdaten durch die digitale Technologie gewährleistet wird. Das vorgeschlagene KI-Gesetz der EU, über das noch verhandelt wird und das bis 2025 verabschiedet sein soll, stuft KI-Anwendungen nach den Risikoklassen „inakzeptables Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „niedriges Risiko“ ein. Risikoreiche KI-Tools, wie sie bei biometrischer Identifizierung oder Finanzentscheidungen eingesetzt werden, müssen strenge Standards in Bezug auf Datenverwaltung, Transparenz und menschliche Aufsicht erfüllen.Einige EU-Länder haben zusätzliche Standards zum EU-Rahmen eingeführt, insbesondere für mehr Datenschutz und Kontrolle. Der deutsche DSK-Leitfaden zum Beispiel konzentriert sich auf die Rechenschaftspflicht großer Sprachmodelle (LLM) und fordert mehr Transparenz, menschliche Kontrolle und die Zustimmung zur Datennutzung.Unternehmen, die KI in Europa einsetzen wollen, müssen sowohl die einheitlichen Anforderungen des KI-Gesetzes als auch die mitgliedsspezifischen Vorschriften berücksichtigen, die eine differenzierte und strenge Compliance-Landschaft schaffen.Nordamerika: neue VorschriftenDie Vorschriften für künstliche Intelligenz in Nordamerika sind weit weniger einheitlich als die in Europa. Die USA und Kanada sind noch dabei, ihre jeweiligen KI-Rahmenregelungen auszuarbeiten, wobei der derzeitige Ansatz der USA weniger streng und zugleich innovationsfreundlicher ist, während Kanada eine zentralisierte Steuerung bevorzugt.Die Vereinigten Staaten arbeiten mit einem Hybridmodell aus bundesstaatlichen Richtlinien, wie dem Blueprint for an AI Bill of Rights, sowie einzelstaatlichen Gesetzen, wie dem California Consumer Privacy Act (CCPA) und dem Virginia Consumer Data Protection Act (VCDPA), die dazu dienen, einige der strengeren Datenschutzvorschriften durchzusetzen. Die zweistufige Vorgehensweise ähnelt dem in der EU, wo es sowohl Vorschriften auf EU-Ebene als auch auf Länderebene gibt.Der grundsätzlich liberale Ansatz der USA entspricht dem dortigen Verständnis der freien Marktwirtschaft und räumt Innovation und Wachstum den Vorrang vor strengen Sicherheitsmaßnahmen ein. Doch nicht alle Staaten machen sich einen solch freizügigen Umgang zu eigen. Die Divergenz zwischen strengen einzelstaatlichen Gesetzen und eher lockeren Bundesrichtlinien kann zu einer fragmentierten Regulierungslandschaft führen, die für Unternehmen nur sehr schwer zu durchschauen ist.Asien-Pazifik (APAC): divergierende Strategien mit Fokus auf InnovationDie APAC-Region entwickelt sich schnell zu einem globalen Spitzenreiter in Sachen KI-Innovation, deren wichtigsten Märkte das technologische Wachstum in verschiedenen Sektoren maßgeblich vorantreiben. Die Regierungen in der Region haben darauf mit der Schaffung von Rahmenbedingungen reagiert, die den verantwortungsvollen Einsatz von KI und die Datensouveränität in den Vordergrund stellen. Indiens künftiges Gesetz zum Schutz digitaler personenbezogener Daten (Digital Personal Data Protection Bill, DPDPB), Singapurs Modellrahmen für KI-Governance (Model AI Governance Framework) und Südkoreas Gesetz zur Förderung der KI-Industrie (AI Industry Promotion Act) werfen ein Schlaglicht auf die regulatorische Vielfalt in der Region und unterstreichen gleichzeitig die gemeinsame Forderung nach Transparenz und Datenlokalisierung.Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in der APAC-Region. Länder wie China setzen beispielsweise einige der weltweit strengsten Gesetze zur Datenlokalisierung durch, während Japan „Soft-Law“-Prinzipien eingeführt hat und bald verbindliche Vorschriften erwartet. Diese unterschiedlichen Ansätze spiegeln die spezifische Balance zwischen Innovation und Verantwortung in jedem Land wider.Lateinamerika: neue Normen für den DatenschutzDie lateinamerikanische KI-Regulierungslandschaft befindet sich noch in der Entstehungsphase, wobei ein gemeinsamer Schwerpunkt auf dem Datenschutz liegt. Brasilien, das in der Region führend bei der digitalen Regulierung ist, erließ das Allgemeine Datenschutzgesetz (General Data Protection Law, LGPD) ein, das in seinem datenschutzfreundlichen Ansatz – ähnlich wie das argentinische Datenschutzgesetz– eng an die DSGVO angelehnt ist. Mexiko prüft ebenfalls eine KI-Gesetzgebung und hat bereits unverbindliche Leitlinien herausgegeben, in denen ethische Grundsätze und Menschenrechte betont werden.Während sich die regionale KI-Politik noch in der Entwicklung befindet, tendieren andere lateinamerikanische Länder wie Chile, Kolumbien, Peru und Uruguay zu Rahmenwerken, die Transparenz, die Zustimmung der Nutzer und menschliche Kontrolle in den Vordergrund stellen. Mit der zunehmenden Verbreitung von KI werden die lateinamerikanischen Länder wahrscheinlich dem Beispiel der EU folgen und risikobasierte Vorschriften einführen, die sich mit Hochrisikoanwendungen, Datenverarbeitungsstandards und Datenschutzrechten befassen.Naher Osten: Zentren für KI-InnovationenDie Länder des Nahen Ostens investieren erheblich in KI, um das Wirtschaftswachstum anzukurbeln, weshalb auch die Politik besonders innovationsfreundlich ist. In vielen Fällen liegt der Schwerpunkt der Politik sowohl auf der Entwicklung technologischer Spitzenleistungen und der freiwilligen Einhaltung durch die Unternehmen als auch auf strengen gesetzlichen Anforderungen. Dies macht die Region zudem besonders komplex für Unternehmen, die sich bemühen, sich den Bedingungen jedes Landes anzupassen.Die VAE wollen sich durch Initiativen wie die UAE National AI Strategy 2031 als weltweit führend im KI-Sektor positionieren. Die Strategie umfasst ethische Leitlinien, legt aber auch Wert auf eine innovationsfreundliche Politik, die Investitionen anzieht. Saudi-Arabien geht einen ähnlichen Weg. Vorschriften wie die Standards für Datenmanagement und den Schutz personenbezogener Daten (Data Management and Personal Data Protection Standards)konzentrieren sich auf Transparenz und Datenlokalisierung, um die Daten der Bürger zu schützen und gleichzeitig die rasche Entwicklung von KI in allen Bereichen zu fördern. Israels KI-Regulierung stützt sich auf flexible, in den Datenschutzgesetzen verankerte Richtlinien, einschließlich des Datenschutzgesetzes (Privacy Protection Law, PPL), das 2024 geändert wurde, um es an die DSGVO der EU anzupassen.Übersichtstabelle mit ZusammenfassungRegionLand/RegionVorschrift/RichtlinieSchwerpunktAuswirkungen auf die WirtschaftEuropaEUKI-Gesetz (geplant)Risikoabhängige KI-Klassifizierung; hohe Standards bei Datenverwaltung, Transparenz und menschlicher AufsichtHöhere Aufwände bei Compliance, mögliche Verzögerungen bei der Einführung von KI aufgrund strikter Auflagen EUDatenschutzgrundverordnung (DSGVO)Datenschutz, Zustimmung zur Datenverarbeitung, Beschränkungen für grenzüberschreitende DatenübertragungenErhöhte Betriebskosten für die Einhaltung der Vorschriften, Herausforderungen für die globale Datenübertragung und -speicherungNordamerikaUSAEntwurf für ein KI-GrundgesetzKI-Sicherheit, Datenschutz, Fairness; unverbindliche staatliche LeitlinienFlexibilität ermöglicht Innovation, aber Gesetze auf Länderebene erhöhen das Risiko der Fragmentierung von Vorschriften USA (Bundesstaaten)California Consumer Privacy Act (CCPA) & Virginia Consumer Data Protection Act (VCDPA)Datenschutz, Verbraucherdatenschutz, strenge Einhaltung der Vorschriften zur DatenverarbeitungErhöhte gesetzliche Anforderungen für Unternehmen, die in strengen Bundesstaaten tätig sind KanadaArtificial Intelligence and Data Act (AIDA) (geplant)Nationale KI-Ethik und Datenschutz; Transparenz, Verantwortlichkeit für die Nutzung personenbezogener DatenErfordert Investitionen in KI-Auditsysteme und Dokumentation KanadaPersonal Information Protection and Electronic Documents Act (PIPEDA)Datentransparenz, Zustimmung der Nutzer, Verantwortlichkeit bei der Verwendung personenbezogener DatenBietet Organisationen die Möglichkeit, durch Transparenz das Vertrauen ihrer Kunden zu gewinnenAPAC (Asien-Pazifik)IndienDigital Personal Data Protection Bill (DPDPB)Datenschutz, Einwilligung der Nutzer, Datensouveränität, LokalisierungBetriebskosten für Systeme zur Datenlokalisierung, limitiert grenzüberschreitenden Datenfluss SingapurModell eines Rahmenwerks für KI-GovernanceVerantwortungsvolle KI-Nutzung, Data Governance, TransparenzUnternehmen, die sich frühzeitig an den Anforderungen orientieren, sichern sich einen Wettbewerbsvorteil SüdkoreaAI Industry Promotion ActUnterstützung der KI-Industrie, Transparenz, DatenlokalisierungFördert KI-Innovationen, bringt aber Lokalisierungskosten für internationale Unternehmen mit sich ChinaGesetze zur DatenlokalisierungStrenge Datenlokalisierung, Hoheit über die DatenverarbeitungDie Datenlokalisierung ist mit Kosten für die Einhaltung der Vorschriften verbunden und kann für ausländische Unternehmen, die in China tätig sind, Hindernisse darstellen JapanGesetz zum Schutz der Privatsphäre (Soft-Law-Grundsätze)Schutz der Privatsphäre, künftige verbindliche Vorschriften erwartetKurzfristige geschäftliche Flexibilität mit dem Potenzial für zukünftige Kosten für Compliance, wenn verbindliche Vorschriften eingeführt werdenLateinamerikaBrasilienAllgemeines Datenschutzgesetz (General Data Protection Law, LGPD)Datenschutz, Einwilligung in die Datenverarbeitung, Transparenz bei der DatennutzungDie Angleichung an die DSGVO kann europäischen Unternehmen den Einstieg erleichtern, birgt aber auch das Potenzial, die Kosten für die Einhaltung der Vorschriften zu erhöhen MexikoEthische Grundsätze der KI (nicht bindend)Ethische Grundsätze, Menschenrechte, Leitlinien für den verantwortungsvollen Umgang mit KIMinimale Compliance-Anforderungen, ein „Soft-Law“-Ansatz ermöglicht Unternehmen Flexibilität ArgentinienGesetz zum Schutz personenbezogener DatenDSGVO-konform; Einwilligung, Datenschutz, Nutzerrechte  ChileNational Intelligence PolicyMenschenrechte, Transparenz, Vermeidung von Bias beim Einsatz von KIGeringe Compliance-Kosten, aber Fokus auf ethische KI-Praktiken erforderlich KolumbienNational Policy for Digital TransformationEthische KI-Nutzung, verantwortungsvolle Entwicklung, DatensouveränitätFokus auf ethische Praktiken könnte Wettbewerbsvorteile bei öffentlichen Ausschreibungen schaffen PeruNationale Strategie für KIKI-Infrastruktur, Ausbildung von Fachkräften, ethische DatenpraktikenSchafft Möglichkeiten für Unternehmen, die sich mit KI-Schulungen und -Infrastrukturen befassen, erfordert jedoch ethische Orientierung UruguayAktualisierte KI-Strategie (in Arbeit)Governance in der öffentlichen Verwaltung, KI-InnovationErleichterung des Marktzugangs für innovationsorientierte Unternehmen trotz anspruchsvoller Anpassung an Governance-RahmenbedingungenNaher OstenVAELeitfaden für KI-Ethik und für die Einführung von KIEthische Standards, Datenschutz, verantwortungsvoller Einsatz von KIUnterstützt ethische KI-Entwicklung mit minimaler regulatorischer Belastung VAEDubai International Financial Center (DIFC) DatenschutzbestimmungenDatennutzung in KI-Anwendungen, Datenschutzrechte, DatenlokalisierungKann die Datenübertragung erschweren, positioniert Dubai aber als führendes KI-Land VAEKI-ChartaGovernance, Transparenz und Datenschutz in der KI-PraxisFördert die internationale Zusammenarbeit und betont den verantwortungsvollen Einsatz von KI Saudi-ArabienStandards für Datenmanagement und Schutz personenbezogener DatenTransparenz, Datenlokalisierung, minimale Einschränkungen für KI-InnovationenUnterstützt Innovation, erhöht aber Kosten für lokalisierte Datenverarbeitung Saudi-ArabienEthische Grundsätze der KI und Richtlinien für generative KIEthische Standards, verantwortungsvolle KI-Nutzung, Leitlinien für die IndustrieNiedrige Compliance-Kosten fördern Innovation IsraelPrivacy Protection Law (PPL) und KI-PolitikDatenschutz, DSGVO-konforme Änderungen (KI-Politik), ethische und flexible KI-RegulierungFlexibilität für ethisch handelnde Unternehmen, Angleichung an DSGVO kann europäische Zusammenarbeit erleichternCompliance-Management angesichts sich überschneidender VorschriftenCompliance-Management stellt schon immer eine Herausforderung dar. Angesichts der vielfältigen und oft widersprüchlichen Anforderungen, die weltweit gelten, ist die Einhaltung von Vorschriften heute jedoch schwieriger denn je. International tätige Unternehmen müssen eine Balance zwischen der Einhaltung strenger Vorschriften wie der EU-Datenschutzgrundverordnung (DSGVO) oder den chinesischen Gesetzen zur Datenlokalisierung und der Einhaltung flexiblerer oder innovationsorientierter Rahmenwerke in Ländern wie Singapur und Saudi-Arabien finden. Unternehmen sind gefordert, ihre Abläufe an die unterschiedlichen Standards für Datenschutz, Transparenz und Governance anzupassen, was zu höheren Kosten und betrieblicher Ineffizienz führen kann. Diese Fragmentierung der Vorschriften zwingt Unternehmen oft zu erheblichen Investitionen in juristische Expertise, in Compliance-Infrastruktur und in maßgeschneiderte operative Strategien, um widersprüchliche Anforderungen zu erfüllen.Vereinfachung globaler KI-Compliance mit GcoreFür international tätige Unternehmen stellt die Einhaltung unterschiedlicher KI-Vorschriften eine große Hürde dar. State-of-the-Art-Technologien wie Sovereign Cloud und Edge Computing eröffnen jedoch neue Möglichkeiten, diese Standards zu erfüllen. Sovereign Clouds ermöglichen die Datenspeicherung und -verarbeitung innerhalb bestimmter Regionen, was es den Unternehmen erleichtert, die Gesetze zur Datenlokalisierung einzuhalten und gleichzeitig von der Skalierbarkeit der Cloud zu profitieren. Anbieter wie Gcore bieten Lösungen mit einem weltweiten Netz von Datenzentren an, die globalen Unternehmen einen nahtlosen Betrieb über Grenzen hinweg ermöglichen.Gcore ist führend im Edge Computing, das als Ergänzung zur Lokalisierung die Datenverarbeitung näher am Entstehungsort der Daten ermöglicht. Dies verringert den Bedarf an grenzüberschreitenden Datenübertragungen und verbessert sowohl Latenzzeit als auch Netzwerkeffizienz. Dies ist besonders vorteilhaft für KI-Anwendungen in Bereichen wie autonomes Fahren und Telemedizin, in denen sowohl Geschwindigkeit als auch Konformität entscheidend sind. Darüber hinaus vereinfacht Gcore die Einhaltung von Vorschriften wie der EU-DSGVO und dem KI-Gesetz, indem es dazu beiträgt, dass sensible Daten sicher und innerhalb der regionalen Grenzen bleiben.Entdecken Sie Gcore Inference at the Edge für die lückenlose Einhaltung von gesetzlichen Vorschriften

Einführung von Gcore Inference at the Edge: KI-Apps näher an Ihre Benutzer bringen, um blitzschnelle Reaktionen zu ermöglichen

Wir freuen uns, Gcore Inference at the Edge vorzustellen. Diese neue Lösung reduziert die Latenzzeit Ihrer ML-Modellausgabe und verbessert die Leistung von KI-gestützten Anwendungen. Es basiert auf Gcores globalem Netzwerk von über 180 Edge Points of Presence (PoPs), die von NVIDIA L40S GPUs angetrieben werden. Inference at the Edge kommt insbesondere latenzempfindlichen Echtzeitanwendungen zugute, darunter generative KI und Objekterkennung. Inference at the Edge befindet sich derzeit in der Beta-Phase und kann kostenlos genutzt werden. Lesen Sie weiter, um mehr über die Funktionen der Lösung, Anwendungsfälle und die ersten Schritte zu erfahren.Was ist Gcore Inference at the Edge?Gcore Inference at the Edge ermöglicht es Ihnen, ML-Modelle an Edge-Punkten einzusetzen. Anycast-Endpunkte leiten Endbenutzeranfragen an das nächstgelegene laufende Modell weiter, um eine geringe Latenzzeit zu erreichen, was zu einem nahtlosen Benutzererlebnis führt.Die zugrundeliegende Infrastruktur muss nicht verwaltet, skaliert und überwacht werden; die Einrichtung erfolgt vollständig automatisiert auf unserer Seite. Sie erhalten also einen einzigen Endpunkt zur Integration in Ihre Anwendung.Inference at the Edge stützt sich auf drei Komponenten:Unser Netzwerk mit niedriger Latenz von über 180 Edge-PoPs in über 90 Ländern mit Smart Routing und einer durchschnittlichen Netzwerklatenz von 30 msNVIDIA L40S GPUs auf Gcore Edge PoPs eingesetztden Modellkatalog von Gcore, der beliebte, quelloffene ML-Grundmodelle wie Mistral 7B, Stable-Diffusion XL und LLaMA Pro 8B enthältWie funktioniert Gcore Inference at the Edge?Wir bieten Ihnen einen einzigen Endpunkt für Ihre Anwendungen. Wenn Endbenutzer auf diesen Endpunkt zugreifen, werden ihre Anfragen an die ihnen am nächsten gelegenen Edge-PoPs weitergeleitet.Hier ist ein Beispiel dafür, wie der Dienst für Endnutzer funktioniert:Abbildung 1: So funktioniert Inference at the EdgeEine Benutzeranfrage und ein Modellergebnis können auf zwei Arten behandelt werden:Standardabfrage-Ergebnisroute: Wenn ein Benutzer eine Anfrage sendet, bestimmt ein Edge-Knoten die Route zur nächsten verfügbaren Inferenzregion mit der geringsten Latenz.Alternative Abfrage-Ergebnisroute: Wenn die nächstgelegene Region nicht verfügbar ist, leitet der Edge-Knoten die Anfrage des Nutzers dann an die nächste Region weiter, die räumlich am nahsten zum Benutzer ist.Warum sollte man sich für Gcore Inference at the Edge entscheiden?Inference at the Edge bietet viele Vorteile für Entwickler von KI-Anwendungen, die die KI-Inferenz optimieren und die Benutzerfreundlichkeit verbessern möchten.Hohe Performance: Der Dienst beschleunigt die Durchlaufzeit einer Abfrage und einer Modellantwort durch das Netz auf durchschnittlich 30 ms.Skalierbarkeit: Skalieren Sie Ihr ML-Modell automatisch nach oben und unten, entweder in einer bestimmten Region oder in allen ausgewählten Regionen.Kosteneffizient: Sie zahlen nur für die Ressourcen, die Ihr ML-Modell nutzt. Legen Sie Grenzen für die automatische Skalierung fest, um zu kontrollieren, wie viele Ressourcen Ihre Modelle bei Spitzenlasten verwenden.Schnelle Markteinführung: Indem Sie das Infrastrukturmanagement an das Gcore-Team delegieren, sparen Ihre Entwickler wertvolle Zeit und können sich auf ihre Kernaufgaben konzentrieren.Einfach zu bedienen: Inference at the Edge bietet einen intuitiven Entwickler-Workflow für eine schnelle und rationelle Entwicklung und Bereitstellung.Unternehmenstauglich: Der Service bietet Ihnen Sicherheit mit integriertem DDoS-Schutz für Endpunkte und lokaler Datenverarbeitung, um den Schutz und die Souveränität Ihrer Daten zu gewährleisten.Anwendungsfälle für Inference at the EdgeInference at the Edge kann branchenübergreifend eingesetzt werden. Hier sind nur einige Beispiele für mögliche Anwendungsfälle:TechnologieGamingEinzelhandelMedien und EntertainmentGenerative KI-Anwendungen Chatbots und virtuelle Assistenten KI-Tools für Softwareentwickler DatenerweiterungGenerierung von KI-Inhalten und Karten Echtzeit-KI-Bot-Anpassung und Konversation Echtzeit-Analyse von Media-PlayernIntelligente Lebensmittelgeschäfte mit Self-Checkout und Merchandising Erstellung von Inhalten, Vorhersagen und Empfehlungen Virtuelle AnprobeInhaltsanalyse Automatisierte Transkription Echtzeit-ÜbersetzungErste SchritteGcore Inference at the Edge befindet sich noch in der Betaphase und ist auf Anfrage erhältlich. Wenn Sie es ausprobieren möchten, nehmen Sie Kontakt über unser Kontaktformular auf oder, wenn Sie bereits Gcore-Kunde sind, wenden Sie sich an Ihren Kundenbetreuer.Sobald Sie Zugang haben, können Sie unsere Produktdokumentation einsehen:Erstellen Sie ein KI-ModellHinzufügen und Konfigurieren einer RegistryAPI-Schlüssel erstellen und verwaltenVerwalten Sie Deplyments im Gcore-KundenportalFazitGcore Inference at the Edge ist eine leistungsstarke und effiziente Lösung für die Bereitstellung Ihrer ML-Modelle und die Verbesserung des Benutzererlebnisses. Sie bietet niedrige Latenzzeiten und einen hohen Durchsatz für Ihre ML-Modelle, integrierten DDoS-Schutz, gängige Basismodelle und andere Funktionen, die für produktionsreife KI-Inferenz am Netzwerkrand unerlässlich sind.Wenn Sie eine persönliche Beratung oder Hilfe zum Produkt wünschen, setzen Sie sich bitte mit uns in Verbindung.Erkunden Sie „Gcore Inference at the Edge”

Einführung des KI-Bildgenerators: ein kostenloses Tool zur Erstellung von Bildern anhand von Texteingaben

Wir freuen uns, die Einführung unseres generativen KI-Tools KI-Bildgenerator anzukündigen, mit dem Sie Bilder anhand von Texteingaben erstellen können. Die Nutzung ist kostenfrei und unbegrenzt für Nutzer, die auf der Gcore-Plattform registriert sind. Der KI-Bildgenerator wird durch unsere KI-IPU-Infrastruktur angetrieben.So nutzen Sie den KI-BildgeneratorDer KI-Bildgenerator von Gcore nimmt Ihre Texteingaben und kreiert beeindruckende, realistische KI-Bilder anhand Ihrer Eingaben. Sie können diese Bilder nach Belieben für geschäftliche oder persönliche Zwecke nutzen.Das Tool ist in die Gcore-Cloud-Plattform eingebaut. So können Sie das Tool nutzen:Melden Sie sich bei der Gcore-Cloud-Plattform an. Wenn Sie noch kein Konto haben, registrieren Sie sich mit Ihrer E-Mail-Adresse oder mit Ihrem Google- oder GitHub-Konto. Rechnungsdaten sind nicht erforderlich.Wählen Sie den Abschnitt Bildgenerator im vertikalen Menü auf der linken Seite. Sie sehen dann das folgende Fenster:Abbildung 1: die Benutzeroberfläche des KI-BildgeneratorsGeben Sie unten die Aufforderung im grauen Feld Eingabe ein und klicken Sie dann auf die Zurück-Taste. Der KI-Bildgenerator erstellt daraufhin ein Bild anhand der Eingabe.Um das Bild zu speichern, klicken Sie mit der rechten Maustaste darauf und wählen Sie die OptionBild speichern als….Hier sind einige Beispiele für die erstellten Bilder aus dem KI-Bildgenerator:Abbildung 2: durch den KI-Bildgenerator erstellte BilderUm relevantere Ergebnisse zu erzielen, verwenden Sie spezifischere und detailliertere Texteingaben. Anstatt die Aufforderung „eine futuristische Stadt“ einzugeben, könnten Sie beispielsweise den folgenden Text verwenden: „eine pinke, futuristische und verspielte Stadt in den Wolken, wo Luftschiffe an haushohen Plattformen andocken und Wolken als Straßen dienen, sehr detailliert dargestellt“.Die Technologie unter der HaubeDer KI-Bildgenerator wird durch die KI-IPU-Infrastruktur angetrieben, die speziell für KI- und ML-Aufgaben entwickelt wurde. Diese KI-Cloud-Infrastruktur auf Grundlage der Graphcore Bow IPU POD Scale-Out-Cluster bietet eine unkomplizierte Möglichkeit, um modernes AI/ML-Computing auf Abruf auch ohne die Bereitstellung von Hardware vor Ort oder den Aufbau einer KI-Infrastruktur von Grund auf einzusetzen.Zur Entwicklung des Bildgenerators wurde das vorgefertigte GenAI-Modell von Openjourney eingesetzt und genau abgestimmt, damit der Bildgenerator genauere Ergebnisse erzielt.RoadmapWir nehmen aktiv Verbesserungen an unserem KI-Bildgenerator vor. Die folgenden Funktionen werden demnächst hinzugefügt:Erweiterte BildbearbeitungBilderzeugung basierend auf einem NutzerbildErweiterte KontrollfunktionalitätIntegration mit externen Diensten über APIJetzt loslegen!Um dieses Tool zu nutzen, melden Sie sich bei der Gcore-Cloud-Plattform an oder registieren Sie sich, wenn Sie noch kein Benutzerkonto haben. Gehen Sie dann zum Abschnitt Bildgenerator im vertikalen Menü auf der linken Seite — und viel Spaß!Weitere Informationen über generative KI und inwiefern die KI-IPU-Infrastruktur durch diese unterstützt wird, finden Sie in diesem Artikel in unserem Blog.

Gcore startet AI-Cloud auf Basis von Graphcore IPU in Manassas, US

Wir freuen uns, die Erweiterung der Gcore AI Cloud angetrieben von Graphcore Bow IPU zu unserem Rechenzentrum in Manassas, Virginia, bekannt zu geben. Manassas liegt strategisch günstig in der Nähe von Washington DC und befindet sich im Herzen der Eastern Seaboard-Region der USA, einem Zentrum der technischen Innovation. Die AI Cloud bietet virtuelle vPODs mit verschiedenen Konfigurationen, die sich für die Ausführung aller Arten von KI/ML-Workloads eignen – auch für die besonders anspruchsvollen.Was ist die Grundlage der Infrastruktur?Der AI-Cluster basiert auf dem GraphcoreBow Pod64, ein IPU-System, das mehrere Benutzer und verschiedene KI-Workloads über virtuelle vPODs unterstützt. Der Bow Pod64 enthält 94.208 IPU-Kerne und liefert 22,4 petaFLOPS an Gesamtrechenleistung. Diese Fähigkeiten ermöglichen es uns, leistungsstarkes KI-Computing für Training und Inferenz zu liefern, so dass unsere Kunden ihre KI/ML-Modelle in der Cloud und am Edge entwickeln und einsetzen können.Bow Pod ist mit allen gängigen ML-Frameworks kompatibel, darunter TensorFlow, PyTorch und Paddle Paddle, sowie mit Cloud-nativen Anwendungen wie Kubernetes, Prometheus und Grafana.Virtuelle vPOD-Konfigurationen von ManassasHier sind die virtuellen vPOD-Konfigurationen, die wir am neuen Standort in Manassas anbieten:ProduktInstanzkonfigurationAnzahl der IPUsPreis pro StundeBOW-vPOD460 vCPU / 116 GB RAM / 1100 GB NVMe (ephemer) / 100 Gbit/s-Verbindung13,68 $BOW-vPOD16120 vCPU / 232 GB RAM / 2200 GB NVMe (ephemer) / 100 Gbit/s-Verbindung1613,70 $BOW-vPOD16240 vCPU / 464 GB RAM / 4400 GB NVMe (ephemer) / 100 Gbit/s-Verbindung1615,80 $BOW-vPOD64240 vCPU / 464 GB RAM / 4400 GB NVMe (ephemer) / 100 Gbit/s-Verbindung6464,30 $Alle Konfigurationen sind jetzt verfügbar über unsere Cloud-Plattform.Sie können vPOD4 auch kostenlos für 24 Stunden testen. Um die Testversion zu erhalten, kontaktieren Sie unser Vertriebsteam.Was ist ein virtueller vPOD?Ein virtueller vPOD ist eine Variante, bei der ein Poplar®-Server – ein Server, der Bow IPU-Server in einem Cluster verwaltet – auf einer virtuellen Maschine eingesetzt wird. Dies steht im Gegensatz zu einem dedizierten vPOD, bei dem ein Poplar®-Server auf einem dedizierten Bare-Metal-Server eingesetzt wird.Ein virtueller vPOD bietet direkten Zugriff auf einen Host-Server und eine schnelle Verbindung zu physischen IPU-Beschleunigern. Damit bietet es eine kostengünstige Lösung für alle, die schnellen und dynamischen Zugriff auf IPU-Rechenleistung benötigen. Sie können virtuelle vPODs in nur 5 Minuten bereitstellen, verglichen mit 15 Minuten für dedizierte physische vPODs.Vorteile von virtuellen vPODsMit virtuellen vPODs können Sie:Setzen Sie Ihre Entwicklungsumgebung nahtlos um.Installieren und führen Sie Code blitzschnell aus.Verbessern Sie Ihre Erfahrung mit beliebten ML-Frameworks wie TensorFlow, PyTorch und Keras.Nutzen Sie ephemeren Speicher für zustandslose Workloads.Verwenden Sie externe Volumes, um sich mit externem Blockspeicher zu verbinden und neue Datenvolumes hinzuzufügen.Verwenden Sie den Suspendierungsmodus, um Ihren Cluster anzuhalten, was für unvorhersehbare Workloads, Ressourcenmanagement und Kostenoptimierung nützlich ist. Sie können den Cluster in wenigen Minuten wieder aktivieren.Mehr erfahrenBesuchen Sie unsere AI IPU-Produktseite, um alle Funktionen und Vorteile unserer AI Cloud zu entdecken.Schauen Sie sich unser Webinar an und erfahren Sie, wie Sie mit IPUs KI-Modelle für verschiedene Anwendungen trainieren können.Schauen Sie sich unseren Blog an, um herauszufinden, wie die Gcore AI IPU Cloud Ihnen bei der Entwicklung, dem Training und der Inferenz von KI/ML helfen kann.

Start der NVIDIA H100 GPU mit 3,2 Tbps ConnectX-7 Karten in Luxemburg

Wir freuen uns, die baldige Verfügbarkeit der leistungsstarken NVIDIA H100 GPU-Beschleuniger mit ConnectX-7-Karten in unseren Rechenzentren in Luxemburg ankündigen zu können. Die ConnectX-7-Karten bieten eine beeindruckende Netzwerkbandbreite von 3,2 Tbps. Ausgestattet mit diesen intelligenten Adaptern verfügen die leistungsstärksten NVIDIA-GPUs über eine erstklassige KI-Architektur für das Trainieren, den Einsatz und die Bereitstellung von KI/ML-Modellen im großen Maßstab.Anwendungsfälle für ConnectX-7-KartenH100-GPUs mit ConnectX-7-Karten werden Teil des generativen AI-Clusters sein, das wir im September 2023 starten. Der Cluster umfasst Dutzende von Servern auf der Grundlage von NVIDIA A100 und H100 GPUs. Er bietet den erheblichen Leistungsschub, der für das Trainieren und die Inferenz großer KI/ML-Modelle, einschließlich der generativen KI, erforderlich ist.Mit ConnectX-7-Karten können Sie mehrere GPU-Instanzen miteinander verbinden, und erreichen so eine außergewöhnliche Leistung und Skalierbarkeit. Dies ist besonders nützlich für das Trainieren und den Einsatz umfangreicher Modelle sowie für den Aufbau skalierbarer Multi-GPU-Cluster für Inferenzen mit unvorhersehbaren Workloads.NVIDIA ConnectX-7 InfiniBand-AdapterDer NVIDIA ConnectX-7 Smart Host Channel Adapter bietet höchste Netzwerkleistung für GPU-intensive Workloads wie Natural Language Processing (NLP)-Anwendungen und Supercomputing. Basierend auf der NVIDIA Quantum-2 InfiniBand-Architektur bietet ConnectX-7 eine extrem niedrige Latenz, einen Durchsatz von 3,2 Tbps und innovative NVIDIA In-Network Computing Acceleration Engines für die zusätzliche Beschleunigung zur Verbesserung der Skalierbarkeit von Workloads.Die wichtigsten Merkmale von ConnectX-7:Beschleunigte softwaredefinierte NetzwerkeVerbesserte Sicherheit mit Inline-Verschlüsselung und -Entschlüsselung von TLS, IPsec und MACsecHohe Speicherleistung mit RDMA/RoCE, GPUDirect Storage und hardwarebasierten NVMe-oF Offload EnginesPräzise Zeitsynchronisierung für Anwendungen in Rechenzentren und zeitkritische InfrastrukturenJetzt loslegenNVIDIA-GPUs stellen die Leistung für unsere virtuellen Instanzen, Bare-Metal-Server und Managed Kubernetes-Arbeitsknoten bereit, die auf virtuellen und Bare-Metal-Instanzen basieren. Die KI-Infrastruktur von Gcore lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert die Arbeitsabläufe für maschinelles Lernen vom Experimentieren bis zur Bereitstellung. Sie können unsere AI GPU-Infrastruktur kostenlos testen und ihre Leistungsfähigkeit selbst erleben. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.Weitere Informationen über KI-Computing und den Beitrag von Gcore zur Branche finden Sie in unseren KI-Blogbeiträgen.

Gcore startet einen Cluster für generative KI in Luxemburg

Wir freuen uns, unser ehrgeiziges neues Projekt vorstellen zu können: den generativen KI-Cluster von Gcore, der auf zwanzig Servern mit NVIDIA GPUs basiert. Der Cluster bietet den erheblichen Leistungsschub, der für das Training und die Inferenz großer KI/ML-Modelle erforderlich ist, einschließlich solcher für generative KI. Als blühendes Zentrum der technologischen Innovation bietet Luxemburg den perfekten Rahmen für dieses monumentale Unterfangen.Unterstützt durch führende GPU-BeschleunigerDer generative KI-Cluster von Gcore besteht derzeit aus zwanzig Servern, die mit NVIDIA A100 Tensor Core GPUs ausgestattet sind. Der A100 ist ein leistungsstarker Beschleuniger, der bei den meisten KI-Trainingsaufgaben die Leistung der GPU-Konkurrenz übertrifft. Außerdem liefert er eine bis zu 100x schnellere KI-Trainingsleistung als moderne CPUs.Hier sehen Sie eine A100-basierte Serverkonfiguration:8x NVIDIA A100 SXM 80 GB2x Intel Xeon 84682 TB RAM8×3,84 TB NVMeInfiniBand 800 GbpsInfiniBand-Schnittstellen bieten direkte Hochgeschwindigkeits-GPU-Verbindungen, ideal für die Skalierung generativer KI-Workloads.Gcore GPU-Infrastruktur-TypenSie können wählen, wie Sie die Clusterkapazität als Teil Ihres bevorzugten Gcore-Dienstes nutzen möchten. Die NVIDIA A100 Grafikprozessoren treiben Folgendes an:Virtuelle InstanzenBare-Metal-ServerManaged Kubernetes basierend auf virtuellen InstanzenManaged Kubernetes auf Bare MetalDie Systeme von Gcore sind für die NVIDIA-Hardware optimiert, um Spitzenleistung zu gewährleisten.MLOps-ReadyUnser Setup lässt sich nahtlos in MLOps-Plattformen wie UbiOps integrieren und rationalisiert Ihre maschinellen Lernprozesse vom Experimentieren bis zur Bereitstellung. So können Sie alle Ihre Modelle an einem Ort verwalten, mit Versionskontrolle, Protokollierung, Auditing und Überwachung. Sie können die Nutzung und die Leistungskennzahlen Ihrer Modelle verfolgen und die erforderlichen Warnungen und Benachrichtigungen einstellen. Lassen Sie Ihre Daten für Sie arbeiten, nicht umgekehrt. Weitere Einzelheiten finden Sie unter unserer Ankündigung der Partnerschaft von Gcore, Graphcore und UbiOps.Gcores KI-Pläne für die ZukunftIn den kommenden Monaten werden wir den generativen KI-Cluster von Gcore um 25 A100 und 128 H100 GPU-basierte Server erweitern. Der H100 Tensor Core Grafikprozessor ist NVIDIAs neuester KI-Beschleuniger für Rechenzentren und liefert eine bis zu 4x schnellere KI-Trainingsleistung als der A100.Hier sehen Sie eine H100-basierte Serverkonfiguration:NVIDIA HGX H100 8-GPU SXM GPUs Montage2x Intel Xeon Platinum 8480+2 TB RAM8x 3,84 TB Enterprise NVMe RIInfiniBand 3.6 TbpsBleiben Sie dran für unsere kommende Global Intelligence Pipeline, die darauf ausgelegt ist, die Inferenz am Rande zu beschleunigen. Mit diesem Projekt überwinden wir die Grenzen zwischen der Datenerfassung und der Echtzeitanalyse und ermöglichen so intelligentere und schnellere Entscheidungen.Jetzt loslegenSie können unsere KI-GPU-Infrastruktur kostenlos testen. Um Ihre kostenlose Testphase zu erhalten, füllen Sie dieses Formular aus und unser Vertriebsteam wird sich mit Ihnen in Verbindung setzen, um die Einzelheiten zu besprechen.Um mehr darüber zu erfahren, wie GPUs generative KI vorantreiben, lesen Sie unseren Blogbeitrag.

Subscribe
to our newsletter

Get the latest industry trends, exclusive insights, and Gcore updates delivered straight to your inbox.