AI IPU 클라우드 인프라

머신 러닝을 가속화하는 독점 AI 클라우드 인프라

AI IPU 클라우드 인프라

첫 달에 75% 할인을 받으세요.

모든 위치의 모든 구성에 유효합니다!

서비스형 AI 인프라

머신 러닝 가속화를 위한 통합 UI와 API로 AI IPU 인프라를 구축할 수 있도록 Graphcore IPU와 Gcore 클라우드 서비스를 통합했습니다.

빠르게 시작하고 컴퓨팅 비용을 절감하며 필요에 따라 손쉽게 대규모 IPU 컴퓨팅으로 원활하게 확장할 수 있습니다.

현재 무료 평가판과 다양한 가격 옵션으로 제공되는 Graphcore IPU 클라우드 서비스를 통해 전 세계 혁신가들이 기계 지능 분야에서 새로운 돌파구를 마련할 수 있도록 지원하고 있습니다.

서비스형 AI 인프라

Graphcore IPU를 선택한 이유는 무엇인가요?

    대대적인 성능 도약

    자연어 처리, 컴퓨터 비전 및 그래프 네트워크를 위한 세계 최고의 성능

     

    차별화된 결과를 위한 고유한 아키텍처

     

    짧은 지연 시간 추론

    훨씬 더 유연해진 유연성

    교육 및 추론을 위한 설계

     

    다양한 ML 모델 지원

     

    경쟁 우위를 위한 새로운 돌파구 마련

    간편한 사용

    AI 전문가의 지원

     

    광범위한 문서, 튜토리얼 및 미리 준비된 모델

     

    인기 있는 ML 프레임워크 지원

독점 솔루션 팩

Gcore IPU 기반 AI 클라우드는 온프레미스 하드웨어를 배포하거나 AI 인프라를 처음부터 구축할 필요 없이 온디맨드 방식으로 최첨단 머신 인텔리전스 컴퓨팅을 손쉽게 추가할 수 있는 Graphcore Bow IPU-POD 스케일아웃 클러스터입니다.

IPU는 완전히 새로운 종류의 대규모 병렬 프로세서로, 머신 인텔리전스를 가속화하기 위해 처음부터 Poplar® SDK와 공동 설계되었습니다. Cloud IPU는 강력한 성능과 저렴한 비용으로 솔루션을 빠르고 자주 반복하고자 하는 머신 러닝 팀에 이상적입니다.

전용 vPOD

AI 추론의 선도적 수단

클라우드의 세 가지 업계 표준 AI 모델에서 테스트한 결과 Graphcore Bow IPU-POD는 인기 있는 NVIDIA DGX A100보다 성능이 뛰어났습니다. Bow IPU-POD는 더 높은 처리량과 더 나은 가격 대비 성능을 제공합니다.

advantage
클라우드 가상 vPOD를 위한 일시 중단 모드

클라우드 가상 vPOD를 위한 일시 중단 모드

일시 중지 모드는 가상 프라이빗 클라우드 환경을 사용하지 않을 때 일시적으로 일시 중지할 수 있는 비용 및 리소스 효율적인 솔루션을 제공합니다. 이 기능을 활용하면 데이터와 구성의 무결성을 유지하면서 비용을 절감할 수 있습니다.

  • 클러스터가 일시 중지되면 스토리지와 플로팅 IP(활성 상태인 경우)에만 요금이 부과됩니다.
  • 동일한 구성으로 클러스터를 쉽게 다시 활성화할 수 있습니다.
  • 네트워크 구성 및 클러스터 데이터는 임시 스토리지 정보를 제외한 외부 블록 스토리지에 저장됩니다. 따라서 필요에 따라 구성을 수정하고 클러스터를 확장할 수 있어 유연성이 향상됩니다.

다른 AI 액셀러레이터를 사용해보고 싶으신가요?

유니티의 AI GPU 클라우드 오퍼링 보기!

NVIDIA A100 및 H100 GPU 기반의 Gcore 베어 메탈 서버 및 가상 머신을 사용해 보세요.

두 제품 모두 AI 및 고성능 컴퓨팅 워크로드에 이상적인 강력하고 다재다능한 가속기입니다.

기능 및 장점

    자연어 처리를 위한 세계적 수준의 성능

    대시보드, API 또는 Terraform을 통해 즉시 사용 가능한 ML 모델을 구축, 학습 및 배포하세요.

    데이터 세트 관리 및 S3/NFS 스토리지와의 통합

    버전 관리: 하드웨어, 코드, 데이터 세트

    신뢰할 수 있는 안전한 클라우드 플랫폼

    가상 vPOD를 위한 무료 이그레스 트래픽

    SLA 99,9% 가동 시간 보장

    연중무휴 24시간 고도로 숙련된 기술 지원

AI 전체 라이프사이클 도구 및 통합

    ML 및 AI 솔루션:

    • 텐서플로
    • Keras
    • 파이토치
    • 패들 패들
    • ONNX
    • 포옹하는 얼굴

    데이터 수신 및 처리:

    • Storm
    • Spark
    • 카프카
    • PySpark
    • MS SQL
    • Oracle
    • 몽고DB

    개발 도구:

    • Visual Studio 코드
    • PyCharm
    • 주피터
    • GitLab
    • GitHub
    • RStudio
    • Xcode
    • 공기 흐름

    탐색 및 시각화 도구:

    • Seaborn
    • Matplotlib
    • 텐서보드

    프로그래밍\언어:

    • 자바스크립트
    • R
    • Swift
    • Python

    데이터

    플랫폼:

    • PostgreSQL
    • Hadoop
    • Spark
    • Vertika
  • pytorch
  • tensorflow
  • lightning
  • keras
  • onnx
  • hugging_face
  • paddle_paddle
  • slurm
  • kubernetes
  • prometheus
  • graphana
  • openbmc
  • redfish
  • openstack
  • vmware
기성 AI 인프라로 ML 가속화

기성 AI 인프라로 ML 가속화

이제 고객은 AI 인프라를 통해 모델 또는 사용자 지정 코드 학습을 쉽게 훈련하고 비교할 수 있으며, 모든 모델은 하나의 중앙 모델 저장소에 저장됩니다. 이제 이러한 모델을 Gcore AI 인프라의 동일한 엔드포인트에 배포할 수 있습니다.

Gcore IPU 기반 AI 클라우드는 금융, 의료, 제조, 과학 연구 등 다양한 분야의 비즈니스를 지원하도록 설계되었습니다. 개념 증명 구축부터 교육 및 배포에 이르기까지 AI 도입 여정의 모든 단계를 지원하도록 구축되었습니다.

  • AI 모델 개발

  • ML 모델: 얼굴 인식, 물체 감지

  • AI 학습 및 하이퍼파라미터 튜닝

ML Model delivery and deployment pipelines
다이어그램을 보려면 옆으로 스크롤하세요.
ML Model delivery and deployment pipelines

Locations

암스테르담에서**IPU-Pod256을

** 사용할 수 있습니다. 이를 통해 고객은 슈퍼컴퓨팅 규모의 AI 컴퓨팅을 탐색할 수 있습니다. 대규모의 까다로운 머신 러닝 모델을 가속화하도록 설계된 IPU-Pod256은 거대 기술 기업의 AI 리소스를 제공합니다.

암스테르담
제품 서버 구성 IPUs 수량 Price
Bow Pod162x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 16 주문
Bow Pod642x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 64 주문
Bow Pod10242x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 1024 주문
Bow Pod42x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 4 주문
Bow Pod1282x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 128 주문
Bow Pod2562x7763/ 512GB RAM / 2x450 SATA + 7x1.8Tb nvme / 2x100G 256 주문
활 포드 서버 구성 IPU 수량 가격
BOW-vPOD16120 vCPU / 232GB RAM / 2200GB NVMe (ephemeral) / 100Gbit/s Interconnect 16 주문
BOW-vPOD64240 vCPU / 464GB RAM / 4400GB NVMe (ephemeral) / 100Gbit/s Interconnect 64 주문
BOW-vPOD16240 vCPU / 464GB RAM / 4400GB NVMe (ephemeral) / 100Gbit/s Interconnect 16 주문
BOW-vPOD460 vCPU / 116GB RAM / 1100GB NVMe (ephemeral) / 100Gbit/s Interconnect 4 주문
표를 보려면 가로로 스크롤하세요.

가격에는 부가가치세가 포함되어 있지 않습니다.

24시간 동안 vPOD4를 무료로 체험해 보세요! 영업팀에 문의하여 혜택을 받으세요!

우리는 유럽연합의 디지털 주권을 옹호합니다.

IPU 기반 AI 인프라 솔루션의 도움으로 우리는 다음과 같은 HPC 목표를 실현하고 있습니다. 룩셈부르크는 유럽 AI 허브의 중심지로 거듭나고 있습니다. 그래프코어 하드웨어와 그래프코어 엣지 클라우드 덕분에 새로운 AI 인프라는 완전히 서비스로서 사용할 수 있습니다.

Christophe Brighi
Christophe Brighi경제 및 상업 업무 책임자
"룩셈부르크에 본사를 둔 클라우드 및 엣지 솔루션 제공업체 Gcore와 영국 IPU 제작사 Graphcore의 파트너십은 양국 간의 무역 및 협력에서 발생하는 방대한 기회를 보여줄 뿐만 아니라, EU에서 데이터 경제를 선도하는 룩셈부르크의 입지를 확인시켜 줍니다."
Nigel Toon
Nigel ToonGraphcore의 공동 창립자 겸 CEO
"그래프코어와 G코어 솔루션은 AI에 완벽합니다. 현재 워크로드를 가속화하거나 차세대 ML 모델 사용을 모색하려는 모든 사람이 IPU의 성능과 유연성을 사용할 수 있게 될 것입니다."
Andre Reitenbach
Andre Reitenbach지코어 CEO
"Gcore는 빠르게 변화하는 클라우드 시장에 혁신을 가져다 줄 유럽 최초의 공급업체입니다. 사용자들은 변화하는 AI 요구 사항을 충족하기 위해 효율성이 높고, 쉽게 액세스할 수 있으며, 유연성이 뛰어난 신뢰할 수 있는 기술을 찾고 있습니다."
Christophe Brighi
Christophe Brighi경제 및 상업 업무 책임자
"룩셈부르크에 본사를 둔 클라우드 및 엣지 솔루션 제공업체 Gcore와 영국 IPU 제작사 Graphcore의 파트너십은 양국 간의 무역 및 협력에서 발생하는 방대한 기회를 보여줄 뿐만 아니라, EU에서 데이터 경제를 선도하는 룩셈부르크의 입지를 확인시켜 줍니다."
Nigel Toon
Nigel ToonGraphcore의 공동 창립자 겸 CEO
"그래프코어와 G코어 솔루션은 AI에 완벽합니다. 현재 워크로드를 가속화하거나 차세대 ML 모델 사용을 모색하려는 모든 사람이 IPU의 성능과 유연성을 사용할 수 있게 될 것입니다."
Andre Reitenbach
Andre Reitenbach지코어 CEO
"Gcore는 빠르게 변화하는 클라우드 시장에 혁신을 가져다 줄 유럽 최초의 공급업체입니다. 사용자들은 변화하는 AI 요구 사항을 충족하기 위해 효율성이 높고, 쉽게 액세스할 수 있으며, 유연성이 뛰어난 신뢰할 수 있는 기술을 찾고 있습니다."
Christophe Brighi
Christophe Brighi경제 및 상업 업무 책임자
"룩셈부르크에 본사를 둔 클라우드 및 엣지 솔루션 제공업체 Gcore와 영국 IPU 제작사 Graphcore의 파트너십은 양국 간의 무역 및 협력에서 발생하는 방대한 기회를 보여줄 뿐만 아니라, EU에서 데이터 경제를 선도하는 룩셈부르크의 입지를 확인시켜 줍니다."

맞춤형 제안을 받으려면 당사에 문의하세요