Reserved Cloud

大規模AIモデルの学習と推論のためのH100 GPUサーバーホスティング

高性能サーバーを年契約と分割払いで安く利用し、専門のデータセンター管理で最適なAI環境を体験してください。

利用お問い合わせ
サービス機能

最新のNVIDIA GPUを搭載したAI専用サーバーで競争力を強化してください。

最新のエンタープライズグレードの高性能 GPU でトレーニング済みの LLM パフォーマンスを強化

NVIDIA Tesla A100

NVIDIA A100は、TSMCの7nmプロセスで製造されたGPUです。ダイサイズは846平方mmで、トランジスタ数は542億個で、NVIDIA GPUの中で史上最大です。

NVIDIA H100

H100は、帯域幅3.35TB/sの80GB HBM3メモリを搭載しており、人工知能、機械学習、データ分析などのさまざまな高性能コンピューティング作業で優れた性能を発揮するように設計されています。

NVIDIA B200 (発売予定)

NVIDIA B200 Tensor Core GPUは、HBM3eを提供する初めてのGPUです。HBM3eは、生成AIおよびLLMの加速を促進するためのより速く、より大きなメモリです。

導入効果

高性能 AI スーパーコンピュータ, 

初期費用の削減と迅速な導入

一度に数千万ウォンの金額を支払う必要がなく、契約方法に従って費用を分割して支払うことで、財政的負担を軽減できます。

コスト削減と性能向上

複数のGPUクラスターを1~3年の柔軟な契約で研究性能を強化できます

高いスケーラビリティ

作業効率のためにリソース要件の変化に応じてスケールを調整し、キャパシティの拡張とモデルのトレーニングを強化してください。

高速で強力なネットワーク

NVIDIAの高性能GPUを遅延やボトルネックなしで迅速に利用できます。

製品仕様

大規模モデル向けに最適化
GPU/ストレージ/ネットワーク帯域幅

速度とパフォーマンスについて心配する必要はありません。ノンブロッキングの InfiniBand ネットワーキングにより、最適な GPU 通信が保証されます。

INSTANCE TYPE

GPU

GPU MEMORY

vCPUs

STORAGE

NETWORK BANDWIDTH


NVIDIA A100

구매 방식

8x NVIDIA A100

서버 규모(플랫폼 환경)

A100

서버 규모(플랫폼 환경)

8x 80 GB

서버 규모(플랫폼 환경)

128 Core

서버 규모(플랫폼 환경)

10 TB

서버 규모(플랫폼 환경)

最大 1600 ギガビット/秒

(近日公開)

NVIDIA B200

구매 방식

8x NVIDIA B200

서버 규모(플랫폼 환경)

B200

서버 규모(플랫폼 환경)

8x 141 GB

서버 규모(플랫폼 환경)

224 Core

서버 규모(플랫폼 환경)

30 TB

서버 규모(플랫폼 환경)

最大3200ギガビット/秒
AI専用ソフトウェアを搭載

組み込みの AI 専用ソフトウェアを通じて
ML/DL環境を迅速に提供

ディープラーニング用の事前設定済みのソフトウェア、共有ストレージ、ネットワークを使用して、すぐに作業を開始できます

コロケーション

ハイパワーサーバーの運用スペースと管理が気になる場合はどうしますか?

コロケーションにより負荷や障害を防ぎ、パフォーマンスと安定性を確保します

モンドリアンデータセンター

このサービスを利用すると、ラック、ネットワーク、冷却、ハードウェアのエラーを気にすることなく、作業に集中できます

Check Circle Icon - Techflow X Webflow Template
最適なサーバー運用環境の提供
Check Circle Icon - Techflow X Webflow Template
ハイパワーを受け入れ、追加のパワーで安定性を実現
Check Circle Icon - Techflow X Webflow Template
冗長構成による冗長ネットワークバックボーンによる安定性の確保

連絡

見積もりをご希望の場合は、以下のフォームにご記入ください。
確認後、できるだけ早くご連絡いたします

감사합니다

영업일 기준 3일 이내로 확인 후 답변 드리겠습니다
작성 양식을 확인해주세요