AI 加速核心 - NVIDIA H100 Tensor Core GPU
以 Hopper 架構為核心,為生成式 AI、LLM 與高效能運算提供最強算力
Hopper™ 架構
基於 Hopper™ 架構,性能較上一代快達 30 倍。
Transformer 引擎
內建 Transformer 引擎,為大型語言模型(LLM)與生成式 AI 量身打造。
支援兆級參數
支援兆級參數訓練與推論,加速 AI 模型從開發到部署全流程。
企業級雲端,極致效能與彈性兼具
虛擬運算搭配虛擬磁碟服務,讓 AI 運算更簡單、更快速、更安全
效能與彈性
- 快速部署:介面操作簡單,應用可於數分鐘內啟動
- CPU/GPU 最佳化:提供專用實例與多種規模選擇,確保效能穩定
- 彈性調整規格:可依需求調整主機規格及磁碟容量
安全與穩定
- 雲端防火牆與 OS 隔離:多層防護架構,確保資料與應用安全
- 即時監控與警報:異常存取主動告警;即時監控CPU、記憶體、網路使用情況
- 詳細日誌與審計追蹤:完整記錄操作行為,提升可監控性與合規性
儲存與擴充
- 高效能區塊儲存:SSD 支援、容量可擴展,確保資料持久化
- 映像檔遷移支援:環境可攜性高,方便不同環境間移轉
- 在地機房:台灣境內機房高度符合資料不出境的機敏需求
靈活管理與成本優化
- 自主管理環境:用戶可依需求設定網路與環境參數
- 彈性運算架構整合:利用負載平衡,建置最合適之運算架構
- 節能計費模式:以小時計費低負擔,未使用時也可暫時關閉主機以降低成本
AI 加速應用,從想法到實踐
提供完整的雲端生態系支援,讓 AI 部署不再複雜
雲端 GPU 即租即用
- 適用於短期 AI 訓練與推論任務
- 彈性計費,快速啟用
專屬 GPU 集群
- 提供專屬雲端資源與彈性部署
- 支援長期專案與高效能需求
模型微調服務 Fine-tuning
- 支援 FP8 精度及第四代 Tensor Core
- 以企業自有資料進行 AI 模型微調,提升專屬性能
AI 整合平台
- 支援模型訓練、推論與 RAG 架構開發
- 提供在地化 FFM/AI Hub 模型服務,方便快速部署企業 AI 應用