某头部券商 — 国产显卡切分增强 + 多集群管理
客户背景
现有容器平台仅管理传统业务,GPU 资源无法跨集群统一调度,且面临监控/存储/日志重复建设的浪费。
客户痛点
- 01 GPU 多集群无法统一调度
- 02 国产卡需要更精细的切分调度能力
- 03 监控/存储/日志重复建设
解决方案
采用管控与 GPU 计算分离架构,基于 Rise CAMP 在多套国产与英伟达集群上对接现有容器平台,复用 LDAP、镜像仓库、存储与监控,并实现国产卡动态切分调度。
覆盖金融、能源、交通、教育、医疗、通信、政企军工等 7 大行业,众多客户信赖
现有容器平台仅管理传统业务,GPU 资源无法跨集群统一调度,且面临监控/存储/日志重复建设的浪费。
采用管控与 GPU 计算分离架构,基于 Rise CAMP 在多套国产与英伟达集群上对接现有容器平台,复用 LDAP、镜像仓库、存储与监控,并实现国产卡动态切分调度。
华泰期货有限公司
大模型在核心场景落地,传统架构难以支撑多团队并发开发与高频迭代,且算力平台需深度兼容信创生态。
基于 Rise ModelX 构建全栈信创异构算力底座,依托 Rise VAST 细粒度切分与动态调度提供一键部署的标准化工作空间,内置模型广场与推理服务引擎,并支持业务场景微调。
金融 AI 场景算力需求激增,急需自主可控的算力底座。多团队并行的英伟达与国产异构 GPU 形成算力孤岛,整卡直通利用率低下。
基于 Rise CAMP 异构智算底座统一纳管两地三机房,屏蔽底层芯片差异,支持 1% 算力 / 1MiB 显存级细粒度切分,业务零中断平滑迁移。
多团队并行作业时,因缺乏 GPU 虚拟化导致异构 GPU 资源利用率低,且缺乏可视化管理与统一开发标准。
基于 Rise VAST 整合既有算力,实现 GPU 统一纳管、超分超配与弹性伸缩,建立运维运营体系并标准化开发工具集成。
各科室"分机器"独占硬件形成烟囱式孤岛,缺乏统一认证授权与自动弹性伸缩机制,资源利用率极低。
基于 Rise CAMP 在 Kubernetes 上统一纳管多种国产异构资源,提供容器/任务/租户/配额/计量计费、GPU 切分超分、统一调度与全链路可观测能力。
国家超级计算济南中心
超算中心需为考场监测等场景提供精准算力调度,原有 GPU 按物理服务器分配单机负载低,非考试期闲置严重且依赖人工运维。
部署 Rise CAMP 算力调度平台对接考场视频流与 NFS 存储,将 GPU 池化后按任务粒度分配,非考试期闲置算力自动调度至科研业务。
工业和信息化部电子第五研究所
纯国产算力下需私有化运行满血版大模型,多部门异构国产硬件极易形成资源割裂。
Rise CAMP 无缝纳管多厂商国产异构算力构建统一算力池,支持算力与显存细粒度切分,统一 API 网关屏蔽底层复杂度并提供标准鉴权接口。
集团 MaaS 平台无法按需获取弹性算力,多团队并行的英伟达与国产异构 GPU 整卡直通形成算力孤岛。
通过 Rise CAMP 构建统一异构算力管理平台对接电信 MaaS,底座支持多厂商加速卡异构接入。
百度 MaaS 与阿里 MaaS 部署于不同集群,资源池割裂难以共享;管理粒度仅到物理卡,难以构建统一算力平台。
基于 Rise VAST 统一纳管两套 MaaS,依托异构池化与虚拟化技术打通跨集群资源调度,提供细粒度、可弹性、可迁移的算力底座。
比亚迪股份有限公司
大模型训练节点强依赖,传统调度易致全局等待与算力闲置;长周期训练故障频发,海量路采数据 IO 与存储 TCO 矛盾突出。
基于 Rise CAMP 在 GPU 集群上集成 Volcano 调度框架与自动容错机制,配合全闪/混闪分层存储承接冷热数据,提升训练效率与成本控制。
打造航空行业大模型孵化基地,需统一管理多厂商 GPU 并构建可视化智能体平台对接各类开源模型。
部署 Rise CAMP 与智能体平台,基于国产卡实现动态比例切分,共享/独享双池统一管理多类开源模型,覆盖科研、教学与数字人场景。
重庆医科大学附属第二医院
科室数据需严格隔离,多厂商业务共享 GPU 但整卡分配不现实,AI 环境准备耗时拉低开发效率。
在 GPU 集群上部署 Rise CAMP,提供 GPU 池化切分与多租户隔离,并集成开发工具链加速 AI 业务交付。
除上述标杆案例外,我们的异构智算底座已深度赋能国央企、金融、高校与科研院所等众多机构,持续帮助各行业客户大幅提升硬件利用率,降低算力 TCO,加速大模型核心业务的高效落地。