Rise Edge:边缘智算平台
边缘云原生 · 中训边推 · 六大统一:让 AI 推理触达每一个终端
产品概述
资源/应用/调度/权限/监控/生态
节点纳管与模型热更新
托管集群与非托管集群
异构芯片边缘适配
统一资源管理
多 Runtime 接入
同时兼容 KubeEdge 和 OpenYurt 两种边缘运行时,支持在同一平台混合管理不同 Runtime 的边缘集群,无厂商锁定。
托管与非托管双模
托管模式(Virtual Edge Cluster)适合轻量接入;非托管模式(Dedicated Cluster)适合独立运维。统一网关统一管理。
边缘 vGPU 切分
基于 Rise VAST 的 vGPU 引擎,在边缘节点实现 GPU/NPU 细粒度切分,多个推理服务共享一张边缘卡,利用率成倍提升。
异构芯片适配
支持 NVIDIA Jetson/T4、昇腾 310P/910B、昆仑芯、海光等边缘 AI 加速卡,x86 与 ARM 架构统一管理。
OTA 节点自动纳管
支持边缘节点批量注册、自动安装依赖、自动升级、备份恢复。选择容器引擎与边缘 Runtime 后一键完成纳管,避免配置错误。
统一边缘网关
通过 edge-gateway 统一管理云端与边缘的 API 访问、云边通信和 OTA 控制通道,屏蔽底层网络复杂性。
应用与模型分发
边缘应用商店
统一的应用/模型仓库,支持容器、模型、Agent、Workflow 全生命周期管理。可视化部署、一键推送、灰度升级。
OTA 模型发布
训练完成的模型一键推送到指定边缘节点组,支持灰度发布与分批推送,增量更新仅传差异部分,零停机热更新。
版本管理与回滚
完整的边缘模型与应用版本追踪,异常时一键回滚至上一稳定版本,确保边缘业务连续性。
离线自治
基于 KubeEdge / OpenYurt 的边缘自治能力,断网场景下边缘节点持续运行推理服务,云端恢复后自动状态同步。
Cloud 上游 — optional
分布式边缘站点
视觉缺陷检测
交通流量分析
客流分析·离线服务
行为分析·数据不出园
统一运维与权限
NodeGroup 多级资源管理
以节点组为单位管理物理资源,支持多级结构、资源授权与低权限节点接入,实现资源租户与应用租户的双向映射。
统一多集群管理
异地多集群纳管、兼容不同厂商 K8s 发行版,统一控制台管理所有边缘站点的集群状态、节点资源与容器工作负载。
边缘监控与告警
实时采集边缘 GPU/NPU 利用率、温度、功耗、推理延迟等指标,分级告警推送(邮件/短信/钉钉/企微),联动值班排班。
远程诊断
从云端远程查看边缘节点日志、执行诊断命令,支持远程终端接入,无需现场运维。
故障自愈
边缘节点故障自动检测,推理服务自动迁移到同组健康节点,故障节点自动隔离并上报。
安全与审计
端到端云边通信加密,容器间严格资源隔离,操作日志与资源变更全链路可追溯,满足工业安全合规要求。
应用场景
智能制造质检
将视觉质检模型部署到产线边缘节点,毫秒级缺陷检测,模型迭代通过 OTA 热更新推送,无需停线。
智慧交通
路侧边缘节点实时运行车辆识别、交通流量分析模型,本地推理避免回传延迟,支持昇腾 310P 边缘卡。
智慧零售
门店边缘设备运行客流分析、商品识别模型,离线场景持续服务,云端统一管理数百家门店的模型与应用版本。
智慧园区与安防
园区摄像头接入边缘 AI 节点,本地完成行为分析与告警,降低带宽成本,保障数据不出园区。