ClearML 推出 NVIDIA AI Enterprise 浮动许可管理,实现一键 NIM 部署
ClearML 宣布为 NVIDIA AI Enterprise 提供原生的浮动许可管理功能,将许可证从静态绑定 GPU 转变为动态跟随工作负载。该功能支持一键部署 NVIDIA NIM 微服务,使企业能根据并发任务数量而非 GPU 总数来规划许可资源。目前该功能已面向 ClearML 企业客户开放,旨在解决多环境、分布式团队下的许可分配效率与可见性问题。
事件概述
ClearML 于 2026 年 3 月 19 日宣布推出针对 NVIDIA AI Enterprise 的浮动许可管理(Floating License Management)功能,并同步支持跨基础设施的一键式 NVIDIA NIM 微服务部署。这一更新标志着企业消耗 NVIDIA AI Enterprise 软件许可证的模式,从传统的“按 GPU 静态分配”转向“按工作负载动态池化”。
核心机制与运作流程
1. 浮动许可管理模式
传统模式下,NVIDIA AI Enterprise 许可证绑定在特定 GPU 硬件上,导致大量 GPU 在训练间隙或夜间闲置时,其关联的许可证也无法被其他任务使用。ClearML 的新机制通过以下方式解决此问题:
- 解耦硬件与许可:许可证不再固定于硬件,而是由 ClearML 控制平面统一管理,形成中央许可池。
- 按需分配:当团队启动 NIM 工作负载(如 Nemotron 模型推理或微调任务)时,系统自动从池中抽取许可证分配给该任务;任务结束或空闲后,许可证立即释放回池。
- 跨环境统一:同一许可池可覆盖本地部署(On-premises)、云端及混合云环境,无需为不同环境单独配置许可。
2. 一键式 NIM 部署
配合浮动许可管理,ClearML 现支持对 NVIDIA NIM 微服务进行一键部署。NIM 是预打包且经过优化的推理容器,专为 NVIDIA 支持的模型(包括 Nemotron 开源模型和 NVIDIA AI Blueprints)设计,具备以下特点:
- 性能优化:针对特定 GPU 架构调优,实现大规模模型推理的高性能与低运维开销。
- 自动化编排:团队无需手动配置许可证或等待 IT 部门开通权限,即可从“需要运行模型”直接过渡到“运行中的推理端点”。
关键价值与影响
- 提升资源利用率:企业只需根据实际并发工作负载数量购买许可,而非 GPU 总数。由于大多数企业的实际并发利用率远低于 GPU 总量,相同规模的许可池可服务于更大的基础设施规模。
- 消除协作摩擦:分布式团队(如不同地区的数据科学与 MLOps 团队)无需协调谁拥有许可证,系统自动处理分配,避免资源争抢。
- 增强可见性与可扩展性:所有许可分配均流经 ClearML 控制平面,组织可实时监控各团队和任务的消耗情况,便于规划;新团队上线时无需单独 provisioning 许可,直接共享池资源即可扩展 AI 项目。
可用性说明
该功能目前已向 ClearML 企业客户开放。企业可通过官方渠道了解 NVIDIA AI Enterprise 详情或申请演示。
