NVIDIA NIM™ 是一套易于使用的预构建容器工具,可在任何 NVIDIA 加速基础设施(云、数据中心、工作站和边缘设备)上快速部署最新 AI 模型。
NVIDIA NIM 兼具托管 API 的易用性和操作简便性,以及与您首选基础设施上自托管模型的灵活性和安全性。 NIM 提供 AI 团队所需的一切,包括最新 AI 基础模型、优化推理引擎、行业标准 API 和运行时依赖项,这些都预封在企业级软件容器中,可随时随地部署和扩展。
为高性能 AI 而构建的简单企业级微服务,旨在无缝运行并实惠扩展。 体验由最新 AI 模型驱动的 AI 智能体和其他企业生成式 AI 应用如何在推理、仿真、语音等方面快速实现价值。
通过为最新 AI 模型预构建经优化的微服务,加速创新并缩短上市时间。 借助标准 API,模型可在五分钟内完成部署并轻松集成到应用中。
部署企业级微服务,这些微服务由 NVIDIA 通过严格验证流程和专属特性分支进行持续管理,可获得 NVIDIA 企业支持,并提供直接与 NVIDIA AI 专家交流的机会。
通过低延迟、高吞吐量、随云扩展的 AI 推理来降低 TCO,并通过支持开箱即用的微调模型实现极高的精度。
借助预构建云原生微服务在任何地方部署,这些微服务可在各类 NVIDIA 加速基础设施(云、数据中心和工作站)上运行,并在 Kubernetes 和云服务提供商环境中无缝扩展。
NVIDIA NIM 提供经过优化、开箱即用的吞吐量和延迟,可更大限度地提高 token 生成速度,为高峰期并发用户提供支持并改善响应能力。NIM 会使用经过优化的最新推理引擎不断更新,随着时间推移,同一基础设施的性能会不断提升。
配置:Llama 3.1 8B instruct,1 个 H100 SXM;并发请求:200。NIM 开启:FP8、吞吐量 1201 个 token/秒、ITL 32 毫秒。NIM 关闭:FP8,吞吐量 613 个 token/秒,ITL 37 毫秒。
获得最新 AI 模型的优化推理性能,通过推理、语言、检索、语音、图像等为多模态代理式 AI 提供支持。NIM 配备 NVIDIA 和社区提供的加速推理引擎,包括 NVIDIA® TensorRT™、TensorRT-LLM 等,这些引擎已经过预构建和优化,可在 NVIDIA 加速基础设施上进行低延迟、高吞吐量推理。
NIM 推理微服务可随时随地运行,提供行业标准 API,以便轻松与企业系统和应用集成,并可在 Kubernetes 上无缝扩展,从而提供云级高吞吐量、低延迟推理。
用单个命令为您的模型部署 NIM。您还可以轻松地使用微调模型运行 NIM。
借助最佳运行时引擎,在 NVIDIA 加速基础设施的基础上启动并运行 NIM。
仅使用几行代码即可集成自托管 NIM 端点。
了解 NVIDIA NIM 如何为行业用例提供支持,并通过精选示例快速启动 AI 开发。
利用生成式 AI 增强客户体验,改进业务流程。
使用生成式 AI 来加速和自动执行文档处理。
借助 AI 的强大功能提供量身定制的体验,提高客户满意度。
使用 OpenUSD 和生成式 AI 来开发 3D 产品配置器工具和体验,并将其部署到几乎所有设备。