news 2026/5/9 19:58:11

CANN/driver设备资源管理

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/driver设备资源管理

dcmi_get_device_resource_info

【免费下载链接】driver本项目是CANN提供的驱动模块,实现基础驱动和资源管理及调度等功能,使能昇腾芯片。项目地址: https://gitcode.com/cann/driver

函数原型

int dcmi_get_device_resource_info (int card_id, int device_id, struct dcmi_proc_mem_info *proc_info, int *proc_num)

功能说明

获取指定设备上的SVM模块相关业务进程及其占用的内存。

参数说明

参数名称

输入/输出

类型

描述

card_id

输入

int

设备ID,当前实际支持的ID通过dcmi_get_card_num_list接口获取。

device_id

输入

int

芯片ID,通过dcmi_get_device_id_in_card接口获取。取值范围如下:

NPU芯片:[0, device_id_max-1]。

proc_info

输出

struct dcmi_proc_mem_info *

结构体包含进程ID和进程占用的内存(byte),进程ID是host侧ID,内存是device侧OS占用的内存和业务分配的内存总和。

结构体定义如下:

struct dcmi_proc_mem_info {

int proc_id; //进程ID

unsigned long proc_mem_usage; //内存占用量

};

proc_num

输出

int *

进程个数,最多32个,无业务时进程为0。

返回值说明

类型

描述

int

处理结果:

  • 成功:返回0。
  • 失败:返回码请参见return_codes。

异常处理

无。

约束说明

在宿主机和特权容器场景下执行该命令时可查询到宿主机、普通容器、特权容器中运行的所有进程,在普通容器场景下执行该命令时仅能查询到普通容器中运行的所有进程。

表 1不同部署场景下的支持情况

产品形态

物理机场景(裸机)root用户

物理机场景(裸机)运行用户组(非root用户)

物理机+普通容器场景root用户

Atlas 900 A2 PoD 集群基础单元

Y

Y

Y

Atlas 800T A2 训练服务器

Y

Y

Y

Atlas 800I A2 推理服务器

Y

Y

Y

Atlas 200T A2 Box16 异构子框

Y

Y

Y

A200I A2 Box 异构组件

Y

Y

Y

Atlas 300I A2 推理卡

Y

Y

Y

Atlas 300T A2 训练卡

Y

Y

Y

注:Y表示支持;N表示不支持;NA表示不涉及,当前未规划此场景。

调用示例

… #define MAX_PROC_NUM_IN_DEVICE 64 int ret; int card_id = 0; int chip_id = 0; struct dcmi_proc_mem_info proc_info[MAX_PROC_NUM_IN_DEVICE] = {0}; int proc_num = 0; char proc_name[16] = {0}; int name_len = 0; ret = dcmi_get_device_resource_info(card_id, chip_id, proc_info, &proc_num); if (ret != DCMI_OK) { printf("dcmi_get_device_resource_info failed. err is %d\n", ret); } return ret; …

【免费下载链接】driver本项目是CANN提供的驱动模块,实现基础驱动和资源管理及调度等功能,使能昇腾芯片。项目地址: https://gitcode.com/cann/driver

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 19:50:42

高通-大坑-高通晓龙npu推理 Qwen3-VL Step-1 ONNX 推理,模型乱回答

背景 多模态大模型正在逐步从云端推理走向端侧部署。端侧部署的核心挑战不是简单地把 PyTorch 模型转换为 ONNX,而是要让模型在移动 SoC 的 NPU / DSP 加速器上稳定运行,同时保持可接受的生成质量、延迟和功耗。 本文讨论的是一次 Qwen3-VL 类视觉语言模型的端侧部署调试过…

作者头像 李华
网站建设 2026/5/9 19:45:16

别再为授权发愁!手把手教你用免费方案白嫖SRv6实验环境

旧时王谢堂前燕,飞入寻常百姓家。曾几何时,SRv6还是运营商核心网里那朵高不可攀的云,是实验室里的阳春白雪。如今,随着协议的演进,它正逐渐成为网络架构的标配。要说SRv6,我也算是半个老手了。从五年前的第…

作者头像 李华
网站建设 2026/5/9 19:25:42

CANN算子库hc_pre文档

hc_pre 【免费下载链接】cann-recipes-infer 本项目针对LLM与多模态模型推理业务中的典型模型、加速算法,提供基于CANN平台的优化样例 项目地址: https://gitcode.com/cann/cann-recipes-infer 产品支持情况 产品是否支持Atlas A2 推理系列产品√Atlas A3 推…

作者头像 李华