CANN开发实践:4个DVPP内存问题的典型案例解读

摘要:由于DVPP媒体数据处理功能对存放输入、输出数据的内存有更高的要求(例如,内存首地址128字节对齐),因此需调用专用的内存申请接口,那么本期就分享几个关于DVPP内存问题的典型案例,并给出原因分析及解决方法。

本文分享自华为云社区《FAQ_DVPP内存问题案例》,作者:昇腾CANN。

DVPP是昇腾AI处理器内置的图像处理单元,通过AscendCL媒体数据处理接口提供强大的媒体处理硬加速能力,主要功能包括图像编解码、视频编解码、图像抠图缩放等。

由于媒体数据处理功能对存放输入、输出数据的内存有更高的要求(例如,内存首地址128字节对齐),因此需调用专用的内存申请接口,那么本期就分享几个关于DVPP内存问题的典型案例,并给出原因分析及解决方法:

  1. 使用错误的DVPP内存申请接口,导致应用程序报错并退出
  2. 内存大小不符合DVPP的要求,导致应用程序报错并退出
  3. DVPP内存被提前释放,导致视频流解码输出的图像异常
  4. DVPP读/写内存地址无效,导致应用程序异常中断

01 使用错误的DVPP内存申请接口,导致应用程序报错并退出

现象描述

从日志存放路径(默认为“$HOME/ascend/log”)下获取运行应用程序的日志,日志中的报错示例如下:

device:0 chn 0, input buffer is invalid, make sure it has been allocated with hi_mpi_dvpp_malloc or acldvppMalloc.

 

device:0 chn 0, output buffer is invalid, make sure it has been allocated with hi_mpi_dvpp_malloc or acldvppMalloc.

可能原因

根据日志提示,是因为没有使用指定的接口申请内存,导致内存地址校验出错。

由于DVPP媒体数据处理功能对存放输入、输出数据的内存有更高的要求(例如,内存首地址128字节对齐),因此需调用专用的内存申请接口,如下:

  • 调用媒体数据处理V1版本的接口对图片进行抠图、缩放等操作时,调用acldvppMalloc接口申请内存。
  • 调用媒体数据处理V2版本的接口对图片进行抠图、缩放等操作时,调用hi_mpi_dvpp_malloc接口申请内存。

处理步骤

检查代码,确认在DVPP媒体数据处理的各功能中,是否使用acldvppMalloc接口/ hi_mpi_dvpp_malloc接口申请存放输入或输出数据的Device内存。

但需注意:

  • 可将DVPP媒体数据处理的输出作为模型推理的输入,从性能角度,减少拷贝,实现内存复用。
  • 由于DVPP媒体数据处理访问的专用地址空间有限,为确保媒体数据处理时内存足够,除媒体数据处理功能外,其它使用Device内存的功能,建议调用aclrtMalloc接口申请内存。

02 内存大小不符合DVPP的要求,导致应用程序报错并退出

现象描述

从日志存放路径(默认为“$HOME/ascend/log”)下获取运行应用程序的日志,日志中的报错示例如下:

buffer size(3110400) is smaller than need buffer size(4147200) when format is 3.

 

device 0, vpc end address is illegal, check allocated buffer size: configured buffer size: 3110400, current pic: format 3 width_stride 1920 height_stride 1080.

可能原因

虽然使用了正确的DVPP内存申请接口,但:

  • 代码中申请的内存大小小于该格式所需的输入或输出内存大小;
  • 或者传入接口的内存大小正常,与输入格式也匹配,但是超出了实际申请的内存大小,所以校验出来结束地址非法。

处理步骤

1. 进入昇腾文档中心(https://www.hiascend.com/zh/document),拖动到“推理”区域,通过API参考进入最新版本的文档(或者可以在左上方选择需要的版本),在媒体数据处理章节,根据DVPP各功能对内存大小的要求,检查代码中对应格式的内存大小是否正确;

2. 在代码中增加打印内存长度的日志,检查传入接口的内存大小是否与实际申请的内存大小一致。

03 DVPP内存被提前释放,导致视频流解码输出的图像异常

现象描述

原始H264/H265每一帧视频流正常,解码过程无异常(无异常日志),仅输出图片有异常。

可能原因

解码过程无异常,说明送入的视频码流不是异常码流,仅输出被破坏,可能由于:

  • 输出内存被复用、被踩或者被提前释放;
  • 解码需要的输出内存比实际申请的内存大。

处理步骤

  1. 对于DVPP内存申请接口,增加日志打印内存大小及地址,检查VDEC输出内存,检查申请的内存大小是否与实际使用的一致,比如典型的错误场景,VDEC解码输出格式预期是RGB,实际仍按照YUV420SP申请内存。
  2. 在DVPP内存释放接口处、以及hi_mpi_vdec_get_frame/aclvdecCallback/acldvppJpegDecodeAsync接口处,增加内存大小及地址的打印日志,确认内存释放时序,是否存在内存地址解码完成前被提前释放的情况。

04 DVPP读/写内存地址无效,导致应用程序异常中断

现象描述

从日志存放路径(默认为“$HOME/ascend/log”)下获取运行应用程序的日志,Device侧内核态日志报错图像处理模块异常,报错示例如下:

vpc get err int: vpc_cvdr_axi_rd_resp_err

 

vpc get err int: vpc_cvdr_axi_wr_resp_err

可能原因

  • cvdr_axi_rd_resp_err:表示读地址越界,可能申请的输入内存太小或内存地址无效,昇腾AI处理器执行读操作时访问到了无效地址。
  • cvdr_axi_wr_resp_err:表示写地址越界,可能申请的输出内存太小或内存地址无效,昇腾AI处理器执行写操作时访问到了无效地址。

处理步骤

1. 在申请DVPP内存的接口处、以及在异常任务接口处增加日志打印,检查申请的输入\输出内存大小与实际使用的输入\输出内存大小是否一致;

2. 在释放DVPP内存的接口处增加打印日志,检查任务完成之前是否存在内存被提前释放的情况。

05 更多介绍

[1]昇腾文档中心

[2]昇腾社区在线课程

[3]昇腾论坛

 

点击关注,第一时间了解华为云新鲜技术~

原文链接:https://www.cnblogs.com/huaweiyun/p/17333559.html

阅读剩余 69%

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:CANN开发实践:4个DVPP内存问题的典型案例解读 - Python技术站

(0)
上一篇 2023年4月19日
下一篇 2023年4月19日

相关文章

  • 目标检测(三) Fast R-CNN – 努力的孔子

    目标检测(三) Fast R-CNN 引言 之前学习了 R-CNN 和 SPPNet,这里做一下回顾和补充。 问题 R-CNN 需要对输入进行resize变换,在对大量 ROI 进行特征提取时,需要进行卷积计算,而且由于 ROI 存在重复区域,所以特征提取存在大量的重复计算; SPPNet 针对 R-CNN 进行了改进,其利用空间金字塔池化来解决形变问题,并…

    2023年4月8日
    00
  • FastGCN论文总结及实现(Tensorflow2.0)

              1.utils.py import numpy as np import pickle as pkl import networkx as nx import scipy.sparse as sp from scipy.sparse.linalg.eigen.arpack import eigsh import sys from scip…

    2023年4月8日
    00
  • Keras深度学习之卷积神经网络(CNN)

    一、总结 一句话总结: 卷积就是特征提取,后面可接全连接层来分析这些特征     二、Keras深度学习之卷积神经网络(CNN) 转自或参考:Keras深度学习之卷积神经网络(CNN)https://www.cnblogs.com/wj-1314/articles/9621901.html Keras–基于python的深度学习框架        Keras…

    2023年4月7日
    00
  • pytorch中的Variable

    “”” Variable为tensor数据构建计算图,便于网络的运算 “”” import torch from torch.autograd import Variable tensor = torch.FloatTensor([[1,2],[3,4]]) # 创建一个tensor类型的数据 variable = Variable(tensor, requ…

    PyTorch 2023年4月6日
    00
  • Pytorch设立计算图并自动计算

    本博文参考七月在线pytorch课程1.numpy和pytorch实现梯度下降法 使用numpy实现简单神经网络 import numpy as np N, D_in, H, D_out = 64, 1000, 100, 10 # 随机创建一些训练数据 x = np.random.randn(N, D_in) y = np.random.randn(N, D…

    PyTorch 2023年4月8日
    00
  • Tensorflow 与Caffe(转)

    TensorFlow TensorFlow 是相对高阶的机器学习库,用户可以方便地用它设计神经网络结构,而不必为了追求高效率的实现亲自写 C++或 CUDA 代码。它和 Theano 一样都支持自动求导,用户不需要再通过反向传播求解梯度。其核心代码和 Caffe 一样是用 C++编写的,使用 C++简化了线上部署的复杂度,并让手机这种内存和CPU资源都紧张的…

    2023年4月8日
    00
  • 知识图谱和图卷积(贪心学院)——学习笔记

    层级结构:每一层的训练结果依赖于上一层的。 图像二维数据,语音一维数据可以二维表示。可通过欧几里得空间数据进行表示。 然而也有无法表示的,例如微信数据里的人与人之间关系,图(无距离信息,空间信息)。因而出现了图卷积。              频域与时域两条线,GCN可以用于时域的处理。  二、图卷积基本框架:   5个点,形成5×5的邻接矩阵。形容两两之间…

    2023年4月6日
    00
  • 编译caffe的Python借口,提示:ImportError: dynamic module does not define module export function (PyInit__caffe)

            >>> import caffeTraceback (most recent call last): File “<stdin>”, line 1, in <module> File “/home/wangxiao/Downloads/project/caffe-master/python/caffe…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部