使用Caffe模型+DPU进行实时人脸检测:Vitis-AI3.0的非官方支持流程

FPGA开发圈 2024-06-14 12:04

作者:Shaoyi Chen,AMD工程师;来源:AMD开发者社区

近年来,深度学习框架的快速发展使得人工智能应用领域取得了巨大的进步。其中,Caffe框架以其简单易用、高效快速的特点受到了广泛关注和应用。然而,随着Vitis-AI 2.0的推出,Caffe框架的支持也宣告结束,这引起了许多开发者的关注和讨论。

Caffe框架的简介

首先,让我们简要介绍一下Caffe框架。Caffe是由伯克利视觉与学习中心(Berkeley Vision and Learning Center)开发的一个深度学习框架,以其速度快、配置简单、易于扩展等特点而广受欢迎。其采用了C++语言编写,支持命令行界面和Python接口,使得用户可以轻松地定义、训练和部署各种深度学习模型。

Vitis-AI 2.0之后对Caffe的支持终止

然而,随着Xilinx推出Vitis-AI 2.0,Caffe框架的支持也随之终止。这一决定引起了广泛的讨论和反响。一些开发者表示担忧,担心他们之前基于Caffe框架开发的项目将受到影响,而另一些人则认为这是迈向更先进、更高效的深度学习框架的必然选择。

Model Zoo中的训练好的模型

尽管Caffe框架的支持终止了,但在其官方的Model Zoo中仍然存在大量经过训练的模型,涵盖了各种各样的应用场景,如图像分类、目标检测、语义分割等。这些预训练的模型可以为开发者提供便利,节省大量的训练时间和资源,使得他们能够更快地搭建和部署深度学习模型。

Vitis-AI 3.0对Caffe模型的非官方支持

尽管在Vitis-AI 3.0中官方已经不再支持Caffe框架,但开发者仍然可以继续使用这些Caffe模型。虽然这并不是官方支持的流程,但通过一些额外的工作,开发者仍然可以成功地在Vitis-AI 3.0中调用和部署这些模型。

通过人脸检测实验展示如何调用Caffe模型

为了更具体地展示如何在Vitis-AI 3.0中调用Caffe模型,我们将进行一个简单的人脸检测实验。首先,我们需要选择一个合适的Caffe模型,如densebox320人脸检测模型。然后,我们需要将该模型转换成Vitis-AI 3.0支持的格式,并对其进行部署和调用。最后,我们可以通过USB摄像头输入一张人脸图像,观察模型的输出结果,验证其在人脸检测任务上的性能和准确性。

在代码中我们创建DPU runner,从摄像头读取图像并用DPU进行推理计算,然后进行后处理,并通过X11转发画面。

def detect():    resolution = 4    threshold = 0.9    nms_threshold = 0.3       g = xir.Graph.deserialize("../densebox320/densebox320.xmodel")    subgraphs = get_child_subgraph_dpu(g)    assert len(subgraphs) == 1  # only one DPU kernel       dpu_runner = vart.Runner.create_runner(subgraphs[0], "run")    camera = cv2.VideoCapture(0)    width = 640    height = 360    camera.set(cv2.CAP_PROP_FRAME_WIDTH,width)    camera.set(cv2.CAP_PROP_FRAME_HEIGHT,height)    while True:        (grabbed, image_ori) = camera.read()        imagePad = padProcess(image_ori)        image = cv2.resize(imagePad,(32*int(320/32), 32*int(320/32)), interpolation = cv2.INTER_CUBIC)        szs = (float(imagePad.shape[0])/float(image.shape[0]), float(imagePad.shape[1])/float(image.shape[1]))        sz = image.shape        image = image.astype(np.float)        image = image - 128        # image = np.transpose(image, (2, 0, 1))        output = rundensebox(image, dpu_runner)        # generate result        prob = output[1][0, ..., 1]        bb = output[0][0, ...]        bb = np.transpose(bb, (2, 0, 1))        gy = np.arange(0, sz[0], resolution)        gx = np.arange(0, sz[1], resolution)        [x, y] = np.meshgrid(gx, gy)        bb[0, :, :] = bb[0, :, :] + x        bb[0, :, :] = bb[0, :, :] * szs[1]        bb[1, :, :] = bb[1, :, :] + y        bb[1, :, :] = bb[1, :, :] * szs[0]        bb[2, :, :] = bb[2, :, :] + x        bb[2, :, :] = bb[2, :, :] * szs[1]        bb[3, :, :] = bb[3, :, :] + y        bb[3, :, :] = bb[3, :, :] * szs[0]        bb = np.reshape(bb, (4, -1)).T        prob = np.reshape(prob, (-1, 1))        bb = bb[prob.ravel() > threshold, :]        prob = prob[prob.ravel() > threshold, :]        # nms        rects = np.hstack((bb, prob))        keep = nms(rects, nms_threshold)        rects = rects[keep, :]        # write result to file        for rect in rects:            cv2.rectangle(image_ori,(int(rect[0]),int(rect[1])),(int(rect[2]),int(rect[3])),(0,255,0),3)        cv2.imshow("img", image_ori)    camera.release()    cv2.destroyAllWindows()

DPU的调用由rundensebox来执行。

def rundensebox(img, dpu_runner):    """get tensor"""    inputTensors = dpu_runner.get_input_tensors()    outputTensors = dpu_runner.get_output_tensors()     input_ndim = tuple(inputTensors[0].dims)    # print(input_ndim)    input_fixpos = inputTensors[0].get_attr("fix_point")    input_scale = 2**input_fixpos    output_ndim_0 = tuple(outputTensors[0].dims)     # print(output_ndim_0)    output_ndim_1 = tuple(outputTensors[1].dims)    # print(output_ndim_1)     output_fixpos_0 = outputTensors[0].get_attr("fix_point")    output_scale_0 = 1 / (2**output_fixpos_0)    output_fixpos_1 = outputTensors[1].get_attr("fix_point")    output_scale_1 = 1 / (2**output_fixpos_1)    imgquant = img * input_scale    runSize = input_ndim[0]    """prepare batch input/output """    inputData = [np.empty(input_ndim, dtype=np.int8, order="C")]    outputData = [np.empty(output_ndim_0, dtype=np.int8, order="C"),                np.empty(output_ndim_1, dtype=np.int8, order="C")]       """init input image to input buffer """    imageRun = inputData[0]    imageRun[0, ...] = imgquant.reshape(input_ndim[1:])       """run with batch """    job_id = dpu_runner.execute_async(inputData, outputData)    dpu_runner.wait(job_id)       result = [outputData[0] * output_scale_0,              outputData[1] * output_scale_1]    return result

最后的显示结果如图所示。

结语

尽管Caffe框架在Vitis-AI 2.0之后的支持已经终止,但在Vitis-AI 3.0中仍然可以继续使用这些经过训练的Caffe模型。通过一些额外的工作和非官方的支持流程,开发者仍然可以成功地调用和部署这些模型,为各种应用场景提供强大的深度学习解决方案。

FPGA开发圈 这里介绍、交流、有关FPGA开发资料(文档下载,技术解答等),提升FPGA应用能力。
评论
  •  万万没想到!科幻电影中的人形机器人,正在一步步走进我们人类的日常生活中来了。1月17日,乐聚将第100台全尺寸人形机器人交付北汽越野车,再次吹响了人形机器人疯狂进厂打工的号角。无独有尔,银河通用机器人作为一家成立不到两年时间的创业公司,在短短一年多时间内推出革命性的第一代产品Galbot G1,这是一款轮式、双臂、身体可折叠的人形机器人,得到了美团战投、经纬创投、IDG资本等众多投资方的认可。作为一家成立仅仅只有两年多时间的企业,智元机器人也把机器人从梦想带进了现实。2024年8月1
    刘旷 2025-01-21 11:15 182浏览
  • 日前,商务部等部门办公厅印发《手机、平板、智能手表(手环)购新补贴实施方案》明确,个人消费者购买手机、平板、智能手表(手环)3类数码产品(单件销售价格不超过6000元),可享受购新补贴。每人每类可补贴1件,每件补贴比例为减去生产、流通环节及移动运营商所有优惠后最终销售价格的15%,每件最高不超过500元。目前,京东已经做好了承接手机、平板等数码产品国补优惠的落地准备工作,未来随着各省市关于手机、平板等品类的国补开启,京东将第一时间率先上线,满足消费者的换新升级需求。为保障国补的真实有效发放,基于
    华尔街科技眼 2025-01-17 10:44 220浏览
  • 现在为止,我们已经完成了Purple Pi OH主板的串口调试和部分配件的连接,接下来,让我们趁热打铁,完成剩余配件的连接!注:配件连接前请断开主板所有供电,避免敏感电路损坏!1.1 耳机接口主板有一路OTMP 标准四节耳机座J6,具备进行音频输出及录音功能,接入耳机后声音将优先从耳机输出,如下图所示:1.21.2 相机接口MIPI CSI 接口如上图所示,支持OV5648 和OV8858 摄像头模组。接入摄像头模组后,使用系统相机软件打开相机拍照和录像,如下图所示:1.3 以太网接口主板有一路
    Industio_触觉智能 2025-01-20 11:04 141浏览
  • 嘿,咱来聊聊RISC-V MCU技术哈。 这RISC-V MCU技术呢,简单来说就是基于一个叫RISC-V的指令集架构做出的微控制器技术。RISC-V这个啊,2010年的时候,是加州大学伯克利分校的研究团队弄出来的,目的就是想搞个新的、开放的指令集架构,能跟上现代计算的需要。到了2015年,专门成立了个RISC-V基金会,让这个架构更标准,也更好地推广开了。这几年啊,这个RISC-V的生态系统发展得可快了,好多公司和机构都加入了RISC-V International,还推出了不少RISC-V
    丙丁先生 2025-01-21 12:10 98浏览
  • Ubuntu20.04默认情况下为root账号自动登录,本文介绍如何取消root账号自动登录,改为通过输入账号密码登录,使用触觉智能EVB3568鸿蒙开发板演示,搭载瑞芯微RK3568,四核A55处理器,主频2.0Ghz,1T算力NPU;支持OpenHarmony5.0及Linux、Android等操作系统,接口丰富,开发评估快人一步!添加新账号1、使用adduser命令来添加新用户,用户名以industio为例,系统会提示设置密码以及其他信息,您可以根据需要填写或跳过,命令如下:root@id
    Industio_触觉智能 2025-01-17 14:14 117浏览
  • 2024年是很平淡的一年,能保住饭碗就是万幸了,公司业绩不好,跳槽又不敢跳,还有一个原因就是老板对我们这些员工还是很好的,碍于人情也不能在公司困难时去雪上加霜。在工作其间遇到的大问题没有,小问题还是有不少,这里就举一两个来说一下。第一个就是,先看下下面的这个封装,你能猜出它的引脚间距是多少吗?这种排线座比较常规的是0.6mm间距(即排线是0.3mm间距)的,而这个规格也是我们用得最多的,所以我们按惯性思维来看的话,就会认为这个座子就是0.6mm间距的,这样往往就不会去细看规格书了,所以这次的运气
    wuliangu 2025-01-21 00:15 143浏览
  • 高速先生成员--黄刚这不马上就要过年了嘛,高速先生就不打算给大家上难度了,整一篇简单但很实用的文章给大伙瞧瞧好了。相信这个标题一出来,尤其对于PCB设计工程师来说,心就立马凉了半截。他们辛辛苦苦进行PCB的过孔设计,高速先生居然说设计多大的过孔他们不关心!另外估计这时候就跳出很多“挑刺”的粉丝了哈,因为翻看很多以往的文章,高速先生都表达了过孔孔径对高速性能的影响是很大的哦!咋滴,今天居然说孔径不关心了?别,别急哈,听高速先生在这篇文章中娓娓道来。首先还是要对各位设计工程师的设计表示肯定,毕竟像我
    一博科技 2025-01-21 16:17 91浏览
  •  光伏及击穿,都可视之为 复合的逆过程,但是,复合、光伏与击穿,不单是进程的方向相反,偏置状态也不一样,复合的工况,是正偏,光伏是零偏,击穿与漂移则是反偏,光伏的能源是外来的,而击穿消耗的是结区自身和电源的能量,漂移的载流子是 客席载流子,须借外延层才能引入,客席载流子 不受反偏PN结的空乏区阻碍,能漂不能漂,只取决于反偏PN结是否处于外延层的「射程」范围,而穿通的成因,则是因耗尽层的过度扩张,致使跟 端子、外延层或其他空乏区 碰触,当耗尽层融通,耐压 (反向阻断能力) 即告彻底丧失,
    MrCU204 2025-01-17 11:30 176浏览
  • 本文介绍瑞芯微开发板/主板Android配置APK默认开启性能模式方法,开启性能模式后,APK的CPU使用优先级会有所提高。触觉智能RK3562开发板演示,搭载4核A53处理器,主频高达2.0GHz;内置独立1Tops算力NPU,可应用于物联网网关、平板电脑、智能家居、教育电子、工业显示与控制等行业。源码修改修改源码根目录下文件device/rockchip/rk3562/package_performance.xml并添加以下内容,注意"+"号为添加内容,"com.tencent.mm"为AP
    Industio_触觉智能 2025-01-17 14:09 158浏览
  • 数字隔离芯片是一种实现电气隔离功能的集成电路,在工业自动化、汽车电子、光伏储能与电力通信等领域的电气系统中发挥着至关重要的作用。其不仅可令高、低压系统之间相互独立,提高低压系统的抗干扰能力,同时还可确保高、低压系统之间的安全交互,使系统稳定工作,并避免操作者遭受来自高压系统的电击伤害。典型数字隔离芯片的简化原理图值得一提的是,数字隔离芯片历经多年发展,其应用范围已十分广泛,凡涉及到在高、低压系统之间进行信号传输的场景中基本都需要应用到此种芯片。那么,电气工程师在进行电路设计时到底该如何评估选择一
    华普微HOPERF 2025-01-20 16:50 67浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦