videopipe学习之demo运行
videopipe下载和编译参见VideoPipe学习之环境搭建及编译ubuntu240403。1 运行一个demo运行下1-1-1_sample这个demo需要数据模型准备还要一个可选的终端链接软件。2 数据模型准备想要1-1-1_sample跑起来需要模型和数据。2.1 数据其数据我下载下来了如下通过网盘分享的文件vp_data链接: https://pan.baidu.com/s/12_EzZgx-sb7GF0_6anMHTQ?pwdvqh6 提取码: vqh62.2 远程终端软件推荐用mobaxtem比xshell和vscode的好不用管x11转发非常省心其他两个要装x11的转发插件xshell还好点vscode的x11转发插件就比较恶心——不稳定。3 运行3.1 数据目录存放下载的vp_data目录和demo放到同级目录下如下我的为啥呢看下/samples/1-1-1_sample.cpp代码intmain(){……// create nodesautofile_src_0std::make_sharedvp_nodes::vp_file_src_node(file_src_0,0,./vp_data/test_video/face.mp4,0.6);autoyunet_face_detector_0std::make_sharedvp_nodes::vp_yunet_face_detector_node(yunet_face_detector_0,./vp_data/models/face/face_detection_yunet_2022mar.onnx);autosface_face_encoder_0std::make_sharedvp_nodes::vp_sface_feature_encoder_node(sface_face_encoder_0,./vp_data/models/face/face_recognition_sface_2021dec.onnx);autoosd_0std::make_sharedvp_nodes::vp_face_osd_node_v2(osd_0);autoscreen_des_0std::make_sharedvp_nodes::vp_screen_des_node(screen_des_0,0);……}它用的数据路径如下“./vp_data/test_video/face.mp4”“./vp_data/models/face/face_detection_yunet_2022mar.onnx”“./vp_data/models/face/face_recognition_sface_2021dec.onnx”所以要把/build/bin/1-1-1_sample这个demo拷贝到vp_data目录的同级下当然你可以修改源码自定义。3.2 运行效果在mobaxtem里或者虚拟机里直接./1-1-1_sample运行如下效果