Edge impulse对象检测

来自Waveshare Wiki
跳转至: 导航搜索

流程参考

EdgeImpuse流程图.png

烧录测试固件

[[]]

Edge Impulse模型训练部署流程

图片数据采集

  1. 使用arduino IDE打开 CameraWebServer 示例代码,并设置ssid和password,编译烧录;
  2. 打开串口监视器,等待设备连接WIFI,打印出IP地址;
  3. 使用手机或电脑连接同一WIFI,在与设备同一网络下用浏览器访问串口打印出的IP地址;
  4. 设置分辨率为240*240(可按需更改,示例代码默认为240*240分辨率),点击 save 即可保存图片,为保证识别效果,图片数量至少在50张及以上;

CameraGetPic.png

图片标注

  • 创建Edge Impulse项目

Create project.png

  • 上传图片文件夹

Uploadpic1.png] Uploadpic2.png] Uploadpic3.png] Uploadpic4.png]

  • 标注框选杯子对象

Uploadpic5.png]

训练模型

  • 设置目标设备

Set driver target.png

  • 创建impulse,设置图片分辨率为60*60

注:像素越大,消耗资源越多,为保证帧率,此例程摄像头输出240*240分辨率,缩放成60*60再送入impulse中 Create impulse.png

  • 保存参数

Save para.png

  • 生成特征

Generate features.png

  • 开始训练

Training.png

  • 查看训练结果,若参数不佳则调整参数重新训练

Training results.png

部署模型

手机测试模型(可选)

  • 手机浏览器扫描二维码测试模型

Phone test.png

  • 测试结果

Det test.jpg]

开始构建

  • 选择Arduino library部署,模型优化选择TensorFlow Lite,点击构建,完后浏览器会自动下载Arduino 库文件

Build impulse.png

  • 构建完成

Build done.png

Library file path.png

  • 将程序中的头文件替换成自己训练的文件名(头文件路径:src)

Cup inferencing1.png Cup inferencing2.png

  • 编译下载(注意:首次编译时间较长,请耐心等待)
  • 检测到的物体会在物体对应位置打印出置信度

Test results1.jpg Test results2.jpg