关键词:
奶牛
体尺测量
动物表型
关键点检测
智慧牧场
摘要:
奶牛表型信息获取是遗传与育种学的重要组成部分,体尺作为奶牛日常健康状况和成长状态监测的首要指标,实现非接触、自动化的体尺状态监测对奶牛生产和繁育具有重要意义。然而,现有的奶牛体尺获取仍停留在手动测量阶段,测量人员采用枷锁固定奶牛并采用测杖和卷尺等工具测量,这种方法效率低、工作量大、降低奶牛福利并影响人员健康。为此,本研究结合实例分割、关键点检测、多视角重建和计算机视觉技术,针对复杂牛场环境,构建了头锁固定和通道运动两种场景下的奶牛表型数据集方法,设计了适应不同场景特点的奶牛体尺测量方法,实现了头锁固定和通道运动场景下的奶牛表型获取、分割、关键点检测及体尺测量,并在实际养殖环境中验证了体尺测量方法的准确性和稳定性。主要研究内容及结论如下:
(1)提出了基于单目相机的奶牛三维点云重建及像素级分割方法,解决了头锁固定下奶牛点云分割难题。利用运动恢复结构算法从多视角图像中恢复三维点云,并结合图像-点云信息交互,实现了奶牛点云的精确分割。改进的YOLACT++(You Only Look At Coefficien Ts)实例分割网络结合GECA(Ghost-based Efficient Channel Attention)和AC-FPN(Attention-guided Context Feature Pyramid Network),提高了多视角奶牛图像的分割精度(85.98%)。结果表明,该方法点云分割结果不依赖点云质量,可在点云存在孔洞或缺陷的情况下准确完成奶牛点云分割。同时,该方法对合理视角数量(20~40)下的截断面积变化表现出较好的稳定性,提供了一种有效的奶牛表型获取方案。
(2)研究了一种基于改进的深度实例分割的挤奶通道运动奶牛点云分割方法,通过引入双模态实例分割,解决了传统深度图像分割在运动、多目标和背景变化场景下的不足。改进的双模态YOLO-Dcow(You Only Look Once-Depth images of Cows)网络利用真实尺度的颜色、纹理和形状信息,实现了高精度的奶牛分割,深度信息为实例分割网络提供了真实的尺度信息。试验结果显示,改进方法在YOLACT++、Mask R-CNN和YOLOv8-n网络上的精度提升分别为AP(0.3%-1.1%)和AP90(1.0%-8.0%)。该方法通过融合不同上采样方法,提出了新的原型生成模块,减少了棋盘格效应和高频特征损失,适用于多目标和运动场景的奶牛深度图像及点云分割。
(3)提出了一种基于单阶段关键点检测网络Cow K-Net(Cow Keypoint-Net)的奶牛体尺关键点高效预测方法。针对奶牛体尺测量的高精度要求和低参数量特点,设计了单阶段神经网络进行关键点检测。通过关键点精炼模块优化了通道和空间信息交互,结合基于卷积神经网络(Convolutional Neural Networks,CNN)的跨尺度特征融合和基于Transformer的深层信息交互,提升了关键点检测精度(92.8%)。该方法在光照和噪声变化下展现了较好的稳定性,减少了18%的参数量,降低了计算资源消耗,为奶牛体尺测量任务提供了可靠的解决方案。
(4)实现了基于关键点检测的奶牛体尺测量方法。通过将二维关键点投影至三维点云,自动实现奶牛体尺的测量。试验结果表明,体斜长、体高、臀高和胸深的测量相对误差分别为2.8%、6.7%、4.1%和4.4%。然而,测量精度受双目相机成像质量的影响,光照、毛发纹理特征和相机误差可能导致关键点映射的缺失或偏差。光照变化系数γ在0.67至2.5之间时,体尺测量误差小于5 cm,表明该方法对光照变化具有较好的稳定性。
(5)研究了基于形态学特征的奶牛体尺测量方法。根据奶牛的形态学特征,在补全后的点云上自动标定体尺关键点,并完成体尺测量。试验表明,该方法在体高、体长、胸围和胸宽的测量误差分别为2.75%、3.10%、4.23%和5.72%。该方法对不同奶牛姿态保持较好的鲁棒性,并采用带光滑因子的样条曲线点云补全方法,相较于网格化点云补全,减少了胸围和胸宽测量误差。此方法提供了一种低成本、高便捷性的奶牛体尺测量解决方案,对于智能化养殖和健康监测具有一定的实际价值。