论文部分内容阅读
大豆含有优质的植物蛋白是人们日常膳食结构中重要的蛋白质来源,大豆种质资源的研究是大豆产业可持续发展的基本保证。作物表型组学研究为种质资源研究提供高质量、高精度和可重复的植物外形数据,大豆考种是大豆表型组学研究中不可或缺的田间试验,目的是调查成熟期大豆植株和大豆籽粒的性状,了解不同品种或者不同处理因素对植株和籽粒性状的影响,并掌握不同因素的关系。然而,目前大豆考种主要依赖于人工操作,通过人工观察、测量和手工记录的方法对大豆植株或大豆籽粒逐一进行调查,存在可重复性差、调查数据量有限、人为影响因素大、效率低、成本高等缺点。人工考种的方法阻碍了大豆种质资源的优势转化,也限制了大豆产业的发展。有效解决人工考种效率低、可重复性差等问题对发展大豆产业具有重要的意义。为了解决人工考种存在的问题,本研究构建了大豆植株表型特征检测平台,并通过机器视觉技术提取大豆植株表型特征数据,将数据保存到大豆植株表型特征检测子系统,作为种质资源表型信息库的组成部分,辅助农学专家进行查询、存储及分析作物性状属性。基于机器视觉的大豆植株表型特征检测方法研究为智能化、数字化、自动化的大豆植株表型特征检测技术体系提供了理论依据和技术支撑。主要的研究内容和结果如下:(1)在大豆植株表型特征检测平台的研究与设计中,采用高角度照明系统搭载中高端CMOS相机获取高质量的整株大豆图像。根据大豆植株豆荚及茎秆的外形特点,在豆荚标注时,为了降低相互遮挡产生的影响,仅标注未被遮挡的豆荚尖部;在茎秆标注时,对茎秆分段标注,仅标注未被遮挡的部分。为了扩增训练样本的数量,提高网络的整体性能,对已标注的训练样本进行随机的RGB颜色空间变换和空间几何变换。在基于SSD(Single Shot Multibox Detector)卷积神经网络结构的基础上提出了改进SSD(IM-SSD)卷积神经网络,它是在SSD结构中增加了两个残差网络层,运用低层与高层特征的融合增强网络对小目标的检测能力和抗干扰能力,提高网络的识别率。为了降低压缩变形可能带来的影响,网络输入图像为600×300像素。通过对比试验得到SSD300、SSD512和IM-SSD的豆荚识别精确率分别为83.49%、87.52%和89.68%,三种深度卷积神经网络模型中IM-SSD模型对大豆植株豆荚与茎秆的检测更稳定更有效。将IM-SSD识别的豆荚数量作为多分枝大豆植株的单株荚数保存到数据库中。(2)在提取大豆植株茎秆表型特征的方法中,针对IM-SSD卷积神经网络对茎秆分段定位的不足,提出了一种基于蚁群算法优化的大豆植株茎秆模型的提取方法。该方法以IM-SSD卷积神经网络获取的茎秆分段定位为基础,根据茎秆连续性的特点,采用蚁群算法获取分段茎秆之间的最短路径,运用最短路径中的空间信息将不连续的分段茎秆连接起来,提取出完整茎秆模型。根据茎秆模型,获取有效分枝数、主茎、株型、株高和底荚高度等大豆植株茎秆表型特征,将检测数据保存到数据库中,所提取数据的精确率分别为95.56%、96.12%、90.28%、94.43%和92.51%。(3)在提取大豆植株豆荚表型特征的方法中,提出一种改进分水岭(Improvde watershed,IM-Watershed)的图像分割算法,将图像分割分为三个阶段:首先,采用标记分水岭(MarkerControlled watershed,MC-Watershed)算法进行图像预处理,其中背景不进行标记;其次,对图像的欠分割区域进行再分割处理;最后,对所有的过分割区域进行区域合并处理。在再分割处理中,对欠分割区域采用自适应结构元素进行数学形态学操作,运用快速模糊C均值聚类(Fast and Robust Fuzzy C-Means Clustering Algorithm,FRFCM)的方法进行开闭运算的图像重建,提高再分割的精确率。由于预处理阶段和再分割阶段都会产生过分割,采用合并过分割区域的方法减少图像的过分割。在区域合并处理中,将过分割区域进行随机空间分组,形成待合并区域,对待合并区域进行基于细化算法的骨架提取,利用最小二乘法进行直线拟合,根据拟合的最大误差值判断是否合并,如果满足条件则合并区域,否则再次形成新的待合并区域,直到所有欠分割区域均不符合合并条件,结束合并处理。通过对比试验得到改进分水岭算法比标记分水岭算法的图像分割结果的目测精度(Visual Accuracy,VAC)值高25.09%,试验表明改进分水岭算法对大豆植株图像的分割更为有效。将图像中豆荚的分割结果进行剪切并二值化,通过二值图像的骨架提取、图像旋转、自适应曲线拟合等方法,提取大豆植株豆荚表型特征的荚长、荚宽、荚大小、豆荚类型及每荚粒数等数据并保存到数据库中。在对比试验中,基于改进分水岭的豆荚类型识别方法与Vgg16、Alex Net和Google Net三种深度卷积神经网络识别方法进行了迭代次数、预处理时间和准确率的比较,结果表明深度卷积神经网络的准确率略高,但基于曲线拟合的豆荚类型识别方法的预处理时间短,且不需要网络训练和人工标注,更适合于小样本集的判别。(4)在构建多角度视图的大豆植株旋转采集平台中,将采集平台设计为封闭式箱体,其内部安装低角度照明系统、电机及植株固定架。为获得植株的多角度视图,将植株夹在可旋转的固定架上,通过无线定时遥控器控制相机对植株进行等间隔拍摄,每株采集360度的多角度视图图像,采用IM-SSD卷积神经网络对大豆植株图像进行豆荚的识别与定位,通过加速稳健特征(Speeded Up Robust Features,SURF)描述算法对采集图像的相邻三幅进行特征点的提取与匹配,运用匹配点间的视图重叠关系,将不同角度的图像进行信息匹配,获取多角度视图的大豆植株表型信息。试验结果表明,多角度检测的单株荚数比单一角度检测的精确率高4.68%。(5)通过大豆植株表型特征检测平台和旋转采集平台分别获取单一角度和多角度的大豆植株图像,采用深度卷积神经网络、分水岭图像分割、蚁群算法、骨架细化、Hough检测、SURF匹配等方法获得大豆植株表型特征的株高、有效分枝数、主茎、单株荚数、荚宽、荚长、豆荚类型等数据并存储到数据库,建立大豆植株表型特征检测的子系统。