关键词:
织物手感
计算机视觉
视觉表征
感官测试
多模态融合
知识发现
摘要:
织物手感评价是纺织品设计与质量控制的核心环节,传统方法依赖专家触觉评价或物理仪器测量(如KES系统),存在一致性差、效率低、成本高等瓶颈。针对上述问题,本研究提出基于计算机视觉的织物手感评价体系,通过织物视觉表征构建、特征提取、多模态融合建模与知识发现四个层次递进式创新,突破触觉依赖的评价范式,实现织物手感的智能、可解释化评价。论文以"视觉可感知的手感性能评价"为核心假设,围绕表面、压缩、弯曲、拉伸四类可视觉化的手感性能,构建“表表征证-特征提取-数据融合-方法集成”四位一体的理论框架,在101种织物样本上完成系统性证。本文主要贡献如下:
(1)建立视觉表征与手感评价的关联性证框架。针对视觉评价的适用边界问题,提出基于信号检测理论的双面适用性测试模型,旨在证哪些手感性能可以通过视觉表征进行评价。通过真实触觉、静态图像、动态视频三模态评价场景的对比实证,构建四因素混合效应方差分析模型,对101个织物样本进行感官评价。通过混合效应分析和一致性指数(CCI)计算,结果表明表面、压缩、弯曲与拉伸性能在跨场景评价中表现出较高的一致性(CCI均大于0.74),尤其在动态视频中,弯曲和拉伸性能的光流轨迹与触觉评分显著相关(r=-0.67,p<0.001)。然而,热湿性能因视觉特征解释力不足(R2=0.18)且在视觉场景中的一致性较低(CCI=0.31)被排除。该研究首次通过统计模型界定视觉评价的适用性边界,为后续特征工程划定有效范围。
(2)构建多尺度视觉特征工程体系。针对视觉表征的量化难题,采用特征工程的思路,利用图像和视频处理技术提取反映手感性能的量化指标。针对101个样本,初步设计33个视觉特征,包括图像的表面特征(如粗糙度)、弯曲特征(如弯曲刚度)和悬垂特征(波形数)等。为确保特征的有效性和非冗余性,本研究引入方差膨胀因子和Lasso回归进行特征筛选,最终保留22个关键特征。这些特征与KES物理测量数据(粗糙度、压缩恢复率、弯曲刚度等)的一致性分析显示,平均绝对百分比误差低于2%,且与感官评分的相关系数均在0.79以上,证所提指标体系的物理可解释性和统计一致性。该体系突破传统图像特征的碎片化局限,建立具有物理可解释性的视觉指标库。
(3)设计多模态融合的端到端评价模型。为克服单一模态信息缺失问题,进一步提出一种多模态融合的端到端手感评价模型TAIL(Textile Attribute Integration and Learning),将上述22个数值型特征与图像、视频数据相结合,实现手感评价的全面建模。该模型通过动态时间规整对齐多模态特征,并采用注意力机制和时序卷积网络进行融合,针对回归任务(手感评分预测)、分类任务(风格分类)和决策任务(用途适配性推荐)进行联合训练。在101个样本的测试中,模型在回归任务重的均方误差(MSE)为0.258,分类任务的Micro-F1值为0.921,决策任务的准确率为92.3%,显著优于单模态和双模态基准模型(MSE=0.412,F1=0.823)。实证结果表明,多模态融合充分利用数值数据的量化能力、图像数据的静态细节和视频数据的动态信息,实现对手感性能的全方位表征。
(4)提出可解释性增强的知识发现模型。考虑到TAIL模型的可解释性不足,本研究提出一种基于知识发现的织物手感评价知识发现方法,结合层次分析法(AHP)与粗糙集理论(RST)构建混合模型。该模型首先通过AHP优化感官描述词权重(一致性比率CR≤0.1),然后利用RST进行属性约简和知识挖掘。在101个样本上提取155条IF-THEN解释性映射,如表Smooth(5)→Silk”,映射的置信度和覆盖度通过双目标Pareto优化得到均衡提升(调和均值提高18.7%),实证结果显示,模型的F1-score达0.91,决策准确率为87.3%,专家评价其可理解性(4.3/5)和逻辑合理性(4.6/5)均优于传统经证映射库(3.1/5)。这一方法不仅增强评价系统的透明性,还为面料选材和产品设计提供显示化决策支持。
(5)实现智能化评价软件系统。本研究将视觉特征提取、多模态融合模型(TAIL)和AHP-RST解释功能集成于织物手感评价软件系统,实现从多源数据输入到手感预测与解释输出的端到端智能化流程。系统通过数据输入模块处理图像、视频和感官评分,特征提取模块生成22个量化指标,预测模块输出评分、分类和推荐结果,解释模块提供显式映射,可视化模块增强交互性。系统的核心优势在于其自动化与高效性,用户只需上传织物样本的多模态数据,即可获得从量化评分到风格分类,再到用途推荐的全方位评价结果,同时通过可视化界面直观展示特征分布与决策依据。相较传统手动流程,系统效率显著提升,为纺织工业的质量控制与面料选材提供高效、透明的数字化工具。
综上所述,本论文