中山大学中山眼科中心教授刘奕志、林浩添利用深度学习技术,在全球首次建立了基于行为模式的婴幼儿智能视功能评估系统,用于客观筛查婴幼儿的视功能,及时发现语言前婴幼儿的视觉损伤。相关研究10月21日发表于《自然—生物医学工程》。
知觉和行为的精确协作是生物生存和进化的基础。视觉是人类最重要的知觉,既往研究表明视觉和行为表型间存在一定的对应关系。然而,视力丧失如何影响个体行为模式变化,在很大程度上仍然未知。
研究人员通过分析4196例婴幼儿的行为学表型视频大数据,定量对比不同视功能群体4大类、13个行为特征的发生频率及严重程度,首次明确了斜视、眼球震颤、代偿头位等11个标志性的医学行为体征与婴幼儿视觉损伤的量化关系。
该研究创新性采用时序分割网络来自主学习、建立行为学表型在视频水平的特征模型。该算法结合稀疏采样的策略和视频水平的监督,以实现对动态视频数据集的高效拟合。辅助的光流网络将通过一致性分段函数进行整合,达到不同片段得分融合的效果,以产生最终的分类概率。
研究结果表明,通过行为模式的视频记录来评估婴幼儿的视觉功能,智能评估系统在检测轻度和重度视觉损伤以及病因诊断方面都有令人满意的表现。与传统检测方法相比,该系统对技术支持和婴儿合作的需求较少,可行性、准确性更高。
林浩添表示,本研究发现的正常和视觉损伤婴幼儿的行为模式差异,为建立高准确性和特异性的婴幼儿智能视功能评估系统提供可能。此外,该系统可作为视觉发育临床研究的技术支持,对进一步探究和明确婴幼儿的视觉发育规律具有重要意义。(来源:中国科学报 朱汉斌 邰梦云)
相关论文信息:https://doi.org/10.1038/s41551-019-0461-9