A digital eye-fixation biomarker using a deep anomaly scheme to classify Parkisonian patterns

📄 arXiv: 2502.17762v1 📥 PDF

作者: Juan Niño, Luis Guayacán, Santiago Gómez, Fabio Martínez

分类: cs.CV, eess.IV, q-bio.NC

发布日期: 2025-02-25

备注: 6 pages, 4 images


💡 一句话要点

提出基于深度异常检测的眼动注视生物标记,用于帕金森病模式分类

🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)

关键词: 帕金森病 眼动追踪 生物标记 异常检测 深度学习 单类分类 视频分析

📋 核心要点

  1. 现有方法依赖全局眼动轨迹,忽略了眼动功能的复杂运动学关系,且判别模型需要大量平衡数据集。
  2. 提出一种基于深度异常检测的单类学习方法,仅关注帕金森病表征,将其他样本视为异常。
  3. 实验结果表明,该方法在帕金森病眼动注视检测中取得了较好的灵敏度和特异性,AUC-ROC达到0.95。

📝 摘要(中文)

眼动功能改变是检测和表征帕金森病(PD)的一种有前景的生物标记,甚至在疾病的早期阶段。目前,只有全局和简化的眼动轨迹被用来近似眼动功能的复杂和隐藏的运动学关系。机器学习和视频分析的最新进展促进了眼动模式的新型表征,以量化PD。这些方案能够识别主要与PD相关的时空片段。然而,它们依赖于判别模型,需要大量的训练数据集,并且依赖于平衡的类分布。本研究提出了一种新的视频分析方案,利用异常检测框架量化帕金森眼动注视模式。与学习标记类之间差异的经典深度判别方案相反,该方法侧重于单类学习,避免了对大量数据的需求。该方法只关注帕金森病的表征,将任何其他类样本视为分布的异常。该方法在一个眼动注视任务中进行了评估,总共有13名对照组受试者和13名不同疾病阶段的患者。所提出的数字生物标记的平均灵敏度和特异性分别为0.97和0.63,AUC-ROC为0.95。统计测试显示预测类之间存在显著差异(p < 0.05),证明了患者和对照组受试者之间的区分。

🔬 方法详解

问题定义:论文旨在解决帕金森病(PD)的早期检测和量化问题,利用眼动注视模式作为生物标记。现有方法依赖于需要大量标注数据的判别模型,并且对类别平衡性有较高要求,限制了其在实际应用中的效果。

核心思路:论文的核心思路是将帕金森病患者的眼动注视模式视为正常样本,而将健康对照组的眼动注视模式视为异常样本。通过训练一个单类分类器,学习帕金森病患者的眼动注视模式的分布,从而能够检测出与该分布不符的异常样本,即健康对照组的眼动注视模式。这种方法避免了对大量健康对照组数据的标注需求。

技术框架:该方法首先对眼动视频进行预处理,提取眼动注视相关的特征。然后,使用深度学习模型(具体模型结构未知)训练一个单类分类器,该分类器学习帕金森病患者的眼动注视模式的分布。在测试阶段,将新的眼动注视数据输入到训练好的分类器中,分类器输出一个异常分数,用于判断该数据是否属于帕金森病患者。

关键创新:该方法最重要的创新点在于使用了深度异常检测框架进行帕金森病眼动注视模式的分类。与传统的判别模型不同,该方法只需要帕金森病患者的数据进行训练,避免了对大量健康对照组数据的标注需求,降低了数据收集和标注的成本。

关键设计:论文中没有详细说明具体的网络结构、损失函数和参数设置。但是,可以推测,该方法可能使用了自编码器或生成对抗网络等深度学习模型,并采用了一些常用的异常检测损失函数,例如重构误差或对抗损失。具体的参数设置可能需要根据实际的数据集进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该研究提出的数字生物标记在眼动注视任务中取得了显著的性能。实验结果表明,该方法在包含13名帕金森病患者和13名健康对照组的测试集上,平均灵敏度达到0.97,特异性达到0.63,AUC-ROC达到0.95。统计测试表明,预测类别之间存在显著差异(p < 0.05),证明了该方法能够有效区分帕金森病患者和健康对照组。

🎯 应用场景

该研究成果可应用于帕金森病的早期筛查和诊断,通过分析患者的眼动注视模式,辅助医生进行诊断,提高诊断的准确性和效率。此外,该方法还可以用于评估帕金森病患者的病情进展和治疗效果,为临床决策提供参考依据。未来,该技术有望集成到便携式设备中,实现帕金森病的远程监测和管理。

📄 摘要(原文)

Oculomotor alterations constitute a promising biomarker to detect and characterize Parkinson's disease (PD), even in prodromal stages. Currently, only global and simplified eye movement trajectories are employed to approximate the complex and hidden kinematic relationships of the oculomotor function. Recent advances on machine learning and video analysis have encouraged novel characterizations of eye movement patterns to quantify PD. These schemes enable the identification of spatiotemporal segments primarily associated with PD. However, they rely on discriminative models that require large training datasets and depend on balanced class distributions. This work introduces a novel video analysis scheme to quantify Parkinsonian eye fixation patterns with an anomaly detection framework. Contrary to classical deep discriminative schemes that learn differences among labeled classes, the proposed approach is focused on one-class learning, avoiding the necessity of a significant amount of data. The proposed approach focuses only on Parkinson's representation, considering any other class sample as an anomaly of the distribution. This approach was evaluated for an ocular fixation task, in a total of 13 control subjects and 13 patients on different stages of the disease. The proposed digital biomarker achieved an average sensitivity and specificity of 0.97 and 0.63, respectively, yielding an AUC-ROC of 0.95. A statistical test shows significant differences (p < 0.05) among predicted classes, evidencing a discrimination between patients and control subjects.