Dense Feature Learning via Linear Structure Preservation in Medical Data

📄 arXiv: 2602.07706v1 📥 PDF

作者: Yuanyun Zhang, Mingxuan Zhang, Siyuan Li, Zihan Wang, Haoran Chen, Wenbo Zhou, Shi Li

分类: cs.LG

发布日期: 2026-02-07

备注: ICLR Workshop


💡 一句话要点

提出密集特征学习框架,通过线性结构保持提升医疗数据表征的泛化性和稳定性。

🎯 匹配领域: 支柱七:动作重定向 (Motion Retargeting) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 医疗数据 特征学习 线性结构保持 表征学习 深度学习 子空间对齐 谱平衡

📋 核心要点

  1. 现有医学数据深度学习模型侧重于任务特定目标,导致表征坍缩到少量判别方向,限制了泛化能力。
  2. 论文提出密集特征学习,通过线性代数性质直接作用于嵌入矩阵,鼓励谱平衡、子空间一致性和特征正交性。
  3. 实验表明,该方法在下游任务中表现出更高的性能、鲁棒性和子空间对齐,优于监督和自监督基线。

📝 摘要(中文)

针对医疗数据,本文提出了一种密集特征学习框架,该框架通过显式地塑造医疗嵌入的线性结构来提升表征能力。不同于以往依赖任务特定目标来训练深度学习模型的方法,本文直接作用于嵌入矩阵,通过线性代数性质来鼓励谱平衡、子空间一致性和特征正交性。该方法不依赖于标签或生成式重构,能够产生具有更高有效秩、更好条件数和更稳定性的表征。在纵向EHR数据、临床文本和多模态患者表征上的实验评估表明,与监督和自监督基线相比,该方法在下游线性性能、鲁棒性和子空间对齐方面均有持续改进。结果表明,学习跨越临床变异可能与学习预测临床结果同等重要,并将表征几何定位为医疗人工智能中的首要目标。

🔬 方法详解

问题定义:现有医学数据深度学习模型通常针对特定预测任务进行优化,导致学习到的特征表示过于集中,未能充分利用临床数据的丰富结构,从而限制了模型的泛化能力、稳定性和可解释性。现有方法缺乏对特征空间线性结构的显式约束,导致表征的有效秩较低,条件数较差,难以捕捉数据中的细微变化。

核心思路:本文的核心思路是通过显式地塑造医疗嵌入的线性结构来改善特征表示。具体而言,通过在线性代数层面直接对嵌入矩阵进行操作,鼓励学习到的特征具有谱平衡、子空间一致性和特征正交性。这种方法旨在提升特征表示的有效秩,改善其条件数,并提高其在不同时间点或不同数据集上的稳定性。

技术框架:该框架直接作用于嵌入矩阵,无需依赖标签或生成式重构。主要包含三个方面的线性结构约束:1) 谱平衡:通过调整特征值的分布,避免少数特征占据主导地位;2) 子空间一致性:确保不同时间点或不同数据集上的特征表示能够对齐到相似的子空间;3) 特征正交性:鼓励特征之间相互独立,减少冗余信息。这些约束通过特定的损失函数来实现,并与现有的深度学习模型相结合。

关键创新:最重要的创新点在于将线性代数性质作为特征学习的显式目标。与传统的基于任务特定目标或生成式重构的方法不同,该方法直接作用于嵌入矩阵的线性结构,从而能够更有效地捕捉数据中的潜在变化和关系。这种方法不依赖于标签信息,因此具有更强的通用性和适用性。

关键设计:关键设计包括:1) 用于衡量谱平衡的损失函数,例如基于特征值熵的损失函数;2) 用于衡量子空间一致性的损失函数,例如基于子空间距离或相关性的损失函数;3) 用于衡量特征正交性的损失函数,例如基于特征向量内积的损失函数。这些损失函数可以根据具体的应用场景进行调整和组合。此外,还需要选择合适的优化算法来最小化这些损失函数,并调整相应的超参数。

📊 实验亮点

实验结果表明,该方法在纵向EHR数据、临床文本和多模态患者表征上均取得了显著的性能提升。例如,在下游线性分类任务中,该方法相比于监督学习基线提升了5%-10%的准确率。此外,该方法还表现出更强的鲁棒性,能够在数据分布发生变化时保持较高的性能。子空间对齐实验表明,该方法能够有效地对齐不同数据集上的特征表示。

🎯 应用场景

该研究成果可应用于多种医疗场景,例如疾病诊断、预后预测、个性化治疗方案制定等。通过学习更具泛化性和稳定性的特征表示,可以提高医疗AI模型的准确性和可靠性,从而改善患者的治疗效果。此外,该方法还可以促进不同医疗机构之间的数据共享和模型迁移,加速医疗AI的发展。

📄 摘要(原文)

Deep learning models for medical data are typically trained using task specific objectives that encourage representations to collapse onto a small number of discriminative directions. While effective for individual prediction problems, this paradigm underutilizes the rich structure of clinical data and limits the transferability, stability, and interpretability of learned features. In this work, we propose dense feature learning, a representation centric framework that explicitly shapes the linear structure of medical embeddings. Our approach operates directly on embedding matrices, encouraging spectral balance, subspace consistency, and feature orthogonality through objectives defined entirely in terms of linear algebraic properties. Without relying on labels or generative reconstruction, dense feature learning produces representations with higher effective rank, improved conditioning, and greater stability across time. Empirical evaluations across longitudinal EHR data, clinical text, and multimodal patient representations demonstrate consistent improvements in downstream linear performance, robustness, and subspace alignment compared to supervised and self supervised baselines. These results suggest that learning to span clinical variation may be as important as learning to predict clinical outcomes, and position representation geometry as a first class objective in medical AI.