R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the Wireless Edge

📄 arXiv: 2411.18220v3 📥 PDF

作者: Aladin Djuhera, Vlad C. Andrei, Mohsen Pourghasemian, Haris Gacanin, Holger Boche, Walid Saad

分类: eess.SP, cs.AI, cs.LG

发布日期: 2024-11-27 (更新: 2025-02-21)

期刊: ICC 2025 - IEEE International Conference on Communications

DOI: 10.1109/ICC52391.2025.11161573


💡 一句话要点

提出R-MTLLMF,解决无线边缘多任务LLM融合中对抗攻击下的模型鲁棒性问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多任务学习 大型语言模型 模型融合 对抗攻击 无线边缘计算

📋 核心要点

  1. 现有MTLLM训练复杂耗时,且易受对抗攻击影响,导致模型融合效果不佳,尤其是在无线边缘场景。
  2. 提出R-MTLLMF,通过分析LLM架构和微调过程,在对抗噪声下重新对齐MTLLM,保障任务向量聚合。
  3. 实验表明,R-MTLLMF在理想噪声下接近基线性能,在最坏情况下显著优于未保护的模型融合,验证了其有效性。

📝 摘要(中文)

多任务大型语言模型(MTLLM)对于无线边缘的许多应用至关重要,用户需要专门的模型来高效处理多项任务。然而,训练MTLLM非常复杂且耗时,尤其是在任务不断变化的情况下。最近,通过任务向量进行模型融合的概念已经成为一种有效的组合微调参数以生成MTLLM的方法。本文研究了在最坏情况下的对抗攻击下,边缘用户如何通过任务向量协作构建此类MTLLM的问题。为此,首先研究了对抗噪声对多任务模型融合的影响,并推导了所谓的权重解耦误差与均方误差(MSE)之间的关系。通过假设检验直接表明,MSE会增加任务向量之间的干扰,从而使模型融合失效。然后,提出了一种新的弹性MTLLM融合(R-MTLLMF),它利用对LLM架构和微调过程的理解,通过重新对齐MTLLM来保护对抗噪声下的任务向量聚合。在最坏情况和理想传输场景下对所提出的R-MTLLMF进行了比较,以研究无线信道的影响。大量的视觉LLM模型融合实验表明了R-MTLLMF的有效性,在理想噪声场景中,在八个不同的任务中实现了接近基线的性能,并且在最坏情况下,显著优于未受保护的模型融合。结果进一步提倡从无线和LLM的角度出发,为弹性提供更全面的物理层保护。

🔬 方法详解

问题定义:论文旨在解决无线边缘环境下,多任务大型语言模型(MTLLM)在模型融合过程中,由于对抗攻击导致的任务向量聚合失效问题。现有的模型融合方法在面对恶意噪声干扰时,无法保证MTLLM的性能,使得边缘用户无法安全可靠地协作构建MTLLM。

核心思路:论文的核心思路是利用对LLM架构和微调过程的深入理解,设计一种弹性模型融合方法,即R-MTLLMF。该方法通过重新对齐MTLLM,减轻对抗噪声对任务向量聚合的影响,从而提高模型在恶意环境下的鲁棒性。这种设计基于对抗噪声会增加任务向量间干扰的假设,通过重新对齐来减少这种干扰。

技术框架:R-MTLLMF的整体框架包括以下几个主要步骤:1) 分析对抗噪声对多任务模型融合的影响,推导权重解耦误差与均方误差(MSE)之间的关系;2) 通过假设检验,验证MSE增加任务向量之间的干扰;3) 提出R-MTLLMF算法,该算法利用LLM架构和微调过程的知识,在对抗噪声下重新对齐MTLLM,保护任务向量聚合;4) 在不同无线信道条件下评估R-MTLLMF的性能。

关键创新:论文的关键创新在于提出了一种针对无线边缘MTLLM融合的弹性方法,即R-MTLLMF。与现有方法相比,R-MTLLMF能够有效地减轻对抗噪声对模型融合的影响,提高模型在恶意环境下的鲁棒性。它不是简单地依赖于物理层的安全措施,而是从LLM架构和微调过程的角度出发,对模型进行重新对齐,从而实现更强的抗攻击能力。

关键设计:R-MTLLMF的关键设计包括:1) 对抗噪声影响的建模和分析,推导出权重解耦误差与MSE之间的关系,为后续的模型重新对齐提供理论基础;2) 基于假设检验验证MSE增加任务向量间干扰的结论,为R-MTLLMF的设计提供依据;3) 具体的模型重新对齐算法,该算法利用LLM架构和微调过程的知识,在对抗噪声下保护任务向量聚合。具体的参数设置和网络结构细节在论文中未详细说明,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,在理想噪声场景下,R-MTLLMF在八个不同的视觉LLM任务中实现了接近基线的性能。在最坏情况的对抗攻击场景下,R-MTLLMF显著优于未受保护的模型融合方法,验证了其在恶意环境下的有效性。这些结果表明,R-MTLLMF能够有效地减轻对抗噪声对模型融合的影响,提高模型在无线边缘环境下的鲁棒性。

🎯 应用场景

该研究成果可应用于无线边缘计算环境下的各种多任务LLM应用,例如智能交通、智慧医疗、工业自动化等。通过提高模型在恶意环境下的鲁棒性,可以保障边缘用户安全可靠地协作构建MTLLM,从而促进边缘智能的发展和应用。未来,该方法有望扩展到更广泛的分布式学习场景,并与其他安全技术相结合,构建更安全的边缘智能生态系统。

📄 摘要(原文)

Multi-task large language models (MTLLMs) are important for many applications at the wireless edge, where users demand specialized models to handle multiple tasks efficiently. However, training MTLLMs is complex and exhaustive, particularly when tasks are subject to change. Recently, the concept of model fusion via task vectors has emerged as an efficient approach for combining fine-tuning parameters to produce an MTLLM. In this paper, the problem of enabling edge users to collaboratively craft such MTLMs via tasks vectors is studied, under the assumption of worst-case adversarial attacks. To this end, first the influence of adversarial noise to multi-task model fusion is investigated and a relationship between the so-called weight disentanglement error and the mean squared error (MSE) is derived. Using hypothesis testing, it is directly shown that the MSE increases interference between task vectors, thereby rendering model fusion ineffective. Then, a novel resilient MTLLM fusion (R-MTLLMF) is proposed, which leverages insights about the LLM architecture and fine-tuning process to safeguard task vector aggregation under adversarial noise by realigning the MTLLM. The proposed R-MTLLMF is then compared for both worst-case and ideal transmission scenarios to study the impact of the wireless channel. Extensive model fusion experiments with vision LLMs demonstrate R-MTLLMF's effectiveness, achieving close-to-baseline performance across eight different tasks in ideal noise scenarios and significantly outperforming unprotected model fusion in worst-case scenarios. The results further advocate for additional physical layer protection for a holistic approach to resilience, from both a wireless and LLM perspective.