Future You: Designing and Evaluating Multimodal AI-generated Digital Twins for Strengthening Future Self-Continuity
作者: Constanze Albrecht, Chayapatr Archiwaranguprok, Rachel Poonsiriwong, Awu Chen, Peggy Yin, Monchai Lertsutthiwong, Kavin Winson, Hal Hershfield, Pattie Maes, Pat Pataranutaporn
分类: cs.HC, cs.AI
发布日期: 2025-12-05
💡 一句话要点
设计并评估多模态AI数字孪生,以增强未来自我连续性
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 未来自我连续性 数字孪生 多模态AI 大型语言模型 心理干预 人机交互 情感计算
📋 核心要点
- 现有方法缺乏对不同模态AI未来自我对用户心理影响的系统研究,难以有效提升用户与未来自我的连接。
- 本研究通过构建文本、语音和头像三种模态的AI未来自我,探索不同模态对用户未来自我连续性的影响。
- 实验结果表明,所有模态均能增强未来自我连续性,且交互质量比模态本身更重要,Claude 4表现最佳。
📝 摘要(中文)
本研究探索了AI生成的未来自我数字孪生对用户心理和情感的影响。通过结合克隆声音、年龄增长的面部渲染和自传叙事,研究评估了文本聊天机器人、语音系统和照片级逼真头像三种模态对未来自我连续性(FSC)的影响。一项随机对照研究(N=92)表明,所有个性化模态均能增强FSC、情绪健康和动机,其中头像模态在提升生动性方面效果最佳,但不同模态间无显著差异。交互质量指标(如说服力、真实感和用户参与度)是心理和情感结果的有力预测指标。内容分析发现,文本模态侧重职业规划,语音和头像模态促进个人反思。Claude 4在提升心理、情感和FSC结果方面优于ChatGPT 3.5、Llama 4和Qwen 1.5。
🔬 方法详解
问题定义:现有方法缺乏对不同模态AI未来自我对用户心理影响的系统研究。虽然AI技术可以生成逼真的未来自我,但不同呈现方式(文本、语音、头像)对用户的影响尚不明确,这限制了相关技术的有效应用。现有方法也缺乏对大型语言模型(LLM)在生成未来自我交互内容方面的系统评估。
核心思路:本研究的核心思路是通过构建不同模态的AI未来自我,并进行随机对照实验,评估不同模态对用户未来自我连续性、情绪健康和动机的影响。同时,系统评估不同LLM在生成未来自我交互内容方面的表现,以确定影响干预效果的关键因素。
技术框架:整体框架包括以下几个阶段:1) 使用者提供个人信息;2) 使用LLM(包括Claude 4、ChatGPT 3.5、Llama 4和Qwen 1.5)生成个性化的未来自我叙事;3) 将叙事内容通过文本、语音和头像三种模态呈现给用户;4) 用户与AI未来自我进行交互;5) 通过问卷调查和内容分析评估交互效果。
关键创新:本研究的关键创新在于:1) 系统地比较了不同模态的AI未来自我对用户心理影响;2) 强调了交互质量(说服力、真实感、用户参与度)在影响用户心理和情感结果中的重要性;3) 对比评估了不同LLM在生成未来自我交互内容方面的表现,为选择合适的LLM提供了依据。
关键设计:研究采用随机对照实验设计,将参与者随机分配到文本、语音、头像和控制组。使用标准化的问卷调查评估未来自我连续性、情绪健康和动机。交互质量通过用户对说服力、真实感和用户参与度的评分来衡量。内容分析用于识别不同模态下用户交互的主题模式。LLM的评估指标包括心理、情感和FSC结果。
🖼️ 关键图片
📊 实验亮点
实验结果表明,所有个性化模态(文本、语音、头像)均能显著增强未来自我连续性、情绪健康和动机,与控制组相比有显著提升。头像模态在提升生动性方面效果最佳。交互质量指标(如说服力、真实感和用户参与度)是心理和情感结果的有力预测指标。Claude 4在提升心理、情感和FSC结果方面优于ChatGPT 3.5、Llama 4和Qwen 1.5。
🎯 应用场景
该研究成果可应用于心理健康干预、职业生涯规划、个人财务管理等领域。通过与AI生成的未来自我互动,用户可以更好地理解自身目标,增强自我连续性,从而做出更明智的决策,提升幸福感。该技术还可用于教育领域,帮助学生规划未来发展。
📄 摘要(原文)
What if users could meet their future selves today? AI-generated future selves simulate meaningful encounters with a digital twin decades in the future. As AI systems advance, combining cloned voices, age-progressed facial rendering, and autobiographical narratives, a central question emerges: Does the modality of these future selves alter their psychological and affective impact? How might a text-based chatbot, a voice-only system, or a photorealistic avatar shape present-day decisions and our feeling of connection to the future? We report a randomized controlled study (N=92) evaluating three modalities of AI-generated future selves (text, voice, avatar) against a neutral control condition. We also report a systematic model evaluation between Claude 4 and three other Large Language Models (LLMs), assessing Claude 4 across psychological and interaction dimensions and establishing conversational AI quality as a critical determinant of intervention effectiveness. All personalized modalities strengthened Future Self-Continuity (FSC), emotional well-being, and motivation compared to control, with avatar producing the largest vividness gains, yet with no significant differences between formats. Interaction quality metrics, particularly persuasiveness, realism, and user engagement, emerged as robust predictors of psychological and affective outcomes, indicating that how compelling the interaction feels matters more than the form it takes. Content analysis found thematic patterns: text emphasized career planning, while voice and avatar facilitated personal reflection. Claude 4 outperformed ChatGPT 3.5, Llama 4, and Qwen 3 in enhancing psychological, affective, and FSC outcomes.