在元宇宙与数字人技术快速发展的今天,群体舞蹈生成已成为虚拟演唱会、数字人集体表演等场景的核心需求。然而,现有技术在多人生成、动作协调和长序列稳定性方面面临严峻挑战。近期,由南京理工大学、清华大学和南京大学联合研发的端到端模型TCDiff++,通过创新性的架构设计,成功突破了这些技术壁垒,为高质量、长时序的群体舞蹈自动生成提供了完整解决方案。

当前群体舞蹈生成技术主要面临三大核心难题:多舞者碰撞、动作僵硬与长序列崩坏。在常见的群舞数据中,超过80%的动作具有高度相似性,而每个舞者的动作数据维度高达100多,位置坐标却仅有3维。这种数据不平衡导致模型难以区分不同舞者身份,经常出现舞者混淆和相互碰撞的问题。
更严重的是,现有模型在协调全身动作与脚下轨迹方面存在明显缺陷,导致典型的「脚部滑动」现象——舞者上身动作标准,双脚却像在冰面滑行,严重破坏了视觉真实感。当编舞时间延长至数分钟时,现有技术更是面临崩溃风险,动作突变、卡顿和不连贯问题频发,难以满足实际表演需求。

针对这些挑战,研究团队在AAAI 2025发表的TCDiff模型基础上进行了全面升级。TCDiff首次提出「轨迹可控」的生成思路,通过分离轨迹预测与动作生成的两阶段框架,有效防止了舞者碰撞。然而,这种设计也导致了动作与位移衔接生硬,长序列生成时容易出现抖动和性能下降。
TCDiff++的核心创新在于其端到端的生成流程和专门设计的模块化架构。模型采用两阶段生成机制:首先,团体舞蹈解码器根据输入音乐生成整体协调、避免碰撞的初始舞蹈动作;随后,步法适配器聚焦于脚部轨迹优化,对初始动作进行局部精修,生成扎实的脚步动作,彻底消除「脚底打滑」现象。

在多舞者防碰撞系统方面,TCDiff++引入了三项关键技术:舞者定位嵌入为每位舞者编码其在队伍中的相对位置,维持整体队形;融合投影模块将舞者特征映射到更高维空间,强化模型对不同舞者动作的辨识能力;全局距离约束通过一致性损失函数合理控制舞者间距,确保生成队形既舒展又安全。

在精准步态控制上,模型在生成初始动作时引入交换模式,将音乐特征与舞者间特定的空间交换模式共同作为条件,从源头引导合理步法生成。步法适配器则利用脚跟、脚趾触地状态和身体根骨骼速度信息,针对性修正下半身运动,最后与富有表现力的上半身动作自然融合。

针对长序列生成难题,TCDiff++提出了长序列扩散采样策略。模型采用分段生成、后半段重叠的自回归方式,在生成新片段时利用已生成片段的后半部分作为确定性条件,有效维持角色位置与动作的连贯性,避免突变和崩坏。

实验结果表明,TCDiff++在个体动作质量和群体协调效果两方面均有显著提升。对比现有模型,EDGE在群舞场景中因难以区分舞者而导致频繁碰撞;GCD过度关注互动却忽略位置建模;CoDancers虽减轻了混淆却牺牲了队形协调性;TCDiff则因两阶段分离导致动作与位置不匹配。

TCDiff++凭借其端到端架构与模块协同设计,在所有团体舞蹈指标上持续领先。模型生成的群舞在较长音乐片段上能够保持高度同步、富有表现力且整体和谐,为虚拟演唱会、数字人集体演出等场景提供了可靠的AIGC解决方案。

从技术演进的角度看,TCDiff++代表了群体舞蹈生成领域的重要突破。它不仅解决了当前技术的核心痛点,更为未来更复杂、更大型的虚拟表演场景奠定了基础。随着元宇宙生态的不断完善,这类基础模型的价值将日益凸显。

值得注意的是,TCDiff++作为该领域首批基础模型之一,已从AAAI 2025的开源成果TCDiff升级而来,并被IJCV 2025正式接收。其开源代码提供了自动化渲染流程,对Blender软件初学者友好,有望推动相关技术的快速普及和应用创新。

展望未来,群体舞蹈生成技术仍有多方面需要完善。如何进一步提升动作的细节表现力,如何适应更复杂的音乐节奏变化,如何实现更大规模的群体协调,都是值得深入探索的方向。TCDiff++的成功经验为这些问题的解决提供了宝贵参考。

在产业应用层面,这项技术不仅限于娱乐表演领域。在教育培训、康复治疗、体育训练等场景中,高质量的群体动作生成同样具有重要价值。随着技术的不断成熟,我们有望看到更多跨领域的创新应用涌现。

总体而言,TCDiff++的研发标志着群体舞蹈生成技术迈入了新的发展阶段。通过解决多舞者碰撞、动作僵硬和长序列稳定性等核心难题,该模型为虚拟世界的集体表演提供了可靠的技术支撑,展现了人工智能在创造性内容生成方面的巨大潜力。

— 图片补充 —








关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/10799
