通义开源影视级多模态配音模型 Fun-CineForge,首创“数据+模型”一体化方案
通义实验室于3月16日发布并开源了首个支持影视级多场景配音的多模态大模型Fun-CineForge。该模型配套开放了高质量数据集的构建方法,旨在通过“数据+模型”的一体化设计解决AI配音在影视领域的关键难题。此举标志着AI语音合成技术在专业影视制作场景的应用迈出了重要一步。
事件概述
2026年3月16日,通义实验室正式对外发布并开源了多模态大模型 Fun-CineForge。这是业界首个专门支持影视级多场景配音的模型,旨在填补AI技术在专业影视配音领域的空白。
核心信息
- 模型定位:Fun-CineForge 专注于解决影视级配音需求,支持复杂的多场景适配,能够处理不同情绪、语境及角色特征的语音生成。
- 技术路径:采用“数据 + 模型”的一体化设计理念。除了开源模型本身,通义实验室还同步公开了高质量配音数据集的构建方法,为行业提供可复用的数据标准与训练范式。
- 解决的问题:针对长期以来影视级AI配音面临的情感表达单一、场景适应性差等关键痛点,该方案试图通过更精细的数据构建和模型架构进行突破。
值得关注
此次开源不仅提供了模型权重,更强调了数据构建方法论的共享。这种“模型+数据”双开放的策略,有助于降低行业门槛,推动AI配音从通用场景向高标准的影视制作场景落地。
