通义开源影视级多模态配音模型 Fun-CineForge,首创“数据+模型”一体化方案

通义实验室于3月16日发布并开源了首个支持影视级多场景配音的多模态大模型Fun-CineForge。该模型配套开放了高质量数据集的构建方法,旨在通过“数据+模型”的一体化设计解决AI配音在影视领域的关键难题。此举标志着AI语音合成技术在专业影视制作场景的应用迈出了重要一步。

事件概述

2026年3月16日,通义实验室正式对外发布并开源了多模态大模型 Fun-CineForge。这是业界首个专门支持影视级多场景配音的模型,旨在填补AI技术在专业影视配音领域的空白。

核心信息

  • 模型定位:Fun-CineForge 专注于解决影视级配音需求,支持复杂的多场景适配,能够处理不同情绪、语境及角色特征的语音生成。
  • 技术路径:采用“数据 + 模型”的一体化设计理念。除了开源模型本身,通义实验室还同步公开了高质量配音数据集的构建方法,为行业提供可复用的数据标准与训练范式。
  • 解决的问题:针对长期以来影视级AI配音面临的情感表达单一、场景适应性差等关键痛点,该方案试图通过更精细的数据构建和模型架构进行突破。

值得关注

此次开源不仅提供了模型权重,更强调了数据构建方法论的共享。这种“模型+数据”双开放的策略,有助于降低行业门槛,推动AI配音从通用场景向高标准的影视制作场景落地。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。