腾讯开源HunyuanVideo 1.5:轻量级视频生成模型突破硬件壁垒,元宝实现全模态覆盖
【免费下载链接】HunyuanVideo项目地址: https://ai.gitcode.com/hf_mirrors/tencent/HunyuanVideo
11月21日,腾讯混元大模型团队宣布一项重要进展——正式发布并开源视频生成模型HunyuanVideo 1.5。这款基于Diffusion Transformer(DiT)架构打造的模型,以83亿参数的轻量化设计,实现了5至10秒高清视频的生成能力,目前已在腾讯元宝最新版本中上线。用户只需通过简单操作,即可体验两大核心功能:一是输入文字描述(Prompt)直接生成视频的“文生视频”模式;二是上传图片结合文字描述,将静态画面转化为动态影像的“图生视频”模式。在此之前,视频生成领域的开源SOTA(State-of-the-Art)旗舰模型通常需要至少200亿参数支撑,硬件部署门槛高达50GB以上显存的显卡。HunyuanVideo 1.5的问世,彻底改变了这一局面,将高性能视频生成的硬件需求大幅降低,让普通用户也能轻松享受旗舰级模型的体验。目前,该模型已同步上传至Hugging Face和Gitcode社区,方便开发者取用与二次开发。
HunyuanVideo 1.5的核心能力体现在多维度的全面性与强大性上。模型原生支持中英文双语输入,无论是文生视频还是图生视频任务,均能精准理解并执行用户指令。其突出的指令遵循能力,可实现多样化场景的精准复现,包括运镜效果的模拟、物体运动的流畅性呈现、写实人物的细节刻画,以及人物情绪与表情的细腻传达等。同时,模型内置多种风格模板,涵盖写实、动画、积木等不同视觉类型,并支持在视频画面中生成清晰的中英文文字,满足创意表达的多样化需求。
在视频质量方面,HunyuanVideo 1.5表现亮眼。模型可直接生成5至10秒时长、分辨率为480p或720p的高清视频,配合超分模型进一步处理后,分辨率可提升至1080p的电影级画质,为用户带来沉浸式视觉体验。值得关注的是,该模型创新性地引入了SSTA稀疏注意力机制(Selective and Sliding Tile Attention,选择性滑动分块注意力),在保证视频生成质量的前提下,显著提升了推理效率。结合多阶段渐进式训练策略,HunyuanVideo 1.5在运动连贯性、语义遵循度等关键指标上均达到了商用标准,为行业应用奠定了坚实基础。
如上图所示,腾讯元宝应用界面直观展示了HunyuanVideo 1.5的文生视频效果,左侧“宠物猫被UFO抓走”和右侧“公仔跳舞”的案例,生动体现了模型对复杂场景和动态指令的精准理解。这一可视化呈现不仅让用户直观感受到AI视频生成的魅力,更为创作者提供了“所想即所得”的创意工具。
腾讯元宝方面表示,自上线以来,产品持续拓展AI能力边界。此次“一句话生视频”功能的推出,标志着元宝在多模态能力建设上迈出了关键一步,正式实现了从文本、图片、音频到视频的“图文音视”全模态覆盖。这不仅是元宝产品能力的一次重要升级,更意味着AI技术进一步贴近普通用户的日常生活,成为一款真正实用的辅助工具。未来,随着模型的不断迭代与优化,HunyuanVideo系列有望在更多领域释放潜力,推动视频内容创作进入更高效、更智能的新阶段。
【免费下载链接】HunyuanVideo项目地址: https://ai.gitcode.com/hf_mirrors/tencent/HunyuanVideo
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考