4MOPfWJpPwM tech.huanqiu.comarticleCharacter.AI推出AvatarFX模型:让静态图片人物“开口说话”/e3pmh164r/e3pn4gh77【环球网科技综合报道】4月23日消息,人工智能创新企业Character.AI正式宣布推出革命性视频生成模型AvatarFX,该技术首次实现将静态图片转化为可说话、可互动的动态视频角色。据悉,AvatarFX的核心技术基于“SOTA DiT-based diffusion video generation model”(基于扩散模型的动态视频生成系统),这一前沿AI架构通过深度学习算法,将静态图像与音频条件化技术深度融合。Character.AI团队透露,模型在训练过程中融合了创新的蒸馏与推理策略,能够精准捕捉音频特征并同步生成唇部运动、表情变化及自然肢体动作,确保视频输出的高保真度与时间一致性。 从具体技术来看,超实时生成能力意味着AvatarFX支持长序列叙事与多角色对话场景,用户仅需上传一张角色图片及对应音频,即可在短时间内生成流畅视频,大幅降低内容创作门槛。多样化音频支持:内置男声、女声及多风格语音库,用户可自由组合角色形象与声音特征,打造个性化虚拟IP。安全保障体系:平台内置多层级内容审核机制,通过实时监控与过滤技术,确保生成内容符合安全规范,为创作者提供无风险创作环境。从应用层面看,AvatarFX的推出为虚拟内容创作带来全新可能。在教育领域,教师可通过虚拟形象实现生动化教学;在娱乐行业,虚拟偶像可实时与观众互动;在社交媒体,用户可快速生成动态头像与短视频内容。此外,该技术还可应用于影视制作、历史人物复原及文化遗产数字化等领域,显著提升内容生产效率与创意空间。目前,用户可通过官方网站(模型入口链接)体验这一技术。(青山)1745387997193环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:秦耳环球网174538799719311[]{"email":"qiner@huanqiu.com","name":"秦耳"}
【环球网科技综合报道】4月23日消息,人工智能创新企业Character.AI正式宣布推出革命性视频生成模型AvatarFX,该技术首次实现将静态图片转化为可说话、可互动的动态视频角色。据悉,AvatarFX的核心技术基于“SOTA DiT-based diffusion video generation model”(基于扩散模型的动态视频生成系统),这一前沿AI架构通过深度学习算法,将静态图像与音频条件化技术深度融合。Character.AI团队透露,模型在训练过程中融合了创新的蒸馏与推理策略,能够精准捕捉音频特征并同步生成唇部运动、表情变化及自然肢体动作,确保视频输出的高保真度与时间一致性。 从具体技术来看,超实时生成能力意味着AvatarFX支持长序列叙事与多角色对话场景,用户仅需上传一张角色图片及对应音频,即可在短时间内生成流畅视频,大幅降低内容创作门槛。多样化音频支持:内置男声、女声及多风格语音库,用户可自由组合角色形象与声音特征,打造个性化虚拟IP。安全保障体系:平台内置多层级内容审核机制,通过实时监控与过滤技术,确保生成内容符合安全规范,为创作者提供无风险创作环境。从应用层面看,AvatarFX的推出为虚拟内容创作带来全新可能。在教育领域,教师可通过虚拟形象实现生动化教学;在娱乐行业,虚拟偶像可实时与观众互动;在社交媒体,用户可快速生成动态头像与短视频内容。此外,该技术还可应用于影视制作、历史人物复原及文化遗产数字化等领域,显著提升内容生产效率与创意空间。目前,用户可通过官方网站(模型入口链接)体验这一技术。(青山)