分类
-
- 2025-12-17
- Live Avatar— 阿里联合高校开源的实时数字人模型
LiveAvatar是什么LiveAvatar是由阿里巴巴携手多所顶尖高校共同研发的实时数字人生成系统,能够基于音视频输入驱动,持续输出高质量、无限时长的数字人视频。该系统依托参数规模达140亿的先进扩散模型,实现高达2...Read More -
- 2025-12-16
- LayerDiffusion怎么生成透明底 SD透明背景图生
LayerDiffusion插件可实现StableDiffusion透明背景图像生成,需安装插件、配置专用模型权重、在ControlNet中选择前景模型并启用Alpha通道导出,支持inpaint精修边缘,最终以PNG格...Read More -
- 2025-12-16
- Stable Video Diffusion怎么用 SVD视
需手动下载SVD模型文件并放入models/video_models/,安装ComfyUI-VideoHelperSuite和comfyui-svd节点,配置GPU显存参数,构建图像输入SVDImageToVideoVA...Read More -
- 2025-12-16
- LightX2V— 商汤开源的实时视频生成推理框架
LightX2V是什么LightX2V是商汤科技开源的全球首个支持实时视频生成的高效推理框架。该框架全面覆盖多种视频生成任务,包括文本到视频(T2V)与图像到视频(I2V),深度融合多项前沿视频生成技术。依托模型轻量化、...Read More -
- 2025-12-15
- Stable Diffusion ControlNet怎么用
ControlNet插件未启用需按六步解决:一、通过WebUIExtensions安装;二、从GitURL安装;三、手动解压安装;四、命令行Git克隆;五、下载并放置.pth与.yaml模型至models目录;六、在文生...Read More -
- 2025-12-15
- Wan-Move— 阿里联合清华等开源的运动可控视频生成框架
Wan-Move是什么Wan-Move是由阿里巴巴通义实验室等单位联合推出的开源运动可控视频生成框架,依托潜在空间中的轨迹引导机制,实现高精度、高保真的视频运动调控。其最大优势在于无需修改现有图像到视频(I2V)模型的结...Read More


