Stability AI开源的generative-models项目是一个包含多种生成式AI模型实现的代码库,涵盖了图像、视频、3D等多个领域的最新生成模型。本文汇总了该项目的各种学习资料,帮助读者快速入门这个强大的生成式AI工具集。
generative-models项目由Stability AI公司开源,GitHub仓库地址为:
https://github.com/Stability-AI/generative-models
该项目实现了多种先进的生成式AI模型,主要包括:
SDXL: 高分辨率文生图模型Stable Video Diffusion: 图像到视频生成模型SV3D/SV4D: 新视角视频合成模型SD-Turbo: 快速文生图模型项目采用PyTorch实现,提供了模型训练和推理的代码。
下载预训练模型权重,放置到checkpoints/目录下
运行demo:
streamlit run scripts/demo/sampling.pySDXL是Stable Diffusion系列的最新版本,支持生成高达1024x1024分辨率的图像。包含base模型和refiner模型两个部分。
SDXL-base-1.0模型SDXL-refiner-1.0模型Stable Video Diffusion (SVD)是一个图像到视频的生成模型,可以将静态图像转换为短视频。
SVD模型SVD-XT模型SV3D和SV4D是用于新视角视频合成的模型,可以生成绕物体旋转的视频效果。
SV3D模型SV4D模型项目提供了详细的模型训练配置和脚本,以MNIST数据集为例:
python main.py --base configs/example_training/toy/mnist_cond.yaml更多大规模训练配置可以参考configs/example_training/目录。
项目提供了基于Streamlit的Web demo,运行以下命令启动:
streamlit run scripts/demo/sampling.py支持文生图、图生图等多种功能。
generative-models项目为生成式AI研究和应用提供了强大的工具,欢迎感兴趣的读者深入探索,也欢迎为项目贡献代码!