免费生成AI视频 - 稳定视频扩散

Find AI Tools
No difficulty
No complicated process
Find ai tools

免费生成AI视频 - 稳定视频扩散

Table of Contents

  • 📚 稳定视频扩散简介
  • 📦 下载稳定视频扩散模型
  • ⚙️ 安装 Comy UI Collab
  • 📁 向 Google Drive 上传模型
  • 🚀 运行稳定视频扩散模型
  • 🎥 生成视频示例
  • 💡 自定义稳定视频扩散设置
  • 🌉 使用其他样本图片
  • 💻 转换视频格式
  • 🤔 常见问题解答 (FAQ)

📚 稳定视频扩散简介

稳定视频扩散是AI领域的一项新技术,通过生成视频模型来产生稳定、流畅的视频效果。相比于其他类似的技术,稳定视频扩散更加优秀,并且完全免费。它没有任何审查制度,所以你可以生成任意你想要的视频内容,当然包括不适宜在工作环境中观看的内容。

然而,稳定视频扩散仍然存在一些限制。每秒只能生成14或25帧的视频,而且视频的最大时长为4秒。目前,大多数流行的自动化1111扩散UI尚未实现这个功能,但是在GitHub上有一个开放的功能请求,所以我们希望能尽快看到它的实现。不过,我们可以使用Comy UI,它已经提供了节点和整个稳定视频扩散模型的工作流程,所以你可以在Google Collab上或在本地计算机上运行这个模型。

在接下来的视频中,我将向你展示如何在Google Collab上安装稳定视频扩散模型并开始使用它。

📦 下载稳定视频扩散模型

首先,我们需要从Stability AI的GitHub下载稳定视频扩散模型的检查点。在那里有两个可供选择的模型,一个是每秒生成14帧的模型,分辨率为576,另一个是每秒生成25帧的模型,称为稳定视频扩散XT。点击下载链接,将其保存到本地。

⚙️ 安装 Comy UI Collab

我们需要使用Comy UI Collab来运行稳定视频扩散模型。你可以在Google上搜索它,或者直接点击视频下方的链接。进入Comy UI Collab页面后,点击文件,将其保存到你的Google Drive中。

接下来,你需要在Comy UI的公告中找到工作流程的链接,并下载到你的计算机中。

📁 向 Google Drive 上传模型

将稳定视频扩散模型从下载文件夹中拖动到Google Drive的Collab笔记本文件夹中的Comy UI文件夹下。等待上传完成后,返回Collab,点击下一步继续。

🚀 运行稳定视频扩散模型

现在,我们来启动稳定视频扩散模型。运行Collab中的单元格,安装Comy UI。安装完成后,进入Google Drive中的Collab笔记本文件夹,找到Comy UI文件夹,并在其中的Models and Checkpoints文件夹下放置刚刚上传的稳定视频扩散模型。

运行下一个单元格,使用Cloud Flared推荐方式运行Comy UI。等待运行完成后,你将看到一个URL链接,点击它即可进入Comy UI。

🎥 生成视频示例

在Comy UI中,你可以看到默认的工作流程。要使用视频模型,你需要点击load按钮,在Video.Json下上传workflow图像。然后修改第一个节点"Image only Checkpoint Loader",如果你使用的是每秒25帧的模型,将其改为"SVD XT",如果是每秒14帧的模型则不需要更改。接下来,选择你想要上传的文件,上传后点击Q Prompt运行。初始运行会花费一些时间,因为它需要加载和处理模型,后续运行会更快速。等待运行完成后,你可以在最后一个节点中看到生成的结果。

这是一个默认设置下生成的视频示例,效果非常好。它能够轻微移动相机,还能很好地处理人脸。与其他AI视频模型相比,稳定视频扩散在处理人类身体和人脸方面表现更好,尤其在复杂的背景下。

💡 自定义稳定视频扩散设置

在"SVD Image to Video Conditioning"节点下,我们可以找到许多可调整的设置。有些设置比较明显,如宽度和高度,而其他设置可能不那么明显。例如,Video Frames表示总帧数,Frames per Second表示每秒钟生成的帧数。通过调整这两个参数,你可以得到较长或较短的视频。而Motion Bucket ID则控制视频中的运动程度,我们可以将其减小来降低运动效果。

除了这些设置,还有其他可调整的参数。你可以根据自己的需求进行调整,尝试出最适合你的视频效果。

🌉 使用其他样本图片

除了人脸,你还可以使用其他类型的图片来生成稳定视频扩散效果。尝试上传包含风景、人物或其他元素的图片,并调整设置,观察视频生成的效果。根据图片的不同特点,你可能需要调整一些参数才能获得理想的效果。

💻 转换视频格式

稳定视频扩散生成的视频保存为webp格式。你可以在Comy UI文件夹的Output文件夹中找到这些视频。如果需要将其转换为MP4格式,你可以使用在线转换工具或使用视频编辑软件进行转换。

感谢观看我的视频,希望对你有所帮助和兴趣。记得订阅我的频道并查看我的稳定视频扩散教程播放列表。


🤔 常见问题解答 (FAQ)

Q: 稳定视频扩散模型是否适用于生成音频?

A: 稳定视频扩散模型仅用于生成视频,无法生成音频。如果你需要合成音频与视频,请在生成视频后使用其他工具进行音频合并。

Q: 是否有其他稳定视频扩散模型可供选择?

A: 目前稳定视频扩散模型有两个版本,分别每秒生成14帧和25帧的视频。你可以根据自己的需求选择合适的模型。

Q: 我能够修改生成的视频的分辨率吗?

A: 在"SVD Image to Video Conditioning"节点下,你可以修改视频的宽度和高度来调整分辨率。注意,改变分辨率可能会影响视频的清晰度和流畅度。

Q: 生成的视频能够支持导出为其他格式吗?

A: 稳定视频扩散生成的视频保存为webp格式,这是一种不常见的视频格式。如果需要导出为其他常见格式如MP4,你可以使用在线转换工具或使用视频编辑软件进行转换。

Q: 如何调整生成视频的运动效果?

A: 在"SVD Image to Video Conditioning"节点下,你可以通过调整Motion Bucket ID参数来控制视频中的运动程度。较小的Motion Bucket ID值会降低视频的运动效果。


资源链接:

📚 稳定视频扩散简介

📦 下载稳定视频扩散模型

⚙️ 安装 Comy UI Collab

📁 向 Google Drive 上传模型

🚀 运行稳定视频扩散模型

🎥 生成视频示例

💡 自定义稳定视频扩散设置

🌉 使用其他样本图片

💻 转换视频格式

🤔 常见问题解答 (FAQ)


📚 稳定视频扩散简介

稳定视频扩散是一项新的人工智能技术,用于生成稳定而流畅的视频效果。相较于其他类似的模型,稳定视频扩散的表现更为卓越,并且完全免费。它不受任何审查制度的限制,因此你可以生成任何类型的视频内容,甚至是非适宜在工作环境中观看的内容。

然而,稳定视频扩散也存在一些限制。它每秒只能生成14到25帧的视频,而且视频长度最长为4秒。目前,最受欢迎的稳定扩散UI工具Automatic 1111尚未实现该功能,但GitHub上有一项开放的功能请求,希望很快能够看到该功能的实现。目前我们可以使用Comy UI,该工具已经提供了稳定视频扩散模型的节点和整个工作流程,因此你可以在Google Collab或本地计算机上运行该模型。

在本视频中,我将展示如何在Google Collab上安装稳定视频扩散模型并开始使用它。

📦 下载稳定视频扩散模型

首先,我们需要从Stability AI的GitHub上下载稳定视频扩散模型的检查点。在那里有两个可供选择的模型,一个是每秒生成14帧的模型,分辨率为576,另一个是每秒生成25帧的模型,称为稳定视频扩散XT。点击下载链接,将其保存到本地。

⚙️ 安装 Comy UI Collab

我们需要使用Comy UI Collab来运行稳定视频扩散模型。你可以在Google上搜索它,并找到适用于Collab的版本。点击链接后,将工作流程文件保存到你的Google Drive中。

📁 向 Google Drive 上传模型

将下载的稳定视频扩散模型文件从本地拖动到你的Google Drive中的Collab笔记本文件夹下的Comy UI文件夹中。等待文件上传完成后,返回Collab并进行下一步操作。

🚀 运行稳定视频扩散模型

现在,我们开始运行稳定视频扩散模型。运行Collab中的单元格,安装Comy UI并运行。安装完成后,进入你的Google Drive中Collab笔记本文件夹中的Comy UI文件夹,并将刚刚上传的稳定视频扩散模型放入Models and Checkpoints文件夹中。

运行下一个单元格,使用Cloud Flared推荐的方式运行Comy UI。等待运行过程完成后,你将看到一个URL链接,点击它即可进入Comy UI。

🎥 生成视频示例

在Comy UI中,你将看到默认的工作流程。要使用视频模型,你需要点击load按钮,在Video.Json下上传workflow图像。然后修改第一个节点"Image only Checkpoint Loader",如果你使用的是每秒25帧的模型,将其改为"SVD XT"。接下来,选择你想要上传的文件,上传后点击Q Prompt运行。初始运行可能需要一些时间,因为它需要加载和处理模型,后续运行会更快。等待运行完成后,你可以在最后一个节点中看到生成的结果。

这是一个默认设置下生成的视频示例,效果非常好。它能够轻微移动相机,并成功处理人脸。与其他AI视频模型相比,稳定视频扩散在处理人类身体和人脸方面表现更好,尤其在复杂的背景下。

💡 自定义稳定视频扩散设置

在"SVD Image to Video Conditioning"节点下,我们可以找到许多可调整的设置。有些设置比较明显,如宽度和高度,而其他设置可能不那么明显。例如,Video Frames表示视频的总帧数,Frames per Second表示每秒钟生成的帧数。通过调整这两个参数,你可以得到更长或更短的视频。Motion Bucket ID参数则用于调整视频中的运动效果,较小的数值表示更少的运动。

除了这些设置,还有其他一些参数可以调整,具体取决于你的需求。通过实验和调整参数,你可以得到符合你期望的视频效果。

🌉 使用其他样本图片

除了人脸照片,你还可以使用其他类型的图片来生成稳定视频扩散效果。尝试上传包含风景、人物或其他元素的照片,并根据需要调整设置,观察视频生成的效果。不同的图片具有不同的特点,你可能需要调整一些参数才能获得理想的效果。

💻 转换视频格式

稳定视频扩散生成的视频以webp格式保存。你可以在Comy UI文件夹的Output文件夹中找到这些视频。如果需要将其转换为MP4格式,可以使用在线转换工具或使用视频编辑软件进行转换。

非常感谢观看我的视频,希望对你有所帮助并且有趣。不要忘记订阅我的频道并查看我的稳定视频扩散教程播放列表。


🤔 常见问题解答 (FAQ)

Q: 稳定视频扩散模型可以用于生成音频吗?

A: 不,稳定视频扩散模型仅用于生成视频,无法生成音频。如果你需要将音频与视频合并,请在生成视频后使用其他工具进行音频处理。

Q: 是否有其他稳定视频扩散模型可供选择?

A: 目前有两个版本的稳定视频扩散模型,分别可以每秒生成14帧和25帧的视频。你可以根据需要选择合适的模型。

Q: 我能够修改生成视频的分辨率吗?

A: 是的,在"SVD Image to Video Conditioning"节点下,你可以调整视频的宽度和高度以修改分辨率。值得注意的是,修改分辨率可能会对视频的清晰度和流畅度产生影响。

Q: 生成的视频能够导出为其他格式吗?

A: 稳定视频扩散生成的视频保存为webp格式。如果需要将其转换为其他常见的视频格式,例如MP4,你可以使用在线转换工具或使用视频编辑软件进行转换。

Q: 如何调整生成视频的运动效果?

A: 在"SVD Image to Video Conditioning"节点下,你可以通过调整Motion Bucket ID参数来控制视频的运动效果。较小的数值将减小视频中的运动效果。


资源链接:

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.