7.4 KiB
7.4 KiB
🙋♀️ Pixelle-Video 常见问题解答 (FAQ)
Pixelle-Video 是什么?它和传统视频制作有什么区别?
- Pixelle-Video:只需输入一个主题关键词,AI自动完成文案撰写→配图生成→语音合成→视频合成的全流程
- 传统视频制作:需要手动编写脚本、拍摄/找素材、配音、剪辑、添加特效等多个复杂步骤
- 核心优势:零门槛、零剪辑经验,让视频创作变成"一句话的事"
支持哪些安装方式?
Pixelle-Video 支持以下安装方法:
-
标准安装(推荐):
git clone https://github.com/AIDC-AI/Pixelle-Video.git cd Pixelle-Video uv run streamlit run web/app.py -
前置依赖:
uv包管理器(访问官方文档查看系统对应安装方法)ffmpeg视频处理工具:- macOS:
brew install ffmpeg - Ubuntu/Debian:
sudo apt update && sudo apt install ffmpeg - Windows: 从 ffmpeg.org 下载并配置环境变量 PATH
- macOS:
首次使用需要如何配置?
- 打开 http://localhost:8501
- 展开「⚙️ 系统配置」面板
- 配置两个核心部分:
- LLM 配置(用于生成文案):
- 选择预设模型(通义千问、GPT-4o、DeepSeek 等)
- 或手动填写 API Key、Base URL 和 Model
- 图像配置(用于生成配图):
- 本地部署:填写 ComfyUI 地址(默认 http://127.0.0.1:8188)
- 云端部署:填写 RunningHub API Key
- LLM 配置(用于生成文案):
- 点击「保存配置」完成设置
支持哪些视频生成模式?
Pixelle-Video 提供两种主要生成模式:
-
AI 生成内容:
- 只需输入主题关键词
- AI 自动创作完整文案并生成视频
- 适合场景:快速创作,让 AI 代写脚本
- 示例:"为什么要养成阅读习惯"
-
固定文案内容:
- 直接输入完整文案内容
- 跳过 AI 文案创作环节,直接进入视频生成
- 适合场景:已有现成文案,只需生成配图和合成视频
如何自定义音频效果?
音频定制包含以下选项:
-
背景音乐 (BGM):
- 无 BGM:纯人声解说
- 内置音乐:选择预置背景音乐(如 default.mp3)
- 自定义音乐:将 MP3/WAV 文件放入
bgm/文件夹 - 点击「试听 BGM」预览效果
-
语音合成 (TTS):
- 支持多种 TTS 工作流(Edge-TTS、Index-TTS 等)
- 系统自动扫描
workflows/文件夹中的可用选项 - 输入测试文本,点击「预览语音」测试效果
-
声音克隆:
- 上传参考音频(MP3/WAV/FLAC 格式)
- 适用于支持声音克隆的 TTS 工作流
- 上传后可直接在预览中使用
如何自定义视觉效果?
视觉定制包含以下方面:
-
图像生成工作流:
- 选择预置工作流(如
image_flux.json) - 支持本地部署和云端部署
- 高级用户可添加自定义 ComfyUI 工作流到
workflows/文件夹
- 选择预置工作流(如
-
图像尺寸:
- 设置宽度和高度(默认 1024×1024 像素)
- 注意:不同模型对尺寸有不同要求
-
风格控制:
- 通过提示词前缀(Prompt Prefix)控制整体风格
- 要求使用英文描述
- 示例:"Minimalist black-and-white matchstick figure style illustration, clean lines, simple sketch style"
- 点击「预览风格」测试效果
-
视频模板:
- 按尺寸分组(竖屏/横屏/方形)
- 点击「预览模板」测试不同效果
- 高级用户可在
templates/文件夹创建自定义 HTML 模板
支持哪些 AI 模型?
Pixelle-Video 支持多种 AI 模型提供商:
- LLM 模型:GPT、通义千问、DeepSeek、Ollama(本地)等
- 图像生成:ComfyUI 支持的各类模型(FLUX、SDXL 等)
- TTS 引擎:Edge-TTS、Index-TTS、ChatTTS 等
采用模块化架构,可灵活替换任意组件 - 例如可将图像生成模型替换为 FLUX,或将 TTS 替换为 ChatTTS。
运行成本是多少?
Pixelle-Video 提供三种成本方案:
-
完全免费方案:
- LLM:Ollama(本地运行)
- 图像生成:本地 ComfyUI 部署
- 总成本:0 元
-
推荐平衡方案:
- LLM:通义千问(成本极低,性价比高)
- 图像生成:本地 ComfyUI 部署
- 成本:仅文本生成的少量 API 费用
-
纯云端方案:
- LLM:OpenAI API
- 图像生成:RunningHub 云服务
- 成本:较高,但无需本地硬件
选择建议:有 GPU 显卡建议使用完全免费方案;否则推荐通义千问+本地 ComfyUI 组合,性价比最高。
视频生成需要多长时间?
生成时间取决于以下因素:
- 脚本中的分镜数量
- 网络连接速度
- AI 推理速度(本地 vs 云端)
- 视频长度和分辨率
典型生成时间:大多数视频需要 2-10 分钟 完成。界面会实时显示进度:生成文案 → 生成配图 → 合成语音 → 合成视频。
视频效果不满意怎么办?
可以尝试以下优化方案:
-
文案质量:
- 更换 LLM 模型(不同模型写作风格各异)
- 使用"固定文案内容"模式,输入自己优化的脚本
-
图像质量:
- 调整图像尺寸以匹配模型要求
- 修改提示词前缀改变视觉风格
- 尝试不同的 ComfyUI 工作流
-
音频质量:
- 切换 TTS 工作流(Edge-TTS vs Index-TTS 等)
- 上传参考音频进行声音克隆
- 调整 TTS 参数
-
视频布局:
- 尝试不同的视频模板
- 更改视频尺寸(竖屏/横屏/方形)
生成的视频保存在哪里?
所有生成的视频自动保存到项目目录的 output/ 文件夹中。生成完成后,界面会显示详细信息:
- 视频时长
- 文件大小
- 分镜数量
- 下载链接
如何排查常见错误?
-
FFmpeg 错误:
- 通过
ffmpeg -version验证安装 - 确保 ffmpeg 在系统 PATH 中
- 通过
-
API 连接问题:
- 验证 API Key 是否正确
- 在系统配置中测试 LLM 连接
- 对于 ComfyUI:点击图像配置中的"测试连接"
-
图像生成失败:
- 确保 ComfyUI 服务正在运行
- 检查图像尺寸是否被模型支持
- 验证工作流文件是否存在于
workflows/文件夹
-
音频生成问题:
- 确认所选 TTS 工作流配置正确
- 对于声音克隆:验证参考音频格式是否支持
如何扩展 Pixelle-Video 的功能?
Pixelle-Video 基于 ComfyUI 架构,支持深度定制:
- 自定义工作流:添加自定义 ComfyUI 工作流到
workflows/文件夹 - 自定义模板:在
templates/文件夹创建 HTML 模板 - 自定义 BGM:将音乐文件放入
bgm/文件夹 - 高级集成:利用 ComfyUI 生态,集成任何自定义节点
原子能力设计意味着可以自由组合任意组件 - 替换文本生成、图像模型、TTS 引擎或视频模板,满足个性化需求。
有哪些社区资源?
- GitHub 仓库:https://github.com/AIDC-AI/Pixelle-Video
- 问题反馈:通过 GitHub Issues 提交 bug 或功能请求
- 社区支持:加入讨论群组获取帮助和分享经验
- 模板库:查看所有可用模板及其效果
- 贡献代码:项目在 MIT 许可证下欢迎贡献
💡 提示:如果在此 FAQ 中找不到您需要的答案,请在 GitHub 提交 issue 或加入社区讨论。我们会根据用户反馈持续更新此 FAQ!