Create FAQ_CN.md

This commit is contained in:
xianshi-yyds
2025-11-24 15:07:39 +08:00
committed by GitHub
parent 9a1e83b39d
commit fbf69db92d

209
docs/FAQ_CN.md Normal file
View File

@@ -0,0 +1,209 @@
# 🙋‍♀️ Pixelle-Video 常见问题解答 (FAQ)
### Pixelle-Video 是什么?它和传统视频制作有什么区别?
- **Pixelle-Video**:只需输入一个**主题关键词**AI自动完成文案撰写→配图生成→语音合成→视频合成的全流程
- **传统视频制作**:需要手动编写脚本、拍摄/找素材、配音、剪辑、添加特效等多个复杂步骤
- **核心优势**:零门槛、零剪辑经验,让视频创作变成"一句话的事"
### 支持哪些安装方式?
Pixelle-Video 支持以下安装方法:
1. **标准安装(推荐)**
```bash
git clone https://github.com/AIDC-AI/Pixelle-Video.git
cd Pixelle-Video
uv run streamlit run web/app.py
```
2. **前置依赖**
- `uv` 包管理器(访问官方文档查看系统对应安装方法)
- `ffmpeg` 视频处理工具:
- **macOS**: `brew install ffmpeg`
- **Ubuntu/Debian**: `sudo apt update && sudo apt install ffmpeg`
- **Windows**: 从 ffmpeg.org 下载并配置环境变量 PATH
### 首次使用需要如何配置?
1. 打开 http://localhost:8501
2. 展开「⚙️ 系统配置」面板
3. 配置两个核心部分:
- **LLM 配置**(用于生成文案):
- 选择预设模型通义千问、GPT-4o、DeepSeek 等)
- 或手动填写 API Key、Base URL 和 Model
- **图像配置**(用于生成配图):
- **本地部署**:填写 ComfyUI 地址(默认 http://127.0.0.1:8188
- **云端部署**:填写 RunningHub API Key
4. 点击「保存配置」完成设置
### 支持哪些视频生成模式?
Pixelle-Video 提供两种主要生成模式:
1. **AI 生成内容**
- 只需输入主题关键词
- AI 自动创作完整文案并生成视频
- 适合场景:快速创作,让 AI 代写脚本
- 示例:"为什么要养成阅读习惯"
2. **固定文案内容**
- 直接输入完整文案内容
- 跳过 AI 文案创作环节,直接进入视频生成
- 适合场景:已有现成文案,只需生成配图和合成视频
### 如何自定义音频效果?
音频定制包含以下选项:
- **背景音乐 (BGM)**
- 无 BGM纯人声解说
- 内置音乐:选择预置背景音乐(如 default.mp3
- 自定义音乐:将 MP3/WAV 文件放入 `bgm/` 文件夹
- 点击「试听 BGM」预览效果
- **语音合成 (TTS)**
- 支持多种 TTS 工作流Edge-TTS、Index-TTS 等)
- 系统自动扫描 `workflows/` 文件夹中的可用选项
- 输入测试文本,点击「预览语音」测试效果
- **声音克隆**
- 上传参考音频MP3/WAV/FLAC 格式)
- 适用于支持声音克隆的 TTS 工作流
- 上传后可直接在预览中使用
### 如何自定义视觉效果?
视觉定制包含以下方面:
- **图像生成工作流**
- 选择预置工作流(如 `image_flux.json`
- 支持本地部署和云端部署
- 高级用户可添加自定义 ComfyUI 工作流到 `workflows/` 文件夹
- **图像尺寸**
- 设置宽度和高度(默认 1024×1024 像素)
- 注意:不同模型对尺寸有不同要求
- **风格控制**
- 通过提示词前缀Prompt Prefix控制整体风格
- 要求使用英文描述
- 示例:"Minimalist black-and-white matchstick figure style illustration, clean lines, simple sketch style"
- 点击「预览风格」测试效果
- **视频模板**
- 按尺寸分组(竖屏/横屏/方形)
- 点击「预览模板」测试不同效果
- 高级用户可在 `templates/` 文件夹创建自定义 HTML 模板
### 支持哪些 AI 模型?
Pixelle-Video 支持多种 AI 模型提供商:
- **LLM 模型**GPT、通义千问、DeepSeek、Ollama本地
- **图像生成**ComfyUI 支持的各类模型FLUX、SDXL 等)
- **TTS 引擎**Edge-TTS、Index-TTS、ChatTTS 等
采用模块化架构,可灵活替换任意组件 - 例如可将图像生成模型替换为 FLUX或将 TTS 替换为 ChatTTS。
### 运行成本是多少?
Pixelle-Video 提供三种成本方案:
1. **完全免费方案**
- LLMOllama本地运行
- 图像生成:本地 ComfyUI 部署
- 总成本0 元
2. **推荐平衡方案**
- LLM通义千问成本极低性价比高
- 图像生成:本地 ComfyUI 部署
- 成本:仅文本生成的少量 API 费用
3. **纯云端方案**
- LLMOpenAI API
- 图像生成RunningHub 云服务
- 成本:较高,但无需本地硬件
**选择建议**:有 GPU 显卡建议使用完全免费方案;否则推荐通义千问+本地 ComfyUI 组合,性价比最高。
### 视频生成需要多长时间?
生成时间取决于以下因素:
- 脚本中的分镜数量
- 网络连接速度
- AI 推理速度(本地 vs 云端)
- 视频长度和分辨率
**典型生成时间**:大多数视频需要 **2-10 分钟** 完成。界面会实时显示进度:生成文案 → 生成配图 → 合成语音 → 合成视频。
### 视频效果不满意怎么办?
可以尝试以下优化方案:
- **文案质量**
- 更换 LLM 模型(不同模型写作风格各异)
- 使用"固定文案内容"模式,输入自己优化的脚本
- **图像质量**
- 调整图像尺寸以匹配模型要求
- 修改提示词前缀改变视觉风格
- 尝试不同的 ComfyUI 工作流
- **音频质量**
- 切换 TTS 工作流Edge-TTS vs Index-TTS 等)
- 上传参考音频进行声音克隆
- 调整 TTS 参数
- **视频布局**
- 尝试不同的视频模板
- 更改视频尺寸(竖屏/横屏/方形)
### 生成的视频保存在哪里?
所有生成的视频自动保存到项目目录的 `output/` 文件夹中。生成完成后,界面会显示详细信息:
- 视频时长
- 文件大小
- 分镜数量
- 下载链接
### 如何排查常见错误?
1. **FFmpeg 错误**
- 通过 `ffmpeg -version` 验证安装
- 确保 ffmpeg 在系统 PATH 中
2. **API 连接问题**
- 验证 API Key 是否正确
- 在系统配置中测试 LLM 连接
- 对于 ComfyUI点击图像配置中的"测试连接"
3. **图像生成失败**
- 确保 ComfyUI 服务正在运行
- 检查图像尺寸是否被模型支持
- 验证工作流文件是否存在于 `workflows/` 文件夹
4. **音频生成问题**
- 确认所选 TTS 工作流配置正确
- 对于声音克隆:验证参考音频格式是否支持
### 如何扩展 Pixelle-Video 的功能?
Pixelle-Video 基于 ComfyUI 架构,支持深度定制:
- **自定义工作流**:添加自定义 ComfyUI 工作流到 `workflows/` 文件夹
- **自定义模板**:在 `templates/` 文件夹创建 HTML 模板
- **自定义 BGM**:将音乐文件放入 `bgm/` 文件夹
- **高级集成**:利用 ComfyUI 生态,集成任何自定义节点
原子能力设计意味着可以自由组合任意组件 - 替换文本生成、图像模型、TTS 引擎或视频模板,满足个性化需求。
### 有哪些社区资源?
- **GitHub 仓库**https://github.com/AIDC-AI/Pixelle-Video
- **问题反馈**:通过 GitHub Issues 提交 bug 或功能请求
- **社区支持**:加入讨论群组获取帮助和分享经验
- **模板库**:查看所有可用模板及其效果
- **贡献代码**:项目在 MIT 许可证下欢迎贡献
💡 **提示**:如果在此 FAQ 中找不到您需要的答案,请在 GitHub 提交 issue 或加入社区讨论。我们会根据用户反馈持续更新此 FAQ