From 02991154ca62b508c20915026a04f6748132995b Mon Sep 17 00:00:00 2001
From: xianshi-yyds <150135158+xianshi-yyds@users.noreply.github.com>
Date: Wed, 10 Dec 2025 17:32:39 +0800
Subject: [PATCH] Update FAQ_CN.md
---
docs/FAQ_CN.md | 219 +++++++++----------------------------------------
1 file changed, 37 insertions(+), 182 deletions(-)
diff --git a/docs/FAQ_CN.md b/docs/FAQ_CN.md
index 1f8300d..8973b9d 100644
--- a/docs/FAQ_CN.md
+++ b/docs/FAQ_CN.md
@@ -1,209 +1,64 @@
# 🙋♀️ Pixelle-Video 常见问题解答 (FAQ)
-### Pixelle-Video 是什么?它和传统视频制作有什么区别?
-- **Pixelle-Video**:只需输入一个**主题关键词**,AI自动完成文案撰写→配图生成→语音合成→视频合成的全流程
-- **传统视频制作**:需要手动编写脚本、拍摄/找素材、配音、剪辑、添加特效等多个复杂步骤
-- **核心优势**:零门槛、零剪辑经验,让视频创作变成"一句话的事"
+### 本地自己开发的工作流如何集成使用?
-### 支持哪些安装方式?
+如果您想集成自己开发的 ComfyUI 工作流,请遵循以下规范:
-Pixelle-Video 支持以下安装方法:
+1. **本地跑通**:首先确保工作流在您的本地 ComfyUI 中能正常运行。
+2. **参数绑定**:找到需要由程序动态传入提示词的 Text 节点(CLIP Text Encode 或类似文本输入节点)。
+ - 编辑该节点的**标题 (Title)**。
+ - 修改标题为 `$.prompt.text!` 或 `$.prompt.value!`(根据节点接受的输入类型决定)。
+
-1. **标准安装(推荐)**:
- ```bash
- git clone https://github.com/AIDC-AI/Pixelle-Video.git
- cd Pixelle-Video
- uv run streamlit run web/app.py
- ```
+ - *参考示例:可以查看 `workflows/selfhost/` 目录下现有 JSON 文件的编辑方式。*
+3. **导出格式**:将修改好的工作流导出为 **API 格式** (Save (API Format))。
+4. **文件命名**:将导出的 JSON 文件放入 `workflows/` 目录,并遵守以下命名前缀:
+ - **图片类工作流**:前缀必须是 `image_` (例如 `image_my_style.json`)
+ - **视频类工作流**:前缀必须是 `video_`
+ - **语音合成类**:前缀必须是 `tts_`
-2. **前置依赖**:
- - `uv` 包管理器(访问官方文档查看系统对应安装方法)
- - `ffmpeg` 视频处理工具:
- - **macOS**: `brew install ffmpeg`
- - **Ubuntu/Debian**: `sudo apt update && sudo apt install ffmpeg`
- - **Windows**: 从 ffmpeg.org 下载并配置环境变量 PATH
+### 如何在本地调试项目中的 RunningHub 工作流?
-### 首次使用需要如何配置?
+如果您想在本地测试项目中原本用于 RunningHub 云端的工作流:
-1. 打开 http://localhost:8501
-2. 展开「⚙️ 系统配置」面板
-3. 配置两个核心部分:
- - **LLM 配置**(用于生成文案):
- - 选择预设模型(通义千问、GPT-4o、DeepSeek 等)
- - 或手动填写 API Key、Base URL 和 Model
- - **图像配置**(用于生成配图):
- - **本地部署**:填写 ComfyUI 地址(默认 http://127.0.0.1:8188)
- - **云端部署**:填写 RunningHub API Key
-4. 点击「保存配置」完成设置
+1. **获取 ID**:打开runninghub工作流文件,找到id
+2. **加载工作流**:将 ID 粘贴到 RunningHub 网站 URL 后缀上,如:https://www.runninghub.cn/workflow/1983513964837543938 进入该工作流页面。
+
-### 支持哪些视频生成模式?
+4. **下载到本地**:在工作台中将工作流下载为 JSON 文件。
+5. **本地测试**:将下载的文件拖入您本地的 ComfyUI 画布进行测试和调试。
+
-Pixelle-Video 提供两种主要生成模式:
+### 常见的报错及解决方案
-1. **AI 生成内容**:
- - 只需输入主题关键词
- - AI 自动创作完整文案并生成视频
- - 适合场景:快速创作,让 AI 代写脚本
- - 示例:"为什么要养成阅读习惯"
+#### 1. TTS (语音合成) 报错
+- **原因**:默认的 Edge-TTS 是调用微软的免费接口,可能会受网络波动影响,导致失败频率较高。
+- **解决方案**:
+ - 检查网络连接。
+ - 建议切换使用 **ComfyUI 合成 TTS** 的工作流(选择前缀为 `tts_` 的工作流),稳定性更高。
-2. **固定文案内容**:
- - 直接输入完整文案内容
- - 跳过 AI 文案创作环节,直接进入视频生成
- - 适合场景:已有现成文案,只需生成配图和合成视频
+#### 2. LLM (大模型) 报错
+- **排查步骤**:
+ 1. 检查 **Base URL** 是否正确(不要多出空格或错误的后缀)。
+ 2. 检查 **API Key** 是否有效且有余额。
+ 3. 检查 **Model Name** 是否拼写正确。
+ - *提示:请查阅您所使用的模型服务商(如 OpenAI、DeepSeek、阿里云等)的官方 API 文档获取准确配置。*
-### 如何自定义音频效果?
+#### 3. 错误提示 "Could not find a Chrome executable..."
+- **原因**:您的电脑系统中缺少 Chrome 浏览器内核,导致部分依赖浏览器的功能无法运行。
+- **解决方案**:请下载并安装 Google Chrome 浏览器。
-音频定制包含以下选项:
-
-- **背景音乐 (BGM)**:
- - 无 BGM:纯人声解说
- - 内置音乐:选择预置背景音乐(如 default.mp3)
- - 自定义音乐:将 MP3/WAV 文件放入 `bgm/` 文件夹
- - 点击「试听 BGM」预览效果
-
-- **语音合成 (TTS)**:
- - 支持多种 TTS 工作流(Edge-TTS、Index-TTS 等)
- - 系统自动扫描 `workflows/` 文件夹中的可用选项
- - 输入测试文本,点击「预览语音」测试效果
-
-- **声音克隆**:
- - 上传参考音频(MP3/WAV/FLAC 格式)
- - 适用于支持声音克隆的 TTS 工作流
- - 上传后可直接在预览中使用
-
-### 如何自定义视觉效果?
-
-视觉定制包含以下方面:
-
-- **图像生成工作流**:
- - 选择预置工作流(如 `image_flux.json`)
- - 支持本地部署和云端部署
- - 高级用户可添加自定义 ComfyUI 工作流到 `workflows/` 文件夹
-
-- **图像尺寸**:
- - 设置宽度和高度(默认 1024×1024 像素)
- - 注意:不同模型对尺寸有不同要求
-
-- **风格控制**:
- - 通过提示词前缀(Prompt Prefix)控制整体风格
- - 要求使用英文描述
- - 示例:"Minimalist black-and-white matchstick figure style illustration, clean lines, simple sketch style"
- - 点击「预览风格」测试效果
-
-- **视频模板**:
- - 按尺寸分组(竖屏/横屏/方形)
- - 点击「预览模板」测试不同效果
- - 高级用户可在 `templates/` 文件夹创建自定义 HTML 模板
-
-### 支持哪些 AI 模型?
-
-Pixelle-Video 支持多种 AI 模型提供商:
-
-- **LLM 模型**:GPT、通义千问、DeepSeek、Ollama(本地)等
-- **图像生成**:ComfyUI 支持的各类模型(FLUX、SDXL 等)
-- **TTS 引擎**:Edge-TTS、Index-TTS、ChatTTS 等
-
-采用模块化架构,可灵活替换任意组件 - 例如可将图像生成模型替换为 FLUX,或将 TTS 替换为 ChatTTS。
-
-### 运行成本是多少?
-
-Pixelle-Video 提供三种成本方案:
-
-1. **完全免费方案**:
- - LLM:Ollama(本地运行)
- - 图像生成:本地 ComfyUI 部署
- - 总成本:0 元
-
-2. **推荐平衡方案**:
- - LLM:通义千问(成本极低,性价比高)
- - 图像生成:本地 ComfyUI 部署
- - 成本:仅文本生成的少量 API 费用
-
-3. **纯云端方案**:
- - LLM:OpenAI API
- - 图像生成:RunningHub 云服务
- - 成本:较高,但无需本地硬件
-
-**选择建议**:有 GPU 显卡建议使用完全免费方案;否则推荐通义千问+本地 ComfyUI 组合,性价比最高。
-
-### 视频生成需要多长时间?
-
-生成时间取决于以下因素:
-- 脚本中的分镜数量
-- 网络连接速度
-- AI 推理速度(本地 vs 云端)
-- 视频长度和分辨率
-
-**典型生成时间**:大多数视频需要 **2-10 分钟** 完成。界面会实时显示进度:生成文案 → 生成配图 → 合成语音 → 合成视频。
-
-### 视频效果不满意怎么办?
-
-可以尝试以下优化方案:
-
-- **文案质量**:
- - 更换 LLM 模型(不同模型写作风格各异)
- - 使用"固定文案内容"模式,输入自己优化的脚本
-
-- **图像质量**:
- - 调整图像尺寸以匹配模型要求
- - 修改提示词前缀改变视觉风格
- - 尝试不同的 ComfyUI 工作流
-
-- **音频质量**:
- - 切换 TTS 工作流(Edge-TTS vs Index-TTS 等)
- - 上传参考音频进行声音克隆
- - 调整 TTS 参数
-
-- **视频布局**:
- - 尝试不同的视频模板
- - 更改视频尺寸(竖屏/横屏/方形)
### 生成的视频保存在哪里?
-所有生成的视频自动保存到项目目录的 `output/` 文件夹中。生成完成后,界面会显示详细信息:
-- 视频时长
-- 文件大小
-- 分镜数量
-- 下载链接
-
-### 如何排查常见错误?
-
-1. **FFmpeg 错误**:
- - 通过 `ffmpeg -version` 验证安装
- - 确保 ffmpeg 在系统 PATH 中
-
-2. **API 连接问题**:
- - 验证 API Key 是否正确
- - 在系统配置中测试 LLM 连接
- - 对于 ComfyUI:点击图像配置中的"测试连接"
-
-3. **图像生成失败**:
- - 确保 ComfyUI 服务正在运行
- - 检查图像尺寸是否被模型支持
- - 验证工作流文件是否存在于 `workflows/` 文件夹
-
-4. **音频生成问题**:
- - 确认所选 TTS 工作流配置正确
- - 对于声音克隆:验证参考音频格式是否支持
-
-### 如何扩展 Pixelle-Video 的功能?
-
-Pixelle-Video 基于 ComfyUI 架构,支持深度定制:
-
-- **自定义工作流**:添加自定义 ComfyUI 工作流到 `workflows/` 文件夹
-- **自定义模板**:在 `templates/` 文件夹创建 HTML 模板
-- **自定义 BGM**:将音乐文件放入 `bgm/` 文件夹
-- **高级集成**:利用 ComfyUI 生态,集成任何自定义节点
-
-原子能力设计意味着可以自由组合任意组件 - 替换文本生成、图像模型、TTS 引擎或视频模板,满足个性化需求。
+所有生成的视频自动保存到项目目录的 `output/` 文件夹中。生成完成后,界面会显示视频时长、文件大小、分镜数量及下载链接。
### 有哪些社区资源?
- **GitHub 仓库**:https://github.com/AIDC-AI/Pixelle-Video
- **问题反馈**:通过 GitHub Issues 提交 bug 或功能请求
- **社区支持**:加入讨论群组获取帮助和分享经验
-- **模板库**:查看所有可用模板及其效果
- **贡献代码**:项目在 MIT 许可证下欢迎贡献
💡 **提示**:如果在此 FAQ 中找不到您需要的答案,请在 GitHub 提交 issue 或加入社区讨论。我们会根据用户反馈持续更新此 FAQ!