From 02991154ca62b508c20915026a04f6748132995b Mon Sep 17 00:00:00 2001 From: xianshi-yyds <150135158+xianshi-yyds@users.noreply.github.com> Date: Wed, 10 Dec 2025 17:32:39 +0800 Subject: [PATCH] Update FAQ_CN.md --- docs/FAQ_CN.md | 219 +++++++++---------------------------------------- 1 file changed, 37 insertions(+), 182 deletions(-) diff --git a/docs/FAQ_CN.md b/docs/FAQ_CN.md index 1f8300d..8973b9d 100644 --- a/docs/FAQ_CN.md +++ b/docs/FAQ_CN.md @@ -1,209 +1,64 @@ # 🙋‍♀️ Pixelle-Video 常见问题解答 (FAQ) -### Pixelle-Video 是什么?它和传统视频制作有什么区别? -- **Pixelle-Video**:只需输入一个**主题关键词**,AI自动完成文案撰写→配图生成→语音合成→视频合成的全流程 -- **传统视频制作**:需要手动编写脚本、拍摄/找素材、配音、剪辑、添加特效等多个复杂步骤 -- **核心优势**:零门槛、零剪辑经验,让视频创作变成"一句话的事" +### 本地自己开发的工作流如何集成使用? -### 支持哪些安装方式? +如果您想集成自己开发的 ComfyUI 工作流,请遵循以下规范: -Pixelle-Video 支持以下安装方法: +1. **本地跑通**:首先确保工作流在您的本地 ComfyUI 中能正常运行。 +2. **参数绑定**:找到需要由程序动态传入提示词的 Text 节点(CLIP Text Encode 或类似文本输入节点)。 + - 编辑该节点的**标题 (Title)**。 + - 修改标题为 `$.prompt.text!` 或 `$.prompt.value!`(根据节点接受的输入类型决定)。 + image -1. **标准安装(推荐)**: - ```bash - git clone https://github.com/AIDC-AI/Pixelle-Video.git - cd Pixelle-Video - uv run streamlit run web/app.py - ``` + - *参考示例:可以查看 `workflows/selfhost/` 目录下现有 JSON 文件的编辑方式。* +3. **导出格式**:将修改好的工作流导出为 **API 格式** (Save (API Format))。 +4. **文件命名**:将导出的 JSON 文件放入 `workflows/` 目录,并遵守以下命名前缀: + - **图片类工作流**:前缀必须是 `image_` (例如 `image_my_style.json`) + - **视频类工作流**:前缀必须是 `video_` + - **语音合成类**:前缀必须是 `tts_` -2. **前置依赖**: - - `uv` 包管理器(访问官方文档查看系统对应安装方法) - - `ffmpeg` 视频处理工具: - - **macOS**: `brew install ffmpeg` - - **Ubuntu/Debian**: `sudo apt update && sudo apt install ffmpeg` - - **Windows**: 从 ffmpeg.org 下载并配置环境变量 PATH +### 如何在本地调试项目中的 RunningHub 工作流? -### 首次使用需要如何配置? +如果您想在本地测试项目中原本用于 RunningHub 云端的工作流: -1. 打开 http://localhost:8501 -2. 展开「⚙️ 系统配置」面板 -3. 配置两个核心部分: - - **LLM 配置**(用于生成文案): - - 选择预设模型(通义千问、GPT-4o、DeepSeek 等) - - 或手动填写 API Key、Base URL 和 Model - - **图像配置**(用于生成配图): - - **本地部署**:填写 ComfyUI 地址(默认 http://127.0.0.1:8188) - - **云端部署**:填写 RunningHub API Key -4. 点击「保存配置」完成设置 +1. **获取 ID**:打开runninghub工作流文件,找到id +2. **加载工作流**:将 ID 粘贴到 RunningHub 网站 URL 后缀上,如:https://www.runninghub.cn/workflow/1983513964837543938 进入该工作流页面。 + image -### 支持哪些视频生成模式? +4. **下载到本地**:在工作台中将工作流下载为 JSON 文件。 +5. **本地测试**:将下载的文件拖入您本地的 ComfyUI 画布进行测试和调试。 + -Pixelle-Video 提供两种主要生成模式: +### 常见的报错及解决方案 -1. **AI 生成内容**: - - 只需输入主题关键词 - - AI 自动创作完整文案并生成视频 - - 适合场景:快速创作,让 AI 代写脚本 - - 示例:"为什么要养成阅读习惯" +#### 1. TTS (语音合成) 报错 +- **原因**:默认的 Edge-TTS 是调用微软的免费接口,可能会受网络波动影响,导致失败频率较高。 +- **解决方案**: + - 检查网络连接。 + - 建议切换使用 **ComfyUI 合成 TTS** 的工作流(选择前缀为 `tts_` 的工作流),稳定性更高。 -2. **固定文案内容**: - - 直接输入完整文案内容 - - 跳过 AI 文案创作环节,直接进入视频生成 - - 适合场景:已有现成文案,只需生成配图和合成视频 +#### 2. LLM (大模型) 报错 +- **排查步骤**: + 1. 检查 **Base URL** 是否正确(不要多出空格或错误的后缀)。 + 2. 检查 **API Key** 是否有效且有余额。 + 3. 检查 **Model Name** 是否拼写正确。 + - *提示:请查阅您所使用的模型服务商(如 OpenAI、DeepSeek、阿里云等)的官方 API 文档获取准确配置。* -### 如何自定义音频效果? +#### 3. 错误提示 "Could not find a Chrome executable..." +- **原因**:您的电脑系统中缺少 Chrome 浏览器内核,导致部分依赖浏览器的功能无法运行。 +- **解决方案**:请下载并安装 Google Chrome 浏览器。 -音频定制包含以下选项: - -- **背景音乐 (BGM)**: - - 无 BGM:纯人声解说 - - 内置音乐:选择预置背景音乐(如 default.mp3) - - 自定义音乐:将 MP3/WAV 文件放入 `bgm/` 文件夹 - - 点击「试听 BGM」预览效果 - -- **语音合成 (TTS)**: - - 支持多种 TTS 工作流(Edge-TTS、Index-TTS 等) - - 系统自动扫描 `workflows/` 文件夹中的可用选项 - - 输入测试文本,点击「预览语音」测试效果 - -- **声音克隆**: - - 上传参考音频(MP3/WAV/FLAC 格式) - - 适用于支持声音克隆的 TTS 工作流 - - 上传后可直接在预览中使用 - -### 如何自定义视觉效果? - -视觉定制包含以下方面: - -- **图像生成工作流**: - - 选择预置工作流(如 `image_flux.json`) - - 支持本地部署和云端部署 - - 高级用户可添加自定义 ComfyUI 工作流到 `workflows/` 文件夹 - -- **图像尺寸**: - - 设置宽度和高度(默认 1024×1024 像素) - - 注意:不同模型对尺寸有不同要求 - -- **风格控制**: - - 通过提示词前缀(Prompt Prefix)控制整体风格 - - 要求使用英文描述 - - 示例:"Minimalist black-and-white matchstick figure style illustration, clean lines, simple sketch style" - - 点击「预览风格」测试效果 - -- **视频模板**: - - 按尺寸分组(竖屏/横屏/方形) - - 点击「预览模板」测试不同效果 - - 高级用户可在 `templates/` 文件夹创建自定义 HTML 模板 - -### 支持哪些 AI 模型? - -Pixelle-Video 支持多种 AI 模型提供商: - -- **LLM 模型**:GPT、通义千问、DeepSeek、Ollama(本地)等 -- **图像生成**:ComfyUI 支持的各类模型(FLUX、SDXL 等) -- **TTS 引擎**:Edge-TTS、Index-TTS、ChatTTS 等 - -采用模块化架构,可灵活替换任意组件 - 例如可将图像生成模型替换为 FLUX,或将 TTS 替换为 ChatTTS。 - -### 运行成本是多少? - -Pixelle-Video 提供三种成本方案: - -1. **完全免费方案**: - - LLM:Ollama(本地运行) - - 图像生成:本地 ComfyUI 部署 - - 总成本:0 元 - -2. **推荐平衡方案**: - - LLM:通义千问(成本极低,性价比高) - - 图像生成:本地 ComfyUI 部署 - - 成本:仅文本生成的少量 API 费用 - -3. **纯云端方案**: - - LLM:OpenAI API - - 图像生成:RunningHub 云服务 - - 成本:较高,但无需本地硬件 - -**选择建议**:有 GPU 显卡建议使用完全免费方案;否则推荐通义千问+本地 ComfyUI 组合,性价比最高。 - -### 视频生成需要多长时间? - -生成时间取决于以下因素: -- 脚本中的分镜数量 -- 网络连接速度 -- AI 推理速度(本地 vs 云端) -- 视频长度和分辨率 - -**典型生成时间**:大多数视频需要 **2-10 分钟** 完成。界面会实时显示进度:生成文案 → 生成配图 → 合成语音 → 合成视频。 - -### 视频效果不满意怎么办? - -可以尝试以下优化方案: - -- **文案质量**: - - 更换 LLM 模型(不同模型写作风格各异) - - 使用"固定文案内容"模式,输入自己优化的脚本 - -- **图像质量**: - - 调整图像尺寸以匹配模型要求 - - 修改提示词前缀改变视觉风格 - - 尝试不同的 ComfyUI 工作流 - -- **音频质量**: - - 切换 TTS 工作流(Edge-TTS vs Index-TTS 等) - - 上传参考音频进行声音克隆 - - 调整 TTS 参数 - -- **视频布局**: - - 尝试不同的视频模板 - - 更改视频尺寸(竖屏/横屏/方形) ### 生成的视频保存在哪里? -所有生成的视频自动保存到项目目录的 `output/` 文件夹中。生成完成后,界面会显示详细信息: -- 视频时长 -- 文件大小 -- 分镜数量 -- 下载链接 - -### 如何排查常见错误? - -1. **FFmpeg 错误**: - - 通过 `ffmpeg -version` 验证安装 - - 确保 ffmpeg 在系统 PATH 中 - -2. **API 连接问题**: - - 验证 API Key 是否正确 - - 在系统配置中测试 LLM 连接 - - 对于 ComfyUI:点击图像配置中的"测试连接" - -3. **图像生成失败**: - - 确保 ComfyUI 服务正在运行 - - 检查图像尺寸是否被模型支持 - - 验证工作流文件是否存在于 `workflows/` 文件夹 - -4. **音频生成问题**: - - 确认所选 TTS 工作流配置正确 - - 对于声音克隆:验证参考音频格式是否支持 - -### 如何扩展 Pixelle-Video 的功能? - -Pixelle-Video 基于 ComfyUI 架构,支持深度定制: - -- **自定义工作流**:添加自定义 ComfyUI 工作流到 `workflows/` 文件夹 -- **自定义模板**:在 `templates/` 文件夹创建 HTML 模板 -- **自定义 BGM**:将音乐文件放入 `bgm/` 文件夹 -- **高级集成**:利用 ComfyUI 生态,集成任何自定义节点 - -原子能力设计意味着可以自由组合任意组件 - 替换文本生成、图像模型、TTS 引擎或视频模板,满足个性化需求。 +所有生成的视频自动保存到项目目录的 `output/` 文件夹中。生成完成后,界面会显示视频时长、文件大小、分镜数量及下载链接。 ### 有哪些社区资源? - **GitHub 仓库**:https://github.com/AIDC-AI/Pixelle-Video - **问题反馈**:通过 GitHub Issues 提交 bug 或功能请求 - **社区支持**:加入讨论群组获取帮助和分享经验 -- **模板库**:查看所有可用模板及其效果 - **贡献代码**:项目在 MIT 许可证下欢迎贡献 💡 **提示**:如果在此 FAQ 中找不到您需要的答案,请在 GitHub 提交 issue 或加入社区讨论。我们会根据用户反馈持续更新此 FAQ!