新增示例库逻辑

This commit is contained in:
puke
2025-11-03 17:44:33 +08:00
parent 6f114b61c7
commit ec395196cd
43 changed files with 2567 additions and 406 deletions

View File

@@ -0,0 +1,60 @@
# 配置说明
完成安装后,需要配置服务才能使用 Pixelle-Video。
---
## LLM 配置
LLM大语言模型用于生成视频文案。
### 快速选择预设
1. 从下拉菜单选择预设模型:
- 通义千问(推荐,性价比高)
- GPT-4o
- DeepSeek
- Ollama本地运行完全免费
2. 系统会自动填充 `base_url``model`
3. 点击「🔑 获取 API Key」链接注册并获取密钥
4. 填入 API Key
---
## 图像配置
支持两种方式:
### 本地部署(推荐)
使用本地 ComfyUI 服务:
1. 安装并启动 ComfyUI
2. 填写 ComfyUI URL默认 `http://127.0.0.1:8188`
3. 点击「测试连接」确认服务可用
### 云端部署
使用 RunningHub 云端服务:
1. 注册 RunningHub 账号
2. 获取 API Key
3. 在配置中填写 API Key
---
## 保存配置
填写完所有必需的配置后,点击「保存配置」按钮。
配置会保存到 `config.yaml` 文件中。
---
## 下一步
- [快速开始](quick-start.md) - 生成你的第一个视频

View File

@@ -0,0 +1,115 @@
# 安装
本页面将指导你完成 Pixelle-Video 的安装。
---
## 系统要求
### 必需条件
- **Python**: 3.10 或更高版本
- **操作系统**: Windows、macOS 或 Linux
- **包管理器**: uv推荐或 pip
### 可选条件
- **GPU**: 如需本地运行 ComfyUI建议配备 NVIDIA 显卡6GB+ 显存)
- **网络**: 稳定的网络连接(用于调用 LLM API 和图像生成服务)
---
## 安装步骤
### 第一步:克隆项目
```bash
git clone https://github.com/PixelleLab/Pixelle-Video.git
cd Pixelle-Video
```
### 第二步:安装依赖
!!! tip "推荐使用 uv"
本项目使用 `uv` 作为包管理器,它比传统的 pip 更快、更可靠。
#### 使用 uv推荐
```bash
# 如果还没有安装 uv先安装它
curl -LsSf https://astral.sh/uv/install.sh | sh
# 安装项目依赖uv 会自动创建虚拟环境)
uv sync
```
#### 使用 pip
```bash
# 创建虚拟环境
python -m venv venv
# 激活虚拟环境
# Windows:
venv\Scripts\activate
# macOS/Linux:
source venv/bin/activate
# 安装依赖
pip install -e .
```
---
## 验证安装
运行以下命令验证安装是否成功:
```bash
# 使用 uv
uv run streamlit run web/app.py
# 或使用 pip需先激活虚拟环境
streamlit run web/app.py
```
浏览器应该会自动打开 `http://localhost:8501`,显示 Pixelle-Video 的 Web 界面。
!!! success "安装成功!"
如果能看到 Web 界面,说明安装成功了!接下来请查看 [配置说明](configuration.md) 来设置服务。
---
## 可选:安装 ComfyUI本地部署
如果希望本地运行图像生成服务,需要安装 ComfyUI
### 快速安装
```bash
# 克隆 ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 安装依赖
pip install -r requirements.txt
```
### 启动 ComfyUI
```bash
python main.py
```
ComfyUI 默认运行在 `http://127.0.0.1:8188`
!!! info "ComfyUI 模型"
ComfyUI 需要下载对应的模型文件才能工作。请参考 [ComfyUI 官方文档](https://github.com/comfyanonymous/ComfyUI) 了解如何下载和配置模型。
---
## 下一步
- [配置服务](configuration.md) - 配置 LLM 和图像生成服务
- [快速开始](quick-start.md) - 生成第一个视频

View File

@@ -0,0 +1,107 @@
# 快速开始
已经完成安装和配置?让我们生成第一个视频吧!
---
## 启动 Web 界面
```bash
# 使用 uv 运行
uv run streamlit run web/app.py
```
浏览器会自动打开 `http://localhost:8501`
---
## 生成你的第一个视频
### 步骤一:检查配置
首次使用时,展开「⚙️ 系统配置」面板,确认已配置:
- **LLM 配置**: 选择 AI 模型如通义千问、GPT 等)并填入 API Key
- **图像配置**: 配置 ComfyUI 地址或 RunningHub API Key
如果还没有配置,请查看 [配置说明](configuration.md)。
配置好后点击「保存配置」。
---
### 步骤二:输入主题
在左侧栏的「📝 内容输入」区域:
1. 选择「**AI 生成内容**」模式
2. 在文本框中输入一个主题,例如:
```
为什么要养成阅读习惯
```
3. (可选)设置场景数量,默认 5 个分镜
!!! tip "主题示例"
- 为什么要养成阅读习惯
- 如何提高工作效率
- 健康饮食的重要性
- 旅行的意义
---
### 步骤三:配置语音和视觉
在中间栏:
**语音设置**
- 选择 TTS 工作流(默认 Edge-TTS 即可)
- 如需声音克隆,可上传参考音频
**视觉设置**
- 选择图像生成工作流(默认即可)
- 设置图像尺寸(默认 1024x1024
- 选择视频模板(推荐竖屏 1080x1920
---
### 步骤四:生成视频
点击右侧栏的「🎬 生成视频」按钮!
系统会显示实时进度:
- 生成文案
- 生成配图(每个分镜)
- 合成语音
- 合成视频
!!! info "生成时间"
生成一个 5 分镜的视频大约需要 2-5 分钟具体时间取决于LLM API 响应速度、图像生成速度、TTS 工作流类型、网络状况
---
### 步骤五:预览视频
生成完成后,视频会自动在右侧栏播放!
你可以看到:
- 📹 视频预览播放器
- ⏱️ 视频时长
- 📦 文件大小
- 🎬 分镜数量
- 📐 视频尺寸
视频文件保存在 `output/` 文件夹中。
---
## 下一步探索
恭喜!你已经成功生成了第一个视频 🎉
接下来你可以:
- **调整风格** - 查看 [自定义视觉风格](../tutorials/custom-style.md) 教程
- **克隆声音** - 查看 [使用参考音频克隆声音](../tutorials/voice-cloning.md) 教程
- **使用 API** - 查看 [API 使用指南](../user-guide/api.md)
- **开发模板** - 查看 [模板开发指南](../user-guide/templates.md)