Files
NeoBot/docs/core-concepts/performance.md
K2cr2O1 7868fb2b41 docs: 更新性能优化文档并修复命令管理器帮助输出
更新性能优化相关文档,详细说明 Python 3.14 JIT 编译器的使用方法和原理,补充与 Mypyc 的互补策略。同时修复命令管理器中帮助信息的输出方式,移除图片发送仅保留文本输出。

调整部署文档结构,明确两种性能优化方案(AOT 和 JIT)的配置方法和适用场景。完善架构文档中关于 JIT 的原理和启用方式说明。
2026-01-13 10:18:48 +08:00

123 lines
5.4 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# 性能优化详解
NEO Bot 实际上是python有人说用Java可能更好。。。嗯但是镀铬酸钾不会Java镀铬酸钾只会python所以只能用python了
## 1. Playwright 页面池 (Page Pool)
### 痛点
之前 Bot 发图流程:
1. 用户发指令。
2. Bot 启动浏览器。
3. 创建新页面。。
4. 渲染,截图。
5. 关闭浏览器。
这种模式下,发一张图至少要等 1 秒以上。。。
### 解决方案
`BrowserManager` 维护了一个**页面池**。
* **启动时**: 自动预热 3 个页面(可配置),挂在后台待命。
* **运行时**: 需要截图时,直接从池里 `get_page()`
* **结束后**: 截图完成,页面执行 `about:blank` 洗白,然后 `release_page()` 放回池里。
### 收益
我不知道快了多少,也没人测试,嗯
## 2. Jinja2 模板缓存
### 痛点
每次渲染 HTML都要从硬盘读文件然后解析模板语法。硬盘 IO 是慢的,解析也是慢的。
### 解决方案
`ImageManager` 引入了内存缓存 `_template_cache`
* 第一次读取模板后,编译好的 `Template` 对象直接存入字典。
* 后续请求直接从内存拿对象渲染。
### 收益
省了硬盘IO
## 3. 全局 HTTP 连接复用
### 痛点
插件(如 B站解析每次请求 API 都创建一个新的 `aiohttp.ClientSession`
这意味着每次都要进行DNS 解析 -> TCP 握手 -> SSL 握手。这在 HTTPS 下非常慢。
### 解决方案
我们在插件层面实现了 `get_session()`
* 全局共享一个 `ClientSession`
* 复用底层的 TCP 连接 (Keep-Alive)。
### 收益
实际上我也不知道bot没高并发的实验。。。
## 4. orjson 极速序列化
### 痛点
Python 自带的 `json` 库性能好像不太好,特别是在处理 OneBot 这种大量 JSON 通信的场景下。
### 解决方案
全面替换为 `orjson`
* Rust 编写
* 支持直接返回 `bytes`,减少内存复制。
## 5. Python 3.14 JIT (Just-In-Time Compilation)
### 痛点
Python 解释器一边解析一边执行,遇到循环和函数调用就得反复解释。像消息处理这种高频循环,解释开销就特别明显。
### 解决方案
Python 3.14 自带了一个实验性的 JIT 编译器。启动时加上 `-X jit` 参数,它就会在运行时把热点代码编译成机器码。
**JIT 怎么工作的?**
1. **监控**: 解释器运行时会统计哪些函数、哪些循环被调最得频繁。
2. **编译**: 把这些“热点”代码编译成机器码。
3. **替换**: 下次再执行到这段代码,直接跑机器码,跳过解释步骤。
**哪些代码受益最大?**
- `plugins/` 里的业务逻辑(比如 B站解析、代码沙箱
- 循环密集的操作(比如遍历消息段、处理大量群消息)。
- 频繁调用的工具函数。
### 如何启用?
启动机器人时加上 `-X jit` 参数:
```bash
python -X jit main.py
```
### 收益
* **热点代码加速**: 经常跑的代码能快 2-10 倍(看具体场景)。
* **零配置**: 不用改代码,加个启动参数就行。
* **与 Mypyc 互补**: JIT 负责动态、灵活的插件代码Mypyc 负责静态、类型明确的核心模块。两者结合,全面覆盖。
## 6. Mypyc 编译 (AOT Compilation)
### 痛点
Python 作为一种解释型语言,在处理 CPU 密集型任务时性能较差。对于机器人框架的核心部分,如 WebSocket 消息解析、事件分发和插件管理,这些代码被高频调用,其性能直接影响机器人的响应速度和吞吐量。
### 解决方案
我们引入了 `Mypyc`,一个将类型注解的 Python 代码编译为高性能 C 扩展的工具。通过项目根目录下的 `setup_mypyc.py` 脚本,我们可以选择性地将核心模块编译为二进制文件(在 Windows 上是 `.pyd`,在 Linux 上是 `.so`)。
**哪些模块被编译了?**
- `core/ws.py`: WebSocket 消息处理循环,这是整个机器人框架的 I/O 中枢。
- `core/managers/*.py`: 所有的核心管理器,如指令管理器、插件管理器等,负责事件分发和业务逻辑。
- `core/utils/*.py`: 高频使用的工具函数。
- `models/*.py`: 数据模型类,如消息段、发送者等。
这些高频调用的代码路径被编译为接近原生机器码的速度,极大地提升了性能。
### 如何编译?
在项目根目录下运行以下指令:
```bash
python setup_mypyc.py
```
脚本会自动查找并编译预设的模块列表。
### 特别注意:关于事件模型的编译
`Mypyc` 对 Python 某些动态特性和高级用法支持尚不完善。在实践中,我们发现 `dataclass``Mypyc` 存在一些兼容性问题,尤其是在使用继承和某些高级特性(如 `slots=True`)时,可能会导致编译失败或运行时错误(例如 `AttributeError: attribute '__dict__' of 'type' objects is not writable`)。
- **当前状态**:为了确保稳定性,`setup_mypyc.py` 脚本**默认不编译** `models/events/` 目录下的事件模型文件。这些文件虽然也被频繁使用,但它们的结构相对复杂,与 `Mypyc` 的兼容性问题仍在探索中。
- **未来展望**:我们会持续关注 `Mypyc` 的更新,当其对 `dataclass` 的支持得到改善后,会重新尝试将事件模型加入编译列表,以实现极致的性能。
通过这种方式,我们在保证核心模块性能的同时,也维持了项目的稳定性和可维护性。