- 新增 `/status` 指令,展示机器人运行状态和系统指标 - 实现Redis Lua脚本支持原子化计数器操作 - 添加消息收发统计功能 - 完善文档,包括插件开发和性能优化指南 - 重构WebSocket连接池,增加健康检查机制 - 移除旧版编译脚本,优化项目结构
7.1 KiB
性能优化详解
NEO Bot 实际上是python,有人说用Java可能更好。。。嗯但是镀铬酸钾不会Java,镀铬酸钾只会python,所以只能用python了
1. Playwright 页面池 (Page Pool)
痛点
之前 Bot 发图流程:
- 用户发指令。
- Bot 启动浏览器。
- 创建新页面。。
- 渲染,截图。
- 关闭浏览器。
这种模式下,发一张图至少要等 1 秒以上。。。
解决方案
BrowserManager 维护了一个页面池。
- 启动时: 自动预热 3 个页面(可配置),挂在后台待命。
- 运行时: 需要截图时,直接从池里
get_page() - 结束后: 截图完成,页面执行
about:blank洗白,然后release_page()放回池里。
收益
我不知道快了多少,也没人测试,嗯
2. Jinja2 模板缓存
痛点
每次渲染 HTML,都要从硬盘读文件,然后解析模板语法。硬盘 IO 是慢的,解析也是慢的。
解决方案
ImageManager 引入了内存缓存 _template_cache。
- 第一次读取模板后,编译好的
Template对象直接存入字典。 - 后续请求直接从内存拿对象渲染。
收益
省了硬盘IO
3. 全局 HTTP 连接复用
痛点
插件(如 B站解析)每次请求 API 都创建一个新的 aiohttp.ClientSession。
这意味着每次都要进行:DNS 解析 -> TCP 握手 -> SSL 握手。这在 HTTPS 下非常慢。
解决方案
我们在插件层面实现了 get_session()。
- 全局共享一个
ClientSession。 - 复用底层的 TCP 连接 (Keep-Alive)。
收益
实际上我也不知道,bot没高并发的实验。。。
4. orjson 极速序列化
痛点
Python 自带的 json 库性能好像不太好,特别是在处理 OneBot 这种大量 JSON 通信的场景下。
解决方案
全面替换为 orjson。
- Rust 编写
- 支持直接返回
bytes,减少内存复制。
5. Python 3.14 JIT (Just-In-Time Compilation)
痛点
Python 解释器一边解析一边执行,遇到循环和函数调用就得反复解释。像消息处理这种高频循环,解释开销就特别明显。
解决方案
Python 3.14 自带了一个实验性的 JIT 编译器。启动时加上 -X jit 参数,它就会在运行时把热点代码编译成机器码。
JIT 怎么工作的?
- 监控: 解释器运行时会统计哪些函数、哪些循环被调最得频繁。
- 编译: 把这些“热点”代码编译成机器码。
- 替换: 下次再执行到这段代码,直接跑机器码,跳过解释步骤。
哪些代码受益最大?
plugins/里的业务逻辑(比如 B站解析、代码沙箱)。- 循环密集的操作(比如遍历消息段、处理大量群消息)。
- 频繁调用的工具函数。
如何启用?
启动机器人时加上 -X jit 参数:
python -X jit main.py
收益
- 热点代码加速: 经常跑的代码能快 2-10 倍(看具体场景)。
- 零配置: 不用改代码,加个启动参数就行。
- 与 Mypyc 互补: JIT 负责动态、灵活的插件代码;Mypyc 负责静态、类型明确的核心模块。两者结合,全面覆盖。
6. Mypyc 编译 (AOT Compilation)
痛点
Python 作为一种解释型语言,在处理 CPU 密集型任务时性能较差。对于机器人框架的核心部分,如 WebSocket 消息解析、事件分发和插件管理,这些代码被高频调用,其性能直接影响机器人的响应速度和吞吐量。
解决方案
我们引入了 Mypyc,一个将类型注解的 Python 代码编译为高性能 C 扩展的工具。通过项目根目录下的 setup_mypyc.py 脚本,我们可以选择性地将核心模块编译为二进制文件(在 Windows 上是 .pyd,在 Linux 上是 .so)。
哪些模块被编译了?
core/ws.py: WebSocket 消息处理循环,这是整个机器人框架的 I/O 中枢。core/managers/*.py: 所有的核心管理器,如指令管理器、插件管理器等,负责事件分发和业务逻辑。core/utils/*.py: 高频使用的工具函数。models/*.py: 数据模型类,如消息段、发送者等。
这些高频调用的代码路径被编译为接近原生机器码的速度,极大地提升了性能。
如何编译?
在项目根目录下运行以下指令:
python setup_mypyc.py
脚本会自动查找并编译预设的模块列表。
特别注意:关于事件模型的编译
Mypyc 对 Python 某些动态特性和高级用法支持尚不完善。在实践中,我们发现 dataclass 与 Mypyc 存在一些兼容性问题,尤其是在使用继承和某些高级特性(如 slots=True)时,可能会导致编译失败或运行时错误(例如 AttributeError: attribute '__dict__' of 'type' objects is not writable)。
- 当前状态:为了确保稳定性,
setup_mypyc.py脚本默认不编译models/events/目录下的事件模型文件。这些文件虽然也被频繁使用,但它们的结构相对复杂,与Mypyc的兼容性问题仍在探索中。 - 未来展望:我们会持续关注
Mypyc的更新,当其对dataclass的支持得到改善后,会重新尝试将事件模型加入编译列表,以实现极致的性能。
7. 健壮的 WebSocket 连接池
痛点
在高并发或网络不稳定的情况下,单个 WebSocket 连接可能会因为各种原因(如超时、服务器重启、网络波动)而中断或变得不可靠。如果框架依赖于单一的、不稳定的连接,会导致 API 调用频繁失败,甚至整个机器人无响应。
解决方案
NeoBot 实现了一个健壮的 WebSocket 连接池 (core/ws_pool.py),它不仅管理多个连接,还具备智能的健康检查和恢复机制。
- 多连接管理: 启动时会建立一个包含多个 WebSocket 连接的池,API 调用会被分发到这些连接上,实现负载均衡。
- 自动健康检查: 连接池会定期对池中的每个连接进行健康检查(发送
get_status心跳包)。如果一个连接在规定时间内没有响应,它会被标记为“不健康”。 - 故障转移与恢复: 当一个 API 调用需要使用连接时,连接池会自动选择一个“健康”的连接。如果所有连接都不健康,它会尝试重新建立新的连接,直到成功为止。
- 无感切换: 对于上层调用者(如插件开发者)来说,这一切都是透明的。你只需要正常调用
bot.call_api(),连接池会在底层处理好所有的连接问题。
收益
- 高可用性: 即使部分连接失效,机器人依然可以通过健康的连接继续提供服务,大大减少了因网络问题导致的停机时间。
- 高并发性能: 通过连接池,多个 API 请求可以并行地通过不同的连接发送,提高了在高并发场景下的吞吐量。
- 自动恢复: 无需手动重启机器人,连接池能够自动从网络故障中恢复,增强了系统的稳定性和无人值守能力。
通过这种方式,我们在保证核心模块性能的同时,也维持了项目的稳定性和可维护性。