模型配置
Midscene 通过读取操作系统中指定的环境变量来完成配置。
Midscene 默认集成了 OpenAI SDK 调用 AI 服务,它限定了推理服务的参数风格,绝大多数模型服务商(或模型部署工具)都提供了满足这种要求的接口。
本篇文档会重点介绍 Midscene 的模型配置参数。如果你对 Midscene 的模型策略感兴趣,请阅读 模型策略。如果你想查看常用模型的配置示例,请阅读 常用模型配置。
必选配置
你需要为 Midscene 配上一个默认模型,详见 模型策略 文档。
高阶配置(可选)
提示:通过 Agent 的
replanningCycleLimit入参控制重规划次数(默认 20,vlm-ui-tars为 40),不再使用环境变量。
为 Insight 意图单独配置模型
如果你想为 Insight 意图单独配置模型,需额外配置以下字段:
为 Planning 意图单独配置模型
如果你想为 Planning 意图单独配置模型,需额外配置以下字段:
调试日志开关
通过设置以下配置,可以在命令行打印更多调试日志。
无论是否 配置,这些日志都会打印在 ./midscene_run/log 文件夹中。
仍兼容的模型配置(不推荐)
以下环境变量已废弃但仍然兼容,建议尽快迁移到新的配置方式。
Planning 模型配置
通用配置
使用 JavaScript 配置参数
你也可以使用 JavaScript 来为每个 Agent 配置模型参数,详见 API 参考
常见问题
如何查看模型的 token 使用情况?
通过在环境变量中设置 DEBUG=midscene:ai:profile:stats,你可以打印模型的使用信息和响应时间。
你也可以在报告文件中查看模型的使用量统计。
使用 LangSmith
LangSmith 是一个用于调试大语言模型的平台。Midscene 提供了自动集成支持,只需安装依赖并设置环境变量即可。
步骤 1:安装依赖
步骤 2:设置环境变量
启动 Midscene 后,你应该会看到类似如下的日志:
注意:
- LangSmith 和 Langfuse 可以同时启用
- 仅支持 Node.js 环境,浏览器环境会报错
- 如果使用
createOpenAIClient参数,环境变量方式会被覆盖
如果需要更细粒度的控制(例如只对特定任务启用 LangSmith),可以通过 createOpenAIClient 手动包装客户端。
使用 Langfuse
Langfuse 是另一个流行的 LLM 可观测性平台。Midscene 已经集成了 Langfuse 的 observeOpenAI wrapper,自动追踪所有 OpenAI API 调用。
由于 Langfuse 的追踪基于 OpenTelemetry,你需要在应用启动时初始化 OpenTelemetry SDK。
步骤 1:安装依赖
步骤 2:初始化 OpenTelemetry(必需)
在应用入口文件的最顶部添加以下代码:
步骤 3:设置环境变量
启动 Midscene 后,你应该会看到类似如下的日志:
了解更多:查看 Langfuse OpenAI 集成文档 获取更多配置选项和最佳实践。
注意:
- LangSmith 和 Langfuse 可以同时启用
- 仅支持 Node.js 环境,浏览器环境会报错
- 如果使用
createOpenAIClient参数,环境变量方式会被覆盖

