API 参考(公共部分)
构造器
Midscene 针对每个不同环境都有对应的 Agent。每个 Agent 的构造函数都接受一组共享的配置项(设备、报告、缓存、AI 配置、钩子等),然后再叠加平台专属的配置,比如浏览器里的导航控制或 Android 的 ADB 配置。
你可以通过下面的链接查看各 Agent 的导入路径和平台专属参数:
- 在 Puppeteer 中,使用 PuppeteerAgent
- 在 Playwright 中,使用 PlaywrightAgent
- 在桥接模式(Bridge Mode)中,使用 AgentOverChromeBridge
- 在 Android 中,使用 Android API 参考
- 在 iOS 中,使用 iOS API 参考
- 如果你要把 GUI Agent 集成到自己的界面,请参考 自定义界面 Agent
参数
这些 Agent 有一些相同的构造参数:
generateReport: boolean: 如果为 true,则生成报告文件。默认值为 true。reportFileName: string: 报告文件的名称,默认值由 midscene 内部生成。autoPrintReportMsg: boolean: 如果为 true,则打印报告消息。默认值为 true。cacheId: string | undefined: 如果配置,则使用此 cacheId 保存或匹配缓存。默认值为 undefined,也就是不启用缓存。aiActContext: string: 调用agent.aiAct()时,发送给 AI 模型的背景知识,比如 "有 cookie 对话框时先关闭它",默认值为空。此前名为aiActionContext,旧名称仍然兼容。replanningCycleLimit: number:aiAct的最大重规划次数。默认值为 20(UI-TARS 模型默认 40)。推荐通过 agent 入参设置;MIDSCENE_REPLANNING_CYCLE_LIMIT环境变量仅作兼容读取。waitAfterAction: number: 每次动作执行后的等待时间(毫秒)。这让 UI 有时间稳定,然后再执行下一个动作。默认值为 300 毫秒。onTaskStartTip: (tip: string) => void | Promise<void>:可选回调, 在每个子任务执行开始前收到一条可读的任务描述提示。默认值为 undefined。outputFormat: 'single-html' | 'html-and-external-assets': 控制报告的生成格式。'single-html'(默认)将所有截图作为 base64 内嵌到单个 HTML 文件中。'html-and-external-assets'将截图保存为独立的 PNG 文件到子目录,适用于报告文件过大的场景。注意:使用'html-and-external-assets'时,报告必须通过 HTTP 服务器或 CDN 地址访问,无法直接使用file://协议打开。这是因为浏览器的 CORS(跨源资源共享)限制会阻止从 file 协议加载相对路径的本地图片。如需在本地测试,可在报告目录下启动简易的 HTTP 服务器。进入报告目录后运行以下命令之一:- 使用 Node.js:
npx serve - 使用 Python:
python -m http.server或python3 -m http.server然后通过http://localhost:3000(或终端显示的端口)访问报告。
- 使用 Node.js:
自定义模型
modelConfig: Record<string, string | number> 可选。它允许你通过代码配置模型,而不是通过环境变量。
如果在 Agent 初始化时提供了
modelConfig,系统环境变量中的模型配置将全部被忽略,仅使用该对象中的值。 这里可配置的 key / value 与 模型配置 文档中说明的内容完全一致。你也可以参考 模型策略 中的说明。
基础示例(所有意图共用同一模型):
为不同任务类型配置不同模型(使用针对意图的环境变量键):
自定义 OpenAI 客户端
createOpenAIClient: (openai, options) => Promise<OpenAI | undefined> 可选。它允许你包装 OpenAI 客户端实例,用于集成可观测性工具(如 LangSmith、LangFuse)或应用自定义中间件。
参数说明:
openai: OpenAI- Midscene 创建的基础 OpenAI 客户端实例,已包含所有必要配置(API 密钥、基础 URL、代理等)options: Record<string, unknown>- OpenAI 初始化选项,包括:baseURL?: string- API 接入地址apiKey?: string- API 密钥dangerouslyAllowBrowser: boolean- 在 Midscene 中始终为 true- 其他 OpenAI 配置选项
返回值:
- 返回包装后的 OpenAI 客户端实例,或返回
undefined表示使用原始实例
示例(集成 LangSmith):
注意: 对于 LangSmith 和 Langfuse 集成,推荐使用 模型配置 中介绍的环境变量方式,无需编写 createOpenAIClient 代码。如果你提供了自定义的客户端包装函数,它会覆盖环境变量的自动集成行为。
交互方法
这些是 Midscene 中各类 Agent 的主要 API。
在 Midscene 中,你可以选择使用自动规划(Auto Planning)或即时操作(Instant Action)。
agent.ai()是自动规划(Auto Planning):Midscene 会自动规划操作步骤并执行。它更智能,更像流行的 AI Agent 风格,但可能较慢,且效果依赖于 AI 模型的质量。agent.aiTap(),agent.aiHover(),agent.aiInput(),agent.aiKeyboardPress(),agent.aiScroll(),agent.aiDoubleClick(),agent.aiRightClick()是即时操作(Instant Action):Midscene 会直接执行指定的操作,而 AI 模型只负责底层任务,如定位元素等。这种接口形式更快、更可靠。当你完全确定自己想要执行的操作时,推荐使用这种接口形式。
agent.aiAct() 或 agent.ai()
这个方法允许你通过自然语言描述一系列 UI 操作步骤。Midscene 会自动规划这些步骤并执行。
这个接口在之前版本里也被写为 aiAction(),当前的版本兼容两种写法。为了保持代码的一致性,建议使用新的 aiAct() 方法。
- 类型
-
参数:
prompt: string- 用自然语言描述的操作内容options?: Object- 可选,一个配置对象,包含:cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 truedeepThink?: 'unset' | true | false- 当模型支持时(取决于 MIDSCENE_MODEL_FAMILY),是否开启规划阶段的深度思考能力。默认值为'unset'(等同于省略该参数),跟随模型服务商的默认策略。当显式设置为true或false时,会覆盖环境变量MIDSCENE_MODEL_REASONING_ENABLED的配置。详情参阅 deepThink 说明。fileChooserAccept?: string | string[]- 当文件选择器弹出时,指定对应的文件路径。可以是单个文件路径或路径数组。仅在 web 页面(Playwright、Puppeteer)中可用。- 注意:如果文件输入框不支持多文件(没有
multiple属性),但是传入了多个文件,会抛出错误。 - 注意:如果点击触发了文件选择器但没有传入
fileChooserAccept参数,文件选择器会被忽略,页面可以继续正常操作。
- 注意:如果文件输入框不支持多文件(没有
-
返回值:
- 返回一个 Promise。当所有步骤执行完成时解析为 void;若执行失败,则抛出错误。
-
示例:
在实际运行时,Midscene 会将用户指令规 划(Planning)成多个步骤,然后逐步执行。如果 Midscene 认为无法执行,将抛出一个错误。
为了获得最佳效果,请尽可能提供清晰、详细的步骤描述。
关联文档:
agent.aiTap()
点击某个元素
- 类型
-
参数:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来 找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 truefileChooserAccept?: string | string[]- 当文件选择器弹出时,指定对应的文件路径。可以是单个文件路径或路径数组。仅在 web 页面(Playwright、Puppeteer)中可用。- 注意:如果文件输入框不支持多文件(没有
multiple属性),但是传入了多个文件,会抛出错误。 - 注意:如果点击触发了文件选择器但没有传入
fileChooserAccept参数,文件选择器会被忽略,页面可以继续正常操作。
- 注意:如果文件输入框不支持多文件(没有
-
返回值:
Promise<void>
-
示例:
agent.aiHover()
仅在 web 页面中可用,在 Android 下不可用
鼠标悬停某个元素上。
- 类型
-
参数:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 true
-
返回值:
Promise<void>
-
示例:
agent.aiInput()
在某个元素中输入文本。
- 类型
-
参数:
推荐用法:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。opt: Object- 配置对象,包含:value: string | number- 必填,要输入的文本内容。- 当
mode为'replace'时:文本将替换输入框中的所有现有内容。 - 当
mode为'typeOnly'时:直接输入文本,不会先清空输入框。 - 当
mode为'clear'时:会忽略文本内容,仅清空输入框。
- 当
deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 trueautoDismissKeyboard?: boolean- 如果为 true,则键盘会在输入文本后自动关闭,仅在 Android/iOS 中有效。默认值为 true。mode?: 'replace' | 'clear' | 'typeOnly'- 输入模式。(默认值: 'replace')'replace': 先清空输入框,然后输入文本。'typeOnly': 直接输入文本,不会先清空输入框。'clear': 清空输入框,不会输入新的文本。
兼容用法(已过时,但仍然支持):
value: string | number- 要输入的文本内容。locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选的配置对象,类型与推荐用法中的opt类型相同。
-
返回值:
Promise<void>
-
示例:
我们最近更新了 aiInput 的 API 签名,将定位提示作为第一个参数,使得参数顺序更直观。旧的签名 aiInput(value, locate, options) 仍然完全兼容,但建议新代码使用推荐的签名。
agent.aiKeyboardPress()
按下键盘上的某个键。
- 类型
-
参数:
推荐用法:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。opt: Object- 配置对象,包含:keyName: string- 必填,要按下的键,如Enter、Tab、Escape等。不支持组合键。可在我们的源码中查看完整的按键名称列表。deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 true
兼容用法(已过时,但仍然支持):
key: string- 要按下的键,如Enter、Tab、Escape等。不支持组合键。locate?: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选的配置对象,类型与推荐用法中的opt类型相同。。
-
返回值:
Promise<void>
-
示例:
我们最近更新了 aiKeyboardPress 的 API 签名,将定位提示作为第一个参数,使得参数顺序更直观。旧的签名 aiKeyboardPress(key, locate, options) 仍然完全兼容,但建议新代码使用推荐的签名。
agent.aiScroll()
滚动页面或某个元素。
- 类型
-
参数:
推荐用法:
locate: string | Object | undefined- 用自然语言描述的元素定位,或使用图片作为提示词。如果未传入或为 undefined,Midscene 会在当前鼠标位置滚动。opt: Object- 配置对象,包含:scrollType?: 'singleAction' | 'scrollToBottom' | 'scrollToTop' | 'scrollToRight' | 'scrollToLeft'- 滚动类型,默认值为singleAction。direction?: 'down' | 'up' | 'left' | 'right'- 滚动方向,默认值为down。仅在scrollType为singleAction时生效。不论是 Android 还是 Web,这里的滚动方向都是指页面哪个方向的内容会进入屏幕。比如当滚动方向是down时,页面下方被隐藏的内容会从屏幕底部开始逐渐向上露出。distance?: number | null- 滚动距离,单位为像素。设置为null表示由 Midscene 自动决定。deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 true
兼容用法(已过时,但仍然支持):
scrollParam: PlanningActionParamScroll- 滚动参数(包含 scrollType、direction、distance)。locate?: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选的配置对象,类型与推荐用法中的opt类型相同。。
-
返回值:
Promise<void>
-
示例:
我们最近更新了 aiScroll 的 API 签名,将定位提示作为第一个参数,使得参数顺序更直观。旧的签名 aiScroll(scrollParam, locate, options) 仍然完全兼容,但建议新代码使用推荐的签名。
agent.aiDoubleClick()
双击某个元素。
- 类型
-
参数:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 true
-
返回值:
Promise<void>
-
示例:
agent.aiRightClick()
仅在 web 页面中可用,在 Android 下不可用
右键点击某个元素。请注意,Midscene 在右键点击后无法与浏览器原生上下文菜单交互。这个接口通常用于已经监听了右键点击事件的元素。
- 类型
-
参数:
locate: string | Object- 用自然语言描述的元素定位,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:deepThink?: boolean- 是否开启深度思考。如果为 true,Midscene 会调用 AI 模型两次以精确定位元素,从而提升准确性。默认值为 false。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显。xpath?: string- 目标元素的 xpath 路径,用于执行当前操作。如果提供了这个 xpath,Midscene 会优先使用该 xpath 来找到元素,然后依次使用缓存和 AI 模型。默认值为空cacheable?: boolean- 当启用 缓存功能 时,是否允许缓存当前 API 调用结果。默认值为 true
-
返回值:
Promise<void>
-
示例:
deepThink (深度思考)特性
deepThink 会让 Midscene 发起两次定位请求以提升准确性。这在目标元素面积较小、难以和周围元素区分时非常有用。对于新一代模型(如 Qwen3 / Doubao 1.6 / Gemini 3),带来的收益不明显,建议按需开启。
注意:aiAct() 中的 deepThink 与元素定位方法中的 deepThink 不同。在 aiAct() 中,它控制的是规划阶段的思考策略。详情参阅说明。
数据提取
agent.aiAsk()
使用此方法,你可以针对当前页面,直接向 AI 模型发起提问,并获得字符串形式的回答。
- 类型
-
参数:
prompt: string | Object- 用自然语言描述的询问内容,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回一个 Promise。返回 AI 模型的回答。
-
示例:
除了 aiAsk 方法,你还可以使用 aiQuery 方法,直接从 UI 提取结构化的数据。
agent.aiQuery()
使用此方法,你可以直接从 UI 提取结构化的数据。只需在 dataDemand 中描述期望的数据格式(如字符串、数字、JSON、数组等),Midscene 即返回相应结果。
- 类型
-
参数:
dataDemand: T: 描述预期的返回值和格式。options?: Object- 可选,一个配置对象,包含:domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回值可以是任何合法的基本类型,比如字符串、数字、JSON、数组等。
- 你只需在
dataDemand中描述它,Midscene 就会给你满足格式的返回。
-
示例:
此外,我们还提供了 aiBoolean(), aiNumber(), aiString() 三个便捷方法,用于直接提取布尔值、数字和字符串。
agent.aiBoolean()
从 UI 中提取一个布尔值。
- 类型
-
参数:
prompt: string- 用自然语言描述的期望值,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回一个 Promise。当 AI 返回结果时解析为布尔值。
-
示例:
agent.aiNumber()
从 UI 中提取一个数字。
- 类型
-
参数:
prompt: string | Object- 用自然语言描述的期望值,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回一个 Promise。当 AI 返回结果时解析为数字。
-
示例:
agent.aiString()
从 UI 中提取一个字符串。
- 类型
-
参数:
prompt: string | Object- 用自然语言描述的期望值,或使用图片作为提示词。options?: Object- 可选,一个配置对象,包含:domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回一个 Promise。当 AI 返回结果时解析为字符串。
-
示例:
更多方法
agent.aiAssert()
通过自然语言描述一个断言条件,让 AI 判断该条件是否为真。当条件不满足时,SDK 会抛出错误,并在错误信息中追加 AI 返回的详细原因。
- 类型
-
参数:
- assertion: string | Object - 用自然语言描述的断言条件,或使用图片作为提示词。
- errorMsg?: string - 当断言失败时附加的可选错误提示信息。
- options?: Object - 可选,一个配置对象,包含:
domIncluded?: boolean | 'visible-only'- 是否向模型发送精简后的 DOM 信息,一般用于提取 UI 中不可见的属性,比如图片的链接。如果设置为'visible-only',则只发送可见的元素。默认值为 false。screenshotIncluded?: boolean- 是否向模型发送截图。默认值为 true。
-
返回值:
- 返回一个 Promise。当断言成功时解析为 void;若断言失败,则抛出一个错误,错误信息包含
errorMsg以及 AI 生成的原因。
- 返回一个 Promise。当断言成功时解析为 void;若断言失败,则抛出一个错误,错误信息包含
-
示例:
断言在测试脚本中非常重要。为了降低因 AI 幻觉导致错误断言的风险(例如遗漏错误),你也可以使用 .aiQuery 加上常规的 JavaScript 断言来替代 .aiAssert。
例如,你可以这样替代上面的断言代码:
agent.aiLocate()
通过自然语言描述一个元素的定位。

