这段时间,Codex 的变化速度有点惊人。先是桌面端的史诗级更新,接着是远程 SSH,再到 Computer Use 和 Chrome 插件,周活跃用户已经突破了 400 万。

今天,OpenAI 又把 Codex 塞进了 ChatGPT 手机 App。按照官方的说法,Codex 移动版已经以 Preview 形式在 iOS 和 Android 版 ChatGPT 上线,支持连接运行 Codex 的 macOS 设备,Windows 的支持则还要再等一等。



图片来源:OpenAI

不过,Codex 移动版其实更准确地说,是 Codex 桌面端在手机的一个入口。你在手机上的 ChatGPT 就可以直接进入 Codex,连接桌面端运行中的环境,然后在手机上发起新的需求,让桌面端 Codex 去完成任务。

Claude Code 在 3 月其实就上线了类似的 Dispatch 功能,可以通过手机上的 Claude App 指挥桌面端的 Claude Code。而更早之前,OpenClaw(龙虾)也已经通过接入各大 IM 平台实现了这一点。

虽迟但到。但更重要的是 Codex 移动版实际的完成度,在硅谷「AI 御三家」中以产品能力见长的 OpenAI,这次能有后发优势吗?

手机成了Codex的第二个入口

必须说明,Codex 移动版并不是一个独立的新 App。

实际上,OpenAI 这次没有再推出一个单独的 Codex iOS 或 Android 应用,而是直接把入口放进了 ChatGPT App,在手机上打开 ChatGPT 就能在侧栏看到「Codex」的入口。



图片来源:雷科技

所以在某种程度上,你也可以将这次更新的核心理解为:让用户在手机上的 ChatGPT 里指挥电脑上的 Codex 执行任务。

不只是让全球超过 10 亿的 ChatGPT 用户可以少装了一个 App,更重要的是,OpenAI 没有把 Codex 移动版做成一个新的开发工具,而是把它收进 ChatGPT 这个统一入口。对用户来说,这意味着使用路径很短,只要桌面端和移动端登录同一个账号,手机上的 ChatGPT 就能很方便地连接到安装 Codex 的 macOS 桌面端。



我用安卓上的 Codex 连接了 macOS 上的 Codex,图片来源:雷科技

实际用下来,Codex 移动版已经可以直接在手机上发起新的需求,再让电脑上的桌面端 Codex 去完成任务。这个时候,手机更像是一个轻量的任务控制台,你把需求说清楚,真正读取项目、执行命令、修改文件、跑测试的,仍然是桌面端 Codex。

与此同时,桌面端 Codex 的实时状态也会同步显示在手机上,包括思考、操作过程和结果。所以我们完全可以在电脑开始指挥 Codex 工作,出门时在手机上查看进展,或者直接引导执行、推动长任务继续向前,而不是被设备绑住。

甚至,手机上还能直接调整模型、速度和推理程度。



图片来源:雷科技

这个分工设计我觉得很聪明,手机受限于环境、性能和屏幕尺寸等因素,本来就不适合独立运行 Coding 等复杂任务,更适合作为桌面端「随时随地」的入口。

Codex 移动版没有硬搬,而是把最适合移动端的几件事拎了出来:发需求、看过程、批操作、续对话、查结果。桌面端 Codex 正在进行的完整思考、操作过程和执行结果,手机上都能同步看到;唯一不会同步显示的是输出文件,它们只保存在电脑上。

这个处理也不奇怪,毕竟文件和运行环境本来就在本地机器上,移动端只负责同步状态和交互,没必要把所有产物也复制一份到手机里。

此外,Codex 移动版不只能连接一台 Mac,可以同时连接多个桌面端,比如一台 MacBook Pro 和一台 Mac mini 都在运行 Codex,一台手机就可以管理不同电脑上的桌面端 Codex。这也挺符合 Codex 这类 Agent 产品的真实工作流。



图片来源:雷科技

很多开发者本来就不只用一台机器,一台随身 MacBook 处理日常项目,一台 Mac mini 或远程环境跑更重的任务。过去这些环境往往是割裂的,现在 Codex 至少开始尝试把它们统一到一个手机入口里。你可以在手机上切到不同 Host,看不同任务的进展,甚至把不同需求分发给不同机器。

不过,Codex 移动版还是有一些明显需要完善的地方,比如对话编辑还不支持,这个问题看起来不大,但在移动场景里反而很重要。因为手机输入更容易出现错别字、漏掉上下文,或者刚发出去就意识到需求没说完整。

对于一个可以远程调度桌面端执行任务的入口来说,不能编辑对话会让人更谨慎,也会降低移动端发起任务的爽感。这一点后续确实需要补上。

不过,我这次上手遇到的最大痛点,是手机端经常需要重连。有时你刚在手机上打好一段需求,结果连接断了,消息发不出去。

更糟心的是,有时桌面端 Codex 明明还在运行,手机端却突然进入重连状态,界面短暂空白。因为真正的任务执行都发生在桌面端,所以这种断连通常不会影响运行过程和最终结果。但从手机端交互来看,这个体验确实有点糟心。



图片来源:雷科技

好在这类问题更像 Preview 阶段的工程稳定性问题,而不是产品思路上的问题。

除此之外,Codex 移动版也没有只服务本地桌面端。它同样支持连接 Codex 云端,这让手机入口覆盖的范围更大,桌面版里自定义宠物这类细节也能同步到移动端。后者当然不是核心能力,但它更说明了 OpenAI 并没有把 Codex 移动版当成一个临时的远程查看方式,而是真的在围绕 Codex 打造新的 AI 工作流和体验。

再把 Codex 移动版放到整个 Agent 产品里看,会更有意思,尤其是对移动场景下 Agent 体验的理解,大家其实还有点不一样。

上手机,Codex 和「龙虾」不一样

现在 Agent 产品基本都会支持移动入口,核心让用户随时发需求,再由 Agent 去调用工具、打开网页、处理文件或完成流程,强调「有事就找 Agent」。这件事在手机端天然成立,因为大量需求本来就来自移动场景。

大体有几种思路。一种是 OpenClaw、Hermes 这类开源 Agent 工具,基本都支持接入 IM,让用户可以通过常用的聊天 APP,随时随地把需求丢给 Agent。年初各种「龙虾」的爆火,很大程度上就离不开这一点。



图片来源:Hermes Agent

另一种是把桌面端的 Agent 工作流接到手机上,让用户可以在外面继续盯任务、发指令、做确认,这也是 Claude Code 和现在的 Codex 的做法。

但哪怕都是实现在手机上「用 Agent」,两者的体验重心其实差异很大。在 OpenClaw 或者 Hermes 上,你不需要理解一个复杂的新客户端,也不需要切到专门的开发工具,只要像给朋友发消息一样,把需求丢给微信、飞书、Telegram 里的 bot 机器人。

对于普通任务来说,这种体验甚至比打开一个专门 App 更顺。尤其是这类强调长期记忆、自动化和多工具调用的 Agent,IM 入口天然适合处理「提醒我」「帮我查」「继续跟进」「执行某个流程」这类跨时间、跨场景的任务。

不过把 IM 当入口也有问题。对话可以承载任务需求,却很难承载复杂的过程状态。Agent 正在调用什么工具、跑到哪一步、改了哪些文件、测试是否通过、某个策略是否合理,这些信息如果都通过聊天气泡呈现,很快就会变得拥挤。

对通用 Agent 来说,这不一定是致命问题;但对 AI Coding 来说,过程本身就是产品体验的一部分。你不只是要知道「完成了」,还要知道它怎么做、哪里失败、下一步该不该继续。

相比之下,Claude Code 和 Codex 的移动化就不太一样,它们没有选择 IM Bot,而是从 Claude/ChatGPT 的手机端 App 出发,比起 Hermes、OpenClaw 的聊天入口更适合复杂任务。



图片来源:Anthropic

但不同的是,Claude Code 的双端连接更多通过 Dispatch,更像是结合 OpenClaw 或者 Hermes 的 IM 思路打造的一个功能,通过 Dispatch 这个功能页面实现在手机上「指挥」电脑上的 Claude Code。而 Codex 移动版是直接同步桌面版的对话,包括桌面端实际运行中思考、操作和结果的实时同步。

简言之,Codex 在桌面和移动场景下的切换实际上更加无缝、自然,可能也是因为这一点,目前时不时就重连的问题也显得更烦人。

Codex 移动版当然还谈不上成熟。真正复杂的代码审查、架构判断和高风险变更,仍然需要开发者回到电脑前完成。对于普通用户来说,这个入口短期内也不太会像 ChatGPT 聊天一样高频。

但方向已经很清楚,OpenAI 更多把手机当成 Agent 的调度入口。这个判断非常关键,因为当这些 AI Coding Agent 的能力已经毋庸置疑,接下来的问题则是让这种能力可以变得更容易、更自然地获取和使用,产品的交互设计就成了新的关键。