
文:王智远 | ID:Z201440
这次DevDay,有点不一样。
因为不只展示了新模型,还打算把整个软件世界的秩序,重新洗了一遍。
我看了完整的视频,表面在做四件事:Apps SDK、AgentKit、Codex,还有一堆模型更新。
但你要真听懂 Sam Altman 的讲话,就会发现,他在讲一件事:未来所有的软件、所有的操作,都要通过一个入口完成——ChatGPT。
所以,今年DevDay,从战略高度上说,更像一次从传统软件到 AI 操作系统的权力交接。
01
演讲内容层面看,主要分为5个模块。Sam上台说:
「We’re building the operating system for intelligence.」
——我们正在为智能,打造操作系统。这句话给发布会做了定调。核心在描述:AI 该如何与世界对接。
Sam 讲得很克制,逻辑非常清晰。他反复提到两件事:
一,ChatGPT 已经成了人类与 AI 协作的主要界面」;二,AI 正在从工具变成社会接口。
他说,从搜索、写作、编程,到沟通、创作、决策,未来这些行为都不需要再打开不同的 App,在 ChatGPT就能完成。
他还提到一个概念,叫「social interface」。
AI除工具本身外,现在成了社会结构的一部分,它要能理解人、协作、共情,甚至参与工作;这是我第一次在官方场合听到 OpenAI 这么明确地承认:人机边界,正在消失。
消失不能靠嘴说,得看怎么做。发布会第一个重点Apps SDK。
这是什么呢?
现场直接做了一个演示。他们先在 ChatGPT 里聊一个创业项目,用几句话描述风格、产品、目标受众,然后直接唤起 Canva,自动生成一堆海报。
几秒钟后,又在同一个对话里,说想把业务扩到匹兹堡,ChatGPT 就顺势调用 Zillow,直接在聊天窗口里弹出交互地图,能看房、能筛选、能预约带看,全程不跳出 ChatGPT。
Sam 的团队刻意在演示里强调一点:上下文是贯通的。
你前面说的创业想法、预算、城市名,后面的 App 都能「听懂」,还能互相传递信息。
过去,这些场景是分散在不同 App 里的,现在被统一进了一个入口:ChatGPT 成了「主操作界面」,它既能唤起应用,也能托管界面。
比如 Canva 在对话里展示的是行内窗口,一键又能切到全屏模式;Zillow 的交互状态也能原地刷新,不用重新加载。
底层支撑这件事的,是 OpenAI 推出的 MCP 协议。
允许开发者直接把自己的逻辑、数据、前端界面「接入」 ChatGPT。这意味着,未来开发者写 App,不是给 iOS、Android 写,而是给 ChatGPT 写。
换句话说,我们要理解它的野心是:
OpenAI 想让 App「住进」聊天窗口,这一幕标志着 App Store 逻辑被改写,应用直接跑在对话里。
Apps SDK 解决「应用怎么接进来」,那AI怎么被造出来呢?第二部分,他们讲了AgentKit,你可以把它想想成agent的工业化上产线。
以前,做一个智能体(Agent)要靠写代码、反复调 Prompt(提示词),但现在,OpenAI 直接造了一条生产线——让任何人都能「拼装」出一个可工作的 Agent。
他们怎么做的呢?
Christina 上台做了个演示,整个过程有8分钟。她没有写一行代码,全程在一个可视化画布上操作。
她先打开一个叫 Agent Builder(智能体构建器) 的界面,这是 AgentKit 的核心。
它有点像 Figma 或者 Node-RED,你可以拖拽节点(Node),每个节点代表一个逻辑环节,比如「判断问题类型」「调用数据库」「输出回答」。
节点之间关系可以是「If / Else(条件分支)」「Parallel(并行执行)」「User Approval(用户许可)」等等。
等等,这段话是不是看不懂?你可以这么理解:
过去做 AI 像写小说,你得一句一句设计提示词,让模型懂你想干嘛;现在更像搭积木,每个模块都是标准件,只要把逻辑拼好,它就能自己动。
现场,她做了两个智能体节点:
一个是 Sessions Agent(会话日程智能体),用来回答活动安排的问题;另一个是 Info Agent(信息智能体),专门处理一般咨询。
这俩 Agent 之间有个中控逻辑节点(Controller Node),能判断用户提问是要问时间还是要问内容,再自动把问题分派给不同 Agent 去处理。
接着,她打开了一个叫 ChatKit(聊天组件工具包) 的模块,这个功能允许开发者把 AI 聊天窗口直接嵌入自家网站,并自定义品牌样式。
简单说,你可以在自己的网站、App 里放一个「GPT 聊天框」,风格、语气都能自己定义。
02
然后是第三个模块:Connector(连接器)。这部分是真正强大的地方,它能把 AgentKit 连接到企业内部系统、数据库、甚至 API。
底层用 MCP(Model Context Protocol,模型上下文协议),让模型可以「安全地」访问外部数据,不越权、不泄露。
Christina 现场做了个小实验:
她让 AgentKit 直接连上 DevDay 官网,让它自动识别网页内容、提取活动时间,最后在现场对话框里回答「今天下午谁上台演讲」。
整套逻辑,就是几分钟拖拽出来的;这套流程走完,观众看傻了,因为在「造员工」。
更关键的是,这条生产线还有「质检系统」。OpenAI 提供了 Evals(评测系统),可以自动帮你测试智能体的效果,记录每一步调用结果;
还有 RFT(Reinforcement Fine-Tuning,强化微调),能让企业自己训练模型,让它在最合适的时机,用最恰当的方式调用工具。
所以,从搭建、测试到上线,这个链路全闭环。
我看下来,AgentKit 的野心不小。
Apps SDK 解决「外部世界怎么接进来」,而 AgentKit 解决「内部世界怎么动起来」;从更大的角度看,它是 OpenAI 向企业端渗透的关键一环。
因为一旦企业用上 AgentKit,会自然地在自己的工作流里养出一批「AI 员工」,比如:有人写报告,有人跑数据,有人管客服。
到那时,OpenAI是「让每个企业都有一群 AI」。
虽然智远目前还不会开发 AI,但我开始在想,以后能不能让AI叫我做事?也许未来的「学习」,是工具带着人前进。
好了,AI能造 Agent,还能自己搭系统了,这套系统的底子是什么?演讲第四个模块,OpenAI 介绍了Codex。
Codex 是什么呢?
这个模型的定位很清晰,专门为软件工程任务训练,写代码、改代码、审查代码,甚至能自己判断任务复杂度,自动调整思考深度。
简单说,Codex 现在变成了能带团队的老工程师。
Sam 在现场提了个细节:
OpenAI 内部现在几乎所有新代码都是 Codex 写的,用它的工程师,提交量比以前高出 70%;连代码审查(Code Review)都能让 Codex 自动先跑一遍,效率直接翻倍。
但 Codex 的野心显然不止于「更聪明的程序员助手」;这次他们强调让 Codex 变成一个懂上下文、能协作、能「接手项目」的「AI 队友」。
比如,它能直接嵌入 Slack(团队沟通平台),你在群里一句话——「帮我写个接口」——Codex 立刻生成并返回完整代码。
它还推出了 Codex SDK(软件开发工具包),企业可以把 Codex 能力嵌进自己的自动化流程里,从测试、部署到上线,全程无缝衔接。
后台也配了监控和分析面板,方便工程经理追踪团队的 AI 使用情况。
但真正让人炸场的,是后面的那场现场实验。Raman 登台时说:「我们想做点所有人都能看见、能感受到的东西。」
他抬头指着舞台上方的摄像机——一台 Sony FR7,然后让 Codex 帮他写一个控制面板;几秒钟后,屏幕上出现了界面,左边是实时画面,右边是控制按钮。
他没写任何代码,只是描述需求。
Codex 自己搭好了 Node.js(JavaScript 环境)逻辑,还主动识别出这台摄像机用的是 Visca 协议(视频控制标准),并自动生成完整通信接口。
接着,它又识别出现场的视觉风格,用 Figma 的橙蓝配色把整个界面“装修”了一遍;然后 Raman 又加了一句:「让 Codex 用 React(网页前端框架)改成滚动的开发者名单。」
几秒钟后,屏幕上的名字开始动了起来,全场都沸腾了。
所以,你说它在写代码吗?算。更抽象的说,所见即所得的想法告诉它,嗯,它好像可以搞定,感觉在「操作世界」。
03
软件世界地基搭建完了,轮到大脑登场了。第五部分部分,OpenAI把重点放在了模型与API层。
全新的GPT-5 Pro先上场。
模型的定位是一种「基础设施升级」。它更像把过去一年所有 GPT 模型积累的能力重新打磨了一遍。
Sam 说,这一代 GPT-5 Pro 更像整个系统的「通用大脑」,从 ChatGPT 到 Apps SDK、再到 AgentKit 的底层逻辑,全靠它来支撑。
也就是,以后无论你是生成图片、调用插件、还是和 Agent 对话,背后跑的,都是这套「主脑」系统。
我看完认为,OpenAI 在把「模型」这件事往后放,模型本身的重要性在降低,生态的承载力在上升,他们用前端应用、操作反哺模型能力的提升。
换句话说,应用层收集的数据和场景,反过来喂给模型,模型越来越懂世界。
不知道我说的够不够清晰?
第二个重磅更新,是 Sora 2 API。被我猜对了,这次正式开放了视频生成的接口,开发者可以直接把 Sora 接进产品里。
你可以控制视频的时长、分辨率、比例、声音,甚至直接 Remix 已有视频。
OpenAI 在现场演示了一个例子:
Mattel(美泰玩具)用 Sora 2 让设计师从草图就能生成 3D 可视化玩具概念,连光影、质感、动作都能一键生成。
我觉得,这次 Sora 2 的突破,是「产品的嗅觉」;它真正打通了「生成」和「现实」之间的那条缝隙,视频里不只有虚拟角色,还能和真人一起出现、共演。
最后一个,是 GPT Real-Time Mini。
一个更小、更便宜的实时语音模型,用在 ChatGPT 的语音对话,也开放给第三方开发者。它的延迟低、音质高,最关键是成本降了 70%。
OpenAI 说,这个模型能更自然地捕捉情绪,语气、节奏、甚至叹息都能还原得非常人性化。
你要问这三个更新的逻辑是什么?智远认为,GPT-5 Pro 是“大脑”,Sora 2 是“眼睛”,Real-Time Mini 是“嘴巴和耳朵”。
这一套组合下来,OpenAI 正在搭建一个完整的感知-表达-执行链路。到这里,整场 DevDay 才算真正落地成一件事:
ChatGPT 是一套操作系统,与人类、世界链接的系统。
04
所以,你有没有发现,叙事都是逻辑自洽的,这一套模型、产品体系背后在展示一个「自洽闭环」:
Apps SDK是入口,解决「应用怎么接进来」;AgentKit是执行,解决「智能怎么被造出来」;Codex是创造,解决「AI 如何动起来、写出新世界」
模型与 API 层则是底层认知和感知的支撑,让一切能理解、能表达、能学习。
四个模块环环相扣,从「人到对话到Agent到模型到世界」形成完整链路。
以前软件系统,靠「操作逻辑」组织起来;现在,OpenAI 想把整个软件世界,重新组织成「智能逻辑」。
想想看:
Apps SDK 让人类和世界通过一个入口互动;AgentKit 让任务能在 AI 手中流转;Codex 让代码和现实互通;而 GPT-5 Pro、Sora 2、Real-Time Mini,则成了它的思考力、视觉力和听觉力。
这难道不是一种新的计算范式吗?
对话成为操作系统,Agent 成为界面,模型成为世界的底层语言;ChatGPT 想把自己做成一个「软件世界的新浏览器」。
智远认为,表面上是场技术大会,实际上是一次「权力转移」。
从「开发者控制应用」,变成「模型驱动开发」;从「人教 AI 干事」,变成「AI 教人做事」;从「App 间切换」,变成「统一在 ChatGPT 里完成」。
这场迁移意味着,软件范式被重新定义:
未来,我们用一套「AI 操作系统」在替我们调用世界;数据在流动中成长,模型在调用中学习,应用在对话中繁衍,这,才是整个openAI DevDay 的底层叙事。
那么,从智远视角来看,哪些地方值得深入挖掘一下呢?
我觉得是这样。
第一,AgentKit。AI 工业化的开端;意义在于让智能体的生产、调度、复用都有了标准接口。
过去一年,大家都在说「我要做个 Agent」。可问题是,做完之后谁来管?谁来监控它在跑什么?出错了怎么办?AgentKit 的出现,要把这些问题系统化。
换句话说,未来的企业内部,真的会出现一个新部门,叫 AgentOps(智能体运维),它负责配置、调度、监控所有 AI 工人。
第二点,Apps SDK。
表面上,Apps SDK 是帮开发者「接入 ChatGPT」,但本质上,它在改写整个软件世界的入口逻辑。
你想想看,用户不再「打开 App」,用嘴说搞定一切,这意味着App 的「图标逻辑」正在被「对话逻辑」替代。
这个变化的冲击力,比 Sora 还大,因为它重新定义了「使用软件」的动作。
对国内厂商来说,这是一场关于「入口」的战争,谁能把自己的产品嵌入AI对话体系,谁就可能拿到下一代流量入口。
至于Codex,意义是AI 的「物理接口」。
Codex 能自动识别设备协议,生成控制逻辑,这意味着任何能被网络访问的东西,都能被语言驱动。
听起来有点科幻,但你想想:当 AI 能通过自然语言直接控制设备、API、机器人、云端系统时,我们就离「语言编程世界」不远了。
从此之后,开发者写代码的意义也变了,可能会诞生一整套新的生态:AI 物联网、AI 视频制作、AI 自动化运维……
几乎每个行业,都可能因为 Codex 的「操作能力」被重新定义。
要说模型的话,我认为从企业角度看,这个信号非常明确:别再追「最强模型」,要追「最有反馈的系统」;因为只有能不断学习、不断嵌入场景的模型,才有长期竞争力。
这整套系统在改写人、AI、企业的分工逻辑;人类从「操作者」变成「意图提供者」,AI 从「工具」变成「执行者」。
05
那这次 DevDay,对国内厂商有什么启发呢?我只想说四句话,一,要有一个好故事。
Oppo AI 在做的事,百度、腾讯、阿里都在做,哪家没有编程系统?哪家没有模型?哪家没有在谈 Agent?
问题是,OpenAI 把这一切串联起来,讲成了一个逻辑自洽的故事。
它让所有的产品和功能,围绕一个统一的「叙事重心」展开:AI一套能自我进化的系统。这一点,国内厂商很少做到,产品有,战略有,但故事碎了。
二,要意识到,OpenAI 的每一步都在强化「系统可调用性」。
无论是对话式 App 还是自动化 Agent,本质都是在打造一个「统一操作环境」。
国内很多厂商还停留在「造工具」的阶段,但未来的用户习惯是用语言对话;要想清楚,产品能不能被那句话唤起?能被唤起的,才叫生态的一部分。
第三点吗?就是AgentKit。
目前看还早,不过,他提醒做企业服务的平台,比如钉钉、飞书,AI会成为组织的一环,所以企业内部迟早会有一个新部门,叫 AgentOps。
这是从「自动化流程」到「智能运营系统」的转型;问题是怎么设计呢?我不知道。
针对sora,最大启发是,怎么把生成视频工具的动作,变成内容生态的链接点。
最后,想提醒国内厂商:别再盯着 DevDay 的那些产品更新,要思考——如果今天有 ChatGPT 的体量,会怎么重构世界?
国内机会,是本地化重构,用中国产业密度、场景复杂度和 C 端生态优势,去探索属于中国的「AI 操作系统路径」。
参考:
[1].OpenAI. OpenAI DevDay 2025: Opening Keynote with Sam Altman [EB/OL]. YouTube, 2025-10-06.https://www.youtube.com/watch?v=hS1YqcewH0c
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com