最近,一位在OpenAI工作了一年的工程师Calvin French-Owen,最近揭示了这家全球最受瞩目的公司内部的真实运作图景。
地址:https://calv.info/openai-reflections
三周前,他从OpenAI辞职,原因并非外界猜测的内部纷争,而是他希望重新回归创业者的身份。在他任职的一年时间里,他亲眼见证了这家人工智能巨头的诸多侧面,并将其观察记录在一篇博客文章中。
一、巨人的混乱与速度
OpenAI的增长速度是惊人的。
在他加入时,公司约有1000名员工,一年后这个数字飙升至3000人。他本人,仅仅入职一年,工龄就已经超过了公司里70%的同事。
这种规模的急剧扩张,带来的是系统性的混乱。
French-Owen写道,当公司扩张如此迅速时,所有环节都会失灵:公司的沟通方式、汇报结构、产品交付流程、人员管理和组织,以及招聘过程。
然而,在这种看似混乱的表象之下,是一种极其强大的、自下而上的文化。
在这里,一个好的想法可以来自任何角落,并且往往在事前很难判断哪个想法最终会开花结果。
公司的决策并非依赖于一个宏大的“总体规划”,而是在新研究成果涌现时,通过迭代的方式逐步推进。
这造就了一种任人唯贤的氛围,领导者的晋升主要基于他们提出好想法并成功执行的能力。
相比于在全体会议上做精彩演讲或进行政治操弄,实际的执行成果在OpenAI拥有更高的权重。
在许多方面,OpenAI都酷似早期的Meta(当时的Facebook)。
两者都拥有一个爆款的消费级应用,一个初生的基础设施,以及一种渴望快速行动的文化。
这种相似性并非偶然,因为存在一条非常显著的从Meta到OpenAI的人才输送管道。
公司内部许多强大的基础设施工程师,都来自Meta和Instagram。
公司内部存在一种强烈的“行动偏好”,员工可以无需申请许可便着手实现自己的想法。
这种文化也导致了资源的重复投入,French-Owen举例说,他至少见过六个不同的团队在开发类似队列管理或代理循环的工具库。
公司的技术交流完全在Slack上进行,电子邮件在这里几乎不存在,他在职期间收到的邮件总数大约只有10封。
OpenAI的团队结构也异常灵活。
当他的团队在冲刺Codex项目时,为了赶上发布日期,他们需要几位经验丰富的ChatGPT工程师的帮助。
在他们向ChatGPT的工程经理提出请求后,第二天,两位顶尖的工程师就已经准备好投入工作。
这里没有“等待季度规划”或“重新调配人力”的漫长流程,一切都发生得非常迅速。
二、Codex冲刺:七周创造一个奇迹
他职业生涯中最亮眼的经历之一,是在OpenAI参与了Codex的发布。
Codex是OpenAI推出的新型编码智能体,旨在与Cursor和Anthropic的Claude Code等工具竞争。
2025年2月,公司内部已经有了一些效果显著的工具雏形,同时他们也感受到了推出一款专用编码产品的市场压力。
于是,两个团队被合并,一场疯狂的冲刺开始了。
从写下第一行代码到产品最终上线,整个过程只用了短短七个星期。
French-Owen形容,这次冲刺是他近十年来工作最努力的一次。
大多数晚上,他们都工作到11点或午夜,周末也几乎无休。
整个团队全力以赴,因为他们知道每一周都至关重要,这让他想起了在YC孵化器时的日子。
一个如此规模的公司,能在这么短的时间内将一个想法变为一个完全开放给公众使用的产品,其速度是惊人的。
这个项目的范围也并不小,他们构建了一个容器运行时,优化了代码库下载,为处理代码编辑微调了定制模型,并实现了互联网接入。
这一切的实现,依赖于一个精干的高级团队。
团队由大约8名工程师、4名研究员、2名设计师、2名市场推广人员和1名产品经理组成。
French-Owen认为,如果没有这个团队,项目不可能成功。
在产品发布的前一晚,他们五个人一直工作到凌晨4点,以完成主系统的部署,那是一个需要数小时才能完成的复杂过程。
几个小时后,他们又回到办公室,参加早上8点的发布公告和直播。
当他们开启功能开关时,流量瞬间涌入。
他感叹道:“我从未见过一个产品仅仅因为出现在左侧边栏,就能获得如此迅速的用户增长,但这就是ChatGPT的力量。”
Codex的发布取得了巨大成功,在上线后的53天里,它已经生成了63万个公开的代码拉取请求(Pull Requests)。
三、保密文化与真实焦虑
在OpenAI工作,意味着时刻处于全球的审视之下。这种巨大的外部压力,催生了一种高度保密的内部文化,以防止信息泄露。
他甚至不能向任何人详细透露他正在进行的工作内容。
有趣的是,公司对社交媒体,尤其是X(前身为Twitter)的动态高度关注。如果一个帖子在X上走红,OpenAI内部很可能会看到并作出回应。
他的一位朋友开玩笑说:“这家公司是靠推特的‘氛围’(vibes)来运营的。”
关于OpenAI最大的误解,或许在于其对安全问题的态度。外界一些声音认为OpenAI的安全流程不足”。然而,French-Owen指出,与外界那些担忧人类未来的理论风险相比,公司内部更关注实际的安全风险。
这些风险包括仇恨言论、滥用、操纵政治偏见、制造生物武器、自我伤害以及提示注入等。
这并非意味着OpenAI忽视了长期的潜在影响,公司有专门的研究人员在研究这些理论风险。
但现实是,数以亿计的用户正在使用其模型,从获取医疗建议到接受心理治疗,解决眼前的实际问题是当务之急。
这里的利害关系感觉非常重大。一方面,公司的目标是构建通用人工智能(AGI);另一方面,他们要为一个服务数亿用户的产品负责。
他还提到,公司内部确实有种持续紧绷的氛围。
“政府在盯着我们,媒体在盯着我们,用户在盯着我们,竞争对手也在盯着我们,而我们也在盯着所有人。”
同时,他们还在全球最大的舞台上与Meta、谷歌和Anthropic等巨头激烈竞争。
世界各国的政府也都在密切关注这个领域的发展。他相信,他在OpenAI遇到的每一个人,实际上都在努力做正确的事情。
最后,French-Owen认为,通往通用人工智能的道路目前是三强争霸的局面:OpenAI、Anthropic和谷歌。
这三家机构将根据其各自的基因,消费者导向、企业导向、以及坚如磐石的基础设施与数据,走出不同的道路。