科技
OpenAI的内部混乱

  

  

  要真正理解过去48小时发生的事情——OpenAI首席执行官萨姆·奥特曼(Sam Altman)令人震惊地突然被解雇,他可以说是生成型人工智能革命的领军人物,随后又有报道称该公司正在谈判让他回来——必须明白,OpenAI不是一家科技公司。至少,不像其他互联网时代的划时代公司,如meta、b谷歌和微软。

  OpenAI的结构刻意抵制了推动科技行业发展的价值观——对规模的不懈追求,以及推出消费产品时先构建后提问的方式。它成立于2015年,是一家致力于创造通用人工智能(AGI)的非营利组织,它应该造福“整个人类”。(按照该公司的说法,AGI将足够先进,能够在“最具经济价值的工作”上超越任何人——正是这种威力巨大的技术需要负责任的管理者。)在这个概念中,OpenAI将更像一个研究机构或智库。该公司的章程明确指出,OpenAI的“主要受托责任是对人类”,而不是对投资者,甚至不是对员工。

  这种模式并没有持续多久。2019年,OpenAI成立了一家子公司,采用“上限利润”模式,可以筹集资金,吸引顶尖人才,并不可避免地构建商业产品。但这家非营利组织的董事会保持着完全的控制权。这些公司的细枝末节是OpenAI迅速崛起和奥特曼令人震惊的衰落的核心故事。奥特曼上周五被OpenAI董事会解职,标志着该公司两种极端意识形态之间的权力斗争达到了高潮。一种极端意识形态来自硅谷的科技乐观主义,受到快速商业化的激励;另一方则担心人工智能对人类的生存构成威胁,必须极其谨慎地加以控制。多年来,双方设法共存,但也遇到了一些困难。

  据现任和前任员工说,这种脆弱的平衡几乎在一年前的今天被打破了,这要归功于OpenAI在全球范围内声名显赫的东西:ChatGPT。从外部看,ChatGPT似乎是有史以来最成功的产品发布之一。它的发展速度比历史上任何其他消费应用都要快,它似乎以一己之力重新定义了数百万人对自动化的威胁和希望的理解。但它让OpenAI走向了截然相反的方向,扩大并加剧了本已存在的意识形态分歧。ChatGPT加剧了为盈利而创造产品的竞争,同时给公司的基础设施和专注于评估和减轻技术风险的员工带来了前所未有的压力。这加剧了OpenAI派系之间本已紧张的关系——奥特曼在2019年的一封员工电子邮件中称其为“部落”。

  在《大西洋月刊》(The Atlantic)与OpenAI的10名现任和前任员工的谈话中,人们看到了一幅图景:该公司的转型在领导层之间造成了不可持续的分裂。(我们同意不透露任何员工的姓名——所有人都告诉我们,他们担心向媒体坦白OpenAI的内部运作会受到影响。)总之,他们的描述说明了这个以营利为目的的部门面临的商业化压力是如何与日俱增的,这与公司的使命相冲突,直到ChatGPT和随后迅速推出的其他产品,一切都到了紧要关头。一位消息人士告诉我们:“在ChatGPT之后,有一条清晰的收入和利润之路。“你再也不能证明自己是一个理想主义的研究实验室。有顾客希望在此时此地得到服务。”

  我们仍然不知道奥特曼被解雇的确切原因,也不知道他是否会回到他以前的角色。奥特曼今天下午访问了OpenAI在旧金山的总部,讨论了可能的交易,但他没有回应我们的置评请求。董事会周五宣布,“审慎审查过程”发现“他在与董事会的沟通中并不总是坦诚”,导致董事会对他担任OpenAI首席执行官的能力失去信心。一份由首席运营官发给员工的内部备忘录随后得到了OpenAI发言人的证实,备忘录称,解雇是由于奥特曼与董事会之间的“沟通中断”,而不是“渎职或与我们的财务、业务、安全或安全/隐私实践有关的任何事情”。但目前还没有给出具体的细节。我们所知道的是,过去的一年OpenAI是混乱的,在很大程度上,公司的发展方向出现了明显的分歧。

  2022年秋天,在ChatGPT发布之前,OpenAI的所有人都在为迄今为止最强大的大型语言模型GPT-4的发布做准备。团队争先恐后地改进这项技术,它可以编写流畅的散文和代码,并从文本中生成图像。他们努力准备必要的基础设施来支持产品,并完善政策,以确定OpenAI可以容忍和不允许的用户行为。

  在此期间,OpenAI内部开始流传谣言,称其在Anthropic的竞争对手正在开发自己的聊天机器人。这场竞争是个人的:据报道,由于担心OpenAI发布产品的速度太快,一部分员工于2020年离开了OpenAI,随后Anthropic就成立了。去年11月,OpenAI领导层告诉员工,他们需要在几周内推出一个聊天机器人,据该公司的三名员工透露。为了完成这项任务,他们指示员工发布一个现有的模型GPT-3.5,带有一个基于聊天的界面。领导层小心翼翼地把这次活动定位为“低调的研究预演”,而不是产品发布。奥特曼和其他高管表示,通过将GPT-3.5交到人们手中,OpenAI可以收集更多关于人们如何使用人工智能并与之互动的数据,这将有助于该公司为GPT-4的开发提供信息。这种方法也符合该公司更广泛的部署战略,即逐步向世界发布技术,让人们习惯它们。包括奥特曼在内的一些高管开始重复同样的话:OpenAI需要让“数据飞轮”运转起来。

  一些员工对匆忙推出这种新的对话模式感到不安。为了准备GPT-4,该公司已经捉襟危肘,而且没有足够的装备来处理一个可能改变风险格局的聊天机器人。就在几个月前,OpenAI推出了一款新的流量监控工具,用于跟踪用户的基本行为。该公司仍在充实该工具的功能,以了解人们如何使用该公司的产品,然后告知它如何减少该技术可能存在的危险和滥用。其他员工认为,把GPT-3.5变成一个聊天机器人可能不会带来什么挑战,因为这个模型本身已经经过了充分的测试和完善。

  该公司在11月30日推出了ChatGPT。这被认为是一件无足轻重的事情,因此公司没有在全公司范围内宣布这款聊天机器人即将上线。许多没有直接参与的员工,包括安全部门的员工,甚至都没有意识到这件事发生了。据一名员工说,其中一些知情人士开了一个赌注池,赌有多少人会在第一周使用这个工具。最高的猜测是10万用户。OpenAI总裁在推特上表示,该工具在头五天内就达到了100万。低调的研究预览这个短语在OpenAI内部成为了一个即时梗;员工们把它变成了笔记本电脑贴纸。

  ChatGPT的巨大成功给公司带来了巨大的压力。研究团队的计算能力被重新分配到处理流量上。随着流量持续激增,OpenAI的服务器多次崩溃;交通监控工具也一再失灵。即使这个工具上线了,员工们也很难通过它有限的功能来详细了解用户的行为。

  公司内部的安全团队努力减缓事态的发展。这些团队致力于改进ChatGPT,以拒绝某些类型的滥用请求,并以更合适的答案响应其他查询。但他们很难建立一些功能,比如一个自动功能,可以禁止反复滥用ChatGPT的用户。相比之下,该公司的产品部门则希望借助这一势头,加大商业化力度。公司又雇佣了数百名员工,积极拓展公司的业务。今年2月,OpenAI发布了ChatGPT的付费版本;今年3月,它很快推出了一个API工具,或应用程序编程接口,帮助企业将ChatGPT集成到他们的产品中。两周后,它终于发射了GPT-4。

  据当时在该公司工作的三名员工说,大量新产品使情况变得更糟。流量监控工具的功能仍然严重滞后,对ChatGPT和GPT-4通过新的API工具集成到哪些产品中的流量提供了有限的可见性,这使得理解和阻止滥用变得更加困难。与此同时,随着用户大规模创建账户,欺诈行为开始在API平台上激增,这些账户允许他们利用每个新账户附带的20美元充值额度来套现。阻止欺诈行为成为当务之急,以遏制收入损失,并防止用户通过开设新账户来逃避滥用执法:本已规模不大的信任与安全部门的员工从其他滥用领域调任过来,专注于这一问题。在越来越大的压力下,一些员工出现了心理健康问题。沟通很差。同事们只有在注意到同事在Slack上消失后才会发现他们被解雇了。

  GPT-4的发布也让校准团队感到沮丧,他们专注于更上游的人工智能安全挑战,比如开发各种技术,让模型遵循用户指令,防止它吐出有毒言论或“幻觉”——自信地将错误信息当作事实。该团队的许多成员,包括越来越多的担心更先进的人工智能模型存在风险的团队,对GPT-4如此迅速地推出并广泛集成到其他产品中感到不安。他们认为他们所做的人工智能安全工作是不够的。

  高层的紧张关系达到了顶点。随着奥特曼和OpenAI总裁格雷格·布罗克曼鼓励更多的商业化,该公司的首席科学家伊利亚·苏斯克维尔越来越担心OpenAI是否坚持了这个非营利组织的使命,即创造有益的人工智能。人工智能先驱杰弗里·辛顿(Geoffrey Hinton)曾在多伦多大学(University of Toronto)担任苏斯凯弗的博士导师,多年来一直与苏斯凯弗保持密切关系。他表示,在过去几年里,OpenAI大型语言模型的快速发展,让苏斯凯弗对AGI很快就会到来更有信心,因此更专注于预防AGI可能带来的危险。(Sutskever没有回应置评请求。)

  三名与他一起工作的员工告诉我们,期待着这项全能技术的到来,Sutskever开始表现得像一个精神领袖。他经常热情地重复一句“感受AGI”,指的是该公司正处于其最终目标的尖端。在加州科学院(California Academy of Sciences)举行的OpenAI 2022年节日派对上,Sutskever带领员工们高呼:“感受AGI!感受AGI!”这句话本身就很受欢迎,OpenAI的员工在Slack上创造了一个特殊的“感受AGI”反应表情符号。

  Sutskever对OpenAI技术的力量越有信心,他也就越与公司内部的生存风险派结盟。据两位知情人士透露,在今年的一次非现场领导会议上,Sutskever委托当地一位艺术家制作了一个木制雕像,旨在代表一个“不结盟”的人工智能——也就是说,一个不符合人类目标的人工智能。他点燃了它,象征着OpenAI对其创始原则的承诺。今年7月,OpenAI宣布成立一个所谓的超级对齐团队,由Sutskever共同领导这项研究。该公司表示,OpenAI将扩大对齐团队的研究,以开发更多的上游人工智能安全技术,专用公司现有计算机芯片的20%,为本十年可能到来的AGI做准备。

  与此同时,公司的其他部门不断推出新产品。在超对齐团队成立后不久,OpenAI发布了功能强大的图像生成器DALL-E 3。本月早些时候,该公司举行了第一次“开发者大会”,奥特曼在会上发布了GPTs,这是ChatGPT的定制版本,无需编码即可构建。根据OpenAI公司的最新消息,这些服务再次出现了重大问题:OpenAI经历了一系列的中断,包括ChatGPT及其api的大规模中断。据CNBC报道,在开发者大会结束三天后,出于安全考虑,微软曾短暂限制员工访问ChatGPT。

  尽管经历了这一切,奥特曼仍在继续努力。在被解雇前几天,他还在大肆宣传OpenAI的持续发展。他向英国《金融时报》表示,该公司已开始研究GPT-5,几天后他又暗示,在APEC峰会上将出现一些令人难以置信的东西。他说:“就在过去的几个星期里,我进入了这个房间,我们在某种程度上揭开了无知的面纱,向前推进了发现的前沿。”“能做到这一点是一生的职业荣誉。”据报道,奥特曼还希望从软银和中东投资者那里筹集数十亿美元,建立一家芯片公司,与英伟达和其他半导体制造商竞争,同时降低OpenAI的成本。在一年的时间里,奥特曼帮助OpenAI从一家混合型研究公司转型为一家全面增长的硅谷科技公司。

  在这种背景下,很容易理解紧张局势是如何爆发的。OpenAI的章程将原则置于利润、股东和任何个人之上。该公司的创立部分是由Sutskever现在所代表的那些非常偶然的人——那些害怕人工智能潜力的人,他们的信念有时似乎根植于科幻小说的领域——这也构成了OpenAI当前董事会的一部分。但奥特曼也将OpenAI的商业产品和筹款活动定位为实现公司最终目标的手段。他告诉员工,该公司的模型仍处于开发的早期阶段,OpenAI应该商业化并产生足够的收入,以确保它可以无限制地在一致性和安全问题上投入资金;据报道,ChatGPT每年将产生超过10亿美元的收入。

点击分享到

热门推荐