首页 游戏资讯文章正文

随着OpenAI吸引新的投资,实现利润与目标的平衡变得越来越困难

游戏资讯 2025年04月11日 01:49 13 admin

  

  OpenAI

  人工智能公司OpenAI开发了广受欢迎的聊天机器人ChatGPT和文本转艺术程序Dall-E,该公司正处于十字路口。2024年10月2日,该公司宣布已从投资者那里获得66亿美元的新资金,该公司的价值估计为1570亿美元——这使其成为有史以来第二家估值超过1000亿美元的初创公司。

  与其他大型科技公司不同,OpenAI是一家非营利组织,其子公司由非营利组织董事会监管。自2015年成立以来,OpenAI的官方使命一直是“构建安全且造福全人类的人工通用智能(AGI)”。

  到2024年9月底,美联社、路透社、《华尔街日报》和许多其他媒体都报道说,OpenAI计划放弃非营利组织的身份,成为一家由投资者管理的营利性科技公司。这些报道都引用了匿名消息来源。《纽约时报》援引最近一轮融资的文件报道称,除非这一变化在两年内发生,否则66亿美元的股权将成为对提供融资的投资者的债务。

  《美国对话》请塔夫茨大学(Tufts University)管理学学者阿尔努尔·易卜拉欣(Alnoor Ebrahim)解释,为什么OpenAI领导人所报道的改变其结构的计划意义重大,而且可能存在问题。

  OpenAI的领导层出现了很多动荡。分歧在2023年11月爆发,当时董事会短暂罢免了首席执行官萨姆·奥特曼(Sam Altman)。他在不到一周的时间里重新获得了工作,然后三名董事会成员辞职。即将离任的董事们主张建立更强大的护栏,并鼓励监管,以保护人类免受人工智能带来的潜在危害。

  自那以来,已有十几名高级员工辞职,其中包括负责监督OpenAI安全政策和实践的其他几位联合创始人和高管。其中至少有两家公司加入了Anthropic,后者是OpenAI负责人工智能安全的前高管创建的竞争对手。一些即将离职的高管表示,奥特曼推动公司过早推出产品。

  2024年5月辞职的OpenAI前安全团队负责人简·莱克(Jan Leike)表示,安全“已经让位于闪亮的产品”。

  在OpenAI现有的非营利性治理结构下,资金雄厚的投资者既不能拥有该组织的股份,也不能在其董事会中获得席位。这是因为OpenAI是作为非营利组织成立的,其目的是造福社会,而不是个人利益。到目前为止,包括微软总计130亿美元的投资在内,所有的几轮投资都是通过一家隶属于这家非营利组织的营利性子公司进行的。

  目前的结构允许OpenAI接受私人投资者的资金,以换取未来的部分利润。但这些投资者在董事会中没有投票权,他们的利润也有“上限”。根据此前公开的信息,OpenAI的原始投资者无法获得超过其提供资金100倍的收益。这种混合治理模式的目标是平衡利润与OpenAI以安全为重点的使命。

  成为一家营利性企业将使其投资者有可能获得OpenAI的股权,而不再需要面对潜在利润的上限。未来,OpenAI还可能上市,在股市上筹集资金。

  据彭博社援引未具名消息人士的报道称,奥特曼试图以个人名义收购OpenAI 7%的股权。

  由非营利组织董事会成员和高管组成的协会BoardSource表示,这种安排对非营利组织高管是不允许的。相反,该协会解释说,非营利组织“必须将盈余重新投资到组织和免税目的中。”

  《华盛顿邮报》和其他媒体援引匿名消息来源报道称,OpenAI可能会成为一家“公益公司”——旨在造福社会并赚取利润的企业。

  具有这种状态的企业的例子,被称为B型企业。其中包括户外服装和装备公司巴塔哥尼亚(Patagonia)和眼镜制造商Warby Parker。

  根据B Lab(一个为B Corps制定标准并提供认证的网络)的说法,更典型的情况是,一家营利性企业(而非非营利企业)变成了一家福利公司。非营利组织这样做是不寻常的,因为非营利组织的治理已经要求这些组织造福社会。

  具有这种法律地位的公司的董事会可以自由地考虑社会、环境和非股东的利益,但这不是必需的。董事会可能仍然选择将利润作为首要任务,并可能放弃其福利地位以满足投资者。这就是在线工艺品市场Etsy在成为上市公司两年后的2017年所做的事情。

  在我看来,任何将非营利组织转变为公益公司的尝试都明显偏离了非营利组织的使命。还有一个风险是,成为福利公司可能只是一种策略,以掩盖转向关注收入增长和投资者利润的做法。

  许多法律学者和其他专家预测,OpenAI不会完全放弃其混合所有权模式,因为法律限制将非营利资产置于私人手中。

  但我认为OpenAI有一个可能的解决方案:它可以尝试稀释非营利组织的控制权,让它成为一个新的营利性结构的小股东。这将有效地消除非营利组织董事会追究公司责任的权力。此举可能会导致相关州总检察长办公室展开调查,也可能会受到美国国税局(Internal Revenue Service)的调查。

  这对社会来说利害攸关。

  人工智能的潜在危害是广泛的,有些已经很明显,比如欺骗性的政治竞选和医疗保健方面的偏见。

  如果行业领导者OpenAI开始更多地关注赚取利润而不是确保人工智能的安全,我相信这些危险可能会变得更糟。因人工智能研究而获得2024年诺贝尔物理学奖的杰弗里·辛顿警告说,人工智能可能会取代“许多平凡的工作”,从而加剧不平等。他认为,有50%的可能性,“我们将不得不面对人工智能试图取代人类的问题”。

  即使OpenAI保留了把安全放在首位的董事会成员,新公司董事会成员唯一的共同点就是他们有义务保护公司股东的利益,因为他们希望获得利润。虽然这样的期望在营利性董事会中很常见,但在非营利性董事会中,它们构成了利益冲突,因为非营利性董事会必须把使命放在首位,董事会成员不能从组织的工作中获得经济利益。

  这种安排无疑会取悦OpenAI的投资者。但这对社会有好处吗?非营利组织控制以营利为目的的子公司的目的是确保利润不会干扰非营利组织的使命。如果没有护栏来确保董事会寻求限制人工智能对人类的伤害,它就没有理由阻止公司实现利润最大化,即使它的聊天机器人和其他人工智能产品危及社会。

  不管OpenAI做什么,大多数人工智能公司已经是营利性企业。因此,在我看来,管理潜在危害的唯一方法是通过更好的行业标准和法规,这些标准和法规已经开始形成。

  加州州长在2024年9月否决了这样一项法案,理由是它会减缓创新——但我相信,考虑到人工智能已经给社会带来的危险,减缓创新正是我们所需要的。

  公司提供

  nversation

  本文转载自The Co在知识共享许可下的对话。阅读原文。The Conversation

  引用:随着OpenAI吸引新的投资,平衡利润与目的越来越具有挑战性(2024年,10月14日)

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

实现通鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ:240