大模型太烧钱,快把OpenAI烧没了
作为让人工智能真正家喻户晓的传奇企业,OpenAI 可能面临着新的严峻考验。根据《Analytics India Magazine》报道,如果 Sam Altman 执掌的这家公司继续以目前的速度烧钱,那么最快到 2024 年底就可能宣告破产。
《Analytics India Magazine》指出,单是运行 AI 服务 ChatGPT 一项,每天就要花掉 OpenAI 公司近 70 万美元。尽管 Altman 一直努力推动 GPT-3.5 和 GPT-4 转为收益,但 OpenAI 仍远未能达到收支平衡,至于走向盈利更是天方夜谭。
自去年发布之后,ChatGPT 已经成为有史以来增长最快的 AI 平台之一。但最近几个月,初期令人欣喜若狂的业绩数字已经停止增长,这进一步削弱了该公司创造可观收入的期望。
【资料图】
当 ChatGPT6 月份的用户数量较 5 月份有所下降时,有人猜测可能是因为学生放假,检索信息动作有所停滞才导致的下降。另一方面,也可能是因为自从该公司为用户发布 ChatGPT API 以来,人们开始构建自己的机器人,而不是使用原来的产品。
根据外媒 SimilarWeb 介绍,与今年 6 月的 17 亿用户相比,ChatGPT 在 7 月的用户数量环比下降 12%,目前为 15 亿。
一、开源大模型的兴起,让 OpenAI 处境更加艰难
X上的一位用户表示,ChatGPT 无法产生收入的一大原因就是 API正蚕食其利润。虽然很多企业禁止员工使用 ChatGPT 处理工作,但人们正使用 API 在不同的工作流程中运用大语言模型。而所谓 API,代表的正是让一款程序向其他程序提供服务的结构化方式。
OpenAI 认为用户数量下降只是因为人们开始使用 API 来构建自己的产品,但外界很多人却不这么认为。
外界不少声音认为,OpenAI 产品受欢迎程度下降是从开源大模型模型的兴起开始的。Meta 的 Llama 2 与微软合作,允许人们将该模型用于商业目的。
那么,人们为什么不选择易于修改的 Llama 2,而去选择 OpenAI 提供的付费、专有和受限版本呢?可以说,与 GPT 相比,Llama 2 在某些用例中也要好得多。人工智能开发人员 Santiago 表示,“我已经与两家初创公司进行了交谈,他们正在从专有模型迁移到 Llama 2。”
另外,值得注意的是,尽管首席执行官 Sam Altman 并不拥有 OpenAI 的股权,但该公司很久以前就从非营利组织转变为盈利组织。尽管 Altman 可能并不关心利润,但作为一家盈利公司 OpenAI 不得不关心利润率。
二、目前尚无可行的上市路线
报道还补充称,对于 OpenAI、Anthropic 或者 Inflection 等任何领先的 AI 厂商来说,通过首轮公开募股从股市上寻求资金注入仍然为时过早。Investopedia 发布的报道指出,任何成功的 IPO 都至少需要保持 10 年运营、再加上 1 亿美元的收入作为前提。
OpenAI 之所以眼下还没有“爆雷”,主要得益于微软慷慨拿出的 100 亿美元投资。然而,考虑到用户规模的直线下降,该公司提出的 2023 年预计收入 2 亿美元、2024 年预计收入 10 亿美元的目标已经变得过于乐观,甚至可以断言其亏损态势只会进一步恶化。而且自从推出 ChatGPT 聊天机器人以来,OpenAI 的财政状况其实越来越差,今年 5 月的亏损额已经翻番达 5.4 亿美元。
目前市场上缺乏充足的企业级 GPU供应,大国之间的技术战也加剧了 OpenAI 面临的困境。Altman 曾多次提到,GPU 资源的稀缺已经在阻碍该公司训练更多新模型。
但 OpenAI 也并非就“无药可救”。OpenAI 向付费版本的转变可能为他们带来了大量的金钱。预期收入的预测可能来自购买 API 和使用基于 GPT-4 的聊天机器人或其他产品的人们。但这方面的财务数据仍然模糊。
即便如此,如果这家以大模型为重点的公司进行首次公开募股,它可能会被更大的公司收购。至于员工,虽然很多人可能会离开 OpenAI 去加入竞争对手,但该公司仍在以丰厚的薪水招聘人员,甚至将办事处扩展到了伦敦。
三、大模型太烧钱了!
众所周知,训练大模型所需的计算资源是非常巨大的,并且在大型模型上运行推理的计算成本也会很高。大模型需要专门的硬件和软件才能有效运行。企业可能需要投资昂贵的基础设施来处理大型语言模型的处理要求。有专家估计,GPT3 的训练成本可能在 400 万美元到 1000 万美元之间,甚至更多。
训练人工智能模型需要大量数据,并且标记这些数据可能既耗时又昂贵。此外,获取数据的成本也越来越高。例如,一项研究发现,为机器学习创建高质量数据集的成本从每项任务 1 美元到 100 美元不等,具体取决于任务的复杂性和所需的专业知识水平。
斯坦福大学的另一项研究发现,为深度学习标记单个图像数据集的成本可能高达每张图像 3.50 美元。OpenAI 的 GPT-3 训练数据集大小为 45 TB。这些数字表明,训练人工智能模型的成本是一项重大投资。
更重要的是,想要训练一款大模型,需要付出的成本并不仅限于硬件和数据。训练、微调和部署大型语言模型需要高度专业的技能,而组织的员工可能不具备这些技能。雇用这样的人可能会很昂贵,并进一步增加整体研发成本。
此外,近年来,对人工智能和机器学习专业人才的需求大幅上升,导致市场上此类人才短缺。结果就是雇用和留住这些人才的成本大幅增加。根据 LinkedIn 的一份报告,人工智能专家职位是最热门的新兴职位之一,在美国每年的平均基本工资为 13.6 万美元。同一份报告还发现,过去四年对人工智能专家的需求每年增长 74%。
据微软第二季度财报显示,微软在今年该季度的资本支出超过了 107 亿美元,较去年同期相比增长了 23%,是公司历史上最高的季度资本支出。
微软首席财务官 Amy Hood 告诉投资者,这个数字在接下来的四个季度中会进一步攀升。此外,谷歌首席财务官 Ruth Porat 也释放出了同样的信号,Porat 称公司的资本支出将在 2023 年下半年和 2024 年增加,主要是用于购买服务器和 AI 研发上。
财力雄厚如微软、谷歌,也被大模型“削掉了一层皮”,更别提 OpenAI 了。
GPU 短缺更是让 OpenAI 雪上加霜。Altman 曾表示,市场上 GPU 的短缺导致该公司无法训练进一步的模型并对其进行改进。现在该公司已经申请了“GPT-5”的商标,很明显该公司想要对其进行训练。这反过来又导致 ChatGPT 输出质量的大幅下降。
因此,如果 OpenAI 不能很快获得更多资金,该公司可能不得不在 2024 年底之前申请破产。到那时我们将面对的局面可能是:大模型市场竞争越来越激烈,损失越来越大,用户越来越少,诉讼越来越多,大模型质量越来越差。