过去一年,我们正真看到了 GenAI(生成式 AI)在 ToC 领域大放异彩,创造了超 10 亿美元的消费规模。相较之下,ToB 领域还停留在由 FOMO 推动的 1.0 阶段,应用场景稀少,主要用例体现在 ChatGPT 的 套壳 产品们。
如今 C 端渐凉,盈利堪忧。如果说 Anthropic、OpenAI 的低毛利是浇了盆凉水,那么 Inflection 被微软 生吞活剥 基本宣告 C 端重磅产品 聊天机器人 暂别初创企业。而且 C 端的数据基本握在巨头手中,小型初创企业就算解决了 钱荒 ,还要经历新一轮 数据荒 ,挑战巨头难如登天。
而 B 端既是 生路 也是 胜路 。首先,尽管庞大的数据由大企业掌管,但不是每个企业都有能力搭建 AI 团队。其次,出于竞争关系,大企业不太可能将私密数据分享给巨头,而会倾向于找小企业做 中间商 。基于此,小型初创企业 数据飞轮 可以转起来在垂直领域积累优质数据,逐渐构建技术壁垒。
著名风投机构 a16z 花了几个月时间,与财富 500 强企业和顶尖企业的领导者进行深入交流,调查了超过 70 位企业决策者,以探究他们对 GenAI 的使用、采购和预算安排。
结果非常惊人在过去六个月中,这一些企业对 GenAI 的资源投入和态度发生了显著变化。
企业将购买 GenAI 服务的预算增加 2~5 倍,推进更多生产级应用;
a16z 的结论:尽管有人质疑 GenAI 在 B 端的普及性和盈利能力,但进入 2024 年,我们预见 B 端企业市场的 AI 规模将呈现指数级增长。
如果 AI 初创公司能够进一步探索客户的预算、关注点和路线图,为企业制定以 AI 为中心的战略计划,预见企业的痛点,同时从 服务至上 转向 构建可扩展产品 ,就能成为新浪潮中的 弄潮儿 。
2023 年,我们调研的数十家公司,在基础模型 API、自托管和微调模型上平均每年支出达到了 700 万美元。而且,几乎所有企业都对 GenAI 测试的初步成效表示乐观,并计划在 2024 年将预算增加 2~5 倍,以推动更多工作负载转向生产环境。
2023 年,企业对 GenAI 的支出主要出自 创新 预算和一次性买卖。然而,在 2024 年,许多领导者正考虑 长期付费 。仅不到 25% 的受访企业表示,2024 年的 GenAI 支出还是出自 创新 预算。
我们还注意到,一些领导者开始将 GenAI 预算用于节省人力成本,尤其是在客服领域。如果这一势头持续,预计未来对 GenAI 的投资将会大幅度的增加。例如,有企业表示,AI 客服每打一个电线 美元,总计可节省约 90% 开支。因此,企业要将 GenAI 投资增加 8 倍。
目前,企业领导者主要是通过由 AI 提高的生产力,来衡量投资回报率(ROI)。
尽管他们主要依赖 NPS(净推荐值)和客户满意程度作为代理指标。但他们也在寻找更具体的衡量方法,比如:用例创收、节省成本、提升效率、提高准确性。至少在未来 2~3 年,提升 ROI 会慢慢的重要。
仅仅接入 API 显然不够用,但实施、维护和扩展需要高度专业化的人才,甚至仅 实施 一项就占据了 2023 年企业 AI 支出大头。
为了帮企业快速启动、运行模型,基础模型提供商提供的专业服务通常涉及定制模型开发。同时,又因为企业内部特别难找到合适的 AI 人才,那些能够简化企业内部 GenAI 开发流程的初创企业会更快地迎来巨大机遇。
六个月前,大多数企业还在使用一种模型(通常是 OpenAI),最多是两种模型。
(3)快速利用该领域加快速度进行发展的成果。由于模型排名不停变化,高管们希望整合当前最先进的闭源模型和开源模型,以获得最佳效果。
我们估计,在 2023 年的市场中,80%~90% 由闭源模型(如 OpenAI)占据。然而进入 2024 年,46% 的受访企业偏好或强烈站队开源。
另外,60% 的受访企业提到,若能够通过微调开源模型,以实现与闭源模型相当的效果,他们将会倾向使用开源模型。其中一些企业明确说,希望开源和闭源模型的占比能达到 5:5(2023 年为 2:8)。
我们惊讶的是,成本问题不是企业首要考虑因素,但却反映了领导层目前的信念,即 GenAI 创造的超额价值,将会远超于其价格。一位高管表示: 获得准确的答案是值得的。
因此,控制(专有数据安全性、了解模型产生特定输出的原因)和定制(针对特定用例进行相对有效微调的能力)远比成本更重要。
出于对监管、数据安全的顾虑,企业不愿意与闭源模型提供商共享自己的专有数据,尤其是那些将知识产权作为核心护城河的公司。一些高管通过自托管开源模型来处理问题,而其他人则第一先考虑具有虚拟私有云(VPC)集成的模型。
随着高质量开源模型的兴起,大多数企业不是从 0 开始训练自家 LLM,而是使用检索增强生成(RAG)或为特定需求来微调开源模型。
2023 年,许多企业出于安全考虑通过现有的云服务提供商(CSP)购买模型,2024 年的情况依然如此。
如图所示,在使用 API 访问模型的 72% 企业中,超过 50% 的企业选择其 CSP 所托管的模型。(请注意,超过 25% 受访企业选择了自托管,可能是为了运行开源模型。 )
即便企业将 推理能力、可靠性、易访问性 作为采用特定模型的首要因素,但他们也更加倾向于采用具有其他差异化功能的模型。
例如,多家企业将 200K 上下文窗口功能 ,作为此前采用 Anthropic 的关键原因;一些企业采用 Cohere 是出于其在上市之初,主打微调功能的易用性。
不可否认,AI 模型正在变成 瓶装水 尽管闭源模型在外部基准测试中表现更好,但企业领导者仍然为开源模型打出了较高的 NPS,因为它们更容易针对特定用例进行微调。
一家公司发现 经过微调,Mistral 和 Llama 的性能几乎与 OpenAI 一样好,但成本要低得多。 按照这些标准,模型性能的趋同甚至比我们预期的更快,这为公司可以提供了更多选择。
大多数企业都希望,在设计 AI 应用时,只需更改 API,就能在不同模型之间进行切换。一些企业甚至预测试提示,以便切换在按下开关时立即发生,而别的企业则构建了 模型花园 ,以便他们能够根据需要将模型部署到不同的应用程序中。
一部分原因出于云时代的惨痛教训,减少对供应商的依赖;另一部分原因是,行业发展太快,将鸡蛋放在单一的 AI 模型中不可取。
有了基础模型提供的 API,企业更容易构建自己的 AI 应用。一些基于熟悉应用场景,例如客服或内部的 AI Copilot。同时,企业也在尝试创新,例如编写消费品配方、缩小分子发现范围、提出销售建议等等。
总之, 套壳 GPT 又会面临挑战。我们大家都认为,那些能够超越 LLM + UI 公式、重新思考企业基本工作流程、帮企业更好地利用自身专有数据的 AI 产品,将市场上大放异彩。
2023 年最流行的应用场景,要么是专注于内部效率提升,要么是构建 AI Copilot 作为客服 / 销售辅助。这一些状况,在 2024 年可能不可能会发生太大变化,依然占据主导地位。
这是因为企业对 GenAI 仍持有两大担忧:(1)幻觉和安全问题;(2)将 GenAI 部署到敏感消费者领域(如医疗保健和金融服务)的公共关系问题。
类似担忧实在太多,谁能提供控制幻觉安全问题的 AI 工具,谁将广受欢迎。
a16z 预测:到 2024 年底,模型 API(包括微调)市场将增长到 50 亿美元以上(2023 年预估是 15 亿 ~20 亿美金),而企业支出将是其中的重要部分。
基于企业高层已经发出了 寻找、部署 GenAI 解决方案 的号令。我们大家可以预见,过去一年多时间才能完成的交易,现在可能只需 2 、3 个月就能完成,且交易规模比以往更大。
虽然这篇文章着重关注基础模型层,但我们始终相信 AI ToB 的机会将延伸到技术栈其他模块辅助微调的工具、模型部署 / 运维服务、AI 应用程序构建、垂直场景的 AI 应用建构等等。
近期,a16z 连发三篇 AI ToB 调查报告,这足以说明,AI 炒作之后,B 端市场愈加关键。