正在阅读:

2024年的生成式AI,到底该投什么?

扫一扫下载界面新闻APP

2024年的生成式AI,到底该投什么?

在模型、算力、生态推动下,AI应用正在进入大爆发时代。

图片来源:界面新闻 匡达

文|读懂财经

随着AI故事的演进,一个重要问题逐渐摆在了投资人面前:生成式AI到底应该投什么?想要回答这个问题,我们不妨看看移动互联网的发展历史。

在很多人看来,生成式AI的机会有点像移动互联网。回顾移动互联网的发展,大概有三个关键阶段:2007 年,iPhone 1 发布,至此移动互联网开始正式启航;2010 年,iPhone 4 发布,奠定了移动互联网的基本框架;2012 年,移动互联网的应用开始爆发,字节、滴滴、小红书纷纷成立。

从逻辑上讲,GPT 3.5 的发布,更像是 AI界的iPhone 1时刻,发展方向已经明确,但产业框架尚不清晰。这样的混沌也一定程度上增加了投资的难度,甚至会出现不少的投资“陷阱”。

这样的事情在移动互联网时代同样发生。在移动互联网早期,“手电筒”等工具类产品以及应用商店曾经吸引了不少投资人的押注。后来的事实证明,这不过是移动互联网的投资“陷阱”。

如何寻找移动互联网的投资机会?五源资本的方法或许值得大家参考。

根据五源资本刘芹此前对移动互联网的分析:手机具备了PC的特点。但是,手机还有三个非常重要的东西,是PC上没有的:1)手机上有位置的参数;2)手机里面有通讯录;3)手机有摄像头,有外放设备。沿着这个逻辑,五源资本得出一个结论:下一代杀手级的应用是移动的、社交的和富媒体化的。

沿着这个逻辑,当我们在寻找生成式AI的投资机会,倒不如多问自己几句:什么能力是生成式AI独有,而以前不具备的?

01 大模型进入应用时刻

2023年是大模型真正破圈的一年。回顾本轮生成式AI的突破,来自于底层大模型的持续进化。GPT 作为当前全球最强大的语言大模型,从2018年5月GPT初代版本,到2023年3月的 GPT-4,仅5年时间模型的性能就产生了质的飞跃。

从目前看, GPT 模型快速进化的原因主要有两个:

一是训练方法的持续迭代,从 GPT-1 的半监督式学习,到 GPT-2 舍弃了微调阶段,再到 GPT-3 的 In-context 学习和海量参数,以及引入了基于人工反馈的强化学习之后的ChatGPT。

二是在模型参数规模扩大背后,是 OpenAI 对研发和算力的持续高投入,通过“大力出奇迹”的方式,支撑了模型参数和训练数据的快速膨胀。

随着大模型以及 ChatGPT 等一系列“杀手级”应用的诞生,生成式 AI 在文本、图像、代码、音频、视频和 3D 模型等领域展现出了强大的能力。

今年3月,微软发布了基于GPT-4的AI办公助手office Copilot,此后包括企业服务、营销、低代码、安全、教育、医疗、金融等领域的AI应用开始陆续发布。7 月份,Microsoft 365 Copilot 公布定价,为每个用户 30 美元/月,同时全球CRM龙头 Salesforce 宣布正式向所有用户开放AI产品,并给出了单个产品每用户每月50美元的定价。随着两大软件巨头AI功能定价发布,AI 应用将正式进入商业化落地阶段。

生成式 AI的应用不止停留在B端,C端的落地速度同样可观。11 月 29 日,成立仅半年的 AI 初创公司 Pika 正式推出 AI 视频生成工具 Pika1.0,同日公司宣布获得 5500 万美元的融资,当前估值 2.5 亿美元。

Pika的特点在于,能够实现从普通 2D 动画到实拍感的电影场景、3D 动画全面 覆盖,还能够支持对视频实时编辑和修改,其中生成的视频在光影、动作流畅度等方面甚至都不输好莱坞动画电影级别。

种种迹象显示,在模型、算力、生态推动下,AI 应用正在进入大爆发时代。

02 资本纷纷押注大模型基础设施

生成式AI的高速增长,也引爆了相关领域的投资。

从一级市场看,截至8月底,GitHub 上 AI 开源项目数量达到了 91 万,相较于去年全年的增幅达到 264%。根据Replit的数据,23年二季度AI项目环比增速达 80%,相较于去年同期同比增长了34倍。

从去向看,大部分生成式 AI 项目还处在早期,大部分资金投向了包括大模型开发在内 AI 基础设施层, 而应用层资金流向仅占三成。

其中,基础设施层的投资集中度相对较高。自22年第三季度以来,AI基础设施层,在投融资的数量仅占总数的 10%的情况下,投融资的金额占据生成式AI融资金额的70%以上,这也体现了基础设施层资金密集型的特点。

在应用层,通用AI应用占大多数绝对主导,占比达 65%。相比之下,垂直行业应用目前无论投融资的数量还是金额都要远低 于通用型应用。

从二级市场看,AI 算力基础设施层公司率先受益于 AI 产业浪潮,其中英伟达是 AI“掘金买铲”逻辑的核心受益者,其次为微软、Google、AWS、Oracle 等头部云服务厂商和大模型厂商。

原因在于,在当下的生成式AI产业链里,基础设施层是最确定的环节。根据海外风险投资机构 Andressen Horowitz 的粗略估算,应用厂商平均需要将 20-40%的收入支付给云服务商或大模型厂商,同时大模型厂商通常也会将近一半收入用于支付云基础架构。也就是说,当前生成式AI总收益的10-20%流向了云服务商。

在硬件层面,英伟达是最受益的标的,其主力 AI 芯片 A100、 H100 承载了绝大多数 AI 模型训练与开发,占据 AI 服务器硬件成本的近 90%。

尽管AI 应用仍然处于早期,且应用层从商业化以及兑现时间会落后于基础设施层几个季度,但今年以来头部应用厂商股价同样也有所演绎。今年年初至今,Palantir、Salesforce、Shopify等应用层公司也都有着不错的涨幅。

随着后续越来越多的AI应用厂商进入到实质性商业化阶段,AI领域的投资也将进入更加复杂的阶段。

03 寻找生成式AI的投资脉络

在信息技术脉络里,软件和硬件呈现了完全不同的发展轨迹。在软件行业,只有直接掌控用户和数据资产的平台型应用才是最终的赢家。而在半导体行业,比下游直接面向用户的电子产品公司有更高的集中度,高通、台积电和英特尔在各自领域都有极强的话语权。

换言之,AI世界的演进路径会更接近半导体还是互联网行业,意味着最大的蛋糕到底会出现在模型层还是产品层?在回答这个问题前,我们先来看下AI与上述两个领域究竟有何不同。

与很多行业不同,半导体行业的发展逻辑来自消费市场对性能永无止境的需求,并最终演化为摩尔定律。这迫使制造巨头们通过巨额研发投入,持续保持了每一代产品的技术领先。在这个过程中,性能提升会越来越难,其带来的收入增长和所需巨额研发成本往往是不匹配的,这构成了半导体制造的极高的壁垒。

但这样的情况并不会出现在生成式AI的模型层,原因有两点:

一是软件相比硬件更难保持技术的长期领先。目前,大模型的投入成本主要在训练成本,但训练成本相比造芯片动辄几十亿的投入相比还是小巫见大巫。这也能从国内外大模型发展看出。尽管国内与国外大模型仍有明显差距,但相比年初差距已有明显缩短。

二是相比消费者对手机和PC「性能」的无限需求,在很多场景下,用户对生成式AI的智能化程度呈现边际递减的。也就是说,所有场景对生成式AI性能的要求并不是无限的。

既然模型层逻辑跑不通,但要说应用层公司有很大机会,也未必。原因在于,大模型逻辑下,产品体验与控制模型高度绑定,且数据反馈对模型改进至关重要。在这种情况下,你很难相信一个高度依赖大模型厂商的应用层公司。而对应用层公司来说,把自身高质量数据完全交给大模型厂商去进行迭代,本身也是一件风险极高的事情。

从这个角度上说,无论是模型层还是应用层公司都有各自的问题,同时占据模型层和应用层的全栈公司或许才有捕获最大价值的可能。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

2024年的生成式AI,到底该投什么?

在模型、算力、生态推动下,AI应用正在进入大爆发时代。

图片来源:界面新闻 匡达

文|读懂财经

随着AI故事的演进,一个重要问题逐渐摆在了投资人面前:生成式AI到底应该投什么?想要回答这个问题,我们不妨看看移动互联网的发展历史。

在很多人看来,生成式AI的机会有点像移动互联网。回顾移动互联网的发展,大概有三个关键阶段:2007 年,iPhone 1 发布,至此移动互联网开始正式启航;2010 年,iPhone 4 发布,奠定了移动互联网的基本框架;2012 年,移动互联网的应用开始爆发,字节、滴滴、小红书纷纷成立。

从逻辑上讲,GPT 3.5 的发布,更像是 AI界的iPhone 1时刻,发展方向已经明确,但产业框架尚不清晰。这样的混沌也一定程度上增加了投资的难度,甚至会出现不少的投资“陷阱”。

这样的事情在移动互联网时代同样发生。在移动互联网早期,“手电筒”等工具类产品以及应用商店曾经吸引了不少投资人的押注。后来的事实证明,这不过是移动互联网的投资“陷阱”。

如何寻找移动互联网的投资机会?五源资本的方法或许值得大家参考。

根据五源资本刘芹此前对移动互联网的分析:手机具备了PC的特点。但是,手机还有三个非常重要的东西,是PC上没有的:1)手机上有位置的参数;2)手机里面有通讯录;3)手机有摄像头,有外放设备。沿着这个逻辑,五源资本得出一个结论:下一代杀手级的应用是移动的、社交的和富媒体化的。

沿着这个逻辑,当我们在寻找生成式AI的投资机会,倒不如多问自己几句:什么能力是生成式AI独有,而以前不具备的?

01 大模型进入应用时刻

2023年是大模型真正破圈的一年。回顾本轮生成式AI的突破,来自于底层大模型的持续进化。GPT 作为当前全球最强大的语言大模型,从2018年5月GPT初代版本,到2023年3月的 GPT-4,仅5年时间模型的性能就产生了质的飞跃。

从目前看, GPT 模型快速进化的原因主要有两个:

一是训练方法的持续迭代,从 GPT-1 的半监督式学习,到 GPT-2 舍弃了微调阶段,再到 GPT-3 的 In-context 学习和海量参数,以及引入了基于人工反馈的强化学习之后的ChatGPT。

二是在模型参数规模扩大背后,是 OpenAI 对研发和算力的持续高投入,通过“大力出奇迹”的方式,支撑了模型参数和训练数据的快速膨胀。

随着大模型以及 ChatGPT 等一系列“杀手级”应用的诞生,生成式 AI 在文本、图像、代码、音频、视频和 3D 模型等领域展现出了强大的能力。

今年3月,微软发布了基于GPT-4的AI办公助手office Copilot,此后包括企业服务、营销、低代码、安全、教育、医疗、金融等领域的AI应用开始陆续发布。7 月份,Microsoft 365 Copilot 公布定价,为每个用户 30 美元/月,同时全球CRM龙头 Salesforce 宣布正式向所有用户开放AI产品,并给出了单个产品每用户每月50美元的定价。随着两大软件巨头AI功能定价发布,AI 应用将正式进入商业化落地阶段。

生成式 AI的应用不止停留在B端,C端的落地速度同样可观。11 月 29 日,成立仅半年的 AI 初创公司 Pika 正式推出 AI 视频生成工具 Pika1.0,同日公司宣布获得 5500 万美元的融资,当前估值 2.5 亿美元。

Pika的特点在于,能够实现从普通 2D 动画到实拍感的电影场景、3D 动画全面 覆盖,还能够支持对视频实时编辑和修改,其中生成的视频在光影、动作流畅度等方面甚至都不输好莱坞动画电影级别。

种种迹象显示,在模型、算力、生态推动下,AI 应用正在进入大爆发时代。

02 资本纷纷押注大模型基础设施

生成式AI的高速增长,也引爆了相关领域的投资。

从一级市场看,截至8月底,GitHub 上 AI 开源项目数量达到了 91 万,相较于去年全年的增幅达到 264%。根据Replit的数据,23年二季度AI项目环比增速达 80%,相较于去年同期同比增长了34倍。

从去向看,大部分生成式 AI 项目还处在早期,大部分资金投向了包括大模型开发在内 AI 基础设施层, 而应用层资金流向仅占三成。

其中,基础设施层的投资集中度相对较高。自22年第三季度以来,AI基础设施层,在投融资的数量仅占总数的 10%的情况下,投融资的金额占据生成式AI融资金额的70%以上,这也体现了基础设施层资金密集型的特点。

在应用层,通用AI应用占大多数绝对主导,占比达 65%。相比之下,垂直行业应用目前无论投融资的数量还是金额都要远低 于通用型应用。

从二级市场看,AI 算力基础设施层公司率先受益于 AI 产业浪潮,其中英伟达是 AI“掘金买铲”逻辑的核心受益者,其次为微软、Google、AWS、Oracle 等头部云服务厂商和大模型厂商。

原因在于,在当下的生成式AI产业链里,基础设施层是最确定的环节。根据海外风险投资机构 Andressen Horowitz 的粗略估算,应用厂商平均需要将 20-40%的收入支付给云服务商或大模型厂商,同时大模型厂商通常也会将近一半收入用于支付云基础架构。也就是说,当前生成式AI总收益的10-20%流向了云服务商。

在硬件层面,英伟达是最受益的标的,其主力 AI 芯片 A100、 H100 承载了绝大多数 AI 模型训练与开发,占据 AI 服务器硬件成本的近 90%。

尽管AI 应用仍然处于早期,且应用层从商业化以及兑现时间会落后于基础设施层几个季度,但今年以来头部应用厂商股价同样也有所演绎。今年年初至今,Palantir、Salesforce、Shopify等应用层公司也都有着不错的涨幅。

随着后续越来越多的AI应用厂商进入到实质性商业化阶段,AI领域的投资也将进入更加复杂的阶段。

03 寻找生成式AI的投资脉络

在信息技术脉络里,软件和硬件呈现了完全不同的发展轨迹。在软件行业,只有直接掌控用户和数据资产的平台型应用才是最终的赢家。而在半导体行业,比下游直接面向用户的电子产品公司有更高的集中度,高通、台积电和英特尔在各自领域都有极强的话语权。

换言之,AI世界的演进路径会更接近半导体还是互联网行业,意味着最大的蛋糕到底会出现在模型层还是产品层?在回答这个问题前,我们先来看下AI与上述两个领域究竟有何不同。

与很多行业不同,半导体行业的发展逻辑来自消费市场对性能永无止境的需求,并最终演化为摩尔定律。这迫使制造巨头们通过巨额研发投入,持续保持了每一代产品的技术领先。在这个过程中,性能提升会越来越难,其带来的收入增长和所需巨额研发成本往往是不匹配的,这构成了半导体制造的极高的壁垒。

但这样的情况并不会出现在生成式AI的模型层,原因有两点:

一是软件相比硬件更难保持技术的长期领先。目前,大模型的投入成本主要在训练成本,但训练成本相比造芯片动辄几十亿的投入相比还是小巫见大巫。这也能从国内外大模型发展看出。尽管国内与国外大模型仍有明显差距,但相比年初差距已有明显缩短。

二是相比消费者对手机和PC「性能」的无限需求,在很多场景下,用户对生成式AI的智能化程度呈现边际递减的。也就是说,所有场景对生成式AI性能的要求并不是无限的。

既然模型层逻辑跑不通,但要说应用层公司有很大机会,也未必。原因在于,大模型逻辑下,产品体验与控制模型高度绑定,且数据反馈对模型改进至关重要。在这种情况下,你很难相信一个高度依赖大模型厂商的应用层公司。而对应用层公司来说,把自身高质量数据完全交给大模型厂商去进行迭代,本身也是一件风险极高的事情。

从这个角度上说,无论是模型层还是应用层公司都有各自的问题,同时占据模型层和应用层的全栈公司或许才有捕获最大价值的可能。

本文为转载内容,授权事宜请联系原著作权人。