文|猎云网 王非
大模型领域,一家“隐形独角兽”,正在悄然成长。
紧随红杉、金沙江、徐汇资本之后,百度、腾讯、智谱AI、经纬、真格等近日入股了一家大模型算力公司——无问芯穹(Infinigence-AI),投资阵容堪称豪华。
这家成立于今年5月的新公司,由清华大学电子工程系系主任汪玉教授坐镇,也是他继深鉴科技创业成功后的再次出发,自然引发了外界的广泛关注。
与汪玉携手创业的依然是他的学生曾书霖、戴国浩等人,而这也意味着,清华系在大模型领域占据半壁江山后,“再下一城”。
针对融资细节、公司架构等相关问题,猎云网向公司法人曾书霖求证,无问芯穹方面表示:“当前无穹融资具体信息不方便透露,一切以官方对外发布过的信息为准;组织架构信息同样,也暂不方便透露。”
值得一提的是,作为上海“土生土长”的创业公司,无问芯穹已经与徐汇区完成了相关项目的签约。
而在技术积累上,无问芯穹参与完成的新研究,也已经助力其刷新了大模型优化纪录。
红杉打头阵,腾讯百度经纬真格等携手入局
目前,无问芯穹并未官宣过融资。但此前有市场消息称,该公司已经完成两轮融资,领投方为红杉,跟投方有经纬、徐汇资本等。
工商变更记录显示,早在今年6月,即无问芯穹创立的第二个月,红杉就通过旗下红创科兴(宁波)科技有限公司(下称:红创科兴),出现在了北京无问芯穹的投资人列表,此次变更为“退出”,或为后续转向上海无问芯穹做准备。
随后在今年9月,在目前无问芯穹的主体——上海无问芯穹中,红创科兴初次现身,并已是该公司的投资人。
也正是在此时,无问芯穹正式完成了真正意义上的的第一轮融资。
来源:天眼查
在这一轮投资人(股权)变更中,红杉又通过厦门红杉雅恒股权投资合伙企业(有限合伙),加入了无问芯穹投资行列。
与红杉同时入股的还包括金沙江、徐汇资本、无限基金。
值得一提的是,金沙江早在深鉴科技创业时,就曾连续参与过后者的天使轮和A轮融资。此次早早入股无问芯穹,也是金沙江再次押注汪玉。
而徐汇资本的入股,或许早在7月份上海徐汇区与无问芯穹完成相关项目的签约时,就已埋下了伏笔。
最新持股情况显示,上海无问长庚企业管理合伙企业(有限合伙)为无问芯穹的大股东,直接持股约15.220%。
而红杉共持有无问芯穹约10.722%股份,系最大外部机构股东;此外,徐汇资本持股约2.315%,金沙江与无限基金均持股约1.286%。
短短两个多月后,无问芯穹于11月30日进行了第二次投资人(股权)变更,股东新增腾讯、百度、经纬、真格、启明创投、智谱AI等,投资阵容更加强大。
来源:天眼查
最新持股情况显示,腾讯、百度、经纬、真格的持股比例及最终受益股份均为1.952%;智谱AI持股比例及最终受益股份则均为0.651%。
今年以来,BAT三家在大模型领域的投资时有交叉,生数科技吸引了阿里和百度的入股,智谱AI则获得了阿里和腾讯的支持。此次投资无问芯穹,或为腾讯和百度在大模型领域的首次联手。
值得一提的是,智谱AI今年以来已经投资了7家公司,包括聆心智能、面壁智能、幂律智能、集异璧等大模型相关公司。此次入股无问芯穹,或许与该公司10月份发布的Z计划有关系,该计划旨在为大模型创业者提供投资+技术支持,而无问芯穹也正是智谱AI发布Z计划后投资的首家大模型相关公司。
投资人变更的同时,无问芯穹还新增了多位主要人员。董事备案一栏显示,在公元、曾书霖、戴国浩的基础上,无问芯穹新增周志峰、熊乔乔、曹曦、颜深根为董事。
其中,熊乔乔最早作为监事出现,目前已变更为李伯勋。
值得一提的是,熊乔乔也是无问芯穹的最大受益所有人,最终受益股份约27.487%。
来源:天眼查
此外,戴国浩与颜深根,分别持有无问芯穹8.528%股份。前者的最终受益股份更是高达22.404%,仅次于熊乔乔,后者的最终受益股份则为8.528%。
清华系主任坐镇,“产学结合,师生联手”2.0
红杉早早入局,金沙江继续押注,腾讯百度经纬真格等一众互联网大厂和头部VC云集而至,与汪玉有着莫大关系。
天眼查App显示,在核心成员一栏中,无问芯穹创始人为汪玉。
汪玉于1998年入学清华,本硕博均在清华,自2007年开始留校任教。他是清华电子工程系首位80后系主任,也是该系创办以来第二年轻系主任。
来源:清华大学电子工程系
汪玉长期从事智能芯片、高能效电路与系统研究,曾多次在顶会拿下最佳论文奖,共发表IEEE/ACM杂志文章50余篇,谷歌学术引用17000余次。
2016年1月,以汪玉为负责人的深度学习处理器项目,通过清华大学电子信息学院论证并获得支持。之后,项目团队以研究成果“卷积神经网络的逐层变精度定点化方法及装置”作价入股AI芯片公司深鉴科技,进行产业化运营。
汪玉的学生,姚颂、单羿正是深鉴科技的创始成员,这也是他首次与学生携手创业。
2018年,深鉴科技被FPGA厂商赛灵思收购。汪玉与合伙人旋即,共同向母校清华大学捐赠了500万美元。
此次创办无问芯穹,也是汪玉继深鉴科技后,又一次“产学结合,师生联手”。目前公开的两名学生,分别为曾书霖和戴国浩。
首先,曾书霖是北京无问芯穹(成立于5月8日)、上海无问芯穹(成立于5月31日)这两家公司的法定代表人。在无问芯穹核心成员一栏中,他仅作为执行董事&总经理出现。但在主要人员列表中,他的职位是董事长、总经理、财务负责人。
公开资料显示,2014年,来自广西南宁的“数学学霸”曾书霖顺利进入清华大学电子工程系。2018年,他开启了博士学位学习生涯,导师就是汪玉,主要研究方向是基于FPGA的神经网络加速器设计、软硬件协同优化、云端硬件虚拟化、大规模异构计算等。
2017-2019年,曾书霖曾在深鉴FPGA硬件组当过两年实习生,于是此次共同创办无问芯穹,也是他和导师的再次携手。
其次,戴国浩虽未出现在核心成员,但却是无问芯穹受益股份达22.404%的大股东之一,仅次于熊乔乔的27.487%。
2014年和2019年,戴国浩先后获得清华大学电子工程系工学学士和博士学位。博士期间,汪玉正是戴国浩博士毕业论文指导老师。
目前,戴国浩是上海交通大学长聘教轨副教授,还是清源研究院定制计算中心共同负责人、人工智能设计自动化创新实验室负责人。
来源:上海交通大学
据悉,此次创办无问芯穹,汪玉的合作伙伴还包括北京大学科研副教授、商汤原数据与计算平台部执行总监、小红书原AI平台部负责人颜深根等。
需要注意的是,12月18日,在以“让算力更自由”为主题的首届AI Tech Day(AI 嘉年华)上,夏立雪将以无问芯穹创始人的身份出席,并发表《模型推理加速,释放算力潜力》主题演讲。
目前,网络上关于夏立雪的消息并不多。在今年4月的《清华112周年校庆电子系校友返校论坛》上,他作为电子系2009级毕业10周年校友代表作了相关发言。而在今年8月常德全媒公众号的一篇文章中,他曾以无问芯穹CEO身份出现,但在后续推文修改后,已无此描述。
同样是在“AI 嘉年华”上,汪玉也将现身以《自主可控的AGI产业发展与布局,让算力更自由》为主题的圆桌论坛环节。但他的介绍里并未提及无问芯穹,仅显示为“清华大学电子系主任”。
做大模型基础设施,加速大模型落地最后一公里
与市场上大多数通用或专用大模型公司不同,无问芯穹另辟蹊径,走得是一条服务大模型公司的“大路”。
据介绍,无问芯穹以无穹大模型能效优化工具包为基础,整合国产芯片算力, 构建统一算力底座。在AI大模型多样、算力多样的分散行业格局下,构建连接模型和算力的M*N中间层。通过模型层、系统层、硬件层的跨层协同优化,发挥各类算力硬件的效率,助力大模型应用落地。
具体而言,无问芯穹主要提供智算云服务、智算一体机、大模型能效优化工具包等解决方案。同时,公司还自研了行业大模型,包括政务大模型、法律大模型、证券大模型等。
解决什么痛点?无问芯穹商业化副总裁李枫在9月及11月份的相关活动中做过详细分享——《加速大模型落地最后一公里》。
据李枫介绍,为了解决模型和算力之间的瓶颈,无问芯穹致力于提供大模型软硬一体化自动化优化方案。向上,我们服务多家大模型算法企业;向下,我们联动多家国产芯片公司。产品上,我们实现了大模型在多种硬件上的M×N一键部署平台,降低大模型的使用门槛,让模型部署越快越好,真正成为AI 2.0时代大模型的基础设施。
为了助力 AI 2.0 时代大模型落地,无问芯穹着力于解决四个痛点需求。
1.支持长文本或大输入:比如之前支持 2K token 的模型,我们可以用快速推理和训练,使它支持 32K token,我们就可以做好例如专业长文本的信息检索、生成、会议聊天助手等应用;
2.提升性价比:我们把语言和多模态生成模型部署到消费级显卡,甚至手机等终端设备上,让广大客户用得起;
3.垂直领域适配:用大模型通用能力帮助各行各业的人们提升体验和效率;
4.一键式部署:让大模型能低人力成本被部署到各种场景,让每个工厂、学校、家庭甚至个人都能用到它的能力。
无问芯穹希望实现“大模型用得好、用得起、用得广、愿意用”的目标,加速大模型落地最后一公里。
来源:青云科技
作为上海“土生土长”的创业公司,创立仅两月,无问芯穹就在今年7月的2023世界人工智能大会上,正式首次亮相。
据上海徐汇公众号文章,徐汇区委常委、副区长俞林伟代表徐汇,与无问芯穹进行了签约。双方签约项目为无问芯穹大模型软硬件协同优化平台,旨在解决大模型算法向大算力芯片的高效统一部署问题,建设面向大模型的M×N算法-芯片联合优化平台,其中M层支撑多种大模型算法、N层连接多种大算力芯片,提升大模型到国产芯片平台的部署效率,实现在不同国产芯片上的“高效”“统一”部署。
在无问芯穹11月份发布的公众号文章中,也提到了公司的最新进展。
据介绍,来自无问芯穹、清华大学和上海交通大学的联合团队提出了一种新方法FlashDecoding++,可以将GPU推理提速2-4倍,同时支持英伟达和AMD的GPU。
目前,FlashDecoding++已被集成于无问芯穹的大模型计算引擎Infini-ACC中。在Infini-ACC的支持下,无问芯穹正在开发一系列大模型软硬件一体化的解决方案,其中包含大模型无穹天权(Infini-Megrez)、软硬件一体机等。
据了解,Infini-Megrez在处理长文本方面表现非常出色,将可处理的文本长度破纪录地提升到了256k token,也是当前大模型所能处理的最长文本长度。
来源:无问芯穹
此外,Infini-Megrez大模型在 CEval(中)、MMLU(英)、CMMLU(中)、AGIEval等数据集上均取得了第一梯队算法性能,并依托Infini-ACC计算引擎持续进化中。
评论