正在阅读:

十年,谷歌是如何在聊天机器人竞赛中落后微软的?

扫一扫下载界面新闻APP

十年,谷歌是如何在聊天机器人竞赛中落后微软的?

谷歌对AI太过谨慎,给了微软可乘之机。

编译|智东西 吴菲凝

编辑|李水青

智东西3月9日报道,近日,外媒华尔街日报记者迈尔斯·库卢帕(Miles Kruppa)和萨姆·谢克纳(Sam Schechner)深度挖掘了谷歌聊天机器人的发展历程,研发时间竟然已经长达十年之久。在此期间,该项目更是经历了反复审查失败、多次更名和多位核心人员离职等波折。

谷歌的聊天机器人投入可以追溯到2013年,而后研发出一款名为Meena的聊天机器人,但直至2020年才以LaMDA新名称在一篇论文中得以披露进展,至今产品仍未公开发布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走红之后,谷歌匆忙公开了自己名为Bard的聊天机器人,但其却在公开展示视频中意外“翻车”。

华尔街日报两名记者认为,谷歌此前对待AI的态度太过于谨慎,以至于现在陷到一个“起大早,赶晚集”的尴尬境地,为竞争对手微软提供了可乘之机。

在谷歌内部,高管们认为,谷歌必须保证AI技术足够安全才能够推向公众。

01 两年前聊天机器人已面世,因安全问题隐而未发

谷歌的两位研究人员丹尼尔·德·弗雷塔斯(Daniel De Freitas)和诺姆·沙泽尔(Noam Shazeer)从2013年就已开始投入聊天机器人Meena的研发,据称所使用的技术远胜于当时其他任何技术。他们开发出的对话式计算机程序可以像人一样自信地谈论哲学,还能即兴创作出一些双关语。

据知情人士透露,这两位研究人员向同事们称,聊天机器人在AI的不断进步的推动下,未来将彻底颠覆人们使用搜索引擎和与计算机交互的方式。

他们敦促谷歌向外部研究人员提供Meena的访问权限,试图将其集成到Google Assistant智能助手中,还要求谷歌公开演示这款机器人。

但谷歌高管多次明确拒绝了他们,高管认为该计划不符合公司对AI系统安全性和公平性的标准。

谷歌这种拒绝公开发布的谨慎态度,主要是由于长年以来外界对于公司在AI方面的争议。从关于AI的准确性和公正性的内部争论,再到公司去年公开解雇了一名声称AI已经获得人类感知的员工,谷歌一直处于舆论的风口浪尖之上。

据前员工以及其他知情人士透露,长久以来的一系列事件让高管们担心公开演示AI产品可能对公司声誉和搜索广告业务构成风险。据悉,谷歌母公司Alphabet去年营收近2830亿美元,其中大部分收入来自搜索引擎广告投放业务。

前谷歌产品经理高拉夫·内马德(Gaurav Nemade)说:“谷歌正在努力在承担风险和保持全球领导地位之间找到平衡。”

谷歌的谨慎态度如今看来是明智之举。二月份时微软曾宣布,针对于聊天机器人发表敏感言论的用户报告反馈,未来将对机器人施加更多新限制。微软高层解释,当应用程序运转到难以负荷时,它可能会出现“精神错乱”的现象。

在上月一封发给全体员工的邮件中,Alphabet和谷歌的首席执行官桑达尔·皮查伊(Sundar Pichai)称:“一些最成功的产品并不是第一个推向市场,但却能慢慢赢得用户的信任。”他写道,“这将是一段漫长的旅程——对每个人来说,都是如此。我们现在能做的最重要的事情是专注于打造一款伟大的产品,并负责任地开发它。”

02 十年秘密研发:多次审查不过、内部禁止,最终改名

谷歌在聊天机器人方面做出的努力可以追溯到2013年。

时任谷歌联合创始人兼首席执行官的拉里·佩奇(Larry Page)聘请了计算机科学家雷·库兹韦尔(Ray Kurzweil),库兹帮谷歌推出了一个前所未有的概念“技术奇点”:即机器终有一天将超越人类的智慧。

此外,谷歌还收购了英国人工智能公司DeepMind,该公司同样致力于创建通用AI或可以反映人类心理能力的软件。

但与此同时,学者和技术专家开始对AI提出担忧,比如它有可能通过面部识别软件实现大规模监控,他们开始向谷歌等科技公司施压,要求他们承诺不会将某些技术用作非法途径。

2015年,包括马斯克在内的一群科技企业家和投资者成立了OpenAI,其中有一部分原因是为了打压谷歌在AI领域日渐攀升的地位。OpenAI最初是一家非营利组织,它希望确保AI不会成为企业利益的牺牲品,而是用于造福人类。

此前,谷歌与美国国防部拟定的一项名为“Project Maven”的合同遭到了员工的强烈反对,因为该合同涉及到使用AI自动识别并跟踪潜在的无人机,谷歌最终放弃了这个项目。直至2018年,谷歌宣布承认不会将AI技术应用于军事武器制造方面。

除此之外,CEO皮查伊还宣布了一套指导谷歌运作的7项AI原则,旨在限制不公正技术的传播,比如人工智能工具应该对人负责,并“为安全而构建和测试”。

多年来,谷歌这款名为Meena的聊天机器人项目一直处于保密状态中。一部分内部员工对这类程序的风险表示担忧,因为2016年时微软曾因为一款名为Tay聊天机器人的误导性回答,最终被迫终止公开发布。

直至2020年,外界才对Meena有所了解。在谷歌发布的一项研究论文当中称,Meena已经从公开的社交媒体对话中学习了近400亿个单词。而竞争对手OpenAI同样开发了一个基于800万个网页的类似模型GPT-8。

在谷歌,Meena背后的团队也希望能早日发布他们的工具,即使只是像OpenAI那样以有限的格式发布。但谷歌高管们多次拒绝了这一提议,据前谷歌产品经理内马德称,他们给出的理由是聊天机器人不符合谷歌关于安全和公平的AI原则。

谷歌发言人称,多年来,Meena经过了无数次审查,但一直因为各种原因而被禁止进行更广泛的发布。Google Brain人工智能研究部门的软件工程师沙泽尔加入了这个项目,他们将Meena更名为LaMDA,意为“用于对话应用程序的语言模型”。团队还为赋予了LaMDA更多的数据和计算能力。

然而,他们的技术很快引发了广泛争议。谷歌著名的AI伦理研究员蒂姆尼特·格布鲁(Timnit Gebru)在2020年底公开宣称,她因拒绝撤回一篇关于LaMDA等项目固有风险的研究论文而被解雇。谷歌则澄清该员工并未被解雇,并声称她的研究不够严谨。

谷歌研究主管杰夫·迪恩(Jeff Dean)称,谷歌将继续投资对大众负责的AI项目。

2021年5月,公司公开承诺会将AI道德小组的规模扩大一倍。

在一周后,皮查伊在公司年会上登台,展示了两段预先录制的与LaMDA的对话,LaMDA根据命令对问题作出回应。据知情人士称,谷歌研究人员在会议召开前几天准备了这些问答案例,并在最后一刻向皮查伊演示。谷歌一再强调自身将努力使聊天机器人更加准确,并最大限度地减少其被滥用的机会。

谷歌的两位副总裁当时在一篇博客文章中写道:“在创建像LaMDA这样的技术时,我们的首要任务是努力确保将风险降至最低。”

03 核心人员离职、工程师被解雇,微软ChatGPT背刺谷歌

2020年时,弗里塔斯和沙泽尔还在研究如何将LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手机Pixel和家庭音箱系统上首次推出的一款软件应用程序,每月有超过5亿人使用Google Assistant来执行一些基础任务,比如查看天气和安排约会。

知情人士称,谷歌不愿向公众发布LaMDA的决定让弗雷塔斯和沙泽尔感到沮丧,他们决定离开公司,并使用类似技术建立一家自己的初创公司。中途皮查伊多次干预,要求两人留下来继续研究LaMDA,但却没有向他们承诺何时将会发布。

2021年,弗雷塔斯和沙泽尔正式离开谷歌,并于当年11月成立了初创公司Character Technologies。他们研发的AI软件Character于2022年正式发布,该软件允许用户创建聊天机器人并与之互动,机器人甚至可以以苏格拉底等知名人物的口吻与用户对话。

“这款软件的发布在谷歌内部引起了一些轰动。”沙泽尔在YouTube的一段采访中称。在他看来,作为一家小初创公司来推出这款软件可能更加幸运。

2022年5月,谷歌考虑在当月的旗舰会议上发布LaMDA。而据谷歌解雇的一名工程师布莱克·勒莫因(Blake Lemoine)后来透露,被解雇是因为他在社交平台上发布了与聊天机器人的对话,并声称它是有知觉的。

在勒莫因发布的内容引发广泛争议之后,谷歌取消了原本的发布安排。谷歌表示,勒莫因的公开披露违反了就业和数据安全政策,因此公司需要做出保守起见的安排。

自从微软与OpenAI达成新协议以来,谷歌一直在努力向大众展示自己作为AI创造者的行业地位。

在今年ChatGPT首次亮相后,谷歌也准备公开发布自己的聊天机器人Bard,该机器人部分技术基于弗雷塔斯和沙泽尔当年的研究,它搜集从网络中获取的信息,再以对话形式回答问题。谷歌在一次公开活动中表明,原计划是想对Bard的区域性搜索功能更进一步的探讨,让媒体和公众对Bard有新的认识,知晓它是一个使用类似LaMDA的AI技术来回应输入文本的搜索工具。

据谷歌高层称,谷歌经常会重新评估发布一款产品的条件,但由于现在面临太多的外界刺激,才在一个并不十全十美的情况下发布。

谷歌搜索副总裁伊丽莎白·里德(Elizabeth Reid)在接受采访时称,自去年年初以来,谷歌也对搜索产品进行了内部演示,这些产品也整合了LaMDA等生成式AI的响应。

谷歌认为生成式AI最有用的搜索用途之一,是在没有标准正确答案下进行的问题搜索,他们将其称为“NORA”。里德说,传统的搜索功能可能已经满足不了现在的用户了,谷歌还看到了其他复杂搜索的潜在可能,比如说解一个数学题。

高管们说,和其它类似项目一样,最大的问题是它的准确性。使用这些搜索工具的人说,基于LaMDA技术构建的工具在某些情况下会给出一些偏离主题的回答。

同样,微软新版Bing在上个月已经发布,对于此前用户报告的与聊天机器人之间产生的令人不安的对话,将会通过限制聊天时间的方式来减少机器人发出攻击性或令人毛骨悚然的反应的机会。

谷歌和微软都承认自己的聊天机器人还存在很多不准确的地方。

在谈到像LaMDA这样的语言模型时,里德认为像是“在和一个孩子说话”,当一个小孩子给不出大人想要的答案时,他会编造出一个听上去合理的答案来应对。

谷歌未来还将继续微调其模型,包括训练模型承认自己不知道答案而不是编一个。

04 结语:AI领导者谷歌首战失意,微软略占上风

谷歌聊天机器人的研发自2013年起步,2017年时已实现了重大的技术突破——神经网络系统Transformer,这也是ChatGPT所用到的底层技术,随后又发布了预训练大模型BERT;21年,微软发布了ChatGPT的前身GPT-3,谷歌紧接着发布了预训练模型LaMDA,展示出自然的对话能力;如今,Bard也即将依托LaMDA的轻量级模型版本发布,谷歌在与微软的较量中加快步伐。

长期以来的舆论压力、层层加压的安全审查,以及裁员后严重的人才流失情况,让谷歌进入到一个短暂的业务疲软时期,整体业绩下滑。但从长期来看,谷歌并未输掉这场巨头之争,它所拥有的LLM(语言大模型)团队和定制芯片,在市场上难寻敌手。

与此同时,我们也不难发现,大模型和生成式AI的产业落地必然是场艰难长跑,巨头们在技术、产品、生态、安全等多方面面临的压力重重,随着生成式AI大规模接入应用程序当中,稳定性和可靠性也将成为用户更看中的评判标准,也更考验各家基础设施的能力。

本文为转载内容,授权事宜请联系原著作权人。

谷歌

6.4k
  • 谷歌推出一款类似OpenAI o1的推理模型
  • 越发真假难辨?谷歌推出新一代视频生成模型Veo 2

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

十年,谷歌是如何在聊天机器人竞赛中落后微软的?

谷歌对AI太过谨慎,给了微软可乘之机。

编译|智东西 吴菲凝

编辑|李水青

智东西3月9日报道,近日,外媒华尔街日报记者迈尔斯·库卢帕(Miles Kruppa)和萨姆·谢克纳(Sam Schechner)深度挖掘了谷歌聊天机器人的发展历程,研发时间竟然已经长达十年之久。在此期间,该项目更是经历了反复审查失败、多次更名和多位核心人员离职等波折。

谷歌的聊天机器人投入可以追溯到2013年,而后研发出一款名为Meena的聊天机器人,但直至2020年才以LaMDA新名称在一篇论文中得以披露进展,至今产品仍未公开发布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走红之后,谷歌匆忙公开了自己名为Bard的聊天机器人,但其却在公开展示视频中意外“翻车”。

华尔街日报两名记者认为,谷歌此前对待AI的态度太过于谨慎,以至于现在陷到一个“起大早,赶晚集”的尴尬境地,为竞争对手微软提供了可乘之机。

在谷歌内部,高管们认为,谷歌必须保证AI技术足够安全才能够推向公众。

01 两年前聊天机器人已面世,因安全问题隐而未发

谷歌的两位研究人员丹尼尔·德·弗雷塔斯(Daniel De Freitas)和诺姆·沙泽尔(Noam Shazeer)从2013年就已开始投入聊天机器人Meena的研发,据称所使用的技术远胜于当时其他任何技术。他们开发出的对话式计算机程序可以像人一样自信地谈论哲学,还能即兴创作出一些双关语。

据知情人士透露,这两位研究人员向同事们称,聊天机器人在AI的不断进步的推动下,未来将彻底颠覆人们使用搜索引擎和与计算机交互的方式。

他们敦促谷歌向外部研究人员提供Meena的访问权限,试图将其集成到Google Assistant智能助手中,还要求谷歌公开演示这款机器人。

但谷歌高管多次明确拒绝了他们,高管认为该计划不符合公司对AI系统安全性和公平性的标准。

谷歌这种拒绝公开发布的谨慎态度,主要是由于长年以来外界对于公司在AI方面的争议。从关于AI的准确性和公正性的内部争论,再到公司去年公开解雇了一名声称AI已经获得人类感知的员工,谷歌一直处于舆论的风口浪尖之上。

据前员工以及其他知情人士透露,长久以来的一系列事件让高管们担心公开演示AI产品可能对公司声誉和搜索广告业务构成风险。据悉,谷歌母公司Alphabet去年营收近2830亿美元,其中大部分收入来自搜索引擎广告投放业务。

前谷歌产品经理高拉夫·内马德(Gaurav Nemade)说:“谷歌正在努力在承担风险和保持全球领导地位之间找到平衡。”

谷歌的谨慎态度如今看来是明智之举。二月份时微软曾宣布,针对于聊天机器人发表敏感言论的用户报告反馈,未来将对机器人施加更多新限制。微软高层解释,当应用程序运转到难以负荷时,它可能会出现“精神错乱”的现象。

在上月一封发给全体员工的邮件中,Alphabet和谷歌的首席执行官桑达尔·皮查伊(Sundar Pichai)称:“一些最成功的产品并不是第一个推向市场,但却能慢慢赢得用户的信任。”他写道,“这将是一段漫长的旅程——对每个人来说,都是如此。我们现在能做的最重要的事情是专注于打造一款伟大的产品,并负责任地开发它。”

02 十年秘密研发:多次审查不过、内部禁止,最终改名

谷歌在聊天机器人方面做出的努力可以追溯到2013年。

时任谷歌联合创始人兼首席执行官的拉里·佩奇(Larry Page)聘请了计算机科学家雷·库兹韦尔(Ray Kurzweil),库兹帮谷歌推出了一个前所未有的概念“技术奇点”:即机器终有一天将超越人类的智慧。

此外,谷歌还收购了英国人工智能公司DeepMind,该公司同样致力于创建通用AI或可以反映人类心理能力的软件。

但与此同时,学者和技术专家开始对AI提出担忧,比如它有可能通过面部识别软件实现大规模监控,他们开始向谷歌等科技公司施压,要求他们承诺不会将某些技术用作非法途径。

2015年,包括马斯克在内的一群科技企业家和投资者成立了OpenAI,其中有一部分原因是为了打压谷歌在AI领域日渐攀升的地位。OpenAI最初是一家非营利组织,它希望确保AI不会成为企业利益的牺牲品,而是用于造福人类。

此前,谷歌与美国国防部拟定的一项名为“Project Maven”的合同遭到了员工的强烈反对,因为该合同涉及到使用AI自动识别并跟踪潜在的无人机,谷歌最终放弃了这个项目。直至2018年,谷歌宣布承认不会将AI技术应用于军事武器制造方面。

除此之外,CEO皮查伊还宣布了一套指导谷歌运作的7项AI原则,旨在限制不公正技术的传播,比如人工智能工具应该对人负责,并“为安全而构建和测试”。

多年来,谷歌这款名为Meena的聊天机器人项目一直处于保密状态中。一部分内部员工对这类程序的风险表示担忧,因为2016年时微软曾因为一款名为Tay聊天机器人的误导性回答,最终被迫终止公开发布。

直至2020年,外界才对Meena有所了解。在谷歌发布的一项研究论文当中称,Meena已经从公开的社交媒体对话中学习了近400亿个单词。而竞争对手OpenAI同样开发了一个基于800万个网页的类似模型GPT-8。

在谷歌,Meena背后的团队也希望能早日发布他们的工具,即使只是像OpenAI那样以有限的格式发布。但谷歌高管们多次拒绝了这一提议,据前谷歌产品经理内马德称,他们给出的理由是聊天机器人不符合谷歌关于安全和公平的AI原则。

谷歌发言人称,多年来,Meena经过了无数次审查,但一直因为各种原因而被禁止进行更广泛的发布。Google Brain人工智能研究部门的软件工程师沙泽尔加入了这个项目,他们将Meena更名为LaMDA,意为“用于对话应用程序的语言模型”。团队还为赋予了LaMDA更多的数据和计算能力。

然而,他们的技术很快引发了广泛争议。谷歌著名的AI伦理研究员蒂姆尼特·格布鲁(Timnit Gebru)在2020年底公开宣称,她因拒绝撤回一篇关于LaMDA等项目固有风险的研究论文而被解雇。谷歌则澄清该员工并未被解雇,并声称她的研究不够严谨。

谷歌研究主管杰夫·迪恩(Jeff Dean)称,谷歌将继续投资对大众负责的AI项目。

2021年5月,公司公开承诺会将AI道德小组的规模扩大一倍。

在一周后,皮查伊在公司年会上登台,展示了两段预先录制的与LaMDA的对话,LaMDA根据命令对问题作出回应。据知情人士称,谷歌研究人员在会议召开前几天准备了这些问答案例,并在最后一刻向皮查伊演示。谷歌一再强调自身将努力使聊天机器人更加准确,并最大限度地减少其被滥用的机会。

谷歌的两位副总裁当时在一篇博客文章中写道:“在创建像LaMDA这样的技术时,我们的首要任务是努力确保将风险降至最低。”

03 核心人员离职、工程师被解雇,微软ChatGPT背刺谷歌

2020年时,弗里塔斯和沙泽尔还在研究如何将LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手机Pixel和家庭音箱系统上首次推出的一款软件应用程序,每月有超过5亿人使用Google Assistant来执行一些基础任务,比如查看天气和安排约会。

知情人士称,谷歌不愿向公众发布LaMDA的决定让弗雷塔斯和沙泽尔感到沮丧,他们决定离开公司,并使用类似技术建立一家自己的初创公司。中途皮查伊多次干预,要求两人留下来继续研究LaMDA,但却没有向他们承诺何时将会发布。

2021年,弗雷塔斯和沙泽尔正式离开谷歌,并于当年11月成立了初创公司Character Technologies。他们研发的AI软件Character于2022年正式发布,该软件允许用户创建聊天机器人并与之互动,机器人甚至可以以苏格拉底等知名人物的口吻与用户对话。

“这款软件的发布在谷歌内部引起了一些轰动。”沙泽尔在YouTube的一段采访中称。在他看来,作为一家小初创公司来推出这款软件可能更加幸运。

2022年5月,谷歌考虑在当月的旗舰会议上发布LaMDA。而据谷歌解雇的一名工程师布莱克·勒莫因(Blake Lemoine)后来透露,被解雇是因为他在社交平台上发布了与聊天机器人的对话,并声称它是有知觉的。

在勒莫因发布的内容引发广泛争议之后,谷歌取消了原本的发布安排。谷歌表示,勒莫因的公开披露违反了就业和数据安全政策,因此公司需要做出保守起见的安排。

自从微软与OpenAI达成新协议以来,谷歌一直在努力向大众展示自己作为AI创造者的行业地位。

在今年ChatGPT首次亮相后,谷歌也准备公开发布自己的聊天机器人Bard,该机器人部分技术基于弗雷塔斯和沙泽尔当年的研究,它搜集从网络中获取的信息,再以对话形式回答问题。谷歌在一次公开活动中表明,原计划是想对Bard的区域性搜索功能更进一步的探讨,让媒体和公众对Bard有新的认识,知晓它是一个使用类似LaMDA的AI技术来回应输入文本的搜索工具。

据谷歌高层称,谷歌经常会重新评估发布一款产品的条件,但由于现在面临太多的外界刺激,才在一个并不十全十美的情况下发布。

谷歌搜索副总裁伊丽莎白·里德(Elizabeth Reid)在接受采访时称,自去年年初以来,谷歌也对搜索产品进行了内部演示,这些产品也整合了LaMDA等生成式AI的响应。

谷歌认为生成式AI最有用的搜索用途之一,是在没有标准正确答案下进行的问题搜索,他们将其称为“NORA”。里德说,传统的搜索功能可能已经满足不了现在的用户了,谷歌还看到了其他复杂搜索的潜在可能,比如说解一个数学题。

高管们说,和其它类似项目一样,最大的问题是它的准确性。使用这些搜索工具的人说,基于LaMDA技术构建的工具在某些情况下会给出一些偏离主题的回答。

同样,微软新版Bing在上个月已经发布,对于此前用户报告的与聊天机器人之间产生的令人不安的对话,将会通过限制聊天时间的方式来减少机器人发出攻击性或令人毛骨悚然的反应的机会。

谷歌和微软都承认自己的聊天机器人还存在很多不准确的地方。

在谈到像LaMDA这样的语言模型时,里德认为像是“在和一个孩子说话”,当一个小孩子给不出大人想要的答案时,他会编造出一个听上去合理的答案来应对。

谷歌未来还将继续微调其模型,包括训练模型承认自己不知道答案而不是编一个。

04 结语:AI领导者谷歌首战失意,微软略占上风

谷歌聊天机器人的研发自2013年起步,2017年时已实现了重大的技术突破——神经网络系统Transformer,这也是ChatGPT所用到的底层技术,随后又发布了预训练大模型BERT;21年,微软发布了ChatGPT的前身GPT-3,谷歌紧接着发布了预训练模型LaMDA,展示出自然的对话能力;如今,Bard也即将依托LaMDA的轻量级模型版本发布,谷歌在与微软的较量中加快步伐。

长期以来的舆论压力、层层加压的安全审查,以及裁员后严重的人才流失情况,让谷歌进入到一个短暂的业务疲软时期,整体业绩下滑。但从长期来看,谷歌并未输掉这场巨头之争,它所拥有的LLM(语言大模型)团队和定制芯片,在市场上难寻敌手。

与此同时,我们也不难发现,大模型和生成式AI的产业落地必然是场艰难长跑,巨头们在技术、产品、生态、安全等多方面面临的压力重重,随着生成式AI大规模接入应用程序当中,稳定性和可靠性也将成为用户更看中的评判标准,也更考验各家基础设施的能力。

本文为转载内容,授权事宜请联系原著作权人。