
谷歌AI犯错致市值一夜蒸发7172亿
2月8日晚美股开盘,美股三大指数集体低开,道指跌0.29%,纳指跌0.37%,标普500指数跌0.40%。
谷歌大跌超7%,市值蒸发约1020亿美元(约6932.50亿元人民币)。此前谷歌人工智能聊天机器人Bard在一场发布会上对用户提出的问题给出错误回答。
谷歌聊天机器人Bard答错问题
2月7日,谷歌通过Twitter发布了一个在线短视频广告,推广其旗下Bard。Bard是近日爆火刷屏、给谷歌搜索带来巨大威胁的ChatGPT的竞品。然而,万众瞩目、备受期待的Bard,却出师不利。
谷歌在广告中表示,Bard是一项实验性对话式AI服务,由LaMDA提供支持。Bard使用谷歌的大型语言模型构建,并利用网络信息。谷歌将其聊天机器人描述为“好奇心的发射台”,称它有助于简化复杂的话题。目前,谷歌的这一广告在Twitter上的浏览量已达到100万次。
这家科技巨头在Twitter上发布了一段巴德行动的GIF视频,称这款聊天机器人是“好奇心的发射台”,有助于简化复杂的话题。
有提问问道,“关于詹姆斯·韦伯太空望远镜(JWST),我可以告诉我9岁的孩子它有哪些新发现?”对此,Bard给出了很多答案,其中一个包括,太阳系外行星的第一张照片,是用JWST拍摄的。然而,这个答案是不准确的。根据美国国家航空航天局(NASA),2004年,欧洲南方天文台的甚大望远镜(VLT),拍摄了第一张系外行星照片。
谷歌的新人工智能工具Bard犯了事实性错误,这加剧了人们对相关工具尚未准备好集成到搜索引擎中的担忧。
据《金融时报》报道,谷歌2月6日透露计划推出一款聊天机器人Bard,与OpenAI颇受欢迎的ChatGPT竞争。该公司正寻求在将强大的新语言人工智能引入互联网搜索业务的竞赛中收复失地。
模型对抗
Bard由谷歌对话应用语言模型LaMDA驱动。实际上,这一底层技术已经存在了一段时间,早在2021年,谷歌就已开始进行由LaMDA支持的对话型AI服务开发,但并未广泛为公众所用。
谷歌所研发的LaMDA,是一种基于网络上数十亿词汇进行训练的大型语言模型。它不仅受益于谷歌更强大的计算能力和研发团队,并且谷歌还有能力通过数百万用户的反馈来对LaMDA模型及聊天机器人Bard进行微调。
2022年年底,LaMDA曾一度登上媒体头条。当时,谷歌AI研究员布莱克•雷蒙恩(Blake Lemoine)坚信,LaMDA是“有意识、有灵魂”的,但他的说法在受到广泛批评,最终谷歌驳回他的说法,并让其带薪休假。
实际上,谷歌是最先提出深度学习模型核心算法的企业,其对大语言模型的研究很早就开始了,2018年BERT横空出世。2021年,谷歌又推出了比BERT更强大的MUM。
马萨诸塞大学洛厄尔分校计算机科学教授Jie Wang在此前接受《每日经济新闻》采访时表示,像谷歌这样的大公司会有一定优势,因为他们拥有人力、技术和财力资源。不过,没有一个模型可以在所有方面都擅长。因此,所有公司在市场上有足够的空间。这将是一场新的比赛,尤其是在深度和正确性方面。
ChatGPT的背后,是OpenAI一手打造的GPT-3.5模型。可以说,Bard和ChatGPT的对决,就是LaMDA和GPT-3.5的对决,也是谷歌和OpenAI这两个在大语言模型领域冠绝全球的双雄之间的主战场。媒体评论称,基于LaMDA的聊天机器人Bard将成为谷歌此次的决胜关键。
1、谷歌宣布计划推出聊天机器人Bard,与ChatGPT竞争
2月7日消息,据金融时报报道,谷歌透露计划推出一款聊天机器人Bard,与OpenAI颇受欢迎的ChatGPT竞争。
据CNBC早前报道,谷歌正在其云计算部门下开展一个名为“Atlas”的项目,该项目是对大型语言聊天机器人ChatGPT的回应。
此外,谷歌还在测试一个名为“Apprentice Bard”的聊天机器人,员工可以提出问题并得到与ChatGPT类似的详细解答。另一个产品部门一直在测试一种可用于问答形式的新搜索桌面设计。
2、谷歌即将推出聊天机器人Bard,迎战ChatGPT,AI大战一触即发?
据Alphabet首席执行官透露, 公司将在未来几周推出聊天机器人Bard,向更广泛的公众群体开放。
谷歌表示,Bard是基于其全新的自然语言模型框架LaMDA(对话应用的语言模型)进行开发的。
谷歌正在测试新的聊天机器人服务,并计划在未来几周推出,面向更广泛的用户群体。可见,ChatGPT面世后,谷歌正奋起直追。
谷歌母公司Alphabet的首席执行官桑达尔·皮查伊在周一发文说,这项名为Bard的新实验性服务会根据从网上获取的信息,对用户提出的问题生成文本答复。
皮查伊还说,未来搜索引擎会与AI结合,回答用户问题,谷歌也将向外部开发者开放部分人工智能程序。
在微软宣布使用ChatGPT后,谷歌才宣布其新的AI服务。微软上个月表示,正在对OpenAI进行价值数十亿美元的长期投资,还称将开放其工具供开发者使用,并将ChatGPT整合到必应搜索引擎等服务中,这无疑会对谷歌搜索带来挑战。
微软计划在周二举行一次活动,交代 “几个激动人心项目的进展”,其中很可能包括将ChatGPT融入到必应搜索中。OpenAI的首席执行官山姆·阿尔特曼周一在推特上发布了一张他与微软首席执行官萨提亚·纳德拉的照片,并配文称: “非常期待明天的活动。”
据报道,微软的公告引发谷歌投资者和开发者抱怨,认为谷歌的人工智能工具发布不够迅速,而且其模型还是ChatGPT等工具的部分技术基础。
为此,谷歌高管最近加快了审查和向公众推出人工智能服务的工作,还指派工程师团队,研究如何将AI融入到核心搜索等领域。
谷歌高管还表示,他们对AI工具的发布保持谨慎,不想操之过急,这与竞争对手ChatGPT形成了隐性对比,ChatGPT回答用户问题时,有时会提供虚假信息。谷歌高管表示,他们必须对新产品进行测试,确保其不会提供有失偏颇的信息,并且防止AI在某些方面的滥用,例如学术领域。
“重要的是,我们要以大胆和负责任的方式为全球提供基于自身模型的AI服务,”皮查伊在周一的博文中写道,“这正是谷歌致力于以负责任的方式开发人工智能的原因。”
他还说,Bard的新外部测试期将与内部研究相结合,以确保其提供的答复符合谷歌 “高质、安全和基于真实信息的高标准”。皮查伊在一封内部邮件中说,下周,谷歌全体员工将做一下Bard的小白鼠,为产品提供反馈。
谷歌受到了来自欧盟、美国和全球其他地区监管机构的密切关注。欧盟正在考虑推出新的人工智能法律,可能会要求企业在推出新产品和服务前进行风险评估。
去年,谷歌某工程师遭停职,因为他认为LaMDA已经有自主意识,这一说法遭到了科学家的一致反对。
去年年底,ChatGPT一发布就迅速走红。虽然ChatGPT的开发基础是广泛使用的人工智能工具,但其神通广大的能力打开了生成式人工智能的大门,也就是说,AI可以根据用户的简短输入自行创造内容。人们纷纷向ChatGPT提了各种脑洞大开的问题,比如让它以警局笔录的风格讲童话故事,还让它写复杂计算机软件编码。
周一,谷歌没有就Bard的运作方式及其回答内容提供详细信息。
Bard的问题样本有:“我可以给九岁的孩子讲哪些韦伯望远镜的新发现?”Bard简短地回应了三个新发现。博文中建议的其他问题包括:“筹划朋友的新生儿派对 ”和 “比较两部奥斯卡提名的电影”。
周一,谷歌提供了一个搜索引擎的问题案例:钢琴和吉他,哪个学起来更容易?给出的答案是:有人觉得钢琴简单点,也有人觉得吉他更容易些。
皮查伊的内部邮件提到,预计周三会提供更多搜索案例,届时谷歌将在巴黎举行活动,分享人工智能搜索工具的新进展。
皮查伊还说,谷歌计划下个月开始允许外部开发者将LaMDA的生成语言功能应用于他们的应用程序中,通过新的应用程序编程接口(API),他们可以将LaMDA 作为自身工具的一部分进行查询。未来,谷歌还将制作一系列AI工具。
这一声明在某种程度上与微软上月声明遥相呼应,微软将开始允许外部开发人员通过微软的API,使用ChatGPT和其他人工智能工具进行AI开发。
3、“ChatGPT” VS “Bard”:两大AI聊天机器人有啥不同
谷歌推出聊天机器人Bard后,科技巨头在这一领域的战争正式打响。
本周一,谷歌推出人工智能聊天机器人Bard,并宣布将嵌入其搜索引擎。一天之后,微软也宣布推出由ChatGPT支持的最新版本Bing(必应)搜索引擎和Edge浏览器,竞争旋即进入白热化。
同为聊天机器人,谷歌的Bard和微软支持的ChatGPT存在一些相似之处,它们首先需要用户键入一个问题或请求,以此做出回应。
在谷歌宣布Bard嵌入搜索引擎之前,ChatGPT也并未与Bing结合,竞争催生了这一变化的发生。
有什么不同?
Bard和ChatGPT最明显的区别,在于Bard能覆盖最近发生的事件,并将这些信息纳入回答中,但ChatGPT则是基于训练数据库。
尽管它们都能将复杂的信息和多种观点提炼成易于理解的格式,但Bard的信息源是互联网,而ChatGPT的信息则来源于2021年之前,这也与华尔街见闻此前在《让ChatGPT写一篇《美联储何时停止加息》的评论文章》中的发现相符。
此外,Bard是基于LaMDA,即对话应用语言模型的简称,这种人工智能生成文本的能力很强,去年谷歌的一名研究员曾称其为有知觉的人,“谷歌研究员走火入魔”事件一时间引发讨论无数。
而OpenAI的核心模型GPT,即生成性预训练转化器(Generative Pre-trained Transformer),于2020年首次发布,2022年初完成训练。基于这一模型,ChatGPT经过训练可以生成类似人类语言的文本。它可以针对各种自然语言处理任务进行微调,例如问答、翻译和文本摘要。
不过,GPT以其生成连贯且与上下文相关的文本的能力而闻名,但并不能保证文本内容的正确。Open AI曾在一篇博文中说:
ChatGPT有时会写出听起来合理但不正确或无意义的答案。