在三个多月的时间里,谷歌高管一直在关注微软和一家名为 OpenAI 的旧金山初创公司的项目,它们用人工智能的潜力激发了公众的想象力。
但在周二,谷歌暂时退出了场外,发布了一款名为 Bard 的聊天机器人。新的人工智能谷歌高管在接受采访时表示,chatbot 将面向美国和英国的有限数量用户提供,并将随着时间的推移适应更多用户、国家和语言。
谨慎推出是该公司首次公开努力解决最近由 OpenAI 和微软推动的聊天机器人热潮,它旨在证明谷歌有能力提供类似的技术。但与竞争对手相比,谷歌采取了更为谨慎的做法,后者曾面临批评,称他们正在推广一种不可预测且有时不值得信赖的技术。
尽管如此,该版本仍代表着避免对谷歌最赚钱的业务——搜索引擎——构成威胁的重要一步。科技行业的许多人认为,与其他任何大型科技公司相比,谷歌从 AI 中损失和获益很多,这可以帮助一系列谷歌产品变得更有用,但也可以帮助其他公司切入谷歌庞大的市场互联网搜索业务。聊天机器人可以立即用完整的句子生成答案,而不会强迫人们滚动浏览结果列表,而搜索引擎会提供这种功能。
Bard 是一个带有问题框的独立网页。
谷歌开始将 Bard 作为一个独立的网页,而不是其搜索引擎的一个组成部分,开始了采用新人工智能的棘手舞蹈。同时保留科技行业最赚钱的业务之一。
“谷歌开始涉足这个领域很重要,因为这是世界的发展方向,”谷歌前特殊项目总监阿德里安·奥恩 (Adrian Aoun) 说。但转向聊天机器人可能有助于颠覆依赖广告的商业模式,奥恩先生说,他现在是医疗保健初创公司 Forward 的首席执行官。
11 月下旬,OpenAI 发布了聊天GPT ,一个在线聊天机器人,可以回答问题、撰写学期论文和重复几乎任何主题。两个月后,该公司的主要投资者和合作伙伴微软,在其 Bing 互联网搜索引擎中添加了一个类似的聊天机器人 ,展示了该技术如何改变谷歌主导了 20 多年的市场。
谷歌一直在竞相推出人工智能。自 12 月以来的产品。它宣布了一个“红色代码 ”响应 ChatGPT 的发布,使 A.I.公司的核心优先事项。它还促使公司内部的团队,包括专门研究人工智能安全性的研究人员,合作加速一波新产品的审批。
行业专家想知道谷歌开发新人工智能的速度有多快。技术,特别是考虑到 OpenAI 和微软在发布工具方面的惊人步伐。
“我们正处于一个特殊的时刻,”技术研究公司 Gartner 的分析师 Chirag Dekate 说。 ChatGPT 激发了新的初创企业,抓住了公众的想象力,并促使谷歌和微软之间的竞争更加激烈,他说,并补充说,“现在市场需求已经发生变化,谷歌的方法也发生了变化。”
上周,OpenAI 试图提高赌注称为 GPT-4 的新技术 ,这将允许其他企业将支持 ChatGPT 的人工智能构建到各种产品中,包括商业软件和电子商务网站。
聊天机器人经常弄错事实,有时会在没有警告的情况下编造信息——这是人工智能的一种现象。研究人员称之为幻觉。
自 2015 年以来,谷歌一直在测试 Bard 的底层技术,但到目前为止还没有将其发布到一小部分早期测试人员之外,因为就像 OpenAI 和微软提供的聊天机器人一样,它并不总能生成可信的信息和可以表现出对女性和有色人种的偏见 .
“我们很清楚这些问题;我们需要负责任地将其推向市场,”谷歌负责研究的副总裁 Eli Collins 说。 “与此同时,我们看到了整个行业的兴奋以及所有使用生成式人工智能的人的兴奋。”
柯林斯先生和 Google 产品副总裁 Sissie Hsiao 在接受采访时表示,公司尚未确定从 Bard 赚钱的方式。
谷歌上周宣布,A.I.即将推出其生产力应用程序,例如企业付费使用的 Docs 和 Sheets。基础技术也将出售给希望构建自己的聊天机器人或支持新应用程序的公司和软件开发商。
“这项技术还处于早期阶段,”萧女士说。 “我们正在探索这些体验如何体现在不同的产品中。”
最近的公告是谷歌计划引入 20 多个人工智能的开始。据《纽约时报》报道,产品和功能包括一项名为“购物试穿”的功能,以及为 YouTube 视频和 Pixel 手机创建自定义背景图像的能力。
Bard 不是与其搜索引擎相结合,而是一个带有问题框的独立网页。在答案的底部有一个“Google it”按钮,它将用户带到一个新标签页,其中包含关于该主题的传统 Google 搜索结果页面。
谷歌高管将 Bard 定位为一种创意工具,旨在起草电子邮件和诗歌,并就如何让孩子们参与飞钓等新爱好提供指导。高管们表示,该公司热衷于了解人们如何使用该技术,并将根据使用情况和反馈进一步完善聊天机器人。不过,与其搜索引擎不同,Bard 的主要设计目的并不是成为可靠信息的来源。
“我们认为 Bard 是对谷歌搜索的补充,”萧女士说。 “我们希望在如何使用这项技术进行创新以及负责任方面大胆创新。”
Google 允许用户就特定答案的有用性提供反馈。
与类似的聊天机器人一样,Bard 基于一种 A.I.技术称为大型语言模型 ,或 L.L.M.,它通过分析来自互联网的大量数据来学习技能。这意味着聊天机器人经常弄错事实,有时会在没有警告的情况下编造信息——一种现象 A.I.研究人员称之为幻觉。 该公司表示已努力限制这种行为,但承认其控制措施并不完全有效。
当高管们在周一展示聊天机器人时,它拒绝回答医学问题,因为这样做需要准确和正确的信息。但该机器人还错误地描述了它生成的关于美国革命的答案的来源。
谷歌在 Bard 的查询框下发布了免责声明,警告用户可能会出现问题:“Bard 可能会显示不代表谷歌观点的不准确或令人反感的信息。”该公司还为用户提供了针对每个问题的三种回答选项,并让他们就特定答案的有用性提供反馈。
与 Microsoft 的 Bing 聊天机器人以及来自 You.com 和 Perplexity 等初创企业的类似机器人非常相似,聊天机器人会不时对其回复进行注释,以便人们可以查看其来源。而且它与谷歌所有网站的索引相吻合,因此它可以即时访问发布到互联网上的最新信息。
这可能会使聊天机器人在某些情况下更准确,但不是全部。即使可以访问最新的在线信息,它仍然会歪曲事实并产生错误信息。
“法学硕士很棘手,”谷歌负责研究的副总裁柯林斯先生说。 “巴德也不例外。”