查看原文
其他

亚马逊是如何让Alexa错失称霸全球 AI 领头羊机会的?|钛媒体AGI

关注人工智能的 钛媒体AGI
2024-09-05

“Alexa,我们聊天吧。”

2023 年 9 月,时任亚马逊设备和服务主管的戴维·林普 (David Limp) 用这句话,展示该公司标志性 Alexa 语音助手的全新生成式人工智能(AI)版本。

在这家总部位于西雅图的科技巨头位于华盛顿郊区的第二总部举行的活动中,现场座无虚席。林普向满屋子的记者和欢呼的员工展示了全新的 Alexa。他演示了当用户输入新的触发语句“Alexa,我们聊聊吧”时,这款数字助理的回应声音要自然得多,也更具对话性,而数亿人已经习惯了用友好但机械的声音来发送天气更新、提醒、计时器和音乐请求。林普问 Alexa 他最喜欢的足球队范德比尔特大学的表现如何。Alexa 展示了它如何用快乐的声音回应,以及如何给他的朋友发消息提醒他们观看即将到来的范德比尔特足球比赛,并将消息发送到他的手机上。 

该公司表示,新的 Alexa LLM 将很快在美国的 Alexa 设备上免费预览。亚马逊高级副总裁兼 Alexa 负责人 Rohit Prasad 表示,这一消息标志着“我们喜爱的助手发生了巨大变化”,并称新 Alexa 为“超级代理”。很明显,该公司想反驳人们对现有 Alexa 缺乏智能的看法。(据报道,微软首席执行官 Satya Nadella在 2023 年 3 月称其“愚蠢如石”,当时 OpenAI 的 ChatGPT 一夜成名)。 

但发布会结束后,一切就都消失了——或者说,数字助理也保持了沉默。在全球已售出的 5 亿台设备上,传统的 Alexa 语音从未改变过,而且在接下来的几个月里,关于新的生成式人工智能 Alexa 的消息很少,除了最近有报道称它可能会在今年晚些时候推出,并可能收取订阅费。 

根据对十几位曾为 Alexa 开发过 AI 的前员工的采访,原因在于公司存在结构性功能障碍和技术挑战,导致新款生成式 AI Alexa 的发货一再推迟。总的来说,这些前员工描绘的画面是,在推出 AI 聊天机器人和代理的竞争中,亚马逊严重落后于大型科技竞争对手谷歌、微软和 Meta,并在努力追赶的过程中举步维艰。

前员工强调,2023 年 9 月的演示只是一次演示。新版 Alexa 尚未准备好在黄金时段推出,现在仍然没有。据前员工称,Alexa 大型语言模型 (LLM) 是新版 Alexa 的核心,亚马逊将其定位为与 OpenAI 的 ChatGPT 竞争,但远非最先进的。

参与 LLM 开发的研究人员表示,亚马逊没有足够的数据或访问运行 LLM 所需的专用计算机芯片,无法与 OpenAI 等公司的竞争对手竞争。前员工表示,亚马逊还一再降低新版 Alexa 的优先级,转而为亚马逊的云计算部门 AWS 构建生成式人工智能。

尽管亚马逊已经与人工智能初创公司 Anthropic 建立了合作伙伴关系并投资了 40 亿美元,后者的 LLM 模型 Claude 被认为与 OpenAI 的模型具有竞争力,但它无法利用这种关系来构建更好的 Alexa。

亚马逊前员工表示,出于隐私方面的考虑,Alexa 的团队没有使用 Anthropic 的 Claude 模型,但亚马逊以自我为导向的内部政治也同样如此。

亚马逊的一位发言人表示,前研究科学家为本文提供的细节“过时了”——尽管其中许多人在过去六个月内离开了公司——并且并不反映 Alexa LLM 的现状。她补充说,该公司可以使用数十万个 GPU 和其他 AI 专用芯片。她还反驳了 Alexa 被降级或 Anthropic 的 Claude 因隐私问题而被禁止使用的说法,但她拒绝提供 Claude 在新 Alexa 中如何使用的证据。

虽然亚马逊在更新 Alexa 方面遇到的困难有其独特之处,但该公司面临的挑战表明,公司要改造基于旧技术的数字助理以融入生成性人工智能是多么困难。苹果在将人工智能融入其产品(包括其数字助理 Siri)方面也面临着类似的困难。Siri 和 Alexa 拥有相似的技术血统 - 事实上,Siri 于 2011 年 10 月比 Alexa 早三年推出。而且与亚马逊一样,苹果在构建当今生成性人工智能所依赖的大规模语言模型所需的人工智能专业知识方面以及在庞大的图形处理单元(GPU)集群(此类模型所需的专用计算机芯片)方面投资不足。与亚马逊一样,苹果也发起了一场坚定但迟来的追赶努力。 

本周早些时候,苹果在 WWDC 大会上发布了一系列备受期待的公告,朝着在生成式人工智能竞赛中迈出了重要一步。首次亮相的新功能包括对 Siri 的重大升级,包括更自然的声音和“屏幕感知”的潜力,这最终将使 Siri 能够在各个应用程序中采取更多类似代理的操作。苹果还宣布 Siri 将与 ChatGPT 集成。

但苹果的这些公告只会给亚马逊带来压力,迫使其推出新的 Alexa。 

不幸的是,越来越多的证据表明,亚马逊对这场新的数字助理之战准备不足——尽管许多人认为该公司完全有能力将 Alexa 带入生成式人工智能时代。

Alexa AI前高级机器学习科学家米哈伊尔·埃里克 (Mihail Eric)在 X(前 Twitter)上发表了这样的看法:在一篇题为“Alexa 如何未能成为全球顶级对话系统”的帖子中,2021 年 7 月离开亚马逊的埃里克指出,Alexa 已售出超过 5 亿台设备,“这是一个令人难以置信的用户数据护城河”,并且“我们拥有成为对话式人工智能领域无可争议的市场领导者所需的所有资源、人才和动力。”

但他表示,这些技术中的大多数从未面世,因为 Alexa AI“充斥着技术和官僚主义问题”。

那么,ChatGPT热潮下,亚马逊是如何让Alexa错失称霸全球 AI 领头羊机会的?


ChatGPT 让亚马逊 Alexa 措手不及


实际上,早在 2022 年 11 月 ChatGPT 震惊世界之前,亚马逊就有了 Alexa——这款数字助理于 2014 年与作为其硬件接口的 Echo 智能扬声器一起推出。

亚马逊表示,这款数字助理的灵感来自《星际迷航》中无所不知的计算机(亚马逊创始人杰夫·贝佐斯是《星际迷航》的忠实粉丝)。

该产品迅速受到消费者的追捧,到 2017 年已售出超过 2000 万台。但 Alexa 并非基于使 ChatGPT 具有开创性的相同 AI 模型和方法构建的。相反,它是一组小型机器学习模型和数千条手工制作和硬编码的规则,这些规则将用户的话语转化为 Alexa 执行的操作。

亚马逊一直在试验一些早期的大型语言模型——它们都比 GPT-3 和 GPT-4 小得多,OpenAI 将使用这两个模型来支持 ChatGPT——但这些模型还远未准备好部署到产品中。

有亚马逊前员工表示,ChatGPT 于 2022 年 11 月下旬推出后,生成式人工智能热潮让该公司措手不及。

接下来的几个月里,亚马逊的 Alexa 组织努力凝聚在一起,实现一个愿景,将数字助理从一个呆板的命令式机器人变成一个真正会说话、乐于助人的代理。非生成式人工智能项目一夜之间被降级,在整个 2022 年圣诞节期间,高管们敦促亚马逊的科学家、工程师和产品经理想办法确保亚马逊有生成式人工智能产品可以提供给客户。一位前 Alexa 人工智能项目经理将公司的气氛描述为“有点恐慌”。

亚马逊的回应几乎立即陷入困境,因为 Alexa 和 AWS 内部的各个团队未能就统一的计划达成一致。这位 Alexa AI 项目经理表示,新冠疫情爆发后,许多员工仍在远程办公,导致人们无休止地“聚在一起开电话会议,讨论战略 PRFAQ 的细节”(亚马逊的术语,指在早期阶段提出产品创意时使用的书面文件)。他说,公司很难“从和平时期转变为战时模式”。 

一位资深 Alexa 数据科学家表示,这尤其令人沮丧,因为他早在 2022 年中期就试图对即将到来的生成式人工智能浪潮敲响警钟,并收集数据来展示他的主管级领导力,但他表示,他无法说服他们公司需要改变其人工智能战略。他解释说,只有在 ChatGPT 推出后,公司才开始采取行动。 

OpenAI 的 ChatGPT 由首席技术官 Mira Murati

问题在于,正如数亿人从他们与 Alexa 的生硬对话中意识到的那样,这款助手不是为来回对话而设计的,而且从未主要用于来回对话。相反,它总是专注于 Alexa 组织所称的“话语”——人们向 Alexa 大喊的问题和命令,例如“天气怎么样?”或“打开灯”。 

一位在此期间在 Alexa 团队实习的博士研究员表示,在 ChatGPT 推出后的头几个月里,尚不清楚LLM是否能够通过自然对话触发这些现实世界的动作。“当你说‘我看不见,把灯都打开’时,LLM可以‘打开灯’的想法尚未得到证实,”他说。“所以内部领导显然有宏伟的计划,但他们并不真正知道他们要做什么。”(现在人们普遍认为,LLM至少在理论上可以与其他技术相结合来控制数字工具。) 

相反,各团队正在研究如何即时实现生成式 AI。其中包括创建合成数据集(在本例中是计算机生成的聊天机器人对话的集合),他们可以使用这些数据来训练 LLM。当现实世界数据不足以提高 AI 准确性或需要隐私保护时,构建 AI 模型的人通常会使用合成数据——请记住,Alexa 团队拥有的大部分内容都是简单的、声明性的“话语”。 

“[客户] 用 Alexa 语言交谈,”一位前亚马逊机器学习科学家说。“现在想象一下,你想鼓励人们用从未发生过的语言交谈——那么你要从哪里获取数据来训练模型?你必须创建它,但这会带来很多障碍,因为人们可以用无数种方式说同样的话。” 

此外,尽管 Alexa 已与数千种第三方设备和服务集成,但事实证明 LLM 在处理此类集成方面并不十分擅长。

据一位曾参与 Alexa 智能家居功能开发的前 Alexa 机器学习经理称,即使是 OpenAI 最新的 GPT 4o 模型或最新的Google Gemini 模型(两者都能够使用语音而不仅仅是文本)也难以从口头对话转变为使用其他软件执行任务。这需要所谓的 API 调用,而 LLM 目前在这方面做得还不够好。 

这位前机器学习科学家表示:“它不够一致,会产生幻觉,出现错误,当你连接到许多不同的设备时很难建立体验。”

随着春天的到来,2023 年夏天即将到来,Alexa 的许多普通员工仍然不知道数字助理将如何迎接生成式人工智能时代。前员工表示,该项目缺乏愿景。

“我记得我和我的团队经常向上级抱怨,愿景不透明——我们到底要推出什么也不透明,”其中一位员工说。

另一位前经理表示,在 9 月演示之前的几个月里,人们一直在谈论新的 Alexa LLM,但并不清楚这意味着什么。“我们只是听到这样的话,‘哦,是的,它即将到来’,”他说。“但我们不知道它是什么,也不知道它会是什么样子。” 

Alexa大模型演示不符合销售标准


2023 年 9 月的 Alexa 演示让人觉得新 Alexa LLM 即将大规模推出。但一位前员工表示,基于语言模型的新 Alexa 最终“没有达到通过/不通过的标准”。众所周知,LLM 会产生幻觉,有时甚至会产生有毒内容,亚马逊的 LLM 也不例外,因此大规模发布存在风险。 

前员工表示,这就是 Alexa 的“让我们聊天”功能从未广泛发布的原因。一位前经理表示:“要让人工智能足够安全并测试这个黑匣子的各个方面才能发布,这非常困难。”

他指出,2023 年 9 月的演示涉及的功能与 Alexa 最广为人知的功能不同——即接受命令并执行。确保 Alexa 仍能执行这些旧功能,同时还能实现新 Alexa 承诺的对话并非易事。这位经理说,他越来越清楚,该组织至少暂时需要维护两个完全不同的技术堆栈——一个支持 Alexa 的旧功能,另一个支持新功能。但他说,经理们不想考虑这个想法。相反,他在 2023 年 11 月被解雇时,公司的信息仍然是“我们需要基本上与旧的 Alexa AI 模型断绝关系,转而只研究新模型。” 

尽管新推出的 Alexa LLM 计划举步维艰,但亚马逊高管们仍制定了更宏伟的生成式人工智能目标。就在演示之前,曾担任 Alexa 首席科学家的亚马逊高级副总裁普拉萨德被提拔到一个新职位,旨在将公司分散的研究团队整合到一个单一的保护伞下,目标是开发人类级别的通用人工智能,即 AGI。此举使亚马逊与 OpenAI、Google DeepMind和 Anthropic 等公司展开直接竞争,这些公司的创始使命都是创造 AGI。Meta 首席执行官马克·扎克伯格最近也表示,创造 AGI 也是他公司的使命。

到 2023 年 11 月,有消息称亚马逊将投资数百万美元来训练代号为 Olympus 的 AI 模型,该模型将拥有 2 万亿个参数(或可调变量)。参数是模型大小和复杂度的粗略近似值。Olympus 报告的参数数量将使其大小达到 OpenAI 最强大的模型 GPT-4 的两倍。 

这位前 Alexa LLM 研究科学家表示,Project Olympus 是“一个笑话”,并补充说,正在开发的最大模型有 4700 亿个参数。他还强调,当前的 Alexa LLM 版本与 2023 年 9 月演示中使用的 1000 亿个参数模型没有变化,但对其进行了更多的预训练和微调以改进它。(可以肯定的是,1000 亿个参数仍然是一个相对强大的模型。相比之下,Meta 的 Llama 3 有 700 亿个参数)。


缺乏数据使得大模型难以“发挥魔力”


在 2023 年 9 月演示后的几个月里,一位参与打造新 Alexa LLM 的前研究科学家回忆起 Alexa 领导层(包括亚马逊的生成 AI 领导者 Rohit Prasad)如何推动团队更加努力地工作。

这位研究科学家说,他们传达的信息是“从 LLM 中获取一些魔力”。但魔力从未发生。亚马逊前员工表示,缺乏足够的数据是主要原因之一。

Meta 的 Llama 3 预先在 15 万亿个标记上进行了训练,这是 LLM 处理的最小数据单位。Alexa LLM 只接受了 3 万亿个标记的训练。(与参数(模型具有的可调设置数量)不同,标记是模型在训练期间处理的小数据单位,例如单词)。)同时,对 AI 模型进行“微调”(采用预先训练的模型并进一步针对特定任务进行磨练)也受益于比亚马逊现有的更大的数据集。Meta 的 Llama 3 模型在 1000 万个数据点上进行了微调。

这位前 Alexa LLM 研究科学家表示,亚马逊 AGI 组织构建的 LLM 迄今为止只积累了大约 100 万个数据点,其中只有 50 万个高质量数据点。

他解释说,其中一个原因是亚马逊坚持使用自己的数据注释员(负责标记数据以便 AI 模型能够识别模式的人),而这个组织的速度非常慢。“因此,即使经过几轮测试,甚至在开发模型一年后,我们也无法从他们那里获得高质量的数据,”他说。 

两位消息人士透露,除了数据匮乏之外,Alexa 团队还无法获得 OpenAI、Meta 和谷歌团队所拥有的大量最新Nvidia GPU(用于训练和运行 AI 模型的专用芯片)。“大多数 GPU 仍然是 A100,而不是 H100,”这位前 Alexa LLM 研究科学家补充道,他指的是 Nvidia 目前最强大的 GPU。

他们表示,有时,开发新 Alexa 会让位于亚马逊的其他生成式 AI 优先事项。在推出 ChatGPT 后,亚马逊的主要重点是推出 Bedrock,这是一项新的 AWS 云计算服务,允许客户在云中构建生成式 AI 聊天机器人和其他应用程序——该服务于 2023 年 4 月宣布,并于 9 月全面上市。AWS是亚马逊的关键利润驱动因素。

另一方面,Alexa 是一个成本中心——据报道该部门每年亏损数十亿美元——并且主要被视为一种让客户与亚马逊保持互动的方式,以及一种可以帮助亚马逊及其合作伙伴更好地投放广告的数据方式。一位在过去几个月内离职的前 Alexa LLM 科学家表示,亚马逊科学家正在构建的 LLM(其中一个版本也将为 Alexa 提供支持)也将首先推广到 AWS 面向业务的生成式 AI 助手 Amazon Q,因为该模型现在被认为足以满足特定的企业用例。Amazon Q 还采用了 Anthropic 的 Claude AI 模型。但出于对数据隐私的担忧,Alexa 的 LLM 团队尚未被允许使用 Claude。

亚马逊发言人表示,有关克劳德和隐私的说法是错误的。“说亚马逊 Q 比 Alexa 更优先的说法是不准确的。说我们对 Q 和 Alexa 使用同一个LLM也是不正确的。”


官僚主义和基础设施问题拖累了 Alexa 的人工智能发展


一位前 Alexa AI 员工曾聘用过几名参与开发新 Alexa LLM 的员工,他表示,大多数人都提到,他们“感到精疲力竭”,因为要为一再推迟的发布做好准备,而且不断承受着巨大的压力。同时,他们还因为其他工作被搁置而感到沮丧。

他补充说,少数人还表达了越来越强烈的怀疑,即基于 LLM 的 Alexa 的整体设计是否合理。

“我听到的一个故事是,在项目早期,一些高管在尝试 ChatGPT 后变得过度自信,他们大力推动,这种过度自信一直存在于一些高级领导中,他们继续朝着不切实际的目标努力,”他说道。另一位前 Alexa LLM科学家表示,经理们设定的最后期限高得离谱。“每次经理给我们分配与LLM相关的任务时,他们都会要求我们在很短的时间内(例如 2 天、1 周)完成,这是不可能的,”他说道。“领导层似乎对LLM一无所知——他们不知道需要多少人,也不知道要花多长时间才能完成每个任务,才能打造出像 ChatGPT 这样的成功产品。” 

Alexa 从未与杰夫·贝佐斯的“两个披萨团队”理念保持一致——也就是说,团队规模应该足够小,这样你就可以只用两个披萨就能为整个团队开会提供食物。贝佐斯认为,小团队可以推动有效的决策和协作。相反,Alexa 历史上一直是——而且在很大程度上仍然是——一个庞大的部门。在最近的裁员之前,它有 10,000 名员工。虽然现在员工人数减少了,但它仍然被组织成大型的、孤立的领域,例如 Alexa Home、Alexa Entertainment、Alexa Music 和 Alexa Shopping,每个领域都有数百名员工,以及主管和最高级别的副总裁。

消息人士称,随着各个领域与新的 Alexa LLM 合作打造生成式 AI 功能的压力越来越大,每个领域都需要准确度基准,因此各个领域之间产生了冲突,有时会产生适得其反的结果。

例如,一位致力于 Alexa Home 的机器学习科学家回忆说,虽然他的领域正在研究如何让 Alexa 帮助用户控制灯光或恒温器,但音乐领域正忙于研究如何让 Alexa 理解非常具体的请求,例如“播放蕾哈娜 (Rihanna),然后播放 Tupac,然后暂停 30 分钟,然后播放 DMX”。 

每个领域团队都必须与 Alexa 核心 LLM 团队建立自己的关系。“我们花了几个月的时间与那些 LLM 团队合作,只是为了了解他们的结构以及我们可以给他们哪些数据来微调模型以使其发挥作用。”每个团队都希望根据自己的领域目标微调 AI 模型。

但事实证明,如果 Home 团队尝试对 Alexa LLM 进行微调,使其更能解决 Home 问题,然后 Music 团队也加入进来,使用他们自己的 Music 数据对其进行微调,那么模型最终的表现会更差。“灾难性遗忘”是指模型在训练后期学习到的内容会降低其在训练早期遇到的任务上表现良好的能力,这是所有深度学习模型都存在的问题。“随着 Music 越来越好,[模型] 在 Home 上可能会变得不那么聪明,”这位机器学习科学家说。“因此,找到你试图在 12 个领域进行微调的最佳点几乎是碰运气。”他补充说,如今,LLM 科学家们知道,微调可能不是创建具有丰富功能和灵活性的模型的最佳技术——还有其他技术可以做得更好,比如快速工程。但到那时,许多个月已经过去了,却没有什么进展。 

一位前产品经理表示,每个 Alexa 域名都有自己的领导,都想保护和扩大自己的领地。“这个组织已经变成了黑手党,”她说。“比如说,如果我为你工作,我只是接受命令,因为同意你的意见对我最有利。我最大的利益是不要在下一次裁员时被解雇——这很无情。这对我来说是最好的,因为你将帮助我建立我的帝国。” 


亚马逊表示将信守对 Alexa 的承诺


亚马逊发言人坚称,它完全致力于提供生成式人工智能 Alexa,并补充说,其愿景仍然是打造“世界上最好的个人助理”。

亚马逊的一位代表指出,支持 Alexa 的设备已售出超过 5 亿台,客户每小时与 Alexa 互动数千万次。

上述代表补充称,生成式人工智能的实施伴随着“巨大的责任——细节真的很重要”,因为这种规模的技术实施已经应用于数百万客户在家中使用的设备上。虽然 Alexa LLM 的“让我们聊天”功能尚未向公众推出,但它已经“持续”在小群客户中进行了测试。

但许多员工表示,他们离开的部分原因是他们不相信新的 Alexa 永远无法准备就绪——或者等到它准备就绪时,它已经被 OpenAI 等更灵活的竞争对手推出的产品所取代。这些公司不必驾驭现有的技术堆栈并捍卫现有的功能集。

一位前员工在过去一年里雇佣了几位离开 Alexa 组织的员工,他说许多人对 Alexa LLM 的推出持悲观态度。“他们只是没有看到它真的会发生,”他说。 

一些员工表示,亚马逊最终可能会推出基于 LLM 的 Alexa,而且它将是对当今 Alexa 的改进。毕竟,世界上有数亿 Alexa 用户,如果这款放在办公桌或厨房柜台上的设备能做更多事情,而不仅仅是执行简单的命令,他们肯定会很高兴。 

但考虑到 Alexa LLM 计划面临的挑战,以及它与 OpenAI 和谷歌等生成式人工智能领导者之间的差距。采访到的所有消息人士都不认为 Alexa 已经接近实现亚马逊成为“世界上最好的个人助理”的使命,更不用说亚马逊创始人杰夫·贝佐斯 (Jeff Bezos) 创造星际迷航电脑现实版的愿景了。

相反,亚马逊的 Alexa 有可能成为具有警示作用的数字遗物——一种可能改变游戏规则的技术,却在玩错游戏。

万水千山总是情,点个在看行不行
继续滑动看下一个
钛媒体AGI
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存