未来两年,苹果有望通过Apple Intelligence东山再起,挑战行业领导者地位。
2011年,当苹果在iPhone 4S上首次搭载Siri语音助手,智能手机的交互方式似乎迎来了“对话式”人工智能的曙光。作为史蒂夫·乔布斯生前倾力推动的旗舰项目之一,Siri承载了苹果对于未来人机交互的宏大愿景。然而,十余载光阴流转,当ChatGPT等生成式AI席卷全球之际,曾经的先行者Siri却被外界普遍视为“江河日下”。苹果在AI赛道上不仅未能延续其领先优势,反而深陷战略滞后与高层决策失误的困局。本文里,城主将循着时间的脉络,和大家深入剖析自2010年苹果收购Siri以来,其在人工智能领域的战略演进、关键决策、曲折路径以及为扭转颓势所做的最新努力。
第一章:破晓与愿景——Siri的诞生与乔布斯的期许 (2010-2011)
2010年,苹果公司斥资收购了Siri 初创公司,并于次年(2011年)将其作为“个人智能助理”深度整合进iPhone 4S。这不仅是史蒂夫·乔布斯生前参与的最后一批重要产品构想之一,更寄托了他对未来交互模式的深远期望。乔布斯希望Siri能成为一个革命性的入口,改变人机交互的固有范式,如同苹果早期设想的“Knowledge Navigator”概念一般,让用户能以自然语言与设备对话,轻松获取信息和各项服务。
2011年Siri正式上线时,苹果宣称其能够理解日常语言、上下文对话,并整合了天气查询、设置提醒、发送短信、播放音乐等多种服务。Siri的出现,无疑让硬件升级并无太多惊喜的iPhone 4S脱颖而出,被誉为可能引领移动时代人机交互革命的关键功能。
然而,Siri的首次亮相,其真实表现却与理想相去甚远。尽管其语音识别准确性在当时依托Nuance技术尚算可靠,“能听会说”带来了新鲜感,但其智能性与功能边界很快便受到用户质疑。早期的Siri只能处理非常有限的问题和指令,其背后依赖的是一套庞大的预设词库和规则。前苹果Siri工程主管John Burkey曾披露,Siri实际上是基于一个庞大的词汇数据库(如餐厅名、歌曲名等)来理解用户请求,因此其支持的指令范围极为有限。一旦用户提问超出预设语料库,Siri便难以应对。
更严峻的是,为Siri增加新词汇或新功能的过程异常繁琐。工程师每加入一组新短语,都必须重建整个数据库,耗时最长可达六周;若要添加如网络搜索等复杂功能,则可能需要近一年的开发和测试周期。更有甚者,Siri早期的代码被形容为“过时且混乱”,即便是更新其基本功能也可能需要数周时间。这些深植于架构的桎梏,使得Siri难以快速迭代,远未能实现乔布斯当初“真正智能、对话自如”的宏伟期许。
Siri发布初期的局限性迅速显现:用户体验到的更多是一些预设问答和趣味彩蛋,对于复杂对话和上下文理解,Siri显得力不从心。“今天天气如何”这类简单问题尚可应付,但若要求Siri进行连续对话、深入检索信息,结果往往差强人意。这种理想与现实的差距,在当时的媒体和用户反馈中清晰可见——Siri虽新颖,却远非科幻电影中无所不能的AI助手。
可以说,乔布斯的愿景与Siri的现实能力之间,隔着一条漫长的技术鸿沟。不幸的是,就在Siri上线的次日,乔布斯因病逝世,这位最重要的“产品经理”的缺席,为Siri未来的发展方向增添了莫大的变数。
第二章:步履蹒跚——Siri的缓慢进化与错失的黄金十年 (2011-2016)
在Siri上线后的数年间,苹果围绕这款语音助手进行了一系列改进,但总体进展被外界普遍认为是缓慢且保守的。
Siri的早期迭代 (2011-2014)Siri陆续扩展到新的设备和语言地区:2012年登陆新款iPad,2013年随iOS 7界面翻新引入了新的男声/女声选项,并增加了更多系统级控制功能(如开关蓝牙、打开应用)。2014年的WWDC上,“嘿 Siri”免唤醒词的持续监听功能首次亮相,用户可以直接通过语音激活助手。同年,Siri还集成了Shazam音乐识别功能,支持了22种新语言,并能控制HomeKit智能家居。 这些更新虽然丰富了Siri的实用性,但其核心的自然语言理解和对话能力并无实质性飞跃。在多数场景下,Siri仍主要扮演执行简单命令和查询工具的角色,而非真正的上下文对话伙伴。
“智能”的初步探索与隐私的权衡 (2015-2016)2015年,苹果尝试让Siri“更聪明一点”。iOS 9中引入的Proactive智能建议,标志着苹果试图赋予Siri类似Google Now的上下文感知能力。例如,Siri会根据用户日程自动提出建议,或根据邮箱内容创建日历事件。这背后是苹果的本地机器学习技术:在设备端学习用户使用模式,在保证数据隐私的同时提供个性化九游娱乐文化 九游app官方入口服务。
然而,苹果的“隐私优先”策略在此也带来了显著的权衡。与Google利用海量云端数据训练模型不同,苹果不愿大规模上传用户数据,这在一定程度上限制了AI潜力的充分发挥。Apple通过引入差分隐私(WWDC 2016年推出,用于收集海量用户数据而不暴露个体隐私)等技术,努力在个性化与隐私保护之间寻求平衡。但正如九游娱乐文化 九游app官方入口业界观察人士所指出的,这种谨慎策略虽保护了用户数据,却也实实在在地放慢了Siri演进的脚步。
2016年的WWDC是Siri发展史上的又一个节点。苹果终于开放了SiriKit开发者接口,允许第三方应用接入Siri,但范围仅限于消息、打车、支付等少数几个领域,显得相当保守。这与当时Amazon Alexa大举开放“技能商店”、Google Assistant连通众多服务的做法形成鲜明对比。此外,Siri在2016年首次登陆macOS和Apple TV,显示苹果希望将语音助理扩展到全平台。
但总体而言,2011至2016年间Siri的升级多为“小步慢跑”:增加新语言、新笑话彩蛋,略微加快响应速度和准确率,但并未带来突破性的新能力。苹果对Siri的定位依旧是辅助性工具,既没有通过开放生态让外部开发者大展拳脚,也未能解决其自身架构导致的“功能扩展难”的痼疾。
管理层的动荡与战略摇摆这一时期内,苹果内部管理层对Siri项目的关注度和投入力度相对有限。2012年,iOS软件负责人Scott Forstall离职后,Siri转由互联网服务主管Eddy Cue负责,不久又交由高级副总裁Craig Federighi(掌管软件工程)监管。频繁的高层调整与战略摇摆,使Siri缺乏连续清晰的路线图,这也为后来Siri团队的内耗埋下了伏笔。
竞品崛起,苹果错失先机 (2014-2016)就在Siri小修小补的几年间,竞争对手们在AI助手领域开始后来居上。2014年末,Amazon推出了智能音箱Echo,搭载语音助理Alexa。Alexa最初定位于智能家居中控,凭借Amazon开放的技能平台,第三方开发者为其编写了数以万计的“Skill”,极大拓展了其功能生态,迅速风靡美国家庭,Amazon也借此在语音AI领域异军突起。
两年后,2016年Google Assistant随着Pixel手机和Google Home音箱问世。得益于Google在搜索和知识图谱上的深厚积累,Assistant展现出卓越的知识问答和上下文理解能力,很快被视为行业标杆。
相比之下,苹果在语音助手上的先发优势逐渐丧失。正如一篇报道所言:“苹果的Siri虽然2011年就上线,远早于Amazon 2014年的Alexa和Google 2016年的Assistant,但现在普遍被认为落后于这两个后起之秀”。究其原因,亚马逊和谷歌的助手在通用知识和第三方服务兼容性上远胜Siri。Alexa能连接庞大的购物和智能家居生态,Google Assistant则几乎是移动的Google搜索+智能助手,而Siri的知识库和服务整合相对有限。这一点在2016年就引起业界关注:同类语音问答,Siri在回答开放式问题时的正确率和丰富度明显不及Google Assistant,被技术媒体多次测评垫底。
苹果试图通过收购和招聘来追赶竞品的脚步。2015-2016年间,苹果低调收购了多家AI初创企业(见下表)。这些收购旨在获取新技术和人才,用于改进Siri的自然语言处理和本地化机器学习能力。
此外,2016年底苹果开始大规模扩张Siri团队,Siri相关招聘显著增加。甚至打破惯例于2016年底聘请卡耐基梅隆大学教授Ruslan Salakhutdinov担任机器学习主管,允许苹果科研人员发表论文,以吸引顶尖AI人才加入。可以看出,2016年前后苹果意识到AI潮流的加速,开始在人才和技术储备上做布局。
但这些努力短期内并未让Siri在用户体验上赶超对手。2017年时,Siri月活跃设备数已超过3.75亿台,支持的国家和语言领跑业界。苹果在WWDC 2017上大力宣传Siri的改进:引入更自然的声音、支持英中德等多语言翻译、强化上下文推荐,并宣布Siri紧密集成机器学习,成为苹果产品的核心技术之一。同场发布的还有苹果首款智能音箱HomePod,这被视为对Amazon Echo的回应。然而HomePod的Siri功能明显逊色于Alexa:发布时不支持Spotify等第三方音乐服务,也缺少对话式购物、叫车这类Alexa的热门技能。加之HomePod高价位和封闭生态,销量远不及Echo系列。苹果错失了智能音箱兴起的红利,进一步巩固了Alexa和Google Assistant在家庭场景的主导地位。
综上,2014-2016年可谓苹果在AI助手领域的“转折点”:本有先发优势的Siri因步伐缓慢、策略保守而被对手迎头赶上。当Alexa和Assistant攻城略地、飞速进化时,苹果因隐私顾虑和技术包袱在关键能力上原地踏步。等意识到语音交互生态的重要性再奋起直追时,市场主动权已不在苹果手中。这一阶段的教训是深刻的:创新领域领先易,保持难,稍有怠慢就可能被后来者反超。
面对Siri口碑滑落和功能被超越的巨大压力,苹果自2017年起对AI策略进行了深刻调整,突出表现为高管团队的换血和核心技术投入的并举。
人事调整与组织架构重塑首先在人事层面,苹果引入了重量级的AI人才领导。2018年4月,前谷歌搜索与AI部门主管John Giannandrea加盟苹果,出任机器学习和人工智能战略的负责人。Giannandrea在谷歌拥有丰富的搜索和AI经验,他的到来被视为苹果承认在AI领域需要外部新鲜血液的关键信号。随之而来,苹果对内部架构做出调整:原Siri部门负责人Bill Stasior(2012年从亚马逊加盟,负责Siri多年)在2019年初被调离,Siri团队转入Giannandrea旗下。这意味着苹果希望通过Giannandrea的领导,打破此前Siri团队的封闭与停滞状态,将苹果分散的AI力量(如Siri、图像识别、推荐等团队)整合到统一的战略之下。
技术并购与底层能力夯实其次在技术层面,苹果持续通过“买买买”策略以补足自身短板。2017-2020年间,苹果至少收购了12家以上AI公司,其中包括:
通过这些并购,苹果意在强化Siri的数据基础和算法能力。例如,Inductiv的技术可以用于清洗Siri训练数据,提高理解准确率。又如VocalIQ与Siri的结合,被外界猜测可能改进Siri对复杂对话的掌控能力(尽管苹果未公开具体细节)。
同时,苹果也注重在硬件层面为AI提供支撑:从2017年发布的A11仿生芯片开始,苹果在其iPhone/iPad/Mac芯片中集成了“神经引擎”(Neural Engine),用于加速机器学习模型在本地的运行。这使得诸如语音识别、图像分类等AI任务可以直接在设备端完成,无需将数据上传至云端。2018年的iPhone XS系列Neural Engine每秒运算可达5万亿次,为日益增长的本地AI需求提供了强大的算力保障。苹果还推出了统一的Core ML框架(2017年WWDC发布),供开发者调用模型,试图打造端侧AI生态。
尽管这些举措在一定程度上夯实了苹果在AI领域的底层实力,但在2017-2020年间的用户直观感受上,Siri的变化依然有限。一方面,Siri的语音识别和TTS(文本转语音)在变得更自然,理解准确率逐年有所提升(据称提升40%);另一方面,Siri在“聪明度”上仍未实现质的突破。例如,直到2018年,苹果才推出“Siri Shortcuts”(捷径)功能,允许用户定制语音指令来执行一系列操作。这被视为一种折中方案——通过用户预先设置,部分弥补了Siri无法灵活理解复杂指令的不足。但和真正的对话式AI相比,捷径更像是基于规则的脚本而非真正的智能。同样,Siri在对话上下文连贯性、开放式问答等方面,与Google Assistant相比,差距依旧明显。科技媒体常用“落后半代”来形容这一时期Siri的状态。
内部人士透露,Siri团队在这几年经历了深刻的文化与理念碰撞。新上任的Giannandrea希望引入更多数据驱动、模型驱动的方法,让Siri更大程度依赖机器学习而非过去的手工规则。但Siri多年来形成的庞大代码库和既有产品需求,使得彻底重建架构变得极其困难。前Siri工程师曾将Siri比喻为“滚雪球”,粘连了大量特殊处理逻辑,一旦改动便会牵一发而动全身。Apple内部的AI/ML研究团队与Siri产品团队也一度存在磨合问题:研究人员倾向于大刀阔斧地应用新模型,而工程团队则更担心产品稳定性和隐私要求,导致双方步调不一。这些内部摩擦在后来的报道中被揭示为苹果AI发展失速的重要原因之一。可以说,2017-2020年的苹果AI策略重整,为迎接下一波AI浪潮做了诸多正确的铺垫——组织上有了统一领导,技术上储备了芯片、框架和人才。但历史证明,当2020年代初生成式AI浪潮突然爆发时,苹果的准备仍显不足。
第四章:风暴来袭——生成式AI浪潮下的窘境与觉醒 (2021-2023)
进入2020年代,人工智能领域发生了深刻的范式转移:大规模预训练模型(尤其是Transformer架构的语言模型)带来了前所未有的能力飞跃。2022年底,OpenAI的ChatGPT横空出世,让公众第一次体验到近乎人类水准的对话式AI。ChatGPT能用自然语言回答复杂问题、撰写文章代码,展现出传统语音助手无法企及的灵活智能。这场“生成式AI”革命不仅令Google宣布进入“红色警戒”,对苹果也是一记当头棒喝——AI能力的天平发生了急剧倾斜,以Siri为代表的旧一代助手突然显得落伍笨拙,甚至被调侃为“蠢得像石头”。
内部的酝酿与外部的谨慎事实上,在ChatGPT发布之前,苹果内部对大模型的关注就已逐渐升温。2022年,苹果已经在研究更先进的对话AI。据报道,John Giannandrea早在四年前(约2019年)就创建了一个团队,专攻对话式AI模型,并直接向CEOTim Cook汇报。到2023年初,苹果召开了一次内部AI峰会(2月),向员工介绍了公司在大语言模型(LLM)上的进展。
然而,与此同时,苹果高层在公开场合对生成式AI的表现却显得极为谨慎。2023年5月,库克在财报会上称AI的潜力“非常有趣”,但也有许多问题需要解决,苹果会“深思熟虑、谨慎地”决定何时何地使用AI。苹果甚至在2023年禁止员工使用ChatGPT、GitHub Copilot等第三方AI工具,以防机密数据泄露。可以看出,在AI风口骤起之际,苹果内部仍在观望和权衡,担心仓促跟进可能带来隐私和安全风险。
市场压力与Siri的尴尬处境然而,市场不等人。2023年上半年,Google推出Bard聊天机器人并将生成式AI融入搜索、办公套件;微软更是与OpenAI深度绑定,将GPT-4集成到必应、Office Copilot中。相比之下,苹果迟迟未向公众展示类似成果,这引发了外界对苹果AI前景的强烈质疑:“苹果是不是在AI上落后了一大步?” Siri再次成为被嘲讽的对象:网友在Reddit等平台抱怨“为什么Siri这么蠢,感觉一年比一年笨”。就连Siri的联合创始人Adam Cheyer也公开表示,ChatGPT能写文章和编程的能力让现有的语音助手看起来“愚不可及”,语音助手这些年的功能“实在太鸡肋”。一时间,“苹果错失AI新时代”、“Siri将被淘汰”的论调甚嚣尘上。
这种外部压力最终转化为苹果内部更为紧迫的行动。2023年中,苹果被曝已开发出自己的大型语言模型框架“Ajax”,并基于其训练出一个聊天机器人,内部代号“Apple GPT”。 据悉Ajax模型参数规模超过2000亿,在能力上“据称已超越ChatGPT 3.5”,但仍不及OpenAI最新的GPT-4。苹果员工可以在获得特别许可后使用这个聊天机器人来进行原型测试,但公司对其用途有所限制,不允许直接用于新产品功能开发。截至2023年9月左右,苹果对如何将其大模型产品化“尚无清晰策略”,内部仅在试验用大模型改进Siri、生成图片视频、处理多模态数据等方向。
资源投入与人才招募尽管方向未明,苹果在资源上已经大举投入。2023年有报道称,苹果每天在AI研发上耗资数百万美元,用于训练大模型所需的庞大算力,并计划在2024年为此采购逾40亿美元的服务器设备。这反映出苹果管理层已认识到和OpenAI、Google等的算力差距,试图以“砸钱”扩容的方式追赶。此外,苹果继续通过收购拓展AI实力。2023年底到2024年初,苹果低调收购了加拿大创业公司DarwinAI。 DarwinAI团队专长在于用AI优化芯片制造检测流程,以及设计更小更高效的深度学习模型。收购完成后,DarwinAI的数十名员工加入苹果AI部门,其联合创始人、AI教授Alexander Wong出任苹果AI团队总监。这一收购契合了苹果的需求:为了在设备端运行强大的AI模型,模型需要足够小巧高效,而这正是DarwinAI的拿手领域。同时也显示苹果在招揽全球AI人才上不遗余力。
WWDC 2023的“静默”与认知的转折然而,尽管有这些台下准备,2023年苹果在AI上的台前动作依然谨小慎微。当年WWDC 2023(全球开发者大会)上,苹果几乎只字未提“AI”。发布的重磅新品Vision Pro混合现实头显,以及iOS 17等系统更新,都没有直接以AI营销,顶多提到“机器学习驱动的功能”。这种低调令舆论颇为惊讶:在友商热炒AI之际,苹果仿佛刻意回避这个词。部分分析认为,这是因为苹果尚未准备好拿出颠覆性的AI产品,与其高调宣传被指落后,不如继续“闷声研发”。但也有人担忧,这反映了苹果高层对AI潮流认识滞后,仍然沉浸在硬件驱动的下一代平台(如AR/VR)的愿景中,低估了生成式AI对用户交互的革命性冲击。
实际上,据后来的报道,苹果管理团队在2023年经历了一次AI认知的转折。苹果软件主管Craig Federighi起初对内部要求投入大模型持保留态度,直到他亲自尝试了ChatGPT辅助写代码,才猛然意识到生成式AI的颠覆意义。有消息称,Federighi当即在公司内部推动加速AI项目,这被认为是苹果后续推出“Apple Intelligence”计划的重要契机。可以说,2023年是苹果从被AI浪潮动摇到决心奋起直追的关键一年。年末,库克也在公开采访中承认苹果一直在研究各种生成式AI技术,并暗示“会很快在产品中有所体现”。种种迹象表明,苹果已无法也不愿再观望下去,一场AI反击战即将展开。
“Apple GPT”的技术愿景与组织困境伴随苹果对AI战略的调整,其内部代号为“Apple GPT”的大模型项目在2023-2024年逐步浮出水面。这一项目背后既有技术雄心,也暴露出苹果组织架构在AI时代的诸多掣肘。
从技术层面看,Apple GPT(基于Ajax框架的大模型)承载了苹果自研通用AI模型的期望。经过数年的投入,苹果的研究团队攻克了一定难题,例如使模型能在多达2000亿参数规模下训练,并据传在某些基准上达到ChatGPT-3.5水平。苹果还探索让Siri逐步摆脱传统“串联式”架构,尝试用统一的大模型驱动Siri的理解与响应。报道指出,苹果已有一个专门团队在构建完全基于LLM的新版Siri,希望让其具备更对话式、更信息处理的能力,将来取代目前规则+模型混合的老架构。由于苹果并不掌握类似ChatGPT那样的大规模对话日志数据,他们采取了“合成数据”训练的办法,以弥补训练语料不足。如果这一路径成功,Siri的演进有望跳脱过去缓慢增加词库的套路,直接跃升到可自由对话、智能理解各种需求的新阶段。
然而,正如The Information等媒体披露的那样,Apple GPT项目在推进中碰到了严重的组织和决策问题。首先是资源分配和内部博弈。在ChatGPT爆红前,苹果内部对generative AI的投入相对保守,一些核心团队拿不到足够预算来打造高性能模型。即便Giannandrea这样的AI负责人,也一度未能说服高层提前大举投资数据中心和算力。等到2023年惊觉落后再砸钱,客观上已错过先机。其次,部门间缺乏协同导致项目受阻。AI/ML研究组和Siri产品组多年来的磨合不顺,此前Siri团队领导层的消极保守更使进展迟缓。有知情人士直言,Siri多年停滞很大程度上要归咎于糟糕的领导和跨部门内耗。这种情况直到2023年苹果高层震动后才开始改善:原先负责Siri的管理者被架空或调离,AI项目组直接获得更多话语权。
另一个困境在于苹果的产品节奏与AI开发节奏的不匹配。苹果习惯于每年WWDC和秋季发布会推出一系列新功能,规划周期固定。而大模型研发有很强的试错探索性质,难以精确卡点交付。结果据报道,苹果原计划在iOS 17或iOS 18中上线的一些“情境智能”功能未能如期完成,被迫延期,引发了内部的“错失症结”反思。例如据称Siri本该新增某种多步骤自动化能力,让用户一句话就能触发一连串操作,相当于让Siri主动执行此前需要Shortcuts完成的任务。但由于技术准备不足,这一“重量级AI升级”跳票,成为压垮高层耐心的最后稻草。 可以想见,在Apple GPT团队背后,苹果内部正经历一场文化和流程的转变:从过去高度保密、瀑布式开发,向更开放合作、快速迭代的AI模式靠拢。这种转变充满阵痛,但又势在必行。
2024年6月的WWDC全球开发者大会,成为苹果向世人展示其AI策略大转变的舞台。在高度关注下,苹果发布了全新的“Apple Intelligence”服务,并证实了与OpenAI的合作。 这标志着苹果在AI战略上从迟疑转为主动出击,以务实合作的姿态奋起直追。
大会上,CEO蒂姆·库克郑重宣告:“AI必须懂你,基于你的个人情境……这已经超越了一般的人工智能,这是个人智能(Personal Intelligence)。”随即他宣布推出“Apple Intelligence”。这是苹果面向iOS、macOS全平台的一揽子生成式AI功能集合,包括新一代Siri、跨应用的智能助手、生成式图片和文本工具等,目标是让苹果设备提供自动化、个性化的体验。
Siri的革新与OpenAI的联手最引人瞩目的是,苹果确认了与ChatGPT开发商OpenAI的合作传闻:新的Siri将内置OpenAI的GPT技术,变身为融合ChatGPT能力的对话式助手。苹果高管在会上演示了“Siri 2.0”的强大之处:它不仅可以自然对答,还能接受文本输入,充当AI聊天机器人;它深度整合了设备内各应用,可以根据语音指令跨应用执行复杂操作。例如,在演示中Siri能从一句“我女儿”的语音请求中领会要查找相关照片,自动在用户相册中找到匹配的人物。又如,对于一串多人群聊讨论的旅行计划,Siri可一键生成总结,提炼出谁订了酒店、集合时间等关键信息。这些功能显示,借助大模型,Siri终于具备了多步推理和上下文理解能力,实现了此前难以想象的“一语多事”。
“私人云计算”与隐私保护苹果还推出了一项“私人云计算”(Private Cloud Compute)服务:当Siri需要调用OpenAI模型处理较复杂任务时,用户数据将在本地匿名化后,通过苹果的中继服务器访问GPT算力。这意味着,苹果并未完全将用户隐私交给OpenAI,而是在双方合作中加了一层隐私防护罩。 正因如此,苹果在会上强调:ChatGPT集成将免费提供,用户的信息“不被记录存储”。每次Siri调用云端大模型前,都会征求用户许可,以确保用户知情选择。
尽管苹果竭力宣称注重隐私,但这一开放姿态还是引来了争议。特斯拉CEO埃隆·马斯克第一时间在社交媒体警告,若苹果在系统层面整合OpenAI,他将禁止旗下公司员工使用iPhone,因为他担心ChatGPT可能导致数据安全风险。当然,考虑到马斯克与OpenAI的复杂关系,他的抗议也许另有动机。但苹果显然预料到了各方反应。在发布会当天,苹果罕见地同步公布了一份技术白皮书,详述Apple Intelligence的数据安全机制,包括如何利用苹果自研安全芯片保障云端计算环节的数据加密等。苹果还强调将逐步采用自有服务器芯片来支撑AI云服务,既保护隐私也降低对英伟达等第三方GPU的依赖。
开放合作的态度与自研的坚持除了OpenAI,库克也表示苹果对与更多领先AI厂商合作“持开放态度”。此前有报道透露,苹果曾与长期合作伙伴谷歌商谈引入其次世代大模型Gemini的可能。WWDC上苹果没有具体提谷歌,但宣布未来将持续引入第三方AI技术。业内推测,苹果或许会在不同地区和应用场景下采用不同合作伙伴:例如在中国市场可能整合百度文心一言等本土模型。同时,苹果也宣布与Photobucket等内容平台达成协议,获取数十亿图片用于训练视觉生成模型——显示其自研AI仍在努力“补课”数据。
尽管WWDC 2024上苹果祭出了OpenAI这一强援,并包装出“Apple Intelligence”这样宏大的概念,资本市场和舆论的反应却不算热烈。发布会次日,苹果股价下跌近2%,分析师评价这些更新“只是让苹果追平而非超越同行”。 Forrester的分析师指出:“Apple Intelligence确实会以恰到好处的小创新让用户高兴,但并没有让苹果凌驾于对手之上”。投资者原本期待苹果能给出比微软、谷歌更惊艳的AI叙事,但苹果依然聚焦消费者体验的提升,没有宣布任何进军企业AI服务的新业务。这与竞争对手构建云AI平台、企业大模型战略的做法形成对比。可以说,苹果选择了一条To C为主、“润物细无声”的AI路线:不夸下海口追逐时髦,而是将AI融入现有生态,为其十几亿终端用户增加附加值。苹果软件主管Craig Federighi将此形容为“给普通用户用的AI (AI for the rest of us)”。这一定位虽未让华尔街振奋,却契合苹果一直以来的产品哲学。
伴随WWDC 2024的发布,苹果终于在AI赛道上揭开神秘面纱,直接与业界诸强短兵相接。那么在2024-2025这个关键窗口期,苹果AI的竞争态势如何?我们可以从技术实力、产品形态、战略定位三方面,将苹果与Google、OpenAI、Amazon、Meta等玩家进行对比。
一度落后于OpenAI的GPT-4等顶尖模型。谷歌拥有Brain和DeepMind两大AI实验室,多年来累积了Transformer、BERT等基础研究成果,正在推出多模态超大模型
。OpenAI则凭借GPT-4牢牢占据行业领先。Meta走开源路线,发布了
并开源,使社区力量迅速跟进。相比之下,苹果在AI研究界的影响有限,自研大模型缺乏公开测试和论文发表。
谷歌有庞大的TPU云集群,微软/Azure也为OpenAI投入巨资建设超级计算机,Amazon则凭AWS之利掌控大量GPU资源。苹果没有自己的公共云业务,之前主要依赖AWS和Google Cloud托管部分服务。这使得苹果在大规模模型训练上天然劣势,需要投入巨资追赶(苹果2024年据称采购了价值
”融合架构,用终端芯片+少量云计算完成AI任务,以降低对超大算力的需求。这与Google等主要依赖云端大模型推理的模式不同,是苹果根据自身资源所做的差异化设计。
谷歌和苹果路径相似,都在尝试把大模型融入手机操作系统。谷歌一方面推出独立聊天产品
(现Gemini App),另一方面也宣布要将Bard技术整合进Google Assistant (现Gemini in Assistant)。苹果则直接升级Siri为类ChatGPT助手,通过Siri窗口满足聊天和任务执行需求。
(现Gemini for Workspace)。苹果目前暂无自家办公套件的AI助手,但据传也在研发Xcode编程助手等。预期苹果会将AI广泛嵌入各原生应用 (如Apple Music, Pages/Knote, AppleCare)。
。苹果在Siri中集成ChatGPT。未来Siri、Assistant、Alexa都将进化为多模态全能助手。Meta则另辟蹊径,将AI化身为社交应用中的聊天机器人、数字分身,与苹果专注设备端形成对照。
OpenAI以提供AI能力服务为主营。微软和谷歌希望AI驱动云服务和企业业务增长。苹果则更关心
苹果未与微软/Azure深度绑定,也暂未直接购入顶尖AI初创,而是以客户姿态与OpenAI、谷歌、Anthropic等展开谈判,广交盟友、择优而用。
总体而言,2024–2025年的苹果AI正处于追赶者姿态。通过与OpenAI等合作,短期内获得了模型能力,并依托其独特的软硬件一体生态,将AI落地到个人智能助理、隐私计算等差异化领域。然而,在AI基础研发和大模型话语权方面,苹果依然落后,需要时间厚积薄发。苹果仍拥有庞大的用户基盘和优质产品体验,这给予其缓冲时间。关键在于苹果能否持续加码投入、开放心态合作,并发挥自身优势打造出“人无我有”的AI体验。
综合以上历史与现状,我们不难总结出为何苹果在AI尤其是智能助手领域会陷入如今的被动局面。以下几点被业内广泛认为是苹果AI滞后的主要原因:
Siri从一开始就采用了相对封闭、刚性的架构设计,代码库如“雪球”,新功能添加困难且耗时。这种架构在需要快速迭代的大模型时代完全跟不上节奏,Siri的“先发优势”反成了“
”的隐私政策,导致AI训练数据匮乏。与Amazon、Google不同,苹果不愿长久留存Siri交互记录,学习素材大打折扣。本地AI策略(Neural Engine)虽迎合隐私需求,但在精度和智能程度上付出了代价,让Siri输在了“
苹果高管曾低估生成式AI潜力,资源投入不足,直到竞争压力临近才紧急调拨。
在2022年后才充分认识AI重要性,说明管理团队对AI趋势判断出现失误。
营销与产品团队沟通不畅,如2023年iOS宣传的AI愿景未能按时兑现,损害公司形象。
苹果的企业文化相对不利于AI创新。注重秘密研发,不像Google、Meta拥抱开源和学术交流,错失早期AI人才和思路。生态封闭,
(Siri旧架构)、战略选择的取舍(隐私 vs 功能)、也有组织和文化的短板。第九章:未来展望——苹果AI的逆袭之路与挑战
面对过去的失误和当下的困境,苹果已经表现出痛定思痛、背水一战的决心。库克在2023年底
罕见地表示:“我们将在2024年在生成式AI上开辟新天地”。从WWDC 2024公布的计划看,苹果确实在不惜一切代价补全AI短板。内部人士称,苹果高层下令“不计代价,做成此事”。展望2024-2025,苹果AI的走向可关注以下几点:
尽管短期依赖OpenAI,苹果不会放弃自有大模型研发。通过DarwinAI团队及巨额算力投入,有望在
,缩小与GPT-4/Gemini的差距。若能利用设备生态进行联邦学习或用户协助标注,或能找到符合隐私前提下获取数据的方法,逐步实现Siri后端自主可控。
》(DMA)可能要求苹果开放iOS平台上的默认应用选择,或迫使苹果在AI上更开放透明。
AI领域格局瞬息万变。OpenAI与Jony Ive合作开发AI硬件设备,可能开创新市场。友商(Google Gemini, Meta LLaMA, Microsoft AI in Windows)也在加速,苹果需加倍努力。
从乔布斯怀抱Siri想要开创人机交互新纪元,到十余年后苹果高管痛陈AI战略失误、仓促补课,苹果在AI之路上经历了一次高开低走又奋起直追的戏剧性历程。Siri的起落映射出苹果内部战略与文化的纠葛,也给整个科技行业上了深刻一课:创新领域没有常胜将军,未来的荣耀和教训或许仍将反复上演。
”的决心投入资源和调整策略。苹果的品牌号召力、生态黏性仍在,再加上对隐私与人性化的独特理解,它未必没有机会后来居上。但要赢得这场AI战役,苹果必须坚持变革,补齐技术短板并抛弃过去的傲慢与侥幸心理。唯有如此,苹果才能真正兑现库克口中“在AI上为用户开拓变革性机会”的承诺。正如管理大师所言,问题是帮助我们改变的礼物。对于苹果而言,Siri的衰落与AI的迟到或许正是其涅槃重生的契机——前提是它痛定思痛,拥抱改变。未来两年,苹果能否凭借Apple Intelligence