一年一度的科技圈春晚开始了,AI 毫不意外成为了这场晚会的重中之重。
北京时间 6 月 11 日凌晨,苹果进行了 WWDC(全球开发者大会)长达 1 小时 43 分钟的主题演讲,演讲的后半段基本给了「苹果智能」(Apple Intelligence,简称 AI),在近 40 分钟的时间内,苹果差不多提了 60 次 Apple Intelligence:
属实真 AI 了。
苹果营销团队也真的绞尽了脑汁,并没有和其他厂商一样使用「人工智能」或者「机器智能」的说法,而是取巧用了「Apple Intelligence」一词,既能让用户明白这是 AI,又能与其他 AI 系统区分开来,毕竟这是「A」pple 的 AI。
不过这些更多还是表面功夫,可以让人更容易记忆,但能不能让人「留住」还要看实际的功能和表现。
好在……相比已经上马的一众「AI 手机」,苹果好像也没有带来多少惊喜?
iOS 18 平淡升级,大模型压轴登场
作为 WWDC 最重要的平台,iOS 的每一次迭代都可以说牵动无数 iOS 开发者以及 iPhone 用户的心。在最新一代的 iOS 18 上,苹果可以说做出「违背祖宗的决定」,用户可以对主屏幕的应用进行自由放置,同时还支持了批量移动——国产安卓又领先了几个版本。
此外,iOS 18 还支持了 Material You 配色设计。好吧,这是谷歌(从 Android 12 开始)的,但总之 iOS 18 支持将所有应用图标「重绘」成统一的颜色,可以根据壁纸智能取色,也可以自定义。
当然,iOS 18 还对照片 App 做了大幅度的改造,开放更多小部件的入口,新增游戏模式、离线地图等,更具体的可以看看雷科技凌晨肝出来的《iOS 18 发布,就这?》。
实际上,比起常规更新,iOS 18 或者说这届 WWDC 最让外界期待的还得是 AI。
图/苹果
苹果也确实按照观众们的设想,在主题演讲的后半段端上了一桌的 AI 大宴,介绍了 Apple Intelligence 如何改变 iPhone、iPad 和 Mac 平台上的体验,还有跨平台、跨 App 操作的潜力。
最典型的一个改变还是发生在 Siri 上。
和其他厂商改由大模型驱动的 AI 助手一样,至少苹果宣称 Apple Intelligence 让 Siri 变得更聪明——能够更准确地理解用户的提问和需求,更深度地整合 iPhone、iPad 以及 Mac 上的邮件、照片、短信、地图、日历以及当前屏幕上的信息,更智能地执行操作和回答问题。
对了,Siri 还整合了 OpenAI 的 GPT-4o 模型,在遇到复杂问题时 Siri 会提示是否使用 ChatGPT 进行回答,如果同意则会通过 GPT-4o 进行免费输出。
Apple Intelligence 驱动的 AI 写作助手也来了,几乎支持所有涉及文本输入的原生和第三方 App,理论上用户在微信输入框也能用。但相对应的能力有一定限制,只能进行重写、润色和校对,而不能从零生成文本。
图/苹果
还有 AI 生成图片和 Genmoji 的功能,同样覆盖支持几乎所有原生和第三方 App。此外,苹果也在 iPhone、iPad 以及 Mac 平台上实现了 AI 整理通知、AI 通话转录和摘要功能。
不过要指出的是,Apple Intelligence 支持的机型不算多,而且不同于搭载 M 系列芯片的 iPad、Mac 产品几乎全线支持,支持 Apple Intelligence 的 iPhone 只有最新搭载 A17 Pro 芯片的 iPhone 15 Pro 系列:
iPhone 用户不 AI 了。
Apple Intelligence 和 GPT-4o,苹果选择了一条不一样的 AI 之路
严格来说,Apple Intelligence 其实是一款深度集成到 iOS 18、iPadOS 以及 macOS Sequoia 中的个人智能系统,由多个生成模型组成。但在大体上,你可以将这些模型分成端侧(设备端)和云端(服务器端)模型。
换言之,综合考虑成本、能耗、性能、隐私、安全和个性化优势之后,苹果也选择了混合 AI。这一点并不意外,因为这是也几乎是全球个人设备厂商的共识,从海外到国内,从顶级巨头到主流厂商,概莫能外。
不过苹果到底还是苹果:
图/苹果
在 Apple Intelligence 的架构下,设备端的语义索引会整理和提炼各种 App 中的信息,用户的提问首先会通过语义索引进行分配和操作。大多数涉及个人数据的模型都在 iPhone、iPad、Mac 等设备内本地运行,更大、性能更强的模型则运行在苹果基于「私有云计算」技术自建的数据中心内。
没错,就算是放在云端运行苹果也要强调隐私,苹果官方甚至还单独发布了一篇博文详细介绍「私有云计算」这一技术。简单来说,私有云计算不会储存用户数据,作为服务器方的苹果也无法访问,同时用户掌控服务器对话权限。
除此之外,苹果还有一层普遍意义上的云端模型——GPT-4o。
虽然今天的大模型各种各样,但 GPT-4o 依然是当下最顶级的模型,代表了最聪明的 AI。根据演示,GPT-4o 至少被集成在了 Siri 以及 AI 写作功能中,可以输出更好的回答,以及从零生成一段文本和图片。至于 GPT-4o 会不会被集成在更多地方,我们可能还要等秋天正式上线时才能确定。
相比之下,其他手机厂商采取的策略也各有不同。荣耀的思路是试图打造一个大模型平台,尽可能接纳更多的通用和垂直大模型,更多场景是用端侧模型分析用户意图,进而调用第三方大模型实现。
OPPO 的思路则相反,自主训练的安第斯大模型分为三个等级,包括设备端的 Tiny 版本,服务器端的 Turbo 以及 Titan 版本,同时也自建了数据中心,更专注于垂直的能力,只在智能体的层面开放给第三方。vivo 在大体上也是这个思路。
OPPO 安第斯大模型,图/雷科技
当然,现在还很难说哪种路线能够走得最远,但苹果确实选择了最符合自身情况的应对策略。
同时在体验上,苹果主打的也是在系统层面提供更全面 AI 体验,将大模型的能力拆解成一个个 API(应用程序接口)和功能模块,让用户可以用到全局的 AI 功能之余,也让开发者可以用上 Apple Intelligence 的能力。
下一代 iPhone:A iPhone?Ai Phone?
AI 会改变手机吗?对很多人来说,这个答案是肯定的。但 AI 会如何改变手机?恐怕没有任何人和厂商能够笃定。
在 WWDC 的主题演讲中,苹果其实也演示了 AI 如何改变 iPhone、iPad 以及 Mac 的使用体验,尤其强调 Apple Intelligence 的运行基于用户的个人信息和情境。比如简单情境下的「调出上周 xx 发给我的文件」「看看妈妈和我的所有照片」「播放前几天我太太发给我的播客」等。
又比如,苹果软件工程高级副总裁 Craig Federighi 就举了一个相对复杂的情境,即在会议推迟的情况下询问能否赶上女儿的演出。此时,Apple Intelligence 将从设备上找出主体(女儿)的演出相关信息(时间、地点),以及会议的时间、地点,再依据常用交通方式和预计时间给出最终的回答。
图/苹果
这种想法并不稀奇,很多厂商在给 AI 手机画饼的时候其实也不少谈到「个人数字助理」的美好畅想,但实际根本没做到。
假设,苹果真的能够做到真正的个人化智能,依据散落在设备各个地方的信息和服务,给出真正具有参考价值的回答,那无疑会是 AI 手机的一次重大转折,也会在很大程度上决定下一代 iPhone,到底是一台:
A iPhone?还是 Ai Phone?
时间上,Apple Intelligence 目前还没有实装,按照苹果的计划,今年夏天开始测试美式英语版本,秋天正式上线。换言之,iPhone 16 应该会直接预装 Apple Intelligence,iPhone 15 Pro 系列以及搭载 M 系列芯片的 iPad、Mac 可能会陆续支持。
不过这仅限美式英语版本,中文以及其他语言版本的支持还要等到明年,目前暂无更具体的时间表。而且对国行中文用户来说,Apple Intelligence 注定要大打折扣,包括可免费使用的 GPT-4o。
另外从时间来讲,苹果的上线速度也着实慢了,也再一次说明了苹果的仓促上马。甚至在演讲中,苹果也只是反复强调 Siri、Apple Intelligence 以后会有更多/更好的功能,说是「画饼」都有些空洞。
总的来说,我倾向认为苹果可能自己也没想清楚 Apple Intelligence 的路线图。
苹果会重新定义 AI 手机吗?
不谈过去厂商宣传的 AI 手机,真正意义上引入端侧生成式 AI 的手机,可能也就追溯到今年 1 月发布的 Find X7 系列上。除了新的 AI 助手、AI 生成图片等,Find X7 系列上包括 AI 消除、AI 通话/文章摘要等更具实际价值的 AI 功能,也开始逐渐普及各家的系统之中,走向大众消费者。