AI服务器之后,市场的焦点转向了AI手机和AI PC。
在高通基于新ARM架构核心骁龙8 Gen4上市即将到来之时,市场对AI PC的关注越来越高,在本周的财报电话会上,联想透露了一些自身和行业的新进展。
1、“五大要素”定义AI PC
市场上对AI PC的定义各不相同,目前微软给出的定义市场认可度高,具体包括:
1)内存方面,基础AI模型需要16GB内存,标准AI模型则需要32GB,高级AI模型则要求64GB或更多;
2)算力方面,至少要有40TOPS的算力;
联想则在此基础上完善了自己的AI PC定义,包括五个关键要素:
1)内置了压缩大模型;
2)配备自然语言交互能力的AI助手;
3)硬件方面,需要同时拥有CPU、GPU和NPU;
4)能帮助用户建立个人知识库;
5)重视用户个人隐私的保护;
结合微软提出的AI PC内存和算力标准,AI PC的形态愈加清晰:AI PC不仅智能且强大,还能为用户提供更个性化、更安全的体验。
2、AI PC渗透率的变化预测
按照联想自己的定义,目前市场上符合要求的产品较少,联想在电话会中预计今年的比例会在十个百分点以下。
联想预测,2024年公司出货的PC中,大约20%会配备NPU(神经处理单元)。到了2026年,根据联想的严格定义,AI PC的渗透率可能达到50%到60%。目前,联想每年的出货量在5500-6000万台之间,60%的出货量意味着大约有3600万台是AI PC。
美国市场营销专家Geoffrey Moore有一个“市场渗透率加速定律”,他认为当新产品或服务的市场渗透率达到15%时,其增长速度会加快,并最终达到50%左右。之后,增长速度会逐渐放缓,直至稳定。
所以,AI PC的出货量可能会在2024年逐步增加,2025到2026年进入快速增长阶段,这将为整个产业链带来新的机遇。
3、x86和ARM的市场份额
ARM替代x86架构是市场近期关注的一个核心问题,这将对AI时代换机潮比例起到重要作用。
会议上,联想表示未来将会出现x86和ARM两种架构并存的局面。
x86的指令较长,通常在一条长指令中包含多个任务。而ARM则相反,擅长将一条长指令拆分成多个短指令。换句话说,ARM擅长将复杂任务分解成简单任务。这样做的好处是可以降低CPU的功耗,同时还能保持高性能。
英特尔和AMD在x86架构时代,一直占据市场的大部分份额。然而,随着AI计算时代到来对功耗要求的提高,市场开始逐渐倾向于使用ARM架构。英伟达、AMD、高通和联发科都已经推出了基于ARM架构的CPU处理器。
不过,联想也提到,对于AI处理器来说,除了功耗之外,还有很多其他重要的衡量标准。未来,x86和ARM之间必定会展开激烈竞争。这样的竞争对AI服务器厂商来说是个好消息,因为无论是从成本还是处理器选择的角度来看,这都是一个优势。
4、供应链变化
根据高盛发布的数据显示,GPU的供货时间正在不断缩短。英伟达在本周的财报会议上也表示,H100显卡的供应紧张状况已经有所缓解。
联想在此次会议上提供了更详细的数据:去年,GPU的等待周期大约为52周。今年年初,这一周期已从52周缩短到26周,而到目前为止,等待周期又进一步减少。
供货周期的缩短,对于联想、戴尔、惠普和超微电脑等服务器供应商来说是个好消息,因为这意味着服务器的出货将不再受制于供应短缺。然而,联想也指出,具体何时能够完全解决供应链问题,目前仍不确定。
5、Copilot和小天
由于众所周知的原因,国内的 Windows 电脑无法直接使用微软的 Copilot。为了在 PC 上解决 AI 助手的问题,联想推出了自己的端侧大模型助手“联想小天”。
与 Copilot 需要依赖云端运行不同,“联想小天”可以完全在本地运行。
根据科技博主“卡兹克”的评测,“联想小天”具备本地运行和云端运行两种模式,用户可以根据需要自由切换。
这种设计不仅保证了用户的数据隐私,还能在需要时利用云端处理复杂任务。
从功耗来看,“卡兹克”的数据表明,本地模型虽然运行在 CPU 上,但耗电量很低。这个大模型常驻后台,需要大约 4G 的内存。此外,在进行推理时,对 CPU 的影响也基本可以忽略不计。
功能方面,本地模型能够完成邮件拟稿、语音转录、会议总结等任务,性能相当于 GPT-3.5 水平的模型,已经足够满足日常办公需求。