不到2年时间,从文生文、文生图大模型到文生视频大模型,生成式AI跨越壁垒、一路狂飙。除了感叹科技的爆发式增长,人们更关心的是如何拥有自己的大模型?业界广泛预期,PC会成为个人大模型落地的首要终端,AI PC也渐渐成为各方关注的重点。
继ChatGPT之后,OpenAI又一重磅产品Sora发布。由Sora AI 生成的“一位时尚女士走在东京的街道上,街道上到处都是温暖的霓虹灯和动画城市标牌……”的相关视频火出圈了。
“59s超长长度”、“多角度镜头视频”和“世界模型”,Sora就如一颗“深水炸弹”再次激起人们对AI的广泛关注和探讨。
图1 东京漫步(图片来源:https://openai.com/sora)
不到2年时间,从文生文、文生图大模型到文生视频大模型,生成式AI跨越壁垒、一路狂飙。
除了感叹科技的爆发式增长,人们更关心的是如何拥有自己的大模型?业界广泛预期,PC会成为个人大模型落地的首要终端,AI PC也渐渐成为各方关注的重点。
一、未来已来,AI PC是否遥不可及?
问题来了,
为什么PC被认为是个人大模型落地的第一入口?
在生成式AI高歌猛进中,有人欢喜,认为更强的模型也不会远,未来会更精彩;有人愁,AI大模型在云端运行存在数据泄露、传输延迟、运营成本越来越高等诸多问题。
众所周知,以ChatGPT为代表的AI大模型是通过“人类反馈强化学习”来不断进化,而这些大模型当前都部署在云端,需要将个人数据上传到网络,存在泄露隐私的隐患。
据Cyberhaven调查,在拥有10万名员工的机构中,员工平均每周向ChatGPT提供敏感/内部数据199次、客户数据173次,以及源代码159次,其中敏感数据占员工发送到ChatGPT内容的11%。
图2 10万名员工一周内发送给 ChatGPT 的敏感文件数量(数据来源:Cyberhaven)
此外,随着用户量及使用请求的逐渐增多,云端的公共大模型较为缓慢的响应和反馈速度影响了很多用户的实际体验,且完全依靠云端将面临着成本的线性提升。
因此将AI大模型嵌入终端设备,成为破局之路。PC以其强大的计算和存储能力、丰富的交互方式、备受信赖的安全终端以及广泛的应用场景,成为个人大模型落地的理想平台。
AI PC应需而生。尽管业界对其定义尚未统一,但其核心特征主要包括以下几点:
本地混合AI算力:能够支持包括CPU、GPU、NPU在内的异构计算,在本地就拥有强大的计算能力,可以不依赖云服务,快速处理和响应复杂的AI任务。
数据安全和隐私保护:AI PC通过充足的AI算力在本地完成大部分数据的处理与模型运算,减少了数据传输到云端的过程中可能出现的隐私泄露风险,保障了用户数据的安全性和隐私。
个人大模型:AI PC的个人大模型是“本地大模型+云端大模型+个性化本地知识库”的综合体,针对工作、学习、生活等场景,提供个性化创作服务、私人秘书服务、设备管家服务在内的个性化服务。
二、技术蝶变,解码 AI PC中的AI
在推进PC向AI PC演进的过程中,将AI装进PC需要哪些技术呢?
一方面,借助大模型压缩技术,可以在不显著降低模型性能的前提下,节省存储空间、提高计算效率、加速推理过程,使大型AI模型更容易“塞进”PC中,从而拓展AI技术的应用领域。目前常见的模型压缩包括知识蒸馏、模型量化和权重剪枝等方法。其中,知识蒸馏类似“老师教学生”,利用一个大型、复杂的教师模型(Teacher Model)来指导一个小型、简化的学生模型(Student Model)的训练,可以将复杂模型的知识迁移到简化模型中,从而实现模型压缩;模型量化类似“量子级别的减肥”,通过将神经网络模型的参数的浮点表示转换为定点表示,如将float32的数据计算精度变成int8的计算精度,可以有效减少计算量和模型体积,从而提高模型的运行效率;权重剪枝类似“化学结构式减肥”,通过删减模型结构中重要性较小的权重,来减小模型的规模,从而降低存储需求和计算复杂度。
图3 模型压缩的基本方法
另一方面,通过嵌入AI芯片,形成“CPU+GPU+NPU”的异构混合算力,以满足AI计算中复杂且多样化的需求。其中,CPU(中央处理单元)在通用计算上表现出色,负责任务调度和结果整合;GPU(图形处理单元)在图形和并行计算方面表现亮眼,用于需要并行吞吐量的大型工作负载;NPU(神经网络处理单元)则是一种专门设计用于进行人工神经网络计算的芯片,被广泛用于加速人工智能任务,特别是深度学习和机器学习算法。三种芯片充分发挥各自的优势,不仅保证了本地模型推理的可行性,而且算力也在快速提升,使得AI PC可以承载越来越大的AI模型,执行越来越复杂的任务。
随着技术的加速蝶变,无论是应用内置的AI功能,还是专为AI打造的软件,普及后的AI PC将让AI成为用户“看得见、摸得到、用得好”的智能生产力。
三、入局者众,AI PC正在路上
当前,有关AI PC的竞争才刚刚开始,雄踞于各个细分领域的龙头企业纷纷推出新品,以期在AI PC领域抢占先机。
淘金先富“卖铲人”,芯片三巨头已经摩拳擦掌。AMD在2023年年初发布了集成独立AI引擎的锐龙7040系列处理器,并在2024年CES(国际消费类电子产品展览会)上推出搭载AI神经网络处理单元(NPU)的锐龙APU 8000G系列处理器,在桌面端市场开启AI PC时代;英特尔也推出了酷睿Ultra处理器、酷睿Ultra vPro系列处理器,采用Intel 4制程工艺和先进的3D Foveros封装技术,集成NPU并与CPU、GPU协同工作;英伟达在AI PC领域推出多款GPU和本地大模型Chat With RTX,可检索和分析电脑文件,还能通过视频链接收集资料并文字记录。
有人“卖铲”,有人“卖水”,PC厂商也蓄势待发。联想在AI PC领域推出了ThinkPad X1 Carbon AI和联想小新Pro 16 AI酷睿版等产品,并在2024 CES上展示了超十款AI PC,均配备了Copilot按键,以提供个性化服务并保障数据安全;戴尔与英特尔合作,推出了搭载Ultra处理器的灵越系列、XPS系列的AI PC,支持多种AI技术的本地使用和面向AI的深度优化;惠普也推出了惠普星Book Pro 14,搭载酷睿Ultra处理器,整合AI引擎,提供高效性能和存储体验。
此外,宏碁、华硕、三星等也推出了各自的AI PC产品。宏碁推出集成多种实用AI功能的Acer Sense应用程序,并且在非凡Go新品上单独配备实体Acer Sense键,一键即可开启AI新体验;华硕ROG系列推出幻14 Air和幻16 Air两款轻薄本,AI功能升级;三星首次推出了旗下AI PC系列Galaxy Book 4,拥有Copilot功能,同时Galaxy智能手机与Galaxy Book笔记本电脑实现深入联动。
表1 各大厂商在AI PC领域的产品(部分)
总之,AI PC市场的争夺已经拉开了序幕,各路英雄也纷纷聚集在此,准备一展身手,争夺这场可能改变他们江湖地位的较量。
四、将至已至,AI PC或将开辟PC新蓝海
作为AI技术与传统PC相结合的产物,AI PC被硬件厂商视作经历数年消费低迷期后,重振行业的星星之火。
一方面,随着AI PC应用场景的不断拓宽,用户可能会更倾向于选择具备强大AI功能的PC产品,从而加速换机潮的到来;
另一方面,各大企业为了在激烈的市场竞争中获得优势地位,将借助AI PC加速智能化转型,优化客户体验,提升运营效率。
根据IDC预测,AI PC在中国PC市场中新机的装配比例在2024年会达到54.7%,而到2027年,这一比例将攀升至将84.6%,成为PC市场主流。
图4 AI PC市场规模及占比预测(图片来源:AI PC 产业(中国)白皮书)
而AI PC渗透率的提升将加速更高性能的处理器、更大容量的内存、更高效的存储和散热系统的需求。
在处理器芯片方面,大模型的本地运行需要强大的处理能力,离不开AI专用算力,因此要求使用先进制程工艺,以提供更高的性能、更低的功耗和更小的体积的芯片,同时内置AI加速器如NPU(神经网络处理单元)到PC处理器中,以便更高效地处理AI算法和模型。
散热能力是高算力芯片的一个主要瓶颈,可以采用液冷技术保持芯片温度在正常范围内,同时重新设计机器外壳和结构件,采用更好的散热材料。
此外,本地化模型的运行需要进行大量数据处理,对数据传输速度和内存容量提出更高要求,促使DRAM及其配套产品SPD、CKD等接口芯片的技术迭代。
AI PC在带动PC组件的迭代与创新的同时,有望提升PC零部件产业的价值。
后记
当前时点AI PC虽然已经登上了历史舞台,但是仍处于产品早期阶段,未来还存在许多变数和疑问。不过可预见的是,技术催化、性能升级、应用落地、厂商押注……,AI PC将成为各家厂商的兵家必争之地。AI PC未来会何去何从,让我们拭目以待吧!
参考文献
1.AI PC产业(中国)白皮书
https://document.e-works.net.cn/pdf/153046.htm
2.AI PC元年,全球前五大PC厂商如何领跑?
https://mp.weixin.qq.com/s/jN0BWXwSwh82DIkCfaJlVQ
3.PC市场触底反弹:连跌7季重回增长,AI成为救命稻草
https://baijiahao.baidu.com/s?id=1788325435048538990&wfr=spider&for=pc
本文为e-works原创投稿文章,未经e-works书面许可,任何人不得复制、转载、摘编等任何方式进行使用。如已是e-works授权合作伙伴,应在授权范围内使用。e-works内容合作伙伴申请热线:editor@e-works.net.cn tel:027-87592219/20/21。