兰州市网站建设_网站建设公司_API接口_seo优化
2026/1/10 1:46:35 网站建设 项目流程

文|刘俊宏 魏琳华

编|王一粟

每年的CES最大的看点,就是消费电子领域各种各样的“怪东西”。未来的宏大叙事,往往就隐藏在这些小硬件背后。

今年在拉斯维加斯会展中心逛展,难免会有种穿越到“华强北”的错觉——展馆内的中文交流、时不时碰上中国面孔和处处可见的中国参展厂商,都在印证这种感觉并非空穴来风。

然而,翻阅数据可以发现,实际上,中国并不是本届展位最多的国家。

声网AI线产品负责人姚光华在社交媒体上分享了一组数据:今年中国展商的占比约为26%,数量上仍次于主场作战的美国。而如果将时间轴拉回2018年,中国展商的占比一度超过40%。

为什么数据“不升反降”?可以说,彼时的喧嚣中夹杂着不少“镀金”的心态——当时,许多企业漂洋过海,更多是为了给“中国制造”贴上一个国际化的标签,一方面可以回国更好地展开外销,另一方面也可以更好地全球化布局。

时过境迁,当潮水退去,留在CES展示的中国厂商,带来了更坚实的科技力量。一个明显的指标是,在代表未来生产力的机器人领域,中国企业参展CES的占比高达55%。

不止机器人,本次CES上能清晰看到,随着AI技术的成熟、泛化能力提升,中国AI硬件也在明显变得成熟。具体来说,小硬件厂商在小步快跑,大厂主导的开始有一些明确的顶层战略。

这种集体突围,恰恰与今年CES最宏大的主题——“物理AI”呼应上了。

本届CES上,来自英伟达、AMD和英特尔这些大芯片巨头不约而同地将目光投向物理AI和端侧AI。用黄仁勋的话来说,“物理AI的‘ChatGPT时刻’已经到来”,AI不仅仅停留在纸上谈兵阶段,而是真正走入现实,让智驾更“聪明”、让机器人能干好更多工作。

物理AI的大时代已经到了,随着AI落地进程的推进,AI硬件终将成为人类生活密不可分的消费级产品。

2026年,AI硬件进入成熟期

CES 2026是AI大模型时代的第三届。相比过去两年,今年的AI硬件正在逐渐脱离概念和创意的初级阶段。

AI PC、AI录音笔、AI玩具、智能眼镜,今年的CES上已经出现了大批高度成熟可用的产品。

2025年CES时,AI PC还是PC硬件简单“放了”一个NPU。今年的AI PC开始有了自主思考能力。

其中,联想成功将去年处于概念阶段的自动旋转屏PC进行消费级量产。这台命名为ThinkBook Plus Gen 7 Auto Twist的设备能自动追踪用户面部,并配合电动铰链让显示屏随时都处于最佳观看的角度。新的交互模式,意味着AI PC终于可以在硬件层面主动服务消费者了。

PC作为AI+生产力的载体,联想今年还更新了卷轴屏的PC。该产品能根据用户需要,将屏幕侧向“拉伸展开”,以获得“带鱼屏”显示器的视野。

视野范围的扩大,不只是让打游戏和看电影的体感提升,其实也更适合使用AI Agent。按照目前智能体Manus的产品布局,更宽的屏幕可以同时显示操作界面、工程界面和代码运行界面,更适合AI原生的生产力需求。

值得一提的是,联想卷轴屏的屏幕来自TCL华星的印刷OLED。这显示出了中国供应链在AI时代的技术突破和生态互补

在AI PC之外,AI录音硬件也已经成熟。在多家硬件厂商的追逐下,赛道也开始变得拥挤。

2025年,核心研发和生产基地位于中国深圳的Plaud就已经“小火了一把”,实现了全球销量破百万的成绩。在本次CES上,Plaud继之前“卡片式录音笔”,又发布了更容易携带的“胸针式录音笔”。

Plaud能取得不错成绩,就是把录音速记做成了完整的会议纪要,甚至可以跟销售等企业系统打通。让交付价值,从参考变成了更实用。

在展馆其他区域,光锥智能还看到了其他厂商的录音设备。例如出门问问的AI录音卡片TicNote、时空壶的AI翻译耳机、TOZO的AI翻译耳机等等。眼见着,AI录音硬件的赛道即将掀起一场大战。

如果说AI录音硬件的成熟,将之前的产品功能做得更深。那么今年的AI玩具,就是在全方位整合AI功能了。

2025年CES时,AI玩具大多还是做一个可爱外表,然后接入AI大模型实现简单的对话和抚摸等交互。今年的AI玩具几乎都落地了AI多模态能力,并且能为用户主动提供情绪价值。

例如机器灵动的糯宝Robie看着是一款毛绒玩具。但内部结合AI多模态能力,能够分析用户情绪,主动提供不同的回答,并识别人脸。这样家里有多个小孩的话,玩具就不会记错了。

赋之科技的Enabot则是在传统家用摄像头的基础上,将运动能力、安防、AI对话整合在一起。单独作为一款玩具看,Enabot还算可爱,能陪人聊天。放在家里当一个宠物摄像头用,能追着家里的猫狗进行视频通话。

最后,是2025年最火的AI眼镜赛道。在今年CES上,AI眼镜也向前进化了一个阶段。

据光锥智能不完全统计,CES现场有超过50家展商,几乎是整个CES最密集的展示品类。其中,中国AR品牌雷鸟创新(TCL旗下)带来了全球首款支持eSIM功能的双目全彩AR眼镜“雷鸟X3 Pro Project eSIM”。这款AI眼镜最重大的意义在于,它的上网功能(esim)彻底摆脱AI眼镜品类对手机的依赖,完成了对标手机智能的最后一环。

这意味着,AI眼镜不再只是一个设备,现在是一个独立的智能终端。

另一边,联想也展示了一款概念AI眼镜。该设备可利用手机或PC的AI算力,进行亚毫秒级实时翻译和智能图像识别。这个功能最大的亮点在于,智能眼镜现在也加入到智能终端互联的圈子里,下一步可能就是PC、手机、AI眼镜、平板的互联互通。

通过成熟的AI硬件变化看到,今年厂商们不再迷茫。

小硬件厂商们在小步快跑,在补上AI大模型能力的同时,不断将硬件功能拆得更细。大厂主导的AI硬件,则开始有一些明确的顶层战略。例如联想的智能终端“全家桶”、TCL(雷鸟创新)的智能终端产品线布局等等。

不过,CES作为世界级的创意展示会,还是有一些好玩的时尚小玩意。你可能不知道这玩意到底有什么用,但就是很炫酷。

例如雷蛇打造了虚拟AI游戏助手Project Ava硬件。这是个桌面全息投影能给玩家实时提供游戏建议。雷蛇不愧是“灯厂”,连“罐装小人”都要有RGB。

三星的AI冰箱Family Hub则是搭载了谷歌Gemini 3,能直接语音控制开关门。这下手上粘油的时候就不需要担心弄脏冰箱了。

2026年的CES,依旧跟往常一样不只是消费电子的秀场,更是代表了接下来智能硬件进化的趋势。

在2024年时,AI大模型刚刚兴起,各种展示还是不成熟的创意,AI原生硬件上有很多“致命”的缺陷。今年的展示能清晰看到,AI硬件比之前成熟了太多。

中国机器人批量“进场打工”

一个明显的体感是,今年CES的具身智能展位,已经成了中国的主场。

从数量上来看,今年CES展上,人形机器人相关展商总数约38家,属于较少的品类。其中,中国企业多达21家。这代表中国玩家在人形机器人这一前沿赛道中,取得了相当的优势。

中国企业霸占机器人展位最重要的原因,是我们的行业成熟度遥遥领先。

细数今年的海外参展厂商,今年参展的机器人也到了落地应用的阶段。其中,今年变化最大的是波士顿动力。和往年展示跑酷的方向不同,今年波士顿动力带来的新款机器人Atlas身体设计灵活多了,它拥有56个自由度配合全旋转关节,让它的头部和躯干都能360度旋转,能在产线中完成分拣、组装等复杂任务。灵活度提升之外,它的电池续航时间达4小时,能在3分钟内自主更换电池。

从功能配置上看,Atlas很明显是为工厂使用而设计。波士顿动力宣称,机器人2026年的订单已经订满,计划在未来几个月内向现代汽车的机器人 Metaplant 应用中心(RMAC)和谷歌 DeepMind 发货。通过演示看到,Atlas可以轻松将汽车门板举过头顶,进行汽车装配任务。但具体应用效果如何,由于缺少现场展示环节,后续有待验证。

其他国外厂商这边,表现则有点参差不齐。

LG的机器人CLOiD展示了从人类手上接过毛巾,并将其放入自动开门的洗衣机。但这么简单的动作执行起来花了半分钟,说明未到成熟应用阶段。

新加坡的Sharpa在现场和观众打起了乒乓球,它反应仅0.02秒,全程自主免遥控,抓拍精准度与人类相当。乒乓球打得好,主要是因为机器人大脑采用了分层式端到端的VTLA(视觉-触觉-语言-动作)模型,该模型更擅长连续任务精准执行。演示很惊艳,仍不能摆脱其是一个演示性质的应用,终究还是缺了点实用价值。

与海外厂商相比,中国机器人厂商最大的区别是,各家的产品和商业化早早形成了体系。

这次中国机器人厂商带来的新品不多,基本都是“拖家带口”展示已经发布过的。宇树展示了消费级人形机器人G1量产版、入门级R2、新一代全尺寸人形机器人H2以及四足机器狗等产品,在场馆内又办起了“擂台”。智元带了旗下灵犀X2、远征A2、精灵G2、D1、新版灵巧手的完整产品线,并演示了群控舞蹈、工厂非结构化环境作业。

星海图这次在CES现场发布了两款新品。一个是首款灵巧手Dexo,另一个是支持开箱即用的VLA一体机。其中VLA一体机非常值得关注,该产品是将抓取场景做了模块化整合。用户可以将任意物品置于桌面,通过自然语言或模糊指令,搭载“快慢双系统”的机器人就能自动完成视觉识别、语义理解与准确操作。这意味着,机器人灵巧手控制,正在向模块化演进。

为什么中国机器人厂商如此热衷推出机器人产品序列并推动技术标准化?一个关键原因是中国人形机器人已经积累了不少商业化经验。

从趋势来看,人形机器人今年能够落地的两个方向,一是娱乐场景,二是需要协作和流程标准化更高的场景。

在娱乐场景上,中国机器人已经用动作能力完成了商业化路径。在中国一线城市,商场开业不弄个机器人跳舞,甚至都很难招徕人气。租个机器人跳一天舞,甚至要上万块钱。

在相对严肃的工业场景,不少国产机器人都展现胜任工厂任务的能力。

例如智元首次拿出精灵G2机器人,在CES现场就完成了签约,启动与均胜电子过亿元采购合同的首批商用交付。北京人形机器人创新中心的具身天工2.0和天工Ultra系列,能执行抓取物品、分类、码放、“打螺丝”这些流水线简单,但又相互配合、不可或缺的任务。

从单动作到执行多样任务,机器人正式摆脱了“任务执行器”的定位。中国具身智能产业已经率先到达了应用阶段。

可以预见,在中国具身智能厂商的发展模式下,到处都会出现机器人的身影了。

CES两大关键词:物理AI、端侧AI

站在2026年开年的门槛上,透过CES,一场更为深刻的变革正在发生。

从2023年末开始,随着AI技术的迭代升级,叠加在AI硬件行业上,新的变革也随之诞生:大语言模型让AI硬件能说话、会思考;多模态让它们长出了眼睛,能够“看”并和外界交互。

今年,改变AI硬件的绝对主角,变成了“老黄”“苏妈”们挂在嘴上的“物理AI”。

除了那句被当成金句用的“物理AI的‘ChatGPT时刻’已经到来”,黄仁勋也给出了成果——自家首款开源的VLA(视觉-语言-行动)推理模型Alpamayo,它不仅能看路,还能给出自己思考的解释。

物理AI的核心不仅仅是要应用好物理规律,落实到现实生活中,它对于准确度的要求更高,也要解决大量复杂、不同的场景问题。如果一个机器人对台阶的高度产生了一毫米的“幻觉”,或者对玻璃杯的握力计算出现偏差,后果就是摔倒或破坏。

由此,也引申出了今年芯片大厂们为物理AI做的关键配套,也就是端侧AI。

物理AI的野心绝不仅仅停留在云端的数据中心。要让AI真正理解物理世界,它必须落到电子设备当中。

过去,我们谈论AI硬件,往往指的是“云端大脑+通信管道”的组合。但在2026年,这种模式显露出了局限性——当一个机器人在毫秒级的时间内需要决定是跨过障碍还是停下时,它不能被信号在云端传输导致的延时问题影响。所以,AI必须在端侧落地。

无论是高通在本次CES上极力推崇其去年发布的“跃龙”品牌,推出首款机器人芯片等产品,承接具身智能和物联网行业的需求;还是英特尔提升新芯片的算力和内存,支持端侧部署700亿参数级别的AI大模型,都说明了这一点。

端侧AI的诞生,一方面是顺应物理AI的需要,另一方面,也是在AI技术落地的过程中,诞生出的真需求。

在今年CES的聚光灯下,英伟达CEO黄仁勋从“生成式AI”向“推理式扩展”(Test-time Scaling)的范式转移,从OpenAI的o1开始,思维链让模型学会了慢思考,多步推理让回答的准确性大幅提升,也让AI在推理阶段所消耗的算力将呈指数级增长。

“AI的推理成本每年将下降10倍,但AI为了进行深度‘思考’(Test-time Scaling)所产生的Token数量每年将增长5倍。”在发布新一代芯片Rubin GPU架构时,黄仁勋说。

AMD CEO苏姿丰则从AI应用市场规模角度来说明这一点,她在CES的专场演讲中给出了一个激进的判断:“未来五年内,将有50亿人每天使用AI,超过世界人口的一半。”

再说回物理AI,为什么会成为今年基础设施巨头们不约而同押注的方向?

物理AI的崛起,本质上是AI大模型在发展过程中,反向走了一遍人类在信息世界走过的泛化路径。

回顾过去几年,AI大模型在信息世界的发展史,就是一个不断将人类已编码信息“Tokenizer”(词元化)的过程。AI首先以文字作为训练语料,接着“消化”了图片与声音,将其转化为模型可理解的向量。而现在,这一进程终于蔓延到了物理世界。

当Scaling Law的效应不再明显时,更多物理维度的指标,比如力学、时间序列、或是触觉等等,都被纳入到大模型训练中。

最新的VLA(视觉-语言-动作)模型和VLM(视觉-语言)模型,正是这一进程的产物。它们本质上是在用大模型对真实世界的传感器数据进行解码。从自动驾驶到具身智能,技术逻辑是一脉相承的,但维度发生了跃迁,从道路场景的2D切换到了整个物理世界的3D。

自动驾驶可以被视为具身智能的初级形态,它主要处理的是结构化道路上的2D或2.5D信息。当AI进入通用机器人领域,它所面对是真实世界。在这里,AI不仅要“看懂”环境,还要理解重力、摩擦力以及物体之间的复杂的空间关系。

今年CES上涌现出的各类AI硬件,实际上是AI泛化能力的外溢表现:我们看到了扫地机器人开始具备跨越障碍的机动性,看到了机械臂展现出类似人类的灵巧。

当AI模型的理解能力越强,其对物理世界的适应性就越强,硬件产品的成熟度也随之指数级提升。

可以确定的是,2026年,随着物理AI进程的推进,发生在AI硬件上的蝶变也更加值得期待。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询