在大规模开源模型持续驱动功能矩阵的产业格局下,AI产业链正在加速从底层基础设施到上层应用的演进。业界将2026年定义为人工智能应用的关键一年。今年,各大厂商纷纷看重“物理AI”,底层基础设施也面临差异化应用需求驱动的新发展趋势。近日,Arm发布了一系列技术预测,指向2026年智能计算新时代。届时,计算将更加模块化和节能,实现云、物理设备和前沿人工智能(AI)环境的无缝互连。还提到,下一个价值数十亿美元的AI平台将是物理智能领域,将把智能能力融入新一代自主设备和机器人中。 Arm中国区全球副总裁邹挺在接受21世纪经济报道记者采访时谈到“物理AI”的发展时表示,“业界非常有能力构建单一的高性能机器人或自动驾驶系统。但真正的挑战是如何实现数万甚至数百万个类似设备的可靠部署。”这直接解决了原生AI硬件开发过程中面临的软硬件碎片化问题。因此,对于AI产业链来说,构建完整的软件生态能力以及引入充分灵活异构的计算硬件基础设施成为了关键设计。物理AI的速度 当谈到今年备受关注的应用场景时,“物理AI”一定是其中之一。在不久前举行的CES 2026上,来自多家主要芯片厂商的高管都谈到了对今年该领域。目前,业界认可的“物理AI”场景主要包括嵌入式智能和自动驾驶。确定方向后,我们正在密切关注技术路线图和商业化进展。但还存在一定差距,大规模实施尚需时日。 Arm 的 2026 年趋势分析预测,在多模态模型技术进步以及更高效的训练和推理过程的推动下,物理人工智能系统将得到大规模部署,并且新型自主设备将出现。这将有助于重组医疗保健、制造、运输和采矿等行业。此外,汽车自动化和机器人场景的通用计算平台也将逐渐出现。汽车芯片有望通过技术复用和适配应用于人形机器人和工业机器人领域。这将进一步提高规模经济并加速物理人工智能系统的开发和部署。然而,从技术角度来看,物理人工智能仍然面临着世界模型和视觉语言动作(VLA)模型两种技术不断演进的挑战。邹婷向记者解释,两者都是物理AI落地的核心技术路线,适合自动驾驶、工业自动化、精准医疗等多种应用场景。其中,VLA模型侧重于解决“理解和执行”的基本要求,而eGlobal模型侧重于解决关键的“预测和因果关系”问题,这对计算能力提出了很高的要求。 “这两条路线各有千秋,优势互补。业界也在探索两条路线的融合:将VLA模型纳入全局模型能力,提高环境预测的准确性;将全局模型融入交互中。”邹婷告诉记者,2025年11月,公司完成了汽车、机器人和各类自动驾驶设备相关业务的整合,并成立了“物理AI”事业部,以应对物理AI的发展需求。“这些领域正在朝着同一个核心目标加速融合。”这是一种在不牺牲算力、安全性或可靠性的情况下,实时、闭环地“感知、决策、执行”的人工智能解决方案。 “随着人工智能技术在各种物理系统中大规模部署,节能性能和完整、成熟的软件生态系统是成功的关键,”他继续说道,物理人工智能必须在严格的功耗和热管理限制下继续运行,并且通常部署在安全关键的应用场景中。邹挺表示,在这方面,Arm推出了一系列分层的解决方案。在硬件层面,Arm发布了针对汽车和Zena的增强型AE IP,拥有CSS产品组合。在软件层面,提供KleidiAI库和优化工具,实现模型的量化和优化。在系统层面,促进云和边缘的协作,将高功耗任务卸载到边缘或云端,并在系统层面提供KleidiAI库和优化工具,以实现模型的量化和优化。支持低功耗通信协议,形成“架构+硬件+软件+生态系统的优化路径。”“我们知道业界完全有能力开发单一高性能机器人或自动驾驶系统。”但真正的挑战在于如何可靠地部署数万甚至数百万个类似设备。过去,软硬件技术的碎片化导致行业发展陷入瘫痪。进步。 Arm希望通过其跨计算平台、配套工具链和庞大生态系统的“单一开发和部署多种类型物理系统”的模式来解决这个问题。 ”邹婷指出,目前英特尔手机的主要供应商Arm,也是这股AI手机热潮的核心‘推动者’之一。2025年,AI手机的主要功能将是高端手机只能连接设备端,而无需连接互联网,已经具备运行30亿参数大型模型的能力。这不仅取决于开源模型小型化后能力的提升,还取决于硬件根据Arm发布的技术趋势,模型压缩、蒸馏和架构设计方面的技术进步将复杂推理模型的尺寸缩小了几个数量级,将其转化为小语言m。模型(SLM)在不牺牲计算能力的情况下,使其更容易在边缘部署,降低调优成本,并高效适应应用程序。具有超高效能耗的大规模应用程序。模型蒸馏、量化等AI模型训练技术有力地支持了这一转变,训练能效有望成为衡量AI模型的核心指标。 PU 中配备专用神经加速器的智能手机预计将于 2026 年推出。这种移动 GPU 专用神经技术代表了移动端游戏图形和 AI 功能的重大进步。它支持更高帧率的 4K 游戏、实时视觉计算和更智能的终端游戏 AI 助手,所有这些都无需依赖云连接。在技术层面,邹挺向21世纪经济报道记者指出,小语言模型(SLM)对手机性能、能效提出了更高的要求、安全性和软件的适应性。这就需要CPU、GPU、NPU等异构计算芯片的完美配合,实现动态负载均衡。适应手机的低功耗限制还需要打破性能-功耗-面积三角关系。同时,这是更多的个人数据,因此安全性必然更加重要。软件的生态适配不容忽视,必须支持多种框架和模型压缩技术,以降低采用门槛。为了快速迭代SLM,PyTorch和ExecuTorch等产品框架必须支持并适应4位量化等压缩方案。因此,在帮助手机获得大规模算力和多模态能力方面,Arm做出了回应,打造了“Lumex CSS计算平台+KleidiAI软件库+开放生态系统”。报告称,Arm Lumex 实现了两位数的性能提升,得益于 Armv9.3 CPU 集群的硬件级安全性。 Lumex 还采用第二代可扩展矩阵扩展 (SME2) 技术,可提供更强的 AI 性能和更低的内存占用,特别适合实时要求较高的应用,例如音频生成、相机推理、计算机视觉和聊天交互。 KleidiAI目前已集成到多个主流AI框架中,包括Call.cpp、ExecuTorch、MNN和LiteRT。以中国市场为例,阿里巴巴统一钱文、百度文信大模型、腾讯混元大模型开源首日,基于Arm的CPU率先完成适配,三大模型与Arm KleidiAI紧密结合。 XR眼镜的进化正在加速。随着人工智能的发展,最近被公认为与手机齐名的输入设备的XR眼镜的发展也正如火如荼地进行。尽管中国市场将经历2025年AI眼镜“百镜大战”,业界普遍将AR视为未来发展前景,这意味着该行业仍在快速发展。 Arm指出,到2026年,可穿戴增强现实(AR)和虚拟现实(VR)设备,例如耳机和智能眼镜,将应用于更广泛的工作场景,例如物流、运维、医疗保健和零售。这一趋势主要得益于轻量化设计和电池寿命的进步,免提计算模式在更多场景中变得越来越流行。里约热内卢使其变得切实可行。随着外形尺寸不断缩小,人工智能功能不断改进,互联体验变得更加无缝,AR 和 VR 可穿戴计算设备将成为工作场所向更智能、更具支持性的未来发展的关键一步。不过,邹婷告诉记者,随着AR/VR这类可穿戴设备在企业应用中的普及程度不断提高,设备es 在设计过程中必须继续满足更严格的几何规格和功耗限制。 “不同的工业场景对实时渲染、数据处理和交互响应速度的要求有很大不同。例如,远程医疗手术对延迟非常敏感,而工业培训可能更关心渲染质量和设备电池寿命。”他说。 XR可穿戴设备在实际实施过程中仍面临诸多挑战。邹婷分析,其中之一就是平衡算力和能源效率。可穿戴 AR/VR 设备的电池容量有限,并且受到轻量化设计的限制。因此,提供高性能计算来支持复杂的功能,同时保证较长的电池寿命是在企业级场景中部署此类设备的关键前提。其次,各种实时交互(视频、音频、手势识别等)对系统后期提出了非常高的要求尤其是在医疗和工业环境等关键场景中。第三,XR设备还需要多功能异构场景适应能力,因为设备必须支持从轻量级到高性能的各种应用。从这个意义上说,Arm cree认为这必须从架构、计算能力、软硬件协同等方面来解决。 Arm C1-Nano非常适合XR(包括VR、AR)、入门级或中端设备,甚至数字电视等场景。你可以使用它。同时,Arm不断优化CPU、GPU、NPU等异构计算单元,以适应不同的设备和应用场景。此外,邹挺指出,设备侧和边缘处理优先考虑高算力、低时延的任务,而按需请求云端资源,扩展算力上限,不仅降低了设备运行负载,还保证了关键场景的实时性。同时,它还促进生态系统协作,优化操作系统、中间件和应用算法,以提高整体系统效率并减少延迟。 AI计算的新兴趋势是AI产业发展的核心基础,AI芯片本身面临的市场需求也在不断演变。除了通用计算核心芯片、GPU、CPU之外,2025年开始,ASIC、NPU等各类芯片也将备受关注。邹婷与记者讨论,不同类型的AI加速器各有技术优势,应根据具体应用场景和工作负载特点进行选择。其中,NPU是专用于神经网络推理的处理器。其主要优点是适配AI架构、高能效、轻量级实现、本地闭环处理、多线程等。-处理器协作。适用于一次性设备、智能音箱、软件定义智能相机、智能家居设备等场景,满足低功耗、实时响应、数据隐私保护等关键需求。在推动NPU能力提升方面,据悉Arm核心主要关注两个方向:异构架构协同和全栈软件生态支持。在坚持异构架构的协同方面,Arm NPU可以与包括CPU、GPU在内的多种处理器高效协同工作,为各种场景提供更好的算力支持。我会为您提供。例如,Arm Cortex-A处理器是一款适用于多种应用的可编程处理器,集成了旨在加速神经网络和各种矢量化代码的Neon/SVE2矢量引擎,并支持多种类型的数据。对于不同A的边缘场景在工作负载方面,专用 NPU(例如 Arm Ethos-U85)可用于托管神经网络处理任务,从而释放中央处理单元 (CPU) 资源。在绿色支持层面,Arm为所有AI硬件解决方案提供全面的开源运行时支持,包括Cortex-A、Cortex-M和Ethos-U,并通过Arm KleidiAI为PyTorch、ExecuTorch、Llama.cpp、TensorFlow和LiteRT等主要机器学习框架提供硬件加速适配。至于AI芯片的总体趋势,Arm指出,特定领域加速技术的兴起正在重新定义芯片性能,但这种变化不能简单地通过区分通用计算和加速器来实现。相反,行业正在向具有系统级协同设计的chicustom ps发展。这些芯片是从系统级与软件堆栈共同设计的,并针对特定的人工智能框架、数据类型和工作负载进行了全面优化。领先的云服务亚马逊云技术 (Graviton)、谷歌云 (Axion) 和微软 Azure (Cobalt) 等提供商正在引领这一变革,这证明紧密集成的平台(专用 CPU、加速器、内存和自下而上共同设计的互连)对于实现可扩展、高效且可供开发人员访问的 AI 至关重要。这一趋势将加速下一代基础设施“融合人工智能数据中心”的引入。此类数据集中心可以最大化单位面积的AI算力,降低AI运行所需的总能耗和相关成本。 2026年,原生AI应用与AI芯片共同进化,将迎来更加深度融合的智能世界。人工智能不再只是云端的数据处理工具,而是嵌入设备、嵌入场景、跨系统运行的“自主神经”。随着物理人工智能、边缘推理、基于芯片和算力的云协作。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。
聚焦每日最新娱乐八卦与独家内幕,助你轻松掌握娱乐圈风云!