华为破解HBM依赖!AI推理黑科技UCM上线,9月正式开源

该技术是线月一款以KV Cache为中心的推理加速套件,UCM集成了多类型缓存加速算法工具,正式实现推理过程中KV Cache记忆数据的破解分级管理,从而扩大推理上下文窗口,赖A理黑提升推理效率。科技开源“银联的线月实际案例和大量测试显示,UCM显著降低首Token的正式时延,最高降低90%,系统吞吐率最大提升22倍,上下文的推理窗口可以扩展10倍以上,这是对于AI推理系统一个巨大的进步。” 周越峰指出。
华为UCM技术已率先应用在中国银联“客户之声”、“营销策划”和“办公助手”三大业务场景,开展智慧金融AI推理加速应用试点,并且已经取得成果。华为表示,计划于2025年9月正式开源UCM,将在魔擎社区首发,并共享给业内所有Share Everything(共享架构)存储厂商和生态伙伴。
AI大模型推理给存储带来哪些挑战?UCM的创新之处如何解读?本文结合中国信通院人工智能研究平台与工程化部主任曹峰、华为数据存储产品线AI存储首席架构师李国杰的观点,进行详细分析。
AI大模型推理给存储带来三重挑战
“ChatGPT的访问量呈现线性增长,最新访问量达到4亿,受益于中国AI大模型DeepSeek爆发,日均调用量也在快速上升,2025年1月开始,中国AI推理的需求增长20倍,未来三年算力需求爆发。IDC表示,2024年算力需求60%是训练,40%是推理,到2027年中国用于推理的算力需求——工作负载将达到72.6%。” 中国信通院人工智能研究平台与工程化部主任曹峰分析说。
当下,AI大模型推理应用落地中,遇到推不动、推得慢和推得贵的三大挑战。首先,长文本越来越多,输入超过模型上下文窗口的内容,推理窗口小就推不动;其次,由于中美在AI基础设施的差距,中国互联网大模型首Token时延普遍慢于美国头部厂商的首Token时延,时延长度为后者的两倍;推得贵,美国大模型的推理吞吐率为中国大模型推理吞吐率的10倍。
华为公司副总裁、数据存储产品线总裁周越峰指出,AI时代,模型训练、推理效率与体验的量纲都以Token数为表征,Token经济已经到来。
在AI基础设施投资,中国和美国有差距,为了保障流畅的推理体验,企业要加大算力投入,但是如何改善AI推理的效率和体验,在推理效率与成本之间找到最佳平衡点?华为推出UCM,以KV Cache和记忆管理为中心提供全场景化系列化推理加速能力。
UCM两大关键能力和创新算法,破解HBM受困难题
HBM是解决"数据搬运"的关键技术。当HBM不足时,用户使用AI推理的体验会明显下降,导致出现任务卡顿、响应慢等问题。华为此次技术突破有望缓解这一瓶颈。
华为重磅推出UCM推理记忆数据管理器,包括对接不同引擎与算力的推理引擎插件(Connector)、支持多级KV Cache管理及加速算法的功能库(Accelerator)、高性能KV Cache存取适配器(Adapter)三大组件,通过推理框架、算力、存储三层协同,实现AI推理“更优体验、更低成本”。
UCM的创新之处,在于可以根据记忆热度在HBM、DRAM、SSD等存储介质中实现按需流动,同时融合多种稀疏注意力算法实现存算深度协同,使长序列场景下TPS(每秒处理token数)提升2至22倍,从而降低每个Token的推理成本。
“实时数据放在HBM当中,短期记忆数据放在DRAM中,其他数据就放在共享存储SSD中,极大提高系统的效率和AI推理能力。针对AI推理平衡成本和效能的挑战,华为推出UCM统一的记忆数据管理器,在两个层面以系统化的方案来解决问题。” 华为数据存储产品线AI存储首席架构师李国杰表示。
一、在底层的框架和机制上提供了多级缓存空间,构建智能管理以及智能流动的基础框架能力。在此基础之上,华为构筑了一系列创新的推理的加速算法和加速特性,包括自适应的全局Prefix Cache,降低首Token时延与单位Token成本。
二、采用动态的Training稀疏加速算法,倍数级提升长序列吞吐和体验。还有后缀检索、预测加速算法、PD检索加速和Agent原生记忆加速。
UCM将超长序列Cache分层卸载至外置专业存储,通过算法创新突破模型和资源限制,实现推理上下文窗口的10倍级扩展,满足长文本处理需求。
中国银联执行副总裁涂晓军分享说,华为与中国银联的联合创新技术试点中,在中国银联的“客户之声”业务场景下,借助UCM技术及工程化手段,大模型推理速度提升125倍,仅需10秒就可以精准识别客户高频问题,促进服务质量提升。
众所周知,目前,AI大模型训练对内存带宽需求呈指数级增长,传统DDR内存已无法满足需求。HBM(高带宽内存)是一种专用内存技术,用于 AI 处理器、GPU和 HPC 系统,这些系统中带宽和能效比原始容量更为重要。HBM3 每堆栈可提供高达 819 GB/s 的传输速度,对于支持大型语言模型 (LLM)、神经网络训练和推理工作负载至关重要。
但是去年12月以来美国将HBM2E列入对中国的禁售清单,国产厂商HBM的突破还在推进中,华为推出UCM的重大意义,在于加速推进国产AI推理生态,其核心价值是推进更快的推理响应和更长的推理序列,以及更优化的成本。
中国信通院人工智能研究平台与工程化部主任曹峰认为,国产化AI推理生态建设应该加速,KV Cache已经成为架构优化的焦点,以KV Cache为核心的推理方案迭出,背后依赖的高性能存储、先进调度策略的重要性愈发显现。
李国杰还强调指出,AI是一个快速发展的行业,每6个月就会迎来新一轮的技术革新,UCM不仅定位于当下,解决AI推理问题,未来发展UCM将从KV Cache分层管理走向Agentic AI原生记忆管理和应用加速。
本文由电子发烧友原创,转载请注明以上来源。微信号zy1052625525。需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱zhangying@huaqiu.com。
(责任编辑:知识)
-
京东11.11推出建材品类送、拆、装、清、运“一价全包” 省心焕新杜绝二次费用
主张“给生活多点实在”的2022年京东11.11,以实实在在的“省心装”服务,让更多消费者享受到了省心焕新家的便捷与轻松。无论是住电梯房还是楼梯房,消费者在免费送装、送装拆旧等服务支持下,都能轻松搞定 ...[详细]
-
6月21日,随着卢家大桥最后一片预制T梁成功架设,由四川路桥交建集团承建的沿江高速XJ23合同段主线实现双幅贯通,标志着沿江高速宜金段建设取得又一阶段性胜利,为全力冲刺2025年全线建成通车目标任务奠 ...[详细]
-
勇士中锋承认掌掴威少是报复:他先肘击了我!发布时间:2018-12-08 15:32 来源:豫都网 我要投稿[摘要]北京时间1月25日消息,来自美媒体的报道称,今天接受电台采访时,勇士队首发中锋扎扎- ...[详细]
-
6月6日凌晨,海南三亚市卫生健康委员会发布情况通报:6月2日付淇某某在三亚被不明生物咬伤不幸离世,我们对此深感痛心。省、市高度重视,迅速成立专家组,严格按照相关处理程序,对病历等相关资料进行封存,全面 ...[详细]
-
国内油价迎年内第8次上调 92号汽油重回6元时代发布时间:2017-05-04 15:06 来源:豫都网 我来说说 我要投稿[摘要]□记者傅豪丁倩 本报讯 11月30日24时起,受国际油价整体呈小幅上 ...[详细]
-
中国消费者报长沙讯记者余知都)眼下,瑜伽裤、暴汗服、塑身衣等产品成为健身减肥达人的热衷服饰。其中,瑜伽裤以时尚、功能强大热销;暴汗服又名“发汗服”“桑拿服”,穿上之后可以让人体快速出汗。面对这些眼花缭 ...[详细]
-
“五一”小长假已经来临,是不是还有很多小伙伴不知道去哪里游玩?那么不妨跟着百万粉丝网红“菁菁妹儿”和知名旅行博主“昭昭在路上”一起来深度打卡汉阴吧。4月30日,百万粉丝网红“菁菁妹儿”和知名旅行博主“ ...[详细]
-
中国消费者报报道(记者刘浩)在大数据场景中,交易越来越多地依靠算法完成。互联网平台通过不断优化的算法和不断提升的算力,使得交易效率不断提高,但算法的不透明性与难解释性也给消费者权益保护与反不正当竞争带 ...[详细]
-
宽八米长十六米自建房设计图需要满足哪些基本要求?宽八米长十六米自建房设计图需要考虑房屋的布局、结构、采光、通风等基本要求。布局要合理,满足居住需求;结构要稳固,确保房屋的安全性;采光要充足,让室内光线 ...[详细]
-
今天是路易斯·菲戈41岁的生日,国际米兰俱乐部和所有球迷祝福我们的传奇生日快乐! ...[详细]