8月12日,华为发布了AI推理创新技术UCM(推理记忆数据管理器 ,Unified Cache Manager)。
简单来说,这是专门面向大模型推理过程的“缓存管理技术”,目的是为了优化推理速度 、效率和成本 。
具体来看 ,UCM是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理推理过程中产生的KV Cache记忆数据 ,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。
现场,华为公司副总裁、数据存储产品线总裁周跃峰表示 ,UCM推理记忆数据管理器旨在推动AI推理体验升级,提升推理性价比,加速AI商业正循环。同时 ,华为联手中国银联率先在金融典型场景开展UCM技术试点应用,并联合发布智慧金融AI推理加速方案应用成果 。
UCM是什么
对于上述颇多术语的介绍,我们来拆解一下。
首先 ,什么是KV Cache?
据了解,KV Cache是一种用于优化Transformer等模型推理速度的技术,它的核心思想就是把历史 token的Key和Value(矩阵)缓存下来 ,下次生成时直接用,避免重新算,从而提升推理速度 、降低计算成本。代价是会占用更多内存 ,所以它是一种“用内存换计算 ”的工程优化手段 。
换言之,KV Cache是一种存储机制,打个比方,就像是“模型推理过程中的记忆本” ,用来临时保存计算中间结果,让后续步骤少做重复工作。
那么为什么要推出UCM?因为推理过程中仍存在不少痛点。
随着AI产业已从“追求模型能力的极限” 转向“追求推理体验的最优化 ”,推理体验直接关联用户满意度、商业可行性等。推理体验直接关系到用户与AI交互时的感受 ,包括回答问题的时延、答案的准确度以及复杂上下文的推理能力等方面 。
资料显示,国外主流模型的单用户输出速度已进入 200 Tokens/s区间(时延 5 ms),而我国普遍小于60 Tokens/s(时延50 – 100 ms) ,因此,如何解决推理效率与用户体验的难题迫在眉睫。目前,包括华为在内 ,各大科技企业都会在调度KV Cache基础上,研发优化推理过程的技术。
华为最新的UCM就引入融合了更多的算法工具,可以对接不同引擎与算力的推理引擎插件(Connector) 、支持多级KV Cache管理及加速算法的功能库(Accelerator)、高性能KV Cache存取适配器(Adapter)三大组件 ,通过推理框架、算力、存储三层协同,实现AI推理“更优体验 、更低成本” 。
比如,华为介绍道,依托UCM层级化自适应的全局前缀缓存技术 ,系统能直接调用KV缓存数据,避免重复计算,使首Token时延最大降低90%。
据悉 ,在华为与中国银联的联合创新技术试点中,中国银联“客户之声”业务场景下,借助UCM技术及工程化手段 ,大模型推理速度提升125倍,仅需10秒即可精准识别客户高频问题,促进服务质量提升。
为何率先在金融行业应用?金融业天然有数字化属性 ,也是数字化最早的领域之一,因此金融行业率先落地有数据基础和技术需求,尤其是生成式AI浪潮中 ,如何用好大模型服务业务是重要课题 。同时金融对速度、效率、安全 、可靠性等要求高,也是验证技术的标杆场景。
未来,中国银联将依托国家人工智能应用中试基地,联合华为等生态伙伴共建“AI+金融 ”示范应用 ,推动技术成果从“实验室验证”走向“规模化应用”。
华为的差异化路径
谈及UCM的差异化,华为数据存储产品线AI存储首席架构师向21世纪经济报道记者表示,当前 ,业界在分级缓存管理方面已有许多探索与实践,华为UCM在这一领域的最大优势在于将专业存储能力引入其中,引入后在软硬件协同与卸载方面做了大量工作 ,例如直通加速、KV检索索引与底层文件系统元数据的融合等 。同时,在KV Cache生命周期管理方面,UCM具备预热、分级 、淘汰等一整套机制 ,这是UCM在N级缓存管理上的差异化能力之一。
其次,上述专家提到,在算法加速库方面 ,业界现有方案普遍只停留在Prefix Cache这一层面,并未像华为一样,将稀疏全流程算法、后缀检索算法等投入商用,也缺乏多样化的技术手段。相比之下 ,UCM在这一层贡献了更多、更丰富 、更可靠的算法,算法库还在不断扩展完善 。
此外,UCM的体系更加完整 ,专家谈道,推理场景多种多样,请求的输入输出变化极大 ,而目前业界缺乏一套在各种场景下都能普适适用的框架、加速机制与算法。UCM能够在各种长短序列、不同请求条件下,实现自动切换与自适应的平滑优化。
“华为希望通过将部分成果开放,促进框架厂商 、存储厂商以及算力厂商共同加速这一框架机制的成熟 ,最终解决当前AI行业落地过程中的效率与成本问题。”专家说道 。
今天,华为还正式公布了UCM开源计划。UCM通过开放统一的南北向接口,可适配多类型推理引擎框架、算力及存储系统。今年9月 ,UCM将正式开源,后续逐步贡献给业界主流推理引擎社区,和全产业共同推动AI推理生态的繁荣发展 。
整体而言,一方面是华为在AI推理技术层面持续进行研发 ,UCM也是结合华为存储技术的积累进行创新;另一方面,在AI的布局上,华为继续在产业链的各个环节进行升级 ,实现系统性的提升。
业内人士指出,国外领先芯片厂商通过硬件迭代、软件优化、生态绑定构建了推理时代的“铁三角 ”,短期内难以被代替。中国单点硬件技术 ,如芯片设计上有所突破,但国产软件及生态适配还有差距,华为等科技厂商也在不断补上生态短板 。
正如华为专家所言:“大家一定要关注网络 、存储、端到端的系统性、成本降低 ,才能有效的去加速AI的落地。从单点的算力模组转向系统性优化,这是大趋势。”
炒股加杠杆去哪儿办理:中国股票配资网在线配资平台-【视频直播】小米首款SUV、小米AI眼镜将发布!
太原炒股配资:配资开户网-华为将发布AI推理领域突破性成果 完善中国AI推理生态关键部分
怎么加杠杆买股票:中国配资官网-16省份2024年平均工资公布 收入前三行业各省不相同
股票10倍杠杆怎么操作:银川股票配资-进军服务器、AI处理器 龙芯发布新一代自主研发处理器
股票怎么加10倍杠杆:正规的股票杠杆平台-过境免签国家已扩大到55个 外交部:“中国游”将更顺畅丝滑
想配资怎么找平台:实盘的股票杠杆平台-中国对美海运价坐“过山车” 最新数据止跌回升折射需求变化
盈昌配资-股票的配资提示:文章来自网络,不代表本站观点。
盈昌配资-股票的配资=上海杠杆配资2024年是一个专业的在线股票炒股配资门户,致力于为投资者提供安全、可靠的配资服务。作为正规的配资炒股平台,我们为用户提供多样化的投资选择和灵活的杠杆比例,以满足不同投资者的需求。通过我们的平台,用户可以方便快捷地进行股票交易,享受优质的客户服务和专业的市场分析。我们的目标是帮助投资者实现财富增值,成为中国股票配资领域的领先者。
记者|赵阳戈年初,证监会就修改《证券发行与承销管理办法》部分条款向社会公开征求意见,市场也将注意力投向了...
2025年3月25日,倍轻松(688793.SH)公告称,公司股东宁波倍松投资有限公司(简称“宁波倍松”)拟通过大宗交易...
记者辛圆3月25日,博鳌亚洲论坛旗舰报告《亚洲经济前景及一体化进程2025年度报告》(以下简称《报告》...
3月24日,易方达国证自由现金流ETF公开发售。该产品跟踪国证自由现金流指数,这个指数是什么?有哪些优势?投资价值如何?...
记者王珍中国国际经济交流中心副理事长、国务院发展研究中心原副主任王一鸣周一在“中国发展高层论坛2025...