目瞪口呆网 · 免费提供绿色软件、活动线报以及其他网络资源,好货不私藏!

华为亮相2025金融AI推理应用落地与发展论坛

小编 百科 5752

近日,亮相落地论坛2025金融AI推理应用落地与发展论坛在上海举行。金融中国银联执行副总裁涂晓军、推理华为数字金融军团CEO曹冲出席本次论坛并发表致辞。应用论坛上,发展华为公司副总裁、亮相落地论坛数据存储产品线总裁周跃峰博士发布AI推理创新技术——UCM推理记忆数据管理器,金融旨在推动AI推理体验升级,推理提升推理性价比,应用加速AI商业正循环。发展同时,亮相落地论坛华为携手中国银联率先在金融典型场景开展UCM技术试点应用,金融并联合发布智慧金融AI推理加速方案应用成果。推理

当前,应用人工智能已步入发展深水区,发展AI推理正成为下一个爆发式增长的关键阶段,推理体验和推理成本成为了衡量模型价值的黄金标尺。周跃峰在论坛上强调:“AI时代,模型训练、推理效率与体验的量纲都以Token数为表征,Token经济已经到来”。为保障流畅的推理体验,企业需持续加大算力投入,但如何在推理效率与成本之间找到最佳平衡点,成为了全行业亟待解决的重要课题。

为此,华为重磅推出UCM推理记忆数据管理器,包括对接不同引擎与算力的推理引擎插件(Connector)、支持多级KV Cache管理及加速算法的功能库(Accelerator)、高性能KV Cache存取适配器(Adapter)三大组件,通过推理框架、算力、存储三层协同,实现AI推理“更优体验、更低成本”:

更优的推理体验:依托UCM层级化自适应的全局前缀缓存技术,系统能直接调用KV缓存数据,避免重复计算,使首Token时延最大降低90%。同时,UCM将超长序列Cache分层卸载至外置专业存储,通过算法创新突破模型和资源限制,实现推理上下文窗口10倍级扩展,满足长文本处理需求。

更低的推理成本:UCM具备智能分级缓存能力,可根据记忆热度在HBM、DRAM、SSD等存储介质中实现按需流动;同时融合多种稀疏注意力算法,实现存算深度协同,使长序列场景下TPS(每秒处理token数)提升2-22倍,显著降低每Token推理成本,为企业减负增效。

在与中国银联的联合创新技术试点中,UCM的技术价值得到充分验证。在中国银联“客户之声”业务场景下,借助UCM技术及工程化手段,大模型推理速度提升125倍,仅需10秒即可精准识别客户高频问题,促进服务质量提升。未来,中国银联将依托国家人工智能应用中试基地,联合华为等生态伙伴共建“AI+金融”示范应用,推动技术成果从“实验室验证”走向“规模化应用”。

论坛现场,华为正式公布了UCM开源计划。UCM通过开放统一的南北向接口,可适配多类型推理引擎框架、算力及存储系统。今年9月,UCM将正式开源,后续逐步贡献给业界主流推理引擎社区,携手全产业共同推动AI推理生态的繁荣发展。

免责声明

本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络收集整理,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。我们非常重视版权问题,如有侵权请邮件与我们联系处理。敬请谅解!

评论列表
请自觉遵守互联网相关的政策法规,严禁发布广告、色情、暴力、反动的言论。发现永久封IP禁止访问!
  • 点击我更换图片
  • 全部评论(0
    还没有评论,快来抢沙发吧!