太平洋保险携手华为,打造业界领先的金融大模型AI数据湖解决方案
世界500强中国太平洋保险集团率先推出了基于AI大模型的“数字员工”等科技产品,在AI时代构筑数智化领先竞争力。
为了追求持续领先,实现算力可用度提升、容量平滑扩展、领先可靠三大关键目标,太平洋保险与华为联合打造存、算、网全栈自主创新的金融大模型解决方案。其中关键的AI存储基础设施使用华为AI数据湖解决方案,其基于多套OceanStor AI存储,依托多协议互通、智能数据分级与高性能并行客户端,为客户提供TB级带宽,端到端加速AI模型开发。
太平洋保险金融大模型建设中
有哪些关键目标?
提升算力可用度:
AI大模型训练以多机多卡任务为主,卡的规模越大,越容易因软硬件故障导致训练任务中断,进而导致算力可用度降低,所以千卡大模型算力可用度普遍低于50%。太平洋保险需要构建更大规模大模型急需改变粗放式堆算力模式,结合业务实际需求,从AI训练的全流程角度优化,选择高性能存储提升算力可用度。
容量平滑扩展:
太平洋保险金融大模型集群规模为应对多模态发展和智能化演进,需要从百卡规模演进至千卡,相应的存储容量也需匹配,支持从几百TB到PB,甚至EB级的平滑扩展。
领先可靠:
太平洋保险要求金融大模型构建领先可靠的存储、网络、计算一体化管理AI平台,能够对接讯飞星火等业界主流大模型,另外,存储在兼顾性能和容量的同时还要考虑成本,支持温热数据的智能分级能力。
AI金融大模型需要怎样的存储?
华为OceanStor AI存储联合科大讯飞等大模型厂商为客户提供E2E方案,节省客户选型和调优时间。
OceanStor AI存储成为国内主流大模型首选配置,具备兼容性好,EB级容量扩展,超高性能等特质大幅提升AI集群算力可用度和大模型建设效率。
高性能存储底座,AI集群算力可用度提升超10%
OceanStor AI存储内置高速并发文件系统DPC,提供TB级带宽,性能2倍于Lustre,金融AI集群算力可用度提升超10%,加速金融大模型训推。
EB级扩展,匹配超大算力集群
OceanStor AI存储支持最大4096节点横向扩展,实现从PB级到EB级容量扩展,满足金融大模型平滑演进需求。另外,支持温热数据智能分级,性能层&容量层配合,兼顾AI场景存储高性能、大容量诉求,最大化存储价值。
领先可靠,联合大模型厂商提供E2E方案
统一数据湖管理,无损多协议互通,免除数据孤岛,数据0拷贝,为客户数据中心提供统一存储底座。华为OceanStor AI存储与科大讯飞等大模型深度适配,融入讯飞星火生态圈,成为国内主流大模型首选配置,兼容性好,节省客户选型和调优时间。
人工智能、大模型、数字员工......太平洋保险作为头部保险机构已经抢先开始了AI创新之路。古人云:“九层之台,起于累土。”太平洋保险携手华为OceanStor AI存储,从金融大模型数据基础设施入手,借助高性能存储底座提升AI集群可用度,一步一个脚印,加速金融大模型发展,共同开创智能化金融服务新篇章!数智世界 一触即达” 选择华为,让您的企业轻松数智化。
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。