编辑:[db:作者] 时间:2024-08-25 02:23:33
作者 | 心缘
编辑 | 漠影
芯东西7月7日宣布,在2021天下人工智能大会上,瀚博半导体推出其首款云端AI通用推理芯片SV100系列,以及通用AI推理加速卡VA1。
瀚博半导体创始人兼CEO钱军说,这两款新品能有效应对低延时、通用性和视频处理等方面的行业痛点,推进云端与边缘的智能运用落地。
据悉,其SV100系列首发产品SV102现与国内外多家头部互联网公司互助,估量将于今年第四季度量产上市。
瀚博半导体成立于2018年12月,总部设在上海,在北京、深圳和多伦多有研发分部。当前其团队规模已超过200人,硕士及以上学历占80%。今年2月,瀚博研究院成立。
融资进展方面,瀚博半导体先是在2019年3月得到真格基金天使轮融资,2019年6月得到天狼星、耀途Pre-A轮融资,去年7月得到快手、五源、红点、赛富A轮融资5000万美元,今年3月得到中国互联网投资基金、经纬中国、联发科5亿元A+轮融资。
瀚博半导体创始人兼CEO钱军展示SV100系列芯片
一、核心团队拥有超15年芯片履历,曾参与业界首款7nm GPU流片
瀚博半导体的两位创始人,CEO钱军和CTO张磊,都拥有20多年的芯片设计履历,并均在创业前曾任AMD高管,深度理解行业客户对吞吐量、延迟、通用性和本钱的需求。
据钱军分享,瀚博的核心员工拥有超过15年的GPU干系芯片及软件设计履历,包括业界第一颗7nm GPU在内的约100款芯片流片、量产履历。
不过,不同于核心团队以往的研发方向,瀚博半导体没有选择连续深耕GPU赛道,转而研发针对各种深度学习推理负载进行优化的DSA架构。
钱军引用了一些行业数据,AI进入运用期,数据中央推理算力需求的复合增长率是演习的2倍以上,2021年中国市场AI做事器的推理负载有望超过演习负载。在推理侧,GPU不是最好的办理方案,性能不及DSA架构。基于这些缘故原由,瀚博半导体选择首先研发基于DSA架构的推理芯片。
钱军将AI推理打算的核心性能指标总结为LTE:延时(latency)、吞吐量(Throughput)、能效(Energy Efficiency)。
对此,瀚博半导体的应对之道是在视频处理方面,让高并发的解码能力与AI算力匹配;在LTE方面,具备极低延时、极高吞吐量性能,并保持低功耗;在创新方面,供应负载剖析、硬件通用可扩展、软件栈。
二、首款云端推理芯片,峰值算力超200 TOPS
自成立起,瀚博半导体即启动自研AI核,随后在2020年5月实现其首颗半定制7nm芯片的流片。本日,瀚博半导体正式发布其首款云端AI通用推理芯片SV100系列。
瀚博SV100系列是一款超高性能人工智能与视频处理芯片,核心上风是能兼顾智能视频解码和AI打算的需求。2021年6月,SV100系列芯片测试成功。钱军透露说,这款推理芯片开始测试8分钟就宣告点亮。
瀚博SV100单芯片INT8峰值算力超200 TOPS。相同功耗下,SV100可实现数倍于现有主流数据中央GPU的深度学习推理性能指标,具有超高吞吐率、超低延时的特性。
SV100基于瀚博自主研发的通用DSA架构,支持FP16、BF16和INT8等数据格式,可实现浩瀚主流神经网络的快速支配,适用于打算机视觉、智能视频处理、自然措辞处理和搜索推举等多种推理运用处景。
同时,SV100系列集成高达64路以上H.264/H.265/AVS2的1080p视频解码,广泛适用于云端与边缘智能运用处景,能帮助客户节省设备投资、降落运营本钱。
三、VA1:同等能耗下,AI吞吐率最高达GPU的10倍
除了发布SV100系列,瀚博半导体也同步推出了基于SV102芯片(SV100系列首发产品)的VA1 PCIe推理加速卡。
VA1采取单宽半高半长75瓦PCIe x16卡设计,支持32GB内存和PCIe 4.0高速接口协议,适用于绝大多数做事器,无需额外供电,即可实现数据中央高密度算力支配。
该加速卡可供应高效率深度学习AI推理加速,在同等能耗下,实现2-10倍于GPU的最高AI吞吐率,而延时不到GPU的5%,适宜实时运用。
同时,它兼备良好的通用性和可扩展性,支持FP16、BF16和INT8数据类型的主流神经网络快速支配,包括检测、分类、识别、分割,视频处理、LSTM/RNN、NLP/BERT、搜索推举等。
如下图所示,同为75瓦功耗时,在处理两种AI模型时,瀚博VA1吞吐率均超过了英伟达的A10和T4云端推理GPU。
根据瀚博半导体分享的测试结果,同等推理性能下,瀚博SV102/VA1方案比英伟达T4 GPU节省60%做事器本钱,比A10 GPU节省50%的TCO。
视频处理方面,VA1支持64路以上H264、H265或AVS2 1080p解码,分辨率支持高达8K。
比较之下,市情上许多云端AI推理芯片没有内置视频解码,而是用多个GPU来做视频解码,因此从更适配处理到AI加速要用到多颗芯片,而VA1只用一颗SV102就能兼顾两类功能,且功耗更低、处理能力更强。
目前,瀚博半导体正将其加速卡与遐想、浪潮、新华三、超微做事器以及CentOS、Ubuntu、红帽、中标麒麟、银河麒麟等操作系统做适配。
钱军透露说,瀚博半导体后续还会推出15W、150W的产品。
四、高度灵巧软件栈,支持自定义算子扩展
考虑到向前兼容性非常主要,瀚博半导体的软件栈具有极高灵巧性与可扩展性,能够支持未来新兴算法模型和用户自定义算子扩展等。
另一方面,霸占过半中国AI运用市场的打算机视觉运用,须要高密度的视频解码算力合营AI算力实现端到真个打算加速,在两者之间的算力配比平衡方面,瀚博半导体也做了大量的事情。
瀚博半导体创始人兼CTO张磊说:“我们的软件栈完备,同时供应了符合行业开拓者利用习气的工具,方便利用者以极低本钱向瀚博硬件平台迁移、支配现有算法运用。”
目前瀚博半导体的VastStream软件平台已支持TensorFlow、PyTorch、Caffe2等主流深度学习框架模型与ONNX格式的模型,通过高度定制的AI编译器充分优化模型在瀚博硬件上的实行效率。
结语:国产云端AI芯片军队日益壮大
随着瀚博半导体推出其SV100系列芯片,国产云端AI芯片的军队迎来又一位新成员。
AI芯片赛道持续火热,成本投资激情亲切不减。不过与前两年不同的是,如今人们看待AI芯片更加理性,不再轻易听信故事,而是聚焦在核阅其核心技能的独特竞争上风以及落地能力上。
如今环球AI芯片仍在起步阶段,无论是科研创新还是家当运用都有广阔的探索空间。对付AI芯片创企来说,这仍是个首创未来的黄金时期。
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/rsq/79307.html
上一篇:义乌警方捣毁家族售假链条 涉及华为、VIVO等多个国产品牌
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com