2023年7月6日至8日,上海世博展览馆举办的第六届世界人工智能大会(WAIC)盛大开幕,在这个全球瞩目的盛会上,芯动力首次亮相,展示了其人工智能推理芯片RRP-R8的多种应用形态,包括定制化智能加速卡和边缘盒子,以及在各种不同场景下的应用。
这无疑成为了大会的一大亮点,吸引了众多媒体、行业专家、市场客户和技术大咖等观众的关注。他们纷纷驻足与芯动力进行了深入的交流和探讨,共同探索人工智能技术的未来发展以及合作机会。
RPP-“六边形战士”处理器
在现场,芯动力的工作人员向观众介绍了自主研发的芯片架构——人工智能可重构并行处理器(简称RPP)。RPP利用独有的底层硬件架构,具备高性能、原生支持CUDA语言和低功耗等优势,能够对AI推理性能进行深度优化。
RPP架构与其他产品相比,堪称“六边形战士”。相较于CPU、GPU、DSP、NPU、FPGA这些产品,它们某些领域存在明显劣势,而RPP则成功实现了低成本、低功耗、低延时、高性能、快速部署和广泛应用的全方位平衡。RPP架构具备通用性和高效性,能够帮助人工智能用户以最短的时间实现产品Time to Market。
RPP是一种新兴的计算架构,专注于并行计算,并提供了通用的可编程性和更高的计算效率。芯动力基于RPP架构设计的RPP-R8芯片已经成功进入市场。目前,这颗芯片已应用于工业自动化、智能驾驶、泛安防、医疗影像、内容过滤、信号处理等领域。
作为一款通用的GPU芯片,RPP-R8每颗芯片内含有1024个计算核。相较于传统GPU架构,RPP-R8在相同算力下占用更小的芯片面积,实现了低功耗和高能效的有效平衡。此外,RPP-R8的面积效率比可达到同类产品的7~10倍,能效比也超过3倍。除了原生支持CUDA,芯动力还开发了自主的工具链,使其能够兼容cuDNN和TensorRT的API,并支持广泛的人工智能框架,如TensorFlow和PyTorch等。这使得RPP-R8能够全面满足高效并行计算和AI算力应用的需求。
RPP-R8是一款面向边缘端市场设计的的国产芯片,具备全方位兼容CUDA的特性,这意味着开发者可以直接使用CUDA编程语言编写程序,无需进行复杂的代码转换。这一特性极大地降低了开发者的门槛,提高了开发效率。此外,RPP-R8的算力可达到32TOPS@INT8和16TFLOPs@FP16,功耗远低于15W;它支持任何英伟达支持的深度学习网络模型,包括CNN、Transformer等,并且在剪枝和量化后的模型压缩比与国际先进水平相当,准确率下降不超过1%;RPP-R8还支持32路视频解码。
展会上,芯动力展示了不同封装的芯片,并在仅10x11mm的硅片上实现了32TOPS@INT8的算力,创造了业界最高的效率。此外,芯动力还展示了定制化加速卡和边缘盒子;针对特定应用场景设计的硬件产品,进一步展示了其高效的计算能力和灵活的应用形态。
在世界人工智能大会上,芯动力展现出其在芯片设计和应用开发方面的强大实力,同时也向世界展示了中国在芯片架构领域的创新能力。并且与来自世界各地的企业和专家共同探讨人工智能、大数据、云计算等领域的未来发展方向。共同推动国产化GP-GPU芯片的发展,为全球计算需求提供更优质的解决方案。
随着生成式AI的崛起,边缘计算正引领着一场科技革命。芯动力将释放在边缘计算的巨大潜力,力争成为国内众多行业数字化和智能化转型升级的主要驱动力。
评论留言