公司第二代NPUCNN200的设计工作正在进行中,目标是进一步提高NPU的运算性能,并增加支持了FP16浮点数据精度。能介绍下研发的具体情况、进展、AI应用前景吗?支持FP16浮点数据精度,FP8浮点数据精度也可支持吗?望及时回复,保持信息交流互动,谢谢!
国芯科技:
尊敬的投资者,您好。CNN200采用GCU+NN网络架构设计,单核算力最大达到10TOPS@INT8,适用于各种边缘计算AI SoC芯片,可广泛应用于包括机器狗等众多AI应用场景中。其核心采用脉动阵列计算单元实现,通过动态功耗与内存面积的协同优化,结合数据零拷贝与混合精度计算,有效降低能耗和延迟,实现了业内领先的能效比;集成片上缓存与网层间片内数据共享技术,显著减少DDR访问;硬件加速单元可覆盖90余种神经网络算子,且具有快捷的扩展接口设计,可以根据神经网络模型的发展进行扩展补充;支持训练后量化PTQ,提供对称、非对称、逐层和逐通道多种量化策略,支持CNN、RNN等主流神经网络结构,兼容INT8与FP16数据精度,兼容PyTorch、TensorFlow、ONNX、PaddlePaddle等主流深度学习框架,具备广泛的生态适应性。配套的NPU工具链涵盖了从模型格式转换、预处理、量化、编译、仿真等不同功能的工具,为NPU的推理实施、应用落地提供软件生态支撑。CNN200不支持FP8数据类型,而公司正在研发的CNN300是面向AIPC应用的NPU IP核,CNN300预计将支持INT8/FP8/FP16等常规AI应用所需要的数据类型,支持传统的CNN、RNN应用,也能支持最新流行的LLM(大语言模型)应用,可以配合应用进行Deepseek、Qwen、LLaMa等常用大模型卸载,满足常规诸如语音图像视频识别应用场景,也能够支持AIPC应用的高品质语音视频显示,生成式人工智能(如文生文、文生图等)、Moe(多模态交互)、知识库管理等应用。谢谢!
尊敬的投资者,您好。CNN200采用GCU+NN网络架构设计,单核算力最大达到10TOPS@INT8,适用于各种边缘计算AI SoC芯片,可广泛应用于包括机器狗等众多AI应用场景中。其核心采用脉动阵列计算单元实现,通过动态功耗与内存面积的协同优化,结合数据零拷贝与混合精度计算,有效降低能耗和延迟,实现了业内领先的能效比;集成片上缓存与网层间片内数据共享技术,显著减少DDR访问;硬件加速单元可覆盖90余种神经网络算子,且具有快捷的扩展接口设计,可以根据神经网络模型的发展进行扩展补充;支持训练后量化PTQ,提供对称、非对称、逐层和逐通道多种量化策略,支持CNN、RNN等主流神经网络结构,兼容INT8与FP16数据精度,兼容PyTorch、TensorFlow、ONNX、PaddlePaddle等主流深度学习框架,具备广泛的生态适应性。配套的NPU工具链涵盖了从模型格式转换、预处理、量化、编译、仿真等不同功能的工具,为NPU的推理实施、应用落地提供软件生态支撑。CNN200不支持FP8数据类型,而公司正在研发的CNN300是面向AIPC应用的NPU IP核,CNN300预计将支持INT8/FP8/FP16等常规AI应用所需要的数据类型,支持传统的CNN、RNN应用,也能支持最新流行的LLM(大语言模型)应用,可以配合应用进行Deepseek、Qwen、LLaMa等常用大模型卸载,满足常规诸如语音图像视频识别应用场景,也能够支持AIPC应用的高品质语音视频显示,生成式人工智能(如文生文、文生图等)、Moe(多模态交互)、知识库管理等应用。谢谢!
(来自 上证e互动)
答复时间 2025-09-05 16:10:00
郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
评论该主题
帖子不见了!怎么办?作者:您目前是匿名发表 登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》