• 最近访问:
发表于 2025-08-25 09:43:00 股吧网页版 发布于 上海
公司第二代NPUCNN200的设计工作正在进行中,目标是进一步提高NPU的运算性能,并增加支持了FP16浮点数据精度。能介绍下研发的具体情况、进展、AI应用前景吗?支持FP16浮点数据精度,FP8浮点数据精度也可支持吗?望及时回复,保持信息交流互动,谢谢!
国芯科技:
尊敬的投资者,您好。CNN200采用GCU+NN网络架构设计,单核算力最大达到10TOPS@INT8,适用于各种边缘计算AI SoC芯片,可广泛应用于包括机器狗等众多AI应用场景中。其核心采用脉动阵列计算单元实现,通过动态功耗与内存面积的协同优化,结合数据零拷贝与混合精度计算,有效降低能耗和延迟,实现了业内领先的能效比;集成片上缓存与网层间片内数据共享技术,显著减少DDR访问;硬件加速单元可覆盖90余种神经网络算子,且具有快捷的扩展接口设计,可以根据神经网络模型的发展进行扩展补充;支持训练后量化PTQ,提供对称、非对称、逐层和逐通道多种量化策略,支持CNN、RNN等主流神经网络结构,兼容INT8与FP16数据精度,兼容PyTorch、TensorFlow、ONNX、PaddlePaddle等主流深度学习框架,具备广泛的生态适应性。配套的NPU工具链涵盖了从模型格式转换、预处理、量化、编译、仿真等不同功能的工具,为NPU的推理实施、应用落地提供软件生态支撑。CNN200不支持FP8数据类型,而公司正在研发的CNN300是面向AIPC应用的NPU IP核,CNN300预计将支持INT8/FP8/FP16等常规AI应用所需要的数据类型,支持传统的CNN、RNN应用,也能支持最新流行的LLM(大语言模型)应用,可以配合应用进行Deepseek、Qwen、LLaMa等常用大模型卸载,满足常规诸如语音图像视频识别应用场景,也能够支持AIPC应用的高品质语音视频显示,生成式人工智能(如文生文、文生图等)、Moe(多模态交互)、知识库管理等应用。谢谢!
(来自 上证e互动)  答复时间 2025-09-05 16:10:00
郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500