并非新闻,也不是官宣,而是来自一篇论文,如下:
~~~~ 在发表于《自然·电子学》的研究论文中,北京大学研究团队指出该芯片攻克了两大技术瓶颈:数字芯片在人工智能和6G等新兴领域面临的能耗与数据限制,以及困扰模拟计算长达百年的精度不足与实用性欠缺难题。 在处理复杂通信问题(包括大规模多输入多输出系统涉及的矩阵求逆问题)时,该芯片在保持与标准数字处理器相同精度的前提下,能耗降低约100倍。 研究人员表示,经过参数调整后,该芯片性能大幅超越英伟达H100和AMD Vega 20等高端GPU,提升幅度达千倍。这两款GPU在人工智能模型训练领域占据重要地位 —— 例如英伟达H100正是OpenAI训练ChatGPT所用A100显卡的升级版本。 ~~~~ 从论文结果到实际生产线,还有很长的路,也不一定能成功。需要积累与经验教训。
|