Cerebras AI芯片速度比GPU快57倍,中国DeepSeek模型引发国际关注
时间:2025-02-04 21:10
小编:小世评选
as AI芯片速度超越GPU,DeepSeek模型引发全球关注
近年来,人工智能技术的迅猛发展使得各大科技公司纷纷投入巨资进行研发,其中,Cere
as Systems所推出的AI芯片在速度方面的突破尤其引人瞩目。据《财富》杂志报道,该公司的晶圆级AI芯片WSE-3在执行中国AI大模型厂商DeepSeek最新推出的DeepSeek-R1模型时,速度竟比当前市场上最快的GPU快出57倍。这一消息不仅让行业为之震动,也性全面提高了对AI处理能力的期待。
WSE-3的技术优势
Cere
as Systems的创始人兼首席执行官Andrew Feldman表示,WSE-3是基于最新的台积电5nm制程技术制造而成,芯片的面积达到46225平方毫米,配备了惊人的4万亿个晶体管和90万个AI核心。这一设计使得WSE-3在处理复杂的AI任务时展现出无与伦比的性能,其峰值性能达到了125 FP16 PetaFLOPS,相较于上一代WSE-2提升了一倍,内存带宽高达21PB/s以及214PB/s的结构带宽,为AI模型的推理任务提供了强有力的支持。
值得注意的是,DeepSeek-R1模型在训练成本上表现出色,且其性能媲美OpenAI等竞争对手的先进模型。在DeepSeek发布的短短十天内,该模型便受到了广泛的关注和需求,显示出整个行业对中国在AI领域的技术突破的认可。
DeepSeek-R1模型的影响力
DeepSeek-R1模型以极低的训练成本,实现了与国际先进水平相当的性能,这为AI模型的开发和应用提供了新的方向。特别是在开源的政策下,全球科技公司能够快速获取并利用该模型构建AI应用,这对现有的技术生态形成了颠覆性的影响。各个AI芯片厂商也能够轻松适配这一模型,以最大限度地发挥其硬件的性能,例如非英伟达的AI芯片也能从中获得益处。
Andrew Feldman举例说明了Cere
as的AI服务器在处理DeepSeek-R1模型时的速度。在现场演示中,其系统仅用1.5秒便执行了使用Python语言编写的国际象棋游戏,而OpenAI的o1-mini推理模型则耗时22秒才能完成同样的任务。这一明显的性能差距让Cere
as的产品在AI推理任务中占据了更有利的位置。
政治因素带来的挑战
尽管DeepSeek模型在技术上的突破引发了行业内的广泛关注,但由于其源自中国,相关的政治因素却引发了一系列的反响。美国国会已开始立法,拟全面禁止来自中国的先进AI模型。有关部门甚至已经禁止在设备上使用DeepSeek的模型,涉及机构包括国防部、海军和NASA等,表明这场竞争已不仅是技术层面的较量,更是国家间政策博弈的体现。
Andrew Feldman坦言,虽然DeepSeek的技术具有相当的潜力,但由于安全隐忧及其数据存储的政策,用户在使用时仍需谨慎。他比喻道:“像使用电锯一样,你需要穿戴好保护装备,但这并不意味着我们不使用电锯,而是要在必要时谨慎对待。”他建议用户多选择欧美企业如Cere
as及Perplexity等的语言模型,以保障数据安全。
未来展望
有业内人士表示,这一系列的技术突破和政策挑战将推动AI领域向更加多元化和竞争化的方向发展。未来,随着技术的进步和全球合作的加深,AI模型的使用与开发将不再受限于地理或政治因素,更多的创新机会将会涌现。虽然目前,一些国家因政治原因对中国的AI技术持保留态度,但随着技术的不断成熟和透明度的提升,能够逐步消除外界的疑虑。
Cere
as的WSE-3芯片和DeepSeek的R1模型不仅展现了技术的高峰,更在一定程度上引发了全球对AI技术及其背后政策的深思。在未来的发展中,如何在技术创新与政治安全之间取得平衡,将成为各国和企业需要共同面对的难题。