英伟达发布超级AI芯片B300,显存提升50%引发热议
时间:2024-12-31 12:00
小编:小世评选
近日,英伟达CEO黄仁勋在一场备受瞩目的发布会上,推出了全新一代超强AI芯片——B300。该芯片的发布不仅在技术领域引发了广泛讨论,更有“圣诞老黄”之称的黄仁勋成为了关注的焦点。B300的到来,标志着英伟达在AI计算领域再一次迈出了坚实的步伐。
随着AI技术的飞速发展,对计算能力和显存的需求越来越高。根据英伟达官方的介绍,B300在算力方面相较于之前的B200系列提升了50%,达到了令人瞩目的FLOPS(每秒浮点运算次数)。同样在显存方面,B300的容量从192GB提升至288GB,提升幅度也同样为50%。显而易见,B300的到来将为AI算法训练和推理提供强劲的硬件支持。
事实上,英伟达将在3月份发布的B200系列仅仅隔了几个月,便迅速推出B300,这份更新的速度让不少业内人士感叹。针对外界盛传的B200因设计缺陷推迟的问题,B300的发布是做出了有效回应。B300的发布也对AMD最新的MI300系列产品将于2025年提升显存的消息做出了有力的回应。
B300的算力提升究竟来自于哪些方面呢?虽然B300仍然采用了台积电4NP工艺节点,但它进行了全新的流片设计。此举使得B300在保持稳定性的同时,能借助架构微创新实现更高的性能。例如,B300在CPU和GPU之间实施了动态功率分配,使计算过程更高效。
在显存方面,B300的升级同样不容忽视。该系列的显存采用了从8层堆叠的HBM3E技术升级至12层的12-Hi HBM3E。这种显存设计,不仅提升了内存的容量,也使得B300在并行计算时能够更好地共享显存,这对于诸如OpenAI等大型推理模型至关重要。
推理过程中,显存的巨大提升会对模型的思维链长短产生直接影响。更长的KVCache储存意味着可以处理更多的数据,从而提高batch size,提高计算效率并降低延迟。这对于希望提升模型能力和用户体验的企业而言,显然是极具吸引力的。
更重要的是,B300在产品交付方面也发生了重大变化。B200系列提供的Bianca Board集成了所有必要组件,而B300则转向提供单一的参考板(Reference Board)。这意味着客户可以更加灵活地采购所需的组件,给OEM和ODM制造商带来了全新的市场机会。
依据SemiAnalysis的研究,B300带来的显存升级可以显著提升推理操作的效率。在对比H100和H200两种GPU时,数据显示H200显存带宽更大,处理效率普遍提升了43%。而且H200能够处理更大的batch size,使得每秒生成的token数量提升了三倍,从而大幅降低了推理成本。这一切都表明,内存的提升为推理模型的增强打下了坚实基础。
除了从技术和性能层面进行的突破,英伟达还观察到,能力更强且具备明显差异化的模型会收取更高的溢价。值得注意的是,领先模型的毛利率可达70%,而仍在与开源模型竞争的次级模型的毛利率则不足20%。高效能模型的推出不仅提升了市场竞争力,还为英伟达带来了丰厚的利润空间。
英伟达的消费级显卡也在持续引领潮流。近日,RTX5090的PCB板也被曝光,受到玩家们的热切关注。RTX5090的发布被猜测将于1月6日的CES展上揭晓,这款显卡的设计及其更高的显存容量同样是市场关注的热点。
来看,英伟达B300的发布不仅在技术上进行了全面的提升,同时也为市场提供了更多的灵活性和机会。随着AI技术的不断进步,B300系列的推出会引领新一轮的科技浪潮,重塑各行各业的未来。无论是在企业用户、开发者,还是普通消费者中,B300都将发挥重要作用,为AI领域的发展注入新的动力。