免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 争议再起:百度在Scaling Law发现上领先OpenAI?

争议再起:百度在Scaling Law发现上领先OpenAI?

时间:2024-12-31 15:40

小编:小世评选

【环球网科技综合报道】AI领域的研究近日再度激起争议,关于“Scaling Law”(规模法则)的起源讨论成为焦点。有关观点指出,中国科技巨头百度可能在此核心理论的探索上早于Open引发广泛关注和深入讨论。

Scaling Law是指训练数据和模型参数的增大与模型智能能力提升之间的正相关关系。这一理论奠定了当今大模型发展的基础,被普遍视为AI研究的重要基石。虽然OpenAI在2020年发布的论文《Scaling Laws for Neural Language Models》在这一领域获得了广泛的认可与传播,但实质上,Scaling Law的概念早在更早之前便已被提出并探讨。

根据《南华早报》的报道,前OpenAI研究副总裁Dario Amodei在一次播客中提到,他和吴恩达在2014年期间与百度共同研究AI时,就已经注意到模型发展过程中存在的Scaling Law现象。他表示,随着训练数据量、模型规模和训练时间的增长,模型的性能提升变得显著。这一观察后来在OpenAI的GPT-1模型中得到了验证,并演变成了AI模型发展的“金科玉律”。

更有行业专家指出,关于Scaling Law的原始研究可以追溯到2017年,而并非2020年。Meta研究员、康奈尔大学博士候选人Jack Morris在社交媒体上引用了一篇由百度硅谷人工智能实验室发布的论文《Deep Learning Scaling is Predictable, Empirically》。该论文详细探讨了在机器翻译、语言建模等多个领域中Scaling的现象。这一研究在当时却并未受到足够的重视,随后的发展也使得OpenAI的2020年研究成为众人关注的中心。

可以看到,虽然OpenAI在2020年对Scaling Law进行了更为系统的研究与推广,但对于此理论的早期探索百度却贡献颇丰。批评者指出OpenAI在引用相关文献时有选择性,对百度2019年发布的论文《Beyond Human-Level Accuracy: Computational Challenges in Deep Learning》给予了重视,却对2017年早期的研究视而不见,致使百度在这一领域的贡献和影响力被忽视。

值得注意的是,百度的早期研究不仅为Scaling Law的发展提供了理论基础,还为AI的大模型进步做好了铺垫。2019年,百度便发布了其第一代文心大模型,与OpenAI的相关成果几乎处于同一时期,展示了中国在大型AI模型研究方面的积极探索。而随着时间的推移,中国科技在全球AI领域的影响力逐渐显现,取得了一系列引人注目的成就。

在2024年即将举办的百度世界大会上,百度已经宣布了一项新技术,此技术能够有效减轻生成图像时出现的幻觉问题,也就是生成不准确或与事实不一致的图像。同时,百度文心大模型的日均调用量已经突破15亿次,相较于一年前初次披露的5000万次,增长幅度达到约30倍,这一数据反映了百度在大模型应用方面的强劲发展势头。

随着AI技术的不断演进,中国在这一全球科技竞赛中的地位愈加突出,今后对Scaling Law及其他相关理论的进一步探讨和研究必将对国际AI领域产生深远影响。虽然OpenAI是当今AI研究中的重要参与者,但讨论的重新燃起也表明,中国科技在AI研究初期的探索和贡献同样不可小觑。

在未来的发展中,AI领域的竞争与合作将会更加复杂,各国科技公司需要在相互尊重、互相促进的基础上,共同推动科技进步。因此,厘清各方在Scaling Law研究中的贡献,给予应有的认可,将不仅有助于完善学术界的研究记录,更能推动全球AI事业的共同发展与繁荣。

可以预见,未来的科技研究将不再由单一的国家或企业独占,而是一个多方参与、共同探索的国际化过程。在这条充满挑战与机遇的道路上,百度、OpenAI及其他科技公司都将继续推动AI技术的创新与进步,携手引领下一个智能时代的到来。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多