免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 南华早报:百度早于OpenAI发现AI核心理论“Scaling Law”引发辩论

南华早报:百度早于OpenAI发现AI核心理论“Scaling Law”引发辩论

时间:2024-12-31 06:00

小编:小世评选

随着人工智能技术的快速发展,关于其核心理论“Scaling Law”的起源讨论日益升温。近日,《南华早报》的报道引发了外界对于这一理论及其初始发现者的重新审视,逐渐浮现出百度在这一领域的重要贡献。根据媒体的分析,百度在AI核心理论的探索上,走在了OpenAI之前。

“Scaling Law”即规模法则,成为当今人工智能研究的基石。该理论强调,随着训练数据和模型参数的增加,人工智能模型的智能能力也会随之增强。这一原则最初广泛被归功于OpenAI在2020年发表的论文《Scaling Laws for Neural Language Models》,该论文对模型性能与数据量、模型规模之间的关系进行了理论解析,掀起了对于大型模型重要性的全面关注。

OpenAI的论文的合著者、前研究副总裁Dario Amodei在近期的一期播客中分享了一个重要的信息:早在2014年,他与百度的吴恩达教授在共同研究人工智能时,就注意到了Scaling Law的现象。他提到,随着模型训练数据的增加、模型规模的扩大以及训练时间的延长,模型的性能表现出显著的提升。这一观察在后来的GPT-1语言模型中得到了进一步验证,并在此后被视为大型模型发展的“金科玉律”。

更有内行人士指出,关于Scaling Law的首个研究成果实际上可以追溯到百度在2017年发表的一篇论文。Meta研究员、康奈尔大学博士候选人Jack Morris在社交媒体X(前身为Twitter)上提到了这篇名为《Deep Learning Scaling is Predictable, Empirically》的研究。该文由百度硅谷人工智能实验室撰写,深入探讨了机器翻译和语言建模等领域中的Scaling现象,显示了百度在这一领域的前沿探索。

尽管百度的研究为Scaling Law的概念奠定了理论基础,但遗憾的是,其重要性在国际舞台上并未获得应有的认可。《南华早报》指出,OpenAI在其2020年的Scaling Law研究中引用了百度研究人员在2019年发表的一篇论文《Beyond Human-Level Accuracy: Computational Challenges in Deep Learning》,被批评者认为这是选择性引用的表现。批评者们认为,OpenAI对2017年发布的研究几乎没有提及,实则遗漏了Scaling Law初始概念的真正来源。

百度在2019年和2020年间,几乎与OpenAI同步发布了其第一代文心大模型,足以显示中国科技公司的研发进展与国际同行的接轨。随着这一系列论据的浮出水面,讨论的焦点逐渐转向中国在大型模型研究方面的努力与贡献。

值得注意的是,随着AI技术的逐步成熟,百度在全球AI领域的影响力也开始显现。于最近结束的百度世界大会2024上,该公司宣布推出新技术,旨在减少图像生成中出现的“幻觉”问题,即产生误导性或与事实不符的图像。更令人惊讶的是,百度的文心大模型截至11月初的日均调用量已达到了15亿次,相较于一年前的5000万次,增长幅度惊人,达到了约30倍的提升。

随着AI技术的不断进步及应用,中国在全球AI领域的竞争力和领导地位正在稳步上升。百度的早期研究为AI的未来发展奠定了重要的理论基础,不仅提升了其国际地位,亦为整个行业的发展打开了新的视野。伴随这些讨论的深入,业界呼唤关于研究成果的更广泛认可与交流,以及对各方贡献的公平评价,AI领域的未来显然是值得期待的。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多