AI发展遭遇瓶颈:大模型进化遇“数据墙”困扰
时间:2024-11-16 20:35
小编:小世评选
人工智能(AI)行业长期以来都以“数据越多,模型越好”的理念运作,然而近日有报道揭示,OpenAI、谷歌和Anthropic等主要公司的大模型发展正遭遇“数据墙”的困扰,进步幅度远远低于前期阶段,这一消息迅速引发业界的广泛关注与讨论。
发展瓶颈的迹象
根据外媒的信息,OpenAI正在研发的下一代旗舰模型Orion虽然在性能上超过了现有模型,但与之前如从GPT-3到GPT-4的飞跃相比,提升幅度大幅减小。类似的情况也出现在谷歌与Anthropic上,这些机构已经注意到,尽管在新模型的开发上投入了大量的人力与资源,但得到的成果却在逐渐减少。这种现象不仅让技术创新的热情受到打击,也让各大公司不得不重新审视自己的发展策略。
高质量的训练数据稀缺被认为是导致这一现象的主要原因,Orion模型在编程任务上表现不佳的部分原因正是缺乏充足的编程数据。这使得尽管有少量的改进,仍然难以支持高昂的构建和运营成本,尤其是在市场对重大技术升级的期待不断高涨的情况下,这种落差显得更为明显。
科技巨头的激辩
众多科技领域的权威人士对此问题展开了热烈的讨论。图灵奖得主杨立昆,以及OpenAI前首席科学家伊利亚·苏茨克维等人直言不讳地认为,现行的大模型规模法则(Scaling Law)已经走到了瓶颈,迫切需要在思维和训练模式上进行根本性转变。OpenAI CEO阿尔特曼和Anthropic CEO达里奥·阿莫迪则反驳了这种“瓶颈”的说法,声称AI的发展并未遭遇遗留的壁垒,依然存在很大的成长空间。
知名AI评论家加里·马库斯对此表示乐观,他认为眼下正是AI技术的“停滞期”,预示着AI的发展可能不会如预期那样迅猛。比尔·盖茨也曾指出,现阶段的生成式AI(AGI)技术极可能已经达到了极限,表明未来的模型并不会比现在的版本有显著提升。
公司战略的转变
尽管反驳声音和证据并存,OpenAI和谷歌等公司还是开始主动调整自己的研发策略。OpenAI成立了专门的基础团队,旨在应对训练数据短缺的问题,不断进行探索,寻求新的模式和方法。比如,OpenAI团队开始尝试使用AI生成的合成数据进行训练,融入强化学习的机制,提高模型对具体任务的处理能力。推理计算的Scaling理念也被引入,优化模型在问题回答时的思考过程。
谷歌的Gemini团队也在模仿OpenAI的措施,旨在开发出类似的推理能力,借助手动调节超参数以改进模型表现。这一系列的变动,显示出即便在困难的环境中,科技巨头们依然在寻找突破口和高效方法,以维持技术发展的持续性。
AI应用的爆发潜力
在大模型发展遇到瓶颈的背景下,AI应用的领域却迎来了巨大的爆发。在广告技术领域,应用了新一代AI广告引擎的AppLovin公司在业绩上超出预期,其股价在年初至今已经上涨了650%。Palantir公司也因AI推动业务增长而决定转移上市地点,显示出AI应用的市场前景依旧乐观。
李彦宏在近期的访谈中指出,基础模型的开发周期延长不一定是坏事,2到3年才进行一次大规模的迭代是更为合理的节奏,以免造成生态的混乱。而扎克伯格也强调,在当前技术水平下,依然存在相当大的商业开发空间。
作为重要的行业参与者,OpenAI和谷歌等公司也在持续探索AI应用层面的机会,OpenAI计划推出能帮助用户整理文件和预定的AI智能体,而谷歌有意打造名为“贾维斯计划”的AI助手。
尽管AI领域面临着“数据墙”所带来的挑战,科技巨头们积极的调整策略和快速崛起的应用市场为行业带来了新的机遇。通过适应性变化与应用导向的探索,AI的发展步伐也许仍能走出一条新的道路,继续实现技术的进步与经济的增长。