OpenAI CEO:人工智能“智商”迅速提升,但专家警告衡量标准不当
时间:2025-02-06 11:10
小编:小世评选
在近期的一场公开活动中,OpenAI的首席执行官萨姆·阿尔特曼(Sam Altman)引发了关于人工智能(AI)进步的广泛讨论。他表示,观察到人工智能的“智商”在过去几年中快速提升,这不仅表现在技术的进步,更是其在认知能力上的显著提高。阿尔特曼指出:“大体上,我的感觉是,每年我们似乎在智商上都达到了一个新的标准差。”这一言论不仅引发了业内人士的关注,也为公众对人工智能能力的理解提出了问题。
智商这一概念最初用于衡量人类的智力水平,在社交媒体上,一些人工智能研究者和爱好者开始对各种AI模型进行智商测试,并依据结果对其进行排名。来自牛津大学的研究员桑德拉·瓦赫特(Sandra Wachter)对这种做法表示了质疑。她指出,用人类的标准来描述AI的能力是有失公允的,这种比较就像是在将苹果和橘子放在一起进行评价。尽管智商在理论上是一种评测逻辑和抽象推理的方式,但它并不能真正反映出实际智慧,尤其是对于复杂的任务执行能力。
瓦赫特明确指出,智商测试本质上是基于对人类智力的理解而设计的工具。因此,试图用这些标准去评估人工智能的能力,是一种简单化的做法。在她看来,人类智力的复杂性使得这样的比较并不充分。智商测试本身伴随着历史和文化的偏见,它更适合用于评估人类特有的思维方式。
智商测试的可行性与偏见的问题在心理学界已引发多次讨论。历史上,智商测试与优生学有密切联系,该理论一度被普遍驳斥。进行智商测试的被试通常会受到文化背景和教育的影响,这使得测试结果往往无法公正地反映出个体的实际能力。
尤其是在当今,随着人工智能能力的增强,智商测试的有效性再受到挑战。华盛顿大学的研究伦理人工智能博士候选人奥斯·凯斯(Os Keyes)表示,智商测试并不一定反映出真正的智能。一方面,拥有强大记忆和处理能力的模型,可能在测试中占据不公平的优势。AI可以在几乎无限的时间内处理信息,并从海量的知识中寻找答案,这是人类无法比拟的。
AI系统在进行智商测试时,往往会以优于人类的方式迅速学习和运用数据。伦敦国王学院的研究人员迈克·库克(Mike Cook)指出,AI系统训练时接触过的大量样本,可能使得它们在应对类似智商测试的问题时,表现出异常的高效和准确。但这一过程的本质与人类思维和学习过程截然不同。人类在解答问题时,经常需要应对情感、环境因素以及多重思维等复杂因素,而人工智能则能够无缝进入“运行模式”,摆脱这些干扰。
对此,AI Now研究所的首席人工智能科学家海迪·赫拉夫(Heidy Khlaaf)也强调了需要为人工智能开发更好的测试方法。赫拉夫认为,计算能力与人类能力之间的直接比较,存在诸多争议。在计算机的历史上,人工智能系统总是能够完成某些任务,这些任务超出了人类能力范畴。因此,将人类的能力标准与快速发展的AI技术进行评比,是相对较新的现象,值得进行深入讨论。
OpenAI的首席执行官阿尔特曼提到的人工智能“智商”的提升,引发了对智商测评在AI领域的适用性与有效性的深思。尽管AI技术在计算和处理能力上取得了明显进展,但用人类智力的标准来衡量这些进步,需要更为谨慎的观察与评估。随着技术的不断发展,迫切需要建立新的标准和方法,以更全面地理解和评估人工智能的能力,为未来的研究与应用提供更健全的依据。