免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 刘庆峰警示“AI幻觉”风险:需构建可信信息环境

刘庆峰警示“AI幻觉”风险:需构建可信信息环境

时间:2025-03-07 05:10

小编:小世评选

随着人工智能技术的迅速发展与普及,AI已逐渐渗透到社会生活的各个角落。这一技术的广泛应用为人们的工作和生活带来了便利,但随之而来的“AI幻觉”风险也引发了广泛关注。全国人大代表及科大讯飞董事长刘庆峰对此表示强烈担忧,尤其是幻觉所引发的数据污染问题及其对社会的潜在负面影响。

根据中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》,中国的生成式人工智能产品用户已达到2.49亿,占总人口的17.7%。这一用户规模在快速增长的同时,也不断放大了潜在风险。生成式人工智能的“幻觉”现象,尤其是深度推理模型在生成内容时的逻辑自洽性提升,导致大众对AI生成内容的真伪难以辨识。这种情况下,带有数据偏差和误导性的信息可能反复被新一代AI系统吸收,从而形成一种恶性循环,即“数据污染—算法吸收—再污染”。

公众在这方面的困惑尤为明显,很多人对AI技术的原理及其生成机制知之甚少,往往将算法输出的“幻觉数据”误判为真实可靠的信息。实际上,当大模型生成的“幻觉数据”泛滥于互联网时,社会信任的基础将受到侵蚀,恶劣的后果甚至可能影响到社会的稳定。

为应对这一挑战,刘庆峰建议,必须从技术研发和管理机制两个层面出发,构建一个可信的信息环境,以预防大模型所生成的幻觉数据对社会产生的危害。

构建安全可信的数据标签体系以提升内容的可靠性,是亟需解决的问题。建立一个动态更新的安全可信信源与数据知识库,并对不同类型数据进行可信度与危害程度的标记,可以有效地降低人工智能幻觉出现的概率,并提高生成内容的可靠性。这样的标签体系不仅可以帮助开发者在生成内容时规避潜在的风险,同时也能够指导用户在使用生成式AI工具时加强辨别与筛选,以提升信息接收的准确性。

研发AIGC(人工智能生成内容)幻觉治理技术与,并定期清理幻觉数据,也是构建可信信息环境的重要举措。通过研究幻觉自动分析的技术与软件,开发深度鉴伪、虚假信息检测及有害内容识别的工具,可以有效地清理网络中存在的幻觉数据。中央网信办与国家数据局等相关部门应积极参与,定期发布幻觉数据的清理报告,为公众提供实时的AIGC幻觉信息检测工具与服务,从而维护网络环境的健康。

对于未来,刘庆峰认为,随着AI技术的不断发展,围绕其所带来的伦理和法律问题同样需要全面审视。特别是在产生真实与虚假内容之间的界限愈发模糊之际,企业、研发者和政策制定者必须携手合作,以确保AI的发展不会对社会造成不可逆转的伤害。在构建安全、可信的信息环境的过程中,技术的革新与管理的升华同样不可或缺。

在技术层面,AI的不断进步使得生成内容的能力日益增强,伴随而来的也应是对其内容真实性与道德底线的重新评估。因此,建立完善的法律法规与行业标准,将成为确保AI技术健康可持续发展的重要保障。

刘庆峰的警示不仅为当前的AI技术发展指明了方向,也为未来的社会信息生态构建提供了重要思路。在这一过程中,需要全社会的共同努力,以推动生成式人工智能技术向着更加可信、美好的方向发展。只有在确保信息环境安全的基础上,AI的潜力才能够得以充分释放,而不至于因“幻觉”而误导公众,进而影响到社会的和谐与稳定。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多