人工智能安全亟需提升,专家呼吁强化防护措施保障发展
时间:2025-03-01 14:20
小编:小世评选
据本报记者石飞月在北京报道,人工智能正引领着新一轮科技革命和产业变革,成为推动我国经济结构优化和可持续发展的关键引擎。近年来,人工智能的大模型技术得到了深入应用,随着时代的发展,人工智能的应用场景以及模式纷纷涌现,涉及生活的方方面面。伴随海量应用而来的安全问题却日益凸显,已成为亟待解决的重要议题。
在即将召开的全国两会前,齐向东——全国政协委员,副主席、奇安信科技集团董事长,针对这一问题发声。他强调,科技创新是首要动力,但安全却是发展的底线。“只有筑牢安全防线、守住合规底线,创新才能持续发展。”齐向东如是表示。
人工智能在革命性改变传统产业的同时,也伴随着前所未有的网络安全挑战,提升了网络攻击的烈度和广度,网络攻击的方式不断演变,给各行业带来了新的风险。齐向东指出,人工智能面临的安全风险主要可分为三类:人工智能大模型自身的安全风险、利用人工智能进行网络攻击的风险,以及通过攻击人工智能引发的连锁反应“网络攻击大爆炸”。
齐向东强调,关于人工智能大模型自身的安全问题,其中开发风险、数据风险、应用风险和基础环境风险四种风险尤为突出。在开发层面,开放式的大模型需严防代码缺陷和恶意后门,应用层则须防范内部人员通过污染训练数据进行模型和参数的篡改。数据安全也面临着配置错误和弱口令等问题的威胁,而基础环境的安全同样需要关注,包括云、API以及传统设备的漏洞等。
齐向东还指出,随着越来越多的企业和个人采取DeepSeek等大模型进行私有部署,大约90%的服务器并未实施安全措施。当人工智能大模型的基础设施地位愈发显著时,围绕其的恶意攻击手段和风险场景亦将随之激增,这令数据隐私、认知安全以及基础设施的安全隐患堪忧。
在利用人工智能进行网络攻击方面,齐向东提到,随着人工智能技术的发展,网络攻击的手段实现了快速迭代。攻击者能够瞬间发动大规模“饱和式”攻击,打破现有的网络安全体系。人工智能技术还提升了“以假乱真”的能力,深度伪造、钓鱼等网络攻击手段层出不穷,攻击者通过人工智能的“伪装”能力发布虚假信息,窃取个人及企业数据,威胁社会认知安全。
齐向东提醒,人工智能一旦遭到攻击,将可能引发广泛的连锁反应。这是一个不容小觑的风险,因为未来人工智能将作为社会的基础设施,它的安全隐患将对各个领域造成重大影响。
对此,齐向东提议,应从技术保障、制度保障、应用成果三个方面入手,系统提升人工智能的安全能力,确保其安全健康地发展。应建立适配大模型的纵深防御系统,筑牢人工智能的安全根基。齐向东介绍,奇安信近期发布了业界首个针对大模型的安全整体解决方案,提出了“大模型安全红域”概念,旨在通过覆盖终端、应用、数据、模型等多层次防护,构建安全防御体系,保障人工智能大模型的安全和稳定运行。
齐向东指出,明确大模型安全的制度框架和强制合规要求至关重要。这包括明确安全主体责任,定义基础安全、数据安全和应用系统开发安全等方面的技术保障要求。同时,需定期开展安全评估,强化应急响应机制,迅速处理安全事件。
,推广“AI+安全”创新成果,鼓励更多领域的广泛应用,亦是确保人工智能安全的重要环节。随着人工智能的广泛应用,应加大在“AI+安全”的创新成果的推广力度,以增强各行业的网络安全防护能力。
值得注意的是,齐向东也对软件产业的健康发展表示了关注。他认为,软件产业是新技术发展的基石,但目前遭遇不少挑战。一方面,产业内存在“内卷式”的恶性竞争,另一方面,软件市场的整体价值也被严重低估。齐向东建议,应在国家与地方层面进行系统整治,推动产业激励与行业自律,共同优化营商环境。
人工智能的安全问题不容小觑。唯有通过系统提升安全能力与防护措施,我们才能在创新与安全之间寻找到平衡,为人工智能的健康发展创造良好环境。