周鸿祎呼吁完善大模型安全治理 助力AI技术领跑时代
时间:2025-03-05 20:00
小编:小世评选
在2023年的两会期间,360集团创始人及全国政协委员周鸿祎再次站在了推动人工智能(AI)技术发展的前沿,强调了大模型技术的安全治理问题,尤其是在国产推理大模型DeepSeek-R1的成功推出之后。他指出,这一标志性产品的出现不仅使中国在AI领域实现了“追赶者”到“领跑者”的转变,而且也引发了一系列前所未有的安全挑战。
DeepSeek-R1以其开源、透明和免费等特性,为和企业在私有化部署方面提供了良好的。周鸿祎也清醒地认识到,这些先进模型带来的便利并不能掩盖日益严重的安全隐患。他表示:“传统的网络安全手段已经无法应对这些新型的安全挑战,尤其是在如政策制定、法律解释和商业决策这样的关键领域中,任何由于模型幻觉导致的错误信息都可能引发严重后果。”
周鸿祎认为,确保大模型应用安全的关键在于三个方面:基座模型、知识库和智能体。基座模型的安全问题尤为突显,尤其是关于幻觉现象。幻觉,指的是模型生成的文本与现实情况不符的情况,这在公共决策中极可能造成误导。知识库的安全问题同样不容忽视,和企业的核心数据如果缺乏有效的保护措施,容易成为黑客的目标。,智能体的安全更是直接关系到企业的运营安全,智能体一旦受到攻击,可能导致一系列负面连锁反应,从信息泄露到生产线的物理损害都可能产生。因此,周鸿祎呼吁,要针对这三个方面加强安全治理。
为应对这些挑战,周鸿祎提出了一套“以模制模”的安全解决方案,通过人工智能技术重塑安全格局,建立覆盖基座模型、知识库和智能体的全链路安全体系。他希望通过这一体系能够有效地保护、企业在AI领域的创新和应用,更好地实现“智改数转”,即数字化转型与智能化升级的结合。
在此基础上,周鸿祎还提出了两项具体建议,以进一步强化AI技术的安全防护体系。第一,推动安全技术的创新和成果转化。他认为,相关部门应及时出台配套政策,刺激市场上那些提供“安全+人工智能”综合解决方案的企业进行研发,技术成果的转化应成为行业的焦点。第二,组建产业联盟,推动安全产品的推广。他建议形成一个涵盖产业链上下游、科研机构及终端用户的人工智能大模型安全联盟,以实现技术资源共享与合作。这种联盟能共同提升行业的安全标准,从而在产品与服务成熟后向更广泛的市场推广。
周鸿祎的主张和倡导,不仅是对当前AI技术应用安全问题的清醒认识,也为未来的技术发展提供了有力的指导。随着AI技术的迅猛发展,确保大模型的安全治理,将成为各界的共同责任。仅依靠单一企业或机构是远远不够的,只有多方的共同努力,才能真正建立起一个安全、透明的发展环境。
展望未来,周鸿祎期待未来的AI应用能够在安全的框架下,最大化地发挥其潜力。他认为,只有在安全的基础上推进技术创新,才能够支持、企业在全球竞争中立于不败之地,更进一步提升国家的科技软实力和自主创新能力。在这个过程中,建立全面有效的安全治理体系,将是AI技术发展的重要基石。在DeepSeek-R1的助力下,周鸿祎的呼吁为全行业敲响了警钟,未来将如何更好地实现AI技术的高效与安全,值得每一位从业者深思和探索。