免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 加州政策团体倡议AI监管:前瞻未来风险与透明度要求

加州政策团体倡议AI监管:前瞻未来风险与透明度要求

时间:2025-03-21 02:53

小编:小世评选

近日,由人工智能领域的著名专家李飞飞博士主导的加州政策团体发布了一份重磅报告,该报告呼吁立法者在制定有关人工智能的监管政策时,需高度关注尚未显现的全球范围内的潜在风险。这份41页的中期报告来自加州前沿人工智能模型联合政策工作组,该工作组是在加州州长加文·纽森否决了一项有关AI安全的法案SB 1047后成立的。这项法案因未能达到预期目标而被否决,纽森随即意识到,需要对人工智能可能带来的风险进行更全面的评估,以便为未来的立法工作提供有力支持。

在报告中,李飞飞与加州大学伯克利分校计算机学院院长詹妮弗·查耶斯、卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔等人共同强调,有必要制定相关法律,以确保对像OpenAI这样前沿人工智能实验室所研发内容的透明度。在报告的形成过程中,来自不同意识形态背景的行业利益相关者对其进行了审阅。包括图灵奖获得者约书亚·本吉奥,他是AI安全的坚定支持者,反对SB 1047法案的Data

icks联合创始人伊昂·斯托伊卡也参与了这一过程。

该报告指出,随着人工智能技术的迅速发展,可能出现一系列新型风险,因此立法者应强制要求AI模型开发者公开其安全测试、数据获取过程及安全措施。报告还提出了提高第三方评估标准的建议,以加强对AI企业政策的审查,并加强对员工和承包商举报人的保护。

李飞飞和其他合著者提到,目前尚缺乏关于人工智能在促进网络攻击、制造生物武器或引发其他“极端”威胁方面的实证数据。报告强调,人工智能政策不仅要应对现有风险,更要具备前瞻性,预见在缺乏适当防护下可能面临的未来危害。正如报告中所言:“我们无需亲眼目睹核武器的爆炸,就能合理预测其造成的巨大破坏。因此,如果有关极端风险的假设是正确的,在尖端AI领域不采取行动的代价将是极其高昂的。”

为了提高AI模型开发的透明度,报告建议采取双重策略:在信任的基础上进行验证。具体而言,应为AI开发者及其员工提供渠道,让他们能够就公众关注的议题作出报告,例如内部安全测试,并要求他们提交测试声明以供第三方验证。虽然这份报告在最终版本中定于2025年6月发布之前并未对任何立法方案进行明确支持,但它广泛赢得了AI政策制定辩论双方的高度评价。

乔治梅森大学专注于人工智能研究的研究员迪恩·鲍尔,对SB 1047法案曾表示批评,他在社交媒体上发文称,这份报告对加州的人工智能安全监管问题是一个令人振奋的进展。而去年提出SB 1047法案的加州州参议员斯科特·维纳也表示,这份报告标志着人工智能安全倡导者的一次成功。他在新闻稿中指出,这项报告在“我们2014年进入立法机构的人工智能治理紧急对话”基础之上具有重要意义。

更广泛来看,该报告的内容与SB 1047法案及维纳后续提出的SB 53法案的多个要点保持一致,例如要求AI模型开发者报告安全测试结果。这一系列的发展不仅对有意推动人工智能安全实施的利益相关者来说是一个重要里程碑,也反映出在过去一年中,AI安全领域所经历的挫折与挑战的应对。

加州的政策团体通过这一报告呼唤与推动立法,为解决AI日益增多的风险提供了积极的思路与方向。监管机构是否能够有效地落实这些建议,并为未来的人工智能发展设定合理且切实可行的规范,仍然需要进一步的关注与努力。随着技术的不断进步,相关政策的制定与实施将对未来社会产生深远的影响。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多