DeepSeek的幻觉:智能AI引发假新闻危机
时间:2025-02-28 22:00
小编:小世评选
近期,DeepSeek的推出引发了广泛关注,标志着我们与人工智能的关系进入了一个全新的时代。在这段与AI的蜜月期中,幻觉问题的出现却为我们敲响了警钟。随着信息传播的加速,假新闻的危机也随之而来,DeepSeek作为一款强大的AI语言模型,其所产生的内容并非总是基于事实,这使得公众在使用时面临巨大的信息风险。
近期,一则“80后死亡率突破5.2%”的虚假新闻在网络上迅速传播。经过调查,上海网络辟谣表示,这一信息的源头很可能是AI对话系统生成的内容。这数字看似合乎逻辑,却并没有真实的数据来源。这种看似直观却实则错误的资讯令人感到愤怒与无奈,但更令人震惊的是,这并不是个例。
在尝试用DeepSeek搜索资料的过程中,我们发现了类似这样的风险。例如,当一位用户询问“山姆每年为京东即时零售带来多少订单”时,DeepSeek信誓旦旦地给出一个肯定的回答,甚至预测了京东与山姆之间即将展开新合作。但实际情况是,两者在去年就已经结束了合作关系。深究其原因,我们可以归结为AI模型的“幻觉”现象。
所谓“幻觉”,来源于大模型的基因缺陷。这是由于人工智能在生成内容时,仅仅是基于各个词的出现概率进行选择,因此很容易创造出看似流畅却完全不符合事实的回答。DeepSeek-R1的幻觉比例在众多模型中尤为突出。例如,在Vectara HHEM人工智能幻觉测试中,其幻觉出现率达到了14.3%,是DeepSeek-V3的近四倍,远超行业平均水平。这一问题的严重性,尤其在DeepSeek-R1作为中国应用最广泛的大模型之一时,显得愈加不可小觑。
随着DeepSeek的普及,越来越多的人开始依赖这个工具来进行学术研究、数据搜集等。这种信任的盲目性也带来了不少困扰。举个例子,一名大学生在使用DeepSeek撰写论文时,发现其生成的文献参考资料完全是虚构的,这让他愤怒而又无奈。网络上更是充斥着各种错误信息,普通用户常常无法辨别真伪,许多人因为AI生成的内容而被误导。
在人的判断往往受到信息来源的影响,DeepSeek的幻觉现象实际上让人类面临更大的信息风险。一些用户甚至将AI生成的医疗建议作为依据,误认为医生的判断失误,导致了医疗上的困扰。例如,一位家长因相信DeepSeek的建议,质疑医生开出的发烧小孩的治疗方案,造成了医疗资源的浪费和不必要的医疗争论。
针对这种现象,虽然AI的幻觉不应被视为绝对的“恶”,但它确实给信息传播和公众认知带来了复杂的挑战。在大模型的训练过程中,构造了大量信息的压缩表征,模型在推理阶段往往无法还原真实信息,进而产生“幻觉”。
现阶段,如何打击这一幻觉现象成为了AI使用者的重要任务。对于普通用户而言,最有效的应对方式莫过于多方交叉验证信息来源。在搜索信息时,可以同时对比多种渠道,而不是单一依赖AI生成的content。同时,人工智能开发者也有责任对其产品进行利用与监管,以确保尽量减少虚假信息的传播。
例如,有些开发者已经在尝试通过设定特定的参数和标识模糊信息来露出模型幻觉的可能性。值得注意的是,普通用户对于这些技术手段的理解和使用可能并不够全面,因此,向公众普及AI相关知识显得尤为重要。社交媒体和传统媒体应加强对AI生成信息的辨识能力,同时培养受众的判断力和批判性思维。
DeepSeek的幻觉现象不仅是大模型的技术缺陷,更是引发的假新闻危机的重点。面对信息时代的挑战,如何正确使用AI工具,避免被误导,已成为公众和社会必须共同面对的课题。只有通过多方努力,提升公众的信息判断能力,才能降低AI带来的潜在风险,确保科技的发展能够真正服务于社会。