免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > DeepSeek在GitHub上超越OpenAI,创下7.8万Star新纪录

DeepSeek在GitHub上超越OpenAI,创下7.8万Star新纪录

时间:2025-02-07 22:10

小编:小世评选

在开源社区GitHub上,84天的时间,DeepSeek一举夺得了超过78,000个星标的佳绩,让人刮目相看。这不仅是一个数字的变化,更是当前人工智能领域演变的重要里程碑。近日,DeepSeek终于在Star数上首次超越了Open引起了广泛的关注与讨论。

根据2月7日的消息,DeepSeek的Star数已经超越了OpenAI最受欢迎的项目之一——Whisper模型,这一实时音频转文本的工具曾是OpenAI的明星产品。值得一提的是,OpenAI的开源项目中,Star数排名靠前的除了Whisper以外,还有openai-cookbook,这是一个为开发者提供OpenAI示例代码和指南的官方开源项目。随着DeepSeek的崛起,这一竞争更加激烈,令人期待。

在过去不久,DeepSeek不仅在GitHub上大展拳脚,还在App Store上取得了显著成绩。它力压ChatGPT登顶美区App Store的免费应用榜单,并在国内App Store的免费榜单中同样位居第一。这显然是DeepSeek耀眼表现的又一证明,它的成功也因此引发了更加深入的讨论,关于其背后的技术实力与市场潜力。

根据当前的数据分析,我们不难发现DeepSeek的Star数远超其他开源模型。在开源模型的激烈竞争中,Meta的Llama系列模型自2023年发布以来,其最高Star数仅为57,500;阿里云的通义千问发布的Qwen2.5在1月29日达到14,900的Star数;而其他如零一万物的Yi模型和Anthropic的项目则更是逊色,分别为7,800和10,200。DeepSeek所拥有的吸引力与潜力在这个市场里的确具有不可小觑的魔力。

DeepSeek的成功并非偶然,其背后的技术实力和持续创新算得上是成就这一历史时刻的重要因素。DeepSeek V3和DeepSeek R1是该项目在2023末和2024年初发布的重要创作。DeepSeek V3是一个自主研发的MoE(混合专家)模型,其参数量达到671B,并拥有37B的激活参数。这一模型号称在14.8T token的预训练上表现卓越,其在多项测试中完胜Qwen2.5-72B和Llama-3.1-405B等知名开源模型。无论是性能上,还是在使用场景的适配能力上,DeepSeek V3均显示出与新一代GPT-4和Claude-3.5-Sonnet相似的专业水平,这是一个相当了不起的成就。

DeepSeek R1在处理数学、程序代码和自然语言推理等任务时的表现同样引人注目,其性能与OpenAI的o1正式版相媲美。DeepSeek R1不仅同时发布了六个蒸馏小模型,并通过32B和70B模型实现了对标OpenAI o1-mini的效果,这一系列举措彰显了DeepSeek在多任务处理与模型轻量化方面的全面进步。

面对这一切,市场上对DeepSeek的关注与期望愈加浓厚。各大芯片企业、云计算巨头以及基础设施公司纷纷尝试适配与接入DeepSeek这些新兴技术。显然,DeepSeek所展现出的卓越性能与广泛应用场景正在逐渐扩大,其应用潜力更是充满想象。

DeepSeek在GitHub的超越不仅是数据上的胜利,更是在技术、团队和战略布局上的重大成就。在未来的竞争中,DeepSeek将如何继续保持这一势头,引领开源领域的发展,将会成为行业上下讨论的热门话题。 无论是对开发者而言,还是对最终用户,DeepSeek的崛起将继续推动人工智能技术的迅猛发展以及应用场景的进一步探索,未来可期。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多