MiniMax发布全球首个开源混合架构推理模型M1,推翻AI竞赛规则
时间:2025-06-23 10:35
小编:小世评选
在人工智能领域的持续进化中,竞争并非仅仅围绕模型的性能进行,而是逐渐转向高效率、低成本以及出色的推理能力。中国AI独角兽公司MiniMax于6月17日凌晨在上海发布了其自主研发的MiniMax-M1系列模型,宣告了AI竞赛的全新规则。M1被誉为“全球首个开源的大规模混合架构推理模型”,正成为Agent(智能体)时代的重要基础模型。
根据MiniMax发布的技术报告,M1模型在处理百万级Token的长文本时展现出了出色的能力,成为了当前市场上上下文最长的推理模型。这一突破的核心在于其混合架构的设计,使得推理成本降低到了53万美元(约合人民币380万元),这与同行相比有着显著的优势。同时,在工具使用场景(TAU-bench)中,MiniMax-M1-40k的表现也超越了众多开源模型,以支持更高效的开发和应用。
M1的发布引起了广泛关注,技术社区和行业观察者迅速给予高度评价,“性能媲美DeepSeek-R1,又一次卷到硅谷了”,这些评价表明了M1在技术水平上的提升。除开源模型权重外,MiniMax还以非常具有竞争力的价格推出了API服务,其定价策略也展现了其成本优势,吸引了众多开发者的目光。具体0~32k Token的输入和输出均以相对低廉的价格提供,同时在自有App和Web端中,M1模型将保持免费使用,这为其技术的普及打下了基础。
在性能评估中,MiniMax对M1的能力进行了全面测试,结果显示其在17个主流评测集上表现优异,尤其是在软件工程、长文本理解等复杂场景中,优势非常明显。以其M1-40k和M1-80k版本为例,在代码能力评估(SWE-bench)中分别获得了55.6%和56.0%的优秀成绩,远超其他开源模型,稳居行业第一。
在长文本处理能力方面,M1系列的百万级上下文窗口极大地拓宽了其应用场景,其在长文本理解的测试中,即便在全球范围内也仅以微弱差距落后于谷歌的Gemini2.5 Pro,排名第二。这一系列的优势使M1成为了AI智能体的首选基座模型,展现了无与伦比的潜力。工具调用(TAU-bench)的测试结果表明,M1-40k模型在模拟真实世界工具调用的复杂场景中再次超越了闭源的Gemini-2.5 Pro,展现出了极高的实用价值。
M1之所以能够取得如此耀眼的成绩,得益于其独特的架构设计和算法创新。核心技术方面,MiniMax采用了线性注意力机制(Lightning Attention)和更快速的强化学习算法CISPO(Clipped IS-weight Policy Optimization),为其高效能和低成本提供了坚实的基础。长文本处理能力已经成为现代大规模模型的一个重要评估指标,而M1模型则在这方面表现得尤为突出。其原生支持的100万Token上下文窗口以及最长8万Token推理输出,为复杂任务处理提供了更多可能性。
传统的Transformer模型在处理长序列时,注意力机制的计算量呈平方级增长,成为了性能和成本的主要瓶颈。而M1的混合架构意味着在计算效率上有着显著的优化,使得在进行8万Token的深度推理时所需的算力仅为DeepSeek-R1的30%。这一效率的提升不仅加快了推理的速度,也在很大程度上降低了训练和推理过程中的资源消耗。
新提出的CISPO算法通过裁剪重要性采样权重,以提高强化学习的效率和稳定性,实验数据表明其收敛性能较字节跳动的最新算法快了一倍,且显著优于早期使用的GRPO算法。这样的提升意味着更短的训练时间和更低的资源消耗,而MiniMax的官方数据进一步证实了CISPO技术的有效性,项目的强化学习阶段仅使用了512块H800 GPU,耗时三周,花费也远低于预期。
分析师指出,这一模型的推出为开发者和企业提供了一个高性能、低门槛的全新选择,同时展现了通过技术创新打破“算力-资本”壁垒的可能性。当前的竞争模式,将迫使更多模型厂商转向真正的技术驱动与价值创造,而非停留在参数与估值的表面繁荣中。
值得一提的是,M1的发布仅仅是MiniMax“开源周”的开始。在的四天内,MiniMax计划每天推出新的技术或产品更新,并积极与国家超算、vLLM等业界主流开源框架合作,力求为开发者带来更高效、便捷的M1模型部署与使用体验。随着这一系列的举措,MiniMax将在AI领域内引领新的技术浪潮,推动整个行业的进步与创新。