MiniMax M2.7大模型评测:Transformer+MoE架构与长上下文实战 2026年4月6日 MiniMax M2.7采用Transformer+MoE架构(13.5B参数),支持128k超长上下文,具备高效训练推理与多层安全对齐,广泛应用于金融、医疗、法律、教育等领域。