
MiniMax-与用户共创智能
MiniMax大模型已有日均 30 亿次 AI 交互量,每日处理3万亿token。 基于MOE(混合专家架构)+ Linear Attention(线性注意力)的新一代模型技术的应用与多项最新研发成果,也在伙伴日中与大家见面。
每天了解一家大模型公司:MiniMax - 知乎 - 知乎专栏
abab 6.5 系列模型,2024 年 4 月 17 日正式推出,在 MoE 还没有成为行业共识时, MiniMax 花了 80% 以上的精力下注 MoE,并于今年 1 月,发布了国内首个基于 MoE 架构的 abab 6。在过去的三个月里,进一步地挖掘了 MoE 架构的潜力,研发出了更强大的 abab 6.5系列。
abab 模型进展|MiniMax 发布万亿 MoE 模型abab 6.5 - CSDN博客
2024年4月19日 · 总的来说,MiniMax的abab-6系列模型在性能、应用场景和运算效率等方面都表现出色,是国内首个千亿参数以上的基于MoE结构的大语言模型,具备处理复杂任务的能力,并在多个测试集上表现更好。
abab 模型进展|MiniMax 发布万亿 MoE 模型abab 6.5 - 文章 - 开 …
2024年4月18日 · 2024 年 4 月 17 日,MiniMax 正式推出abab 6.5 系列模型。 在 MoE 还没有成为行业共识时,MiniMax 花了 80% 以上的精力下注 MoE,并于今年 1 月,发布了国内首个基于 MoE 架构的 abab 6。
大模型横评系列 - 海螺问问(MiniMax abab6) - 知乎专栏
abab6是来自 MiniMax 的最新模型,国内首个采用 MoE架构。 官方宣称新模型在指令跟随,任务理解方面都有不小突破,较自己上一代abab5.5有大幅提升,但离 GPT-4 有不小差距。 本次评测基于 海螺问问。 基础题采用 负向打分,即出现相应负向情况,扣1分。 最后按扣分从少到多排序。 基础题考察模型基本功:指令理解,阅读理解,逻辑推理,数学计算,科学常识,翻译, 机器幻觉 等共9个分类。 基础题都有明确且固定的答案,并且对答案也有明确约束,如字数,格式,知 …
MiniMax 国内首个 MoE 大语言模型全量上线啦 - 知乎
2024年1月23日 · 今天,经过了半个月的部分客户的内测和反馈, MiniMax 全量发布大语言模型 abab6, 为国内首个 MoE 大语言模型。 在 MoE 结构下,abab6 拥有大参数带来的处理复杂任务的能力,同时模型在单位时间内能够训练足够多的数据,计算效率也可以得到大幅提升。 改进了 abab5.5 在处理更复杂、对模型输出有更精细要求场景中出现的问题。 我们会在这篇文章中与大家分享为什么使用 MoE 架构,abab 6 大语言模型的测评情况,以及在最后附上申请使用的链接 …
MiniMax大模型全面开放 - 文章 - 开发者社区 - 火山引擎
2024年1月8日 · MiniMax“abab”大模型能力适用于大多数文本处理相关的场景,如逻辑推理、文本续写、文案生成、文本扩写、文本改写、内容摘要、代码生成、知识检索等。
abab 6.5-MiniMax稀宇科技发布的万亿参数MoE大 模型 - AIHub
2024年4月18日 · abab 6.5是国内 AI 初创企业 MiniMax 稀宇科技今日正式推出的 MoE 混合专家模型架构的系列大模型,核心能力开始接近 GPT-4、 Claude-3、 Gemini-1.5。 abab 6.5 系列包含两个模型:
MiniMax旗下abab6.5大模型API部署使用教程 – AI大模型数据库
abab6.5是由MiniMax公司研发的先进大语言模型,属于MoE(Mixture of Experts,混合专家模型)架构。 该模型包含万亿参数,支持200k tokens的上下文长度,能够处理大规…
MiniMax 国内首个 MoE 大语言模型全量上线啦 - CSDN博客
2024年1月24日 · MiniMax发布了全量的MoE大语言模型abab6,它在处理复杂任务和提升训练效率上有所改进。 文章介绍了使用MoE架构的原因,分享了abab6的测评结果,以及邀请用户参与体验和提供反馈。
- 某些结果已被删除