MiniMax-与用户共创智能
自 2023 年 11 月至今,MiniMax 语音大模型已服务超过 2000 家企业用户,为语言学习、PC语音助手、语音声聊唱聊、超拟人情感配音等十余种场景提供落地解决方案。
MiniMax-AI/MiniMax-01 - GitHub
Building on MiniMax-Text-01's prowess, we developed MiniMax-VL-01 for enhanced visual capabilities. It uses the “ViT-MLP-LLM” framework common in multimodal LLMs. It is initialized …
MiniMax-01: Scaling Foundation Models with Lightning Attention
2025年1月14日 · Our vision-language model, MiniMax-VL-01 is built through continued training with 512 billion vision-language tokens. Experiments on both standard and in-house …
- Cite as: arXiv:2501.08313 [cs.CL]
MiniMax Official Website - Intelligence with everyone
MiniMax is a leading global technology company and one of the pioneers of large language models (LLMs) in Asia. Our mission is to build a world where intelligence thrives with everyone.
MiniMaxAI/MiniMax-VL-01 - Hugging Face
The model is initialized and trained with three key parts: a 303-million-parameter Vision Transformer (ViT) for visual encoding, a randomly initialized two-layer MLP projector for image …
【LLM技术报告】《MiniMax-01:使用闪电注意力机制扩展基础模 …
2025年1月21日 · MiniMax-VL-01架构遵循"ViT-MLP-LLM"范式,这一范式已被众多多模态大语言模型(MLLM)广泛采用。该架构包含三个主要组件: 用于视觉编码的303M参数的ViT; 随机初始 …
- 其他用户还问了以下问题
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支 …
2025年1月15日 · MiniMax-Text-01 的架构 Lightning Attention 目前领先的 LLM 大都基于 Transformer,而 Transformer 核心的自注意力机制是其计算成本的重要来源。为了优化,研 …
MiniMax技术报告解读 - 知乎 - 知乎专栏
这篇技术博客介绍了 MiniMax-01 系列模型,包括 MiniMax-Text-01 (文本模型)和 MiniMax-VL-01 (多模态模型)。该系列模型旨在突破现有大语言模型 (LLM) 和视觉语言模型 (VLM) 的性能 …
MiniMax-01开源,4M超长上下文、性能爆炸、支持多模态 - 知乎
MiniMax-01采用了混合架构,结合了闪电注意力和softmax注意力,并通过专家混合(MoE)架构最大化参数和计算能力,最终实现了在单台机器上处理超过100万token的能力。 2. 模型架构. …
探索Minimax: 从安装到使用的全面指南LLM(大语言模型) …
2024年10月29日 · 在这篇文章中,我们将深入了解如何设置和使用 Minimax 的不同功能,包括大语言模型(LLM)、聊天模型和文本嵌入模型。 ## 主要内容 ### 安装和设置 要开始使用 …