
om-ai-lab/VLM-R1 - GitHub
4 天之前 · In this project, we propose VLM-R1, a stable and generalizable R1-style Large Vision-Language Model. Specifically, for the task of Referring Expression Comprehension (REC), we trained Qwen2.5-VL using both R1 and SFT approaches.
deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B - Hugging Face
DeepSeek-R1-Zero, a model trained via large-scale reinforcement learning (RL) without supervised fine-tuning (SFT) as a preliminary step, demonstrated remarkable performance on reasoning. With RL, DeepSeek-R1-Zero naturally emerged with numerous powerful and interesting reasoning behaviors.
DeepSeek-R1模型1.5B/7B/14B/70B/671B区别及硬件配置要求
关于不同尺寸的DeepSeek-R1版本介绍、参数量、特点、使用场景和硬件配置,可以参考下表: 适合高精度专业领域任务,比如多模态任务预处理。 这些任务对硬件要求非常高,需要高端的 CPU 和显卡,适合预算充足的企业或研究机构使用. 参数规模的区别,模型越大参数数量逐渐增多,参数数量越多,模型能够学习和表示的知识就越丰富,理论上可以处理更复杂的任务,对各种语言现象和语义理解的能力也更强。 比如在回答复杂的逻辑推理问题、处理长文本上下文信息 …
Deepseek R1 - AI 模型完整列表
2025年1月20日 · 了解 Deepseek R1,其特性、参数以及如何使用它。
ATK官网 - VXE
ATK官网-全新独立外设品牌ATK,旗下现有VXE和ATK两大系列,出品极致电竞装备,打造潮流外设产品。
GitHub - PeterGriffinJin/Search-R1: Search-R1: An Efficient, …
Search-R1 is an extension of DeepSeek-R1(-Zero) methods for training reasoning and searching (tool-call) interleaved LLMs. We built upon veRL. Through RL (rule-based outcome reward), the 3B base LLM (both Qwen2.5-3b-base and Llama3.2-3b-base) develops reasoning and search engine calling abilities all on its own.
14G 显存跑动千亿大模型!基于 KTransformers 的 DeepSeek-R1' …
2025年2月24日 · 性能表现:在 24GB 显存环境下,KTransformers 可以运行 DeepSeek-R1 和 V3 的 671B 满血版模型,预处理速度最高可达 286 tokens/s,推理生成速度最高可达 14 tokens/s。
“李飞飞团队 50 美元炼出 DeepSeek R1”被质疑,上海交大本科生 …
2025年2月7日 · 根据论文,s1 能够达到不错效果的核心有两点: s1K 数据集和预算强制法(budget forcing)。 s1 团队构建的 s1K 数据集包含 1,000 个精心挑选的问题,包括数学竞赛问题、博士级别的科学问题、奥林匹克竞赛问题等,配有推理轨迹和答案,并通过三个标准进行验证:难度、多样性和质量。 这些数据主要来自 NuminaMATH、OlympicArena、OmniMath 等数据集,作为补充,团队还自己创建了两个原始数据集 s1-prob 和 s1-teasers。 团队使用谷歌的 …
【唐叔学AI】一张图彻底拆解DeepSeek V3和R1双模型-CSDN博客
2 天之前 · 文章浏览阅读1.1k次,点赞33次,收藏11次。唐叔带你读懂DeepSeek家族的技术内幕 ~ 【唐叔学AI】一张图彻底拆解DeepSeek V3和R1双模型 ... 今天咱们来聊聊DeepSeek系列模型,尤其是V3和R1这两兄弟。它们俩在AI圈子里可是火得不行,一个擅长对话,一个专攻推理。 ...
使用ollama运行deepseek r1 满血版教程 - CSDN博客
2025年2月28日 · 文章浏览阅读1.1k次,点赞7次,收藏4次。1、ollama run deepseek-r1:671b但是只有开始下载的前几分钟快,后续速度变慢,ollama又支持断点下载,所以,直接写个脚本下60s停止再继续。400G的模型半个晚上就下完了。保存后运行ollama create deepseek.r1:12gpu,创建了一个新的模型名称,可以通过ollama list查看,run ...
- 一些您可能无法访问的结果已被隐去。显示无法访问的结果