2026 年又一个 deepseek 出现,代季峰团队的 MiroThinker 1.5,东方盒武器!
时间:2026-1-8 03:41 作者:独元殇 分类: AI 与出海
[toc]
在我眼里,对其的定位为:东方盒武器!
我今天 1.7 号已经使用它问了好多问题,尤其是很多人、博主的信息。
以及我自己。我也不是网红,就是一个三流网民。
对于 Gemini 和 ChatGPT ,对于深挖个人信息,是拒绝的,即便隐晦的提示词去问,答案也是笼统的,但 MiroThinker 1.5 可以直接就来,不知用了多少页面反复求证,把我十多年前的各种旮旯事都搞出来了。就几分钟的时间,比我自己还了解我自己在互联网的过去,对早期互联网的偏僻问题的处理表现很不错。开 丅 盒神器啊!
使用地址: https://dr.miromind.ai/
首先第一点:它是 30B 参数小模型,体积只有 60GB 左右,两张显卡就能不受监管的本地跑。
其次第二点:它的深度互联网挖掘能力,确实是要强于 Gemini 的,幻觉率之低完爆大部分当代模型,断档级。而且找不到的内容,会直接说不知道,而不是说谎。这个很重要。
当然也要怯魅,这个是拿 qwen3 作为基础开发的专注深入研究的 LLM 。目前还处于初级阶段。(术业有专攻,不能拿它和上千人团队的 chatGPT 与 Gemini 全方位对抗)
它是用来深入调查信息的,而不是算高智商数学题的。算是个小众的赛道。
以下是原文:
昨夜刷手机时,刷到了这个 MiroThinker 1.5 的知乎新闻。然后使用了一下,和 Gemini 与 GPT 对比了一下,我感觉质量一点也不输美国的闭源大模型。而且很明显,幻觉很少!比 GPT 5.2 还少!AI 模型比我想象中发展迭代的还快。365 天前我还在用大模型治疗低血压呢。
我觉得这个未来一段时间,会是一个国际大新闻(“30B 吊打 1T”这个结论太反常识了)。
目前这玩意儿解决一个复杂的问题,只要约成本 5 毛钱人民币..... 约等于美国主流模型的 10 分之一或更低,且质量并不差,甚至有时更好!静待佳音....
先说说它的闪光点吧。
这个 MiroThinker 1.5 是证明了,人工智能还有很多的成本可以去减!以后 API 更便宜廉价,我们能玩的花样会更多。
chatgpt 在 2022 年问世,掀起新时代,证明了海量的文本数据、堆砌数据参数 能发展出智商。于是,现在全世界的模型公司都在 拼命 争夺人类文本数据。最终还不错,现在的顶级模型上知天文下知地理,智商很高,情商也很高。
站在25年初的时间点,LLM Pre-training的技术曲线已经走到了scaling law的log曲线里很平坦的区域了,别的大模型公司也都在这条技术曲线上迭代了两年多,MiroMind没有优势。(MiroThinker 项目负责人代季峰原文)
但是,我们很显然知道一个现实,人脑里面装的知识并不多,但是有的人也并不需要有很多教育经历,即便天天日复一日的重复枯燥的事情,依然很聪明,所以这个 MiroThinker 走的路子是:我不去记住很多事,我只是去研究、验证、研究、验证.... 深究用户的问题。
它的另一个创新是:它不 100% 信任网上搜索到的内容。对于很多小网站或小人物发表的言论细节,它自己仍会多方求证,以保证答案正确。这在以前 chatgpt 联网搜索不一样。以前是看到什么就信什么。
显然,我今天尝试了一下,问了它好几个 Gemini 都回答不上来的问题如调查某博主身份、明星经历、某些细碎的地方法规、一些无成文资料的冷门领域,尤其是一些分散在互联网很边缘的内容。但是它的表现出奇的好!连我那山高皇帝远的农村,某个村子 东南西北 分别的哪个村,这种互联网里完全无现成文本答案的问题,它都能研究出来。
这说明它跑通了:模型只要有自己的思维打法,不需要把全世界的知识都吃进去,也能不逊色顶级模型!
又一个国产大语言模型!
和 deepseek 也能比一下
还记得去年 2025 年初的 deepseek 吗?去年的 deepseek 靠走蒸馏,大刀阔斧把模型的成本给降下来了,震惊了全世界。
今年 2026 年初,MiroMind 又以性能 【 30B 参数 = 1T 参数 】,这个相差有 35 倍的大差异,让模型开发和运行成本又降低了很多.... 不亏是清华,真厉害。
体积大概只有 60 GB,两张英伟达 3090 显卡,整机万把块就能跑动!
其实也让我想到了去年 2025 年初的 deepseek 小模型,我记得很弱,是那种只有 7GB 大小的模型,但去年 2025 年底的 千问 Qwen 0.6B 小模型,就几个 GB 大小,我安装在我几千块的本地 Mac 电脑里,已经能帮我处理很多很多比较复杂的任务了。
我觉得总有一天,一个手机里就能运行智商不比当前 Gemini 3.0 pro 差的本地小模型了。
这就像一个进化。大口给模型喂数据,是为了让模型直接把进化了几亿年的人类进化史给拿来主义、极致模仿了一番,把智商练的差不多。
而现在进化到近似当代人水平了,就把思维模式抽象化,不需要那么多用不到的记忆负担了,直接靠智商、研究打法生存。
当然,天下没有免费的午餐。
我们在使用 MiroThinker 1.5 给 GEMINI 做对比时,很显然 MiroThinker 1.5 速度很慢。一个很简单的问题,要回答,至少需要 2 分钟或更长。原因很简单,脑子里面没有储存大量的直觉型知识,需要大量的分身,去上网查,现学现卖。
因此,我们这种二道贩子,去使用 API 时,就不能把它放到那些时间敏感的行业,就类似于豆包实时语音打电话视频这种。
同时,这玩意也不能做需要创造力很高的内容。读书破万卷、下笔如有神。因此创造力不会很好。
但相比它的价格更廉价的优势,这缺陷不是很不堪。和人类一样,现学现卖花点时间就行了,况且机器,可以低成本复制粘贴,开 300 个 MiroThinker 1.5 去思考,肯定比大体积闭源模型强。
对于搞科研的人来讲,这是好事。科研,对结果的精准度要求很高。时间不是问题,拿钱砸,多买一些就行。
(世界知识强,能够省token,现在大模型调用一次的成本要低于谷歌搜索一次的成本了,都得得益于巨大的知识储备量)
当然,和 DeepSeek 一样,这证明了这条路可以走。外国的 AI 巨头,会马上复刻出更夸张的迷你高智商模型。
但卷来卷去,也都是为了未来的广大人民做贡献。以后,满大街都是本地部署的 AI 生命了。能运行 Linux 的地方,就有 AI 生命。
我要做一个相关的周边网站 https://miromind.ccgxk.com/ 。