中国大模型的危机
随着deepseek-V4的发布,铺天盖地的中国大模型又胜利了,这种声音又来了。
在我看来,现在反倒是输的最惨,危机最大的时候。
简中媒体,异口同声的用openrouter数据来代表国际大模型调用总量。
这倒是容易,对上完成KPI,对下忽悠老百姓。
openrouter的价格是在模型官方或第三方价格上,额外要交5.5%的手续费,也就是说大部分用户是根本不会从这里走大模型调用的,只有少数用户为了方便或者绕开封锁从这里走。
这意味着openrouter的流量只能是全球总量的零头而已。
国产大模型靠免费一周来刷排行榜,只有营销意义。
差距远远不止3-6个月
Section titled “差距远远不止3-6个月”别看数据,别看别人的评测,自己随便找点东西,用一两天,看看ds-v4-pro/kimi-k2.6/glm-5.1能不能达到sonnet-4.6/GPT-5.4的水平。
甚至说,sonnet-4.5/GPT-5.3的生产力水平,是不是都达到了。
大模型,三个臭皮匠根本顶不了一个诸葛亮,臭皮匠模型在评测/体验/吹捧完只有放在箱子里,不然拿出来就是循环出各种问题。
个人的感觉,落后两代,差距越来越大,而且无力追击。在去年这个时候是没有这种感觉的。
ds-v4竟然不支持多模态,不能做视觉QA。
唯二支持多模态的,qwen3.6-plus拉了,kimi-k2.6也没好哪去。
什么几分之一,几十分之一的价格,根本是在忽悠普通用户。
其采用的比较方法是,GPT5.4的官方价格是输出15刀/M,ds-v4-pro是24元(3.5刀)/M,这样大概是五分之一的价格。
实际上,GPT的订阅大概能给到15倍-30倍的量,也就是说实际价格是1刀/M,甚至0.5刀/M。
大部分人无法完成订阅的流程,对此没有概念,那么从中转价格能稳定在3-6元/M,也能获得同样的结论。
国产coding plan,大概能给到3-6倍的量,和gpt等大模型的慷慨比起来,是很贵的。
小米的mimo定价比gpt还要高,因为成本高,但有什么理由让用户用比GPT5.4更贵的价格,用更差的模型?
唯一有价格优势的是ds-v4-flash,输出2元/M,如果能给3-6倍的总包就不错。
ds-v4-pro如果能一直维持官方折扣6元/M,再给3-6倍的总包,也行。
换言之,ds-v4-pro这个级别的模型,1-2元/M;ds-v4-flash,0.3-0.5元/M;才是真正有竞争力的价格。
如何能做到这个价格呢?靠落后的制程,喜欢卖高价的华为,还是靠别的什么。
即便是实现了竞争力价格,3元的GPT5.4和2元的deepseek-v4,一个月也就是300元还是200元的事,用户会怎么选?
大模型这门生意是胜者通吃的,别说300对200,就是300对100元,用户也会选择300元的,少喝一顿酒,省了无数的心和无数的时间。
英伟达+先进制程+高质量数据=美国大模型 ,这三者叠加必然是更先进,价格更低。
现在,国内各家还坐着卖token的大梦,甚至想高价卖token,很多定价都比GPT或claude要高了。
如果哪一天GPT开放了中国市场会如何?
哪怕只开放落后模型,比如现在开放GPT5.4,用3元/M的正常价格对华销售。
落后一代的模型,奥特曼去游说华府,未必不能成功。
作为用户,我不愿意用国产高价低能的token,企业肯定也一样。
作为中国人,我希望国产AI振兴,唯一出路,是国家需要补贴企业采购国产token,大规模增加实际用量,解决高质量数据这一个短板。
我不愿意悲观,但是deepseek这么令人尊敬的公司,做到极致也还是落后两代,价格差不多。除了国家安全之外,有何意义?
科技企业自己用着先进便宜的GPT和claude,卖着昂贵的国产模型,还写新闻稿说多便宜。生意能这样长久做下去吗?
科技企业靠墙活着,在AI时代还能行的通?
Copyright © 2004-2026 WL