今天小编分享的科技经验:DeepSeek PC在淘宝火了!低配高价套路多,我劝你别买,欢迎阅读。
自从 DeepSeek 火了之后,围绕这个 AI 的各种生意就成为大热门,前段时间雷科技的一篇文章就提到过,在小红书、抖音等平台上教你如何用 DeepSeek 的教程已然泛滥成灾,只是数量繁多的教程其实大多高度相似,并没有太大的用处。
不过这些教程至少大部分都不收钱,即使要你关注或是加入群聊领取,回头觉得没用也是可以 " 反悔 " 的。而且就算是收费的教程,一般价格也贵不到哪去,大家被 " 割韭菜 " 了也可以及时止损,但是与这些 " 虚拟服务 " 相比,DeepSeek 的 " 实体周边 " 可就贵多了,如果你不小心被坑,就会成为真正的冤大头了。
图源:淘宝
过去一段时间里,不少粉丝都在微信后台问小雷,本地部署 DeepSeek 的事情,比如本地部署高参数的 DeepSeek 体验到底如何?部署 DeepSeek 到底要怎样的配置等,在出了一篇本地部署的教程后,小雷这次想和大家聊一聊网上正在泛滥的 "DeepSeek PC"(或者 "DeepSeek 主机 "、"DeepSeek 电腦 "、"DeepSeek 机 ")这件事。
什么是 DeepSeek PC?看名字挺高大上的,实际上就是以前的高性能 PC,其中很多产品甚至只是把商品展示页 P 上 DeepSeek 的字样,改改商品描述页就上架销售。
比如淘宝某商家标注的「入门款」DeepSeek PC,配置是 AMD Ryzen 5 5600X+DDR4 16G*2+RTX 3060 12G 显卡,同时标注可以本地部署 1.5B 和 7B 的 DeepSeek AI 模型。
这样一台所谓的「DeepSeek PC」,售价高达 5000+ 元,对 PC DIY 市场有所了解的朋友,估计很快就能看出不对劲了。一颗 5 年前发布的中端处理器 + 四年前的甜点级显卡,其他配置也不是什么好东西,在 2025 年居然还能卖到 5000 元以上?钱真的不是这样赚的。
让小雷给大家简单剖析一下这台 PC 的成本,5600X 散片价格为 549 元,RTX 3060 12G 的二手价是 1500 元,主機板算 570 元,最核心的三大件加起来也就 2500 元,剩下的硬體 1000 元配齐基本无压力。而且,这还是按照淘宝的零售价计算的成本,商家成本在此基础上再砍个 20% 甚至更多是没问题的。
或许会有人说:小雷,人家也要赚钱的嘛,不就是小赚 2000 元吗?算上售前售后和三年质保,对于企业来说这个钱也不算亏吧?问题就出在这里。
花 5000 元的成本部署个 7B 参数量的 DeepSeek,就像杀鸡用牛刀一样,花大钱办小事(不少云服务商直接提供完全免费的 1.5B 和 7B 版 DeepSeek 服务)。
首先来看看商家推荐的 1.5B 和 7B 参数模型,这两个模型本质上都不是 DeepSeek,而是用 DeepSeek 的开源技术,在阿里的 Qwen AI 大模型基础上制作的小参数版本。简单来说,里面的训练数据用的是 Qwen,只不过思维链和推理过程与 DeepSeek-R1 相似,拥有后者的 " 部分功力 "。
图源:魔塔社区
如果你寄希望于 1.5/7B 参数量的 DeepSeek AI 模型提供接近官网水平的回答,其实可以直接洗洗睡了,因为官网的 DeepSeek 不仅是原生版本,而且参数量高达 671B,是这两个模型的 447 倍和 96 倍。
在这种级别的参数差距下,不仅仅是回答质量有显著区别,AI 的性能也会严重受限,基本上只能给你提供一些日常问答聊天级别的建议,面对高级一点的数学题都会直接 " 束手无策 " 或是反馈给你错误的答案。所以这类型的 DeepSeek PC,基本上可以直接无视," 不要购买 " 就是我给大家的唯一建议。
那么更贵的型号呢?还是同一家店,一台售价高达 12xx9 元的 DeepSeek PC,配置是 i7-13700K+16G*2+RTX 3090 24G,价格暴涨后给的配置确实好了不少,但是 RTX 3090 仍然是一款 " 老显卡 ",而且考虑到商家标注为 " 涡轮显卡 ",基本上可以确定是在伺服器机房里 " 长期服役 " 的老将。
虽然从网友的反馈来看,RTX 3090 实际上最高可部署 32B 的 DeepSeek,但是不知道为何店家却只建议部署最高 14B,个人猜测或许是为了确保输出速度,也有可能是担心高负荷下显存不稳定导致 " 炸机 "。
从体验角度来说,14B 的 DeepSeek 虽然已经堪堪能用(可以进行一些简单的写作、代码辅助和问答),但是一万二的价格仍然是相当不值得。事实上,你用相似的价格去购买 RX 7900XTX,推理速度甚至还要优于 RTX 3090,而且作为一款 2022 年 11 月才发布的显卡,你很轻松就可以买到仅用了一两年的显卡,远比一张经受过 " 长久考验 " 的 RTX 3090 靠谱。
简单来说,如果你是为了尝鲜想折腾下本地部署,那么在没有自备显卡 的情况下,任何为了本地部署而购买「DeepSeek PC」的行为都是不值得的,还不如直接去买一台正经的游戏 PC,然后花几块钱买个本地部署教程或者让客服直接远程操控安装(如果你具备基础的电腦知识,那么免费的教程也是随手就能搜到)。
虽然本地部署的 AI 大模型听起来很酷,但是从小雷的实际体验来看,其实远不如直接购买 API 资源。以小雷自己的 PC 为例,我有两台台式机,一台用的是 14700K+32G 内存 +RTX 4070TI Super 16G,一台则是 14600K+32G 内存 +RX 7900XT 20G。
我在两台电腦上分别部署了 32B 和 14B 版本的 DeepSeek,虽然都可以顺畅运行,但是推理速度并不乐观。在没有进行优化的情况下,RTX 4070Ti Super 的推理速度是 5.89tok/sec,一篇千字左右的纯文字创作回答就思考了整整 46 秒。
图源:雷科技
而在 RX 7900XT 的电腦上,我曾经尝试过用他来推理一个高考数学题,结果就是推理速度仅为 2.51tok/sec,整个思考过程长达 37 分钟 45 秒,最后还给了一个错误的答案,属实让我有点无语。
事实证明,即使是 32B 版本的 DeepSeek,在数学推理等方面也基本不具备可用性,只要是稍微高难度一点的问题,就会需要很长的思考时间,而且还有概率是错的。至于更高级的 70B 版本 DeepSeek,那就不是普通用户可以考虑的了,从实测来看至少要 40G 以上的显存才能运行,而且推理速度堪忧。
简单来说,本地部署 DeepSeek 其实非常尴尬,除非你财力雄厚,直接购入伺服器级别的硬體,然后部署个满血版的 DeepSeek,否则大多数情况下你都很难从残血版的本地 DeepSeek 上得到符合需求的体验。
如果说你是因为 DeepSeek 官方軟體频繁的 " 伺服器繁忙 ",打算试试本地部署,那么我的建议是直接考虑第三方 app,比如腾讯元宝、纳米 AI 搜索(360)等 app 都提供免费的满血版 DeepSeek AI 服务。
图源:雷科技
如果你想要一个专属于个人的 DeepSeek,那么也可以去硅基流动、阿里云、华为云等 AI 服务商那里购买 API 流量,利用 chatbox 等第三方客户端进行本地部署。我们以 DeepSeek 的官方 API 价格为基准,让 AI 帮我们算一下如果 5000 块全部拿去充值 API 余额,专为一个人服务可以使用多久。
答案是纯聊天能用 101 年(每天发送一百条信息)、纯推理为 38 年(每天使用 20 次深度推理),即使是混合使用的情况,这笔钱也够你买 27 年的 DeepSeek 官方服务,而且是满血版。
虽然目前 DeepSeek 官方已经关闭了 API 充值通道,但是大多数第三方 API 都是类似的价格。当然,我知道有人会说这是本地部署,自己就是不想把数据给到 DeepSeek 等 AI 供应商,那么也是有第二个方案的,不管是阿里云还是华为云都提供云伺服器的 AI 部署服务,在多数情况下你的数据会比放在本地更安全,而且也不会受到 AI 服务商的规则限制。
图源:腾讯云
而且,从小雷收集到的信息来看,阿里云、华为云、腾讯云等云伺服器的价格都差不多,支持到 70B 版本 DeepSeek 部署的云伺服器价格大多在 15-20 元一小时左右,如果每天的使用时间不多,选择按量计费其实是挺划算的(至少比你花三万多买个电腦回来本地部署要好)。
简而言之,除非你对数据安全有着极致的要求,否则本地部署 DeepSeek 都不是一个好主意,只有当你拥有中高端显卡时,拿来做个消遣的价值。不过这个结论并非一直不变,随着开发者对 DeepSeek 的了解深入,或许我们有望以更低的标准部署 DeepSeek 也说不定。
比如清华的团队就用单张 RTX 4090+ 超大规模内存阵列的方式,实现了本地的 671B 版本 DeepSeek 部署,而且输出速度并不慢,简单计算下,整体成本远低于购买专业伺服器和计算卡,已经具有可行性。
图源:推特(外国网友复现清华团队成果)
所以,大家不妨再等等,或许不用两个月就会有更精简、高效的 DeepSeek 本地部署方案面世。至于现阶段,大家还是先玩玩第三方的免费版或者自购 API 吧,这两个是性价比最高的选择。