全文约 650 字,阅读约需 3 分钟。
写于 2026.02.11 。
今天在一篇介绍 GPT-5.3-Codex 的公众号文章评论区,看到一条评论互动,精准触到我的笑点。
有网友A问:"为什么不使用本地部署模型的方式,节省大量 token 消耗的成本?"
网友B回答:"想本地部署 GPT,你是托尼·史塔克吗?"
这里有一个隐含的假设:从我的视角来看,A提出的问题显得无知,结合B极具讽刺性的回答,整段对话显得很滑稽。
大笑过后,我想到这两天重听播客——《面基》的一期节目。嘉宾南添聊到商业思维这种思维方式:具备这种思维的人,在生活中愿意倾听、尊重别人的需求。无论别人说什么”傻话“,都会先思考他为什么这么想。只有蹲下来听别人说话,才能真正尊重别人的需求。
大笑是我的下意识反应,基于预先做出的粗暴假设进行判断,这意味着我没有尊重和思考网友A这类人群的需求。
"同理心"是产品经理最核心的特质之一,我很早就清楚这一点,但在实际生活中却容易抛之脑后。就像不久前我写的文章《放下评价(judge),理解人的需求》,核心就是讨论这个问题。
南添也聊到,发现同理心其实不难,难的是愿不愿意使用同理心。绝大多数人嘴上说得很好听,其实根本不想理解别人,不想关心别人。
回到这条评论,我尝试理解网友A的需求:
- What:想要一种便宜使用高性能大模型来处理任务的方式。
- Why:GPT、Claude 性能很好,但价格昂贵。
- How:目前没有找到满足需求的解决方案,在公众号评论区向博主提问。
基于以上分析,存在几个问题:
- 网友A对本地部署GPT、Claude的成本并不了解。这不仅需要工程知识,还需要准备极其昂贵的硬件设备。
- GPT、Claude是闭源模型,无法直接获取用于本地部署。
- 对于DeepSeek、Qwen等开源模型,如果部署满血版,成本同样昂贵,且性能与顶尖闭源模型仍存在差距。
综合分析,除非对个人或团队数据有严格的保密要求,本地部署开源模型才能满足需求;否则在低成本高性能的需求下,直接使用GPT更合适。
ref

