DeepSeek V4 的表现确实非常强劲。
它拥有 100 万 token 的上下文、思维链推理能力,而且价格低到了极致,模型本身的实力毋庸置疑。

不过,如果你只是用网页版聊天,V4 的编程能力根本发挥不出来。
你不能直接让它修改文件、运行命令或管理 Git,只能不停地复制粘贴,效率极低。
它完全无法提供类似 Claude Code 的体验。
因此,有人用 Rust 从零开发了一个终端原生的编程 Agent,专门对接 DeepSeek V4。
你可以把它看作是 DeepSeek 原生的终端 Coding Agent。

01
开源项目简介
DeepSeek-TUI 是一个运行在终端里的 AI 编程 Agent,采用 Rust 编写,专门对接 DeepSeek V4 模型。
简单来说,它就是 DeepSeek 版的 Claude Code。
它能在你的终端里直接读写文件、执行 Shell 命令、搜索网页、管理 Git,甚至编排子 Agent 并行处理任务。

- 地址:https://github.com/Hmbown/DeepSeek-TUI
100 万 token 上下文 + 思维链实时可见
DeepSeek V4 最大的卖点是 100 万 token 的上下文窗口,而 DeepSeek-TUI 直接充分利用了这一能力。
更关键的是,它支持 Thinking-mode 流式输出,模型的推理过程你可以实时看到。

它在思考什么、为什么这样修改,每一步都清晰呈现,而不是黑盒式地直接给出结果。
100 万 token 大约相当于 75 万字,换算成代码,几乎可以把一个中型项目的全部源码一次性塞进去。
你不需要手动挑选哪些文件喂给 AI,整个项目结构、模块间的调用关系、配置文件、依赖声明,它都能一次性全部看到。
当你修改一个函数时,它知道这个改动会波及到哪些地方,而不是只盯着你贴进来的那几行代码胡乱猜测。
另一个非常实用的场景是,长对话不会失忆。
使用 128K 上下文的工具,聊个十几轮就会开始遗忘之前的约定和决策,越往后输出质量越差。
100 万 token 意味着你可以在一个会话里,从需求讨论、架构设计,一直干到写测试、修 bug,中间不需要重新建立上下文,模型的判断力从第一轮到第五十轮基本保持一致。
而且,当上下文快满时,它会自动压缩,不会聊着聊着就失忆。
三种模式,干活风格随意切换
DeepSeek-TUI 提供了三种工作模式:

-
Plan 模式:只读模式。AI 会先帮你探索代码库、规划方案,但不会修改任何文件。适合在你还不确定怎么改时,先用它摸个底。
-
Agent 模式:交互模式。AI 会执行操作,但每一步都需要你审批。适合日常开发,既高效又安全。
-
YOLO 模式:全自动模式。所有操作直接执行,无需确认。适合你信任当前环境、想快速出活时使用。
这三种模式可以随时切换,只需按一下键盘。
完整的工具链 + MCP 协议
这个项目的工具链非常完善:文件读写、Shell 执行、Git 操作、网页搜索、补丁应用、子 Agent 编排,该有的功能都有。
而且,它原生支持 MCP 协议,可以连接各种外部工具服务来扩展能力。
它还提供了一个 HTTP/SSE API 服务模式,运行 deepseek serve --http 就能把它当作无头 Agent 使用,嵌入到你的工作流中。
费用也是实时追踪的,每轮对话花了多少 token、多少钱,界面上一目了然。
V4 Flash 的价格是输入 $0.14/百万 token,输出 $0.28/百万 token。相比之下,Claude Sonnet 的输入是 $3/百万 token,输出是 $15/百万 token,输入价格相差二十多倍,输出更是相差五十多倍。
03
如何使用
安装非常简单,一条命令即可:
npm i -g deepseek-tui
如果你是 Rust 用户,也可以用 Cargo 安装:
cargo install deepseek-tui-cli --locked
国内用户如果 npm 和 GitHub 下载速度慢,可以配置清华 TUNA 镜像,README 里有详细步骤。
安装完成后,首次启动会让你输入 DeepSeek API Key,去 platform.deepseek.com 申请一个即可。



然后直接在终端输入 deepseek 就能使用了。

想切换模式按 Tab,想调整推理深度按 Shift+Tab,想看帮助按 F1。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33585

