Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

忘掉配置的烦恼吧,Ollama Launch 是启动 Claude Code、Codex、OpenCode、Moltbot 或任意其他 CLI 工具的全新简易方式。

Ollama v0.15 引入了名为 ollama launch 的新命令,可使用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动。

如果你一直关注 Ollama 的近期更新,会知道他们在 v0.14 加入了对 Anthropic API 的兼容。这为像 Claude Code 这样的工具接入开源模型打开了大门。

但之前的配置过程仍需要手动操作,例如导出环境变量、设置 base URL,以及摸索哪些模型更适合写代码。ollama launch 这个新命令改变了这一切,让启动过程更顺滑。

本文将分享对 Ollama Launch 的实测发现,以及如何将其与 Ollama Cloud 模型快速结合使用。


什么是 Ollama Launch?

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

想象一下,只用这个命令、无需任何配置就能启动你最喜欢的工具。

ollama launch 是一个新命令,负责处理各类编码工具与 Ollama 模型连接所需的一切设置。

它会引导你选择模型,并自动启动你选定的集成。

目前支持四种集成:
* Claude Code —— Anthropic 的终端内 agentic 编码工具
* OpenCode —— 面向终端编码的开源替代品
* Codex —— OpenAI 的编码助手集成
* Droid —— 另一种编码工具选项

运行 ollama launch 时,你会看到一个交互式菜单来选择想用的集成。也可以直接用如 ollama launch claudeollama launch opencode 这样的命令指定某个工具。

它会在后台替你完成 Anthropic API 的配置。以前你需要手动设置:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

现在只需一个命令,你就能开始写代码了。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置


配置 Ollama Launch

整个流程大约需要五分钟。你需要完成以下步骤:

步骤 1:更新 Ollama
确保你已安装 Ollama v0.15 或更高版本。若版本较旧,请到 ollama.com 下载最新版。
* 检查版本:ollama --version

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

如果版本偏旧,则需要更新。

如需更新,请访问:https://ollama.com/download

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

下载完成后,点击安装包开始升级,并按向导完成步骤:

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

安装完成后,确认版本应为 0.15.2 或更高。

步骤 2:拉取一款擅长写代码的模型
你需要一款对代码友好的模型。Ollama 推荐如下:

本地模型(需约 23GB VRAM,支持 64K context):
* glm-4.7-flash
* qwen3-coder
* gpt-oss:20b

云端模型(完整 context length,无硬件要求):
* glm-4.7:cloud
* minimax-m2.1:cloud
* qwen3-coder:480b-cloud

拉取你选定的模型:

ollama pull glm-4.7-flash

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

或使用云端模型:

ollama pull glm-4.7:cloud

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

预期输出:模型将被下载/注册(云端模型很轻量,因为推理在远端进行)。

步骤 3:配置 Context Length

这一步很重要,也最容易被忽略。

Ollama 默认的 context length 是 4,096 tokens。编码工具要正常工作需要更长的上下文,建议至少为 64,000 tokens,特别是 Claude Code 等工具。

打开 Ollama 设置,更新 context length。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

如果不改这个设置,模型的“记忆”不够,无法处理多文件操作、tool calls 或较长的编码会话。
使用云端模型会自动启用完整的 context length,如果你用的是云端模型,这一步可以跳过。

步骤 4:启动

ollama launch claude

很快你就会看到 Claude Code 使用你选择的模型启动起来。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

注意,我在上一步拉取的是 GLM-4.7 的云端版本。

要完成这一步,你需要一个 Ollama Cloud 账号。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

如果你想拉取其他模型,可使用以下命令:

# GLM 4.7 Cloud - 推荐用于编码
ollama pull glm-4.7:cloud

# MiniMax M2.1 Cloud - 备选
ollama pull minimax-m2.1:cloud

# Qwen3 Coder 480B Cloud - 体量最大的编码模型
ollama pull qwen3-coder:480b-cloud

# GPT-OSS 120B Cloud - 另一款大型模型
ollama pull gpt-oss:120b-cloud

我之前也拉取过 gpt-oss:120b-clouddeepseek-coder:1.3bqwen2.5-coder:7b,所以你会在我的可用模型列表里看到它们:

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置


Ollama Launch 测试

我用 Claude Code 和 OpenCode 测试了 ollama launch

首先确保已安装 Claude Code:
* macOS/Linux/WSL: curl -fsSL https://claude.ai/install.sh | bash
* Windows PowerShell: irm https://claude.ai/install.ps1 | iex

使用云端模型时,你可能需要一个 Ollama 账号:
* 若被提示,请到 ollama.com 注册。

当你运行 ollama launch claude 时,会出现一个模型选择提示。在我这里,同时有本地和云端选项可用。

  • deepseek-coder:1.3b (local)
  • glm-4.7:cloud
  • gpt-oss:120b-cloud
  • qwen2.5-coder:7b (local)

我选择了 glm-4.7:cloud 作为主要测试模型,因为云端模型具备完整的上下文长度且没有硬件限制。

选好模型后,Claude Code 会非常快地启动,无需再手动进行繁琐的配置。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

检查状态时,我看到环境如下:
* Model: glm-4.7:cloud
* Auth token: ANTHROPIC_AUTH_TOKEN
* Anthropic base URL: http://localhost:11434

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置


Claude Code 运行后,我用第一个指令做测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

如你所见,它很快就生成了代码。现在我用这套简洁的 Ollama Launch 配置,把 Ollama Cloud 模型和 Claude Code 结合起来了。


OpenAI Codex 的 Ollama Launch 测试

测试 OpenAI Codex 前,先确保已安装:

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

npm install -g @openai/codex

现在用这条命令测试 Ollama launch:

ollama launch codex --model glm-4.7:cloud

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

它会以 glm-4.7:cloud 模型启动,我也能复现在 Claude Code 上做过的同一测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

几秒钟内就生成了代码,并已准备好写入文件。


OpenCode 的 Ollama Launch 测试

第一步,确保你已安装 OpenCode:

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

npm install -g opencode-ai

用 OpenCode 测试启动,命令如下:

ollama launch opencode --model glm-4.7:cloud

它会先提示将修改 OpenCode 的配置,并告知备份文件的保存路径。

接受后即可启动 OpenCode。

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

同样,OpenCode 和 Claude Code、OpenAI Codex 一样,都会以 glm-4.7:cloud 模型启动,我也能复现同样的测试:

创建一个计算斐波那契数列的 Python 函数,并将其保存为 fib.py

Ollama Launch 实测:一键启动 Claude Code、Codex 与 OpenCode,告别繁琐配置

和另外两者一样,它很快就生成了代码,并已准备好写入文件。

我们已经用三款流行的终端编码工具成功测试了 Ollama Launch。与手动配置相比,这种方法更快、更易用。


总结

ollama launch 是 Ollama 工具集中非常实用的新增功能,它消除了手动配置编码工具的摩擦,使整个流程对开发者更加友好。

仅用一条命令,你就能从零开始,使用本地或云端模型快速启动 Claude Code、OpenAI Codex 或 OpenCode。

文中提到的所有工具和命令均可在 Ollama 官方文档中找到。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/22721

(0)
上一篇 2天前
下一篇 1天前

相关推荐

  • 解锁Agentic AI并行化:14个核心模式提升系统可靠性与性能

    构建高效的智能体(Agentic)系统,离不开扎实的软件工程实践。其核心在于设计能够协调运作、并行执行,并能与外部系统高效交互的组件。例如,推测执行(Speculative Execution) 通过预先处理可预测的请求来降低延迟;冗余执行(Redundant Execution) 则通过同时运行同一智能体的多个副本来避免单点故障,提升系统韧性。除此之外,还…

    2025年11月27日
    14400
  • 周末实战:7个可上线级Agentic AI项目,助你打造工程实力作品集

    停止只读关于 Agentic AI 的文章,开始动手构建吧。 大家都在谈论 autonomous AI agents,好像它们只属于研究机构和科技巨头。并不是这样。到了 2025 年,构建可用于生产的 Agentic AI 系统已经变得意外地容易——而这正是招聘经理最想看到的。 当别人还在做简单的 ChatGPT wrappers(简单封装)时,你可以构建真…

    2025年12月20日
    14500
  • Agent原生架构:Claude Code 后时代该如何构建智能体应用

    最近,Claude Code 的流行不仅源于其作为“Vibe编程神器”的体验,更在于它正在重塑智能体的开发范式。过去那种依赖胶水代码或拖拽式构建的、面向过程的传统智能体,正面临被一种全新模式的挑战:这种模式只需开发者描述目标结果,然后交由智能体通过持续循环运行来达成目标。 Claude Code 配合其恰到好处的插件与技能机制证明,一个优秀的编程智能体,本身…

    2026年1月11日
    13300
  • 从Jupyter到Web应用:用Python、FastAPI与LangChain构建可部署的AI工具

    从Jupyter到Web应用:用Python、FastAPI与LangChain构建可部署的AI工具(第1/2部分) 为何需要将AI脚本转化为Web应用 在Jupyter Notebook中成功验证一个AI模型(如问答或文本摘要)后,其价值往往受限于本地环境。团队无法协作,用户无法访问,模型的价值难以释放。 核心在于:AI的价值不仅在于模型本身,更在于其可访…

    2025年11月30日
    14400
  • NitroGen:英伟达开源通用游戏AI模型,可零样本玩转千款游戏

    这流畅的游戏操作,堪比技术流玩家的实况画面。尤其是《茶杯头》中的躲避、跳跃、攻击一气呵成,令人惊叹。 最令人震撼的是,这些操作完全由AI完成。 与传统的单一游戏自动化脚本不同,这是一个完整的通用大模型,能够玩遍市面上几乎全部的游戏类型。 这就是英伟达最新开源的基础模型——NitroGen。 该模型的训练目标是玩转1000款以上的游戏,无论是RPG、平台跳跃、…

    2025年12月21日
    14600