技术

Ollama 0.22.1 让 Gemma 4 工具调用在笔记本上无需 API 密钥运行

Susan Hill

Ollama 0.22.1 带来了更新后的 Gemma 4 模型渲染器,终于支持本地 AI 严肃工作真正需要的两种能力:显式思考模式和函数调用,也就是工具调用。工具调用让模型自己决定何时调用外部函数 —— 打开一个网页、查询一个数据库、跑一段计算 —— 然后把结果重新织入自己的推理。思考模式把模型的中间步骤暴露出来,应用程序可以抓住这些步骤并据此采取动作。这两项功能此前一直是大型云端 API 收费的东西。两项现在都在 Gemma 4 上本地运行,中间没有任何外部服务。

这条消息比又一次模型发布更值得分量的原因,在于硬件账目。Google 以 Apache-2.0 许可证发布的 Gemma 4 家族覆盖四种规模:E2B、E4B、26B A4B 和 31B。较小的几个版本可以在装有集成显卡、十二到十六 GB 内存的较新笔记本上跑。26B A4B 和 31B 版本需要桌面级 GPU,但仍然清楚地落在消费者范围内。同一种以前需要花钱签 API 合同、或者搭一台四位数价格的家庭服务器才能用的架构,如今对任何拥有一台还算现代的机器的人来说,只是一个周六下午的安装。

对不写代码的人来说,实际后果是一整类代理型应用 —— 那些读邮件、起草回复、抓取文档、填表格、为会议做摘要的程序 —— 不再必须把那些数据送到第三方服务器。一个在意隐私又想要真正代理自动化的用户,过去只有两条路:要么相信某个云服务商的数据政策,要么在本地跑一个能力弱得多、没有工具调用的模型。中间地带是个空档,Ollama 0.22.1 为 Gemma 4 这一量级填上了这个空档。

带怀疑色彩地读,Ollama 和 Gemma 4 并不是云端前沿的对等品。本地托管的 31B 模型在复杂推理上,既追不上 Anthropic 的 Claude,也追不上 OpenAI 的 GPT-5。在较长的工具调用链上,小型版本的准确度明显更差。多模态输入可以用,只是慢一些。集成的负担也仍然落在用户身上:还没有人造出一款打磨到位、能与成型的 SaaS 流程抗衡的 Gemma 4 加 Ollama 代理应用。硬件的天花板和软件的精修,目前都还是实在的缺口。

该版本现已通过 Ollama 面向 macOS、Linux 和 Windows 的标准安装程序提供。Gemma 4 权重托管在 Ollama 模型库的 gemma4 命名空间下,0.22.1 引入的运行时改动会在任何规模一旦拉取下来后自动生效。

讨论

有 0 条评论。