大家好,我是寒山。
一起养龙虾,欢迎来到《小龙虾养成日记》系列教程——“虾”路相逢篇。今天咱们不聊理论,直接上硬菜:手把手教你搞定Hermes智能体安装与Ollama本地模型配置,让你的“小龙虾”AI彻底摆脱网络依赖,实现纯本地运行,数据安全全掌控!

在动手之前,咱们先搞清楚几个关键概念,避免“盲目养虾”:
概念 | 作用 | 核心优势 |
爱马仕 | Hermes的中文昵称,开源AI智能体 | 本地部署、隐私保护、完全免费 |
Hermes Agent | 智能体核心引擎 | 支持多模型接入、工具调用、工作流自动化 |
Ollama | 本地大模型运行框架 | 一键部署、轻量高效、跨平台支持 |
本地模型 | 如Qwen3、GLM-4等开源模型 | 无需API密钥、无调用成本、低延迟响应 |
核心原理:通过Hermes作为智能体“大脑”,连接本地Ollama运行的大模型,实现从指令接收→思考决策→工具调用→结果输出的全链路本地化闭环,完美解决隐私泄露和网络依赖问题。
工欲善其事,必先利其器。养“虾”前请准备好你的装备,今天我们演示使用Mac安装,Windows和Linux也是支持的。
系统类型 | 支持情况 | 注意事项 |
Windows 10/11 | 需通过WSL2 | 不支持原生运行,必须安装WSL2子系统 |
macOS | 完美支持 | Intel/Apple Silicon均可 |
Linux | 原生支持 | 推荐Ubuntu 22.04 LTS |
咱们先搞定“模型地基”,这是本地运行的基础,步骤简单到离谱:


3. 启动服务
很多模型,大家按需选择,这是我平时测试的模型:

知识点解析:模型大小与性能关系——参数越大(如7B→32B),推理能力越强,但对硬件要求越高,内存占用和推理速度呈正相关。新手建议从7B模型入手,熟悉后再升级。
模型下载完成后,测试是否正常工作:

看到模型回复即表示Ollama环境搭建成功!
打开新终端,执行官方一键安装脚本(Windows用户请在WSL2中操作):
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
安装过程说明:
hermes --version # 输出版本号即成功

这是“养虾”的关键一步,让Hermes找到并连接本地模型,实现“虾脑”对接!
hermes model # 启动配置向导

按照向导提示完成以下关键配置:

激动人心的时刻到了!测试我们的“小龙虾”是否真正实现本地运行:
hermes # 启动Hermes智能体
在交互界面输入:
> 请用Python写一个计算斐波那契数列的函数,并解释代码逻辑预期结果:

养“虾”路上难免遇到问题,以下是高频坑点及解决方案:
问题现象 | 可能原因 | 解决方案 |
Hermes连接Ollama失败 | Ollama未启动或端口错误 | 执行ollama serve启动服务,检查配置文件端口是否为11434 |
模型回复慢 | 硬件性能不足 | 切换至更小模型(如7B→3B),关闭其他占用资源的程序 |
WSL2中Ollama无法访问 | 网络配置问题 | 在WSL2中执行ip addr show eth0获取IP,用该IP替换localhost |
安装脚本执行失败 | 网络问题 | 更换国内镜像源,或手动下载安装包本地安装 |
实操总结:本期我们完成了从0到1的本地智能体搭建,核心步骤包括Ollama安装→Hermes安装→本地模型对接→功能测试,全程本地化运行,数据安全有保障。
记住,养“虾”的关键在于理解每一步的原理,而非机械操作,这样才能应对后续的各种“虾病”问题!
大家有问题欢迎留言讨论!
更新时间:2026-04-20
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号