对接你的语音助手到本地Ollama或者Gemini 教程,让你的语音助手更聪明~
大家好,这里是 IT Commander。上期节目我给大家介绍了如何使用 Atom Echo 作为你的 Home Assistant 语音助手。
今天我们要给 Atom Echo“提高智商”啦!——让它可以对接到流行的 AI 大模型,这样它就能听懂更多的语义、回答更复杂的问题。
如果你还没有看过上一期关于 Atom Echo 的基础设置视频,可以先去补一下课,然后再回来看这期教程哦。
要想让 Home Assistant 的对话代理(Conversation Agent)接入各种 AI 能力,主要有两大思路:
- 本地完全脱离互联网运行开源对话模型(Ollama + Llama3.3)
- 通过互联网接入各大 AI 厂商提供的 API(例如 Google 的 Gemini)
我们来看下这两种方法各有优缺点:
- 本地运行 完全离线,数据不出家门,对注重隐私安全的朋友非常友好,缺点是对硬件性能有一定要求,要有一台新能足够流畅运行Llama3的计算机。
- 云端服务 不需要自己提供算力,但是有费用和隐私方面的风险。
我个人手里有一些AI厂商的免费账号,像 OpenAI、Claude、Gemini 都试了试。最后发现 OpenAI 和 Claude 的 API 都需要付费才好用,而 Google Gemini 目前有免费配额可用。
所以,这期我们就演示如何使用 Ollama(本地) 和 Gemini(云端) 这两种方案来接入 Home Assistant。
第一部分:本地方案 —— 安装 Ollama + Llama3.3
为什么选择 Ollama?
- 它可以运行开源的 Llama3.3 模型,并且提供一个简单易用的命令行界面。
- 数据完全在本地处理,不用担心聊天内容被云端服务器保存或分析。
所需环境/硬件:
- 一台性能尚可的电脑用来运行Ollama运行本地对话大模型。Ollama支持4种安装环境,Windows,MacOS,Linux,还有Docker。
具体步骤:
- 下载 Ollama前往 Ollama 官方网站(此处可展示官网或 GitHub 页面),按照操作系统选择安装方式。
- 安装完成后,可以在终端里敲
ollama version
看看是否安装成功。
- 安装完成后,可以在终端里敲
- 获取 Llama3.3 模型在 Ollama 中常用命令是
ollama pull llama3.3
这样的方式来下载模型。- 等模型下载完毕,就能在本地进行推理计算了。
- 这里划重点,我们要给Ollama设置环境变量,让Ollama对外提供服务,否则Ollama只能在本机工作,你就无法从Home Assistant里远程调用。
- 配置 Home Assistant 对话代理打开 Home Assistant,进入 Settings(设置) → Devices & Services(设备与服务) 添加Ollama集成,填写你运行Ollama的设备IP地址(http://xxx.xxx.xxx.xxx:11434)点击完成即可完成配置。
- 将 Atom Echo 与新的对话代理关联进入设置→ 语音助手,选择默认语音助手,找到对话代理下拉选择刚才设置的Ollama。
- 这样一来,当你对着 Atom Echo 说话时,就会触发 Ollama 的 Llama3.3 模型进行本地推理,然后把结果再反馈给 Atom Echo。
- 测试效果给 Home Assistant 下个比较复杂的口令或让它回答一些稍微难度高的问题,观察一下 Ollama 的响应速度和答案质量。
- 如果回答速度过慢,可能是硬件性能不足或者模型太大,需要权衡一下性能和模型规模。
- 如果一切顺利,那么你就完成了本地 AI 对话功能的搭建啦!
第二部分:云端方案 —— 对接 Google Gemini API
如果你没有强劲的本地计算机,或者觉得下载、维护大模型太麻烦,那么可以考虑使用云端的 AI 服务。
本期示例我们就选择 Google Gemini,因为目前来看,它有免费配额(大家要随时关注官方政策更新)。
具体实现步骤:
- 获取 Gemini API 凭证
-
- https://aistudio.google.com/apikey 访问这个网址创建心的API密钥,并记录下来。
-
- 配置 Home Assistant同样,在 Home Assistant 的设置 -> 集成与服务 里找到Google Generative AI,点击添加,添加的过程中程序会提示让你输入API Key,把你刚才从https://aistudio.google.com/apikey 获取到的key复制进去点击确认即可完成。
- 关联 Atom Echo与前面 Ollama 类似,把 Atom Echo 的语音请求指向新的对话代理,后台会帮你完成识别语音、发送到 Gemini、获得回复的流程。只需要把语音助手的对话代理选为Google Generative AI,即可使用Gemini做为你的语音助手对话代理了。
- 测试使用场景问一些比较跳跃或者基于外部知识库的问题,比如“今天天气怎么样”“帮我写一段小故事”“说明一下某个科普知识”等。
- 留意一下响应速度和准确率,以及看看有没有跑出什么奇怪的回答。
优点:不用担心本地算力不足,随时可用;
缺点:免费额度可能有限,用完以后就得付费,而且对隐私比较敏感的朋友需要慎重。
结尾与总结
好啦,今天我们示范了 两种常见的 AI 对话集成方法:
- 本地:Ollama + Llama3.3
- 云端:Google Gemini
在实际使用中,你可以根据自己的 设备配置、对隐私的敏感程度、以及 预算 来决定用哪种方案。
- 如果追求零隐私泄露,并且家里有足够性能的服务器,可以首选本地方案。
- 如果你想尽可能简单,只需要轻度用用,或者你手上没有能跑大模型的机器,就可以选云端服务。
最后,如果你对 Home Assistant 的语音助手、对话代理还不熟悉,记得先去看上一期关于 Atom Echo 的配置教程,然后再来玩转 AI 集成哦!