🤖
Local-First LLM
Routes LLM requests to a local model (Ollama, LM Studio, llamafile) before falling back to cloud APIs. Tracks token savings and cost avoidance in a persisten...
安全通过
如何使用「Local-First LLM」?
- 打开小龙虾AI(Web 或 iOS App)
- 点击上方「立即使用」按钮,或在对话框中输入任务描述
- 小龙虾AI 会自动匹配并调用「Local-First LLM」技能完成任务
- 结果即时呈现,支持继续对话优化