# 学习 ## 运行中方案 > openclaw + ollama::qwen3.5:2b=openai-completions ## ollama [ollama](https://ollama.ai/)是一个开源的AI模型服务,用于本地运行AI模型。 本次本地运行模型为 qwen3.5:2b ,并尝试将其集成到 [openclaw](http://localhost:18789) 中 > ollama run qwen3.5:2b ## [shimmy](https://github.com/Michael-A-Kuykendall/shimmy) 据说是ollama的替代