@@ -0,0 +1,5 @@
+.idea
+llama.cpp/
+target
+shimmy.exe
+log.txt
@@ -0,0 +1,15 @@
+# 学习
+
+## 运行中方案
+> openclaw + ollama::qwen3.5:2b=openai-completions
+## ollama
+[ollama](https://ollama.ai/)是一个开源的AI模型服务,用于本地运行AI模型。
+本次本地运行模型为 qwen3.5:2b ,并尝试将其集成到 [openclaw](http://localhost:18789) 中
+> ollama run qwen3.5:2b
+## [shimmy](https://github.com/Michael-A-Kuykendall/shimmy) 据说是ollama的替代