本地跑大模型:Apple Silicon 上的 LLM 实践指南 →
不依赖云端 API,在自己的 Mac 上运行 70B 参数模型。一份从硬件选择到模型调优的完整指南。
约 9 分钟 🟡
OpenClaw+本地AI模型:数据不出Mac的oMLX方案 →
前三篇我们聊了 OpenClaw 怎么装、怎么防、为什么火。有个问题一直没解决
约 18 分钟 🔴
龙虾热的真相:算力过剩时代的个人AI →
这段话写于 2025 年底。三个月后,一只小龙虾用数据证明了它
约 19 分钟 🔴
OpenClaw安全加固:用魔法打败魔法 →
上一篇我们讲了怎么在 Windows 上把 OpenClaw 装起来。装好了,跑起来了,能聊天了——然后呢?
约 14 分钟 🔴
Win上OpenClaw避坑指南:从安装到真正能用 →
最近有朋友问我:OpenClaw 怎么在 Windows 上装?
约 16 分钟 🔴
Mac本地跑大模型:MLX部署实战 →
不是那种"下个 App 聊两句"的玩具级别,而是真正的、参数量以百亿计的大语言模型——就跑在你的桌面上,不联网,不花 API 费用,数据不出家门
约 12 分钟 🟡