跳到正文
全部文章
系列

本地模型实践

在 Mac 上运行和部署本地大模型的完整指南

6 篇 · 约 88 分钟读完全系列
  1. 1

    Mac本地跑大模型:MLX部署实战

    不是那种"下个 App 聊两句"的玩具级别,而是真正的、参数量以百亿计的大语言模型——就跑在你的桌面上,不联网,不花 API 费用,数据不出家门

    · 约 12 分钟
  2. 2

    OpenClaw安全加固:用魔法打败魔法

    上一篇我们讲了怎么在 Windows 上把 OpenClaw 装起来。装好了,跑起来了,能聊天了——然后呢?

    · 约 14 分钟
  3. 3

    Win上OpenClaw避坑指南:从安装到真正能用

    最近有朋友问我:OpenClaw 怎么在 Windows 上装?

    · 约 16 分钟
  4. 4

    龙虾热的真相:算力过剩时代的个人AI

    这段话写于 2025 年底。三个月后,一只小龙虾用数据证明了它

    · 约 19 分钟
  5. 5

    OpenClaw+本地AI模型:数据不出Mac的oMLX方案

    前三篇我们聊了 OpenClaw 怎么装、怎么防、为什么火。有个问题一直没解决

    · 约 18 分钟
  6. 6

    本地跑大模型:Apple Silicon 上的 LLM 实践指南

    不依赖云端 API,在自己的 Mac 上运行 70B 参数模型。一份从硬件选择到模型调优的完整指南。

    · 约 9 分钟