开发者 jola 分享了自己在 M4 MacBook Pro(24GB 内存) 上运行本地大语言模型的完整实践经验。在经历了多次模型选型、量化配置和前端适配的试错后,他最终搭建出了一套「不需要联网、能在笔记本上流畅运行」的本地 AI 工作流——核心模型是 Qwen 3.5-9B(Q4_K_S 量化版),在 LM Studio 中跑出了约 40 tokens/秒 的生成...
This page shows a summary and AI analysis only. For the full original article, use the “Read Original” button above.
