在 AI 编程工具(如 Trae, Cursor)百家争鸣的时代,拥有一套高性能的本地大模型环境,不仅能保护代码私密性,更能通过极低的延迟提升“人机合一”的快感。本文记录了在 NVIDIA RTX 3090(多卡)环境下,利用 Ollama 部署 Qwen3-Coder-30B (MoE) 并进行深度调优的全过程。

AIOllamaLLMQwen3Trae生产力