ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码

简介: 本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。

本文在 Apple M4 MacOS 的环境下 搭建, 请根据个人电脑配置情况选择相应的量化模型跑

1. 下载 Ollama 和 qwen2.5-coder 模型

1.1 安装ollama 方式

方式一: 官网下载安装文件
https://ollama.com/ ollama 的官网网站,选择相应的电脑版本下载和安装。

方式二:使用 brew install

brew install ollama

安装完后,记得打开 ollama 这个应用,确保应用是打开的。

打开 iterm 或 terminal 输入 ollama 命令看看,是否可执行。

1.2 下载 qwen2.5-coder

ollama 官网可以查看全球各种开源的 LLM 模型,qwen2.5-coder 是目前最受欢迎之一。

打开 https://ollama.com/library/qwen2.5-coder 选择合适自己的模型,一般默认就是7b-instruct 的版本。我下载的是 32b 版本的,爱折腾的人可以看看各个量化版本效果。

打开 terminal 或 iterm2 输入命令,命令在 ollama 的页面选择模型会自动显示出来

ollama run qwen2.5-coder

回车执行命令后, ollama 会自动去下载 7b 模型 (网络问题自己解决),下载完后会自动进入对话,你可以任意输入中文或英文,会看到自动回复。输入/bye 命令,即可退出。

退出来后 输入以下命令 看看下载了哪些模型

ollama list

ollama 默认下载的模型会存放在 ~/.ollama/models 这目录中
截图中,我下的是 32b 版本,还有 qwen2.5 14b 版本(日常其他场景使用,后面会写其他玩法),另外还下载了 bge-m3 的 embedding 模型, 嫌大也可以下 nomic-embed-text 后面需要用到。
这里就不过多解释 embedding 模型 rerank 模型了,有兴趣的自己看相关的文章。

2. VS Code 安装 Continue 插件

在 VS Code 的扩展中,搜索 continue 插件,并安装。安装完后,打开 continue 的窗口。

点击最下面 config 文件自定义编辑,也可以选择你下载好 qewn2.5-coder, 点击 connect。

我 Continue 的 config 文件配置如下:

{
   
"models": [
{
   
"model": "qwen2.5-coder:32b", // 32b的用来提问的时候用
"title": "qwen2.5-coder:32b",
"provider": "ollama",
"systemMessage": "You are an expert software developer. You give helpful and concise responses."

},
{
   
"title": "Qwen 2.5 Coder 7b",
"model": "qwen2.5-coder:latest",
"provider": "ollama",
"systemMessage": "You are an expert software developer. You give helpful and concise responses."
}
],
"tabAutocompleteModel": {
   
"title": "Tab Autocomplete", 
"provider": "ollama",
"model": "qwen2.5-coder:latest" //使用 7b 的自动扩写代码,速度会快点。 官方说用 base版本会更好,不要 instruct 

},

"customCommands": [
{
   

"name": "test",
"prompt": "{
   {
   { input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
"description": "Write unit tests for highlighted code"

}

],

"contextProviders": [

{
   

"name": "code",
"params": {
   }
},

{
   
"name": "docs",
"params": {
   }
},
{
   
"name": "diff",
"params": {
   }
},
{
   
"name": "terminal",
"params": {
   }
},
{
   
"name": "problems",
"params": {
   }
},
{
   
"name": "folder",
"params": {
   }
},
{
   
"name": "codebase",
"params": {
   }
}
],
"slashCommands": [
{
   
"name": "share",
"description": "Export the current chat session to markdown"
},
{
   
"name": "cmd",
"description": "Generate a shell command"
},
{
   
"name": "commit",
"description": "Generate a git commit message"
}
],
"embeddingsProvider": {
   
"provider": "ollama", // 用可以使用默认的 free-trial
"model": "bge-m3:latest"
},
"reranker": {
   
"name": "free-trial"
}
}

Continue 插件 的使用文档 https://docs.continue.dev/

相关实践学习
如何快速创建插件agent
便宜云服务器百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
目录
相关文章
|
1月前
|
人工智能 程序员 PHP
Cursor AI来袭!编程从此不再繁琐,一键生成代码,效率提升千倍
AI攻破最后防线!连架构设计都能自动生成,中级程序员集体破防
291 10
Cursor AI来袭!编程从此不再繁琐,一键生成代码,效率提升千倍
|
2月前
|
人工智能 文件存储 数据中心
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
|
2月前
|
人工智能 安全 自动驾驶
通义灵码入职蔚来汽车,AI生成代码30%以上
通义灵码已正式应用于蔚来汽车智能座舱部门,近400名成员使用该工具,AI生成代码占比达30%以上,“天探”项目中甚至高达70%-80%。它通过提升代码开发效率、降低维护成本、智能生成单元测试及问题排查等功能助力研发。蔚来选择通义灵码看重其企业专属版的安全能力和知识管理功能。未来,期望AI编程将研发流程规范化,成为类似自动驾驶的高效指引工具。
|
21天前
|
人工智能 缓存 搜索推荐
手把手基于ModelScope MCP协议实现AI短视频创作:零代码自动化工作流
本文介绍了基于ModelScope MCP协议的AI视频生成解决方案,涵盖核心机制解析、零代码工作流搭建、性能优化策略及全链路异常处理。通过统一上下文描述符抽象异构AI服务,实现图像生成、语音合成与视频剪辑的自动化编排。结合缓存优化与错误重试机制,大幅提升生成效率(如5分镜视频从91.7s降至22.4s)。最后展示《夏日海滩》生成案例,并探讨个性化风格迁移与商业场景集成等进阶方向,揭示零代码本质为服务、流程与资源的三层抽象。
175 18
|
2月前
|
人工智能 API 开发者
用Qwen3+MCPs实现AI自动发布小红书笔记!支持图文和视频
魔搭自动发布小红书MCP,是魔搭开发者小伙伴实现的小红书笔记自动发布器,可以通过这个MCP自动完成小红书标题、内容和图片的发布。
936 41
|
2月前
|
人工智能 并行计算 监控
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
474 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
|
2月前
|
存储 机器学习/深度学习 人工智能
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
本文探讨了多模态RAG系统的最优实现方案,通过模态特定处理与后期融合技术,在性能、准确性和复杂度间达成平衡。系统包含文档分割、内容提取、HTML转换、语义分块及向量化存储五大模块,有效保留结构和关系信息。相比传统方法,该方案显著提升了复杂查询的检索精度(+23%),并支持灵活升级。文章还介绍了查询处理机制与优势对比,为构建高效多模态RAG系统提供了实践指导。
429 0
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
http://www.vxiaotou.com