CANN基础设施CANNBot插件指南
CANNBot插件安装配置【免费下载链接】infrastructure本仓库用于托管CANN社区基础设施团队的公开信息包括不限于会议日程成员信息服务文档和配置等信息项目地址: https://gitcode.com/cann/infrastructure蓝版VSCode 算力平台WebIDE安装离线安装适用于WebIDE下载离线包到本地[linux-arm64] packages/1.0.3/linux-arm64/cannbot-toolkit-linux-arm64-1.0.3.vsix[linux-x64] packages/1.0.3/linux-x64/cannbot-toolkit-linux-x64-1.0.3.vsix[win32-arm64] packages/1.0.3/win32-arm64/cannbot-toolkit-win32-arm64-1.0.3.vsix[win32-x64] packages/1.0.3/win32-x64/cannbot-toolkit-win32-x64-1.0.3.vsix扩展安装方法二选一即可方法1将插件安装包拖入WebIDE窗口右键点击插件包选择Install from VSIX安装扩展方法2远程搜索本地扩展VSIX包点击安装按钮完成安装在线安装点击左侧扩展在搜索框中输入CANNBot点击安装按钮完成安装VSCode插件市场安装WebIDE插件市场安装登录点击插件图标查看并勾选隐私政策选择登录选项完成gitcode授权登录备用登录方式依次点击「默认模式」→ 右上角齿轮图标 → 左下角登录按钮配置1. 默认模式CANNBot 默认模式是专为华为 CANN 开发生态定制的 AI 助手。内置支持的模型模型类型模型名称用途对话模型DeepSeek-V3.2、Qwen3-Max、GLM-5、Kimi-K2.5、Qwen3.6-Plus、MiniMax-M2.5代码对话、问题解答补全模型Seed-Coder-8B、AIXCoder-7B-BaseTab 自动补全根据模型提供商添加模型点击文本输入框中的模型选择下拉框点击Add Model选择并填写模型信息提供商 / Provider选择openai、anthropic、deepseek等模型模型厂商提供的模型IDAPI 地址模型服务端点 URLAPI 密钥认证密钥模型别名自定义显示名称高级选项可选模型角色模型功能应用范围附加配置根据模型真实参数附加配置模型点击连接连接成功后可选择使用配置文件自定义配置个人模型点击右上角小齿轮图标选择配置选项点击Local Config右侧的小齿轮图标打开用户本地配置文件config.yaml在配置文件中添加模型参数示例{ models: [ { title: 自定义模型名称, provider: openai, model: 模型ID, apiBase: https://api.example.com/v1, apiKey: your-api-key } ] }字段说明title模型显示名称provider提供商类型openai、anthropic、deepseek等model模型 IDapiBaseAPI 服务地址apiKeyAPI 密钥可通过环境变量引用2. OpenCode模式OpenCode 模式连接到 OpenCode 服务器插件会自动启动本地服务器。CLI 安装# npm 全局安装 npm install -g opencode-ai # 安装特定版本 npm install -g opencode-ai具体版本号配置文件OpenCode 支持 JSON 和 JSONC带注释的 JSON格式的配置文件配置会自动合并后加载的配置覆盖先加载的。配置级别路径说明全局配置~/.config/opencode/opencode.json用户偏好对所有项目生效项目配置{项目根目录}/.opencode/opencode.json项目特定设置覆盖全局配置基础配置示例{ $schema: https://opencode.ai/config.json, model: providerID/modelID, provider: { my-provider: { npm: ai-sdk/openai-compatible, name: My Provider, options: { baseURL: https://api.custom-provider.com/v1, apiKey: {env:MY_API_KEY} }, models: { my-model: { name: My Model Display Name } } } }, permission: { bash: allow, edit: allow, read: ask } }字段说明model默认模型格式为providerID/modelID如anthropic/claude-sonnet-4-5permission工具、命令调用权限配置provider自定义模型提供商配置autoupdate自动更新开关默认值为true自定义提供商添加 OpenAI 兼容的自定义提供商{ $schema: https://opencode.ai/config.json, model: my-provider/my-model, provider: { my-provider: { npm: ai-sdk/openai-compatible, name: My Provider, options: { baseURL: https://api.custom-provider.com/v1, apiKey: {env:MY_API_KEY} }, models: { my-model: { name: My Model Display Name } } } } }字段说明npmAI SDK 包OpenAI 兼容 API 使用ai-sdk/openai-compatiblename提供商显示名称options.baseURLAPI 服务地址options.apiKeyAPI 密钥使用{env:VAR_NAME}引用环境变量models模型列表及配置权限配置控制工具的执行权限权限值说明allow自动允许执行默认deny自动拒绝执行ask每次询问用户确认{ permission: { bash: ask, edit: allow, write: deny } }3. Claude Code模式CLI 安装# npm 全局安装 npm install -g anthropic-ai/claude-code环境变量配置Linux/macOS打开终端编辑~/.bashrc或~/.zshrc文件添加以下环境变量# API 地址必填本地无法访问 Anthropic 官方 API export ANTHROPIC_BASE_URLhttps://open.bigmodel.cn/api/anthropic # API 密钥必填 export ANTHROPIC_AUTH_TOKENyour-api-key # 自定义模型必填本地无法使用 claude-sonnet 等官方模型 export ANTHROPIC_DEFAULT_OPUS_MODELyour-model-id export ANTHROPIC_DEFAULT_SONNET_MODELyour-model-id export ANTHROPIC_DEFAULT_HAIKU_MODELyour-model-id保存文件后执行以下命令使配置生效source ~/.bashrc # 或 source ~/.zshrcWindows 环境变量配置临时环境变量当前会话有效打开 PowerShell 并执行以下命令$env:ANTHROPIC_BASE_URL https://open.bigmodel.cn/api/anthropic $env:ANTHROPIC_AUTH_TOKEN your-api-key $env:ANTHROPIC_DEFAULT_SONNET_MODEL your-model-id $env:ANTHROPIC_DEFAULT_OPUS_MODEL your-model-id $env:ANTHROPIC_DEFAULT_HAIKU_MODEL your-model-id永久环境变量右键点击此电脑 → 选择属性点击高级系统设置在高级选项卡中点击环境变量新建以下变量变量名变量值说明ANTHROPIC_BASE_URLhttps://model-url/api/anthropicAPI 地址必填需确认是否是anthropic兼容ANTHROPIC_AUTH_TOKENyour-api-keyAPI 密钥必填ANTHROPIC_DEFAULT_OPUS_MODELyour-model-idOpus 级别模型可选ANTHROPIC_DEFAULT_SONNET_MODELyour-model-idSonnet 级别模型必填ANTHROPIC_DEFAULT_HAIKU_MODELyour-model-idHaiku 级别模型可选蓝区WSL环境 本地SSH远程连接算力平台注意插件安装位置决定了配置文件读取路径以windows环境远程连接WSL环境或算力平台为例查看vscode扩展中的CANNBot插件安装位置如果在本地则插件会读取windows本地用户根目录下的opencode.json文件如果在SSH连接的WSL环境或算力平台则插件会读取WSL环境或算力平台的~/.config/opencode/opencode.json文件如果同时在本地和SSH远程连接的平台上安装了插件插件会优先读取本地的opencode.json文件【免费下载链接】infrastructure本仓库用于托管CANN社区基础设施团队的公开信息包括不限于会议日程成员信息服务文档和配置等信息项目地址: https://gitcode.com/cann/infrastructure创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考