Will's blog Will's blog
首页
  • 前端文章

    • JavaScript
  • 学习笔记

    • 《JavaScript教程》
    • 《JavaScript高级程序设计》
    • 《ES6 教程》
    • 《Vue》
    • 《React》
    • 《TypeScript 从零实现 axios》
    • 《Git》
    • TypeScript
    • JS设计模式总结
  • HTML
  • CSS
  • VUE
  • 技术文档
  • GitHub技巧
  • Nodejs
  • 博客搭建
  • 学习
  • 面试
  • 心情杂货
  • 实用技巧
  • 友情链接
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

will

前端小学生
首页
  • 前端文章

    • JavaScript
  • 学习笔记

    • 《JavaScript教程》
    • 《JavaScript高级程序设计》
    • 《ES6 教程》
    • 《Vue》
    • 《React》
    • 《TypeScript 从零实现 axios》
    • 《Git》
    • TypeScript
    • JS设计模式总结
  • HTML
  • CSS
  • VUE
  • 技术文档
  • GitHub技巧
  • Nodejs
  • 博客搭建
  • 学习
  • 面试
  • 心情杂货
  • 实用技巧
  • 友情链接
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • HTML

  • CSS

  • VUE

  • AI

    • deepSeekv3陪伴女友的智能聊天助手
    • 使用 Ollama+cline 打造自己的本地大模型
      • 一、下载和安装
        • 1. 下载 Ollama
        • 2、Ollama常用命令
        • 3. Ollama 模型目录
        • 4. 下载 VSCode
        • 5. 在 VSCode 中安装 cline
        • 6. cline 插件使用方法
        • 6. 安装浏览器插件 Page Assist 本AI模型的 web Ui 界面
        • 有网络的安装方式
        • 无网络的安装方式
    • 基于 Next.js 的无人机数据孪生可视化平台实践
    • 我用AI写前端代码这一年:从怀疑到真香的转变
  • REACT

  • 页面
  • AI
will
2025-05-08
目录

使用 Ollama+cline 打造自己的本地大模型

# 使用 Ollama+cline+VSCode 打造自己的本地大模型

在本教程中,我们将介绍如何使用 Ollama、cline 和 VSCode 来构建和配置自己的本地大模型。我们将涵盖从下载必要的软件到配置本地环境的每一个步骤。

# 一、下载和安装

# 1. 下载 Ollama

Ollama 是一个强大的工具,您可以从其官方网站下载最新版本。请访问以下链接进行下载:

  • Ollama 下载地址 (opens new window)

下载完成后,按照安装向导进行安装。

# 2、Ollama常用命令

  1. 启动ollama服务:
ollama serve

1
  1. 列出所有模型:
ollama list

ollama ls

1
2
  1. 启动模型(如果没有模型就会直接下载):
ollama run <model>

1
  1. 停止模型:
ollama stop <model>

1
  1. 删除模型:
ollama delete <model>

1
  1. 获取模型信息:
ollama info <model>

1

# 3. Ollama 模型目录

Ollama 模型目录默认在 ~/.ollama 目录下,models目录下有模型文件,如果离线安装可直接复制此文件夹到离线电脑的对应目录

mac os:/Users/<username>/.ollama/models

windows:C:\Users\<username>\.ollama\models

# 4. 下载 VSCode

VSCode 是一款流行的代码编辑器,您可以通过以下链接下载:

  • VSCode 下载地址 (opens new window)

下载完成后,按照安装向导进行安装。

# 5. 在 VSCode 中安装 cline

要在 VSCode 中安装 cline 插件,请按照以下步骤操作:

  1. 打开 VSCode。
  2. 点击左侧活动栏中的扩展图标,或者使用快捷键 Ctrl+Shift+X(Windows/Linux)或 Cmd+Shift+X(macOS)。
  3. 在扩展市场的搜索栏中输入“cline”。
  4. 在搜索结果中找到 cline 插件,并点击“安装”按钮。
  5. 安装完成后,您可以在 VSCode 中使用 cline 提供的功能。

此外,您还可以选择安装 cline Chinese 插件,以获得更好的中文支持。安装方法与上述步骤相同,只需在搜索栏中输入“cline Chinese”即可。

安装成功后,您可以通过命令面板(Ctrl+Shift+P 或 Cmd+Shift+P)搜索 cline 的相关命令来使用该插件。

# 6. cline 插件使用方法

要在 cline 中配置 Ollama 的模型并进行聊天,请按照以下步骤操作:

  1. 配置 Ollama 模型:
    • 打开 VSCode 并确保 cline 插件已安装。
    • 在面板中选择 cline 插件。
    • 在 cline 插件中,api 提供商选择 ollama,并输入您的 Ollama 服务器的地址(默认为 http://localhost:11434)。
    • 如本地安装了多个模型,Ollama 会识别到所有模型,并显示在列表中。选择您要使用的模型。
    • 确保模型已在本地下载并可用。并点击完成

通过以上步骤,您可以在 cline 中轻松配置和使用 Ollama 模型进行聊天,享受智能对话和编码的乐趣。

# 6. 安装浏览器插件 Page Assist 本AI模型的 web Ui 界面

# 有网络的安装方式

  1. 打开您的浏览器,访问插件市场(如 Chrome 的 Chrome Web Store 或 Firefox 的 Add-ons)。
  2. 在搜索栏中输入“Page Assist”。
  3. 找到 Page Assist 插件后,点击“添加到浏览器”或“安装”按钮。
  4. 按照提示完成安装。

# 无网络的安装方式

  1. 在有网络的电脑上,访问插件市场并下载 Page Assist 插件的离线安装包(通常为 .crx 或 .xpi 文件)。
  2. 将下载的安装包复制到无网络的电脑上。
  3. 打开浏览器,进入扩展管理页面(如 Chrome 的 chrome://extensions/ 或 Firefox 的 about:addons)。
  4. 将离线安装包拖拽到扩展管理页面中进行安装。
  5. 按照提示完成安装。

通过以上步骤,您可以在有网络和无网络的环境中安装 Page Assist 插件,使用本地 AI 模型的 web UI 界面进行交互。

编辑此页 (opens new window)
上次更新: 2025/05/08, 17:50:04
deepSeekv3陪伴女友的智能聊天助手
基于 Next.js 的无人机数据孪生可视化平台实践

← deepSeekv3陪伴女友的智能聊天助手 基于 Next.js 的无人机数据孪生可视化平台实践→

最近更新
01
我用AI写前端代码这一年:从怀疑到真香的转变
09-15
02
基于 Next.js 的无人机数据孪生可视化平台实践
07-17
03
vite 包缓存问题 处理
06-04
更多文章>
Theme by Vdoing | Copyright © 2019-2025 Will | MIT License | 桂ICP备2024034950号 | 桂公网安备45142202000030
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式