2025年2月13日星期四

使用 Ollama 本地部署大型语言模型

Ollama 是一个开源的大型语言模型(LLM)平台,让用户能够在本地部署和运行大型语言模型,提供了简单的方式来运行各种预训练的语言模型,包括 Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 等语言模型。Ollama 支持纯 CPU 推理和各类底层计算架构,能够更好地利用不同类型的硬件资源。

一、准备环境

最低硬件配置:双核 CPU(支持 AVX2 指令集)/ 4GB 内存 / 30GB 存储

推荐硬件配置:四核 CPU(支持 AVX2 指令集)/ NVIDIA GPU(RTX 3090 或更高) / 16GB 内存 / 60GB 存储

软件依赖:Windows、macOS、Linux 或 Docker 容器。

二、安装 Ollama

访问 Ollama 官网或者 GitHub Pages,下载安装包并安装。

三、验证软件版本

在终端输入以下命令,检查 Ollama 版本:

ollama --version

 

四、下载并部署语言模型

根据硬件配置选择合适的模型版本。Ollama 官网提供了多种开源模型 https://ollama.com/library

入门级:1.5B 版本,适合初步测试。

中端:7B 或 8B 版本,适合大多数消费级 GPU。

高性能:14B、32B 或 70B 版本,适合高端 GPU。

在终端输入相应的命令,下载并运行模型,例如,下载 DeepSeek 1.5B 版本的命令为:

ollama run deepseek-r1:1.5b

注意:如果出现“Error”提示,需要自行寻找更友好的网络环境,再进行下载。

五、启动 Ollama 服务

Ollama 服务默认为开机启动,可以通过浏览器访问 http://localhost:11434 来查看 Ollama 的运行情况。显示 Ollama is running 表示已经启动。

如果 Ollama 没有正确启动服务,在终端运行以下命令,启动 Ollama 服务:

ollama serve

六、安装 chatbox

由于使用命令的方式来使用语言模型很不方便,无法对聊天内容进行高效管理。所以需要安装一个类似于 Chat GPT 这样的对话功能软件。

Chatbox 是一个 AI 模型桌面客户端,支持 ChatGPT、Claude、Google Gemini、Ollama 等主流模型,适用于 Windows、Mac、Linux、Web、Android 和 iOS 全平台。

访问 Chatbox 官网,下载安装包并安装。

七、配置 Chatbox

Chatbox 安装完成之后,需要在设置选择使用“OLLAMA API”为模型提供方,使用“http://127.0.0.1:11434/”作为 API 域名,模型选择之前下载的“deepseek-r1:1.5b”,其他设置可以根据个性化调节。


保存配置后,我们就可以使用 Chatbox 与语言模型进行对话了。

总结

本地部署大型语言模型(LLM)能确保数据隐私,敏感信息无需传输到外部服务器,降低泄露风险。其次,消除了网络延迟,提高了响应速度和稳定性。但更新不如云端灵活,扩展性有限,硬件成本高,个人用户可以部署小型本地语言模型用于测试学习。

下载

Ollama 官网下载:https://ollama.com/download

Ollama 网盘下载:https://url66.ctfile.com/f/23371866-1459512502-9a3113?p=2765 (访问密码: 2765)

Chatbox 官网下载:https://chatboxai.app/zh#download

Chatbox 网盘下载:https://url66.ctfile.com/f/23371866-1459512319-40969e?p=2765 (访问密码: 2765)

推广

注册网盘会员升级VIP,享高速下载

没有评论:

发表评论