简体中文 繁體中文 English Deutsch 한국 사람 بالعربية TÜRKÇE português คนไทย Français Japanese

站内搜索

搜索

活动公告

通知:为庆祝网站一周年,将在5.1日与5.2日开放注册,具体信息请见后续详细公告
04-22 00:04
通知:本站资源由网友上传分享,如有违规等问题请到版务模块进行投诉,资源失效请在帖子内回复要求补档,会尽快处理!
10-23 09:31

使用 ollama 部署本地语言模型

SunJu_FaceMall

1692

主题

2135

科技点

2666

积分

管理员

十斤包邮

积分
2666

三倍冰淇淋无人之境【一阶】柴到了小樱(小丑装)立华奏

发表于 2025-3-12 16:09:56 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x

什么是 ollama?

1715479233831.webp

运行Llama 3Phi 3MistralGemma和其他模型。定制并创建您自己的模型。

为什么选择 ollama?

  • 能直接运行大模型,与大模型进行对话。
  • ollama 命令具有管理大模型的能力。
  • 利用 cpu 运行大模型。
  • 本地大模型安全可靠。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。

如果你还没有尝试过在本地部署过大模型,那么 ollama 非常适合你。建议搭配WebUI一起使用

准备工作

  • docker 为了方便部署软件。
  • 存储空间充足的机器,一般来说参数越大,需要配置越好。
  • 良好的网络环境。

安装 ollama

进入 ollama 下载页面,选择自己的系统版本的下载并安装即可。

检验是否安装成功

输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

 ollama

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

ollama 模型库

1715480038839.webp

我们可以在 https://ollama.com/library 中搜索已有我们想要的模型库。以下是一些流行的模型:

模型 参数 尺寸 执行下载
Llama 2 7B 3.8GB ollama run llama2
Mistral 7B 4.1GB ollama run mistral
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b

这里大概列出了 LlamaMistral 以及 Gemma 我们景见的模型以及参数以及尺寸大小。由图表可以看出 Gemma 2B 模型的尺寸还是比较小的,初学者入门。

运行模型

 ollama run qwen # 运行千问大模型

因为qwen 模型对中文支持比较好,这里使用 qwen 模型进行聊天

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话 qwen 模型了。

直接在终端中对话:用 ollama 千问模型写一个 React 组件

1715480107254.webp

使用 api 方式运行

 curl http://localhost:11434/api/chat -d '{
  "model": "qwen",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

1715480136312.webp

api 访问的方式:模型在不断推送字段。我们需要自己处理。

推荐 Open WebUI

LLMs用户友好的WebUI(以前的Ollama WebUI)

相关安装文章 https://poiblog.com/archives/c0CaQGFx

使用 docker 可以方便的部署

 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data

1715480284901.webp

注意 3000 时长被其他的开发程序占用,使用需要注意自己的端口是否被占用。

注册

1715480326034.webp

Open WebUI 聊天界面

1715480345624.webp



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

手机版|联系我们|小黑屋|TG频道|RSS |网站地图

Powered by Pixtech

© 2025-2026 Pixtech Team.

>