Ollama 官网

  https://ollama.com/download/linux

Install with one command:

1
curl -fsSL https://ollama.com/install.sh | sh

使用systemd运行Ollama服务

  查看 ollama 所在目录

1
2
3
whereis ollama

# ollama: /usr/local/bin/ollama /usr/local/lib/ollama

启动 Ollama 服务

  创建systemd服务文件

  • /etc/systemd/system/​目录下创建ollama.service​文件,内容如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/data/ollama/.ollama/models"
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

  启动 Ollama 服务:

  • 重新载入 systemd 配置:
1
systemctl daemon-reload
  • 启动服务
1
systemctl start ollama
  • 设置开机自启
1
systemctl enable ollama
  • 查看服务状态
1
systemctl status ollama

直接使用ollama命令启动服务

  • 在安装好Ollama后,直接在命令行中运行:
1
ollama serve

  这样Ollama服务就会启动,监听默认端口11434

  ‍

可能遇到的问题:

  • Ollama 默认是未开启跨域配置的
  • Ollama响应速度过慢,CPU 占用过高:那没办法🤡,服务器配置不够而已,哈哈