开发指南
安装先决条件:
- go语言
- C/C++ 编译器,例如 macOS 上的 Clang、TDM-GCC (Windows amd64) 或 llvm-mingw (Windows arm64)、Linux 上的 GCC/Clang。
然后从仓库的根目录构建并运行 Ollama:
go run . serve
macOS (Apple Silicon)
macOS Apple Silicon 支持内置于 Ollama 二进制文件中的 Metal。无需执行其他步骤。
macOS (英特尔)
安装先决条件:
- CMake 或
brew install cmake
然后,配置并构建项目:
cmake -B build
cmake --build build
最后,运行 Ollama:
go run . serve
Windows
安装先决条件:
- CMake
- Visual Studio 2022 包括本机桌面工作负载
- (可选)AMD GPU 支持
- (可选)NVIDIA GPU 支持
[!重要] 确保先决条件
PATH
在运行 CMake 之前。[!重要] ROCm 与 Visual Studio CMake 生成器不兼容。用
-GNinja
配置项目时。[!重要] CUDA 仅与 Visual Studio CMake 生成器兼容。
然后,配置并构建项目:
cmake -B build
cmake --build build --config Release
最后,运行 Ollama:
go run . serve
Windows (ARM)
Windows ARM 目前不支持其他加速库。
Linux
安装先决条件:
- CMake 或
sudo apt install cmake
或sudo dnf install cmake
- (可选)AMD GPU 支持
- (可选)NVIDIA GPU 支持
[!重要] 确保先决条件
PATH
在运行 CMake 之前。
然后,配置并构建项目:
cmake -B build
cmake --build build
最后,运行 Ollama:
go run . serve
Docker
docker build .
ROCm
docker build --build-arg FLAVOR=rocm .
运行测试
要运行测试,请使用go test
:
go test ./...
文库检测
Ollama 在以下路径中查找相对于ollama
可执行:
./lib/ollama
(Windows)../lib/ollama
(Linux的).
(macOS)build/lib/ollama
(用于开发)
如果未找到这些库,Ollama 将不会与任何加速库一起运行。