2025-06-20 575 次
以下是Ollama的常用命令及說明:
啟動(dòng)服務(wù)
ollama serve
啟動(dòng)Ollama服務(wù)器,默認(rèn)監(jiān)聽localhost:11434。
指定端口啟動(dòng)
ollama serve --port 11435
將服務(wù)端口改為11435。
拉取模型
ollama pull llama2
從Ollama庫(kù)下載模型(如llama2)??赏ㄟ^--model-dir指定下載路徑。
列出本地模型
ollama list
顯示所有已下載的模型及其版本。
刪除模型
ollama rm llama2
刪除本地的llama2模型。
創(chuàng)建自定義模型
ollama create mymodel -f Modelfile
根據(jù)當(dāng)前目錄下的Modelfile創(chuàng)建名為mymodel的自定義模型。
運(yùn)行模型生成文本
ollama run llama2 "你好,世界"
使用llama2模型生成對(duì)"你好,世界"的回復(fù)。
啟動(dòng)交互式對(duì)話
ollama chat llama2
啟動(dòng)與llama2的交互式對(duì)話界面。
在Docker中啟動(dòng)Ollama
docker run -d -p 11434:11434 --name ollama ollama/ollama
在Docker容器中運(yùn)行Ollama服務(wù)。
進(jìn)入Docker容器
docker exec -it ollama bash
進(jìn)入運(yùn)行中的Ollama容器執(zhí)行命令。
查看版本
ollama version
顯示Ollama的當(dāng)前版本。
查看幫助信息
ollama --help
顯示所有可用命令和選項(xiàng)的幫助文檔。
在創(chuàng)建自定義模型時(shí),Modelfile的示例內(nèi)容如下:
FROM llama2:7b PARAMETER temperature 0.8 ADJUST quantization q4_0
該文件可定義模型的基礎(chǔ)版本、參數(shù)和量化方式。
所有命令需在已安裝Ollama的環(huán)境中執(zhí)行。
部分高級(jí)功能(如分布式部署)可能需要額外配置。
如需持久化數(shù)據(jù),可通過--model-dir參數(shù)指定存儲(chǔ)路徑。