ollama 僅支持。gguf的格式 其他格式需要llama.cpp 轉換
curl https://ollama.ai/install.sh | sh
ollama --version
ollama pull llama2-chinese
ollama run llama2-chinese "天空爲什麼是藍色的?"
ollama 如何修改model下
在Windows系統中修改模型下載地址
-
打開系統的環境變量編輯器。
-
在系統環境變量中找到或創建一個名爲
OLLAMA_MODELS
的變量。 -
將您希望的模型下載路徑設置爲這個變量的值。
例如,如果您希望模型下載到C:\myfolder\models
,那麼您可以將OLLAMA_MODELS
設置爲C:\myfolder\models
。
載地址
https://github.com/open-webui/open-webui
If Ollama is on your computer, use this command:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
If Ollama is on a Different Server, use this command
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
http://localhost:3000/