ollama——快速上手Llama3部署使用

ollama——快速上手Llama3

1. ollama安裝

#Linux
curl -fsSL https://ollama.com/install.sh | sh
#vi /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
#配置遠程訪問
Environment="OLLAMA_HOST=0.0.0.0"
#配置跨域請求
Environment="OLLAMA_ORIGINS=*"
#配置OLLAMA的模型存放路徑,防止內存不足,一般的默認路徑是/usr/share/ollama/.ollama/models/
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"

[Install]
WantedBy=default.target

##修改完後執行
sudo systemctl daemon-reload
sudo systemctl enable ollama

2. ollama的使用

#使用感覺和docker類似,輸出ollama就會有提示
ollama serve	#啓動ollama
ollama create	#從模型文件創建模型
ollama show		#顯示模型信息
ollama run		#運行模型
ollama pull		#從註冊表中拉取模型
ollama push		#將模型推送到註冊表
ollama list		#列出模型
ollama cp		#複製模型
ollama rm		#刪除模型
ollama help		#獲取有關任何命令的幫助信息

在這裏插入圖片描述

3. ollama的library

類似Docker的Docker Hub,在這裏可以查找可以選擇的大模型。

在這裏插入圖片描述

4. Llama3使用示例

  • 這裏以llama3-8b爲例
#下載模型
ollama pull llama3
#下載成功查看模型
ollama list
#運行模型
ollama run llama3

在這裏插入圖片描述

  • general api調用

    #input
    {
        "model": "llama3",
        "prompt": "Describe the scene of sunny weather after raining",
        "stream": false
    }
    #output
    

    在這裏插入圖片描述

  • chat api調用

    {
        "model": "llama3",
        "messages": [
            {
                "role": "system",
                "content": "假設你是一名資深的翻譯家,請將接下來的內容翻譯成中文"
            },
            {
                "role": "user",
                "content": "What a lovely scenario!\n\nAs you step out into the bright, open air."
            }
        ],
        "stream": false
    }
    

    在這裏插入圖片描述

5. 參考

https://ollama.com/
https://github.com/ollama/ollama
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章