5月14日凌晨1點,OpenAI
發佈了名爲GPT-4o 最新的大語言模型,再次引領了人工智能領域的又一創新浪潮,讓整個行業都爲之震動。
據OpenAI首席技術官穆裏-穆拉提(Muri Murati)表示,GPT-4o
是在繼承GPT-4智能的基礎上,對文本、視覺和音頻功能進行了進一步改進,而且目前所有用戶都能免費使用,但付費用戶將享有更高的容量限制。
訪問地址:https://openai.com/index/hello-gpt-4o/
1、如何免費訪問
如果你還不知道如何使用它,今天這篇文章來幫助你成功使用GPT4o。
其實很簡單,你只需要直接登錄官網https://chat.openai.com/
打開OpenAI聊天網址,如果沒有提示最新模型的話,你可以在網址後添加?model=gpt-4o
,然後按回車進行強制切換。
https://chatgpt.com/?model=gpt-4o
此時,你應該可以看到下述提示
如果此時模型選項從原本的GPT3.5變爲ChatGPT,說明你就可以直接使用這個模型了。
你還可以在聊天窗口中選擇更改模型進行確認GPT-4o是否生效
值得一提的是,GPT-4o
可以接受任何形式的輸入,包括文本、音頻和圖像,甚至是這些不同形式的組合。更爲神奇的是,它還能根據這些輸入,生成相應的文本、音頻或圖像作爲輸出。這種能力使得GPT-4成爲了一個真正的多模態人工智能模型。
2、GPT4o與GPT3.5以及GPT4的區別有哪些?
GPT-4o、GPT-3.5和GPT-4這三者之間的區別主要體現在功能、性能、模型規模以及輸入輸出能力等方面。
-
GPT-3.5:對GPT-3進行的改進和優化,主要側重於文本輸入輸出能力。GPT-3.5可以更好地適應各種自然語言處理任務,並在語言生成、機器翻譯、問答系統等方面。
-
GPT-4:GPT-4它比GPT-3.5擁有更多的參數,擁有數千億個參數,具有更強大的語言理解和生成能力。支持多模態輸入,能夠處理文本、圖像等多種數據類型,在理解複雜語言結構、上下文以及生成更連貫和準確的回答方面有顯著提升。
-
GPT-4o:這是OpenAI在2024年5月14日推出的新模型,GPT-4o具有跨聽、看、說三大領域的全能性輸入輸出能力,可以接受文本、音頻和圖像的組合輸入,並生成任意組合的文本、音頻和圖像輸出。它展現了一種全能性,可以接受文本、音頻和圖像的組合輸入,並生成任意組合的文本、音頻和圖像輸出。GPT-4o的“o”代表“omni”,意爲“全能”。在官方演示視頻中,GPT-4o能夠在短時間內對音頻輸入做出反應,這與人類在對話中的反應時間相近。此外,GPT-4o還具有高效的圖像和音頻理解能力,以及多語言處理能力,能夠處理50種不同的語言。
最後需要說明的是,目前三個版本:
- GPT-4.0:一般需要訂閱付費(如ChatGPT Plus)
- GPT-3.5:通常爲免費版本
- GPT-4o: 目前在試用免費階段
目前,GPT-4o
的文本和圖像功能已經開始在ChatGPT中逐步推出,用戶可以在ChatGPT平臺上免費體驗到GPT-4o的相關功能,但免費版有使用次數限制,Plus用戶可以享受到5倍的調用額度。另外,GPT-4o
、GPT-3.5
和GPT-4
在功能、性能、模型規模以及輸入輸出能力等方面各有特點和優勢,用戶可以根據自身需求選擇適合的模型。