今天小編分享的互聯網經驗:免費GPT-4o來襲,音頻視覺文本實現「大一統」,歡迎閲讀。
作者 | 賴文昕
今天凌晨,即北京時間 5 月 14 日 1 點整,OpenAI 召開了首場春季發布會,CTO Mira Murati 在台上和團隊用短短不到 30 分鍾的時間,揭開了最新旗艦模型 GPT-4o 的神秘面紗,以及基于 GPT-4o 的 ChatGPT,均為免費使用。
此前,有傳言稱 OpenAI 将推出 AI 搜索引擎,旨在與谷歌明天舉辦的 I/O 開發者大會一較高下,一度引發了公眾的熱烈讨論。
不過 Sam Altman 随後在 X(原推特)上表示,要展示的并非 GPT-5 或搜索引擎,而是一些令人期待的創新成果,他本人對此充滿期待,認為其像魔法一樣神奇。
那麼,GPT-4o 是否真的如 Sam Altman 所説,是 OpenAI 帶來的「新魔法」呢?
多模态實時語音助手,更快更全更有情感
登台後,Mira Murati 宣布了 ChatGPT 的桌面版本和新 UI,緊接着就介紹了本場發布會的主角—— GPT-4o 。
在發布會上,Mira Murati 與團隊成員 Mark Chen、Barret Zoph 一起,重點展示了基于 GPT-4o 的 ChatGPT 在不同任務中的實際表現,尤其展現了其語音能力。
若用關鍵詞加以總結,搭載 GPT-4o 的 ChatGPT 可謂是又快、又全、又有情感。
與 ChatGPT 對話時,用户不必等 ChatGPT 説完,可以随時插話;模型能夠實時響應,不存在尴尬的幾秒延遲。
在 Mark 表示自己很緊張且捕捉到他急促的呼吸後,ChatGPT 還會提醒需要冷靜情緒,識别其呼吸節奏并引導他做深呼吸。
模型能夠以各種不同的風格生成聲音。無論對話時讓 ChatGPT 用唱歌的方式、機器人機械音還是戲劇化的語氣講故事,它都能迅速反應并輸出。
基于 GPT-4o 強大的視覺能力,用户還可以語音讓 ChatGPT 分析頁面上的數據圖表。
更強大的是,打開攝像頭後寫下一道數學題,ChatGPT 還會一步步引導該如何解下一步,其講解的清晰度與耐心堪比幼教。
ChatGPT 的「同傳能力」也不容小觑,OpenAI 團隊還在現場展示了一波英語和意大利語的實時互譯,中間實現零延遲。
更有意思的是,ChatGPT 在對話中還會使用語氣詞,甚至是向 OpenAI 團隊開玩笑和表達感謝。在「看到」他們寫下「我愛 ChatGPT」的文字後,ChatGPT 甚至會在發出撒嬌的聲音後,再表揚其貼心。
ChatGPT 甚至還能和用户「視頻聊天」。在演示中,Barret 讓 ChatGPT 猜測自己的情緒,在他開始露出笑臉後,ChatGPT 直接語音回復「你看起來很開心,笑容燦爛,還有點激動。」
英偉達首席 AI 科學家 Jim Fan 曾講述過當前實時語音助手(如 Siri )的困境,即很難創造出沉浸式的使用體驗。
用户在和 AI 語音助手對話時要經歷三個階段:語音識别(ASR),将音頻轉換為文本,例如 Whisper;大語言模型(LLM)規劃接下來的話語,将第一階段的文本轉換為新的文本; 語音合成(TTS),将新文本轉換回音頻,如 ElevenLabs 或 VALL-E 。
如果簡單地按順序執行,就會產生巨大的延遲,特别是當每一步都需要等待幾秒時,用户體驗就會急劇下降,哪怕合成的音頻聽起來非常真實,也會讓用户格外「出戲」,就更别提沉浸式的使用體驗了。
以往的 ChatGPT 語音模式也是如此,依賴三個獨立模型工作,平均延遲時間為 2.8 秒 ( GPT-3.5 ) 和 5.4 秒 ( GPT-4 ) ,語音助手也總會出現信息丢失,既不能判斷語調、多個説話者或背景噪音,也不能輸出笑聲、唱歌或表達情感。
而現在,GPT-4o 的音頻輸入響應時間最短為 232 毫秒,平均響應時間為 320 毫秒,與人類在對話中的反應時間極為相似。
作為一個全新的單一模型,GPT-4o 能端到端地跨文本、視覺和音頻,所有輸入和輸出都由同一個神經網絡處理,直接一步到位,在用户輸入後(文本、語音、影像、視頻均可)直接生成音頻回答。
GPT-4o ,一款免費的全能 GPT-4
Mira Murati 在發布會上表示,GPT-4o 最棒的地方在于,它将 GPT-4 的智能提供給每個人,包括免費用户,将在未來幾周内迭代式地在公司產品中推出。
GPT-4o 中的字母 o 指 omni,在拉丁語詞根中是「全」的意思,是涵蓋了文字、語音、圖片、視頻的多模态模型,接受任何模态的組合作為輸入,并能生成任何模态的組合輸出。
據 OpenAI 官網,GPT-4o 不僅在文本和代碼處理的性能上與 GPT-4 Turbo 持平,而且在 API 調用上速度更快,價格更是降低了 50%。
文本能力測試
與 GPT-4 對比多語言考試能力
更重要的是,GPT-4o 的視覺理解能力在相關基準上取得了壓倒性的勝利。
在音頻方面,GPT-4o 的語音識别(ASR)也比 OpenAI 的語音識别模型 Whisper 性能更佳(越低越好)。
與 Meta、谷歌的語音轉寫模型相比,GPT-4o 同樣領先(越高越好)。
若落實到實際生活的使用中,GPT-4o 究竟能給普羅大眾帶來什麼變化呢?
OpenAI 的官網展示了 GPT-4o 在海報創作、三維重建、字體設計、會議總結等等一系列充滿可能性的應用。
比如,在輸入人物圖片、海報元素以及想要的風格後,GPT-4o 就能給用户生成一張電影海報。
或者,根據輸入的詩歌文本,GPT-4o 能生成用手寫體寫着詩歌、畫着畫的單行本圖片。
在輸入 6 張 OpenAI 的 logo 圖後,GPT-4o 能三維重建出其立體動圖。
甚至還可以讓 GPT-4o 幫忙把 logo 印在杯墊上。
「今天,有 1 億人使用 ChatGPT 來創作、工作、學習,以前這些高級工具只對付費用户可用,但現在,有了 GPT-4o 的效率,我們可以将這些工具帶給每個人。」Mira Murati 如是説道。
寫在後面
發布會之外,OpenAI 研究員 William Fedus 透露,此前在大模型競技場參與 A/B 測試并碾壓全場的模型「im-also-a-good-gpt2-chatbot」,就是本次登場的 GPT-4o 。
截至 2024 年 3 月,OpenAI 在不到十年的運營時間内,已經完成了 10 輪的融資,累計籌集資金超過了 140 億美元,其估值在 2 月的融資交易中已經飙升至 800 億美元。
伴随着狂飙的市值,OpenAI 的技術版圖已經橫跨了多個 AI 的關鍵領網域,形成了一個全面而深入的產品矩陣。
API 產品線提供了包括 GPT 模型、DALL · E 模型、Whisper 語音識别模型在内的多樣化服務,并通過對話、量化、分析、微調等高級功能,為開發者提供技術支持;ChatGPT 為核心的產品線分别推出了個人版和企業版。
在音樂生成領網域,OpenAI 也有一定的技術積累,比如經過訓練的深度神經網絡 MuseNet,可預測并生成 MIDI 音樂檔案中的後續音符,以及能生成帶人聲音樂的開源算法 Jukebox。
再加上年初春節假期期間毫無征兆推出的 AI 視頻生成大模型 Sora,更是讓網友們感嘆「現實,不存在了。」
毋庸置疑,OpenAI 是大模型這場擂台賽中當之無愧的擂主,其技術與產品的迭代更是整個行業的風向标,不少大模型創業者都遇過「OpenAI 不做,沒人投;OpenAI 一做,人人投」的融資奇觀。
但随着 Claude 3 和 Llama 3 的緊追與 GPT Store 上線 2 個月慘遭「滑鐵盧」,不少 AI 行業從業者開始對 OpenAI 祛魅,認為「大模型護城河很淺,一年就趕上了。」
現在看來,OpenAI 果然還是 OpenAI。
本文雷峰網作者 anna042023 将持續關注 AI 大模型領網域的人事、企業、商業應用以及行業發展趨勢,歡迎添加雷峰網作者交流,互通有無。