今天小編分享的科技經驗:傳亞馬遜開發新AI視頻模型,拟提供高性價比服務,歡迎閱讀。
編譯 | 汪越
編輯 | Panken
智東西 11 月 29 日報道,據 The Information 報道,據知情人士透露,亞馬遜正在開發一款新的多模态 AI 模型,代号為 Olympus。Olympus 不僅能夠理解文字,還具備強大的影像和視頻分析能力,特别在視頻場景理解和精确的運動分析方面表現突出。
據知情人士透露,Olympus 在生成文本和解決復雜問題的能力上可能不如 OpenAI 和美國 AI 大模型獨角獸 Anthropic 的最新語言模型,但亞馬遜看中了它在視頻處理方面的潛力,計劃以更具競争力的價格提供這一服務,并希望減少對 Anthropic 技術的依賴。
Anthropic 的 Claude 聊天機器人是亞馬遜雲科技(AWS)上的熱門產品,亞馬遜最近向 Anthropic 注資 40 億美元,使其總投資額達到 80 億美元。
▲亞馬遜首席執行官 Adam Selipsky(左)與 Anthropic 首席執行官 Dario Amodei(右)(圖源:Getty Images)
據知情人士透露,Olympus 的視頻理解能力非常強大,能夠精準判斷籃球何時離開球員的手并預測其運動軌迹,這些是傳統視頻識别技術難以實現的。對于擁有大量視頻數據的 AWS 客戶(如體育分析、媒體和娛樂公司),Olympus 将是一個重要的工具,幫助他們更高效地分析和處理視頻内容。
雖然目前亞馬遜、OpenAI 和 Anthropic 等公司已經推出了支持影像和文本分析的語言模型,但視頻分析技術還處于起步階段。Olympus 的推出标志着亞馬遜進軍視頻 AI 市場的戰略布局,目前這個市場主要由谷歌的 Gemini 模型和專注于視頻理解技術的 AI 公司 Twelve Labs 主導。
據 The Information 報道,亞馬遜有可能在即将召開的 AWS re:Invent 大會上公布 Olympus 的更多細節。亞馬遜目前尚未對此作出回應。
2023 年 4 月,亞馬遜發布了一款僅支持文本的 Titan 系列語言模型,但該模型未能在市場上引起太大的反響。面對自研大語言模型(LLM)的困境,亞馬遜轉而依賴 Anthropic 等初創公司為其雲服務提供技術支持,尤其是在數字助手和 AI 編程產品方面。
去年,負責 Olympus 項目的亞馬遜高級副總裁 Rohit Prasad 制定了一項計劃,期望趕超競争對手的大語言模型。據知情人士透露,這項計劃包括訓練四個大型模型,其中一個為 4000 億參數的文本模型,另一個為 2 萬億參數的文本模型。
這些模型的參數規模将與 Meta 的開源 Llama 模型(4050 億參數)和 OpenAI 的 GPT-4(超過 1.5 萬億參數)相當。未來,亞馬遜還計劃将這些大型文本模型與視覺模型結合,以賦予它們更多的多模态能力。
▲亞馬遜高級副總裁 Rohit Prasad(圖源:Getty Images)
結語:AI 視頻分析能力強化亞馬遜競争力
随着 Olympus 在參數規模和多模态能力上的不斷提升,亞馬遜将在運動分析和視頻場景理解領網域吸引更多需要高精度視頻分析的雲服務客戶。
與此同時,視頻 AI 市場的競争将愈發激烈,谷歌的 Gemini、Twelve Labs 等視頻理解領網域的領先者将面臨亞馬遜的強力競争。通過 Olympus,亞馬遜不僅将減少對 Anthropic 的依賴,還将在大模型領網域進一步增強自主技術能力。
來源:The Information