今天小編分享的科學經驗:英偉達版ChatGPT來了,PC端部署,很GPU,歡迎閱讀。
英偉達推出了自家版本的 ChatGPT,名字很有 GPU 的味道——
Chat With RTX。
英偉達的這款 AI 聊天機器人和目前主流的 " 選手 " 有所不同。
這波操作,不僅是在運行效果上會更快,也就意味着 Chat With RTX 在聊天内容上或許并沒有那麼多限制。
網友們也紛紛對這一點發出了感慨:
哇 ~ 這是本地運行的耶 ~
當然,在配置方面也是要求的,只需要至少 8GB 的 RTX 30 或 40 系列顯卡即可。
那麼 Chat With RTX 的實際效果如何,我們繼續往下看。
英偉達版 ChatGPT
首先,值得一提的是,Chat With RTX 并非是英偉達自己搞了個大語言模型(LLM)。
它背後所依靠的仍是兩款開源 LLM,即 Mistral 和 Llama 2,用戶在運行的時候可以根據喜好自行選擇。
Pick 完 LLM 之後,就可以在 Chat With RTX 中上傳本地檔案。
支持的檔案類型包括 txt,.pdf,.doc/.docx 和 .xml。
然後就可以開始提問了,例如:
Sarah 推薦的餐廳名字是什麼?
由于是在本地運行,因此 Chat With RTX 生成答案的速度是極快的,真真兒的是 " 啪的一下 ":
Sarah 推薦的餐廳名字叫做 The Red Le Bernardin。
除此之外,Chat With RTX 另一個亮點功能,就是可以根據在線視頻做回答。
例如把一個油管視頻的鏈接 " 投喂 " 給它:
然後向 Chat With RTX 提問:
英偉達在 CES 2024 上宣布了什麼?
Chat With RTX 也會以極快的速度根據視頻内容作答。
至于其背後用到的技術方面,英偉達官方只是簡單提了一句:" 用到了檢索增強生成 (RAG)、NVIDIA TensorRTLLM 軟體和 NVIDIA RTX 等。"
如何食用?
不過在配置上,除了 GPU 的要求之外,還有一些條件,例如:
系統:Windows 10 或 Windows 11
RAM:至少 16GB
驅動:535.11 版本或更新
不過 Chat With RTX 在大小上并沒有很輕量,共計大約 35G。
不然就會出現各種各樣的悲劇了:
不過實測被吐槽
The Verge 在英偉達發布 Chat With RTX 之後,立即展開了一波實測。
不過結論卻是大跌眼鏡。
其次,如果給 Chat With RTX" 投喂 " 過多的檔案,例如讓 Chat with RTX 為 25000 個文檔編制索引,它就直接 " 罷工 " 崩潰了。
以及它也 " 記不住 " 上下文,因此後續問題不能基于上一個問題。
不過槽點之外,The Verge 也比較中立地肯定了 Chat with RTX 的優點。
例如搜索電腦上的文檔,其速度和精準度是真香。
并且做總結也是 Chat with RTX 較為擅長的内容:
更重要的是,在本地運行這樣的機制,給用戶檔案的安全性帶來了保障。
那麼你會 pick 英偉達版的 ChatGPT 嗎?
參考鏈接:
[ 1 ] https://www.theverge.com/2024/2/13/24071645/nvidia-ai-chatbot-chat-with-rtx-tech-demo-hands-on
[ 2 ] https://news.ycombinator.com/item?id=39357900
[ 3 ] https://blogs.nvidia.com/blog/chat-with-rtx-available-now/
[ 4 ] https://twitter.com/rowancheung/status/1757429733837418610
— 完 —
點這裡關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>