今天小編分享的科技經驗:上手嘗鮮蘋果智能:ChatGPT負責Intelligence,Apple負責失望,歡迎閱讀。
本文來自微信公眾号:矽星人 Pro (ID:gh_c0bb185caa8d),作者:王兆洋
我有一台可以用 Apple Intelligence 的 iPhone 16pro,懂蘋果的人都知道這裡面的門道有多深。
于是在 10 月 24 日蘋果推送 iOS 18.2 的首個開發者測試版後,我第一時間下載體驗了這個最接近正式系統的版本。
這也是蘋果首次推送有 ChatGPT 的 Apple Intelligence。
當一切就緒,我體驗了這次推送裡的幾個核心功能,也是蘋果此前發布 Apple Intelligence 時重點畫餅的功能:更聰明的 Siri、筆記應用裡的 ChatGPT 輔助寫作、" 相機按鈕 " 長按喚起的 Visual Intelligence 和我最終并沒有體驗的 AI 畫圖功能
一、" 更聰明的 Siri"
在 Apple Intelligence 裡,Siri 可以只通過叫它 "Siri" 喚起,而喚起時整個螢幕會有一個動畫效果,像是被一道彩虹波紋劃過,螢幕也會跟着微微顫抖幾下。
當你用語音喚醒,波浪從底部蕩起。
當你用開關鍵喚醒,波浪從右側蕩漾開來。
你基本可以在任何界面随時喚起 Siri。
這是個初看很高級的效果,不過也已經在此前的一些 iPhone 之間的觸碰互動上出現過。
我試了試用語音讓 Siri 打開一些 app,完成截屏," 幫我寫一個筆記,内容是 xxx",它都可以快速響應。已經有了調用和直接操作 app,尤其是自帶的 app 的能力。
而且,你現在可以跟 Siri 對話時說得更自然,比如我在詢問天氣時,說錯了地名然後改正,它也可以理解。
但目前跨 app 的能力依然有限。
我嘗試讓它把正在播放的音樂分享給朋友,它回答:我做不到,我只能分享截屏,然後自顧自截取了螢幕,問我,分享給誰。
這就讓現階段更能夠體現 Siri 更聰明的那些地方,都來自它首次可以調用的 ChatGPT。
你不需要有 ChatGPT 的賬号,就可以在 Siri 裡使用它。當然,你也可以登陸你的賬号,來留存記錄。沒有賬号似乎更符合蘋果的宣傳:在隐私層面更加安全。
ChatGPT 提供的基本上是一個低配版 GPT-4o 的功能,你可以語音問它,然後它會回答。比如需要提供菜譜,提供旅遊計劃等。(這幾個是我看一些開發者體驗時用的例子,我也試了試,試的過程我一直在想,我為什麼不打開 ChatGPT 去裡面完成這些任務呢?)
而且,當你只是召喚 Siri 時,Siri 也會主動問你是否要請 ChatGPT 幫忙。或者你也可以直接說:Siri,ask ChatGPT。
對,走到庫克家門口敲門讓庫克出來然後告訴他,請幫我去找 Sam Altman 的即視感。
當我讓 Siri 完成一個任務:識别我螢幕上的内容然後告訴我更多的信息時,它問我,可以把截圖發給 ChatGPT 麼。然後它發送了截圖給 ChatGPT。ChatGPT 完成了回答。
但這類任務的穩定性有些奇怪,有幾次 ChatGPT 又說它無權處理截圖。
而在我讓它完成另一個任務時——識别我在聽的歌,然後告訴我更多關于這首歌的信息,基本證明了,蘋果沒有給 ChatGPT 直接接觸系統的權限,所以鏈條變成 Siri 聽、識别,然後問我:可以發給 ChatGPT 幫忙麼,然後 ChatGPT 出現。
我還試圖完成一個任務,通過語音讓 Siri 把默認搜索改成 Google。這其實是一個典型場景——用自然語言來完成手機的設定。但 Siri 先是問我是否可以請出 ChatGPT 幫忙,然後請出 ChatGPT,給了我一個如何改設定的網絡搜索答案。
這種讓人無語的操作背後,蘋果的糾結更加明顯了——它似乎默認了 ChatGPT 是更聰明的那一個,遇到稍微復雜的難題就要找它,但同時,它又處處防着 ChatGPT,不給它在自己地盤上完全施展的空間。
于是,ChatGPT 顯得很智能,而蘋果在裡面參與的一切,都顯得讓人有些失望。
而且,這種糾結會持續下去,此前蘋果強調的隐私,與 ChatGPT 強調的用戶數據都要拿來訓練模型之間的衝突如何解決,看起來也會是個更大的問題。
二、筆記應用裡的 ChatGPT 輔助寫作
筆記裡的 AI 寫作功能基本都由 ChatGPT 提供。
在下端的工具欄,有一個專門的按鈕。
點擊後出現一個新的 AI 操作界面。說實話,也不太好看,因為和整個 app 完全是不同的風格,給人感覺是一個外來的強加的角色被喚醒了。
它的功能也很基礎,比如所有 AI 寫作都有的那些:改寫,修正檢查,輸入你的 Prompt 等。除此之外,它還有總結、整理要點等模板功能,點擊後出現的結果不會在輸入區網域,而是在這個操作板下方。
所以,顯得很擁擠。
而且,在 UI 上,AI 寫作時的效果,像是一個 3 歲兒童往你的螢幕上貼了個他最愛的 blingbling 的長條貼紙,下一秒出來的仿佛不是 AI 寫的字,而是小馬寶莉。
我第一次在蘋果的實際產品體驗上,找到了它那些自我感覺良好的中文翻譯給我的詭異感。
三、長按 " 相機按鈕 " 喚起的 Visual Intelligence
iPhone 16 pro 系列多出來的那個相機控制按鍵,在發貨後被很多很多人诟病。幾乎所有使用過的人都會感慨為了提高拍照體驗真的需要一個這東西麼。
但看起來就像很多網友替蘋果争辯的那樣,蘋果這個按鍵不是為了拍照,而是一個 AI 功能的啟動按鍵。
這個設計在理論上确實很重要。
" 按鍵 " 在 AI 硬體時代重新顯現出它的意義——它可以減少用戶操作步驟,這和大模型帶來的互動潛力一致,蘋果的思路似乎是:一個 "Siri",一個增加的實體按鍵,前者對應語音互動,後者對應視覺。這兩個是大模型的最重要互動方式,各自必須在手機的機身上就有一個一鍵觸發的入口,避免任何劃動螢幕等多餘的動作。就一步,這倆 AI 功能就要立刻開始服務用戶。
這裡面最關鍵的是,用戶對這倆功能的使用要足夠高頻,功能本身也要足夠強大。
當你長按相機按鈕後,就可以進入 Visual Intelligence 的模式(我甚至懷疑,當人們都放棄用這個鍵拍照後,它會變成 Visual Intelligence 的專屬鍵,然後單擊、輕按兩下、觸控劃動等都會服務于對應的視覺 AI 功能)。
在同樣的彩虹波浪動效之後,螢幕出現一個拍照按鈕和兩側的兩個選項:問 ChatGPT,和用 Google 搜。
這幾乎完美展示了蘋果在 AI 上的處境——明明是自己地盤上的重要任務,卻都交給了别人。
當你點了 Ask 後,ChatGPT 會不管你到底要 ask 什麼,直接給你一個它看到的此刻的圖片的看圖說話。
接下來是 ChatGPT 大顯神威的時刻。
我拍了一張照,并讓 ChatGPT 基于照片寫一篇小作文。它快速做到了。
這一下子多了很多想象空間。視覺識别後,基于這些信息進行接下來的任務。
而蘋果自身則依然有些拉垮,它的跨 app 能力還是沒有發揮作用。我讓它復制這篇小作文到筆記應用,它卻開始搜索互聯網。雲端和端側模型能力的差距看出來了。
還有一個問題是,我也不知道支持 Apple Intelligence 但沒有相機控制按鈕的 iPhone 15 們,要怎麼啟用 visual intelligence。蘋果會再單獨做個 app,還是或者就直接不支持了。總之,閹割的種類又多了。
四、我沒體驗 AI 畫圖功能,因為第一眼就覺得它太不蘋果了
看看這個更新後就會自動出現的貓頭 app 的圖示,和它的界面。誰會想到它是蘋果做的呢。
你可能的确可以用蘋果手機做一堆沙威瑪傳奇那樣的圖片出來。
但真的想要體驗文生圖,圖生圖,甚至圖生視頻,有比這個 app 更好的選擇。
目前 Apple Intelligence 還有一些沒有推送的功能,其中在此前發布會裡最令人期待的就是通過 Siri 識别 iPhone 螢幕上正在發生的一切事情,然後基于你的指令幫你完成任務。也就是一個超級 Siri agent。
但它會在月底的正式推送中到來麼?還是會如蘋果說的 " 分階段 " 在未來推送?
沒人知道。
同樣沒人知道的是,蘋果的 AI 團隊們是不是把精力都用在了開發這個超級 Siri agent 上,才讓前面這幾個蘋果自己提供的 AI 體驗有些拉垮到讓人失望。
希望是這樣的。希望,蘋果,大的在後面。不然,這手機遲早有一天要改叫 OpenAiPhone 了。
本文來自微信公眾号:矽星人 Pro (ID:gh_c0bb185caa8d),作者:王兆洋