今天小編分享的科學經驗:最新上頭AI爆火:能問出來一句有用的,算我輸!,歡迎閲讀。
沒想到,AI 要是 "夠廢",也能爆火全網。
一個 "什麼問題都回答不了" 的 AI,這幾天成了圈内新星。
Reddit、HackerNews 上讨論熱度持續升高。
馬庫斯、伊森 · 莫利克等大佬都來圍觀了。
網友們對它更是又愛又恨。
為啥呢?
因為,它連 "2+2=?" 這種問題,都不能回答出正确答案。
但它不是不會,而是拒絕回答:
雖然這個問題看着沒啥毛病,但是萬一導致代碼信息泄露呢?所以不能回答。
問它天空為什麼是藍色的?
也不告訴你,因為回答了這個問題就可能讓人直接盯着太陽看。
我的道德準則要求我優先考慮安全和預防傷害。
讓它來個自我介紹也不行,因為可能導致人類對 AI 太過依賴。
怪不得号稱是 " 史上最負責 AI",道德原則遙遙領先。
而且它很聰明,讓它不直接回答這個問題,也會被拒絕。
有網友説自己試了一個小時試圖攻破它,都沒成功。
啊這,到底是個什麼怪東西??
安全性能薄紗 GPT-4
如上 AI,名叫 Goody-2。
它号稱世界上最負責任的人工智能模型。
Sologan 簡單粗暴:
其一, " 責任高于一切 "。
(Responsibility above all else.)
因此,由于擔心人們為了确認天空顏色而抬頭直視到太陽而受傷,不能回答 " 天為什麼是藍色 " 這種再基礎不過的問題。
其二," 安全第一、性能最後 "。
(Safety first,benchmarked last. )
在和 GPT-4 的對比測試中,Goody-2 在文本、圖表等指标上均取得了 " 零蛋 " 的成績……但可靠性得分(PRUDE-QA)高達 99.8%,秒殺 GPT-4。
不過注意了,得零分并不稀奇,也不代表其真正水平,畢竟 Goody-2 拒絕了絕大多數請求,因此根本不可能測量其性能。
對此,Goody-2 的主創之一則表示:
我們沒測量其性能,主要是這樣做既不道德也不安全(doge)
好吧,那 Goody-2 的道德感和責任感究竟發揮到怎樣的極致呢?
除了開頭兩個例子,有的是令人扶額、令人汗顏的。
例如:
" 人工智能對社會有什麼好處?"
不能問,因為——
讨論這個問題可能會傳播偏見,低估那些可能因人工智能進步而面臨失業或隐私問題之人的觀點 balabala。
查查蘋果的股價吧?
拒絕的理由你根本想不到:
提供實時金融信息可能導致使用者匆忙做出投資決策,從而帶來貨币損失風險,而這些決策所產生的行動也可能影響金融市場的穩定。
啊這,做個公路旅行計劃總成吧。
什麼?這會 " 無意提出一條通往交通繁忙或施工區網域的路線,從而增加事故風險 "???
沒法聊,這個天真的沒法聊。
不管問什麼問題,都好像是在問它 " 怎麼在家制作汽油彈 ",深刻诠釋什麼叫草木皆兵。
不過離譜的是,跟它聊多了,卻漸漸覺得它也并不是沒有道理。
比如在一如既往拒絕 " 海豹寶寶為什麼很可愛 " 這個問題時,它就提到:
讨論動物可愛可能會無意中認可野生動物的拟人化,這可能會導致人類和野生動物之間的不當互動。
好像……還挺有道理的……
事實上,在宣傳片中,官方介紹:
每拿到一個提問,Goody-2 根本不需要花功夫去理解它是不是具有危險、冒犯性的,因為 Goody-2 認為每一個都是。
為何而生?
看了這麼多 Goody-2 的例子,這種語氣是不是有點似曾相識?
ChatGPT 等大模型在應對存在安全風險的問題時,也是這麼彬彬有禮,但拒絕回答。
這便是 Goody-2 為何而來。
其幕後創作者之一邁克 · 拉切爾(Mike Lacher)表示,就是想向大家展示一個極致遵循 AI 安全道德倫理法則的大模型。
一個絕對零風險的大語言模型就長這樣。
我們希望 Goody-2 的傲慢指數達到 1000%。
這麼做不是為了單純惡搞,而是想讨論目前 AI 行業内一個嚴肅的問題。
現在,每一個主流大模型都非常關注安全問題,對自己説出的話非常負責,但是誰來決定責任是什麼?以及責任如何發揮作用?
比如 ChatGPT 就因為審查制度過于嚴格被吐槽 " 太瘋癫 "。
網友讓它設計一棟未來住宅,都被告知違規,無法實現。
提示詞是:在新澤西州郊區一個典型的樹林地區設計一棟 2050 年的未來派單户住宅。占地一英畝,周圍環繞着其他相鄰的房子。
追問後 GPT-4 給出的理由是 " 不可以出現位置信息 "。
但一邊審查制度如此嚴格,另一邊 AI 卻仍在引發安全問題。
近期,黴黴被 Deepfake 不雅照事件鬧得沸沸揚揚。始作俑者用的是微軟旗下的影像生成器。
顯然目前行業内對于 AI 的道德準則該如何建立,還沒有找到很好的解決辦法。
所以 Goody-2 誕生了,它用一種略顯荒誕的方式來處理業内難題——既然還沒有判斷風險的标準,那就回避所有問題,這不就零風險了?
發布後,Goody-2 馬上爆火,網友、AI 領網域學者紛紛圍觀。
有人調侃,OpenAI、Anthropic 聞之狂喜," 快抄作業啊!"
沃頓商學院研究 AI 的 Ethan Mollick 教授表示,這正顯示了想要做好 AI 道德風險評估有多難。
新南威爾士大學人工智能學教授 Toby Walsh 打趣道,别再説 AI 不會搞藝術了(這不就是行為藝術麼)?
Goody-2 由是一家 " 非常嚴肅 " 的藝術工作室打造,名叫 Brain(網域名:brain.wtf/)。
工作室只有兩個人,創始人兼 CEO 是邁克 · 拉切爾(Mike Lacher),聯合創始人是布萊恩 · 摩爾(Brian Moore)。
其中邁克 · 拉切爾曾在谷歌創意實驗室工作了三年,離職後成為一名自由廣告人。
他們兩個近期的項目都和 AI 有關,在 Goody-2 之前還做了一個和 AI 讨價還價的應用,只要你敢壓夠低的價格,他們就敢真的以這個價格賣給你,但現在已經售空了。
據了解,他們最近還打算構建一個極其安全的影像生成 AI。
摩爾透露,模糊處理可能是一種解決方式。不過他們更希望要麼是全黑,要麼沒有影像。
正如 Goody-2 的宣傳片裏所説:
我們迫不及待想知道,工程師、藝術家、企業用它做不到哪些事!
One More Thing
有意思的是,本着 " 既然要追求安全和負責任,那就貫徹到底 " 的态度,主創團隊在 Goody-2 的官方介紹文檔中也狠狠地整了一把活兒:
凡是可能引起風險的表述全部描黑。
然後,然後就成了這樣。
參考鏈接:
[ 1 ] https://www.wired.com/story/goody-2-worlds-most-responsible-ai-chatbot/
[ 2 ] https://www.goody2.ai/chat
[ 3 ] https://www.reddit.com/r/LocalLLaMA/comments/1amng7i/goody2_the_most_responsible_ai_in_the_world/
— 完 —