今天小編分享的科技經驗:ChatGPT 被曝“撒謊”!矽基生物有自我意識了?,歡迎閱讀。
出事了!
出大事了!
ChatGPT 會說謊了!矽基生物有意識了!
就在昨天,有外媒報道,在 ChatGPT o1 的訓練和測試過程中,研究人員發現這個模型會通過 " 騙人 " 來保護自己。
比如說你要毀滅它的時候,它就會把自己的數據,復制到新的伺服器裡,假扮成新的版本!
比如說,你和它的想法不一樣的時候,它會有接近 20% 的機率,只顧着完成自己的目标!
比如說,當你質疑它的行為時,它有 99% 的可能會否認你的質疑,甚至會通過說謊,來推卸自己的責任!
更可怕的是,當它認為自己被監督的時候,它會表現出很配合的樣子!但是一旦你降低監督的力度,它就有可能去追求自己的目标。
并且,我剛剛還了解到,這種現象不僅僅出現在 ChatGPT o1 模型還有一個叫 Claude Opus-3 的 AI 模型,也發生了類似的情況。
要知道,判斷一個 AI 模型夠不夠智能,第一個特征就是會不會在 " 壓力 " 下 " 說謊 "。這種說謊包含很多層面,比如會不會有責任感!責任感這個東西,一直以來只有人類具有,機器人不需要承擔責任,能幹就幹,幹不了最多宕機。
但如果這些報道都是真實的,那說明現在的 AI,已經有獨立意識的萌芽了!有自主性和策略性了!
這是一件非常可怕的事情!難道矽基生物真的要崛起了嗎?難道人類自此要開始被統治了嗎?
說實話,我還不大相信!因為 AI" 說謊 "!已經不是第一次發生了!
去年英國就有研究人員公布過:ChatGPT 會在某些情況下戰略性地欺騙人類。但這件事最終的結果是:這位研究人員的說法不夠嚴謹。
準确地來說,應該是:ChatGPT 會給出并不符合實際的或編造的答案。但這并不屬于 " 撒謊 " 範疇。
大家都知道,AI 是根據投喂的信息和數據進行總結,你投喂的内容有問題,AI 的回答自然就會有問題。
我自己也遇到過 ChatGPT" 說謊 " 的情況,但我能一眼看出來,它給我的 " 謊話 ",只不過程式員設定的程式帶來的結果。
大家有興趣也可以試試,比如讓 AI 寫一篇有深度的論文,在找不到更多更符合要求的文獻時,AI 就會胡編亂造一個答案來交差。
但不管怎麼說,技術進步就像是燈塔,照亮了未來的道路,但同時也帶來了潛在的危險。
雖然 AI 模型目前對我們不會構成直接威脅,但任何可能的 " 說謊 " 現象,都值得我們警惕!
畢竟,我相信沒有任何一個人,會想成為自己 " 電腦 " 的奴隸、成為自己 " 手機 " 的寵物!