今天小编分享的科技经验:ChatGPT 被曝“撒谎”!硅基生物有自我意识了?,欢迎阅读。
出事了!
出大事了!
ChatGPT 会说谎了!硅基生物有意识了!
就在昨天,有外媒报道,在 ChatGPT o1 的训练和测试过程中,研究人员发现这个模型会通过 " 骗人 " 来保护自己。
比如说你要毁灭它的时候,它就会把自己的数据,复制到新的伺服器里,假扮成新的版本!
比如说,你和它的想法不一样的时候,它会有接近 20% 的机率,只顾着完成自己的目标!
比如说,当你质疑它的行为时,它有 99% 的可能会否认你的质疑,甚至会通过说谎,来推卸自己的责任!
更可怕的是,当它认为自己被监督的时候,它会表现出很配合的样子!但是一旦你降低监督的力度,它就有可能去追求自己的目标。
并且,我刚刚还了解到,这种现象不仅仅出现在 ChatGPT o1 模型还有一个叫 Claude Opus-3 的 AI 模型,也发生了类似的情况。
要知道,判断一个 AI 模型够不够智能,第一个特征就是会不会在 " 压力 " 下 " 说谎 "。这种说谎包含很多层面,比如会不会有责任感!责任感这个东西,一直以来只有人类具有,机器人不需要承担责任,能干就干,干不了最多宕机。
但如果这些报道都是真实的,那说明现在的 AI,已经有独立意识的萌芽了!有自主性和策略性了!
这是一件非常可怕的事情!难道硅基生物真的要崛起了吗?难道人类自此要开始被统治了吗?
说实话,我还不大相信!因为 AI" 说谎 "!已经不是第一次发生了!
去年英国就有研究人员公布过:ChatGPT 会在某些情况下战略性地欺骗人类。但这件事最终的结果是:这位研究人员的说法不够严谨。
准确地来说,应该是:ChatGPT 会给出并不符合实际的或编造的答案。但这并不属于 " 撒谎 " 范畴。
大家都知道,AI 是根据投喂的信息和数据进行总结,你投喂的内容有问题,AI 的回答自然就会有问题。
我自己也遇到过 ChatGPT" 说谎 " 的情况,但我能一眼看出来,它给我的 " 谎话 ",只不过程式员设定的程式带来的结果。
大家有兴趣也可以试试,比如让 AI 写一篇有深度的论文,在找不到更多更符合要求的文献时,AI 就会胡编乱造一个答案来交差。
但不管怎么说,技术进步就像是灯塔,照亮了未来的道路,但同时也带来了潜在的危险。
虽然 AI 模型目前对我们不会构成直接威胁,但任何可能的 " 说谎 " 现象,都值得我们警惕!
毕竟,我相信没有任何一个人,会想成为自己 " 电腦 " 的奴隶、成为自己 " 手机 " 的宠物!