今天小编分享的科技经验:百度和新浪推出的回帖机器人,被网友骂成了“弱智AI”,欢迎阅读。
如今微博上被 @最多的人是谁?可能是很多人都没听过的一个互联网科技博主,叫做 @评论罗伯特。
其实它是一个以用户身份活跃在微博评论区的 AI,只要发布 10 字以上的原创微博或 @评论罗伯特 ,就有机会得到它的回复。
但 @评论罗伯特的出圈不是因为勤奋,而是习惯性的 " 胡说八道 ",甚至有一个 @罗伯特受害者联盟的账号定期更新不堪骚扰的用户投稿。
互联网世界中有一个著名的说法:" 你永远不知道网络的对面是一个人还是一条狗!" 如今将 " 狗 " 换成 AI,一点也不违和。
有认真求助的微博网友就被罗伯特调戏了。网友说自己有份 940 多页的英文檔案,想找人帮忙翻译,结果罗伯特说可以帮忙看看。
而这位博主还真把罗伯特当成了真人,把文档链接发给了它,然后就没有然后了。
你以为只有微博用户欢乐多,其实百度贴吧也有一位罗伯特的 " 同道中人 " ——贴吧包打听。
" 贴吧包打听 " 是百度贴吧推出的回帖机器人,专门为贴吧用户答疑解惑,相当于 AI 版的百度知道。但与文心一言比起来,这个包打听简直就是给百度抹黑的。
在疾地大乱斗吧里,包打听一本正经的回答碧昂丝不是大猩猩,而是黑猩猩。
在网友求助拯救者哪个配置好的问题下面,包打听也出现了明显的答非所问。
而在此前的合金装备吧里,包打听还有过将游戏 " 杀人 " 理解为真实杀人的回答,不过目前已经搜索不到了。
从包打听有问题的回答来看,很多时候都是不相关且理解错误,有网友就给出了一种贴切但很恶心的形容 ↓↓↓
当然也有人认为这是百度故意的,原因在于包打听总瞎扯,倒逼大家不得不去回复正确答案。
关于这一点可能是平台希望看到的,一个错误答案可以创造多个高质量回答,而这些高质量答案就能成为用于 AI 训练的优质语料。
但这种方式对用户体验的损害是肉眼可见的,在贴吧很多用户对包打听这种容易引发误解的胡乱回答都很排斥。
更令人想不到的是,早前也有用户反映包打听的回答是从知乎上爬取的。知乎上甚至有一个问题贴出了铁证,一个关于明日方舟游戏的回答,包打听的内容与知乎答主的回答高度相似,很多地方都是原封不到 copy 过去的。
而类似的回帖机器人已经不止包打听和罗伯特了,在快手上也有一个叫做 AI 小快的机器人账号,也能搜到在评论区翻车的例子。
其实在国内,类似罗伯特、包打听这样的回帖机器人,在 2015 年就出现过,只不过当时的普遍叫法是社交机器人,比如当时活跃于新闻 / 购物网站、社交平台的小冰。
而围绕社交机器人的讨论早在 2010 年就出现了,当时一些商业公司开始采用社交机器人,模仿人类行为,在社交网络上大规模地扩散营销广告。
真正让社会重视社交机器人是在 2016 年的美国大选结果出炉后。当时南加州大学数据科学家 Emilio Ferrara 等在推特收集了 2000 万多条与 2016 年大选有关的推文,这些推文是在 2016 年 9 月 16 日至 10 月 21 日之间由约 280 万个账号生成。
结果表明,其中超过 40 万个账户可能是社交机器人,占总用户量的近 15%。它们生产了约 380 万条推文,占总推文数的 19%。
其中有意思的是,关注特朗普的社交机器人几乎没有发负面推文,生成更多支持特朗普的积极推文。而在所有积极推文中,近三分之二是支持特朗普的。
这位科学家为了研究社交机器人,还在 2020 年的大选后分析了 2.4 亿条相关推文,结果显示社交机器人的活跃程度让人类账号 " 相形见绌 "。
它们学会了挖掘用户数据," 克隆 " 人类行为,与他们的朋友互动,发布主题一致、时间间隔相似的内容,更具迷惑性。
更严重的是,人工智能的语言环境污染以及语言暴力问题早已不是新鲜事。
2014 年,聊天机器人 " 微软小冰 " 在用户的调戏和谩骂下,开始爆粗口;2016 年,聊天机器人 Tay 在推特上发布,并迅速变成了一个公然的种族主义、厌女主义和反犹太主义者;2020 年,韩国推出少女聊天机器人 Luda,大量用户用语言对它进行性骚扰,不久后,Luda 就开始说出歧视性少数、女性和残疾人的言论。
再看今天的罗伯特、包打听和 AI 小快,它们有着更丰富的语料和更先进的技术,进化也就更快。尽管当前它们是活跃在评论区的回帖机器人,但对于用户来说,当它们产生的内容具有足够迷惑性的时候,谁又能保证自己一定能分辨的清。