今天小编分享的互联网经验:“闪光灯”下的我们,欢迎阅读。
人工智能最重要的核心要素是什么?是数据和算法,尤其是数据,这是一切模型、算法的底层逻辑。不光是人工智能,各个行业中数据都是一种刚性需求,而人工智能对数据的需求程度与依赖性是其他行业无法比拟的,数据伴随人工智能技术、行业发展的每一个角落。
数据不仅仅包括由文字与数字组成的信息,照片、视频等一样可以作为数据应用于模型的学习、训练。在使用大数据的过程中,数据的获取、存储、传输以及数据使用等始终无法做到合理、合规。各国对数据治理也陆续出台了法律法规,例如我国自 2021 年 9 月 1 日起施行的《中华人民共和国数据安全法》、欧盟议会于 2022 年 4 月 6 日通过的《数据治理法案》以及 2022 年 6 月 3 日美国众议院通过的《美国数据隐私和保护法》等。
虽然相关的治理政策不断出炉,但是对于 " 被动 " 接受自身信息、隐私数据等被利用甚至转卖的事件仍屡见不鲜,这对人工智能伦理造成了极大的挑战。个人信息、隐私等无法得到安全保护,使我们就像被放置在舞台中央,三百六十度的相机对准自身,无死角地按下快门。同时如被不法分子进一步利用,人们不止隐私权、名誉权受到侵犯,还会蔓延至财产甚至人身安全,这就是人工智能伦理风险中的侵权性风险。
例如 2023 年 3 月 28 日,《女子地铁照被 AI 一键脱衣传播》的新闻登上微博热搜,事实上,照片的女主角是小红书的一名博主,而所谓的 " 裸照 " 则是她去年 7 月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用 AI 軟體一键脱衣,故意全网散播。这不止对该女子进行了身心方面的伤害,甚至对其事业也造成了沉重打击。
人工智能侵权性风险短期无法全部避免,这主要是因为人工智能整体发展还未成熟,政策的治理、行业的自律、人们的认知等都还需要一个过程才能完成完成蜕变,这是一个长期的过程。在这个过程中涌现出很多人工智能侵权性风险事件,比较经典的就是 2023 年 6 月 28 日chatgbt 由于出卖个人隐私,被起诉赔偿 30 亿美元。
2023 年 6 月 28 日,位于北加州的 Clarkson 律所代表 16 位匿名人士以及数以亿计的 ChatGPT 用户、ChatGPT API 用户、ChatGPT plus 用户、微软用户在加州北部地区巡回法院向OpenAI 和微软提起集体诉讼,指控其在利益的驱使下,未经用户知情同意或用户不知情的情况下,使用从数亿互联网用户(包括各个年龄段的儿童)抓取的私人信息(包括个人身份信息)来创建其人工智能产品,严重侵犯了用户的财产权、隐私权等权益,给社会带来了潜在的灾难性风险,要求赔偿 30 亿美金。
关于被告的行为侵犯财产和隐私权部分,原告认为被告在原告不知情的情况下对通信进行了大规模的截取,违反了个人的财产权和隐私权。这些截取行为没有得到用户个人信息的同意,也没有遵守网站的使用条款以及加利福尼亚州等其他州和联邦的法律。被告将其截取的个人信息用于构建 AI 产品,并通过出售访问权限的商业模式来谋取经济利益。
尽管人工智能侵权性风险已经通过各式各样的形式展现,但是最典型的便是干预选举,这也在 2019 年被奈飞(Netflix)做成纪录片《隐私大盗》,也让我们一起来看看人工智能技术如何被利用导致侵权蔓延至干预选举吧。
在美国大选期间,一家英国公司,剑桥数据公司,通过大数据采集分析脸谱化以及定向推送等相关技术,从FACEBOOK平台上抓取、盗用大量用户个人隐私,把生活在螢幕背后的人还原成一个毫无隐私可言的人。由于对个人进行了细节性的定位,这样就可以进行针对性极强的精准信息投放,个人不知不觉的情况下被后台进行信息过滤,通过计算机建模对数据进行分析,描摹人物性格图谱,划分人性类型,在竞选的摇摆州,对精确的对象释放个性定制的信息,影响其心智和行为,从而赢得他们的选票。
剑桥数据公司除了在 2016 年为特朗普竞选摇旗呐喊外,"英国脱欧 "也有它的身影,作为支持脱欧的一方,它利用社交媒体在用户不完全知情的前提下获得个人信息,然后大数据分析,人物形象画图,建模,筛选信息,定向发送。
对于人工智能侵权性风险的伦理治理需要一个长期的过程,但是我们需要保持 " 迫在眉睫 " 的紧迫性和警惕之心,这不单单是为了给我们自己塑造一个 " 安全屋 ",保证我们的信息、隐私不被暴露,也是为了预防侵权性风险的进一步蔓延。
(本文首发钛媒体 APP,作者|谷硕,编辑|刘洋雪)
更多详细内容请见《2023 全球人工智能伦理治理报告》,获取方式如下: