今天小编分享的科技经验:招聘信息显示OpenAI已组建新团队:研究儿童安全,制定审查流程,欢迎阅读。
IT 之家 2 月 11 日消息,OpenAI 在社会活动家和家长的监督之下组建了一个新团队 —— 研究防止其 AI 工具被儿童误用或滥用的手段。
OpenAI 官网更新了一则招聘信息,该公司当前正需要一名新的儿童安全执行专家。这项岗位负责在 AI 生成的内容中应用 OpenAI 政策,并制定与 " 敏感内容 "(或与儿童有关)相关的审查流程。
据外媒 TechCrunch 报道,这则招聘信息披露了 OpenAI 旗下儿童安全团队的存在,该团队与 OpenAI 内部的平台政策、法律和调查小组及外部合作伙伴合作,并管理与未成年用户有关的 " 流程、事件及审查 "。
在美国,具有 " 一定规模 " 的科技公司都会投入不少资源以遵守《美国儿童在线隐私保护规则》等法律,这些法律规定了当地儿童可以或不可以访问的网络内容,以及科技公司可以收集他们的哪些方面数据。
此外,OpenAI 目前的使用条款对用户年龄有着这样的规定:13 至 18 岁的儿童使用前必须征得父母同意,禁止 13 岁以下儿童使用。
据 IT 之家此前报道,欧盟委员会曾在本月初宣布,根据更新现有立法以跟上技术发展步伐的计划,人工智能生成的影像和其他形式描绘儿童性虐待(CSA)的深度伪造行为在欧盟可能会被定为刑事犯罪。欧盟还提议将直播儿童性虐待行为定为新的刑事犯罪。