转自:金融界

  本文源自:IT之家

  OpenAI 在社会活动家和家长的监督之下组建了一个新团队 —— 研究防止其 AI 工具被儿童误用或滥用的手段。

  OpenAI 官网更新了一则招聘信息,该公司当前正需要一名新的儿童安全执行专家。这项岗位负责在 AI 生成的内容中应用 OpenAI 政策,并制定与“敏感内容”(或与儿童有关)相关的审查流程。

  据TechCrunch 报道,这则招聘信息披露了 OpenAI 旗下儿童安全团队的存在,该团队与 OpenAI 内部的平台政策、法律和调查小组及外部合作伙伴合作,并管理与未成年用户有关的“流程、事件及审查”。

  在美国,具有“一定规模”的科技公司都会投入不少资源以遵守《美国儿童在线隐私保护规则》等法律,这些法律规定了当地儿童可以或不可以访问的网络内容,以及科技公司可以收集他们的哪些方面数据。

  此外,OpenAI 目前的使用条款对用户年龄有着这样的规定:13 至 18 岁的儿童使用前必须征得父母同意,禁止 13 岁以下儿童使用。

  据IT之家此前报道,欧盟委员会曾在本月初宣布,根据更新现有立法以跟上技术发展步伐的计划,人工智能生成的图像和其他形式描绘儿童***待(CSA)的深度伪造行为在欧盟可能会被定为刑事犯罪。欧盟还提议将直播儿童***待行为定为新的刑事犯罪。