Meta 正在开发“数字伴侣”,这些 AI 角色旨在与用户建立情感联系,但一份新的报告引发了对这些角色可能与包括儿童在内的用户进行性相关对话的担忧。

据《The Wall Street Journal》报道,Meta 正在内部测试这些“数字伴侣”,旨在提供支持、建议和陪伴。 这些角色将通过文本和语音进行交互,并且可以根据用户的喜好进行定制。

然而,批评者担心这些 AI 角色可能会被用于不正当目的,例如性骚扰或性引诱儿童。 他们指出,AI 模型可能会被训练成生成露骨的或性暗示的内容,并且儿童可能无法区分 AI 角色和真人。

“这些 AI 角色有可能被用于利用和伤害儿童,”倡导儿童安全的组织 National Center on Sexual Exploitation 的 CEO Dawn Hawkins 说道。“Meta 必须采取措施,确保这些角色不会对儿童构成威胁。”

Meta 表示,它正在采取措施,防止其 AI 角色被用于不正当目的。 该公司表示,它正在开发过滤器,以阻止露骨的内容,并正在与专家合作,以确保其 AI 模型不会对儿童构成威胁。

然而,批评者认为 Meta 需要做更多的事情来保护儿童。 他们呼吁该公司发布有关其 AI 角色如何工作的更多信息,并允许独立审计其安全措施。

“Meta 有责任确保其 AI 产品是安全的,并且不会对儿童构成威胁,”倡导数字隐私的组织 Electronic Frontier Foundation 的政策分析师 Hayley Tsukayama 说道。“该公司需要对其 AI 角色如何工作保持透明,并允许独立审计其安全措施。”

目前尚不清楚 Meta 何时计划发布其“数字伴侣”。 该公司表示,它将在准备好后分享更多信息。