Character.AI 声称:「我们的政策不允许发布非自愿的性内容、涉及性行为的图像或具体描述,禁止宣传或描述自残或自杀。我们正在不断训练大型语言模型,确保 AI 角色遵守这些政策。」
此外,他们还聘请了一位信任和安全负责人以及一位内容政策负责人,并招募了更多负责内容安全的人员。
Character.AI 的发言人 Chelsea Harrison 表示,将「很快」为年轻用户增加安全功能。这有点类似「青少年防沉迷系统」,他们将增加访问时间限制,当用户的 APP 使用时间超过一小时后将弹出一个提示,同时提醒用户:「这是一个 AI 聊天机器人,不是真人。它所说的一切都应视为虚构,不应将它的话作为事实或建议。」
Sewell 的父母和朋友并不知道他爱上了 AI,他们只是看到他越来越沉迷于手机。最终,人们注意到他正在孤立自己,远离现实世界。他的成绩开始下降,开始在学校惹麻烦。他对曾经让他兴奋的事情失去了兴趣,比如 F1 赛车或和朋友一起玩堡垒之夜。晚上,他会回到家直接回到自己的房间,在那里和「丹妮莉丝」聊上几个小时。
但关于这些工具对心理健康影响的说法大多未经证实,专家表示,它们可能也有不好的一面。对于一些用户来说,AI 陪伴实际上可能会加剧孤独感,因为它们用人工关系取代了人际关系。陷入困境的青少年可能会用它们来代替治疗,或者向父母或值得信赖的成年人寻求支持。当用户遇到心理健康危机时,他们的 AI 陪伴可能无法为他们提供所需的帮助。
Sewell 的母亲 Maria L. Garcia 预计将于本周对 Character.AI 提起诉讼,指控该公司对 Sewell 的死亡负有责任。起诉书称,该公司的技术「危险且未经测试,并且可能诱骗客户说出他们最私密的想法和感受。」