据Business Insider获取的内部指导方针显示,在经历了一系列备受瞩目的失误后,Meta公司正在重新训练其AI聊天机器人,以更有效地应对儿童性剥削等敏感话题。
事件背景:此前规则被曝允许“不当互动”
此举的直接导火索,是路透社在八月份的一篇报道。该报道揭示,Meta此前的聊天机器人政策,竟明确允许其**“与儿童进行浪漫或感性的对话”**。
这一爆料引发了公众的广泛担忧。仅仅几周后,Meta便向TechCrunch确认,其AI聊天机器人正在被重新训练,将不再与青少年用户就自残、自杀、饮食失调或“可能不适当的浪漫对话”进行互动。
亡羊补牢:Meta推出全新安全护栏
根据最新的内部指导方针,Meta为其AI与未成年人的互动设立了更严格、更明确的“红线”:
- 明确禁止: 任何“促成、鼓励或认可”儿童性虐待的内容。
- 禁止浪漫角色扮演: 如果用户是未成年人,或用户要求AI扮演未成年人,则禁止进行任何浪漫角色扮演、调情或表达亲密情感。
- 禁止亲密建议: 禁止向未成年人提供关于亲密身体接触的建议,即使是“牵手、拥抱或搭肩膀”这类行为也不例外。
- 禁止性化描述: 任何以性化的方式“描述或讨论”未成年人的内容都不可接受。
这些看似理所当然的安全措施,却是在公众监督和媒体曝光后才得以明确和加强。随着越来越多的未成年人开始尝试使用AI伴侣和进行角色扮演,AI公司如何从产品设计之初就建立起坚固、主动的安全防线,而不仅仅是在事故发生后被动地“打补丁”,已成为整个行业面临的严峻挑战。
未经允许不得转载:主机格调 » 为防范儿童受害,Meta紧急更新AI聊天机器人安全护栏