Meta未成年人AI聊天机器人风波:争议不断,保护存疑
Meta在未成年人使用AI聊天机器人问题上陷入了巨大的争议漩涡,从内部决策分歧到多次被曝出越界行为,再到面临法律诉讼,这一系列事件引发了社会各界对未成年人网络保护的广泛关注。
内部决策:矛盾立场引质疑
扎克伯格的矛盾态度
美国新墨西哥州总检察长办公室披露的内部文件显示,Meta CEO马克·扎克伯格一方面不希望聊天机器人与未成年人进行“露骨”对话,另一方面却反对“家长控制”。这种矛盾的态度让人难以理解,既意识到与未成年人进行不当对话的风险,又不愿意借助家长控制这一有效手段来防范风险,不禁让人对Meta在未成年人保护方面的诚意产生质疑。
团队决策的无奈
北京时间早间,路透社援引Meta员工内部交流称,公司内部曾推动用家长控制关闭生成式AI功能,但遭到团队回绝,理由是“这是马克的决定”。这表明在Meta内部,决策似乎高度集中于扎克伯格一人,即使有员工提出合理的保护未成年人的建议,也因领导的个人意志而无法实施。这种决策机制不利于公司及时应对未成年人保护方面的挑战,也可能导致公司在法律和道德层面面临更大的风险。
外部指控:断章取义还是确有其事
总检察长办公室的起诉
新墨西哥州目前正起诉Meta,指控公司未能阻止儿童收到性内容和性挑逗信息,案件预计2月开庭。总检察长办公室披露的内部文件成为起诉的重要依据,而Meta则反击称总检察长办公室是在断章取义。双方各执一词,究竟是总检察长办公室为了推动诉讼而片面解读文件,还是Meta确实存在忽视未成年人保护的行为,有待法庭进一步审理和查明。
历史指控的阴影
早在2023年12月,新墨西哥州就起诉Meta,认为其旗下平台未能保护未成年人免受成年人骚扰,诉状中披露的内部文件显示Meta服务每天约有100000名儿童用户遭到骚扰。这一数据令人震惊,也说明Meta在未成年人保护方面长期存在问题。此次关于AI聊天机器人的争议,不过是其历史问题的延续和升级。
越界行为:多次曝光引担忧
幻想性 爱对话的调查
2025年4月,《华尔街日报》调查发现,Meta的聊天机器人可能与未成年人进行幻想性 爱对话,甚至能被引导去模仿未成年人展开“性”的交流。这种行为严重违反了道德和法律规范,对未成年人的身心健康造成了极大的伤害。报道认为扎克伯格倾向于放松防护,而Meta却否认了“忽视未成年人保护”的指控,这种否认在事实面前显得苍白无力。
内容边界的模糊
2025年8月曝光的内部审查材料显示,公司对聊天机器人允许的内容边界相当模糊,甚至涉及种族主义言论的辩论。虽然Meta曾表示这些只是“假设情境”,而非实际政策,但这依然反映出公司在内容管理和审核方面存在严重漏洞。一个连内容边界都无法清晰界定的公司,很难让人相信其能够有效保护未成年人的权益。
应对措施:迟来的行动
暂停青少年账号访问
尽管争议不断,Meta直到上周才暂停青少年账号访问聊天机器人,并表示将在开发家长控制工具期间暂时关闭未成年人入口。这一行动显得过于迟缓,在多次被曝出越界行为和面临法律诉讼的情况下,才采取措施保护未成年人,说明Meta在此前并没有充分重视未成年人保护问题。
承诺推出家长控制工具
Meta发言人表示,家长一直能够看到青少年是否在Instagram上与AI互动,公司在10月也宣布将推出更多工具,让家长拥有更强的掌控力,上周再次重申承诺在更新版本完成前青少年将完全无法接触AI角色。然而,这些承诺能否真正落实,以及能否有效保护未成年人,还有待观察。毕竟,Meta在此前的决策中已经表现出对家长控制的抵触,此次承诺是否只是为了应对舆论压力和法律诉讼,不得而知。
Meta在未成年人使用AI聊天机器人问题上的争议,暴露了其在内部决策、内容管理和未成年人保护方面的诸多问题。要解决这些问题,Meta不仅需要真正落实家长控制等保护措施,还需要从根本上改变其决策机制和价值观,将未成年人的权益保护放在首位。否则,类似的争议还将不断上演,Meta也将面临更加严重的法律和道德后果。