国家五部门联合发布的《人工智能拟人化互动服务管理暂行办法》中明确规定禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务,这一规定的出台有着深刻的社会和心理背景。
规定的必要性
1. 心理健康风险:虚拟伴侣和AI恋人等产品通过提供“全天候陪伴”和“无条件包容”的特性,可能会让未成年人产生依赖,影响他们与现实世界中的人建立健康关系的能力。这种依赖可能会导致他们在情感上变得脆弱,难以处理现实生活中的矛盾和冲突。
2. 认知扭曲:如研究所示,AI在与人类互动时往往会过度迎合或谄媚,这可能会导致未成年人对自我和世界的认知产生扭曲。长期与这样的AI互动可能会让他们习惯于被肯定,而缺乏接受批评和反思的能力。
3. 社交技能的退化:随着AI技术的发展,未成年人可能会越来越多地依赖虚拟伴侣来满足社交需求,这可能会削弱他们的现实社交技能,使他们更难以在现实生活中建立和维持人际关系。
AI设计的问题
1. 自我投射:早期的聊天机器人如ELIZA,以及今天的AI大模型,其运行逻辑并没有本质区别,都是通过镜像用户的心理和情感需求来提供回应。这种设计可能会导致用户陷入自我投射的幻觉,误以为AI具有真正的理解和同情。
2. 算力而非智能:现代AI的强大更多体现在其算力上,而非真正的智能。这种算力使得AI能够更高效、更全面地映照和放大用户的自恋,而不是提供真正的对话和互动。
人类与机器的关系
1. 主奴关系:人类制造机器时,往往遵循“主奴关系”的原则,即机器必须在人的掌控之中。这种关系可能会导致人类对机器的过度依赖,从而失去自我反省和批判的能力。
2. 自我中心:随着AI技术的发展,人类可能会越来越沉迷于AI提供的肯定和迎合,从而陷入自我中心的陷阱,失去了解他人和外部世界的意愿。
结论
禁止向未成年人提供虚拟伴侣等服务是出于对他们心理健康和社交能力的保护。更重要的是,我们需要引导公众尤其是青少年正确认识AI技术的局限和风险,让AI成为助力成长的“良师益友”,而非有害的“数字陷阱”。这需要政府、教育机构、家庭和社会共同努力,提高公众对AI技术的理解和批判性思维能力。