滥用AI频现负面效应 人与AI该如何协同
滥用AI的负面效应
削弱批判思维
麻省理工学院媒体实验室研究发现,过度依赖ChatGPT可能削弱批判性思维能力。研究人员对使用ChatGPT、谷歌搜索和纯手写完成SAT作文的参与者进行分析,发现使用ChatGPT组大脑活跃度最低,神经、语言及行为表现最差,作文缺乏独立思考,语言和内容高度趋同,缺乏灵魂;而纯手写组展现出最强的大脑连接,谷歌搜索组脑部活动数据也比较高。
代码安全威胁
软件供应链平台Cloudsmith报告显示,AI生成代码在开发者中使用率显著上升,但AI模型可能会抓取开源软件仓库中的抢注包,在未检测情况下运行代码可能形成供应链bug。科技企业对AI编程工具盲目信任,在人力和技术投入上偷懒,最终可能导致逻辑混乱、程序崩溃。
人 - AI协同的其他潜在风险
人 - AI协同还存在决策透明性不足、数据隐私与安全问题、算法偏见、技术依赖风险以及失业与技能转型问题等潜在风险。如许多AI系统工作原理复杂,人类难以理解其决策过程;AI系统训练数据包含个人隐私信息,存在泄露或滥用风险;AI系统可能重复历史数据中的偏见;人类过度依赖AI可能在突发情况时缺乏应对能力;AI广泛应用可能导致部分职业消失。
人与AI协同的策略
正确引导AI辅助学习
虽然使用AI可能阻碍学习,但如果正确引导,AI也能辅助学习。例如在学习中合理利用AI提供的信息,而不是完全依赖其生成的内容,结合自身的思考和探索,发挥AI的辅助作用,提升学习效果。
加强程序员参与编程过程
在编程领域,针对AI生成代码的安全问题,需要程序员在运行代码前进行代码审查、明确架构设计、确保安全左移,避免因对AI编程工具的盲目信任而酿成苦果。
解决人 - AI协同风险的措施
设计可解释的AI模型:开发者应致力于设计可解释的AI模型,使其决策过程透明,便于用户理解,增强用户对AI系统的信任,提高决策质量。
强化数据隐私保护:采用数据加密、匿名化等技术手段,降低数据泄露风险,定期进行安全审计,及时发现并修复系统漏洞,保障数据安全性,尤其是在金融与医疗等敏感行业。
消除算法偏见:对AI系统的训练数据进行严格筛选和处理,避免历史数据中的偏见影响AI决策,确保AI在决策时公平公正。
培养人类应对能力:人类应避免过度依赖AI,提高自身在面对突发情况时的应对能力,保持决策的灵活性和有效性。
促进劳动者技能转型:政府和企业应提供相关培训和教育机会,帮助劳动者进行技能转型,适应AI广泛应用带来的职业结构变化
未来人类在与AI协同中的主导角色发展方向
增强人类能力
AI将成为人类能力的扩展,帮助人们更高效地处理信息、分析数据和做出决策。人类专注于创造性和战略性任务,将重复性和数据密集型工作交给AI,人们需要学会与AI合作,充分利用其优势。
伦理与监管
人类在道德和伦理方面的判断将更加重要,随着AI应用广泛,需确保其使用符合社会价值观和伦理标准,未来人 - AI协同将更关注用户体验和人性化设计。
跨学科合作
人类与AI的协同将促进不同学科之间的合作,例如艺术家和科学家借助AI探索新的创作方式,结合不同领域的知识和技能