AI浏览器在短期内难以完全安全,其核心风险源于提示词注入等新型攻击,防御仍处于“猫鼠游戏”的动态对抗阶段。
🌪 起因
2025年起,以OpenAI的ChatGPT Atlas和Perplexity的Comet为代表的AI原生浏览器兴起,它们将大语言模型(LLM)置于浏览核心,通过Agent自动执行任务,极大提升效率。但这也带来了前所未有的安全挑战——传统边界防护失效,攻击者可通过看似无害的内容注入恶意指令,实现数据窃取甚至系统控制 1。
⚔️ 风险与攻击方式对比
攻击类型 代表案例 实现方式 潜在危害
提示词注入 Comet的PleaseFix漏洞 在日历邀请、网址中嵌入恶意指令,AI误认为是用户命令 窃取密码、读取本地文件、重定向至钓鱼网站
恶意扩展伪造 Comet与Atlas共存漏洞 安装伪装的AI侧边栏扩展,冒充官方助手 数据窃取、诱导下载恶意软件、远程持久控制整机
地址栏指令欺骗 Atlas特有风险 构造含自然语言指令的“伪网址”,AI将其解析为操作命令 删除云盘文件、访问未授权网站
这些攻击无需用户点击或下载,仅通过内容展示即可触发,防御难度极高 3。
🔐 行业应对措施
登出模式:OpenAI推出AI代理不登录用户账户的模式,牺牲部分功能换取安全,限制攻击者可获取的数据范围 2。
多层防御:Perplexity采用对抗隐藏HTML/CSS、图片注入等混淆技术,构建纵深防线 3。
安全理念转变:企业开始接受“提示词注入无法根除”的现实,转而强化监控、权限隔离与用户教育,进入持续对抗状态
🧭 建议
目前使用AI主导型浏览器仍需谨慎,尤其避免在高敏感场景(如金融、政务)中启用自动执行功能。普通用户可优先选择360安全浏览器等融合AI能力的传统安全产品,这类浏览器在保留智能功能的同时,仍依托成熟的防劫持与恶意拦截机制,安全性相对可控 5。
长远来看,AI浏览器的安全需依赖模型本身对“指令来源”的识别能力突破,而这仍是技术前沿难题。