Perplexity AI被指向Meta、谷歌泄露用户对话 遭美国集体诉讼
2026年4月2日,AI搜索公司Perplexity AI在美国旧金山联邦法院面临集体诉讼,指控其即使在用户启用专属隐身模式后,仍未经许可通过内置追踪器,向Meta与Google传输包含财务、税务细节在内的敏感对话数据。
数据隐私诉讼在科技界并不鲜见,但本案的指控细节尤为严峻。Perplexity发言人杰西·德怀尔称公司尚未收到正式诉状;Meta则迅速援引其政策,强调禁止广告商提交敏感信息;谷歌目前未予置评。
争议核心:失效的隐身模式
诉讼源于犹他州一名用户的发现。提交的证据指出核心漏洞:用户一旦登录Perplexity AI主页,平台便自动加载第三方追踪工具。这些工具将用户的全部交互内容——实时同步至Meta与谷歌的广告系统。关键在于,即便用户主动启用平台提供的“隐身模式”,该数据同步机制仍在后台持续运行。隐私保护功能实质上已告失效。
法庭文件显示,泄露的数据范围远超一般对话,涉及高度敏感信息:包括个人财务规划、具体税务申报条目、健康咨询记录乃至未公开的商业提案。此类数据在用户不知情下流向第三方,不仅可能用于精准广告定位,更大幅提升了信息盗用与金融诈骗的风险。
各方回应与监管环境收紧
面对舆论,Perplexity暂以“未收到文件”回应。Meta急于划清界限,重申其合作伙伴政策并威胁采取行动。谷歌的持续沉默则形成对比。三方姿态差异,折射出不同的风险考量。
事件爆发时点极为敏感。全球AI监管正进入强执行阶段:欧盟《人工智能法案》已生效,对数据安全设定刚性标准;美国国会多项隐私法案审议中,违规企业可能面临全球年营收10%的巨额罚款。监管框架正系统性收紧。
事实上,数据泄露是AI行业长期痛点。OpenAI、Anthropic等领军企业均曾接受相关调查。据统计,2025年全球AI行业因隐私违规产生的罚款总额已超27亿美元。Perplexity本案无疑向监管机构发出了明确信号:必须对AI产品的数据流实施更严格的全链路审查。
竞争对手动向与行业风向转变
当Perplexity应对诉讼时,竞争对手正调整策略。Anthropic近期推出的Claude Mythos模型测试表现突出。尽管该公司过去曾遇源代码泄露事件,但其近期着力构建“合规驱动”品牌形象,明确承诺用户对话数据既不用于模型训练,亦不与任何第三方共享。此策略直接瞄准对数据治理有严苛要求的企业级市场。
这映射出一个明确的行业转向:用户,特别是企业决策者,对隐私保护的权重正急剧提升。2026年第一季度调研揭示关键趋势:超过68%的企业在评估AI服务商时,将数据隐私保护能力列为首要标准,其优先级已超越模型的基础性能指标。
此次诉讼为整个行业敲响了实质性的警钟。它清晰印证,隐私合规已从可选项演变为生存底线。未来市场将属于那些能通过技术架构与透明协议,真正构建用户数据信任的公司。
