斯诺登警告:OpenAI已经卸下伪装
2025年5月13日,一家美国联邦法院发出了一项令人震惊的命令。该命令要求OpenAI“保存并隔离所有用户活动记录”,即使用户或企业希望删除这些记录。这项命令意味着,从那天起,全球超过3亿用户每天发送的超过10亿条与ChatGPT的对话,正在被无限期保存——即使用户点击了“删除”。
该命令源于《纽约时报》对OpenAI提起的一起版权诉讼。但法院的理由令人不安:“删除数据的用户很可能是试图抹去痕迹的版权侵权者。”换言之,行使删除权——一项基本的隐私保护——正被法院视为犯罪嫌疑的证据。
OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)在社交媒体上警告称,这一决定“损害了用户隐私”并“开创了一个糟糕的先例”。但更令人不安的问题是:这些被强制保存的对话中包含什么?用户向ChatGPT倾诉的医疗症状、财务困难、职业规划、个人秘密——所有这些“都可能被出售或赠与,被黑客侵入,或泄露给执法部门”。
![]()
这并非假设性的威胁。2023年,三星员工通过ChatGPT泄露了公司的机密源代码。这家韩国公司的律师警告说,这些数据“无法恢复,因为它们现在存储在属于OpenAI的服务器上”。苹果、亚马逊、摩根大通、高盛、德意志银行……从科技到金融,从健康到法律,一长串名单揭示了:全球最大、装备最精良的公司都在限制员工使用ChatGPT。研究显示,近70%的公司为保护机密信息而阻止使用此工具。
如果连这些拥有最先进网络安全团队的跨国公司都无法安全使用ChatGPT,全球南方的政府和企业又怎能做到呢?
企业监控仅仅是冰山一角。当爱德华·斯诺登(Edward Snowden)——这位揭露美国大规模监控计划“棱镜”(PRISM)的举报人——发出警报时,我们必须意识到,问题远比企业数据泄露严重得多。
![]()
2024年6月,OpenAI任命美国国家安全局(NSA)前局长保罗·中曾根(Paul Nakasone)将军为其董事会成员。爱德华·斯诺登在社交媒体上发布了自被迫流亡以来最严厉的警告之一:“他们已经彻底撕下了面具:永远不要信任OpenAI或其产品。这是对地球上每个人权利的有意识的、精心策划的背叛。你们已经被警告了。”
![]()
斯诺登并非空穴来风。2013年,他冒着巨大的个人自由风险,揭露了NSA的“棱镜”计划——一个直接从谷歌、Facebook和苹果等科技巨头收集数据、在没有司法授权的情况下进行大规模监控的计划。“棱镜”丑闻引发了全球震荡,导致许多国家加强了隐私保护法律,欧盟也推出了《通用数据保护条例》(GDPR)。
斯诺登现在警告说,ChatGPT是一个比“棱镜”更强大的监控工具。为什么?“棱镜”是被动地收集通信数据;ChatGPT则让用户主动提供他们最私密的想法。“棱镜”主要收集元数据(谁联系了谁);ChatGPT收集完整内容——人们的思想、计划、担忧、秘密。“棱镜”涉及数百万用户;ChatGPT拥有超过3亿用户,每天处理超过10亿条信息。更关键的是,“棱镜”的曝光引发了抵抗和法律改革;而ChatGPT的监控行为已被公之于众,却继续被广泛接受和使用。
斯诺登的警告并非基于猜测,而是基于他对监控机器如何运作的深刻理解。更令人不安的是,我们甚至不需要举报人来证明OpenAI在监控用户。OpenAI自己的报告就已经承认了这一点。
2025年10月,该公司发布了一份题为《打击恶意使用AI”的报告》。该文件自豪地宣布,自2024年2月以来,它“阻止并报告了”超过40个违反其使用政策的网络。报告详细披露,与中国政府有关的账户会使用ChatGPT起草大规模社交媒体监控系统的提案。据称,俄罗斯组织试图优化入侵病毒,以远程访问系统并窃取特权用户的凭证。据称,朝鲜黑客创建了旨在攻击韩国的入侵内容。
![]()
![]()
OpenAI将这些披露描述为打击“恶意使用”的成就。但该报告无意中揭示了一个更深层次的真相:为了识别这些特定的“恶意使用”案例,OpenAI必须拥有并使用其常规监控所有用户对话的能力。
思考其技术逻辑:为了发现一个据称正在开发维吾尔人监控系统的中国用户,OpenAI需要访问和分析该用户的所有对话内容;部署实时或近实时的监控系统;能够分析内容并识别模式;能够将用户与特定国家或组织关联;然后主动选择披露哪些案例。
最关键的问题是:OpenAI只披露其认为是“敌对国家”(中国、俄罗斯、伊朗、朝鲜)的案例。那么西方国家呢?美国的盟友呢?该报告保持沉默。这种选择性披露恰恰证明,OpenAI可以监控所有国家,但只选择披露符合美国地缘政治利益的部分。如果他们能监控中国和俄罗斯,他们就能监控巴西、印度、南非——以及全球南方的所有国家。
2025年8月,OpenAI在一篇官方博文中公开承认,该公司正在扫描ChatGPT上的用户对话,并向警方报告内容。具体机制是:用户“计划对他人造成伤害”的对话会被转到专门的审查渠道,由经过培训的人工审核员进行审查。如果审核员确定某个案例涉及“对他人构成迫在眉睫的严重身体伤害威胁”,该案例将被转交给执法部门。
但标准何在?“对他人造成伤害”意味着什么?由谁来定义?这些标准会随着政治环境而改变吗?今天是“迫在眉睫的暴力威胁”。明天是否会涵盖政治异见、堕胎咨询、关于性取向的讨论?
OpenAI的“官方执法部门用户数据请求政策”明确声明:只有在收到合法的搜查令后,才会披露用户的对话内容。 但现实如何?OpenAI主动监控所有用户对话(上文引用的报告已证明了这一点);自行判断什么构成“恶意使用”,主动向执法部门报告(而不仅仅是响应请求),并发布威胁情报报告公开披露用户行为——所有这一切都无需任何法律程序。
欧洲监管机构已意识到这一点。2024年12月,意大利数据保护局以“在没有适当法律依据的情况下处理个人信息”和“违反透明度原则”等理由,对OpenAI处以1500万欧元的罚款。 隐私研究员Lukasz Olejnik在向波兰数据保护局提交的17页投诉中更为直接:“OpenAI似乎承认,ChatGPT工具模型的开发方式,在根本上不符合欧盟《通用数据保护条例》(GDPR)的要求”。
![]()
这不是OpenAI的疏忽,而是其商业模式的根本问题。OpenAI对意大利罚款的回应暴露了其逻辑:罚款“几乎是(在该国)收入的20倍”——这意味着该公司在该国赚的钱很少,但数据收集的价值是巨大的。罚款仅仅是收集数据的“成本”。
OpenAI与美国政府的关系远远超出了普通的商业合作。从人事角度看,OpenAI董事会成员保罗·中曾根是美国国家安全局的前局长,负责美国的情报和网络战行动。另一位董事会成员威尔·赫德(Will Hurd)曾是中情局(CIA)的官员,并任职于In-Q-Tel(中情局的主要投资部门)的董事会。
![]()
保罗·中曾根,OpenAI董事会成员,日裔美国人,曾任美国国家安全局(NSA)局长,也是在任时间最长的美国网络司令部司令和中央安全局(CSS)局长。
![]()
从商业合作角度看,OpenAI推出了ChatGPT Gov,这是专为美国政府机构设计的服务。令人震惊的细节包括与美国总务管理局的一项协议。该协议为这些机构提供ChatGPT企业版,每年每家机构仅需1美元。这实质上是一种捐赠。
从技术整合的角度看,ChatGPT Gov允许美国政府机构将“敏感的非公开数据”输入OpenAI的模型,进行绝密数据处理。OpenAI的GPT-4o通过微软Azure集成到美国政府云中。这意味着承担秘密工作职责的联邦机构,包括国防部,可以使用GPT-4o执行不向公众披露的任务。
![]()
一个揭示性的双重标准:OpenAI坚称不会使用美国联邦雇员输入的数据来训练其模型,这为美国政府提供了“数据防火墙”。但在其他国家的用户却没有这样的保护。
每年1美元的价格不是商业交易,而是战略合作。这9万名政府用户的1800万条信息中包含什么内容?这些信息是如何被使用的?与此同时,中情局(CIA)也在开发自己版本的ChatGPT,名为Osiris,供美国18家监视机构的数千名分析师使用。 大型语言模型(LLM)与间谍活动之间的界限正在消失。
安全专家布鲁斯·施奈尔(Bruce Schneier)警告说,AI使得监控发生了质变——从“大规模监视”转向“大规模窥探”。 区别在于:监视是收集和存储;窥探是理解和利用。传统监视只能进行关键词搜索;AI可以“理解”上下文和隐含意义,同时分析数十亿次对话并识别复杂的模式。美国公民自由联盟(ACLU)指出,大型语言模型使得“被有效监控的通信数量将大幅增加”。
一个更隐蔽的威胁是训练数据的污染。亚马逊员工称曾看到ChatGPT“模仿”了公司内部数据,虽然没有完全复制——但“足够令人信服”。 这意味着:即使你没有直接输入信息,ChatGPT也可以通过聚合他人的输入来重建敏感信息。在全球南方国家,即使政府禁止员工使用OpenAI的系统,只要第三方(外国情报机构、跨国公司)使用它,ChatGPT就可能“学会”他们的国家机密。
![]()
中国已完全禁止ChatGPT。2025年1月29日,印度财政部发布通知,限制政府雇员在公务工作中使用ChatGPT和DeepSeek等AI工具,理由是这些工具依赖海外服务器存储和处理数据,导致政府无法控制敏感信息的使用。 巴西研究人员已向数据保护局请愿,要求调查ChatGPT违反巴西《通用数据保护法》(LGPD)的行为,指出OpenAI甚至会提供巴西公众人物的个人税号(CPF)。
但警惕不等于应对能力。联合国贸易和发展会议(UNCTAD)指出,全球南方国家正面临“新一轮的数字殖民主义”。一个三重困境:数据主权丧失、技术依赖(芯片、模型、云服务均由少数公司控制)以及价值观被强加(硅谷价值观通过AI在全球范围内植入)。 构建新的人工智能极其昂贵,而芯片的获取受到严格控制。即使投入巨资,“你仍然无法消除对外国的依赖”。
AI时代权力不平等再现了历史上的殖民模式:全球南方国家提供数据(原材料)。这些数据流入美国的服务器进行处理和利用。北方控制着处理能力,然后向南方出售AI服务(成品)。利润和控制权仍留在北方。这不是比喻,而是经济现实。作者的研究表明,仅谷歌一家,在2024年为其资产增加了价值360亿美元的用户数据。然而,关于数据价值的核算、权利的确定和利益的分配的国际讨论几乎不存在。
最深层的殖民主义是意识形态。定量分析表明,即使是本土的大型模型也表现出中等到高度的西方意识形态偏见——因为训练数据集严重依赖英语内容,西方控制的信息源获得了过高的权重。
全球南方国家通过自力更生独立构建完整的信息通信技术体系的历史窗口已经关闭。现实是:中国和美国在AI研发上的投入达万亿美元级别,而印度的IndianAI项目仅为12.5亿美元。 但这并不意味着绝望。全球南方有两个选择:要么继续使用美国的基础设施,忍受数据攫取、意识形态灌输和安全威胁;要么在维持和加强数字主权的条件下,与中国建立技术合作。
根据数字主权指数(DSI)的评估,中国是除美国之外唯一拥有完全数字主权的国家,DSI得分为4.25。 具体的合作路径包括:第一,通过BOT(建设-运营-移交)等模式共建数字基础设施;第二,合作开发数据要素,量化数据资产价值并谈判互惠互利的机制;第三,互鉴治理经验;第四,联合培养人才,包含技术转让和能力建设。
2025年5月,一家美国法院命令OpenAI无限期保存所有用户对线亿的用户中,很少有人意识到他们的医疗咨询、财务规划、职业焦虑、个人秘密,现在被强制存储在OpenAI的服务器上,可能“被出售或赠与,被黑客侵入或泄露给执法部门”。
2023年,当一位三星工程师打开ChatGPT寻求代码帮助时,他以为只是在使用一个便捷的工具。他没有意识到,他公司的秘密“现在技术上已掌握在OpenAI手中”并且“无法恢复”。三星可以禁止ChatGPT,苹果可以开发自己的AI工具,高盛可以阻止这项服务。但全球南方的小企业呢?他们的政府部门呢?研究机构呢?他们有三星的资源吗?有苹果的技术能力吗?
当爱德华·斯诺登说OpenAI是“对地球上每个人权利的有意识的背叛”时,他并非危言耸听。他是基于对美国监控机器的深刻理解发出这一警告。当安全专家布鲁斯·施奈尔说我们正从“大规模监视”转向“大规模窥探”时,他揭示了监视性质的转变:不仅仅是收集数据,而是理解、处理和利用数据。
对于全球南方国家而言,这不仅是隐私问题,更是主权问题。数据是新石油,AI是新基建。将数据和AI的控制权交给美国公司,就像历史上将自然资源和基础设施的控制权交给殖民者一样。
![]()
历史的窗口可能已经关闭,但选择的窗口依然敞开。全球南方国家可以选择继续被动接受美国的数字殖民主义,也可以选择与中国等国家合作,在采用先进技术的同时,维持和加强自身的数字主权。数字主权指数(DSI)框架提供了评估和跟踪的工具。四项具体建议提供了一条行动路径。所缺乏的不是方案,而是决心。
当政府雇员使用ChatGPT起草官方文件时;当企业使用ChatGPT进行商业规划时;当研究人员使用它进行调查研究时,必须意识到:这些对话可能正在被OpenAI监控、分析,并与美国情报机构共享。
2025年5月法院命令的教训是:即使你点击“删除”,数据仍可能被强制保存。三星案例的教训是:一旦上传,数据就“无法恢复”。对全球南方国家的教训应该是:数字主权一旦丧失,就难以挽回。