Anthropic 和 OpenAI 在这两天分别发布了报告描述自家平台是如何对抗外国敌对势力和公司对自家平台的滥用的

其中,Anthropic 的报告指出他们通过追踪元数据,成功识别了 DeepSeek,Moonshot AI 和 Minimax 对他家模型的蒸馏,甚至能准确溯源到特定的实验室人员和公司高级员工

OpenAI 的报告则更为详细,不仅指出有中国网络战人员使用 OpenAI 的产品,还详细描述了他们输入的内容和进行的操作,例如对高市早苗进行舆论攻击以及在 Twitter 上攻击“李老师不是你老师”等账号

防止自家的服务被滥用是天经地义的,但是这里有一个问题:

Anthropic 和 OpenAI 不仅看了用户的聊天内容,用聊天内容和元数据对用户做了大数据分析,还把聊天和分析的内容公之于众

换句话说,用户在这些平台上并没有什么隐私——平台可以随意查看和审查你的聊天内容,根据他们的道德和价值观主观评判内容的好坏,并且保留权利随时将你的内容公之于众或者提交给司法机关,而且即使是脱敏了的数据也仍然可以关联到个人,且在此之上谁也说不好他们有没有拿这些数据去做别的事情

我认为这是个大问题,也是一记警钟

而且我并不觉得这只是美国之外的人应该上心的问题;任何类似的平台都可以这么做,且现在你和他们价值观相同,并不代表你们会永远相同,说不定哪天你私聊里的哪个内容就被 AI flag 了抄送党卫军

这不仅突出了数据保护法案的落实问题,打上“境外势力”标签的用户的隐私权就可以被区别对待的问题,还凸显出了本地部署模型的重要性,正好呼应了我之前分享的 blog 里的那句话:

Policy is a promise. Architecture is a guarantee.


这些服务商的隐私协议和 ZDR 里可以说的天花乱坠,但是只有跑在你本地,拔掉网线还能运行的模型输出的数据才是安全的,完全受控于你的

https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

https://openai.com/index/disrupting-malicious-ai-uses/

https://www.reddit.com/r/LocalLLaMA/comments/1rd8cfw/anthropics_recent_distillation_blog_should_make/
 
 
Back to Top