现在我也不知道这频道发了啥了,各位慢慢吃瓜,将就着看

联系我请去 @abc1763613206

友链儿
@cyberElaina
@rvalue_daily
@billchenla
又一次 ollama 事件复刻吗,不过这可比 ollama 杀伤力高多了.jpg

打开满屏都是 百度智能云/腾讯云/阿里云 和一堆 🇨🇳 旗子,心满意足的关掉(

https://openclaw.allegro.earth/
整笑了,联想有焚诀真教
新装系统去搜VBS怎么关,第一条是联想知识库的,其中一个解决方法:下一个安卓模拟器让他帮你关
https://iknow.lenovo.com.cn/detail/423992
问:我的 APP 怎么才能看起来更智能?
答:把所有的「加载中」都改为「思考中」
今天,阿里巴巴AI的总称和核心品牌统一为千问,千问大模型(Qwen)涵盖基础大模型与专业领域模型,千问APP是我们在C端的旗舰AI应用。统一名称之后,阿里巴巴大模型品牌中文为“千问大模型”,英文为“Qwen”,“通义实验室”为阿里巴巴集团旗下AI机构的组织名称。

https://weibo.com/7983316472/QucA2jFUf
Anthropic 和 OpenAI 在这两天分别发布了报告描述自家平台是如何对抗外国敌对势力和公司对自家平台的滥用的

其中,Anthropic 的报告指出他们通过追踪元数据,成功识别了 DeepSeek,Moonshot AI 和 Minimax 对他家模型的蒸馏,甚至能准确溯源到特定的实验室人员和公司高级员工

OpenAI 的报告则更为详细,不仅指出有中国网络战人员使用 OpenAI 的产品,还详细描述了他们输入的内容和进行的操作,例如对高市早苗进行舆论攻击以及在 Twitter 上攻击“李老师不是你老师”等账号

防止自家的服务被滥用是天经地义的,但是这里有一个问题:

Anthropic 和 OpenAI 不仅看了用户的聊天内容,用聊天内容和元数据对用户做了大数据分析,还把聊天和分析的内容公之于众

换句话说,用户在这些平台上并没有什么隐私——平台可以随意查看和审查你的聊天内容,根据他们的道德和价值观主观评判内容的好坏,并且保留权利随时将你的内容公之于众或者提交给司法机关,而且即使是脱敏了的数据也仍然可以关联到个人,且在此之上谁也说不好他们有没有拿这些数据去做别的事情

我认为这是个大问题,也是一记警钟

而且我并不觉得这只是美国之外的人应该上心的问题;任何类似的平台都可以这么做,且现在你和他们价值观相同,并不代表你们会永远相同,说不定哪天你私聊里的哪个内容就被 AI flag 了抄送党卫军

这不仅突出了数据保护法案的落实问题,打上“境外势力”标签的用户的隐私权就可以被区别对待的问题,还凸显出了本地部署模型的重要性,正好呼应了我之前分享的 blog 里的那句话:

Policy is a promise. Architecture is a guarantee.


这些服务商的隐私协议和 ZDR 里可以说的天花乱坠,但是只有跑在你本地,拔掉网线还能运行的模型输出的数据才是安全的,完全受控于你的

https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

https://openai.com/index/disrupting-malicious-ai-uses/

https://www.reddit.com/r/LocalLLaMA/comments/1rd8cfw/anthropics_recent_distillation_blog_should_make/
Back to Top