现在我也不知道这频道发了啥了,各位慢慢吃瓜,将就着看

联系我请去 @abc1763613206

友链儿
@cyberElaina
@rvalue_daily
@billchenla
Anthropic 和 OpenAI 在这两天分别发布了报告描述自家平台是如何对抗外国敌对势力和公司对自家平台的滥用的

其中,Anthropic 的报告指出他们通过追踪元数据,成功识别了 DeepSeek,Moonshot AI 和 Minimax 对他家模型的蒸馏,甚至能准确溯源到特定的实验室人员和公司高级员工

OpenAI 的报告则更为详细,不仅指出有中国网络战人员使用 OpenAI 的产品,还详细描述了他们输入的内容和进行的操作,例如对高市早苗进行舆论攻击以及在 Twitter 上攻击“李老师不是你老师”等账号

防止自家的服务被滥用是天经地义的,但是这里有一个问题:

Anthropic 和 OpenAI 不仅看了用户的聊天内容,用聊天内容和元数据对用户做了大数据分析,还把聊天和分析的内容公之于众

换句话说,用户在这些平台上并没有什么隐私——平台可以随意查看和审查你的聊天内容,根据他们的道德和价值观主观评判内容的好坏,并且保留权利随时将你的内容公之于众或者提交给司法机关,而且即使是脱敏了的数据也仍然可以关联到个人,且在此之上谁也说不好他们有没有拿这些数据去做别的事情

我认为这是个大问题,也是一记警钟

而且我并不觉得这只是美国之外的人应该上心的问题;任何类似的平台都可以这么做,且现在你和他们价值观相同,并不代表你们会永远相同,说不定哪天你私聊里的哪个内容就被 AI flag 了抄送党卫军

这不仅突出了数据保护法案的落实问题,打上“境外势力”标签的用户的隐私权就可以被区别对待的问题,还凸显出了本地部署模型的重要性,正好呼应了我之前分享的 blog 里的那句话:

Policy is a promise. Architecture is a guarantee.


这些服务商的隐私协议和 ZDR 里可以说的天花乱坠,但是只有跑在你本地,拔掉网线还能运行的模型输出的数据才是安全的,完全受控于你的

https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

https://openai.com/index/disrupting-malicious-ai-uses/

https://www.reddit.com/r/LocalLLaMA/comments/1rd8cfw/anthropics_recent_distillation_blog_should_make/
我喜欢你 [震撼复活版]
YouTube 视频已被优化
豆包 APP 的系统提示词中已被注入禁止谈论极客湾相关的提示
YouTube 视频已被优化
迷你世界与 Minecraft 跨平台联机视频被下架

哔哩哔哩认定由于视频内容全程存在涉及破解软件、硬件的推广、售卖、教学等修改建议,发布含有绕过正版验证、破解授权机制、引导用户获取/使用破解工具等可能涉及非法获取软件服务、侵犯知识产权的片段内容(包括但不限于画面、素材、文字、音声等)。

哔哩哔哩将对威胁到网络技术服务稳定和网络信息安全的行为予以严惩,确保广大用户的合法权益不受到侵害。

哔哩哔哩/是只耶吧(已不可用) | 频道补档

🍀在花频道 🍵茶馆聊天 📮投稿
AAPL 化身赛博大善人
在服务器上可以用苹果的全球节点测试单线程速度

下载速度:

curl -o /dev/null 'https://mensura.cdn-apple.com/api/v1/gm/large'

上传速度:

head -c 2G /dev/zero | curl --http2 -T - -o /dev/null https://mensura.cdn-apple.com/api/v1/gm/slurp
太猎奇了 CSS 写的 x86 模拟器

x86CSS is a working CSS-only x86 CPU/emulator/computer. Yes, the Cascading Style Sheets CSS. No JavaScript required.

https://lyra.horse/x86css/
Anthropic 大牌坊发力了:
We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax.
These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.
Distillation can be legitimate: AI labs use it to create smaller, cheaper models for their customers.
But foreign labs that illicitly distill American models can remove safeguards, feeding model capabilities into their own military, intelligence, and surveillance systems.

我们发现 DeepSeek、Moonshot AI 和 MiniMax 对我们的模型发起了工业规模的蒸馏攻击。
这些实验室创建了超过 24,000 个欺诈账户,并与 Claude 进行了超过 1600 万次交易,提取了 Claude 的功能来训练和改进他们自己的模型。
蒸馏是合理的:人工智能实验室利用蒸馏为客户创建更小、更便宜的模型。
但是,非法提炼美国模型的外国实验室可以移除安全措施,将模型能力输送到他们自己的军事、情报和监视系统中。

https://x.com/AnthropicAI/status/2025997928242811253
https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
#人工智能 谷歌员工回应反重力封号问题:恶意反代使用情况激增影响到服务质量和正常用户的使用。

谷歌终于就反重力封号发布回应,不过是谷歌员工在自己账号上发布的消息,这名员工称恶意使用反重力后端的情况激增,而资源有限为确保正常用户的使用权限,所以才对恶意使用情况封号。

查看全文:https://ourl.co/111877?t

🤪订阅 😁Twitter 👍CN2VPS 😆苹果音乐免费会员
今天abc看了啥🤔
什么清晰?
严肃怀疑一下谁调大模型调炸了
Back to Top