DeepSeek遭OpenAI和Anthropic围剿,美国网友都看不下去了(组图)
一觉醒来,OpenAI和Claude母公司都对Deepseek出手了。
据《金融时报》消息,OpenAI表示已经发现证据,证明DeepSeek利用他们的模型进行训练,这涉嫌侵犯知识产权。
具体来说,他们发现了DeepSeek“蒸馏”OpenAI模型的迹象。即用更大模型的输出来提高较小模型的性能,从而以较低成本在特定任务上取得类似结果。
微软也开始调查DeepSeek是否使用了OpenAI的API。
消息一出,最先迎来的是一波嘲讽。
纽约大学教授马库斯率先开喷:
OpenAI:我们需要免费用所有艺术家和作家的作品训练模型,这样我们就可以省下钱去起诉DeepSeek公然偷我们东西啦!
知名技术媒体404 Media创始人及主编Jason也直接在文章里贴脸开大,暗讽OpenAI只许州官放火。
先容我笑一会儿哈哈哈哈哈哈。真是令人难以置信的讽刺啊,OpenAI一直以“未经授权的方式”获取大量数据,也违反了一些组织的条款规定,结果现在他们却在指责自己的做法。
而另一边,Cluade母公司Anthropic的创始人Dario Amodei洋洋洒洒发了一篇长文大谈DeepSeek。
他表示,说DeepSeek构成威胁太夸张了,“也就是我们7~10个月前的水准”,Claude 3.5 Sonnet在许多内部和外部评估中依旧遥遥领先。
不过为了保持领先,我建议我们是不是得设置更多掣肘?
好家伙,为了围剿DeepSeek,竞对OpenAI和Anthropic都罕见联手了。
相比之下,微软的做法就耐人寻味了许多。
就在指控DeepSeek涉嫌侵权之后几个小时后,微软的AI平台接入了DeepSeek的模型。
网友:俗话说,否认是接受的第一步。
AI领域常见技术,但违反OpenAI条款
各方消息汇总来看,微软和OpenAI对DeepSeek的质疑还处于调查中。
根据微软工作人员的说法,DeepSeek可能在去年秋天调用了OpenAI的API,这可能导致数据泄露。
按照OpenAI的服务条款,任何人都可以注册使用OpenAI的API,但是不能使用输出数据训练对OpenAI构成竞争威胁的模型。
OpenAI告诉《金融时报》,他们发现了一些模型蒸馏的证据,他们怀疑这是DeepSeek的所作所为。
目前,OpenAI拒绝进一步置评,也不愿提供证据细节。
那么不妨先来看看,引发争议的模型蒸馏是什么。
它是一种模型压缩技术,用于将一个复杂的、计算开销大的大模型(称为教师模型)的知识“蒸馏”到一个更小、更高效的模型(称为学生模型)。这个过程的核心目标是让学生模型在轻量化的同时,尽量保留教师模型的性能。
在诺奖得主、深度学习之父Hinton的论文《Distilling the Knowledge in a Neural Network》中指出:
蒸馏对于将知识从集成或从大型高度正则化模型转移到较小的蒸馏模型非常有效。
比如Together AI前段时间的工作,就是把Llama 3蒸馏到Mamba,实现推理速度最高提升了1.6倍,性能还更强。
IBM对知识蒸馏的文章中也提到,大多数情况下,最领先的LLM对计算、成本提出太高要求……知识蒸馏已经成为一种重要手段,能将大模型的先进能力移植到更小的(通常是)开源模型中。因此,它已经成为生成式AI普惠化的一个重要工具。
在行业内,一些开源模型的服务条款允许蒸馏。比如Llama,DeepSeek此前也在论文中表示使用了Llama。
而且关键是,DeepSeek R1并非只是简单蒸馏模型,OpenAI首席科学家Mark Chen表示:
DeepSeek独立发现了OpenAI在实现o1过程中所采用的一些核心理念。
同时他也认可了DeepSeek在成本控制上的工作,并提到蒸馏技术的趋势,表示OpenAI也在积极探索模型压缩和优化技术,降低成本。
所以总结一下,模型蒸馏技术在学术界、工业界都非常普遍且被认可,但是违反OpenAI的服务条款。
这河狸吗?不知道。
但问题是,OpenAI自身在合规性上也大有问题。
(众所周知)OpenAI训练模型把互联网上的数据扒了个干净,其中除了免费公开的知识内容外,还包含大量有版权的文章作品。
2023年12月,《纽约时报》以侵犯知识产权为由,将微软和OpenAI一起告上法庭。目前这个官司还没有最终判定结果,OpenAI这一年时间里就自己的行为向法院进行多次解释。
包括但不限于:
1. 使用公开可获得的互联网资料训练AI模型是合理的,这在AI领域内有诸多先例,我们认为这对创作者是公平的,对于创新是必要的。
2. 长期以来,版权著作被非商业性使用(比如训练大模型)是受到合理保护的。
3. 大语言模型的关键是Scaling,这意味着任何单独被盗的内容都不足以支撑训练出一个大语言模型,这正是OpenAI模型为何领先。
也就是说,OpenAI本身都在违规使用《纽约时报》的数据训练闭源、商业化的大模型。现在他们要以违规为由,调查打造系列开源模型的DeepSeek。
再退一步,OpenAI如今的成就也是建立在谷歌的基础上(Transformer架构由谷歌提出),谷歌的成就是站立在更早期的学术研究基础上。
404 Media表示,这其实是人工智能领域发展的基本逻辑。
“DeepSeek模型只在成本上领先”
就在OpenAI挑起矛盾的同时,Anthropic也下场了。
创始人Dario Amodei在个人博客中表达了对DeepSeek的看法。
他表示并没有把DeepSeek看作竞争对手,认为DS最新模型的水平和他们7~10个月前的水平相当,只是成本大幅降低。
(Claude 3.5)Sonnet的训练是在9~12个月前进行的,DeepSeek的模型于11月/12月进行了训练,而Sonnet在许多内部和外部Evals中仍然显着领先。
因此,我认为正确的说法是“DeepSeek生成了一种模型,用较低的成本(但没有宣传的那么低)实现了接近7至10个月以前的Claude的表现”。
同时他还认为,DeepSeek整个公司的成本投入(非单个模型训练成本)和Anthropic的AI实验室差不多。
奥特曼几乎保持了同样的口径。
他承认DeepSeek R1让人印象深刻(尤其是成本),但OpenAI“很明显会带来更好的模型”。
这也是他的常规操作了,之前V3发布时,他就阴阳怪气地说:相对而言,复制确定有用的东西是很容易的。
那么DeepSeek R1的价值究竟几何?
分析师郭明錤最新博客给出参考:
DeepSeek R1的出现,让两个趋势更加值得关注——虽然没有R1这两个趋势也依然存在,但R1加速了它们的发生。
一是在Scaling Law放缓的情况下,AI算力仍可透过优化训练方式持续成长,并有利挖掘新应用。
过去1~2年,投资者对AI服务器供应链的投资逻辑,主要基于AI服务器的出货量在Scaling Law依然有效的情况下可持续增长。
但Scaling law的边际效益开始逐渐递减,市场开始关注以DeepSeek为代表的通过Scaling law以外的方式显著提升模型效益的路径。
第二个趋势是API/Token价格的显著下滑,有利于加速AI应用的多元化。
郭明錤认为,目前从生成式AI趋势中获利的方式,主要还是“卖铲子”和降低成本,而不是创造新业务或提升既有业务的附加值。
而DeepSeek-R1的定价策略,会带动生成式AI的整体使用成本下降,这有助于增加AI算力需求,并且可以降低投资人对AI投资能否获利的疑虑。
不过,使用量的提升程度能否抵消价格降低带来的影响,仍然有待观察。
同时,郭明錤表示,只有大量部署者才会遇到Scaling law边际效益的放缓,因此当边际效益再度加速时,英伟达将依然是赢家。