据金荣教育小编了解到,关于斯坦福团队就抄袭清华系大模型道歉的最新热点内容如下:
近日,斯坦福大学AI团队主导的 Llama3-V 开源模型被证实套壳抄袭国内清华与面壁智能的开源模型“小钢炮”MiniCPM-Llama3-V 2.5一事,在网络上引发热议。
据第一财经报道,在最新的进展中,斯坦福Llama3-V团队的两位作者Siddharth Sharma(森德哈斯·沙玛)和 Aksh Garg(阿克沙·加格)在社交平台上就这一学术不端行为向面壁MiniCPM团队正式道歉,并表示会将Llama3-V模型悉数撤下。
Aksh Garg(阿克沙·加格)表示,“首先,我们要向MiniCPM原作者道歉。我、Siddharth Sharma,以及Mustafa(穆斯塔法)一起发布了Llama3-V,Mustafa为这个项目编写了代码,但从昨天起就无法联系他。我与Siddharth Sharma主要负责帮助Mustafa进行模型推广。我们俩查看了最新的论文,以验证这项工作的新颖性,但并未被告知或意识到OpenBMB(清华团队支持发起的大规模预训练语言模型库与相关工具)之前的任何工作。我们向作者道歉,并对自己没有努力验证这项工作的原创性感到失望。我们对所发生的事情承担全部责任,并已撤下Llama3-V,再次致歉。”
Christopher David Manning发文谴责
另外,斯坦福人工智能实验室主任Christopher David Manning也发文谴责这一抄袭行为,并对MiniCPM这一中国开源模型表示赞扬。
Manning写道,“怎能不为自己的错误买单!清华大学自然语言处理实验室做出了很棒的开源工作,有力推动科学发展。”
Manning还痛斥道:“所谓‘真正做到之前,假装你做到了’是硅谷的无耻产物。”Manning引用的这句流行语“Fake it before you make it”,一度盛行于硅谷的初创圈和科技公司,被不少创业者奉为圭臬。
此次事件起源于5月29日,一个斯坦福AI团队在网络上宣传只需500美元就可训练出一个超越GPT-4V的SOTA多模态大模型。随后,网友发现,该团队的Llama3-V模型使用的模型结构和代码与面壁智能不久前发布的MiniCPM-Llama3-V2.5极为相似,仅修改了部分变量名。Llama3-V也具有与MiniCPM-Llama3-V 2.5相同的分词器,包括后者新定义的特殊符号。
6月2日深夜,面壁智能团队证实,斯坦福大模型项目Llama3-V与MiniCPM一样,可以识别出“清华简”战国古文字,“不仅对得一模一样、连错得都一模一样”。这一古文字数据为研究团队花费数月从清华简上逐字扫描并人工标注得来,并未对外公开,证实抄袭事实。
面壁智能CEO李大海表示,“我们对这件事深表遗憾。一方面感慨这也是一种受到国际团队认可的方式,另一方面呼吁大家共建开放、合作、有信任的社区环境。”“我们希望团队的好工作被更多人关注与认可,但不是以这种方式。”
面壁智能首席科学家、清华大学长聘副教授刘知远表示,人工智能的飞速发展离不开全球算法、数据与模型的开源共享,让人们始终可以站在SOTA的肩上持续前进。面壁开源的MiniCPM-Llama3-V 2.5 就用了最新的Llama3作为语言模型基座。而开源共享的基石是对开源协议的遵守,对其他贡献者的信任,对前人成果的尊重和致敬,Llama3-V团队无疑严重破坏了这一点。他们在受到质疑后已在Huggingface删库,该团队三人中的两位也只是斯坦福大学本科生,未来还有很长的路,如果知错能改,善莫大焉。
北京面壁智能科技有限责任公司成立于2022年8月,今年4月,面壁智能完成新一轮数亿元融资,由华为哈勃领投,春华创投、北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投支持。今年2月,面壁智能发布开源模型MiniCPM后,又推出MiniCPM 2系列端侧模型。李大海表示,推动大模型在端侧的落地是面壁目前的重点工作之一。
(综合第一财经、社交媒体、此前报道等)
本文系观察者网独家稿件,未经授权,不得转载。
本科普知识由金荣教育发布,版权来源于原作者,不代表金荣教育立场和观点,如有标注错误或侵犯利益请联系我们。