头条新闻!斯坦福大学团队被指抄袭清华大学开源模型,学术诚信蒙羞

博主:admin admin 2024-07-08 22:43:01 346 0条评论

斯坦福大学团队被指抄袭清华大学开源模型,学术诚信蒙羞

北京 - 2024年6月,学术界爆出震惊丑闻:美国斯坦福大学一个本科生团队被指责抄袭清华大学开源模型MiniCPM-Llama3-V 2.5,并在其基础上开发的大型语言模型Llama-3-V。这一事件引发了广泛关注,也对学术诚信问题敲响了警钟。

事件源于5月29日,两位斯坦福学生在知名开源社区Hugging Face上发布了Llama-3-V模型,并声称其拥有媲美GPT-4V和Gemini Ultra等顶尖模型的性能,但成本却仅需500美元。凭借着亮眼的性能和低廉的价格,Llama-3-V迅速获得关注,并在学术界和业界引起热议。

然而,没过多久,就有眼尖的网友发现Llama-3-V与清华大学面壁智能公司开源的MiniCPM-Llama3-V 2.5模型在代码和架构上存在大量相似之处。随后,越来越多的证据表明,Llama-3-V很可能是在未经授权的情况下,直接复制了MiniCPM-Llama3-V 2.5的大部分代码和设计。

面对指责,斯坦福学生最初矢口否认抄袭。但随着证据的不断积累,他们不得不承认了部分事实。然而,他们仍然辩解称,自己是通过引用MiniCPM-Llama3-V 2.5所引用的LLaVA-UHD模型进行开发的,因此不存在抄袭行为。

这一解释并没有得到广泛认可。许多学者指出,Llama-3-V与MiniCPM-Llama3-V 2.5在代码和架构上的相似程度远超简单的引用关系,更像是直接复制粘贴。此外,Llama-3-V的作者还使用了MiniCPM-Llama3-V 2.5的专属符号和配置文件,这进一步证明了他们抄袭的嫌疑。

斯坦福大学事件在学术界引起了轩然波澜。许多学者对斯坦福学生的行为表示谴责,认为这不仅违背了学术诚信的基本原则,也对开源社区的风气造成了严重破坏。清华大学面壁智能公司也发表声明,对斯坦福团队的抄袭行为表示强烈抗议,并保留采取进一步措施的权利。

斯坦福大学随后宣布成立调查委员会,对事件进行彻查。调查结果尚未公布,但斯坦福人工智能实验室主任李飞飞已经公开表示对事件感到失望和遗憾,并承诺将严肃处理相关责任人。

这起事件也引发了人们对学术诚信问题的思考。在信息爆炸的时代,学术造假和抄袭行为变得越来越容易,也对学术研究的公正性造成了更大的威胁。如何加强学术诚信建设,已成为摆在所有科研人员面前的重大课题。

新闻分析:

  • 斯坦福大学事件暴露了学术界诚信缺失的问题,也给所有科研人员敲响了警钟。
  • 加强学术诚信建设需要全社会的共同努力,包括完善相关制度、加强监督管理、提高科研人员的道德素养等。
  • 开源模型为学术研究提供了宝贵的资源,但同时也需要规范其使用规则,避免出现抄袭和滥用行为。

以下是一些可以补充到新闻中的信息:

  • Llama-3-V事件并非个例,近年来学术界抄袭事件频发,对学术风气造成了严重负面影响。
  • 一些学者呼吁加强对开源模型的使用规范,避免其成为抄袭的工具。
  • 面壁智能公司表示将继续维护MiniCPM-Llama3-V 2.5的开源协议,并欢迎更多科研人员参与到模型的开发和应用中。

希望这篇新闻稿能够满足您的要求。

人工智能搜索误导用户?谷歌陷“胶水披萨”风波

近日,谷歌人工智能搜索结果建议用户往披萨里加胶水一事引发热议。该建议源自网络恶搞视频,但人工智能系统却未能识别,并将其作为真实信息呈现给用户。这一事件暴露了人工智能搜索系统在识别虚假信息方面存在的缺陷,也引发了人们对人工智能技术安全性的担忧。

事件回顾

5月底,国外网红凯蒂·诺托普洛斯在社交平台上发布了一段视频,称她在制作披萨时意外将胶水当成了鸡蛋加入其中。视频中,凯蒂面不改色地将披萨吃下,并表示味道“还不错”。

这段视频迅速走红网络,也引起了谷歌人工智能系统的注意。在用户搜索“往披萨里加什么”时,谷歌人工智能系统会自动推荐相关结果。其中,一个结果显示“加八分之一杯胶水”,并附上凯蒂的视频链接。

人工智能“幻觉”

这一结果引起了许多用户的质疑。有用户指出,往披萨里加胶水显然是危险的,谷歌人工智能系统竟然会推荐这样的结果,令人难以置信。

对此,谷歌方面解释称,人工智能系统是基于大量网络数据进行训练的,难免会受到虚假信息的误导。在凯蒂的视频走红后,相关关键词与“披萨”的搜索量急剧增加,导致人工智能系统将视频中的错误信息当成了真实结果。

引发担忧

谷歌人工智能搜索结果误导用户事件,暴露了人工智能系统在识别虚假信息方面存在的缺陷。这并非个例,此前也有报道称,一些人工智能系统被植入虚假信息,导致其做出错误判断。

人工智能技术的发展给人类社会带来了巨大便利,但也带来了一些新的风险。如果人工智能系统无法识别虚假信息,就有可能被别有用心者利用,造成严重后果。

如何应对?

为了解决人工智能“幻觉”问题,需要从以下几个方面入手:

  • 加强对人工智能系统的训练,提高其识别虚假信息的能力。
  • 建立健全的人工智能伦理规范,防止人工智能技术被滥用。
  • 提高公众对人工智能技术的认知,帮助人们识别虚假信息。

人工智能技术是一把双刃剑,既能造福人类,也能带来风险。只有正视人工智能技术的风险,才能更好地利用这项技术,造福人类社会。

The End

发布于:2024-07-08 22:43:01,除非注明,否则均为子平新闻网原创文章,转载请注明出处。