周五. 5 月 3rd, 2024

白交 发自 凹非寺

量子位 | 公众号 QbitAI

尴尬了,物理论文把ChatGPT按钮也复制了进去。

结果不仅通过了两个月同行评审,甚至最终在杂志上公开发表。

而发现这一现象的正是知名打假人法国图卢兹大学副教授Guillaume Cabanac,曾入选Nature年度十大人物。

Nature最新报道称,这并非个例,甚至只是「冰山一角」。

要说在论文里出现「Regenerate response」还算比较隐晦,还有更离谱更明显的。

比如,直接将「作为人工智能语言模型,我……」复制进去。

嗯…就是说想用就用吧,但用得有点过于随意和不认真了,写个论文咋就跟学生写作业似的。

只是冰山一角

几天前,Physica Scripta杂志发表了一篇论文,旨在发现复杂数学方程的新解。

结果没想到的是,在论文第三页出现了类似ChatGPT按钮上短语「Regenerate Response」。

出版商的同行评审和诚信负责人表示,作者后来向期刊证实,他们使用ChatGPT来帮助起草手稿。

而在此之前,论文5月提交、修改版又于7月提交以及后续的排版均未发现这样的异常情况。

目前出版商已经决定撤回这一论文,理由是作者提交时没有声明他们使用该工具,这一行为违反了他们的道德政策。

事实上,这并非唯一案例。自pubpeer不完全统计,4个月以来就有十几篇含有「Regenerate Response」或「As an AI language model, I …」的文章。

以「As an AI language model, I …」为例,搜索就有8个结果,最新一次是在三天前发现的。

对此这也给同行评审员带来更严峻的考验,一来他们通常没有时间去彻底检查;二来看门人的数量跟不上。

不过也有一些特定的方法,比如ChatGPT在内的大模型会擅长吐出虚假文献、

Retraction Watch就曾爆出一篇由AI撰写的千足虫预印本,因为含有虚假引用而被撤回,随后又被重新上线。

可以用,声明即可

事实上,这并非意味着研究者们不能用ChatGPT以及其他大模型工具协助撰写稿件。

Elsevier和Springer Nature在内的许多出版商都表示:

可以用,声明即可

此前,就有来自田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了5篇。

当他第一次提交论文时,就跟编辑坦言:你看到的所有内容都是AI写的。

结果就在几天后,这篇论文通过同行评审,并在杂志Radiology上发表。

于是在这之后一发不可收拾,写的论文也并不局限于放射学专业,包括教育、农业、法律等。

于一部分人而言,以ChatGPT为代表的大模型着实提高了他们的生产效率。

对于ChatGPT辅助写论文,你怎么看待呢?是否已经再用它写论文了?

参考链接:

[1]https://www.nature.com/articles/d41586-023-02477-w#ref-CR1[2]https://pubpeer.com/search?q=%22As+an+AI+language+model%2C+I%22[3]https://pubpeer.com/publications/DF3D58918B5A0BD5943E6D280ED7E2

— 完 —

量子位 QbitAI · 头条号签约

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

码通天下
服务平台
跨境人联网
优品出海
选品平台