ChatGPT这一段时间可谓是火遍了全球。
它在论文写作方面展现出来了很强的实力,我们也对它的写作能力做了测试,我们让ChatGPT 写一个关于粒子群算法的寿命预测论文摘要:
Write an abstract about a pso algorithm for life prediction。
ChatGPT 的回答如下,大家可以自行判断 ChatGPT 的回答效果。
This paper presents a Particle Swarm Optimization (PSO) algorithm for life prediction. The proposed algorithm uses an evolutionary approach to predict life expectancy by optimizing a set of parameters. The proposed algorithm is applied to a data set containing life expectancy information from a group of individuals. The results show that the proposed PSO algorithm can effectively predict the life expectancy of a group of individuals with high accuracy. Additionally, the proposed algorithm can be used to identify key factors that influence life expectancy, such as age, gender, lifestyle and socio-economic status. Furthermore, the proposed algorithm can be extended to other applications such as drug design, disease diagnosis and health monitoring. Overall, the proposed PSO algorithm presents a promising approach for life prediction.
小编是觉得对于这么一个只给了主题的论文摘要要求,ChatGPT 的回答已经非常专业了。虽然不能够直接使用,但也只需稍作修改,就已经非常节省我们自己撰写的时间了。

ChatGPT发表署名论文
经过我们上面的测试,ChatGPT写出来的内容也已经到了仅需人工修改校正就能使用的水平了,可以预见不久的将来,人们也会利用ChatGPT来生成论文初稿,然后自己在AI给出的论文初稿的基础上再次进行创作加工。
目前已经有不少作者成为了第一个吃螃蟹的人,由ChatGPT署名的论文已经发表了。




学术界对于ChatGPT的看法
目前使用ChatGPT一类的人工智能工具,还没有出台相应的规范化使用界限准则,而学术期刊的领头羊们率先明确发布了一些约束措施,如:
Science期刊的主编表明:“我们不允许AI被列入我们发布论文的作者,并且在没有适当引用的前提下,使用AI生成的文本可能会被视为剽窃。”
Nature期刊的主编也明确说明:“任何大型语言模型(LLM)都不会被接受为研究论文的署名作者。这是因为任何作者的归属都意味着对研究工作的责任,而人工智能工具不能承担这种责任。”

论文的署名作者其实应该是对这篇论文内容作出贡献的人,而且是要对内容负责的。就好比有的期刊在最后转让版权时是要求一作和通讯签字,有的期刊则要求所有作者签字一样,ChatGPT这类人工智能软件仅仅是在论文写作上提供了帮助,并没有对论文的发现作出贡献,它无法对论文内容负责,它也无法签字。
所以,目前学术界对于ChatGPT这类工具的态度还是认为它不能成为作者,但并没有禁止使用,如果使用了ChatGPT是需要进行声明的。
ChatGPT写作是可以检测出来的
有的小伙伴觉得ChatGPT这么厉害是不是已经到了以假乱真的地步,但其实不然。
我们还可以用魔法来打败魔法。
既然人工智能能够生成文本,那就可以用人工智能来检测文本是否由人工智能生成的。
在下边这篇论文中,作者让ChatGPT按照不同期刊的风格,生成了不同的摘要。然后对这些摘要进行查重,用人工智能检测器和人工进行审阅,看看是否能识别出来这是否是人工智能生成的。

最后的结果是这些摘要都通过了查重,但是人工和人工智能检测器也都能够发现这些摘要不是真人写的。
这里使用的工具:GPT-2 Output Detector。
★ 我们也可以用上边这篇文章的一部分来简单测试一下(这篇文章是真人创作的):
Results All ChatGPT-generated abstracts were written clearly but only 8% correctly followed the specific journal’s formatting requirements. Most generated abstracts were detected using the AI output detector, with scores (higher meaning more likely to be generated) of median [interquartile range] of 99.98% [12.73, 99.98] compared with very low probability of AI-generated output in the original abstracts of 0.02% [0.02, 0.09]. The AUROC of the AI output detector was 0.94. Generated abstracts scored very high on originality using the plagiarism detector (100% [100, 100] originality). Generated abstracts had a similar patient cohort size as original abstracts, though the exact numbers were fabricated. When given a mixture of original and general abstracts, blinded human reviewers correctly identified 68% of generated abstracts as being generated by ChatGPT, but incorrectly identified 14% of original abstracts as being generated. Reviewers indicated that it was surprisingly difficult to differentiate between the two, but that the generated abstracts were vaguer and had a formulaic feel to the writing.

这里判断是99.98%是真人写的。
★ 我们再检测一下上面用ChatGPT生成的摘要。

这里检测出了99.98%是假的,是由人工智能生成的。
总结
其实,大家也不必太担心ChatGPT这类人工智能会扰乱正常的学术秩序,人工智能生成的内容还是可以由人工智能检测出来的。不过,以后可能在论文投稿后,除了进行重复率检测,可能还要再加一个AI痕迹检测了~
评论留言