来源:BV1pM4y197cu
从2022年11月开始,美国加利福尼亚州OpenAI推出的ChatGPT,可以说是出尽了风头,它首先从Internet,整理出了一个庞大的文本数据库,然后利用统计模型,学习和模仿数据库当中的语言。
生成了令人信服的人类可读的文本,这种内容文字已经达到了以假乱真的程度,虽然目前称ChatGPT,是最先进的聊天机器人之一,但是其功能已经远远超出了通常聊天机器人的能力,有形式上更为引人入胜的对话。
还可以进行语言翻译,整理文章,编写和调试计算机代码,甚至创作诗歌和散文等等,总之吧,可以安息提供各种风格的人类水平的文本,那么在过去两个月的时间里,ChatGPT几乎成为了一种文化轰动。
甚至是可怕的写作实验,这些实验加剧了人们对这些工具的兴奋与担忧,第一个担忧呢,与ChatGPT将如何改变教育有关,在传统的学校考试当中,问答题和论述题,这些主观题一般被认为是没有现成答案的。
所以也就被视为对学生进行综合考察的重要方式,而更高阶的课程论文呢,是用来测试学生对知识的掌握情况与写作技巧的,在没有ChatGPT的时候,这些无疑都是非常好的测试方式。
但是不管是对于固有知识的掌握和整理,还是写作技巧之类的,都是有现存模板可参照的,而这方面呢无疑是人工智能的强项,学生可以利用这个聊天工具,只需要单击一个按钮,即可以获得看似很有见地的答案。
赢得一个好成绩,因此教育学工作者们就开始担心,这样的机器人可能会扰乱学校教育现有的次日系,一些学者称该机器是传统教育评估形式的上中,物对于我,ChatGPT同样引发了对学术论文和研究成果未来的质疑。
在如此内奸的学术界,工作过度,工资过低和发表压力的多重压力下,学术界本来就有很多需要担心的事儿,现在又多了一个新问题,ChatGPT,有人利用ChatGPT编写的,细节研究论文的摘要足够好。
以至于科学家们都难以发现,他们是由计算机编写的,当科学家不能确定一个研究是否属实,那么对科学研究来说必然会带来可怕的后果,如果研究人员所阅读的研究是捏造的,那么他就有可能被误导,设计出有前线的调查路线。
最终导致巨大的浪费,并阻碍科学的发展,这是主动造假的职业代价,而另一个间接方面的问题呢,这可能也是无法避免的,像是ChatGPT有时候会写出看似合理,但不正确,甚至是荒谬的答案。
但由于用户一眼看上去无法识别,就可能会给用户所提出的问题,产生错误的理解和认识,科研界最担心的是,学生和研究人员可能会利用ChatGPT编写的文本,作为他们自己的文本,那么为了杜绝抄袭的嫌疑呢。
有些文章甚至将ChatGPT列为正式作者之一,这四篇文章就是将人工智能机器人列为作者,(这些文章的内容是由于评论者的不满意),显然这并不是一个值得提倡的方案,许多研究人员和出版商开始考虑要制定出。
合乎道德的基本规则来使用大型语言模型,在还没找到合适的解决方案之前呢,人工智能行业率先采取了一些措施,比如将以今年7月在夏威夷一级办的,第40届国际机器学习大会的论文及争集当中。
就明确宣布禁止使用ChatGPT和其他,人工智能语言工具撰写的论文,还有科学杂志的主编说,我们不允许AI被列为我们发表论文的作者,并且在没有适当引用的情况下,使用AI生成的文本可能被视为剽窃。
这样的表态是合乎情理的,任何人工智能工具都不会被接受为,研究论文的署名作者,这是因为任何作者身份的归属,都伴随着对作品的责任,而人工智能工具无法承担这样的责任,那么应该怎么办呢,自然杂志的主编说。
在撰写论文时,以任何方式使用大型语言模型的作者,都应该在方法或字泄部分,记录他们的使用情况,这也是符合现有科学规范的做法,在方法或者是字泄当中记录这种使用,那么有朋友可能会问。
既然ChatGPT生成的文本到了一甲烂蒸的程度,那你怎么知道我是用ChatGPT生成的文章呢,编辑和出版商有办法检测出,人工智能生成的文本吗,这里有个答案说是。
也许ChatGPT的延时输出是可以检测的,通过仔细检查,特别是当涉及多个段落时,而且主题与科学工作相关,这是因为LLM生成单词的模式,是根据训练数据中的统计关联,以及他们看到的提示。
这意味着他们的输出可能显得乏味和普通,或者包含简单的错误,此外他们还不能引用消息来源,来记录他们的输出,也就是说还不会查到引用文献,但在未来,人工智能研究人员或许能够解决这个问题。
已经有一些实验将聊天机器人,与原引用工具联系起来,还有一些在专门的科学文本上,训练聊天机器人,也就是说引用文献这个问题是可以解决的,下面再说说我的一些认识,大家应该还记得车载导航的使用。
让我们对专业司机的需求大大降低,因为专业司机认识许多道路的这种能力,在这个时候似乎完全没有什么必要了,AlphaGo Zero的出现,也让我们对传统围棋的各种门派和套路,产生了怀疑。
这些显然都不是最优竭,同时也让我们产生了一个很奇特的想法,在解决一些历史上显而未觉的问题的时候,我们人类是否也可以学习机器的方法呢,几年前我们利用人工智能来进行音乐创作,感到欣喜若狂,现在来想想。
创作出一首从表面上看,与原作者类似的曲子,并没有什么太大的意义,它永远是一种复制 一种表演,一首伟大的曲子之所以伟大,并非因为它与一部知名的作品非常相似,而恰好是相反,艺术创作其实是一种自我谋杀的行为。
要摧毁它过去努力所创造的一切,这样才能使艺术家超越,他所认识的已知自我极限,人工智能只能模仿,而艺术则是需要永远以自己的过去作斗争的,这是一种超凡之旅,这就是人类天才所在的地方,深深根植于这些限制当中。
但又超越了这些限制,而现在恰恰GPT要开始革命,我们的教育和科学研究了,我们应该如何应对呢,科学研究归根结底,是要为人类解决未知问题的重要努力,不管是社会的进步还是科学的进步,都源于对过去的批判性思考。
或者对思考持开放态度,在对待恰恰GPT这样一个新生事物上来,我们显然不能因噎非食,目前机器所采用的模型,通过结合现有的数据,并得出统计上的平均意见来产生输出,所以我们不应期望恰恰GPT。
会产生什么有用的新见解,或提供什么新颖刺激的人士,它本质上也是一种复制,这样的人工智能,并不具备批判性思维或推理的能力,但是我们可以将机器的能力,与人的能力互补起来,在许多现代研究当中。
机器发挥着重要的作用,但一般是有人提出假设,设计实验和理解结果,机器只是一个工具,所以科学家完全可以适用恰恰GPT,作为研究助理、研究工具,帮助人们组织自己的思维,产生对已有工作的反馈。
协助编写代码和总结研究文献,也可以做一些更高端的,比如说使用人工智能,来生成更有吸引力的论文标题,或者是文本更具可读性,那么同样对于前面我们所说的,如果我们在教学中,还是准备采用课程论文的方式。
来对学生的学习情况进行考核,那么恰恰GPT将倒逼教师,他们所出的测试题,更着重学生的批判性思维,独立思考的能力,而不再是那种类似问答题的方式,让学生回答现存的问题,这显然对教学改革提出了一种新的思路。
同样也应该放手,让学生来利用恰恰GPT,不是逃避作业,而是帮助学生产生想法,克服写作障碍,起草写作大纲,或者是评估句子的清晰度,也就是说是完成作业的助手,以这种方式使用,那就以询问同学或者请教老师。
没有什么不同了,而且这对于我们这些,非英语母语国家的人来说,我觉得也非常有用的,至少会让我们的语言显得更地道,也就是说未来我们可以利用恰恰GPT,来认识我们的英语写作,而不是花一个大价钱。
让那些英语编辑公司来做,同样一些简单的重复性的编程,显然也是可以利用恰恰GPT来做的,好了 我们换一个思考方式,来继续思考一下这个问题,恰恰GPT能做的事,也就意味着不再需要人来做了。
随着类似恰恰GPT这样应用的广泛使用,未来的科学研究门槛一定会抬高,如果你所探讨的内容,与恰恰GPT最终生成的内容差不多,多一篇不多 少一篇不少,那么这样的稿件,未来可能不会被接受发表。
而你如果是一名学生,但缺乏批判性思维,成绩也不一定会好到哪去,还有 如果你是一名程序员,只会写一些简单的代码,未来可能这个位置不保,因为恰恰GPT会做,当然那些仅仅只能认识的英语语言编辑公司。
前景也不会很好,说到这里,我突然想到我目前,布置给学生的期末作业当中,并非一篇课程论文是可以完成任务的,还有口头汇报部分,而且还需要事先撰写提纲和抄稿,这就在某种程度上,应该是可以杜绝学生。
用恰恰GPT来对付我布置的作业的,我是傅丹昭斌,谢谢你的关注,再见。
标签:恰恰,复旦,人工智能,赵斌,GPT,ChatGPT,文本,我们 From: https://www.cnblogs.com/apachecn/p/17662993.html