文章ChatGPT:对科研诚信和通用人工智能的挑战

AI与情感8mos agoupdate lida
121 0 0

文章主题:关键词:ChatGPT,人工智能,自然语言处理,科研诚信

666ChatGPT办公新姿势,助力做AI时代先行者!

文章ChatGPT:对科研诚信和通用人工智能的挑战

ChatGPT的问世引起了文化和科技领域的广泛关注,其基于书面提示自动创建文本的能力受到了众多使用者的喜爱。国内外的科技企业也纷纷跟进,开发出类似于ChatGPT的人工智能系统。然而,作为一种生成性人工智能系统,ChatGPT在社会层面和学术界引发了许多问题。例如,它如何影响论文在教育中的地位,ChatGPT是否已经实现了通用人工智能,这些都是需要深入探讨的问题。除此之外,ChatGPT还引发了科研诚信问题,这也是我们需要重点关注的方向。

退化抑或革命

在过去几年中,大型语言模型的伦理影响引发了学术界日益激烈的辩论。随着OpenAI在2022年底推出ChatGPT,这一议题已逐渐成为主流话题。ChatGPT在接收指令后能够迅速生成流畅且转折自然的文本,展示出了惊人的能力。但是,随着对话的深入,它的不足之处也渐渐显现出来。例如,它可能会犯下一些事实性的错误,或者反复使用相同的词汇。尽管如此,初次与这类聊天机器人交流时,人们还是会感到惊叹。ChatGPT发布后不久,许多人开始对其影响提出各种疑问。例如,随着人工智能系统在编写代码方面的不断完善,软件工程师是否会被取代?这种技术会对知识工作者产生什么样的影响?这些问题既有传统的担忧,也有新的思考。

在处理文本生成任务时,将ChatGPT视为学术领域中研究者和作者工具箱里的一个新型利器是一种常见的观点。例如,人们可能会利用ChatGPT来生成具有创新性的初步作品。然而,ChatGPT也存在明显的局限性。在某些情况下,它可能会提供错误的答案,对语言提示中的微小差别过于敏感,甚至可能提供缺乏连贯性的答案,以及不必要的冗长论述等。这些不足之处限制了它作为研究工具的应用范围。鉴于担忧ChatGPT及其相关技术可能在生成的文章中篡改数据等,目前已有数千家科学出版物出版社禁止或限制作者在论文创作过程中使用人工智能驱动的聊天机器人。此外,一些高等教育机构也将由ChatGPT生成的论文视为剽窃或抄袭。

以一种不同的方式来思考ChatGPT,我们可能会更加重视其在革命性方面的作用。尽管我们在科学论文撰写方面无法期待ChatGPT超过一般科学家,但考虑到人工智能近期的 exponential 进步,提前为未来的大型语言模型做好准备似乎是明智之选。就像下棋一样,我们可以看到类似的趋势。最初,只有少数人相信计算机能够战胜人类棋手。然而,在1997年,IBM的深蓝击败了国际象棋世界冠军卡斯帕罗夫。紧接着,在2016年,DeepMind的AlphaGo击败了围棋世界冠军李世石。因此,对于一些技术乐观者来说,尽管 ChatGPT 目前尚有不足,但它却为未来技术发展指明了一个方向。他们甚至认为,撰写科学论文可能只是计算机展现比人类更出色智能的下一个领域。

通用人工智能言之尚早

作为一名技术乐观主义者,你可能会问,ChatGPT是否正朝着成为通用人工智能的康庄大道迈进?这个问题并非空穴来风,图灵在1950年就提出了一个具有深远意义的思想实验——图灵测试。这个测试已经成为评估人工智能智力水平的关键标准。根据图灵测试,机器必须在与人类对话时,以一种让人类无法分辨出其与真实人类差异的方式进行。然而,这个项目的挑战在于,为了通过测试,机器需要满足两个重要条件:一是对人类对话中的差异作出恰当的反应;二是展现出类似于人类的个性和意图。

在20世纪70至80年代,学术界对人工智能的研究达到了一个高潮,但由于真正具有实用价值的人工智能应用系统的缺失,这种热情在长期的挫败中逐渐减弱。或许,历史总是呈现出某种程度的周期性相似。如今,我们正在经历一场兴奋的高潮,这主要源于深度神经网络、机器学习技术以及以ChatGPT为代表的各种人工智能算法模型的新突破,这些新进展再次点燃了公众的热情。然而,我们也应该保持清醒的头脑。尽管在这些新进展的推动下,我们看到了人工智能领域的再次繁荣,但我们也必须认识到,在这些进步之中,仍然存在一些难以逾越的障碍,尤其是在自然语言处理领域的一些关键问题。

复杂的语言系统是人类智能的一个显著特征,并且语言与思想有着密切的关系,甚至在某种程度上可以说,“语言是思想的载体”。若机器无法“理解”人类语言,高阶智能就无从谈起,更不用说通用智能了。首先,我们认为,由于数学上的原因,目前还难以给一台能够掌握极其复杂和不断变化的人类对话模式的机器编写程序。其次,人类的对话中掺杂着个性和动机,但我们目前还不知道如何制造出具有人类个性和意图的机器。既然图灵机不能掌握人类的对话行为,我们便可以得到一个安全的结论:目前问世的聊天型对话系统不能达成所谓的通用人工智能。人类认知本身不只是一个关乎存储和计算的问题。

此外,塞尔(John Searle)的“中文屋论证”表明,即使一台机器的编程方式能够完美地模拟人类在进行对话时的行为,也不能真正拥有人类的智能。塞尔由此认为,那种机器与人类的理解或人类的意识有相似之处的观点是存疑的。尽管人们做了大量工作,但迄今为止还没有计算机系统能够实现接近人类对话的仿真模拟。即便是ChatGPT,还是显露出聊天机器人皆有的根本缺陷:机械性有余,灵活性不足。ChatGPT并非理解文本的意义并以此作出正确甚至精准的回答。正如OpenAI所警告的那样:“您得到的答案可能听起来似是而非甚至是权威的,但它们很可能是完全错误的。”

毋庸置疑,今天智能机器所拥有的存储容量和计算能力已远超图灵所预估的“学习机器”,但一些情况依旧没有多大改观。我们认为,这一领域中过分的乐观主义,一方面是出于对人类认知行为不切实际的看法,另一方面则是看到了强化学习、数据集扩张、算法更新等方面取得的一系列令人惊叹的成功,如在围棋或电子游戏等领域的进展。与这种乐观情绪相反,人们在试图制造能够与人类进行高效对话以至于达到通用人工智能阶段的机器时却屡遭失败。目前,技术乐观派鼓吹通用人工智能还言之尚早。

关注科研诚信问题

由于人类语言的极端复杂性,各类对话机器人很难真正实现自然语言处理,更不用提知觉、情感、感官等。ChatGPT只是个预训练语言模型,它只能从已有的训练样本中提取、整合信息,而不能真正地产生新的知识。在这一进路上,通用人工智能和超级人工智能遥不可期。况且,ChatGPT并不是横空出世的产品,其迭代前的GPT-3就曾引起过舆论轰动。每当有被包装过的新技术或产品问世,总会刮起一阵旋风,但往往不久便会停息。我们不必着急预测某项技术或产品能否带来所谓划时代的意义。

抛开宏大叙事,这个议题背后所引发的一些具体后果可能更值得我们深入考察。ChatGPT肯定会有一些积极的作用。比如,教育工作者可以学会使用ChatGPT,将其作为一种工具帮助学生就某一具体问题进行探索。但目前需要重点关注的,是其日益暴露的显性问题。生成性人工智能在文本生成和编辑方面拥有巨大潜力,如果被使用者滥用在学术写作或新闻报道方面,会带来诸多不良影响。因此,针对大型语言模型及其对科学出版可能产生的影响,我们需要进行前瞻性研究。目前的困境是,在获得此类研究结果之前,我们只能对大型语言模型的特性和预期影响进行一些直观的、常识性的评估和判断。

若将ChatGPT等生成性人工智能作为一种研究工具,在科研诚信方面会引发一些担忧。比如,这会带来事实不准确、剽窃、欺诈和侵犯版权等风险,可能导致科学失去严谨性,科技工作者的劳动也可能因此变得不被尊重。在科研领域,对ChatGPT等生成性人工智能的审慎应用,是一种负责任的态度。不少学术期刊和科研机构已经开始制定和实施一些可行的方案,解决或应对与ChatGPT相关的研究诚信问题,但未来的防范和治理工作依旧任重而道远。

(本文系云南省教育厅科学研究基金项目“人类增强技术的伦理规制研究”(2023J0083)阶段性成果)

(作者单位:云南大学马克思主义学院)

《ChatGPT:多维思考与审慎应用》

文章ChatGPT:对科研诚信和通用人工智能的挑战

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© Copyright notes

Related posts

No comments

No comments...