摘要:人工智能在当下高等教育政策话语中常常被视作一种游离于学生独立努力与智力贡献之外的外部辅助形式,进而对学生功课的原创性形成潜在威胁。然而,在当今知识生产日益呈现出协作化、分布化、人工智能介导化的态势下,究竟何种工作或作品方可称之为“原创”?若学生使用人工智能辅助完成功课,是否必然意味着该学生的功课不再属于“原创性工作”也不再“独立”?围绕上述问题,本文结合实证研究对生成式人工智能时代下何为原创性工作这一议题展开反思与讨论。文章对当前高等教育政策语境下原创性工作的定义、原创性定义背后的价值取向与未来人才培养、生成式人工智能时代下的原创性工作几大主题进行分析,并在文末针对高等教育的角色和目的提出相应建议。
关键词:人工智能;高等教育;原创;学术诚信;抄袭
一、引言
自生成式人工智能问世以来,各界对学生不正当使用该技术从而导致学术不端的行为产生了广泛担忧。有鉴于此,国际上许多大学要求学生在提交功课前填写并提交“AI使用声明”(AI Use Declaration Form),以明确表明自己是否使用了人工智能辅助完成功课。此类“AI使用声明”多着重强调学生务必提交具有原创性的功课(original work),且需将生成式人工智能生成的内容与自己的原创性工作严格区分。例如,大学A(注:本文中出现的大学名称已作匿名处理)于其“AI使用声明”中告诫学生:“若你使用了AI来辅助功课,请清晰地将其与你自身的工作区分开来”。大学B则要求学生在声明表中确认“该作业完全为本人独立完成的原创性工作,不包含任何人工智能生成的内容”。
强调学生具备创作原创性工作的能力向为高等教育的核心要旨之一。例如在提交本科或博士毕业论文时,学生需要签署类似的原创性声明,表明其为“本人独立原创作品”“个人完成的工作”“独立研究完成的论文”等。不论从人才培养还是学术诚信的视角,这类原创性声明均发挥着关键的效用。然而,随着生成式人工智能渐趋广泛地融入我们的日常工作和学习中,本文提出以下三个问题以供共同思考与探讨:
1.高等教育一直强调学生需要具备创作原创性工作的能力。然而,在当今知识生产日益呈现出协作化、分布化(distributed)和人工智能介导化的态势下,究竟怎样的工作或作品方可被称之为“原创”?
2.若高等教育界认定或默示生成式人工智能的使用会对学生创作原创性工作构成威胁(例如前文提及的“AI使用声明”),这对学生以及在人工智能时代的未来人才培养会产生何种影响?
3.如果学生使用人工智能辅助完成功课,是否必然意味着该学生的功课不再属于原创性工作也不再“独立”?
二、当前高等教育政策语境下对原创性工作的定义
笔者早前对20所全球顶尖大学当前的生成式人工智能政策展开了一项综述研究。该研究借鉴卡罗尔·巴基(Carol Bacchi)的“被呈现的问题是什么”(“What’s the problem represented to be”)框架,深入探究了哪些“问题”在大学人工智能政策中被视为亟待解决,以及这些“问题”又是如何呈现的。尽管这些政策提到了各类与生成式人工智能相关的问题(例如,生成式人工智能生成结果的可靠性、平等获取生成式人工智能的机会等),政策所关注的最主要问题为在生成式人工智能的影响下学生可能无法提交原创性工作用于评估。在当前的政策话语中,生成式人工智能通常被视为与学生的独立努力和智力贡献相分离的外部协助形式,从而破坏了他们工作的原创性。
研究发现,不少政策着重强调学生的原创性工作务必与生成式人工智能生成内容区分开来。例如,大学20对人工智能检测机器“区分ChatGPT文本与真正原创文本的能力”进行了讨论,把生成式人工智能生成的文本与原创文本放在两个对立面。此外,亦有不少政策将使用生成式人工智能与把课程作业外包给第三方(如朋友、枪手、公司等)同等看待。例如大学05提到:“在课程指导教师未作明确说明的情况下,在功课中使用或咨询生成式人工智能应与接受他人协助类似处理。”
研究结果传达了两方面的关键信息:其一,在当前政策下,原创性工作似乎等同于学生在没有人工智能或他人协助的情况下,完全依靠自身独立完成所产生的工作成果。从这一角度看,创作原创性工作与使用生成式人工智能处在两个对立面。其二,学生工作的原创性主要从作弊以及学术不端的角度进行讨论(即如果学生的工作受到了人工智能的辅助,这就不再是学生的原创工作,且可能严重违反学术诚信原则)。因此,在当下语境中,没有任何人工智能辅助的学生工作通常被认为更具“原创性”,因而也更符合传统学术诚信的价值观念。但这种关于原创性工作的理解真的有助于我们未来的人才培养吗?
三、原创性工作定义背后的价值取向与未来人才培养
笔者的另一项纵向研究追踪大学生在功课中使用生成式人工智能的情况以及他们如何与教师建立信任关系。以下语录摘自笔者对参与学生的访谈:“教授说我们可以用ChatGPT做头脑风暴、语法检查、构建论文结构和获取反馈等等。……我知道这些是被允许的,但我仍然担心……要是教授觉得我使用了太多人工智能怎么办?又或者,与那些没有使用(人工智能)的同学相比,这会不会使我处于劣势呢?”“(如果你承认使用了人工智能),老师可能会觉得你不够独立,你的语言能力欠佳,甚至会认为你作业的大部分内容是用人工智能写的。”“我太害怕(被误判为学术不端)了,所以在做作业的时候我关闭了所有AI工具。”
上述访谈语录体现了学生的担忧情绪,也反映出前文提到的隐含的等级观念——完全由“人”完成的工作被认为更具原创性,也更受重视,而有生成式人工智能参与协作的工作可能更有效率,但被认为缺乏真实性、原创性。这种隐含的等级观念渗透在高等教育政策里,整个社会的传统价值观或许也更推崇这种“纯粹”的人的智慧成果。学生群体存在很多顾虑:如果学生使用生成式人工智能辅助完成功课,将被视为独立性较差、道德水准较低或者能力不足。在这种语境下,无论以何种方式使用生成式人工智能,使用者都可能遭受污名化。
在生成式人工智能时代,这种价值取向与吉拉伊(Louie Giray)所提出的“AI羞辱”(AI shaming)现象密切相关。所谓的“AI羞辱”,指的是“否定人工智能辅助工作的有效性或真实性,认为使用人工智能是具有欺骗性、懒惰的行为,或者认为其价值低于仅由人类完成的工作”。它反映出每当一项强大的新技术对既定的规范和价值观发起挑战时,就会产生的深层次的焦虑和道德困境。正如吉拉伊指出,“这是一个众所周知却避而不谈的问题——批评的暗流影响着人工智能被认知和利用的方式,但它却很少被直接提及。”
这种被称为“无声的污名”的情况,会引发诸多不良后果。它可能导致技术的采用受到抑制,使人们在接纳新技术方面变得保守;会让人们的焦虑和压力倍增,因为他们在这种无声的批判氛围中感到无所适从;它还会使创新受到阻碍,限制新想法和新方法的产生;同时会造成误解的持续存在,使得人们难以形成对人工智能的客观认识等等。这种“无声的污名”正以一种隐蔽却极具影响力的方式对人工智能相关领域产生深远影响。在学术和创作领域,由于这种价值取向的存在,可能导致一些创新性利用人工智能辅助创作的作品被错误地贬低或忽视,而学生们也可能因为害怕违背传统的原创观念而不敢探索新的创作方式,从而影响整个创作环境的活力和多元性。笔者的研究发现许多学生有意拒绝在作业中使用生成式人工智能,或者在学习过程中有意避免与生成式人工智能接触。从防止作弊的视角考量,这或许有所助益,但从长远的人才培养角度出发,则并非如此。
简而言之,如果将学生的原创性工作狭义地界定为完全由人类独立创作、不涉及任何人工智能辅助的工作,这会阻碍人类借助人工智能能力来形成解决方案这种有价值的合作关系。在未来的社会发展进程中,人工智能会愈发深入地融入人们生活和工作的各个方面,成为一种无处不在、与人类活动密切相关的存在。如果对原创性工作的定义过于狭隘,不允许学生合理利用人工智能,就不利于他们在这样的未来环境中生存和发展。
四、生成式人工智能时代下的原创性工作
事实上,早在近期生成式人工智能备受热捧之前,艾斯纳(Caroline Eisner)与文西努斯(Martha Vicinus)就已指出,“全然原创之物并不存在”,因为人类是借助“对往昔成果的重新组合与再利用,对旧有情节、见解与观念的补充或重塑”来开展思考与写作活动的。艾斯纳和文西努斯的观点是从人类创作的本质来说的,人类的思考和写作不是从零开始,而是建立在已有知识和成果之上的,所以不存在绝对的原创。
生成式人工智能技术的兴起则使得原创性工作的创作过程进一步复杂化。近期,生成式人工智能进一步融入各类生产力工具(如微软办公软件、互联网浏览器、谷歌工作区等)之中,令原创工作的创作过程与科技更加紧密相融。生成式人工智能提供的帮助甚至可能很隐蔽(例如各类插件、自动修改功能),学生在创作过程中不知不觉就受到了影响。香港大学陈嘉玉教授在其研究中提到学生甚至可能没有意识到他们在功课中使用了生成式人工智能。另外,生成式人工智能技术的兴起也进一步使得原创性这个概念变得复杂。虽然传统上原创性总是与“个人主义”和“个体努力”相挂钩,但在数字时代,知识产生却日益呈现出分散性、协作性的特点。伴随技术的不断进步,人工智能将渗透到我们知识创造和问题解决的过程里,影响我们对原创性的认知。
在此背景下,加拿大卡尔加里大学的萨拉·伊顿(Sarah Eaton)教授近期提出了“后剽窃时代”(postplagiarism)这一概念。她指出,我们已步入“后剽窃时代”,在此时代中,人工智能与神经技术等先进技术已然成为我们日常生活(涵盖日常教学、学习、交流以及互动方式)的常规组成部分。“后剽窃时代”有六项原则,即“人类人工智能混合写作将成为常态”“人类创造力增强”“语言障碍消失”“人类可以放弃控制但不能放弃责任”“归属感仍然重要”“剽窃的历史定义不再适用”。
伊顿在强调“人类人工智能混合写作将成为常态”这一点时提出,人工智能生成的文本并非是一成不变的,而是常常由人类进行“编辑、修订、改写和重新组合”。最后的成果可能是一种既不完全由人类也不完全由人工智能撰写的产物,而是一种混合产物。在人类与人工智能共同创作的情况下,要明确区分出哪一部分是人类的产出、哪一部分是人工智能的成果非常困难。这也与笔者上述提及的实证性研究有所呼应,从前期的数据分析来看,极少部分同学会选择直接复制粘贴生成式人工智能生成的结果,而会进行删减、重新组合、修改、增加、编辑等等。许多大学要求学生清晰区分他们的原创工作和人工智能辅助下的工作,从上述角度来看,这类要求很难实现,甚至是不合理的。在人工智能的大背景下,我们需要批判地思考究竟是什么使学生的作品具有原创性,而我们作为高等教育提供者在定义学生原创性工作时最重视的因素又是什么。
五、高等教育在生成式人工智能时代的角色与目的:聚焦原创性的视角
克拉姆(Neil Kramm)与麦克纳(Sioux McKenna)近期发表的一篇论文对人工智能兴起背景下“高等教育的真正意义究竟为何”这一问题展开了深入探讨。他们发现“当前的大多数讨论……局限在我们如何识别学生文本中何时使用了人工智能”。也就是说,大部分的关注都集中在防止学生作弊上。克拉姆与麦克纳将这种对待人工智能的方式称为“警察抓罚法”(police-catch-punish),并指出“这种方法源于对高等教育的工具主义理解,即把高等教育机构的主要目的狭隘定义为“出售防止伪造以确保质量的资格证书”。在这种理解下,人工智能被视作对大学的一种“生存威胁”。反观当下高等教育政策对学生原创性工作的理解,不难发现其中蕴含着“警察抓罚法”的逻辑。
在生成式人工智能时代,“警察抓罚法”从防止作弊的角度固然有其合理之处。高等教育有责任确保学生在毕业之时具备他们所获认证的职业角色所需的知识和技能。但是,如果仅仅从工具主义的角度去理解大学,这类理解方式会极大地限制我们对大学在人才培养方面所起作用的认识。换言之,这种理解是非常片面的。
那么,高等教育应如何突破“警察抓罚法”这一范式?又当如何确保大学教育能助力学生为人工智能时代做好充分准备?此问题或有诸多解答,本文将从原创性工作这一角度从四方面对问题略作探讨。
(一)公开审视传统价值导向下对原创性的定义与“AI羞辱”心态
在重新思考学生作品“原创性”这一议题时,首先需要思考原创性定义背后根深蒂固的价值取向。这种价值取向从根本上影响了大众当下对原创的判断标准和认知。在学术和创作领域,定义原创工作常常包含一种隐含的等级观念。正如约翰逊-埃洛拉(Johndan Johnson-Eilola)和塞尔伯(Stuart A. Selber)所指出,人们往往认为作家最好的作品总是与“阁楼里独自苦干创作作品的天才”的理念紧密相连。这种观念影响深远,也导致了一些不良现象的产生,例如学生有时会故意不对其借鉴的源文本进行引用标注,试图营造出一种完全原创的假象。
此类关于原创性的传统观念仍然在潜移默化中影响着院校政策的制定、教师对学生作品的评判以及学生自身对于原创性的理解和追求。本文上述提到的实证研究,以及吉拉伊指出的“AI羞辱”现象都能反映这一观念。这种传统价值导向在一定程度上阻碍了大众对于原创性的认知与合理评价体系的构建,使得我们在面对新的创作环境和技术发展时,难以摆脱旧有观念的束缚。
因此,当对何为原创进行重新思考时,高等教育政策制定者首先应对学生功课原创性的相关政策话语进行审视和修订。各个学科,尤其是与写作、学术研究、学术不端相关的课程,应加入有关原创性的探讨,对人工智能时代原创性的新定义与新边界展开讨论。同时,组织咨询会议和研讨会,邀请高校领导层、专家、业界代表、老师以及学生共同参与,探讨传统价值取向的局限性及其对原创性的影响,借助思想的交流与碰撞逐步改变人们的观念。
(二)重新构建原创性概念:从协作化、情景化的角度
随着数字时代原创性概念不断演变,而生成式人工智能的介入又进一步模糊了传统意义上创造原创工作的过程,高等教育需要一种更具包容性的方法来明确原创的内涵,培养学生在生成式人工智能时代的适应性和竞争力。
从根本上说,这关乎我们如何看待人类与人工智能之间的关系。我们不能仅仅将人工智能视为与我们独立创作脱节的外部辅助的工具,而需要更妥善地认识到人类与人工智能在知识生产以及问题解决过程中进行协作的多元方式。为此,洛奇(Jason M. Lodge)及其同事创设了一套理论框架,将教育中人机交互的模式分为四个维度。其一为认知卸载(cognitive offloading),即将日常性杂务委托给人工智能,从而释放人类进行其他心理性任务的能力;其二为扩展思维(extended mind),人工智能用于增强人类独立行动时所能达成的效果;其三为共同调节(co-regulation),人类向人工智能请求监管支持(例如,要求人工智能阐释概念);其四为混合维度(hybrid),人工智能以队友的角色,与人类协作以促进学习并解决问题。例如,在原创性的狭隘定义下,教师往往期许从事科学研究项目的学生在没有任何人工智能协助的情况下独自完成所有工作。然而,重新构建原创性概念之后,教师可以探索学生与人工智能之间不同程度的协作。学生可以借助人工智能来助力分析大型数据并生成初步假设,继而进行自主评估并进一步完善人工智能生成的假设。最终的成果将会是学生与人工智能的合作努力的成果,融合了双方的优势来产生一件原创作品。
因此,院校和相关机构需要制定更加灵活和包容的评估标准,明确在何种情况下使用生成式人工智能工具是被允许的,以及如何评估生成式人工智能辅助创作作品中的原创成分。一种潜在方式是将原创性概念情景化,根据学科背景和学习目标来评估原创性的关键维度。在这种逻辑下,原创性的定义将取决于特定的领域——例如,英语写作课程通常要求学生独立创作出文本来检验其外语能力,而法律相关学科可能涉及使用模板和标准化语言。因此,在生成式人工智能时代定义原创性工作取决于“在学习过程中什么可以被交给人工智能去做、是谁这么做的以及出于什么目的”。这种方式不仅有助于我们对原创性有更细致的理解,还能明确学生作品中哪些具体方面不应交由人工智能辅助,从而确保学生能够独立地展示出特定的学习成果。
(三)重构原创性的核心导向:从聚焦监督惩罚转向支持学生发展
如前文提到,高等教育政策倾向于从学术不端的角度来构建学生作品原创性的问题,比如通过人工智能检测工具来检查学生作品是否由人工智能生成,把重点放在找出违规行为上。市场上虽存有众多生成式人工智能检测工具,当下尚不存在百分百精准无误的检测方法。此外,此类检测工具往往在面对非母语作者、具有特殊教育需求的学生以及采用更为结构化写作风格的学生时,存在一定程度的偏见。
这种聚焦监督惩罚的政策话语把学生置于一个潜在不可信的位置上,同时也在强化学生试图利用人工智能作弊的假设,而非从正面去引导和教育学生。学生或会由此感到不被学校和老师信任,从而损失学习的积极性。近期,《人物》杂志刊载了一篇观察文章,其中就提到学生们最终将大量时间耗费在确保自己的作业不被生成式人工智能检测系统标记这件事上,而非切实地投入到有意义的学习或者作业任务的完成当中。教师则更多地被视为“守门人”(负责确保学生没有触犯红线)而非承担“教育者”的职责。
放眼未来,高校应将侧重点放在为学生创作有意义的原创作品提供可用的支持,而非过多地从监督惩罚的角度去强调原创性。高校需转变思维模式,把重点放在为学生提供资源和指导上,以助力学生顺利创作出有价值、有原创性的作品。各院校可考虑邀请业界优秀的人机协作专家和校友代表,分享他们在设计新产品的过程中,如何借助人工智能和自身的见解来创造有原创性的成果。通过开展专门的讲座和培训活动,加以具体案例,使学生明晰在创作过程中使用人工智能的合理范畴,以及与人工智能相关的道德伦理隐患,比如知识产权、偏见、创造力固化等方面的问题。
(四)重新思考评估方式,为学生开拓渠道创造多元的原创性工作
当前对学生作品原创性的问题主要是从学术不端的角度加以讨论,但对引发学术不端的根源问题却往往欠缺深入的反思。在现今全球高等教育体系中,论文依旧是主要的考评形式。从学生的角度来看,他们或无法明确感知到此类考评形式与自身未来发展之间的关联和意义,论文作为单一的考评形式或许也不再能适应时代对人才培养和评估的需求。当此情形,学生为图简便,极有可能直接利用生成式人工智能一键生成功课。
迪肯大学的高等教育评估专家菲利普·道森(Phillip Dawson)教授指出,“评估应当为学生的未来而非我们的过去做准备”。为此,作为高等教育提供者和教师,我们需要对当下的评估任务进行重新审视,包括确定哪些任务学生可交由生成式人工智能完成;考量是否能够运用多项评估任务进行三角验证(例如角色扮演、口试、案例分析、田野观察),而非仅仅依赖论文写作来评估学生;探索能否使教师的评估任务更加贴合学生毕业后的真实场景。例如,对于工程系学生而言,在完成学校功课的过程中被禁止使用生成式人工智能,然而其毕业后步入工作岗位,真实的工作场景中却包含大量生成式人工智能的运用。在此情况下,现有的评估方式显然需要改进。这种不一致性反映出当前评估体系与实际职业需求之间的潜在矛盾,也凸显出重新构建评估方式以更好地适应学生未来发展需求的紧迫性与必要性。这一体系应能够充分激发学生的创新意识与原创动力,引导他们在不同领域、不同层面积极探索与实践,真正创造出具有独特价值与意义的原创性工作。
(《清华大学教育研究》2025年第1期)