人工智能 | 摘除“人工智能耻辱”的标签:论强制性AI披露声明的负面影响与教学转向 | 朱莉·麦考恩

发布时间:2025-11-06作者:浏览次数:11

阅读提示:1028日,高等教育内幕(Inside Higher Ed)官网刊发文章,讨论了在高等教育中要求学生披露使用生成式人工智能(AI)的声明是否有效。作者曾要求学生在使用人工智能完成作业时提交披露声明,但后来发现这种做法并未达到促进透明和开放的目的,反而加剧了对人工智能使用的羞耻感和不信任。作者主张通过调整评估方法和课堂策略,正常化人工智能的使用,并倡导培养学生的人工智能素养和伦理意识。以下是文章要点。

在高等教育界当前普遍倡导负责任地使用人工智能(AI)的背景下,作者朱莉·麦科恩(Julie McCown)却提出了反对强制要求学生提交人工智能使用披露声明的主张。作者曾是其所在大学写作课程中积极拥抱生成式人工智能的早期采纳者,最初坚信透明度与开放性是关键,因此要求学生必须在使用人工智能完成作业时进行说明。然而,基于实际观察与反思,她改变了这一做法。

问题的核心在于,强制性披露声明在实践中产生了适得其反的效果。尽管在允许甚至鼓励学生使用人工智能的课堂上,许多学生在提交明显借助人工智能完成的作业时,依然不愿提供所要求的披露声明。这并非简单的违规行为,而是因为此类声明在当前高校普遍存在的对人工智能持怀疑和否定态度的文化氛围中,已然异化为一种类似“忏悔”或“认罪”的行为。学生们感受到的是笼罩在人工智能使用上的羞耻感与污名化,使得诚实的披露反而可能为他们招致带有负面评判意味的标记。这不仅未能促进透明与诚实,反而进一步加剧了人工智能使用的隐蔽性,并将教学互动推向更多的监视与猜疑。

研究证据支持了这一担忧。一项于五月发表的研究表明,在任何情境下(无论是自愿还是强制),披露人工智能的使用都会导致他人对该使用者信任度的降低。这种效应主要源于“披露”这一行为本身,而非仅仅是因为使用了人工智能。另一篇文章则指出了强制披露政策中诚实与公平之间的内在矛盾:如果缺乏基本的信任与尊重作为基础,人们便不会感到安全去坦承其人工智能的使用。若因此类发现而全面禁止人工智能,不仅不切实际,反而会将学生的人工智能应用彻底驱入地下,阻碍培养未来雇主日益期待的人工智能素养能力的发展。

强制性披露声明非但无助于激发学生对学习过程的真实反思,反而沦为了一种流于表面的“美德信号”,抑制了师生之间本应进行的坦诚对话。更重要的是,它对于遏制劣质人工智能论文的核心问题——如空洞呆板的语气、冗余的填充性语言以及最严重的捏造来源和引文——几乎毫无作用。

鉴于此,作者主张从根本转变视角并革新评估方法。我们应摒弃将人工智能辅助视为需要特殊监控的例外情况的做法,转而接纳并将其视为学生教育过程中一个普遍存在的常态要素。这意味着教学的重心应从追问“你是否使用了人工智能?”转向审视“这份作品为何不符合优秀写作标准?”以及“它为何未能达到作业要求?”。无论内容是源自人类还是人工智能,伪造来源都应被明确指出且绝不容忍。

为实现这一转型,关键在于构建能够有效激励深度学习、同时自然消解低水平滥用人工智能动机的教学设计与评价体系。这包括包括向学生明确阐述在不同教学环节中如何有效利用人工智能及其潜在局限,例如借鉴刘丹尼(Danny Liu)提出的“菜单”(Menus)模型。此外,教师自身应以身作则,与学生分享自己在工作中运用人工智能的成功经验与失败教训,以此共同探索这一新工具。具体的课堂实践可以包括引入关于人工智能使用与反思的低风险日志作业,或者鼓励学生面向全班展示其在人工智能应用中发现的有趣、奇特或有用的成果乃至失败尝试。

总之,构建真正重视透明与诚实的学习环境,其先决条件是营造安全与信任的氛围。教育者不应再执着于索取强制的“供词”,而应向学生们发出真诚的邀请,欢迎他们加入这个充满挑战与机遇的人工智能时代,共同分享在适应过程中积累的智慧、经验和专业知识。

(来源:高等教育内幕(Inside Higher Ed)官网)