阅读提示:11月17日,对话(The Conversation)官网刊发杰弗里·C·迪克森教授文章,认为关于生成式人工智能(生成式AI)在大学校园的讨论,在很大程度上聚焦于学生作弊问题,但这种单一视角忽略了高等教育机构面临的更广泛伦理关切。作为一名教授人工智能相关课程且研究该技术对工作影响的社会学家,作者基于对人工智能兴起及其社会后果的研究指出,负责任地使用人工智能的责任不应完全由学生承担,而应首先始于该技术背后的科技公司,同时高等教育机构自身也需肩负起这一责任。以下是文章要点。
当前,围绕生成式人工智能(如ChatGPT)在高校校园内的公共讨论,几乎完全被学生可能利用其进行学术不端的担忧所主导。然而,这种狭隘的关注点掩盖了高等教育机构所面临的一系列更为广泛且复杂的伦理议题,其范围从大语言模型训练中使用的受版权保护材料,一直延伸到学生隐私安全。从学生、高等教育机构和科技公司这三方的多元视角审视,可以清晰地看到,负责任地使用人工智能的重担绝不能完全落在学生的肩上。本文认为,责任的起点更普遍地在于开发此项技术的公司,并且必须由高等教育机构本身有力地承担起来。
许多高校最初的应对策略是出于对学生学术诚信的担忧而选择禁止使用生成式人工智能产品。尽管有证据表明学生存在不当使用行为,但一刀切的禁令忽视了研究表明生成式AI能够提升大学生学业成绩的潜在益处,以及其为残障学生等其他教育群体带来的可能性。更重要的是,高等教育机构肩负着为学生进入一个普遍渗透人工智能的未来职场做好准备的职责。鉴于其潜在益处和学生广泛使用的现实,众多高校已转而将生成式人工智能整合进课程体系,部分机构甚至通过学校账户为学生提供免费访问权限。然而,此类整合策略本身引发了新的伦理考量与风险。
与以往的技术浪潮一样,生成式人工智能的采用可能加剧教育不平等,因为并非所有学生都能获得相同质量的技术工具。如果学校鼓励使用却不提供统一的免费访问权限,将在有能力支付订阅费(使用提供更佳数据保护和隐私指引的付费版本)的学生与只能使用免费工具的学生之间制造数字鸿沟。使用免费工具的学生在美国几乎得不到隐私保障,他们与AI的每一次互动,哪怕是简单的头脑风暴请求,都在生成可能被公司用于改进模型的宝贵数据。高校可以通过与供应商签订专门关注学生隐私的许可协议,来应对公平性质疑并帮助保护学生数据,此类协议能为学生提供免费访问权限,并明确规定学生数据不得用于训练或改进模型。但此类协议并非万灵药。
通过供应商协议将人工智能整合入课程,意味着高等教育机构必须承认科技公司自身的(伦理)越界行为,并审慎考量其作为学生数据拥有者所蕴含的深意。一方面,高校因学生“窃取”大语言模型生成的文字来撰写论文而惩罚他们的做法,在伦理上难以与科技公司自动化“抓取”维基百科(Wikipedia)、Reddit等网站内容且不加引用的行为相调和。大型科技公司使用了受版权保护的材料(其中部分据称取自盗版网站)来训练驱动聊天机器人的大语言模型。尽管这两种行为——要求聊天机器人写文章与使用版权材料训练它——并不完全相同,但二者都包含了伦理责任的成分。对于科技公司而言,此类伦理问题通常仅在诉讼中被提及;但对于高等教育机构,这些问题应在签署AI供应商许可协议之前就被明确提出。正如《高等教育纪事(Chronicle of Higher Education)》一篇文章所建议的,高校应像审查学生论文一样审查AI模型的输出。如果在签署供应商协议之前未能这样做,那么高校追究学生所谓“抄袭”AI生成内容的传统“学术诚信”违规行为,其伦理基础将十分薄弱。因此,高等教育机构应当考虑修订其学术诚信政策。
另一方面,AI供应商协议中学生数据的处理方式是一个关键问题。学生很可能担忧,其所在学校作为商业客户和数据所有者,是否会记录带有可识别标识的交互日志,并据此提出学术诚信指控或其他调查。对此,一个简单的解决方案是:高等教育机构应向校内社群成员显著地公示此类协议的条款与条件。如果高校不愿或不能做到这一点,或者其领导者自身也不理解这些条款,那么这些机构或许需要重新思考其AI战略。
上述数据隐私问题在生成式AI日益被用作分享高度个人信息的“伴侣”这一背景下,具有了新的、更严峻的含义。OpenAI估计,约70%的ChatGPT消费者用途是非工作目的的。其首席执行官山姆·奥特曼(Sam Altman)也承认,人们正转向ChatGPT寻求“涉及人生建议、指导和情感支持的深度个人决策”。虽然将聊天机器人作为陪伴或密友的长期影响尚属未知,但近期发生的青少年在与ChatGPT互动过程中自杀的悲剧案例,残酷地提醒了人们生成式AI的风险,以及确保个人安全与隐私同等重要性。为此,制定明确的声明规定生成式AI应仅用于学术目的,有助于降低学生与聊天机器人形成潜在有害情感依恋的风险。同时,加强关于校园心理健康及其他支持资源的宣传也至关重要。对学生和教职员工进行有关这些事项及更多的培训,有助于促进负责任的个人AI使用。
然而,高校不能回避自身的核心责任。归根结底,生成式人工智能在高等教育中引发的是一系列系统性的伦理挑战。将责任片面地推向学生,或仅通过培训和学生协议等风险缓释措施,本质上只是为系统性问题贴上“创可贴”。高等教育机构必须认识到,责任的重心必须重新校准,其自身作为技术采纳者、协议签署者和数据管理者的角色,使其承载着至关重要的伦理与法律责任。最终,高校可能会发现,在现行模式下全面承担起这些交织的责任,已成为一个过于沉重、难以独自背负的十字架。
(来源:对话(The Conversation)官网)
