大家好,今天我们来介绍一项关于生成式人工智能与高等教育政策的新研究。这项研究题为《What is the problem with generative artificial intelligence in higher education? – a critical analysis of educator responsibility in the Swedish policy landscape》(高等教育中生成式人工智能的问题是什么?——对瑞典政策背景下教师责任的批判性分析),由Elin Sporrong、Cormac McGrath、Olga Viberg和Teresa Cerratto Pargman四位学者共同进行,并于2025年发表在《Learning, Media and Technology》期刊上。
研究主要探讨了在生成式人工智能(GenAI)迅速融入高等教育的大背景下,大学出台的相关政策是如何界定和构建教师的责任的。研究团队通过批判性话语分析的视角,特别采用了Carol Bacchi的“What's-the-problem-represented-to-be?”(WPR)方法,对瑞典18所大学中14所发布的、共计37份面向教师的生成式人工智能政策文件进行了深入分析。
研究发现,这些政策文件主要将问题归结为三大主题。第一,生成式人工智能对教育实践构成威胁。政策认为,GenAI可能挑战考试的公平性与法律确定性,加剧学生间的不平等,并可能限制学生的深度学习能力,例如导致对写作能力的忽视。第二,高等教育正在落后于社会。政策指出,当前教师的评估策略可能不够稳健,其技能知识也可能过时,同时,教师可能忽视了GenAI带来的教学机遇,未能充分为学生融入未来的AI社会做好准备。第三,生成式人工智能在高等教育中的角色是模糊不清的。政策强调,AI的输出可能存在缺陷、偏见或不准确,数据共享存在安全风险,其开发过程也可能存在伦理问题。同时,在学术诚信的界定和GenAI的法律地位方面,都存在模糊地带。
特别值得注意的是,研究揭示了这些政策背后所隐含的三个关键假设,这些假设深刻塑造了教师的责任框架。首先,政策假设教师是应对GenAI挑战的主要责任人,需要负责设定使用边界、指导学生并重新设计评估方式。其次,政策假设GenAI的普及是不可避免的,因此高等教育必须适应并整合这项技术。最后,政策带有一种“技术解决主义”的倾向,假设GenAI本身能够解决教育中的一些问题,比如实现个性化学习。
研究者最后得出结论,瑞典的生成式人工智能政策通过将一系列复杂挑战(如法律模糊性、伦理风险、技能差距)的责任“下放”给教师个体,实际上是在进行一种“责任个体化”的建构。这可能导致教师的负担加重,同时却将更宏观的社会、环境责任以及技术本身的结构性问题边缘化了。这项研究为我们理解在技术快速变革时代,教育政策如何塑造和分配专业责任提供了重要的批判性视角。
声明:本音频由ima生成。
