大家好,今天我们来介绍一项关于生成式人工智能在高等教育中应用的新研究。这项研究题为《Relational dynamics at the intersection of technology and higher education: perspectives on GenAI use among humanities master's students》(技术与高等教育交汇处的关系动态:人文学科硕士生对生成式人工智能使用的看法),由Ani Encheva、Karin van Es和Dennis Nguyen三位研究者进行,并于2025年发表在《Learning, Media and Technology》期刊上。
这项研究主要探讨了人文学科硕士生如何在学术环境中使用生成式人工智能工具,特别是他们如何理解和划定其使用的伦理边界。研究团队认为,虽然关于生成式人工智能的讨论很多,但学生的声音常常被忽视,或者被简化为关于学术诚信的调查数据。为了深入了解生成式人工智能在学生学术生活中的复杂角色,他们采用了深度访谈的方法。
研究团队对荷兰一所主要大学的14名人文学科硕士生进行了半结构化访谈。他们发现,学生们并没有被动地接受生成式人工智能在教育中的角色,而是积极地、有反思地、并且根据具体情境来划定使用边界和制定合法化策略。
特别值得注意的是,学生们普遍将ChatGPT等工具视为“工具”或“助手”,而非“合著者”,并强调自己最终的责任和掌控权。他们划定的最清晰的红线是“直接复制粘贴”,但对于除此之外的许多使用场景,边界则非常模糊,充满了不确定性。学生们会根据自己的学习目标、作业的重要性以及个人价值观来做判断。例如,他们可能为了完成一个占比很小的作业而使用AI,但绝不会用它来撰写毕业论文。研究还揭示了一个关键矛盾:学生们一方面感受到使用AI的“羞耻感”和“卧室氛围”(即偷偷使用),另一方面又因为大学政策模糊、教师反应不一而感到困惑和负担,不得不依靠个人判断来导航这个新领域。
研究者最后得出结论,学生们是在一种“制度惰性”和“恐惧文化”的背景下,进行着高度情境化、反思性和关系性的决策。他们呼吁,大学的政策制定不应仅仅聚焦于防止作弊,而应认识到这是一个需要集体审视和重新想象的关键时刻。政策需要建立在学生真实的经验和实践之上,并关注生成式人工智能如何重塑学习、写作和知识生产的意义本身。这项研究为我们理解学生如何在与新技术的互动中主动构建自己的学术身份和伦理框架,提供了重要的视角。
声明:本音频由ima生成。
