08

管好了人,才能管好生成式AI 2025年07月04日

□刘金陈

日前,《中国青年报》刊文聚焦AIGC(人工智能生成内容)检测新规后的第一个毕业季。去年以来,国内多所高校相继出台规定,对学生在毕业论文(设计)中使用AIGC的行为进行规范。

近年来,生成式AI技术迅猛发展,并在诸多领域得到广泛应用,却给高等教育带来不小挑战。一方面,“AI幻觉”导致一些看似合理但实际错误的信息被不当引用,进而污染论文库;另一方面,也有一些学生使用AI工具完成作业、代写论文甚至考试作弊,引发群体性的学术诚信危机,严重冲击学术公平与教育伦理。

2023年初,ChatGPT刚诞生不久,就被全球多地教育部门、多所高校宣布禁用。但“禁用策略”的效果并不理想,人工智能时代汹涌而来,对教育特别是高等教育的冲击愈演愈烈。据《泰晤士高等教育》统计,2024年英国顶尖高校记录的AI作弊案件较前一年激增15倍。

危机之中,“技术策略”迅速崛起。今年毕业季,“AI率”成为热门话题,不少毕业生为降“AI率”费尽心思。但这种“以AI对抗AI”的应对方式,不仅因检测结果的不可靠而备受争议,也陷入了技术对抗的恶性循环,让学生把更多的精力放在如何降“AI率”,而非论文本身上。

无论“禁用策略”还是“技术策略”,其本质都是在限制学生对生成式AI的使用,企图将双方隔绝开来。但堵不如疏、疏不如引,各大高校与其对技术“被动防御”,拒生成式AI于千里之外,不如对人“主动引导”,推动高等教育与生成式AI深度融合。

人工智能是引领新一轮科技革命和产业变革的战略性技术,将深刻改变并重塑高等教育模式,可以说,这已是大势所趋。越来越多的案例表明,生成式AI并非是不可控的洪水猛兽,合理、规范地将其作为辅助工具使用,可以提升高校的教学与科研效率。从具体实践来看,越来越多的高校选择以各种方式融入人工智能时代。

对高校来说,主动拥抱、驭势前行的关键,就在于系统性培养师生的“AI素养”。

一方面,要把“AI素养”纳入学术伦理教育范畴,引导师生守住学术诚信的底线。毕竟,诚信是人类社会的基本道德准则,也是科学的生命,它不仅关乎学术成果的可靠性,也直接影响着全社会对科学本身的信任度。

另一方面,要提高师生使用AI工具的能力,既能合理、规范地借助AI工具高效完成任务,也要深刻认识到AI生成内容的局限性,并具备一定的批判性思维,可以通过分步推理、追问澄清、交叉验证等策略提高生成信息的准确度。

技术没有善恶,只是人性的放大器。生成式AI究竟是作弊工具,还是效率工具,往往也是由具体的使用它的人来决定。这就意味着,管好了人,也就管好了技术;管不好人,个体的道德瑕疵就会随着技术大众化被放大为社会的公共危机。重申诚信准则、强化失信惩戒,凝聚对生成式AI合理、规范使用的共识,并持续完善相应的配套措施——唯有如此,才是穿越危机的正确选择。