|
澳洲金融时报:悉尼大学将允许先生运用ChatGPT,并教会他们如何运用
与其施加没法履行的限制,悉尼大学选择信任先生去学习,并让他们本身决议如何运用AI来面向将来并获得成功。
作为教育者,我们总是为遇到酷爱学习、并在艰辛付出中找到乐趣的先生而感到兴奋。
因而,我们很快乐在上周的《金融评论》(Financial Review)上,读到悉尼大学一名法律系先生格蕾丝·拉根(Grace Lagan)写的一篇很有考虑的文章。
人工智能在教育中的衰亡带来的最具毁坏性的结果之一,是先生与教员之间信任的腐蚀。
保罗·琼斯(Paul Jones)
格蕾丝无力地论证了学习的重要性,而她以为,在一个用AI取代完成大学学位所需辛苦努力的世界里,学习正遭到要挟。
过来几年,随着生成式AI才能的加强,世界各地的大学不断在考虑如何保护其学位项目的价值:既在诚信层面(毕业生是不是具有我们宣称他们具有的才能?),也在相干性层面(我们是不是在为先生迎接将来做好预备?)。
在悉尼大学,我们正在一个AI无处不在的世界中努力计划行进的路途。
我们的先生正在运用AI,即便我们告知他们不要用,他们仍会用,常常在我们不知情的状况下,并且正如格蕾丝正确指出的那样,极可能以阻碍他们学习的方式在运用。
对生成式AI这类既生疏又疾速开展的事物,一个自然反响就是制止、屏蔽、否认或检测其未经受权的运用。
除了这些做法的白费以外,这也在传递一个信号:运用AI同等于做弊。它把学者变成“警察”,把他们与先生对峙起来。
“与其问运用AI的先生是不是在做弊,我们将要问的是他们是不是在学习。”
但是,运用AI是做弊吗?全球的先生都在为哪些是允许的、哪些是违规的而困惑,也在惧怕违背规则。
在悉尼大学,我们以为世界曾经改动,规则也必需改动。
当计算器或谷歌=这样的创造离开我们手中时,它们的运用也曾让人觉得像做弊。假如事先我们把它们禁掉,我们的企业竞争力会怎样?
帮忙先生做出正确选择
从本周第二学期开端,我们正在引入新的政策,供认先生运用AI的理想,并转变我们在评价方面的制度性做法。
我们的目的是帮忙先生在运用AI方面做出正确选择,确保他们确切学到东西。
我们如今采取“二制度评价”。第一轨是平安评价,在现场、面对面的环境中权衡先生才能,例如互动式行动评价、问答(Q&A)或演示、技艺视察,或——是的,有时是考试。
当这些评价被良好设计并履行、且AI运用被牢靠控制时,它们能保证学术诚信,并权衡学习是不是曾经产生。
我们还将设置允许运用一切可用且相干工具的“开放的”第二轨(Lane2)评价,包罗生成式AI。
在这些评价中,我们实质上“制止再去制止AI”,由于(除了当先生不在我们眼前时限制AI不成履行这一现实)我们要确保先生可以学习、开展,并在当代商业和更宽广的世界中作出奉献。
我们将假定先生在运用AI,只需他们在开放的第二轨评价中阐明本身如何运用了AI,他们就不会因而惹上费事。
作为教员,我们的角色是鼓舞并权衡学习,是教书,而不是执法。我们必需帮忙先生以担任任且无效的方式与AI互动。
我们会信任他们去学习,由于假如他们不学,他们将在第一轨的平安评价及第步维艰、乃至失败,并且没法毕业。
这类做法意味着先生、雇主和社会可以持续信任我们学位的真实性。
我们仍然自始自终地努力于维护学位项目的价值。
请枪代写、串通和其它行动依然是严重的诚信违约。
不同的地方在于,运用请枪代写办事并非我们希望赋予毕业生的本质;无效且担任任地运用生成式AI才是。
与其问运用AI的先生是不是在做弊,我们将要问的是他们是不是在学习。
先生在第二轨评价中有自主权选择如何、以及是不是运用AI(例如用于查找材料、取得反应或激起更深化的考虑),同时明白他们仍需培育将在第一轨中被严厉丈量的关键才能,这是他们没法躲避的关卡。
人工智能在教育中的衰亡带来的最具毁坏性的结果之一,是先生与教员之间信任的腐蚀。
经过鼓舞围绕AI的通明度,我们消弭了保密的需求,并开启了关于如何更好地运用它的对话。
我们不再施加没法履行的限制,而是信任我们的先生去学习,并让他们决议如何运用这些弱小的工具来面向将来并获得成功。


来源:
https://www.afr.com/work-and-car ... how-20250806-p5mkvq
Adam Bridgeman and Danny Liu
Aug 10, 2025 – 5.00am
Adam Bridgeman is pro vice-chancellor, teaching and learning, at the University of Sydney.
Danny Liu is an education-focused academic on the University of Sydney’s educational innovation team, and inventor of Cogniti, a winner of an 2025 AFR AI Award. |
|