图片由人机协同生成

最近,某人工智能应用推出了一系列教育相关的功能,比如拍题答疑、作业批改等,引发了家长的广泛关注,还引发了不少孩子的吐槽。与此同时,“孩子到底能不能用AI”这一话题,也成为教育学界热议的焦点。

AI进入基础教育领域,可谓一石激起千层浪。它波及的主要层面至少有3个:教育目标的震荡、教育公平与分化的问题,以及教师角色与权威结构的重构。

其实,任何有关AI与教育发展的讨论都牵动人心。首先,教育在中国社会不只是个人成长的路径,更是最重要的社会流动机制。当AI进入教育场域,它改变的不仅是“怎么学”,更可能重塑“谁有资格上升”“努力是否仍然有效”“公平是否还能被感知”等根本性问题。任何对学习路径的技术重构,都会被立即解读为对既有竞争秩序的干预。

其次,中国教育具有高度结果导向的特征,这与AI的“结果生成能力”形成了强烈共振。在AI的主导下,学习正被制度性地重构为“结果的获取”。有人认为,AI会打破中国的应试教育,我没有那么乐观。相反,我认为,AI让“不经过学习过程而获得学习成果”在技术上变得前所未有地容易。传统教育当中的考试、升学、排名、评价体系,本就是围绕可量化的结果构建的;在这种“结果消费”逻辑中,学习的正当性来自其是否“立刻有用”。而如果把AI过度当做“有用性”工具,学习者有可能从认知的生产者退化为认知产品的使用者,甚至出现“结果提升—能力停滞”的反常现象。这一点其实是教育工作者最担忧的。

第三,家庭是AI教育焦虑的放大器。在AI时代,家长对孩子学业乃至职业选择的焦虑被进一步放大。在教育领域,我们常听到一句话:“不要让孩子输在起跑线上。”在高度依赖家庭投入的教育结构中,家长既是投资者、监管者,也是风险的最终承担者。因此,是否使用AI工具,很容易被等同于“是否让孩子在起跑线上落后”的关键变量。这使得任何有关AI辅助学习、替代作业、智能辅导的讨论,都会迅速演变为集体性的焦虑扩散,而非冷静的对策评估。

由此可见,AI进入教育之所以引发如此大的关注,不仅在于技术本身的颠覆性,更在于它触动了与代际传递相关的高度制度化、情感化的社会核心议题。讨论AI与教育的关系,就不能仅仅把它当作一个技术应用问题,而应视之为一个关乎公平、努力、代际责任乃至社会未来想象的综合性命题。

因为我自己是老师,同时目前又在研究人工智能,经常会收到一些AI与教育关系方面的提问。其中一个最常被问到的问题就是:“孩子长期用AI,到底会不会变笨?”

这个问题其实是有陷阱的,简单地回答“会”或“不会”都会误导。准确地说,孩子长期使用AI,未必会“变笨”,但极有可能在某些关键认知能力上,出现退化或偏移。

在什么意义上“变笨”

如果“变笨”指的是总体智商下降,目前尚没有可靠证据支持这一点。但如果“变笨”指的是以下能力的弱化,那么风险是真实存在的——延迟满足与耐受挫折的能力,从零开始构建问题的能力,在不确定中持续思考的能力,将碎片信息整合为结构性理解的能力。

打个比方,这些能力并不等同于“知识量”,而更像是一种心智肌肉,依赖反复使用、持续负重与主动调动而得以维持。知识可以被储存、被调用,甚至被外包;但思考能力却只能在亲自参与中形成。正如身体的肌肉,一旦停止锻炼,并不会立刻消失,却会在不知不觉中松弛、退化,直至失去原有的力量。

AI潜在的问题正在这里。问题不在于技术是否“给答案”,而在于可能过早终止思考过程,而思考,又必须是由人亲力亲为的。

AI是“工具”还是“代理”

AI往往处在“工具”与“代理”之间的灰色地带。对学生而言,如果AI成为其“认知代理”,可能带来较高风险。其典型表现是:作业直接让AI生成,遇到不理解的内容也不追问,把“能交差”等同于“已掌握”。这样一来,不仅思考过程被外包,错误也被掩盖,学习就变成了“结果消费”。它所导致的,是问题分解能力的萎缩、中间推理能力的空心化,以及自我校正能力的外包。长此以往,孩子并非“什么都不会”,而是越来越不擅长独立思考、分辨信息的真假。

反过来,如果AI成为学生的“认知支架”,它的目标就不是提供最终结果,而是工具性地支持学生完成其尚不能独立完成的任务。若AI被恰当地设计和使用,它至少可以在问题启动阶段、推理展开阶段、反思与迁移阶段3个关键节点发挥作用。

这就要求学生以正确的方式使用AI:先自己思考,再让AI评估;要求AI展示推理路径,并与自己的推理过程对照;让AI反问、质疑、举反例,把它当作“高强度陪练”。

在这种模式下,AI发挥的不是替代作用,而是增强作用。学生被增强的能力包括:元认知(即对自身思考过程的觉察与调控)、迁移能力(能否举一反三),以及表达与修正能力。如此使用AI,孩子完全可以比没有AI的同龄人更出色。

真正的挑战不在知识而在心智

对儿童和青少年来说,最大的挑战还不是获取知识的多寡,而是他们的心智结构如何成形。儿童和青少年往往并不会主动质疑技术系统的合理性,他们更可能把反复使用的系统,当作世界“本来就如此”的一部分。一旦AI在学习情境中长期扮演“总是可用、总是给出答案”的角色,它实际上就在参与心智规范的制定。

AI的危险在于:它总是快速给出答案,甚至带有讨好用户的倾向;它几乎不制造必要的挫败感。然而,人要想获得成长,难免经历迷茫、卡顿、试错,并在此基础上培养不轻言放弃的品格。

如果孩子的认知世界长期由AI调节,那么会出现一种偏差人格:这种偏差并非病理意义上的“异常”,而是一种在特定技术环境中被合理化、被强化的适应性人格。在面对认知困难、延迟回报、失败或不确定性时,心理承受阈值较低、情绪波动显著;内在目标生成与自我监控能力差;关系性权威错位等。

这一点怎么强调也不过分:在儿童与青少年的教育语境中,AI的核心问题从来不只是能不能教会更多知识,而是看它正在协助塑造一种怎样的心智结构。

作为一个思考主体而存在

由此看来,长期使用AI,并不会直接让孩子变笨,但可能会让他们更容易放弃成为思考的主体。要纠正这一点,关键并不在于限制AI的能力,甚至让孩子远离AI,而是要让他们在使用AI的过程中,成为一个真正的思考者。

比如,在作业设计上,可以划定一些“硬边界”:问题必须由学生自己提出;让思考过程保持可见,禁止只提交最终答案;规定学生必须在不借助AI的情况下,口头或手写解释其完成作业的核心逻辑;布置一些难以由AI完成的作业。

对于高年级学生,可以实行作业类型转向,例如:比较不同AI的回答;批判AI的假设前提;设计让AI犯错的任务,再由学生修正。此时AI不再是“作弊工具”,而是被分析的对象。而老师的任务,则是训练学生与AI对话,而非单纯接受AI输出。

归根结底,这些都是为了让学生在使用AI时,保证“大脑在场”。真正的分水岭不在于技术本身,而在于技术使用中,是否保留了那些必须由人独立完成的思考环节。学生使用AI是“变笨”了还是“变聪明”了,取决于AI被当作什么来使用。这并非由AI的能力决定,而是由人与AI的关系结构决定。

在课堂上,我常对学生讲一句话:不要让自己的大脑成为别人的跑马场。而在今天,下一代面临的新课题是:不要让自己的大脑成为AI的跑马场。

(作者系北京大学新闻与传播学院教授)

更多热点速报、权威资讯、深度分析尽在北京日报App

来源:中国青年报

如遇作品内容、版权等问题,请在相关文章刊发之日起30日内与本网联系。版权侵权联系电话:010-85202353