首页学术动态

学术动态

荐读 | 冯雨奂、谢心怡《超越符号表征:教育人工智能价值对齐的困境审视与范式转向》(学术期刊转载)
发布时间:2026-03-26

《西南民族大学学报》(人文社会科学版)2025年第9期刊发我院助理教授冯雨奂、华中科技大学教育科学研究院博士后研究人员谢心怡文章《超越符号表征:教育人工智能价值对齐的困境审视与范式转向》。

 

摘要:基于“符号化表征、逻辑化推理、标准化计算”的表征主义价值对齐范式对于治理新一代人工智能在教育领域所引发的主体性风险、价值性风险与侵权性风险具有一定意义。然而,教育作为培养人的社会实践活动,其本质特征在于知识传递的具身性、道德引领的对话性和意识形态塑造的反思性,这些特性与表征主义范式的技术理性形成了根本性冲突。表征主义范式自身也为教育带来了离身性风险、去道德性风险与文化操控风险,表现为阻断身体经验与默会知识的传递,影响道德判断能力形成以及扭曲意识形态认知。基于此,本研究提出“具身化、多元化、本土化”的情境化生成价值对齐范式。新范式以具身认知理论为基础,强调教育价值在真实情境中的动态生成特性;以多元主体协商为路径,保障教育共同体的价值共建权利;以地方性知识为根基,维护文化多样性在教育中的应有地位。这一范式转向在实现伦理调节的同时尊重教育敞开的“弱式”特征,使教育人工智能始终朝向生活世界,助推学生实现全面发展。

 

关键词:价值对齐;教育人工智能;技术伦理;具身认知

全文转载如下

近年来,从ChatGPT的横空出世到DeepSeek的创新浪潮,生成式人工智能凭借其强大功能,已能够自主完成高度复杂的创造性任务。然而,从另一个层面来看,人工智能所带来的风险也日益凸显—例如,大数据的隐私侵犯、算法的“回音室”效应与偏见问题,正不断加剧社会治理的难度。在此背景下,人工智能价值对齐(Value Align-ment)的需要应运而生。价值对齐概念的思想源头最早可追溯至美国控制论创始人诺伯特·维纳。该观点主张将人类价值观转化为道德代码,并将其嵌入人工智能系统中,以确保“人工智能系统所追求的目标与人类渴望的目标相一致”。诚然,实现这一目标极为美好,为推动人工智能技术向善发展,行业龙头企业微软、谷歌、OpenAI等先后成立对齐团队提出技术解决方案,专门负责将价值对齐落于实处。同样,在教育领域,推行跨模态深度学习模型有助于赋能教育,但人工智能的“技术效用性”与教育的“育人性”二者之间的矛盾难以避免,智能教育中的伦理风险也因此愈发复杂。面对生成式人工智能在教育领域可能造成的复杂风险,价值对齐被视为提升教育人工智能安全性的重要途径。目前教育人工智能价值对齐多遵循表征主义范式,以显性的教育价值为基准训练调整大模型,对人工智能教育伦理风险进行治理,试图恢复与留存数字时代的教育伦理与道德情感。

托马斯·库恩在《科学革命的结构》中提出,“范式”涵盖了一段历史时期内科学共同体成员普遍认同的信念、理论模型、操作方法及范例等要素。借鉴库恩关于“范式”的讨论,本文认为,在教育人工智能领域,“范式”指的是教育技术共同体所信奉“根本信念”与所共享的“方法工具”。也就是说,范式的转换意味着两个层次的更改。表征主义范式有以下特征:在根本信念方面,该范式将教育价值视为独立于情境的抽象的静态条目,可被“符号化表征”。在方法工具方面,该范式借助“逻辑化推理”手段实现价值对齐。具体而言,它从人类行为、语言或决策中提炼出价值偏好排序,将模糊的价值观转化为明确的奖励函数和约束条件,以确保AI行为与形式化表征的高度一致。此外,当前教育技术共同体主要由全球大型科技公司及其背后的资本力量所主导,这些力量掌控着价值定义的标准。然而,基于符号建构的表征主义价值对齐范式面临诸多挑战:用于对齐一端的价值观念、道德伦理是否可以进行“符号化表征”?在“逻辑化推理”的对齐过程中是否会发生某种程度的“流失”?大型科技公司与技术人员是否能真正实现教育价值对齐?上述关于价值对齐的本质问题不应被忽视。本文将厘清表征主义价值对齐范式对教育人工智能治理的意义,同时揭示这一旧范式面临的现实困境,澄清其背后掩盖的文化和意识形态博弈,并提出教育人工智能价值对齐情境化生成的新范式,以求较大程度上发挥其价值并规避风险。

 

一、表征主义价值对齐范式在教育领域的治理意义

 

生成式人工智能可能造成的伦理风险已得到广泛关注、讨论与界定,在此基础上,本文认为,其在教育领域主要可能造成主体性风险、价值性风险与侵权性风险。目前基于“符号表征—推理计算”的价值对齐采用技术性的解决方案,在化解这些伦理风险方面具有一定积极意义。

 (一)主体性伦理风险治理

教师与学生是教育的主体,生成式人工智能在教育中的应用可能遮蔽教师与学生的主体性及师生交往的主体间性。教师的主体性表现为教师根据不同教育情境做出内心判断,如《教学勇气:漫步教师心灵》中所言,“教学不论好坏都发自内心世界”。对生成式人工智能的依赖可能使教师将大模型所提供的答案作为基本“真理”运用于教学,而不再根据具体教学情境做出选择与判断,由此,教师自身的经验、思考、感悟与智慧受到遮蔽。伊曼努尔·康德在《论教育学》中指出:“问题首先在于让孩子们学习思考”,学生的主体性主要体现在通过创造性思考,逐步成长为理性而自由的“人”。然而,对人工智能的依赖将改变学生的求知模式。安德鲁·阿伯特对此也感到忧心忡忡,他在《大学教育与知识的未来》中指出,当前在新技术的影响下,学生剧烈转向“发现作为求知”与“算法操作作为求知”,而远离了作为联想的和作为推演论证的求知。“发现”与“算法操作”式求知影响了学生的批判创造能力、深度思考能力,可能遮蔽学生的学习主体性。师生交往的主体间性表现为师生之间的智识交流与心灵沟通,卡尔·雅斯贝尔斯指出,真正的教育既包括知识内容的传递,也包括生命内涵的领悟、意志行为的规范,生成式人工智能的滥用可能使得师生的交往窄化为知识传递,变得机械、冰冷与僵硬。

当前的价值对齐致力于确保生成式人工智能的使用不遮蔽教师与学生的主体性及师生交往的主体间性,通过机器学习实现的价值对齐,有助于在一定程度上化解主体性伦理风险。人工智能的伦理原则一般包括确保人的能动性,这是对作为主体的“人”的彰显。如在欧盟发布的《可信赖的人工智能伦理准则》中,第一条即“人的能动性与监督”,要求“AI系统应通过支持人的能动性和基本权利以实现民主、繁荣、公平社会,同时允许人类监督”。在此伦理准则下设计的教育智能系统(如教学辅助系统、学习辅助系统)将符合教育的基本价值,为教师的自主判断、学生的自主思考及师生之间的智识与心灵沟通留出必要的空间。例如,在价值对齐提供的伦理准则下,网易有道旗下AI全科学习助手“有道小P”结合Deepseek的“深度思考(R1)”功能,引导学生自主思考。科大讯飞开发的星火教师助手搭载讯飞星火大模型,以对话式、生成式的自然交互,辅助教师进行备课,既提升教师的备课效率,也释放其想象力。

(二)价值性伦理风险治理

学生是尚不成熟的社会个体,处于“扣好第一粒扣子”的关键时期。尤其是基础教育阶段的学生,作为未成年人,生成式人工智能可能产生的不良信息对其价值观的影响尤为突出。由于训练数据来源于人类,因而大模型很难避免受到人类偏见的影响,可能输出包含歧视性的内容,导致学习者认知偏见加剧,从而影响其价值观的形成。例如,机器模型可能会将医生、工程师等职业生成男性形象,对女性学生的职业认知产生消极影响。还有研究发现,机器学习同样容易产生偏见,相比欧裔美国人的名字,非裔美国人的名字更容易与令人不快的词汇联系在一起,这可能影响学生对有色人种的客观认知,使他们形成错误的价值观。

表征主义价值对齐致力于保护学生在使用人工智能时不受到不良信息的影响,有助于在一定程度上化解价值性伦理风险。在国外,人工智能公司基于“人类反馈强化学习”(RLHF)等技术手段进行偏好排序与安全评分,生成奖励信号以优化模型行为,并通过预设的“宪法”规则约束模型行为,在对话模型中过滤不当内容,使得其与人类价值观相契合,减少有害输出。我国发布的《新一代人工智能治理原则—发展负责任的人工智能》中所确定的八大原则就包含了“包容共享”等伦理准则,通过训练模型微调、算法伦理审查等方式与这些伦理准则尽可能对齐,教育智能系统将可能实现以人为本、智能向善,与社会主义核心价值观要求相契合。

 (三)侵权性伦理风险治理

数据是人工智能时代的核心资产。一些人工智能基于个体的数据开展训练与优化,但当前各大模型的数据存储与监管方式并不透明,存在数据泄露的风险。一些科技公司已发生过数据泄露情况,例如,2023年9月,微软人工智能研究团队意外在软件开发平台GitHub上泄露了大量私人数据。在教育领域,学生的个体学习数据是人工智能系统重要的训练数据库,包含学生的若干敏感信息,如若数据泄露将可能侵犯学生的隐私,对学生造成伤害。

“安全可控”是人工智能系统需要对齐的基本价值之一。表征主义价值对齐将人类价值观如“隐私保护”“人格尊严”,以及关于“个人生物信息”“受版权保护的图像风格”“私密对话”等特定概念深度嵌入教育人工智能的认知表征层,得以实现更主动、可解释且可泛化的风险防控。例如,欧洲采用匿名化处理方式使学生数据不可归类为特定的个体。未来,综合运用密态数据训练、安全围栏、隐私计算和数据备份等技术,人工智能系统可更好地提升数据安全性,避免数据泄露风险,使涉及学生敏感数据的教育智能系统在数据收集与训练中与“安全可控”的价值准则对齐。

 

二、表征主义价值对齐范式在教育领域的风险

 

教育作为培养人的社会实践活动,承担着知识传递、道德引导以及意识形态形塑三大核心使命。然而,当前教育人工智能的发展仍高度局限于意识的“符号”表征,表征主义价值对齐的底层逻辑在于将价值观视作一种规范性内容,用以训练机器。这一范式正在对这三大教育核心功能造成潜在威胁:它把情境化的知识简化为显性知识的灌输,用算法预设的道德判断取代了真实的价值观讨论,通过数据偏见隐性地塑造单一的意识形态认知。事实上,人类真正的智能活动是不可表征化的,基于“符号化表征、逻辑化推理与标准化计算”的范式看似高效,却分别给教育活动带来了知识维度、伦理维度和意识形态维度的诸多风险,在某种程度制约了人工智能的发展。

(一)知识维度:价值符号化存在离身性风险

当代具身认知(Embodied Cognition)理论已证明,人类认知的形成本质上是具身的、情境化的,身体及其感受力在人类认识与实践活动中扮演重要角色,被认为是“个体通往世界的本体性通调道”。莫里斯·梅洛-庞蒂在其研究中强调人在感知世界、与世界连接时需要借助“身体”这一纽带来实现,并以此显明自身。这种感知并非先验的逻辑能力,而是以人存在的场域为前提的情境性体验。为此,教育需结合人与情境,进行身体知觉场的双向建构,使受教育者在丰富、复杂、精密的多感官互动中学,在身、心、脑、体之间建立真正的联结。然而,表征主义价值对齐基于如下根本信念:价值观可通过符号完全表征,可脱离身体与情境被编码。用于对齐的价值符号将情境信息高度抽象化和压缩化,把经验用语言文字、符号形式表达出来,虽在技术上提供了可操作性,但有可能导致身体与精神分离的离身性风险(Disembodiment)。

表征主义价值对齐的离身性风险主要体现为知识丧失了与具体情境相关的精微之处,即教育中默会知识的传授。20世纪中叶,迈克尔·波兰尼提出了默会知识(Tacit Knowledge)概念。大量显性知识可以通过查阅资料、上课听讲等渠道获得。与显性知识相对,默会知识依靠的是身体的直觉、心灵的诀窍和技能,是尚未编码、非结构化,在人类之间的传授不易“言传”,更适合实践示范的“身教”,也依赖于接收者热情地参与实践活动,充分调动判断、想象、直觉、情感等默会能力,形成个体化的认知体验。这些知识总是与特殊问题或情境任务相联系,建立在“感知”而不是“知道”之上,不易保存、传递和分享,也难以被输入到人工智能系统之中。符号化的价值无法完全捕捉与情境相关的背景意义,只有具象的、真实的、身处于世界之中的人类才能理解其中的关联意义。

科学知识社会学学者哈里·柯林斯对默会知识做出了深入的阐发,其关于“身体性默会知识”与“集体性默会知识”的区分为思考价值对齐在知识维度方面的缺失提供了概念工具。在个体知识方面,表征主义价值对齐后的人工智能无法传递身体默会知识。在教育中,除了听和阅读之外,观察、体悟与感受是非常重要的,许多技能依赖经验积累和直觉判断。例如,文科教师可以教授遣词造句和安排情节的写作技巧,但写作风格与灵感依靠师生精神气质的熏陶以及自我的实践与领悟等。又如,为了获得科学的突破,研究者应将观察、记录、描述、资料分析等基本的科学技能,根据自身情况进行调整,转化为个体化的独特知识,使之成为科学实践结构中的核心要素。此观点的理论依据来自波兰尼,即在科学家的培育过程中,除了显性知识之外,经验、洞察力、鉴别力以及实践智慧等内在于个体的默会知识是极为重要的。不管是文科教育还是科学教育,往往需要导生双方在对话中抒发具体的见解,隐藏的认识立场与观点才能逐渐显现。而表征主义范式下的人工智能仅能传递静态价值,无法像人类教师一样引导学生作为主体进行直接感知、探索,也无法提供师生接触、互动与合作的空间。若没有身体的参与,学生探索和构建默会知识的机会将大大减少,其结果是自身的“知识”得不到充分有效的发展。伴随着自身的成长知识越发片面和狭窄,久而久之,批判性思维、创造力与思维力就会发生退化,所学的知识也难以转化为“智慧”。

在社会化方面,表征主义价值对齐也阻碍了集体默会知识的传授。人与动物的区别正在于人能够通过社会化融入社会,集体默会知识就是指社会交往与合作中的默会知识,主要包括隐性的团体规则以及社会化所需要的信念态度。这种默会知识根植于人的社会性之中,被明述的难度非常大。比如,在科研团队里,如何遵循团队惯例合作完成一个项目,个体学习和掌握这些规则的机制尚未且几乎不可能为科学知识或机器模拟所表达。此外,科学知识不仅要“真”,而且要“信”其真。在科学研究中,除了具体的实验与论证,更重要的是对知识的信念和使命感,而后者则属于默会知识的范畴。理想、信念、态度及精神的掌握只有在科学活动中,通过师徒间大量随机的互动与切磋方能实现。学生不应当仅仅学习用文字表达出来的知识,更要具有支撑这些知识的信仰和热情,否则无法真正理解并掌握所学的知识。当教育不再重视学生相应的科学精神与具身态度,便只剩下可见的“知识超市”,学生成为沉浸自我世界的消费者。其结果是,学生对知识不再抱有热情,不再有内在的驱动,也很难通过这一方式去获得对所学专业及专业知识的认同。

(二)伦理维度:价值程式化存在去道德性风险

汉娜·阿伦特认为,行动与言说得以实现的条件是以他者的在场性和人的复数性为前提的,即人不能孤立地行动,我们以言说和行动切入人类世界,这种切入就像“人的第二次诞生”,当“我”开始行动,并且恰好得到他人接受和回应“我”的开始,从单数的“我”走向复数的“我们”时,道德才得以可能。比如,宽恕在人的复数性的条件下才能发生,没有人能够自己宽恕自己,我们要依赖他人才能得到宽恕,“如果我们封闭在自身之中,我们就永远无法宽恕自己的任何失败或过失,因为我们缺乏那种为了某人是谁的缘故就宽恕他的经验”。德育也只能通过人与人的互动实现,比斯塔提示我们,教育具有互动性、复杂性与不可测的特性。正因为教育是互动生成的,它不是信息的机械传送或独白,更不是客体间的交换,而是主体间的相遇,是一种实践的、开放的、无法确定的和创造性的过程,其“输出”和“输入”之间不会有完美的配合,因此也充斥着风险与不确定性。为了让教育变得更强、更安全,人们力图规避各种误差,免除教育风险。将教育简化为一台能够规避风险并追求确定性的精密机器,虽在技术层面尽显高效,但在伦理层面上是不可取的。教育的美丽之处恰恰在于其风险性,在于活生生的主体间非预设的“相遇”“交流”与“互动”,在互动中,学生实现自我精神世界的建构,并以“非自我中心”的方式“存在于世界并与世界共在”。总而言之,唯有与具体他者进行交互,摆脱“自我”走向“他人”,并且承受主体间相遇的不可预见性,人才能成为道德行动的主体。

然而,表征主义价值对齐基于“逻辑化推理”的方法工具训练人工智能,输入和输出的内容都是经由条分缕析并表达出来的“德目”,道德被简化为可计算的命题,其程式化的属性具有既定的、给定性的一面,与真实世界中道德伦理的多元性、情感性、情境性之间具有根本冲突。它在价值传授中扮演了强势教师角色,既失去了阿伦特意义上“复数性”的行动属性,也丧失了比斯塔所说的教育中的“不确定性”,削弱了学生作为道德主体的判断力。首先,价值对齐失去了“复数性”这一行动的基本条件,没有“他者”的人机互动阻碍了学生道德判断力的显现。德育所传授的除了相对稳定的客观知识之外,还有具有主观性和内在性的观念体系,这当中涉及师生积累的生活经验以及教师所持的道德价值观。在德育所运用的情感陶冶活动中,倘若教师情感表达越真实,则教学情境中所融合的感情色彩就越丰富、越生动,教师提出的善恶观念就越容易使学生获得相应的情感体验,具有确定性和普遍性的价值无法与此实现对齐。尽管人工智能在价值对齐过程中能够借助情感计算“识别”人类情感,明确动作意图,并在价值传输过程中提供个性化反馈,甚至在指令微调下呈现出“类情感”,但实际上,这只是结合数据库条件执行语句,实现外在表达或表情,本质上与形式主义并无二致。价值对齐之下学生的学习离开了精神之间的深度交往和对话,认知方式与意义世界归顺于智能设备的预设标准,并最终趋于统一。学生与真实他者主动积极的言说被确定而封闭的过程阻碍,其意义建构能力与反思意识难以开展,这制约了教育促成主体性浮现之使命,面向他者的责任伦理也无法实现。

其次,表征主义价值对齐使教学走向窄化和封闭,道德判断力无法在具有生成性、动态性的教育情境和真实的道德生活中浮现。正所谓即便是再“微小的情境改变也会影响道德行为”,道德判断依赖身体感知,源于具身交往中的试错和反馈,人无法从抽象的符号中识别“善”。人类伦理和道德问题与情境变化密切相关,呈现出高度复杂性和不确定性,难以提炼出适用于不同情境的普遍规则。在处理价值冲突时,价值对齐往往会以自动补全的方式笼统概括训练语料库的平均观点,使价值呈现为某种普适性的简洁、抽象的符号,如面对复杂的伦理冲突问题,则很难有效应对。在去情境化的知识中,学生无法锻炼道德判断力与自我控制力。正如“人们不能通过任何简单的刺激和反应、奖励和惩罚等行为模式,在其他人那里‘买’到慷慨或善良”,面对外在于自身的知识或是抽象原则,学生很难基于价值对齐的智能体来理解道德的本质,也很难做到有效把握道德规范表现出来的时机或相应范围。当进入真实情境中,他们缺乏对道德规则的真实感知,也很难获得体验到善性并获得行动的能力,面临“去道德化”的风险。

(三)意识形态维度:价值单一化存在文化操控风险

作为批判教育学的代表人物,阿普尔曾问道,谁的知识最有价值?根据批判教育学观点,在社会上处于强势地位阶层的知识会被视为最有价值的。在表征主义价值对齐中,以西方科技公司为主导的“标准化计算”忽视了在不同时代背景、文化传统、政治制度等的影响下,人会持有不同价值判断的事实,在一定程度上加剧了人类价值标准的同质化。这可能使得目前在AI领域占据主导地位的西方国家的价值观被视为人类的普世价值观。

首先,表征主义价值对齐可能强化资本主义意识形态在教育中的潜在操控,消解学校中地方情境和多元文化的差异。由于目前AIGC技术仍为西方国家所主导,西方意识形态可能随AIGC技术而介入教育,使学生的家国认识与情怀遭到一定程度的消解稀释。文化同质化首先体现在语言的载体上。世界各国的数据大模型文化偏向明显,目前市场推出的主流模型所使用的训练数据普遍持“英文优先观”,价值对齐的训练数据也优先考虑英文数据。语言和文化是不可分割的整体,并非文化中立,基于海量英语数据的大语言模型呈现出的默认价值观更是与西方文化价值观保持一致,使用户在潜移默化中受到某种文化价值倾向的影响。此外,当前很多主流的人工智能技术由西方发达国家的公司研究机构主导开发,其训练数据与算法设计不可避免地受到开发者所在文化背景的影响。在进行规模化训练后,价值对齐则可能成为一种高效的意识形态传播模式,催生文化霸权。技术拥有者对外号称基于自己技术传播的知识最具价值,以“普世价值”之名嵌入特定文化价值观,可能会将单一的文化价值观传播到其他国家和地区,对当地的文化造成冲击,使其他文化处于弱势地位。正如乌申斯基所说,“惟有民族性的教育才是民族发展历史过程中富有生命力的工具”。对于本民族优秀传统文化的传承与创新发展,学校因其系统组织者与规范引导者的角色而具有不可替代的教育优势。然而,在价值对齐中资本主义价值观的冲击下,学校难以发挥原本以文化人、文化育人的作用,影响了学生对本民族文化的深度认同,对家国情怀的培育构成挑战。

其次,表征主义价值对齐可能强化数字拜物教意识形态在教育中的潜在操控。正如尤尔根·哈贝马斯所说,技术统治的意识虽没有迷惑人的理论,但比之旧式的意识形态范围更广且更难以抗拒。资本借助价值对齐所企图实现的意识形态渗透目的更加隐蔽和柔性。在发达资本主义阶段产生了“仿真”这一全新的社会控制形式,以快速攫取经济利益,实现资本最大化。人们很多生活需求的产生,实质是需求的仿真。而“价值对齐”作为技术权力与赛博资本主义意识形态合谋的策略,极大程度地参与了算法操纵的由符码组成的仿真世界。赛博资本通过算法分析精准捕捉教育用户的数据,定制私人化的信息牢笼,塑造出虚假的情感需求和兴趣偏好,使其沉浸于仿真信息,并嵌入到无休止的消费循环中。教育技术平台不是教学习者认识自己,而是刺激他们不断追求即时的满足,接受被数据规定的自己。如此,教育主体原本具有自主性的欲望、情感在资本主义生产逻辑之下被仿真社会的拟象表征所形塑、牵引与订造,成为一种能够被操纵的商品、可盈利的资源,卷入到填满其内心欲望的路途之中,产生“精神无产阶级化”。

 

三、情境化生成:教育人工智能价值对齐的范式转向

 

在发展人工智能过程中,技术专家借助“符号表征—推理计算”的价值对齐范式实现价值嵌入和调节,确保人工智能不侵害人类权利,为人类社会行有益之事。这一带有滤镜的主张却使本存在于生活世界的价值演变为僵化的道德条目,教育的真谛不复存在。为克服表征主义范式的根本局限,本研究提出向“情境化生成”范式的转向。该范式奠基于具身认知理论、民主化的协商机制以及地方性知识图谱,能够有效规避技术霸权的风险。其核心主张在于:教育中的价值对齐并非预设“标准答案”的静态嵌入过程,而是在具体、动态、开放的教育情境中,通过多元主体的具身参与、协商对话和文化实践,持续生成意义与共识的涌现过程。这一转向旨在重建教育AI的价值根基,使其真正服务于师生主体性的张扬与主体间性的深化。以下阐述构成“情境化生成”范式的三条相互依存、协同作用的路径,它们共同致力于将价值对齐从“表征—计算—标准化”逻辑到“具身—协商—本土化”逻辑的根本转向。

(一)人机系统“具身化”:优化教育人工智能的情境适应力

在根本信念维度,教育人工智能价值对齐范式转化体现为从“符号表征”转向“具身认知”立场,即明确教育价值内生于情境化的感知、行动与交互之中,而非外在于情境的抽象规约。现有的大模型主要基于对去语境化的信息建构的符号系统,因此更重视显性的文字、影像等,而忽视了具身智能的交互性发展。事实上,真正的教育价值不是预设的教条,每一个具体的价值判断都依赖于在具体情境中进行协调行动的技巧,而非既定标准的“对齐”方式。要规避价值对齐的离身性属性及其导致的教条主义,人工智能开发需要从具身认知的特性出发,而不是仅仅依赖于抽象的人机对立原则。

人工智能要真正获得具身认知,算法与数据并不是唯一关键,更取决于能否将人工智能系统深度整合到丰富的感官和真实环境之中,并塑造能灵活适应、动态学习并产生情感联系的“身体—环境”交互体系。正如学习者是以感官获取并加工信息的方式来认识世界,教育人工智能需要将环境因素纳入,从与情境的实时交互中形成连续进化响应的过程。传统的教育人工智能主要对特定条件和行为进行响应,但具身性的教育人工智能则不同,其所拥有的信息来自各种传感器对外界情境信息的感知,全方位接入使其具备视觉、触觉、听觉等多模态数据的学习能力,从而能够全面感知物理世界,并构建起实时、动态的模型。这种心智仿真结构所形成的智能体认知和理解不再是“离线”式的,而是与情境不可分离的,处于持续交互状态的开放网络。它扬弃了确定性与封闭性的开发思路,在开发、教学、评价过程中提升了算法的价值敏感性,可以更好地模拟人类教师与学生互动,斟酌教学情境中涉及的各伦理要素,使学生领悟和掌握不可言传的默会知识。例如,教师可利用物理场景与历史场景VR等集成视、听、触、动等多模态传感的教育情境模拟平台,引导学生通过身体动作、空间探索、多感官沉浸式交互理解抽象的物理定律与历史知识,以达到求真、共情的教育效果。由此,教育人工智能价值对齐也不再是基于简单语义符号的静态概念,而是一个随着教育应用场景更替而不断发展的动态概念。具身认知的概念也时刻提醒我们,智慧并不仅是“大脑”或“算法”的事情,而是从身体出发、深度融入现实世界的过程。根据教育的不同情境、不同风险场景发展具身化、情境化和社会化的人工智能技术,为其赋予物理身体,方能更有效地实现人机交互与价值对齐的目标。

(二)道德主体“多元化”:构建教育主体的价值协商机制

在方法工具维度,教育人工智能价值对齐范式转化体现为从“逻辑化推理”转向“多元化共创”,即明确价值并非能够通过逻辑推理达成的全面共识,而需要不同的教育主体在多元对话中协商生成。比斯塔认为,主体性是从无法预测的情景中浮现出来的,并不是我们掌握或拥有的某种事物。教育总是要面对活生生的人类主体,具有“弱”的属性,是对已在事物“美与善”的确认。与比斯塔所说的“教育之弱”相对立,目前表征主义价值对齐的方法论总是表现出势不可挡的强属性—它使价值观降维为可计算的参数,在底层代码上的操作使技术的严密性、精准性、确定性得到充分体现,竭尽可能避免发生风险。很显然,人们进行的确定性的探寻实则否定了德育的实质。

人类社会在发展过程中会遇到很多情境应对及后果测算等不确定性现象,价值计算本身就存在极大的难度。除了某些终极价值可以达成共识,价值通常无法计算。同样,鲁洁曾反对本质主义的观点,即以抽象的道德信条作为判断是非的标准,认为针对个体实施道德教育,旨在引导个体在生活中以道德主体的身份做出应有选择。针对学习者实施道德教育应是未完成的、敞开的、富有创造性的工程,在这个过程中道德教育应体现为“弱”的特征,只有这样,学生的主体精神才能体现出来,学生生命在场才能获得体现。规范主义的价值对齐可能将未参与训练数据的群体排除在认知主体之外,使这部分主体无法参与信息的生成。尤其是受教育者群体,他们生成的信息本可以在人机交互中对道德反思起到积极的作用,却被排除在外。

人工智能虽是得力工具,但教育实则是师生间的意志相遇,其“在场”对于学生道德的引导、智性能力的提高依然具有无可替代之处。因此,在道德教育中,师生双方应在道德层面上形成“有限的共识”而非无限扩张的共识。道德主体的多元参与,接受道德问题没有唯一正确的答案,是实现价值对齐的基础与前提。这是一个开放的、在解构与建构中往返的过程,因此充满不确定性。双方或多方能够作为真正的主体来充分表现自己的在场。在具体做法上,应构建多元化教育主体的价值协商机制。在宏观方面,应寻求多方对于现阶段教育的价值公约数的共识,将伦理道德、公平正义、以人为本等潜在的价值共识注入教育技术设计中,避免教育中的相对主义。在微观方面,政府、教育主管部门应组织不同层级、不同地区的科研机构、技术人员、伦理人员、学校管理者、一线教师团队、学生、社会大众共同建设教育价值观情景实际应用的案例库与评估工具,从教育理念到教学实践,为模型提供大量真实情景下的应用范例。这些主体在协商机制中扮演着多元角色,共同构建起容纳价值多样性的道德对话空间。案例库的设计尤其注重呈现因价值差异所引发的道德分歧,并充分关注参与者在经验背景、知识结构与文化积淀等多个维度上的异质性。例如,可在校园或社区中开展人工智能赋能的教育价值探究项目,让教育管理者、社区人员、教师、学生围绕身边的真实议题集成观点,AI作为“协作者”而非“仲裁者”,开展提问引导、共识提炼等辅助功能,保障相关教育主体的对话主导权及道德能动性,使学生在协商中学习民主参与和复杂价值判断。教育人工智能不应仅仅局限于专家的技术,而需要成为一种在复杂教育场景中多方行动的艺术实践乃至伦理实践,引导完善人性并帮助人们探寻向善且美好的“可能生活”。

 (三)模型算法“本土化”:提升教育智能模型的文化理解力

以科技公司及其背后资本所主导的价值标准具有单一化的风险,国内大模型价值对齐为实现“本土化适应”,须摒弃表征主义预设的“价值霸权”,转向对地方性知识与文化多样性的尊重与整合。目前的价值对齐常见的单一奖励模型无法代表多样化的社会价值观,容易被部分利益群体所操控并导致“水土不服”的教育文化现象。如霍耐特所述,人类社会中的冲突不仅仅出于争取生存资源,很多时候也为了争取对方的承认。由于目前缺乏全球统一的对齐标准,这种为承认而斗争可能会发生在人类与机器之间,甚至在机器与机器之间。例如,在价值选取方面,中西文化背景的差异塑造了不同的教育价值取向,中国强调集体利益与社会和谐,而西方强调个体自由与个人权利。即便是在西方教育领域普遍推崇的性别平等价值观,在保守地区付诸实践时—如设立性别混合的在线课堂,仍可能引发争议。

人工智能技术是新时代发展的产物,尽管该系统具有自身的突出特点,但绝非独立于人类而存在。在与世界交互过程中自下而上产生的价值观将是高度情境化(Situated)和在地化(Local)的。正如不存在同质化的人类价值观,也不存在一种单一的机器价值观。同样,价值对齐并非对齐某一个体、群体的价值观,而是能够基于不同国家、民族、文化内部价值结构进行因地制宜的调整与构建。因此,本土的大模型以及对于外来的大模型进行本土化改造就显得至关重要。目前,中国本土开发的Deepseek在预训练和价值对齐阶段显著增强了中文语境的表达能力和思维习惯适应性,一定程度上打破了智能算法领域中的文化霸权。DeepSeek通过开源创新模式构建全新技术生态,在人机协同领域走出了一条区别于西方“技术至上主义”的道路,内蕴着新文明形态背景下人机协同的东方哲学思想。在教育人工智能领域,推进本地语料库建设对于增强学生对本民族文化的了解,坚定文化自信具有重要意义。政府与教育主管部门应持续整合全国高校和研究机构的相关资源,牵头打造中华文化数字资源平台与语料库,并确保本地语料库持续更新,提升人工智能模型对中华文化的理解能力。教育者可利用基于本地语料库的教育智能平台,将国家课程要求与地方文化资源、真实问题、生活经验无缝融合,生成情境化、有意义的学习内容与活动,例如,运用AI生成本土化的生态案例,引导学生探究本地的乡村振兴与环境保护议题,运用所学服务当地社区,在实践中深化对本土价值的认同,强化责任担当。

另一方面,正如道德教育应尊重不同个体存在的不同价值诉求一样,算法也应尊重多元文化社会体现出来的这种差异性,进行传播过程的“再本土化”。个体生活在不同的国家,不同的社会,有着不同的文化背景,其思想偏向也会有所不同。技术人员在进行算法设计时,要充分考虑这些差异性因素及社会文化情境,在此基础上进行算法设计,通过多语种支持与文化多样性算法,使得不同文化背景的用户能够更便捷地理解彼此。例如,DeepSeek模式嵌入文化安全隔离机制,确保生成内容的文化适宜性,不仅展现了对于文化差异性的包容,也有效促进文明交流的数字化转型和价值观的跨文化融合。教育人工智能也需要因应这一趋势,在跨区域扩散过程中充分尊重和吸收本土文化、语言与历史传统,成为扎根本土、促进人全面发展的内生性力量。

 

结语

 

新一代教育人工智能采用“符号化表征—逻辑化推理”的表征主义范式进行价值对齐,且其价值标准为科技公司及其后的资本所主导。这种范式通过将人类价值观抽象为静态符号条目,借助算法编码与逻辑验证约束AI行为,在防范技术失控风险层面具有工具意义。然而,该范式在本体论上将教育价值降维成可计算参数,导致三重异化危机:离身性风险切断身体经验与默会知识传递,使知识教育沦为空洞规训;去道德性风险以技术理性压制价值思辨,削弱师生道德主体性;文化操控风险借普世价值之名推行文化霸权,侵蚀本土文化体系。它将活生生的教育价值如尊重、公正、启迪降维为僵化的道德代码,将复杂多变的教育情境简化为可预测的算法输入,将师生主体间充满不确定性的互动过程预设为确定性的人机交互。其结果往往是侵蚀了教育的本质—促进主体的涌现与成长,以及与真实世界建立“共鸣”关系。当前出现的价值对齐异化提醒我们,价值观技术化有其边界与局限,必须高度重视价值观“符号化、程式化、单一化”带来的诸多问题。

为实现真正的价值对齐,教育者需要保持对教育本质的清醒认识,关注不同群体的异质性经验背景,承认教育之“弱”,使人与真实世界形成“共鸣”关系。为突破困境,本文提出向“情境化生成”范式的根本转向—以具身化重建价值感知的物理根基,通过多模态交互环境唤醒身体伦理意识;以多元化构建价值协商的民主机制,通过多元道德主体对话激活智能教育共同治理;以本土化筑牢价值意义的文化根基,依托区域知识图谱与自适应模型实现技术对文化多样性的赋能。这一范式转向的本质在于扬弃技术垄断逻辑,在具身情境中培育价值共鸣,在多元对话中激发道德自觉,在本土脉络中安顿文化认同,使人工智能从价值规训工具转化为人的全面发展媒介。其终极意义在于捍卫教育作为人类文明再生产场域的精神高度—当技术理性试图将人简化为数据节点之际,情境化生成的价值对齐恰是为教育灵魂赋能的数字人文革命,指引我们在算法时代守护人之为人的主体性尊严。