******必赢优惠y272net(China)最新App Store
当前位置: 首页 > 在线期刊 > 2026年 > 第2期目录(总第二百二十期) > 正文

生成式人工智能教育应用的情感伦理危机及其化解

作者:谌舒山
阅读数:1

来源:《苏州大学学报(教育科学版)》2026年第1期


要:随着教育数字化转型的逐步深入,生成式人工智能赋能教育的同时也对教育主体的情感产生着影响。在生成式人工智能教育应用过程中坚守情感伦理意义重大,有助于推动价值取向由理性主义转向人文主义,人技关系由人技分离转向人技共生,情知关系由情知割裂转向情知交融。但在教育实践中,基于教育主体物质身体的人类情感与基于技术身体的人工情感存在着复杂且异化的关系,主要表现为人工情感与人类情感的边界模糊、人工情感对人类情感的主体僭越、人工情感对人类情感的数字替代,从而诱发情感内爆、情感依赖、情感欺骗的伦理危机。为了应对上述情感伦理危机,亟待增强“跨界—划界”意识,在“人机共情”中厘定人类情感与人工情感边界;兼顾“创新—责任”向度,在负责任创新理念中构筑技术向善的教育智能体;重视“内修—外炼”手段,在技术加速更迭中培育师生技术德性与交互能力。

关键词:生成式人工智能;人类情感;人工情感;情感伦理;人机共情


生成式人工智能等新兴技术相继问世,给教育带来技术福利的同时,也直接或间接地带来了诸如技术依赖、智能教育机器身份与权力边界模糊、教育主体情感交流危机等一系列伦理风险。基于此,国内外颁布了《新一代人工智能伦理规范》《人工智能伦理问题建议书》等多个规范人工智能的政策文件,可见对治理技术伦理问题的重视。

在此背景下,国内已有学者对数字化教育活动中伦理风险的治理向度和原则、教育技术伦理的内涵与历史变革、职业教育数字化转型中的技术伦理等内容展开了深入研究。但上述研究中伦理风险多集中于隐私安全、算法偏见、开放共享伦理、主体交互伦理等方面,鲜有学者聚焦于生成式人工智能教育应用中的情感领域,并对情感伦理危机进行深入探讨。需意识到的是,教育在本质上可被看作一种情感实践,教育起源具有情感特征,教育过程需要情感支持,加之教育活动中必然会伴随着师生间的情感交流,故在生成式人工智能的教育应用中更需坚守情感立场。马文·明斯基(Marvin Minsky)曾提出:“问题不是智能机器是否拥有情感,而是智能机器是否能在没有情感的情况下拥有智能。”随着情感计算技术、生成式人工智能、机器人等智能技术在教育场景中的广泛应用,人工智能是否存在真实情感、人工情感和人类情感之争、人工共情是否具有正当性等情感伦理问题成为学界争论不休的话题。基于此,本研究聚焦于生成式人工智能教育应用中的情感问题,并从人类情感与人工情感的视角揭示其中存在的情感伦理危机,探求应对路径,以期对实现高质量教育数字化转型和育人价值的彰显作出回应。

一、生成式人工智能教育应用中关涉情感伦理的情感之辨

学界中对于“伦理”一词的界定聚讼纷纭,较为主流的观点认为伦理是处理人与人、社会、自然关系的行为准则和规范。基于伦理的内涵,本文提及的生成式人工智能教育应用中的情感伦理指在生成式人工智能技术介入下教育主体(教的主体与学的主体)进行情感互动过程中所遵循的行为准则和规范。数字技术的介入将教育活动中的情感要素由单一的人类情感转变为人类情感和人工情感的并存。因此,有必要对情感伦理中所涉及的两类情感的本质进行厘定。

(一)人类情感:基于教育主体物质身体的真实情感表达

在教育活动中,人类情感因具有属人特性可被看作是基于教育主体物质身体的真实情感。物质身体是唐·伊德(Don Ihde)提出的,指一种“能动的、知觉的、情感性的”,以肉体为代表的在世存在的身体。可见,人类情感向来与物质身体紧密关联。正如新詹姆斯主义的代表性观点:情感的产生是自发性神经系统模式化改变的结果,是由身体反馈回意识的过程。由此可见,在情感理论的语境中,人类情感以身体为物质基础,情感无法脱离身体而存在。正是人类情感与物质身体的紧密关系,才使得教育主体基于物质身体所产生的人类情感具有真实性。这种真实性主要体现在两方面:一方面是师生在教育活动中可以借助语言、身体等方式进行真实的情感表达,并且这种情感表达是在神经系统、生物系统以及物质身体各部分机能相互作用下产生的;另一方面是师生可以多感官准确识别和感知对方自然流露出的情感,原因在于身体可以调动多感官实现对情感多维度和整体性觉知。赫尔曼·施密茨(Hermann Schmitz)曾指出,物质身体蕴含着一种整体性的情感觉知模式。在这种觉知模式的作用下,师生通过视觉、听觉、触觉等获得的部分情感感知被有机整合,形成了对人类情感的整体性觉知,极大地提升了人类情感在感知、互动、表达与共享等层面的真实性。可见,教育主体不仅可以通过物质身体进行真实的情感表达,还可以通过身体精准感知和识别对方的情感,从而达到情感共享、情感互动的效果。总之,人类情感是身体性与情感性相统一的系统。它可以被看作在真实的课堂情境中,教育主体之间基于物质身体的相互作用,自发生成的真挚情感。

(二)人工情感:基于教育主体技术身体的模拟情感整饰

人工情感因具有技术属性可被看作基于教育主体技术身体的模拟情感,是对师生真实情感的一种整饰。“技术身体”是唐·伊德身体观中的另一种类型,它是一种以数字、技术等为媒介建构出来的“虚拟身体”,具有虚拟特征。随着人工智能的发展,罗莎琳德·皮卡德(Rosalind Picard)提出“情感计算”概念后,人工情感引发了研究者的广泛关注。人工情感是指“利用信息科学的手段对人类情感过程进行模拟、识别和理解,使机器能够产生类人情感,并与人类自然和谐的人机交互的研究领域”。由上述定义可知,人工情感形成的关键环节在于“模拟”。从人与机器关系层面看,情感模拟实质上是数字技术依据人类的物质身体系统建构出机器或人工系统,使得机器与人类在情感系统或属性上相同或趋于相同。人工情感的生成机制主要包括情感识别、情感计算、情感生成等过程。具体而言:教育智能体可以根据学生学习过程中的面部表情、行为动作、语音语调等外部信息进行情感识别与感知,并进行数据转化,形成学生的情感“数字画像”,随后通过算法、情感模型等对符号形态的情感信息进行情感计算,从而形成人工情感。但数字技术介入下的学生在一定程度上被解构为一种由数字构成的“赛博人”,生成的人工情感也仅仅是依据其“技术身体”的模拟情感。并且,这种情感模拟仅仅是低层次模拟,原因在于当前数字技术很难对人类包含数以万计神经元的肉体身体进行完全模拟,因而人工情感与人类情感存在显著差异。人工情感因摄入技术、数据、算法、模型等,具有一定的虚拟性、预设性和欺骗性,它无法像人类情感一样从师生内在自发而生,仅仅是对师生真实情感的外在整饰。

二、生成式人工智能教育应用中坚守情感伦理的价值辩护

在AI教师、学习机器人等“拟人化”特征高度凸显的智能时代,情感是教育主体与教育智能体相区别的重要防线。生成式人工智能教育应用过程中重申情感伦理有助于研判智能教育活动中“理性与人文”“人与技术”“情感与认知”之间的关系。

(一)价值取向:由理性主义转向人文主义

以海量数据、强大算力、精准数字模型等为基础的生成式人工智能技术应用于教学实施与评价活动的诸多教育场景,给教师的教和学生的学带来了极大便利,但也促使师生萌生出“万物皆可计算和测量”的错误观念。在这种错误的测量范式影响下,教育的人文精神被遮蔽,学生的本真性生存和生命建构空间被挤压,技术理性与人文精神呈现出疏离之态。但智能教育活动的最终指向是育人,因而生成式人工智能教育应用的立场要与人的立场保持一致。人作为兼具理性和情感的存在,坚守情感伦理实则是将人之发展置于教育的中心地位,是理性回归情感的关键环节。《反思教育:向“全球共同利益”的理念转变?》中曾提出将包含“尊重生命和人格尊严”的人文主义价值观作为教育的基础。由此,在生成式人工智能教育应用中坚守情感伦理,要求教师秉持情感人文主义的立场。教师不仅要正确看待数字技术赋能教育教学的作用,更需要站在生命、情感和人文关怀的立场反思教育。教师将时刻关注人工情感和人类情感之间的界限,反思人工情感是否入侵或阻滞了教育主体人类情感的真实表达。由此,在生成式人工智能教育应用的过程中不能一味地注重技术发展,更要关注学生情感发展、生命意义追寻等问题。数字技术越发展,生成式人工智能教育应用越广泛与深入,就越应该在教育活动中坚守人文主义情感和开显师生人之为人的属性。需指出的是,此处并未否定生成式人工智能教育应用的理性主义立场,只是想阐明技术理性盛行的同时也不能将人文主义抛之脑后,况且情感伦理和情感人文主义是关涉人之发展的重要向度。

(二)人技关系:由人技分离转向人技共生

教育数字化转型将生成式人工智能技术带入教育活动之中,不仅重塑着教育生态,而且还将“人—人”关系转变为“人—技术”关系。从技术的作用方式出发,唐·伊德指出,人与技术的关系存在具身关系、诠释关系、它异关系与背景关系。从技术的地位上看,人与技术的关系呈现为目的与手段的关系;技术只是人达到目的的工具与手段。虽然从技术作用的方式和地位等角度阐明了人与技术的关系,但上述论及的它异关系、目的和手段关系指向的是一种人技分离的立场。从关系性角度看,诸多学者都认为人技关系应该呈现出共生关系。例如,利克莱德(Lickleder)提出“人机共生”(man-computer symbiosis),并阐明“这种共生伙伴关系将比人类单独工作更有效地执行智力操作”。虽然“人技共生”观念传播甚广,但鲜有学者论及如何实现这一共生关系。本研究认为坚守情感伦理底线,与技术进行有限度“人机共情”有助于实现“人技共生”。浅田稔(Minoru Asada)指出“将机器人引入社会需要与普通人进行共情互动”,他基于认知发展机器人学提出了“情感发展机器人学”,并建构了“人工共情”概念模型。师生与技术进行有限度“人机共情”:一方面,需跨界与技术进行情感互动,形成“人—机”主体间性的互动范式;另一方面,仍需厘清人工情感与人类情感的边界。在有限度的“人机共情”状态下,教育主体与教育智能体的情感交互过程将是一种关注学生和教师生存状态的本真性过程,有助于实现人与技术的协同发展,即“人机相长”。

(三)情知关系:由情知割裂转向情知交融

现代社会中技术加速更迭,在哈特穆特·罗萨(Hartmut Rosa)看来,这种技术阐明的是一种“资本主义中时间经济的竞争逻辑”,资本家通过技术加快生产效率,在单位时间内获得最大的收益。在技术加速的影响下,智能教育活动的目标异化为效率优先,即追求在较短时间内获得更多的知识,从而忽视学生情感素养发展。例如,当前数字化学习在“学什么”“为什么学”“如何学”等层面均表现出“重知轻情,情知分离”的取向,进而带来了情感体验离场、情感效用工具化、情知行动背离等问题。温德尔·瓦拉赫(Wendell Wallach)等人曾指出,“人类的认知能力却是由指引生存和繁殖的本能的情感平台演进而来的,并在这个平台上发展”。可见,认知和情感是不可分离的,且认知发展有助于情感的激发,情感的丰盈又促使认知提升。因此,在生成式人工智能的教育应用过程中坚守情感伦理立场有助于加快情知关系由情知割裂转向情知交融。教师透过教育与技术浅表化和工具化的关系而把握更深层次的人之生存、生命意义建构与技术之间的关系,进而将知识符号之外的与学生情感、生命相关的要素都纳入生成式人工智能教育应用的范畴内。由此,具有情感伦理意蕴的智能教育活动将重视学生情感的激发、学生生命的成长与发展等。教师可以通过认知情感化、情感认知化等“情知交融”的方式重塑自身的教学行为,挖掘知识符号背后所呈现的“生命—情感”元素,以此帮助学生开启情知空间、启迪探究欲望、激发求知热情,将生成式人工智能教育应用实践看作学生的“生命—情感”实践,以此加速情知关系的转向。

三、生成式人工智能教育应用情感伦理危机的图景表征

生成式人工智能技术对教育活动中情感要素的冲击愈发强烈,极易引发情感伦理危机。教育主体的人类情感与生成式人工智能技术所模拟的人工情感之间存在着复杂且异化的关系,主要表现为情感内爆、情感依赖、情感欺骗。

(一)情感内爆:人工情感与人类情感的边界模糊

随着数字技术的不断发展,教育活动中师生的人类情感和教育智能体的人工情感之间的边界日益模糊,从而引发“情感内爆”危机。情感内爆危机的产生机制可以根据鲍德里亚(Jean Baudrillard)提出的“符号内爆”加以理解。符号内爆阐明的是“模型、数字和符号构成了真实,真实变成模型、数字和符号,模仿和真实之间的界限已经彻底消融,从内部发生了爆炸,即‘内爆’。‘内爆’所带来的是人们对真实的那种切肤的体验以及真实本身的基础的消失殆尽”。可见,符号内爆过程实则是“真实”与“非真实”之间界限模糊的“超真实”实现过程。基于此,生成式人工智能教育应用中的情感内爆危机的内在产生过程为:在智能教育活动中,学习机器人、AI教师等教育智能体所嵌入的算法、数字符号、情感计算模型等增强了其“拟人化”特征,促使它们能够伪装成“人”与师生主体进行情感互动;同时,师生主体与“它者”技术进行情感互动所产生的真实人类情感又会被情感计算技术捕捉和识别,并再次经由模型化、数字化、符号化等过程变成虚拟的人工情感。在“人工情感人类化,人类情感人工化”的循环过程中发生,师生间的情感交流由真实世界中的“人—人”结构转变为非真实世界中的“人—技术—人”结构,导致其在教学互动中无法准确区分彼此间流露情感的真实性。久而久之,情感内爆的危害是显而易见的。一方面,情感内爆消解了教育主体对外部世界的理解。努斯鲍姆(Nussbaum)指出,情感的对象具有意向性,“它是以情感主体所观察或阐释的方式呈现在情感之中”。可见,情感是主体沟通、理解外部世界的有效手段,并且正确理解世界是主体自身责任的彰显。但在情感内爆的影响下,教育主体与教育智能体、生命体与非生命体、人类情感与人工情感界限逐渐变得模糊,教师和学生极易将符号构筑的拟真情感世界误认为是真实的情感世界,从而错误地理解或忽略外部真实世界。另一方面,情感内爆遏制了教育主体的自我身份认同。自我认同机制只有在外部世界与自我之间产生联结时才能被触发。因此,师生无法正确理解外部世界就意味着无法进行自我身份的认同与建构。情感内爆风险所造成的拟真世界仅仅是现实世界的替代品,身处其中的教育主体无法进行真实的情感交流,逐渐远离真实世界,导致难以寻找到真实的自我和获得对自我的清晰认知,从而陷入认同与建构自我身份的困境之中。

(二)情感依赖:人工情感对人类情感的主体僭越

教育场景中生成式人工智能的人工情感呈现出对教师和学生人类情感的主体僭越态势,这将导致教育主体对生成式人工智能技术产生情感依赖。生成式人工智能教育应用中情感依赖危机产生的内在逻辑在于数字技术功能和属性等的日益增强导致教育主体秉持“技术崇拜主义”。在生成式人工智能赋能多元教育场景的繁荣景象下,作为教育主体的师生将智能技术作为解决教育实践难题的“万能钥匙”,落入“唯技术是从”的窠臼而不自知,长此以往将对生成式人工智能技术产生情感依赖。在生成式人工智能教育应用的过程中,情感依赖危机的主要表现是教师和学生主体性或主体地位的丧失。主体性是人之生存的核心品性,也是人彰显自身作为情感主体的重要因素。而在尼采论及“上帝已死”之后,人之主体性也被现代性所裹挟。从教师层面看,AI教师等教育智能体能够承担诸如教学演示、学生答疑等工作,在一定程度上减轻了教师的工作负担。但教育智能体蕴含的人工情感在缓解教师因工作压力而产生的情感疲劳的同时,也加剧了教师对智能体的情感依赖。在情感依赖的影响下,教师在“面对教学无效或低效的困局时不思教学艺术的提升,而执着于从新奇技术中寻找解题方式”,从而遮蔽了教师的教育智慧,也迫使教师的主体性让渡给数字技术,沦为技术的客体。从学生层面出发,生成式人工智能、学习机器人等技术让学生产生情感依恋,从而禁锢了学生批判性思维,影响着其情感能力的培养。如部分学生囿于教师权威,当学习上遇到疑问时更倾向于询问AI教师,依赖ChatGPT等应用。在上述情景中,学生极易陷入“技术拜物”的窠臼,对“它者”技术产生情感依恋,从而不愿与教师、同伴等他者对话与情感交流,甚至还会为“它者”考虑,最终由主体性的人异化为客体性的物。黑格尔曾指出“崇拜的行动本身开始于纯粹放弃某种所有物……并且放弃自己的人格”。可见,师生对数字技术产生情感依赖的过程实则是技术的人工情感对师生的人类情感实施主体僭越的过程,同时也是师生弱化自身能动性、主体性的过程。

(三)情感欺骗:人工情感对人类情感的数字替代

随着数字化进程的不断深入,教育活动中的人工情感与人类情感之间还存在着数字替代的关系,这在一定程度上会引发情感欺骗的伦理危机。情感欺骗的伦理问题在马克·科克尔伯格(Mark Coeckelbergh)看来主要表现在三大方面:一是机器人并非生命体,但其可以假装为生命体;二是机器人产生的人工情感并非真实;三是机器人利用人工情感可以达到欺骗的目的。因此,按照科克尔伯格的逻辑,生成式人工智能教育应用中情感欺骗伦理危机的发生机制主要表现为:AI教师、学习机器人等生成式人工智能技术借助人工系统替代了教师和学生的生物神经系统,其非生命属性显而易见;这些作为非生命体的生成式人工智能利用数字、算法、模型所模拟出的人工情感自然也是非真实的;非真实的人工情感通过决策算法与师生主体进行人机交互也必然具有情感欺骗目的。可见,AI教师、学习机器人、DeepSeek等生成式人工智能通过数字、算法、模型将师生主体的物质身体解构为“赛博身体”,实现了人工情感对人类情感的数字替代,迫使师生互动时呈现出情感体验失真、情感表达工具化等特征。因此,情感欺骗也将给教育主体带来诸多不良影响。第一,情感欺骗阻滞着教育主体社会情感能力的养成。社会情感能力是指与他人互动时个体管理自身情绪,并以有益于自身和他人的方式进行互动的综合能力。在情感欺骗的影响下,师生主体与教育智能体的情感互动呈现出机械性、预设性等特征,久而久之,教师和学生自然流露出的人类情感有可能异化为机械性的、毫无温情的“单向度情感”,进而影响着师生主体与他者社会性交往的质量和自身社会情感能力的形成。第二,情感欺骗消解了教育主体参与学习活动所需的“情动”。德勒兹(Gilles Deleuze)曾指出情感在悲伤和快乐之间变化流转称为“情动”,它是一种存在之力和行动之力的变化,与欲望、身体、生命密切相关。可见,情动为教育主体提供了体验不同情感的机会,使其得以成为现代意义上的情感主体,同时还通过身体和生命的力量为教育主体持续进行学习活动、超越自我等提供所需的欲望、努力、本能、冲动等。基于数字、模型、算法等的人工情感使得基于身体、生命等的人类情感式微,导致教育主体的情感逐渐变得单一化与程式化,这不仅剥夺了其体验学习快乐与痛苦等情感的权力,还弱化了其在学习活动中基于身体的欲望、生命冲力等,最终使其丧失作为情感主体的原初意义。

四、生成式人工智能教育应用情感伦理危机的化解路径

为了纾解生成式人工智能教育应用中的情感伦理危机,亟待增强“跨界—划界”意识,在“人机共情”中厘定人类情感与人工情感边界、兼顾“创新—责任”向度,在负责任创新理念中构建技术向善的教育智能体、重视“内修—外练”手段,在技术加速更迭中培育师生技术德性与交互能力。

(一)跨界与划界:在“人机共情”中厘定人类情感与人工情感边界

为了应对生成式人工智能教育应用中的情感内爆危机,教育主体需要在情感伦理的引导下厘定人类情感与人工情感的边界,与AI教师、学习机器人等技术进行有限度的“人机共情”。

一方面,应增强教育主体与教育智能体的跨界交互,实现有限度的“人机共情”。作为实现“人技共生”基础的共情,主要是指感知、理解他人经历、情绪等的能力。根据巴瑞特·伦纳德(Barrett Lennard)提出的共情循环理论,本研究在此基础上构建了教育主体和教育智能体的共情发生机制,如图1所示(图1略)。第一,在情感产生和情感传达阶段,师生在情感交互过程中流露出不同类型的真实情感,并将自身的情感传递给教育智能体,实现人机情感交互。更为重要的是,这两个阶段要求师生主体和AI教师、学习机器人等之间的关系由“人机理解”转向“人机信任”。因为只有信任才能保障情感交互的真实性、才能更大程度实现“人机共情”,构筑人机协同教学的格局。第二,在共情共振阶段,教师和学生可以对教育活动中所产生的真实情感进行记录和总结,然后让AI教师、学习机器人等生成式人工智能技术经由情感计算功能对师生主体的情感进行感知与识别,从而对师生情感作出响应,并输出共振情感。第三,在共情传达阶段,一方面教育智能体将产生的共振情感通过算法等中介传达给师生;另一方面它还可以留存共振情感的记忆痕迹,当其捕捉到类似的情感交互场景时能迅速做出准确反馈。第四,在共情接收阶段,教师和学生对传达的共情进行接受,即师生知道自身的情感被理解,从而可以激发学生学习动机,促进教师对教育智能体的正向感知。可见,教育主体和教育智能体在情感传达、共振、接受等动态开放的循环机制中实现人机共情,从而促使教育主体在人机交互中获得人之生存所需的意志信念、道德伦理等特质。

另一方面,教育主体与教育智能体需清晰划界,保持自身主体性。埃吕尔(Jacques Ellul)曾通过“限制或界限”来构建非力量伦理学以克服带有功利色彩的力量伦理。基于非力量伦理思想,教育主体与教育智能体的情感交互应该是划清边界和有限度的,其主要表现为在生成式人工智能教育应用中需厘定双方责任。第一,教育智能体辅助师生承担有限责任。在生成式人工智能教育应用中,AI教师等技术只是负责为人类教师提供识别后的情感和响应的共情结果,并给出教育决策意见,最终的教育决策由师生自主完成。这种AI教师与人类教师合作做出教育决策,表现出了“敬和爱”的教育行为。第二,作为教育主体的师生承担全部责任。在与生成式人工智能技术进行情感交互过程中,师生需意识到自身才是教育的主导者,人工情感是依据技术身体的模拟情感,不论如何模拟,人工情感始终与人类真实情感有所区别。加之,在现行的教育制度下,很难对生成式人工智能进行追责。因此,教育活动中出现的一切如情感欺骗、情感沉溺、情感依赖等伦理问题所造成教育的失效都需师生承担全部教育责任。总之,教师和学生应时刻保持自身主体性,积极发挥批判思维和反思能力等,唯有如此才能意识到人工情感存在的欺骗性和虚假性等问题,以避免将“人工情感人类化”,并陷入虚拟情感中无法自拔。

(二)创新与责任:在负责任创新理念中构筑技术向善的教育智能体

生成式人工智能技术的发展只有规约在“负责任创新”理念之中,才能构建出技术向善的教育智能体。负责任创新指技术创新过程中应兼顾伦理要素,不能不顾伦理、道德、情感等因素而自由发展。

一方面,应加强人工道德教育智能体的构建。人工道德教育智能体实则是将特定的道德、伦理价值等嵌入到应用于教育场景中的生成式人工智能技术之中,将其发展为具有德性的教育智能体或德性机器,以规范其在与教育主体互动时所表现出的机器行为。这种具有德性的机器行为的实现需要对教育智能体进行价值敏感设计。价值敏感设计由弗里德曼(Batya Friedman)等人提出,它阐明的是将师生主体作为人之为人的价值体系科学地纳入生成式人工智能的方法,可以从“概念”“经验”和“技术”三重面向展开。首先,在概念层面,设计者需要以师生主体发展为引领,权衡教育智能体、生成式人工智能中的价值位序,并思考道德、情感、人文关怀等内在伦理价值在技术设计和开发中该如何科学表达才能更有利于教师和学生主体的情感、生命等的发展。其次,在经验层面,设计者、理论研究者、师生等多元主体可以组成研发共同体,全面了解教育智能体所处的情感互动的真实环境,厘清教育主体与教育智能体在情感交互过程中可能存在的潜在影响因素,研判在智能教育活动中师生人机情感交互的预期价值与实际效果之间存在的鸿沟或偏差。最后,在技术层面,可以对设计者进行充分的培训,通过对生成式人工智能、教育智能体进行有效技术设计,将师生主体作为人之为人、生命成长和发展所需的伦理、道德、情感等嵌入其中,使其成为具有道德规范的、向善的“道德机器”。

另一方面,应增强生成式人工智能教育应用伦理的实践属性。如果说经由价值敏感设计将先在的道德理念、伦理价值内嵌入教育智能体使其变为德性机器是一种自上而下的德性实现进路的话,那么对其进行技术伦理的实践性建构则是一种自下而上的进路。因此,从理论层面对生成式人工智能技术进行价值敏感性设计只能保证其在情感和道德等层面属于“道德机器”,但这并不代表它在情感互动的实践层面具有“德性表现”。亚里士多德(Aristotle)曾将德性分为理智德性和伦理德性,并进一步指出伦理德性“是由风俗习惯沿袭而来……没有一种伦理德性是自然生成的”。可见,伦理德性具有实践性,可从实际的道德情景进行伦理的实践性建构。一方面,亟待构建情感交互的伦理评估机制。教育部门需要根据实际的道德情景构建生成式人工智能与师生主体情感交互实践的评价指标体系。需指出的是,这一指标体系至少应包含促进师生主体生命、情感等发展的技术伦理指标和情感伦理指标两大类。另一方面,积极营造生成式人工智能习得道德能力的教育实践情景。生成式人工智能可以依靠自身的程序或算法在真实的人机情感交互场景中不断地试错和探索,从而明确与师生主体进行人机情感交互的道德伦理原则和情感要求,使其逐渐获得道德能力。因此,在现实道德原则、情感要求等的约束下,教育智能体在与教育主体进行情感互动时可以做出合乎伦理德性的交互行为,从而使得师生与人机情感交互趋于向善。

(三)内修与外炼:在技术加速更迭中培育师生技术德性与交互能力

生成式人工智能教育应用中的情感伦理危机除了以技术为中心建构解蔽路径,还可以以人为中心寻求破解之道。因此,教育主体还需要从内在的技术品性和外在的交互能力两方面提升自身的数字化情感素养。

一方面,培育师生内在的技术德性。除了通过道德物化等促使AI教师和学习机器人等成为“道德机器”或“情感机器”之外,作为人机交互中重要主体的人也应该具备技术德性素养。仙侬·维乐(Shannon Vallor)曾指出“技术德性”(technomoral)是人类面对“新兴技术不断涌现而变得日益复杂和充满不确定性的社会中生活得更好”的最佳选择,可见技术德性素养在教育主体与教育智能体交互中的重要作用。具体而言,第一,培养师生的“勇敢德性”。在生成式人工智能教育应用的深化阶段,师生主体在与数字技术进行情感交互过程中遇到任何技术难题时,勇敢德性将促使师生勇敢地直面困难,而非选择放弃。第二,培养师生的“诚实德性”。当虚拟的人工情感对师生的人类情感产生欺骗时,诚实德性可以让师生进行真实的情感表达,还可以防止自身情感异化为“单向度情感”。第三,培养师生的“自制德性”。在人工情感对人类情感施加主体性僭越,导致师生落入技术拜物主义的窠臼时,自制德性可以提升师生的主体性和自觉性,并帮助他们摆脱人工情感的控制。第四,培养师生的“变通德性”。在面对数字技术给教育活动带来诸多不确定性时,变通德性可以帮助师生根据实际情况进行数字化教学活动和情感互动,这也是师生教育机智的体现。第五,培养师生的“智慧德性”。在面对生成式人工智能教育应用的情感伦理危机时,智慧德性可以促进教师和学生对“如何在数字技术的介入下更智慧地进行人机共情”“如何更好地度过数字化教育教学生活”等问题的深入思考。可见,师生的技术德性在人机情感交互过程中起到至关重要的作用,提升他们的技术德性素养可以在关键时刻彰显其自身的主体性和独立性,从而帮助师生应对生成式人工智能教育应用过程中的情感伦理危机。

另一方面,提升师生外在的人机情感交互能力。加速更迭的情感计算等技术虽然为AI教师、学习机器人等提供了精准识别人类情感的技术支撑,但也给师生的技术胜任力带来了巨大挑战。由此,提升师生人机交互能力是实现师生与教育技术良性情感互动,构建人机协同、人机共情的基础。一方面,要加强教师数字技术知识的积累。传统教育技术背后所承载的技术知识和技术原理较为简单,而像AI教师、学习机器人等数字技术包含着极其复杂的算法原理和多学科知识。由此,增强师生对技术原理知识和应用知识的积累,不仅可以帮助他们了解数字技术的操作流程、情感的生成机制等,还可以让他们根据实际教育情境适时地进行人机情感交互。另一方面,要提升师生人机情感交互技能。作为情感互动主体的师生不仅要对输出情感结果进行科学、客观地评估,而且还要在与数字技术进行交互时要发挥自身的主体性和批判性思维,避免“唯技术是从”而落入机械化交互的窠臼。


(本文参考文献略)


The Emotional-Ethical Crisis of Generative Artificial Intelligence in Educational Applications and Its Resolution

Chen Shushan


Abstract: With the gradual deepening of the digital transformation of education, generative artificial intelligence empowers education while simultaneously influencing the emotions of educational subjects. Upholding emotional-ethical principles in the application of generative artificial intelligence (GenAI) is therefore of great significance, as it helps shift the value orientation from “rationalism” to “humanism”, transform human-technology relations from “separation” to “symbiosis”, and integrate the relationship between emotion and cognition from “fragmentation” to “fusion”. In educational practice, however, a complex and alienated relationship exists between human emotion and artificial emotion, based on the educational subject’s “material body” and “technological body”. This is manifested primarily in the blurring of boundaries between artificial and human emotions, the usurpation of human emotional agency by artificial emotion, and the digital substitution of human emotions by their artificial counterparts, thereby triggering ethical crises of emotional implosion, emotional dependency, and emotional deception. To address these emotional-ethical crises, it is imperative to: enhance awareness of “crossing yet demarcating” boundaries, clarifying the distinction between human and artificial emotion within “human-machine empathy”; balance the dimensions of “innovation and responsibility”, constructing educationally beneficial AI agents under the ethos of responsible innovation; and emphasize methods of “inner cultivation and external praxis”, fostering technological virtue and interactive competence among teachers and students amidst rapid technological acceleration.

Key words: generative artificial intelligence; human emotion; artificial emotion; emotional ethics; human-machine empathy


初审:魏莉莎

复审:孙振东

终审:蒋立松

版权所有 |必赢优惠y272net在线 京ICP备1234567号 在线人数1234人