AI实践应用正在随时间呈指数式增长,与此同时,需要AI增进福祉的人类共同体却陷入全球文化价值危机。AI伦理治理需要面对怎样的难题?
“社会性机器人”包括机器人护理、机器人同伴、机器人警察、机器人同僚等,它们具有实际的行动能力与自主性,它们对人类社会的冲击会远胜于目前大语言模型或是AI影像生成的影响。社会性机器人应该具有哪些品德与情感程序,从而促使它们做出符合人类普遍价值与道德体系的抉择?
为了探讨这些前沿问题,华东师范大学于2024年6月5日举办了一场“AI聚力”学术沙龙(暨思与文讲座第134-135讲),探讨AI伦理治理与社会性机器人问题。本次沙龙由华东师范大学中国现代思想文化研究所、华东师范大学人文与社会科学研究院联合主办,华东师范大学哲学系应用伦理中心、上海中西哲学与文化比较研究会承办。
本次论坛分为主题研讨和圆桌讨论两个环节。主题研讨环节由美国加州州立大学富乐敦分校刘纪璐教授、西安交通大学王小红教授主讲,华东师范大学中国现代思想文化研究所暨哲学系陈赟教授、华东师范大学哲学系潘斌教授主持。圆桌讨论环节由华东师范大学哲学系应用伦理中心张容南教授主持。
一、社会性机器人
刘纪璐教授做了题为“如何设计社会性机器人的道德基本素养:儒家美德及其影响”的主旨发言。刘教授首先厘清了AI伦理与机器人伦理的概念范畴,表明自己主要研究的是机器人伦理学暨如何设计、应用、对待机器人,以及机器人的道德性这两个问题。刘教授特别提到自己的研究聚焦于社会性机器人,这类机器人需要与人类进行高度互动,未来甚至可能具备独立的思考和行动能力。因此,面对现有机器人的高速发展以及未来可能会出现的困境,如何设计机器人的道德素养成为了一个重要议题。对此问题,刘教授一方面反思了过去对人工道德主体所要遵循的伦理理论的选择,另一方面提出自己的构想,暨参考儒家的品德伦理学与道德情感论,不依赖于行动本身而从行动者出发,建构出具有持续性的道德“人格”的机器人。
进一步地,刘教授结合学者Bertram F. Malle的主张为自己的构想做出具体阐释,支持目前先以机器人的“道德胜任性”为目标,日后再考虑如何建设机器人的道德主体性。她转述一位哥伦比亚大学教授的主张:我们对AI以及机器人的发展,应该采取导引(steer)而非畏惧(fear)的态度。根据Malle的阐述,“道德胜任性”包含六个关键要素,分别是道德语汇能力、道德规范性、道德认知能力、道德情感、道德决策性与行动性,以及道德沟通能力。刘教授特别指出,道德规范性不宜局限于地区性和单一性,而应当构建一个普遍多元的价值规范。在此基础上,刘教授详细解释了选择儒家伦理来建立机器人美德的五个原因:(1)儒家伦理强调亲疏有别,更适合于机器人与人类建立亲密关系;(2)儒家伦理强调终身学习,可以用来加强机器学习的永无终止;(3)儒家品德伦理所列举的美德意涵复杂深刻,不是仅仅针对人类的缺点,而同时可以适用于机器人的品德构造;(4)儒家对处理人与人之间关系的重视有助于建立一个有德合群的群体;以及(5)儒家品德伦理学是一种道德精英伦理,目标不是仅仅建造拟人的机器人,而更是要制造机器人中间的君子圣贤。
对于儒家繁多美德的选择,刘教授主张选择“仁义礼智、忠信诚敬”八个美德加入机器人伦理设计,以作为机器人伦理建设从上而下的基本结构。她也强调机器人必须从下而上,从有德之人的案例中学习道德认知,在与人互动中学习人类的价值取舍。她认为机器人的价值建构一定需要“人在环路”,用问卷方式考察人对有德机器人的期望。她认为她在2022年所做的问卷调查与结果数据,可以印证儒家美德的有用性。
最后,刘纪璐教授再次强调,道德情感对于机器人而言并非可有可无, 而是具有其必要性。机器人必须拥有一些道德情感,才能作出正确的道德抉择。她认为不是所有人的正面负面情感都需要设计给机器人。她所选择的是孟子所说的“四端”——四种使道德可能的道德情感。她认为这些道德情感不是基于身体生物性的反应,而是建立在道德判断,是种认知性的情感,与之配合的也可以选择爱、同情、遗憾等自然情感。当然,在目前阶段只能期待机器人具有“道德胜任性”,可以正确做出“合乎道德性的”道德判断,道德沟通,道德抉择,与道德行为。至于未来如何从表象深入到实质层面,构建机器人“出乎道德”的道德主体性,仍然是个值得商榷且具有挑战性的任务,刘教授期待有更多的儒家学者加入研究。