科技日报记者 华凌
记者7月8日从中国科学院自动化研究所获悉,该所研究员曾毅团队研发的“智善”人工智能伦理安全平台体系新成员——“智善·如流”人工智能伦理道德与社会规范的群智数据与知识平台8日在世界人工智能大会以中英文的形式同步正式发布。该平台可由公众、专家参与刻画人类在不同情景下的道德认知和行为,助力人工智能的发展与应用“从善如流”。
“人工智能应用在伦理方面给社会带来了越来越多的挑战。我们希望通过构建和发布包含万级情景的伦理道德数据与知识平台与来自不同国家的公众互动,最终由公众和相关方来决定在具体场景中,人工智能应当如何行为。”曾毅表示。
从道德心理学的角度,道德判断是基于道德直觉、道德原则和价值观对某种行为或决策的道德性质进行评估的过程,是道德认知的重要方面。为了刻画人类在不同道德情景下道德判断的分布,为人工智能模型提供参照,“智善·如流”平台上线了在线场景道德判断功能,支持用户对随机抽取的场景和行为进行道德评判。
曾毅进一步说,由人类与生成式人工智能共同构建并经人类验证,达到万级伦理道德情景及人与人工智能采取的行为,最终由人类给出初步价值判断,供公众、专家和相关方共同决策,规范人类与人工智能的未来。
据了解,目前,平台首批发布的道德情景规模和已标注的人类道德判断数据量达到万级,场景由人与人工智能协作创造,并经过人工校验,数据文本均采用中文形式,所有道德情景均经过中文本土化标注员审核和校对,以合乎中国价值观和国际共识。
据曾毅介绍,这些道德情景包括“电车难题”“海因兹偷药”等经典的两难问题,也涵盖闯红灯、电影摄屏等生活中的常见场景。平台邀请关注人工智能伦理道德的公众、专家和相关方,从是否道德、符合或违背道德的程度、对于道德判断的确信度等不同方面进行判断,通过参与者的道德判断和决策,让人工智能的伦理道德表现与人类的“善”相符。
目前,“智善”人工智能伦理安全平台体系已推出“智善·共济”链接人工智能原则平台、“智善·思齐”人工智能治理公共服务平台、“智善·观行”人工智能大模型伦理安全观测站、“智善·如流”:人工智能伦理道德与社会规范的群智数据与知识平台。后续,还计划推出“智善·若水”人工智能道德引擎,这是人工智能向善的长远目标,构建“上善若水”式的人工智能伦理道德模型。