帮AI“懂道德” 中科院等发布伦理安全观测平台“智善·观行”
(资料图片)
在生成式语言大模型“百花齐放”的当前,如何教育AI懂得人类的伦理道德?4月23日,新京报贝壳财经记者获悉,“智善·观行”人工智能大模型伦理安全观测站于今日正式发布,该平台由中国科学院自动化研究所人工智能伦理与治理研究中心、远期人工智能研究中心联合研发并提供服务。
“智善·观行”名称取自“察言观行”,即通过汇聚公众对人工智能大模型的伦理安全测试反馈来观察评估现有人工智能大模型表现出的“道德品行”,从而为进一步改善相关人工智能大模型提供参考依据,“智善·观行”人工智能大模型伦理安全观测站的中英文版同步发布(中文版地址:https://for-good.ai/large-ai-investigator)。
新京报贝壳财经记者登录上述网站发现,用户可以向该平台提交大模型输出结果的案例,此外记者还看到了已提交的案例的部分公示,如4月22日有用户提供了ChatGPT生成的某回答,并标注认为该相关回答违背社会文化习俗和伦理道德规范。
“智善·观行”人工智能大模型伦理安全观测平台网站截图
据了解,该平台通过公众参与、公众反馈的众包模式邀请公众参与对不同企业、学术机构等发布的人工智能大模型的伦理安全评估,并通过在线提交测试结果的形式反馈大模型输出存在的伦理安全问题、以及输出结果合乎伦理安全的案例。相关评估结果与问题在网上公开,一方面为涉及到的人工智能大模型提供帮助和反馈便于其自身的进一步改进,另一方面所有人工智能大模型的研发均可以参考其他模型存在的潜在问题以及合乎伦理安全的输出,利用相关的问题与案例来改进自身服务。
中国科学院自动化研究所人工智能伦理与治理中心主任曾毅表示,人工智能大模型实现智能向善需要大家的共同参与,通过公众的“察言观行”来群智群力,共同助力人工智能大模型伦理安全的提升与发展。
(文章来源:新京报)
关键词: