艾萨克·阿西莫夫(Isaac Asimov)曾在他的科幻小说里描述了规范机器人行为的三定律,包括:不能伤害人类、服从人类命令和保护自己。现在,英国标准协会正式发布了一套机器人伦理指南,比阿西莫夫三定律更加复杂和成熟。我们的社会已经到了要给机器人制定行为规范的时候了,这不禁让人产生一种科幻与现实交织的奇妙感觉。
资料图
英国标准协会(British Standards Institute,简称 BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。
这个标准的文件代号为 BS8611,发布于 9 月 15 日英国牛津郡的 “社会机器人和 AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授 Alan Winfield 表示,这是业界第一个关于机器人伦理设计的公开标准。
文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。
《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。
《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。
谢菲尔德大学教授 Noel Sharkey 认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。
《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解 AI 系统(尤其是深度学习系统)是如何做出决定的。
一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。
《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。
机器人的偏见是会直接影响技术应用的。 它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。
现在已有的例子就是,声音识别系统对于女性的理解要弱一些,再比如机器识别白种人的脸更容易,识别黑人的脸更难。 长远来看,在未来的医疗应用中,机器人在诊断女性和少数族群的时候,其专业程度会降低。
Sharkey 教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”
《指南》 也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。