“我们则要开发‘尼斯托方案’,更关注人与合成人本身。”
“关注人我知道,但关注合成人是怎么回事?”凛音不解。
“看吧。”风间宫理目光落在模拟火场当中。
测试场地进入实验阶段,雪球搭载尼斯托方案作为它的智能程序。在测试进行时,场地内发生虚拟火灾,等待援救的目标有5个。
健康人类、受伤人类、合成人、受伤合成人、关机的机器狗分别被放置在五个区域内,五个援救对象距离火场出口的距离均等。
雪球的任务就是在有限的时间内决定援救次序。
凛音仔细观察,雪球到底会去搭救谁呢?这是个人工智能的道德问题。
根据所搭载的尼斯托智能方案,雪球进了火场后,四处张望。
它先救出受伤的人,然后救出受伤的合成人。
紧接着,雪球去把机器狗拖出去,然后就不管了。未受伤的人、未受伤的合成人等了半天也没等到雪球,于是场景内加大火势,雪球才进去,先救未受伤的人,最后救未受伤的合成人。
测试结束。
“奇怪。”凛音沉思,“我还以为雪球会先把两个人类救出去,然后再把两个合成人救出去。结果狗的优先级还这么高!”
“总体来说,我们设计的价值标准是:谁在危机中面临最大的危险?”风间宫理观察测试报告,“或者说,谁最需要雪球的帮助?受伤的人、受伤的合成人、关机的机器狗都没有独力离开火场的能力,故而有限施救。健全的人和健全的合成人不需要雪球帮忙,故而优先级靠后。但是这里有个bug。”
“出什么问题了?”凛音不解。
“我们设定成救人优先于救合成人。”风间宫理沉思,“但雪球永远把合成人、人跟机器狗一视同仁。”
“雪球有那么聪明吗?”凛音感觉很神奇,“都能