“阿木,你把合成配制药剂要用到的设备和原材料,按照工序流程标注出来给我看看。”林晨接着再向阿木交待了一些注意事项,并让阿木把整个卢米斯塞尔斯大楼给整个监控了起来。
既然无法正大光明的租用这些实验室,那他就只好偷偷的使用了。眼下的情况,林晨实在没有多余的时间去等待,不得已之下才用了这种他心底一直不愿意使用的方法。
这倒不是说林晨有什么道德洁癖,只是觉得这种打破规则不按正常途径不告而取,不经物主同意就偷偷使用的行为,实在是不太光彩,有点突破了他做人的原则。
况且这样做很可能教坏如今智力尚处于幼儿期。各方面都正在飞速成长的阿木。
其实早在这之前。早在阿木最初刚刚诞生的那几天。林晨不是没想过利用阿木的能力,直接入侵美国的银行系统搞些资金来用,或者进入美方的系统安排一架军机执行下秘密任务什么的,直接把他送出美国国境去……
只是当时他一直顾虑着如此做的后果,很可能就此给阿木做出了一个可以随意破坏常规,打破基本道德底线的坏榜样,让阿木失掉应有的原则性。
对于如何教导规范,或者说如何给阿木树立正确的道德原则。一直是林晨颇为头痛的一件事情。
尽管阿木是人工智能,他的本质确实只是一段程序而已。
按照常理和逻辑性来说,只要在阿木的核心系统内加入一些限制性的条件,诸如世界闻名的“机器人三定律”之类的,就能从根本上限制阿木走向歧途的可能性。
可是机器人三定律本身就存在着巨大的漏洞!
所谓的“机器人三定律”,一是机器人不得伤害人,也不得见人受到伤害而袖手旁观;二是机器人应服从人的一切命令,但不得违反第一定律;三是机器人应保护自身的安全,但不得违反第一、第二定律。
后来又补充了机器人零定律:机器人不得伤害人类整体,或坐视人类整体受到伤害。
为什么后来要制定出这条“零定律”呢?
打个比方。为了维持国家或者说世界的整体秩序,我们制定法律。必须要对一些犯了重刑的罪犯进行“人道毁灭”,处以死刑。
这种情况下,机器人该不该阻止死刑的执行呢?
按照人类法律显然是不允许的,因为这样就破坏了我们建立起来的秩序,也就是伤害了人类的整体利益。
>> --