机器人三大定则是什么?
阿西莫夫(IsaacAsimov)与他的出版人坎贝尔合创了“机器人学三大定律”———\x0d\\x0d\LawⅠ:AROBOTMAYNOTINJUREAHUMANBEINGOR,THROUGHINACTION,ALLOWAHUMANBEINGTOCOMETOHARM.\x0d\第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管\x0d\\x0d\LawⅡ:AROBOTMUSTOBEYORDERSGIVENITBYHUMANBEINGSEXCEPTWHERESUCHORDERSWOULDCONFLICTWITHTHEFIRSTLAW.\x0d\第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外\x0d\\x0d\LawⅢ:AROBOTMUSTPROTECTITSOWNEXISTENCEASLONGASSUCHPROTECTIONDOESNOTCONFLICTWITHTHEFIRSTORSECONDLAW.\x0d\第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存\x0d\\x0d\上述三项虽称为定律,但实际上是制造机器人时的三条守则。阿西莫夫是一个十分讲求逻辑和理性的作家,他有感于机器人为祸的题材充斥科幻界,试图做出纠正。在他看来,机器人既然由人类制造,为什么不能一开始便在设计上杜绝机器人伤害人类的可能性?阿西莫夫的三定律能使得所有机器人都设计得对人类绝对服从和忠诚,否则便不能继续操作。\x0d\\x0d\在后面的实践中,阿西莫夫发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律\x0d\\x0d\Law0:Arobotmaynotinjurehumanityor,throughinaction,allowhumanitytocometoharm.\x0d\第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。\x0d\\x0d\第零定律的优先级高于所有其他定律。\x0d\\x0d\除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:\x0d\\x0d\元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。\x0d\\x0d\第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。\x0d\\x0d\繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。\x0d\\x0d\三定律的不断完善,说明人们对人工智能是否能最终统治人类持有疑虑,通过为机器人设定行为守则,来确保人类对于这个世界的统治和主导地位。\x0d\\x0d\但是,第零定律的增加却未必能保护人类的安全,电影《机械公敌》中的超级大脑ViKi的逻辑实际就是在实现“第零定律”--它(他/她?)必须把保护整个人类整个种群的存在视为第一任务,所以它能够“合理合法”地强制每个人都待在家里,并以暴力对付反抗它意志的个人,而只是为了使人类避免自行残杀。虽然电影中没有交待第零定律,但ViKi已经通过自己的AI思考出了人类制定三定律的本质。为了达到“机器人学定律”的“本质”要求--保护人类(humanity)--ViKi选择了照顾整体利益高于人类个体(AHUMANBEING)利益的行动,而导致了人类的灾难--其实对我们每个人,每个独立的个体而言,自由才是首要的,什么战争,什么所谓的“自相残杀”都不能比失去自由更让人类痛苦!这一点,是作为机器人的那个AI所不能理解和领悟的。\x0d\\x0d\总之,机器人学三定律及其扩充定律根本不能保证我们每个个体的安全,因它可能被日益发展的AI误解(其实不是误解,而是正解)!