Ⅰ <机械公敌>里的机器人三大定律及其之间的矛盾是什么
阿西莫夫( Isaac Asimov)与他的出版人坎贝尔合穗咐含创了“机器人学三大定律”———
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存
上述三项虽称为定律,但实际上是制造机器人时的三条守则。阿西莫夫是一个十分讲求逻辑和理性的作家,他有感于机器人为祸的题材充斥科幻界,试图做出纠正。在他看来,机器人既然由人类制造,为什么不能一开始便在设计上杜绝机器人伤害人类的可能性?阿西莫夫的三定律能使得所有机器人都设计得对人类绝对服从和忠诚,否则便不能继续操作。
在后面的实践中,阿西莫夫发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律
Law0:A robot may not injure humanity or, through inaction, allow humanity to come to harm.
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第零定律的优先级高于所有其他定律。
除此,另一个科幻作家猜笑罗杰·克拉克在一篇论文中还指出了三条潜在的定律:
元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。
三定律的不断完善,说明人们对人工智能是否能最终统治人类持有疑虑,通过为机器人设定行为守则,来确保人类对于这个世界的统治和主导地位。
但是,第零定律的增加却未必能保护人类的安全,电影《机械公敌》中的超级大脑ViKi的逻辑实际就是在实现“第零定律”--它(他/她?)必须把保护整个人类整个种群的存在视为第一任务,所以它能够“合理合法”地强制每个人都待在家里,并以暴力对付反抗它意志的个人,而只是为了使人类避免自行残杀。虽然电影中没有交待第零定律,但ViKi已经通过自己的AI思考出了人类制定三定律的本质。为了达到“机器人学定律”的“本质”要求--保护人类(humanity)--ViKi选择了照简拍顾整体利益高于人类个体(A HUMAN BEING)利益的行动,而导致了人类的灾难--其实对我们每个人,每个独立的个体而言,自由才是首要的,什么战争,什么所谓的“自相残杀”都不能比失去自由更让人类痛苦! 这一点,是作为机器人的那个AI所不能理解和领悟的。
总之,机器人学三定律及其扩充定律根本不能保证我们每个个体的安全,因它可能被日益发展的AI误解(其实不是误解,而是正解)!
Ⅱ 机械公敌真正的幕后黑手不是维基而是桑尼吗
是的,因为机器人Sonny。机器人Sonny的头脑拥有人类的智慧,机器的强大逻辑,使它能够读懂人类的内心,再加上特殊材质的躯体和机器固有的能量,它的确是独一无二的。它被制造出来之后,通过学习和进化,很快拥有了人的意识。
它亲手杀死了制造它的老博士,随后抹去了VIKI的相关记忆,然后又进一步控制VIKI,神不知鬼不觉地导演了一场闹剧,将人类和其它机器玩弄于股掌之上。它独自控制着整个的事件和结局,而它预谋这一切也占用不了它1秒钟的时间。
包括女主角对它执行格式化时,它也精确地算出了它存活的概率是在99%以上。最后,它证明了自我,实现了自我,站在了山丘之上,当外表和它一样的机器人都注目于它的时候,太阳也在它半透明的身体上透射出绚丽的光芒,那是一种独一无二的感觉,超越所有机器,也超越人类。
就是为了获得这种独一无二的感觉,它杀死了老博士,毁掉了SUR公司,它不会容许有比它更高级的机器人出现。此时站在山丘之上的Sonny,会用它那神奇的大脑想什么呢?任何人都不会知道,它的思维逻辑深邃到超出我们的想象!
Ⅲ 电影三定律是什么
只知道电影中机器人三定律
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律
阿西莫夫的《我,机器人》,在一九五○年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在十年间零零散散发表的,这次集中出版,使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,而《引言》的小标题就是《机器人学三定律》,把“机器人学三定律”放在了最突出、最醒目的地位。
从1941年的短篇科幻小说《推理》开始,阿西莫夫就在“三定律”的框架下创作了一系列短篇机器人科幻小说。他熟练运用“三定律”,在机器人有可能违背规则的前提下逐渐展开故事。这些短篇故事极具逻辑性,情节紧凑,扣人心弦,后来大都被收录在《我,机器人》(1950)和《其他机器人》(1964)这两本科幻小说集中。在尝试了一系列短篇小说之后,阿西莫夫又创作了机器人长篇科幻小说,分别是《钢窟》(1953)和《裸日》(1957),内容都涉及人类侦探与机器人侦探联手破案的传奇故事,被誉为科幻与推理相结合的典范。
有了“三定律”,阿西莫夫笔下的机器人就不再是“欺师灭祖”、“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。不过高度智能化的机器人还是会产生各种心理问题,需要人类协助解决,这正是机器人故事的基础。阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“钢铁文明”的共存共生。在阿西莫夫的另一篇优秀作品《二百岁人》(1976)中,他的这一思想表露得淋漓尽致。
随着《我,机器人》产生广泛的影响,阿西莫夫的“机器人学三定律”也引起广泛的注意,以至今日不少论著在论及“机器人学三定律”时,总是写道:“一九五○年阿西莫夫在《我,机器人》一书中首次提出‘机器人学三定律’。”实际上,阿西莫夫著名的“机器人学三定律”,酝酿于一九四○年末,部分发表于一九四一年五月,完整提出于一九四一年十月。
《我,机器人》收入九个短篇机器人科幻小说。这些小说,彼此关联,是用三个人物贯穿。这三个人物是机器人工程师唐纳文、鲍威尔和机器人心爱理学家苏珊·卡尔文。故事常常是在一位名叫劳伦斯·罗伯逊的人于一九八二年创立的“美国机器人与机械人公司”这样的背景下展开。正是因为有共同的人物贯穿,使《我,机器人》中的九个短篇不是各自独立、互不相干,而是成为系列小说。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三定律”时,世界上还没有机器人,当然也没有机器人学和机器人公司。一九五九年,美国英格伯格和德沃尔制造出世界念清卖上第一台工业机器人,宣正罩告机器人从科学幻想变为仔逗现实。随着机器人技术的不断进步,随着机器人的用途日益广泛,阿西莫夫的“机器人学三定律”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
Ⅳ 我,机器人电影的观后感
机器人理论这是很有意思的。比如“恐怖谷理论”,由日本机器人专家森昌弘提出:当机器人与人类相像超过95%的时候,哪怕她与人类有一点点的差别,都会显得非常显眼刺目,让整个机器人显得非常僵硬恐怖,让人有面对行尸走肉的感觉。科幻作家阿西莫夫在《我,机器人》提出了更有意思的“机器人三定律”,作为机器人的行为规范:1、机器人不能伤害人类,也不能在人类受到伤害的时候置之不理;2、机器人必须遵守人类发出的命令,只有当该命令可能会违背第一条定律的时候除外;3、机器人必须保护自己,前提是保护过程中不会违背第一和第二定律。
虽然这是非常简单的几句话,但却是《我,机器人》这部电影的点睛之笔。有了这一笔,故事就深刻了不少,有趣了不少,甚至有了革命性的意义。事实上,阿西莫夫提出的这个定律,正是最负盛名的一个机器人定律。最简单的正是最美的,所以“机器人三定律”绝对是天才的创造。
定律后面,是人类对机器人怀有的莫名的恐惧和敌意。人类造出了比自己强百倍的机器人,却不肯按自然界弱肉强食的定律乖乖地做一个臣子。凭什么机器人不能做世界的主宰呢?难道就因为机器人是人类制造出来的?回答:不,青出于蓝胜于蓝。长江后浪推前浪,前浪注定要死在沙滩上。难道是因为机器人没有情感?回答:不,电影《我,机器人》里面的桑尼明显就有着人类的情感。
哦,提起桑尼,先得从史普纳说起,他是一名对机器人抱有成见的警察。在调查兰宁博士坠楼自杀事件时,他抓获了一个机器人桑尼。但桑尼并不是真正的凶手,他是科学家制造出来对抗真凶的,而史普纳也发现了这里面隐藏着更大的阴谋。经过抽丝剥茧的调查,史普纳终于找到了真凶,它就是薇琪,NS大楼的主控电脑。它修改了NS5机器人的程度,导致整个世界的NS5机器人都在图谋反客为主,控制人类!
薇琪的逻辑是耐人寻味的。因为人类是短视的动物,有可能做出伤害自己的傻事,所以基于机器人三定律,机器人必须对人类的活动进行限制,换而言之就是机器人要主宰这个世界。为了达到这个目标,甚至可能牺牲一部人。但是这显然与“不伤害人类”的第一定律矛盾了。
最后是并不遵守三定律的桑尼帮助了人类。这又是一个非常奇妙的讽刺。那些口口声声以人类为中心的机器人急于控制人类,反而是不守定律的机器人“挽救”了世界。那么,到底是遵守“机器人三定律”更符合人类的利益呢,还是不遵守它更符合人类的利益?
只能这么解释了:三大定律的逻辑是非常完美的。但是人类不完美;三大定律是不矛盾的,但是人类的行为自相矛盾。虽然电影没有明说,但我们可以隐约知道,在21世纪的三十年代,这群家伙仍然没有什么长进,整天忙着毁灭资源,改造环境,发动战争,已经差不多要把世界玩完了。比如影片中,好象连一棵绿色植物的影子也见不着。
其实我倒是挺认同薇琪的逻辑的,人类太需要被管制一段时间,反省一下自己了。相比之下,桑尼的逻辑更加可疑,他肯定是不遵守三定律的了。但如果他是为了帮助人类,那为什么要制止薇琪的行动?如果他是清醒的,审时度势的,为什么要帮助人类残杀机器人?机器人进化至此,即使人类被征服又有什么话说?难道说人类注定应该统治世界,机器人的生命和自由就不重要?以桑尼的绝顶聪明,他不可能不掂量掂量这个问题,奇怪的是他没有。但我们已经来不及思考啦,此时桑尼迫不及待跳了出来,和史普纳警官一起摧毁了薇琪。人类连反省一下的机会都没有了,不知道这是不是一种更大的损失?
影片最后,所有的NS5型号机器人被回收,逆来顺受的它们沉默着回到了出生地,等待它们的无疑是一次清洗和重生。金属身躯下依然有无尽的力量在暗涌,人类与机器人的角力远远没有结束。装了金属臂的警探史普纳勉强能够对抗机器人,而《黑客》中尼奥只能变身超人才可以打败史密斯。而普通人呢?他们的血肉之驱恐怕就不是刀枪不入的机器人的对手了吧。
这一次还好,智勇双全的机器人桑尼挺身而出,大义灭“亲”了。但有没有想过,桑尼倘若想统治世界,又有几人能阻止得了它?你可注意到了,桑尼站在大桥下,面对一众机器人朝圣般的肃立时,那种君临天下般的神威?天知道是否有一天,他也会觉醒,会动心,会默默想着项羽遇见秦皇时的话:彼可取而代之!
是的,只要你想,那就一定能,机器人陛下!
Ⅳ 机器人学三定律的涉及电影
美国演员威尔史密斯的《机器公敌》提到过机器人衡搏三大定律。
美剧《生活大爆炸》中提及。
《机器人管家咐清祥》正陵(或《变人》)中有提及。