查看: 3343|回复: 19
|
大家觉得机器人三大定律是可以违反的吗?
[复制链接]
|
|
机器人三大定律:
1.机器人绝不能伤害主人及其亲朋好友。
2.机器人要服从主人的指挥。
3.正常情况下机器人必須保护自己。 |
|
|
|
|
|
|
|
发表于 16-3-2010 09:37 AM
|
显示全部楼层
|
|
|
|
|
|
|
楼主 |
发表于 16-3-2010 09:48 AM
|
显示全部楼层
回复 2# heihu
这电影我是有看过,可是idea来自维基百科。。。。。 |
|
|
|
|
|
|
|
发表于 16-3-2010 09:52 AM
|
显示全部楼层
|
|
|
|
|
|
|
楼主 |
发表于 16-3-2010 10:41 AM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 18-3-2010 02:48 PM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 19-3-2010 06:39 PM
|
显示全部楼层
1.机器人绝不能伤害主人及其亲朋好友。>>他的敌人呢??? 那些非其亲朋好友呢???
2.机器人要服从主人的指挥。 >>如果主人命令他伤害其亲朋好友呢???
3.正常情况下机器人必須保护自己。>>那可忽略主人咯??"正常"又如何定义???
p/s:记得i-robot里说的是"人", 非"主人"。 |
|
|
|
|
|
|
|
发表于 6-4-2010 02:30 PM
|
显示全部楼层
这三大定律好像互相冲突。
若主人的指挥机器人伤害主人及其亲朋好友。
那么机器人必须遵守"机器人要服从主人的指挥",还是遵守"机器人绝不能伤害主人及其亲朋好友"。
若主人的指挥机器人伤害机器人本身。
那么机器人必须遵守"机器人要服从主人的指挥",还是遵守"正常情况下机器人必須保护自己"。 |
|
|
|
|
|
|
|
发表于 8-4-2010 11:41 PM
|
显示全部楼层
表面上是不能
3个rule都代表着自己的priority
如果主人给了一个command :
首先必须确认command 不会伤害人类
再尊从,如果command是毁掉自己(机器人) , 是可以被执行的
换句话说,机器人不会为了保护自己而违抗命令, 更不会去伤害人
话说,我们还没到机器人的年代吧?
当然故事总会找到漏洞 , 然后才有故事 |
|
|
|
|
|
|
|
发表于 18-4-2010 09:07 PM
|
显示全部楼层
本帖最后由 weisely 于 18-4-2010 09:09 PM 编辑
其实有很多real life 状况, 都必须用感性去思考的, 而不是逻辑上的理性。
就好象“不伤害人” 这一条, 如果有坏人来伤害主人, 感性上来说, 机器人是应该以保护主人为主的, 甚至必要的时候必须以暴力来制止坏人。 但是逻辑理性却又限制了机器人做这个动作。
但是, 如果眼睁睁看着主人被坏人杀害, 机器人自己明明有能力阻止状况的发生, 但是却什么都不做, 结果主人其实真的是被机器人给害惨了。 这样也不是一样是违反了 “不伤害人类” 这一条规律 ? |
|
|
|
|
|
|
|
发表于 23-4-2010 01:33 AM
|
显示全部楼层
定律不会发生冲突的可能,所以以上定律不能成立,不更正确的说以上都不是定律 |
|
|
|
|
|
|
|
发表于 29-4-2010 01:51 PM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 16-5-2010 06:20 PM
|
显示全部楼层
阿西莫夫的3大机器人定律是:
第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律:在不违反第一定律下,机器人应服从人的一切命令。
第三定律:在不违反第一与第二定律的情况下,机器人应保护自身的安全。
后来由于这3大定律不够完美所以后来又加了第零定律。
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
再后来另一个科幻作家罗杰·克拉克,还指出了,另外3条潜在定律。
元定律:机器人可以什么也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。 |
|
|
|
|
|
|
|
发表于 16-5-2010 10:01 PM
|
显示全部楼层
与其在讨论这些还无法实现的定律,不如去看看法律的漏洞,minority report。 |
|
|
|
|
|
|
|
发表于 19-6-2010 10:24 PM
|
显示全部楼层
阿西莫夫的3大机器人定律是:
第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律:在不 ...
Killmeplsok 发表于 16-5-2010 06:20 PM
真的好象在修改国家宪法法律那样。。。。。定律能够这样改来又改去的么 ? 在还没有找到一个完全没有漏洞的机器人定律之前, 制造智慧型的机器人, 的确有其危险性。。。。 |
|
|
|
|
|
|
|
发表于 19-6-2010 11:02 PM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 24-6-2010 08:16 PM
|
显示全部楼层
真的好象在修改国家宪法法律那样。。。。。定律能够这样改来又改去的么 ? 在还没有找到一个完全没 ...
weisely 发表于 19-6-2010 10:24 PM
正是因为这些定律还不够完美才需要修改啊,更何况,这些所谓的定律还不是定律,从其量只能说是小说家杜撰出来的东西,只不过这定律在未来的世界(对机器人)似乎很适用。
与其在讨论这些还无法实现的定律,不如去看看法律的漏洞,minority report。
金旦面 发表于 16-5-2010 10:01 PM
此言差矣,法律的漏洞是一回事,这些定律又是另一回事,所谓各有所好,你总不能强迫我们这些对法律没甚兴趣的人去看法律吧。(更何况我也不打算走这些漏洞)还有,所谓“无法实现”只是目前的事,没人可以保证这些何时可以实现,可能是10年,20年,也可能是1年,两年,这些事。最重要的是,Minority Report说的也不是法律漏洞,而这部片所谓的犯罪预知恐怕比这楼讨论的东西还难实现吧。 |
|
|
|
|
|
|
|
发表于 25-6-2010 11:59 AM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 25-6-2010 01:39 PM
|
显示全部楼层
|
|
|
|
|
|
|
发表于 19-11-2010 01:33 PM
|
显示全部楼层
|
|
|
|
|
|
| |
本周最热论坛帖子
|