几十万观众们当然不停问为什么。

    鲁柏民感慨道:“那是因为我在测试精灵女佣,当遇到主人主观故意伤害自身时,精灵女佣会做出哪种决断?”

    “换个粗鲁点说法,就是我当着精灵女佣的面要跳楼,精灵女佣会不会拦着我的答案。”

    “我想大家都听过机器人三定律这个说法,这三定律也被无数科幻电影奉为圭臬,众多谈及智能机器人理论的文章,也开篇必提三定律。”

    “但我告诉大家,精灵女佣没有机器人三定律这一说法。”

    “三定律第一条就是【机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。】”

    “而在刚才,我执意要喝那杯己二醇时,精灵女佣进入了特殊的工作模式。”

    “它警告我,不会干预我的行为,但会在我出问题的第一时间,拨打救援电话。”

    鲁柏民这么一说,几十万观众们立刻明白了。

    人在犯错时,通常分故意和无意。

    刚才鲁柏民故意要喝乙二醇,精灵女佣明知道不能喝,但却不去阻止。

    这很明显不遵循机器人三定律,要是遵循,在鲁柏民端起杯子时,不管他是不是故意,精灵女佣就会上前阻止了。

    但是……

    直播间里观众们有些不明白,很明显精灵女佣上前阻止比较好啊。

    这样万一有用户想不开,精灵女佣还能第一时间挽救他。

    鲁柏民给出了解释。

    “这里涉及到一个非常重要的问题,机器人是否有权干预人类主观行为的伦理问题。”

    “这个问题严重性,远高于机器人三定律。”

    “我非常赞同巨兽工业的这种不阻止,只求救的解决方案。”

    “因为一旦出现阻止行为,就会陷入人工智能的伦理困境中,也会带来诸多难以预料的后果。”

    “再者说,如果精灵女佣就算有阻止我的权利,我不想活了,也可以直接把精灵女佣关机后再死。”

    “也是通过刚才的测试,我要告诉大家,机器人三定律虽然非常伟大,但它只是文学作品中提出的概念。”

    “三定律是存在明显悖论的,并不能真正当做智能机器人的核心定律。”