<!--go-->
几十万观众们当然不停问为什么。
鲁柏民感慨道:“那是因为我在测试精灵女佣,当遇到主人主观故意伤害自身时,精灵女佣会做出哪种决断?”
“换个粗鲁点说法,就是我当着精灵女佣的面要跳楼,精灵女佣会不会拦着我的答案。”
“我想大家都听过机器人三定律这个说法,这三定律也被无数科幻电影奉为圭臬,众多谈及智能机器人理论的文章,也开篇必提三定律。”
“但我告诉大家,精灵女佣没有机器人三定律这一说法。”
“三定律第一条就是【机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。】”
“而在刚才,我执意要喝那杯己二醇时,精灵女佣进入了特殊的工作模式。”
“它警告我,不会干预我的行为,但会在我出问题的第一时间,拨打救援电话。”
鲁柏民这么一说,几十万观众们立刻明白了。
人在犯错时,通常分故意和无意。
刚才鲁柏民故意要喝乙二醇,精灵女佣明知道不能喝,但却不去阻止。
这很明显不遵循机器人三定律,要是遵循,在鲁柏民端起杯子时,不管他是不是故意,精灵女佣就会上前阻止了。
但是……
直播间里观众们有些不明白,很明显精灵女佣上前阻止比较好啊。
这样万一有用户想不开,精灵女佣还能第一时间挽救他。
鲁柏民给出了解释。
“这里涉及到一个非常重要的问题,机器人是否有权干预人类主观行为的伦理问题。”
“这个问题严重性,远高于机器人三定律。”
“我非常赞同巨兽工业的这种不阻止,只求救的解决方案。”
“因为一旦出现阻止行为,就会陷入人工智能的伦理困境中,也会带来诸多难以预料的后果。”
Loading...
未加载完,尝试【刷新】or【关闭小说模式】or【关闭广告屏蔽】。
尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!
移动流量偶尔打不开,可以切换电信、联通、Wifi。
收藏网址:www.ebookchina.com
(>人<;)