QQ登录

只需一步,快速开始

快捷登录

登录 或者 注册 请先

UG爱好者

查看: 612|回复: 0
打印 上一主题 下一主题

[原创] 会读人类指令适时说“不”的机器人

[复制链接]

二级士官

Rank: 2

165

主题

264

帖子

438

积分
跳转到指定楼层
楼主
发表于 2015-12-14 23:09:11 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
    在我们印象中,机器人对人类指令言听计从,从来不反抗。只是在一些特殊场合会出现中断,如汽车生产线上遇到人的阻力时,会适时停止,以免伤到人类。美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说“不”。


    通常来讲,机器人是应该始终对人类的指示唯命是从的。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。
     这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说,“我知道要怎么操作吗?”,“这件事是否在我工作范围内?”以及确认“要做这件事的话,我是否违背了正常的规则?”并且最后的关键的一点是,一定不要伤害人类以及相关财产安全,这一点是至关重要的。
     最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。我们要极力避免这种情况,并且可以让机器人自己来判断从而拒绝人类的要求。
      让机器人有自己的行为准则,来判断自己的行为是否会给人类造成损失和伤害,是未来人类研究智能机器人的方向,我们需要更加智能安全的机器人来为我们服务!

版权声明  
本人声明此帖为本人原创帖,未经允许,不得转载!

有奖推广贴子: 

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

 
 
QQ:1359218528
工作时间:
9:00-17:00
 
微信公众号
手机APP
机械社区
微信小程序

手机版|UG爱好者论坛 ( 京ICP备10217105号-2 )    论坛管理员QQ:1359218528

本站信息均由会员发表,不代表本网站立场,如侵犯了您的权利请联系管理员,邮箱:1359218528@qq.com  

Powered by UG爱好者 X3.2  © 2001-2014 Comsenz Inc. GMT+8, 2024-11-26 07:38

返回顶部