您的位置: 德宏信息港 > 养生

机器人会欺骗是世界末日吗听Arkin教授

发布时间:2019-04-10 20:21:31

5月16日,第四届中国机器人峰会盛大举行。多名权威专家在主旨报告上分享了为前沿的理论和独到见解。其中,美国佐治亚理工移动机器人实验室主任、电子计算机学院首席教授Ronald kin,以多年的研究经验来深度阐释机器人欺骗的各方各面。

人工智能发展到未来,会欺骗造出它的人类吗?会对人类造成什么样的影响?我们该允许机器人学会欺诈吗?一起来看看Arkin教授是怎么说的!

以下是报告全部内容:非常高兴来到这里,我知道日程稍微晚了一点,我会加快一点,请大家稍微耐心一下,希望大家能从我的发言中得到一些启发。我要跟大家讲的是我过去八年做的工作。

一、为什么要有欺骗?

我们为什么要有欺骗,希望让设备自己撒谎?欺骗为什么这样重要呢?因为有的时候欺骗不仅仅是人类关系的体系。在自然界中有很多的物种,生存的前提条件就需要有欺骗。为了存活,希望能够捕获到你的猎物,找到很好的配偶或者说其他的需求,你必须有欺骗的能力。在特定的情况下,欺骗的需求是必要的,它不是的方式,但是一个层面。

有的时候在很多的层级上必须非常的智能,我们有图灵测试,实际上它自己就是一个欺骗,一个设备被使用或者说设备来欺骗你——人,作为对方来讲,让你受到欺骗,认为他也是一个欺骗,这就是图灵测试的目的。

1、欺骗对自己有利

这个是自然界的情况。首先是一个断翅的展示,这个鸟儿会假装它的翅膀断了,让捕猎者朝着它去,不会打扰到它的鸟窝;猩猩像人类一样,开始给它的妈妈梳理毛发,就像儿子孝顺母亲。妈妈也利用了这一点,然后把它的工具给偷走,偷来之后把坚果敲开了。

有的时候这些动物确实有欺诈的行为,有我们人类的一些假动作。通过欺骗的方式来愚弄你的对手,像橄榄球或者美式足球都会这样来误导别人,假动作你成功了,作为团队成员的话,你会欢呼,因为你赢得了比赛,但是你的对手不高兴。

2、欺骗对对手有利

还有另外一个例子,欺骗对我们的对手有利。你要哄你的小孩子吃蔬菜,你通过欺骗的方式让你的小孩子能够吃蔬菜,这也是通过欺骗来帮助你的对象,并不是说通过欺骗来迷惑你的对象。从社会的角度来说肉牛养殖
,我们是需要这种欺诈的,让别人也会喜欢你,这是一个很好的社会的智能。我们的机器人是不是也要和人一样有社交的欺诈呢?

二、机器人是否需要欺骗?1、社交中的欺骗

这个机器人也是非常酷的,就像一个大大的鸡蛋,转来转去。他问这个机器人“你的诚实参数是多少”,“我的诚实参数是90%”。的诚实在外交上是不正确的,在整个的沟通上也不是安全的。我们可以来调整一下我们关于诚实的一个定义注解或者说不诚实的注解。

另外研究机器人欺诈也是一项非常有意思的工作,演进的算法出现了这样的欺诈,能够诱开这个食物源,像石头、剪刀、布这样的机器人欺骗。如果说这个机器人智商高的话,它就会用欺诈。

2、军事中的欺骗

所有的战争就是通过欺诈完成的,从政治角度来说,这种欺诈令人讨厌。但是战争当中我们要有这样的欺诈,这是光荣的事情。

还有回到历史的记录,这是我们宣言,历史当中的宣言。比如说犹太教或者基督教或者其他的,比如特洛伊木马的传说都是一些欺诈,有各种各样欺诈的工作,各种宗教都有。美国他们会有战场的欺诈条令,就是教会他们所有的士兵都必须知道这样的欺诈条令。而在中国也会有中国军队也有这样欺诈的训练,兵不厌诈。

三、欺诈模型与理论、算法像这样一个假的沟通对整个欺诈者会有利的。那为什么我们是这样的呢?为什么要欺诈呢?

一开始我也进行了这样的研究,还有我的毕业生,我们进行思考,如何让我们的机器人能够相信人?如何让他相信这个司令官?司令官不仅仅要让机器人做正确的事情,还会告诉机器人做不正确的事,然后我们就有这样的模型。我们识别到,其实欺诈,也是信任的另一面。如果是一个很好的指导官,他会告诉你,你要做的件事就是要获得信任才能获得欺骗。

这里有一个说法,这是人类心理学家的算法,比如说相互依赖,就是一个前提。一个欺骗者,他有假的沟通随身唱价格
,他的对象或者是他所要欺骗的机器人或者人,他们必须要能够解释这样的信息。那么当然也有各种不同的欺诈,比如像松鼠,作为我们研究欺诈的一个模型。

在我们整个研究方法里,这叫做互相依赖的理论,这里当然有其他好多的维度,我们用了冲突和依赖。我们这里有一对这样的代表,一旦出现了这样的冲突,你有了我想要的东西,或者我这里有你想要的东西,这就是一个冲突,有了这样的冲突,然后有这样的依赖,我们都依赖这样的资源。那么,欺诈就发生了一个作用了。

我们所发生的作用,我们要做两件事,一个是我们决定什么时候欺骗,然后要决定如何去欺骗。你不可能就是随机地做,我们必须要找定一个时机。互相依赖的理论,我们进行这样的影射,有这样一个区域,这里有一个非常强大的依赖的结果,还有一个高度冲突的结果。还有一个半圈,这是一个三角形,这里是一个参数。这是一个诚实的参数,这是一个影片当中真实的参数。

当然如果这个区域非常小的话,不会欺诈。如果这个区域很大的话,就会有更多的欺诈。所以我们有调解的能力让机器人或者相应的代理做到这里,有这样的冲突和依赖性。我不是谈技术的东西,只抛砖引玉,有很多的论文都可以读一下,还有相应的影射以及游戏的理论各种各样的东西。

底部这条线,等会儿给大家看一下,我们必须要有这样的能力能够影射,我们是用这样的模型,并不一定重复的,我们必须要使用我们的代理信任模型,你建立了这样的理解,其他的代理思维必须要有这样的信任,这是我们的理论星力捕鱼加盟
。还有伙伴的模型,在这个过程当中也非常重要,结成伙伴关系,如果我们做这件事情,我们要欺骗你,我们必须先做什么,比如我的模型是画的话,这样不会有效。如果是很好的毛性就有机会奏效了,所以要有一个非常好的模型,有了这个模型之后我们才能出其不意,这是一个建模。

我们这里有一个理论,这个理论非常重要,我可以相信你,其实我要知道你是可信任的,我们才能信任。我获得你信任之后,我才可以欺骗你,非常有意思。在整个领域过程当中这是一个前提,我们所做的方法就是我们有需要传统游戏的模型,这里有相应的结果,我们有一系列的行动,如果是正确的话,那么就一定有这样的行动,然后人们跟我们一起合作。

我们有这些矩阵,在这些对象当中,我们可以看一下具体有哪些不一样,我们看到装死,这是一个非常好的回报,如果你是装死的话有很好的回报。你很快就能够判断它在装死,或者是假装的,他要逃走等等,像类似的场景等等。等会儿跟大家介绍一下我们所做的实验。

这是另外一个算法,我们所做的就是我们理解一下具体的场景,我们理解它的结果,然后你要理解我们的一个对象的本质。如果你知道了之后,你就意识到这是正确的场景,然后你产生了一个行动。这个行动改变了他们的信任系统,有利于你自己想要的,违反了对方想要的,你采取行动。你的胜利没有保证,但是有这样的机会可能你会得胜。

我们做了一些研究,机器人其实也有这样的传感,如果没有传感,我们无法欺骗。我们其实会有更多的机会,比如说互相的传感器之间有不同的吻合度,有的时候,他们互相不一致的话也会带来一些问题,还有关于你的合作伙伴有更多信息的获得,如果你的合作伙伴模型更好,那么成功机率更高,你的欺骗机率更高。

这是捉迷藏的实验,我们使用小的机器人,我给大家看一个非常短的片子,这并不是非常漂亮的片子,但是会告诉我们怎么做。机器人有点像星球大战第四季或者星球大战季。他们藏起来了,要避免其他军团的袭击。机器人来了,他要做出决定了,他如何留下假的足迹,然后藏起来,藏在中间,这是就像一个风暴军团一样,足迹在什么地方,这个机器人来了,来查找这个足迹了。有的时候会查找一下,他朝这个方向走了,另外一个机器人过来了,然后他可以逃脱假的足迹,有两个对象已经踩到了,这是不可预见的。那么你可以看到我们是哪撞了,哪个逃避了。

五、该担心机器人会欺骗吗?

我们在国际机器人杂志上发表了这样的论文,关于这个实验的设置也是非常有意思。这是2010年,这个结果其实并不代表机器人欺诈的判断。这其实是一个初期的指针,相应的技术和算法能够使用,帮助我们解决机器人的欺诈。另外我们需要更多心理学上的研究或者更多的证据才能验证这个假设,这个结果并不是所有人都同意。

后来有一个相关的媒体报道,真是非常大肆宣扬的报道:他们教会机器人如何欺诈,机器人开始起义了,然后是机器人的世界末日来了。他们把这个点子藏起来,不要告诉我们,好像世界末日了。另外一篇论文说,一些人告诉机器人如何欺诈,会让我们蒙受羞辱。他们描述了这个实验,告诉机器人如何捉迷藏,他们也不高兴,也不高兴。下面的说,机器人是能够欺诈的,有一些疯子研究者,其实就是有点疯狂,人们也担心,你们是不是担心呢?

我们这样实验,我们告诉机器人怎么欺诈,你们是不是担心?是,也许不是。并不是所有人都认为这是一个好的点子。

《时代》杂志给我们一个年度50个创造发明,从我的角度来说,这仅仅是一个实验,不是发明,但是我们得了年度第50佳发明。还有新的《科学》杂志,他们探索了机器人的思维,然后告诉人类自己的思维。所有的这些理论能够补充人的欺诈思维的研究。

机器人能够补充人对大脑的理解。有说这个可能会把人类毁灭等等各种各样的报道,但其中还是会有真理的。我们继续研究像这样的欺诈,哪怕有人说会怕人类毁灭。

六、欺骗的实用性这是松鼠的欺诈,是东部的一些松鼠,我们也发表了论文,当然这个论文,我没有时间带大家去看细节了。前面已经说过了,寻找松果,它们确实把很多的松果放在它们的地方,然后它有各种各样的路线进行巡逻。是不是这些松果是放在安全的地方了?要确保我们的松果是在安全的地方,确保它是安全的。那么你怎么做确保你埋藏的松果是安全的,如果出现了另外一个松鼠或者其他的猎物该怎么办呢?那么回到这,这里没有松果,但它们会在没有的地方假装看一看,它们用迷惑的战术,它们就是拖延战术。这是防止其他人偷走它们的松果。这对军事来讲也是非常重要的。比如说你进入我的粮仓,劫我的粮草,你肯定在别的地方制造假像,这种拖延战术在军事当中也是实用的。

这是一个模拟方针,机器人系统搜集很多的数据,然后展示我们价值是多少,由人类对机器人进行控制。这个机器人确实也在采取这样的行动,然后有一些人进来了,就改变他们的行动。还有一个有意思的,有了这样的欺诈、欺骗,这种剽窃或者偷窃得到了延迟,并没有停止偷窃,确实通过这种欺诈奏效了。非常有意思,人们喜欢松鼠的欺诈,如果憎恨的话就是结束了。如果有这样的机器人,他们就像松鼠一样,你看这是非常可爱的,如果有一个非常可爱的像松鼠的机器人,人们肯定很高兴。他们可以告诉“松鼠”,“松鼠”也教会人,这是很可怕的。

接下来是一个欺诈。这个叫做聚扰,假装自己残废的一种欺诈。任何情况,如何在自然当中,保证所有的信号必须是正常的、正确的?如果这些鸟,它们看到了风险,比如说像这样的老鹰或者蛇过来了。它们有两个选择,那么这个鸟怎么做?它也许逃走,但是它没有逃的地方,有的时候太惊慌了,它们会骚扰它们的捕猎者。但是还有一个,什么时候骚扰会奏效呢?它们给出一个信号,骚扰的信号,它们伪装成不健康的情况,比如我生病了,或者我不健康,你吃了我你也会得病,这是鸟表现自己糟糕的地方。这个画眉也是这样的,它们打结舌,它们有欺骗的原则。基本上说你实际上是可以有一个稳定的系统,如果你有相对的一定数量的不诚实,这个有很好的公式进行描述,我等会儿进一步讲到这一点。

什么是不利条件原则,这是一个典型的例子,孔雀。孔雀开屏有非常大的尾巴,五彩缤纷,为什么孔雀会开屏,它这是很危险的,因为它很大、很重,有时候被抓的话就逃不掉。它通过开屏可以告诉你我非常好,这是对非常有大的尾巴,孔雀开屏吸引雌孔雀,说我状况非常好。因为雌孔雀是非常稀缺的资源,它开屏也是争取雌孔雀。还有人也会有这种情况,有人会炫富,有的人去酒吧戴劳力士的手表,他也是希望获取稀缺资源。有的时候会发挥作用,有的时候不一定。这个展示了什么?展示了他有成吨的钱放在家里,他不会在意花这么多钱买一块这样的手表,或者通过汽车炫富。

这也是不利条件的原则,比如有人进了酒吧,戴了假冒的劳力士,可能有时候会有效果,看上去是劳力士的手表能够吸引稀缺的资源。当大家都进入这个酒吧,都是戴着假劳力士,这个信号在这样的背景下就失去了一些价值。它没有帮助你吸收稀缺资源。这样时候你想象一下,这个酒吧有多少个劳力士,有多少所谓的打结的原则,才让你失去效果?

有的时候为了自己,典型一个例子,我经常使用的就是我妻子问我她今天晚上看上去怎么样,我说看上去很好,有的时候我知道她长得怎么样,我还是要善意地欺骗一下。还有一个,我们结束之后大家说你讲得很好。其实有的时候这样的讲话很糟糕的,特别是亚洲有很多这样的,说你讲得很好就是恭维你。我们怎么使用其他的欺骗,在机器人系统当中推动他们社交的活动,我们所说的这里用的就是犯罪学的法则。

所以我们希望能够把它扩大成三个元素,所谓的动机、方法、机遇。机遇已经讲过了,包括怎么样做,什么时候做,我们现在必须要有为什么做,为什么做这样做,特别情况下动机是什么,还有做这样目的的方式。比方说欺骗。你可以通过说委托或者说投入来去欺骗某人,所以它的方式也不同,当然典型的例子就是我们可以用一些内部的表情,或者一些距离的转换层进行这样的做法。

我之前就机器人的一些动态和索尼有一些合作,跟三星合作,在十年、十五年之前有专利,当然会有不同的事项,我们有不同的方法显示了出去,基本上显示了一些错误的信号,在人的主题当中我们研究了它的起作用方式。我们的目的是希望推动我们学习、推动机器的表现。有的时候有人会说,那确实,你做得很糟糕,或者恭维你两句,在教育当中经常出现这样的情况,可能大家都是天才。但是我们是要不断地能够在这里面取得成就。

七、机器人的道德伦理一点就是机器人的道德,对于机器人的道德伦理我自己做了很长时间的研究,超过十年了,所以我们从这样一个所谓的大规模杀伤性,特别是大规模杀伤性武器的机器人使用角度,我们允许机器人撒谎吗?

我们有一个理论,这是一个框架理论,我们看到理论就是永远不应该撒谎。如果从功利角度,如果能够化我们的幸福度,我们有的时候也能够接受机器人撒谎了。所以我们要界定什么是正确,什么是不正确的?

我们可能对于这个欺诈来讲,机器人根据不同的理论框架有不同的判断。但是,我们的问题终还是我们是否允许机器人撒谎。我们是否可以允许,我们可以做到这一点,我们也可以想象现场的一个专家来讲,和过去相比,对于未来来讲是否因为欺骗形成,导致人类末日的到来。或者能够让机器人成为社会的一份子,成为我们社会当中一个社交好伙伴。实际上每一个环节都需要非常坦诚对白的,有的时候并不是很好的社交方面的朋友或者伙伴。所以很多的时候,我们也是需要能够界定你所需要的对机器的坦诚度高低。

八、总结

总结一下,现在来讲,我们有不同的道德理论,以及全球的一些问题。我们也有一些负责机器人的委员会,以及它的下级的机器人道德伦理的职委委员会,如果大家对相关的内容感兴趣的话,我们也能够和大家联系,我们很快在奥斯顿有这样的会议,我们有相关的专家研究此领域,如果大家希望有更多的信息或者看我们的论文的话,这些都是大家可以到访的站信息,大家可以在上了解这些内容。非常感谢大家的倾听。

猜你会喜欢的
猜你会喜欢的