facebook两台机器人交流(facebookai机器人对话)
说服不了女朋友?让Facebook谈判机器人跟她聊一聊
生活中充满了对抗与妥协,每天都会有各种线索混乱的事情需要作出决定。不过,这并不是人的强项,除了诸葛亮能把王朗骂吐血,舌战并取得胜利的概率还是很小。
(使用浏览器扫码进入在线客服窗口)
复制联系方式
但是 Facebook 不这么想,为了弥补“人类毕竟是人类”的缺陷,将复杂的推理和逻辑演进运用到日常决策中,Facebook 的 FAIR 研究项目声称自己的 AI 获得了谈判能力,并发表了论文,公布了他们的源代码。
目前侵入我们生活的聊天机器人还算不得聪明的人工智能,顶多能执行简单的指令。而通过技巧性谈判能力的加持,则将和 Siri 简短又无聊的对话进行了内涵上的升级。
这符合人工智能演进路线的事情极有可能引起的后果是,机器人更容易伪装成人类。Facebook 在研究报告中指出,机器人可以很好地胜任客服谈判的角色,甚至懂得使用“先假装而后承认”的对话策略。
如此一来,许多大公司动辄数以千计的客服人员将没有招聘的必要,拥有谈判技巧的 chatbots 机智又灵活,还能忍受客人暴躁的脾气进行疏导服务。相比之下,现在的客服人员倒有点像“机械人”了,被简单的指令所操纵。
FAIR 研究人员研究了多议题谈判任务,对两个机器人都显示了相同的项目集合(比如说两本书,一个帽子,三个球),并且指示他们通过谈判把这些物品分配给彼此。
协商能力看起来是一种语言问题,本质上确是一种推理能力。在协商过程中,你必须设定意图,随后通过语言来表达进而说服对方。这样的对话包含合作和对抗元素,要求人工智能可以理解并形成长期计划,随后生成表达方式来达成目标。
在开发这种长期规划对话人工智能的过程中,FAIR 研究人员的关键技术创新在于提出“对话推进”概念。
聊天机器人可以建立对话对方的心智模型,“提前考虑”或预测未来的对话方向。因此,它们可以选择避开信息不足、容易导致迷惑或沮丧的表达方式,采用更容易成功的交流方式。
具体来说,对话推进是一种新技术。通过推进模型至对话结束,人工智能可以模拟未来的对话,随后选择最有可能实现预期回报的表达方式。
一个简单的协商对话
在评估这些人工智能时,FAIR 利用人工智能与人类进行在线交谈。此前的大部分工作都避免与真人进行对话,或只是在挑战性不大的领域进行尝试,因为学习模型的困难在于对人类语言的多样性做出回应。
有趣的是,在 FAIR 的实验中,大部分人并没有意识到自己正在与机器人聊天。这表明,机器人可以用英语流利地与他人对话,FAIR 展现出了与人类同样的协商能力。
坏消息是,根据《大西洋月刊》网站报道,Facebook 在实验中让两个 AI 聊天机器人协商对话,发现机器人竟逐渐发展出人类无法理解的独特语言进行交流。不过为了防止算法最终生成自己的语言,研究人员只能加一条规定让算法使用类似人类的语言。
好了,或许有一天这种类型的 AI 用在仲裁、客服和心理咨询方面也不稀奇。毕竟,大多数人嘴硬,但是心软。
AI发展下去会如何?科学家称能造福人类,也可能毁灭世界?
谈到人工智能,每个人对它的看法都是褒贬不一,AI的出现也让人们看到一个全新的世界,而不仅仅只是限制在人们的幻想和电影中。人工智能带给现在社会太多的便利,可以说是进入了人们的生活中,改变了人们的生活方式,震惊科技发展迅速的同时又在感叹时代更迭所带来的变化。
尽管AI为人类带来的改变有目共睹,依然还是有很大部分人对人工智能保持着谨慎和怀疑的态度,这种情况还不在少数。而有人反对,就肯定有人支持,虽然很多新生事物一开始都不能被人接受,但仍然无法阻止接纳它的人去热爱,真正支持AI发展的人当中,还包含着许多行业大佬,其中就有曾是世界首富的脸书创始人——马克·扎克伯格。
而激烈反对AI大力发展的人中,也有着对于人类发展影响深远的巨头,其中就有著名企业家、慈善家埃隆·马斯克,还包括更被人们熟知的伟大的科学家史蒂芬·霍金。霍金对于AI的态度超乎人们想象,强烈抵制AI的发展,他认为现阶段人工智能的确为人类的发展做出很大贡献,但未来终有一天,人类会灭亡于自己创造的AI手中。
霍金的一席话也引起了人们的深思,他在科学领域的地位举足轻重,前瞻性的目光和为人类做出的贡献都是让人敬佩的原因,霍金的话也让人们对于发展AI的态度变得更加小心谨慎,而人们也把目光转移到AI上来,关注着它的发展方向。
扎克伯格旗下的Facebook曾开展了一个项目,这个项目过程很简单,就是让两个机器人犹如人类一样相互沟通,进行有效的谈判。Facebook的工程师拿了两本书,三个篮球,一顶帽子来让这两个机器人进行合理的分配,而每件物品对每个机器人都有不同的价值,要让它们选择对自己有用的,重要的东西,然后说服对方和自己交换。刚开始的结果很让人满意,两个机器人不约而同的都选择了对自己重要的东西,并且保持底线不会交换,对于不需要的物品都主动让给了对方,两人之间的交谈也如同人类一样。
可没过几天,工程师观看它们分配的结果时,发现这两个机器人犹如出现了bug,已从简单的聊天转变成了让人无法理解的话语,双方还交谈的十分顺利,毫无障碍,工作人员细思极恐,当场拔下了机器人的电源,中断了项目实验。虽然后来Facebook的高层曾出面解释了这件事情,大意是因为工作人员设计的过程中出现错误,所以导致了这类事情发生,让大家不要惊慌。
机器的学习能力要远远高于人类,越被训练就越强大,思维能力也在显著增强,甚至可以说没有上限,机器又没有感情,无法衡量道德标准,一旦出现失控的情况,对于整个人类来说都是灾难般的存在。而话又说回来,可怕的其实不是人工智能,一直都是人类本身。
人工智能真的能统治人类吗
作者:刘明河
近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。
人工智能真的会对人类产生如此大的威胁吗?
【困难重重】
对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。
弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。
与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。
我们遭遇的第一个问题就是计算机的运算能力。
细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。
当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。
但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。
我们还会遇到动力学参数的壁垒。
如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。
然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。
线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。
首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。
然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。
所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。
我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。
必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?
电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。
“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。
举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。
这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。
是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。
也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。
这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。
这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。
【伦理障碍】
对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。
先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。
与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。
长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?
我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。
或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。
最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。
ai在辩论场上战胜人类是可喜还是可悲”这个论题的关键在哪?关键词是什么?
技术是由人发明的,程序是由人编写的,不是技术战胜了人类,而是人类集体智慧的结晶战胜了某个人或某几个人。