新闻中心

EEPW首页>消费电子>业界动态> 美专家:机器人与人类是伙伴 中国落后美国5年

美专家:机器人与人类是伙伴 中国落后美国5年

作者: 时间:2016-01-21 来源:网易科技报道 收藏

  二、人与机器关系的思考

本文引用地址://m.amcfsurvey.com/article/201601/286077.htm

  1、悬而未决的伦理困境

  纵观人类历史,技术虽然已经取代了人类劳动力,火车头和拖拉机仍然不会作出人类级别的决策,但在以后,随着技术的进步,“会思考的机器”可以。它还可以了解到技术与人性共同进化的过程,这一过程同样又会提出同样的问题:谁将处于主导地位?在硅谷,庆祝机器的崛起已成为时尚,可以从奇点研究中心(Singularity Institute)这类公司的崛起和凯文·凯利 2010 年的《科技想要什么》(What Technology Wants)这类书籍中清晰地看出这一点。早在 1994 年的《失控》(Out of Control)中,凯利就已坚定地站在了机器一边。他在书中描述了先驱马文·明斯基和道格拉斯·恩格尔巴特两人间的一次会谈。

  20 世纪 50 年代,当这两个家伙在麻省理工学院见面后,人们认为他们之间进行了如下对话。

  明斯基:我们要让机器变得智能,我们要让它们拥有意识。恩格尔巴特:你要为机器做这些事?那你又打算为人类做些什么呢?

  通常,那些致力于让计算机变得更友好、更人性化、更以人为本的工程师们会讲这个故事,但是,我直接站在了明斯基一边——站在了机器一边。人们会存活下来,我们会训练我们的机器来服务我们。但是,我们又将为机器做些什么呢?

  凯利指出,明斯基和恩格尔巴特分别持有不同的立场,这一点毋庸置疑。但是,认为“人类会存活下来”的观点显然轻视了它们的影响。他基本上是在复述明斯基对到来的意义的回答:“如果我们够幸运,或许它们会把我们当宠物养。”

  明斯基的观点反映了 AI 和 IA 之间的鸿沟。到目前为止,圈子在绝大多数时候都选择忽视他们认为只是强大工具的系统带来的影响,规避了对道德问题的讨论。当我询问自动化对人类影响的话题时,一位正在打造新一代的工程师告诉我:“你不能这样想。你只需决定你将尽己所能,为全人类改善世界。”

  在已经过去的 50 年中,麦卡锡和恩格尔巴特的理论仍然各自为政,他们最为核心的冲突仍然悬而未决。一种方法要用日益强大的计算机硬件和软件组合取代人类;另一种方法则要使用相同的工具,在脑力、经济、社会等方面??发展人类的能力。尽管鲜有人注意这些方法之间的鸿沟,这场新技术浪潮的爆炸 (一个正在影响现代生活方方面面的技术浪潮)将极力压缩这种分化,并防止反弹的发生。

  机器是会取代人类工人还是增强他们的能力?在某种层面上,这两种结果都会实现,但需要再次注意的是,这个问题本身就存在问题,它只会让我们得到偏颇的答案。软件和硬件都已足够灵活,它们最终都会变成我们在程序中为它们设计的模样。在我们当前的经济体系中,(包括机器和智能系统) 被如何设计、怎样使用,都完全是由成本和收益确定的,而且成本正在以不断加快的速度下降。在我们的社会中,经济学理论指出,如果一项工作能够由机器(硬件或软件)完成,并且成本更低,那么在大多数情况下,人们会选择让机器来完成这项工作。只不过是时间早晚的问题。

  该在这场争论中站怎样的立场实在很难抉择,因为没有显而易见的正确答案。尽管无人驾驶汽车将取代数以百万计的岗位,但它们也将拯救更多的生命。今天,在大多数情况下,人们会以收益和效率为根据决定实现哪些技术, 但也明显需要新的道德演绎。然而,决定成败的不只有细节。就像核武器和核动力一样,人工智能、基因工程和机器人学将在未来 10 年内产生人们意料之中和意料之外的广泛的社会影响。

  2、手推车难题,是否选择“更小的恶魔”

  所谓的“手推车难题”通常是这样的:一辆失控的手推车正一路向下狂奔,如果它继续前进的话,将有 5 个人会被杀死。你可以让这辆手推车转向另一个不同的方向,从而拯救这 5 个人的生命,在那个方向上只有 1 个人,而这个人将被手推车撞死。掉转手推车,以牺牲 1 个人的代价来避免 5 个人的死亡,道德会允许吗? 1967 年,英国哲学家菲利帕·富特(Philippa Foot)在一篇论述流产伦理问题的论文中首先提出了这个难题,最终引发了针对选择“更小的恶魔”这一概念的无止境的哲学辩论。最近,它又演变成“机器人汽车是否应该为了躲避跑到路中央的 5 个孩子而选择开到人行道上撞死 1 个成年人”的议题。

  通常,人们可以设计让软件选择那个“较小的恶魔”,但问题的框架似乎在其他层面上存在错误。因为 90% 的交通事故是由驾驶员错误导致的,似乎自动驾驶汽车能够令伤亡总数出现显著下降,所以,尽管仍然有少数事故纯粹是技术失败导致的,但更好的产品应该服务人类。从某种程度上说,汽车产业已经赞同了这一逻辑,例如,紧急气囊拯救的生命远比问题气囊包导致的伤亡要多。

  对这一问题狭隘的关注也忽视了自动驾驶汽车在未来可能的运行方式。很有可能到那个时候,路上的工人、警察、紧急车辆、汽车、行人和骑行者都会以电子化形式告知其他人自己的存在,甚至没有完全自动化的功能都能显著提高安全性。一项名为“V2X”的技术正在全球范围内接受测试,它能够让附近汽车的位置进行共享。在未来,甚至正在上小学的孩子们也会拿上传感器, 向汽车警告自己的存在,降低事故发生的可能性。

  令人困惑的是,哲学家们通常不会从更宏观的角度探究手推车难题,而只是将其当作独立事件的一个缩影。诚然,如果技术失败,这将成为一出独立的悲剧。改善运输整体安全性的系统似乎十分必要,尽管它们并不完美。将人类排除出驾驶所带来的哲学问题远比它对经济学、社会学甚至文化产生的影响更有趣。2013 年,美国有 3.4 万人死于交通事故,236 万人受伤。2012 年,全美有 380 万人以驾驶维生。对比一下这些数字。如果无人驾驶汽车在未来 20 年内出现,它们很有可能取代很多人的工作。

  3、人与机器,是伙伴不是敌人

  微软公司的园区不规则地分布着环环相扣的人行道、建筑物、运动场、食堂和有冷杉点缀的停车场。这儿看起来与硅谷的 GooglePlex 园区有些不同, 没有色彩鲜艳的自行车。但相同点是年轻的技术工人可以轻松地进入社区大学, 甚至高中生也可以在园区里漫步。

  当你靠近 99 楼(微软研究实验室的所在地)大厅的电梯时,电梯大门会感应到你的存在,然后自动开启。这有些像《星际迷航》里的场景,柯克船长也从来没有按过一个按钮。这台智能电梯是微软高级研究员、雷蒙德研究中心主管埃里克·霍维茨的杰作。在众多使用统计技术改善人工智能应用性能的第一代计算机科学家中,霍维茨算得上是知名度较高的人工智能研究人员。

  霍维茨和许多人一样,也是因为对理解人类思维如何工作产生了浓厚兴趣,开始了自己的学习。20 世纪 80 年代,他从斯坦福大学获得医学学位,马上又开始了神经生物学的硕士研究。

  一天夜里,他独自一人待在实验室,把探针插入老鼠大脑中的一个神经元中。霍维茨兴奋不已。屋子里很黑,有一台示波器和一个音频扬声器。当听到神经元发出的声音时,他对自己说:“我终于进来了,我进到了一个脊椎动物的思想里。”与此同时,他也意识到,自己并不明白这次冲击在这个小动物的思维过程中到底意味着什么。霍维茨看了一眼自己的实验台,注意到一台最近拿来的苹果 IIe 型计算机的盖布滑落到了一边。他的心一沉,意识到自己正在运用一种完全错误的方法。他正在做的事情无异于随机将一只探针塞进计算机里,试图理解计算机软件。

  霍维茨离开了医学领域,转而开始研究认知心理学和计算机科学。他选择了卡内基·梅隆大学的认知科学家、人工智能先驱赫伯特·西蒙作为自己的远程导师,也开始接触加州大学洛杉矶分校计算机科学教授朱迪亚·珀尔 (Judea Pearl)。珀尔开创了人工智能研究的新方法,这种方法与早期的逻辑和基于规则的方法具有明显区别,专注于建立嵌套式的概率网络来识别模式。从概念上来讲,这与 20 世纪 60 年代遭到明斯基和珀尔特批评的神经网络的思路相距不远。

  因此,20 世纪 80 年代,霍维茨在斯坦福大学远离了计算机科学研究的主流。许多主流人工智能研究者认为,他对概率论的兴趣是过时的,回到了过去的“控制论”方法。

  1993 年,霍维茨来到微软研究院,他的任务是打造一个团队,研发可以改善公司商业产品的人工智能技术。微软的 Office 助手(即“Clippy”)1997 年问世,主要是为了帮助用户掌握不易使用的软件,它在很大程度上就是霍维茨团队在微软研究院的研究成果。得更加容易,如今市面上已经出现了几种这一类型的增强产品。例如,早在 2005 年,两位象棋爱好者使用一个下棋程序赢了一位象棋大师,以及其他下棋程序。

  霍维茨仍在研究如何通过人类智能让机器学习和计算机决策结合起来, 以此深化人机交互。举例来说,他的研究人员与引导全民科学的工具 Galaxy Zoo的设计者们密切合作,利用人类网络冲浪者的力量对银河系图片进行分类。

  众筹劳动力正在科学研究中变成十分重要的资源:专业科学家可以指导业余爱好者,而业余爱好者要做的,只是玩一些利用人类认知的精密游戏,来帮助科学家解决像绘制蛋白质结构一样棘手的问题。

  在很多情况下,人类专家团队已经超过了某些最强大的超级计算机的能力。在评估完人类和机器的组合后,通过给每一个组分配一个特定的研究任务, 科学家能够创造一支强大的混合科研团队。

  计算机拥有惊人的图像识别能力,它们可以创建数百个视觉表格,分析目前望远镜能够观测到的所有星系。这种做法并不昂贵,但也没能产生最好的结果。在这个程序的新版本 Galaxy Zoo 2 中,拥有机器学习模型的计算机能够解释星系图片,以便为人类分类员提供准确的样本,使之可以比之前更容易地为星系进行登记。

  在另一个改进中,这个系统增加了识别不同参与者的特定技能的功能, 并能够恰当地予以平衡。Galaxy Zoo 2能够自动对遇到的问题进行分类,并且知道哪些人可以更有效地解决这个问题。

  在 2013 年的一场 TED 演讲中,霍维茨向观众展示了一名微软实习生第一次遇到迎宾机器人时的反应。霍维茨展示了一小段视频,里面记录了从系统的视角来看这次互动的过程,尤其是记录了这名女性实习生的脸部。这位年轻的女性靠近系统,系统告诉她,霍维茨正在办公室里与某人交谈,并且提出可以为她安排会面时间,她犹豫了一下,??绝了计算机的提议。

  “哇,这太惊人了。”这位年轻的女性低声说。然后,为了结束这次对话, 她急匆匆地说了一句:“很高兴认识你!”霍维茨总结道,这是一个好的迹象。他认为,这种类型的互动展现了人类和机器人成为伙伴的世界。

  也许,与机器人交互的那种自由、放松之感,正是因为在连的另一边并不是一个令人难以捉摸的人类。也许,这根本与人际关系无关,更多的在于是取得控制成为主人还是成为奴隶。

  4、选择,一切与机器无关

  在人工智能和机器人技术之间,未来既可能是乌托邦,也可能是地狱,还有可能是介于两者之间的某种世界。如果生活和自由的标准有机会得到提高,但是否值得以牺牲自由和隐私为代价呢?是否存在能够设计出这种系统的正途或是歧路?我坚信,答案就在这些设计师身上。

  一组设计师设计出强大的机器人,让人们可以完成此前无法想象的任务,比如用于空间探索的编程机器人;而另一组人则研究用机器取代人类,比如设计出人工智能软件,让机器人可以为医生和律师的工作“代班”。有必要让这两个阵营找到互相交流的途径。我们如何设计这些日益智能的机器、如何与它们互动, 将决定未来社会和经济的本质。这将不断影响现代世界的方方面面,从我们是否生活在一个阶层更加分明(或更加模糊)的世界, 到身为人类究竟意味着什么。

  对于当今人工智能技术状况的讨论已经突然转向科幻小说或宗教领域。不过,机器自治的现实不仅属于哲学范畴,也不是纯粹的假设性问题了。我们已经进入了新时期,机器能够执行很多需要智慧与体力的人类工作:它们可以胜任工厂的工作、驾驶无人驾驶汽车,将人类排除在外汽车、诊断疾病,也能以人类律师的眼光阅读文件,它们当然也能控制武器,以极高的精准度展开屠杀。

  无论是机器设备,还是让它们运转的软件,实际上都是由人类设计的。马歇尔·麦克卢汉(Marshall McLuhan)对这一过程的描述最为清晰:“我们塑造了工具,而之后,这些工具又塑造了我们。”

  现实情况是,人类将继续决定机器的能力。那些创造了日益强大、自动化的机器人和人工智能软件的工程师们,将决定这些发明将要增强人类、控制人类还是完全去除人类的存在。

  同样可以确定的是,人类与机器的关系在每一种文化中都呈现了各自的特征。长久以来,日本人都对机器人情有独钟,而在美国,人们在崇敬机器的同时,又多了几分怀疑和惶恐。

  这些都不是什么新问题。在计算时代的黎明期,应用数学家、控制论创始人诺伯特·维纳(Norbert Wiener)就曾明确指出,智能机器时代的到来,带来了一些清晰的选择。不过到目前为止,大多数可选方案仍然仅限于推理与猜测。如今,随着机器变得自动、敏捷、能够四处移动,工程师、科学家、程序员以及老百姓所作出的每一个决定,都会即刻发生作用。今天,机器人学和人工智能软件都在不断唤起人们对个人计算时代早期的回忆。正如业余爱好者们缔造了个人计算机产业,人工智能设计师和机器人学家对技术进步、新产品和它们身后的科技公司都抱有极大的热情。与此同时, 多数软件设计师和机器人工程师在被问到自己的发明会带来什么潜在影响时都会感到不快,只能频繁地以幽默来转移话题,化解尴尬,但是,问题仍然是必要的。机器人发展中可没有“盲眼钟表匠”(blind watchmaker)。无论是增强还是自动化,都是由一个个人类设计师作出的设计决定。



关键词:机器人人工智能

评论


相关推荐

技术专区

关闭