代码的终结:未来我们会像训练小狗一样调教计算机腾讯科技讯 在未来,我们不是给计算机编程,而是会像训练小狗那样训练计算机。 在计算机发明之前,实验心理学家认为,大脑是一个不可知的黑盒子。你可以分析一个对象的行为——比如铃铛一响,小狗就会分泌唾液——但是你又怎么去分析思维、记忆和情绪呢?这些东西神秘莫测,超出了科学研究的范围。因此,行为学家们把研究的范围框定在刺激和反应、反馈和强化上,并没有尝试去了解心智的内部机制,这段时期持续了四十年之久。 然后,到了1950年代中期,一群心理学家、语言学家、信息理论家和早期人工智能研究人员提出了一个不同的概念。他们认为,人不仅仅是条件反射的集合,而且还会接收信息,处理它,然后采取相应的行动。人拥有一个系统,可以把信息写入记忆,存放在记忆中,并且从记忆中调用信息。这是通过一种有逻辑的、正式的语法来进行的。大脑并不是一个黑盒子,它更像是一台计算机。 这种“认知革命”最开始是一点一点萌芽的,但是,随着计算机成为全美各地心理学实验室的标配,“认知革命”获得了广泛认同。到1970年代后期,认知心理学颠覆了行为主义,它使用一套全新的语言来描述心智活动。心理学家开始把思维比作程序,普通人也开始使用“记忆的银行”之类的比喻。 控制了代码,就控制了世界? 数字革命渗透到了我们生活中,也渗透到了我们的语言中,以及我们对事情的基本看法之中。科技就是这样。在启蒙时期,牛顿和笛卡尔激发人们把宇宙想成是一座精心制作的时钟。工业时代,带活塞的机器给人们带来了启迪,弗洛伊德的心理动力学就借鉴了蒸汽机热力学机制。而在如今这个时代,计算机从根本上塑造人们的观念,因为如果世界是一台计算机,那么这个世界就可以被编程。 代码具有逻辑,可以被修改。这是数字时代的核心原则。软件无所不在,正如风险资本家马克·安德森(Marc Andreessen)所说,我们置身于机器丛林之中,机器把我们的行为、想法和情绪转换成了数据——而数据是一种原材料,可以供工程师编码执行。我们把生活看成是一种有规则的东西,其规则就是一系列可以被发现、利用、优化,甚至改写的指令。科技公司使用代码来理解我们最密切的联系,就连一些励志文章也说,你可以修改你自己的源代码,对你的恋爱模式、睡眠习惯,以及消费习惯进行重新编程。 在这个世界上,编程能力已经不仅仅是一种理想的技能,而且也成为了一种语言,如果你会说这种语言,你就是一个“圈内人士”,拥有了登堂入室的门径。“如果你控制了代码,你就控制了世界,”未来学家马克·古德曼(Marc Goodman)曾说。保罗·福特(Paul Ford)用词则更加谨慎一些:“控制代码的人就算没有控制世界,也控制了可以控制世界的东西。) 现在,无论是你喜欢这种状况还是讨厌它,无论你是否精通编程,都不要执迷于它。因为我们的机器开始说一种完全不同的语言了,即便是最好的程序员也无法完全理解这种语言。 “机器学习”与深层神经网络 过去几年里,美国硅谷顶尖的高科技公司开始大力发展一种计算方法,称为“机器学习”。传统的编程方式是写出一步步的指令,让计算机遵照执行。但在机器学习中,程序员不为计算机编写指令,而是对计算机进行训练。如果你想教会神经网络识别小猫,你不是告诉它要找到胡子、耳朵、皮毛和眼睛。而是向它出示大量小猫的照片,最终它就能学会。如果它把狐狸错误地归类为猫,你也不需重写代码,只要继续训练它即可。 这种做法并不新鲜,几十年前就有了,但是最近出现了突飞猛进,这要部分归功于深层神经网络的兴起。深层神经网络是一种大规模分布式计算系统,模仿大脑神经元的多层连接。我们有很多网上活动都是以机器学习为后盾的,比如Facebook用它来决定哪些内容出现在你的消息流里,谷歌照片服务用它来识别面孔,微软Skype的翻译功能也使用了机器学习,实时把内容转换成不同的语言。此外,无人驾驶汽车也利用机器学习来避免事故的发生。 即便是谷歌的搜索引擎也已经开始采用深层神经网络了:该公司今年2月任命机器学习专家约翰·詹南德雷亚(John Giannandrea)担任搜索部门负责人。谷歌发起了一项重要计划,培养工程师掌握这些新技术。“通过打造学习系统,”詹南德雷亚说,“我们不必再编写规则了。” 一个时代的结束 这里的问题是:使用机器学习,工程师永远不知道计算机是如何完成任务的。神经网络的机制在很大程度上是不透明的,神秘莫测。换言之,它就是一个黑盒子。随着这些黑盒子开始承担更多的日常数字任务,它们不仅会改变我们与技术之间的关系,而且还会改变我们看待自己、看待这个世界,以及自己在世界中位置的方式。 如果说以前,程序员就好像是上帝,制定了计算机系统运行的法则,那么现如今,他们更像是家长或者驯狗师了,这是一种更加捉摸不定的关系。 安迪·鲁宾(Andy Rubin)是一名经验丰富的程序员,参与了Android操作系统的搭建。 “我进入计算机科学这一行的时候还很年轻……它是一块空白的画布,我可以从零开始创建东西,”他说。“很多年来,这给我带来了一种巨大的掌控感。” 但是现在,他说,这个时代即将结束。鲁宾热衷于机器学习,他的新公司Playground Global就是机器学习领域的创业公司,主营智能设备的普及——但是这事也有点让他伤心,因为机器学习改变了“当一名工程师”的内涵。 “人们不再用线性的方式写程序了,”鲁宾说。“神经网络学会如何进行语音识别之后,程序员是无法深入其内部一窥究竟的。它就像你的大脑一样。你不能砍下一个人的脑袋来看看他在想什么。”如果工程师决意要看看深层神经网络中是什么,他们看到会是一个数学的海洋:一个巨大的、多层结构的微积分问题,通过不断推导数十亿数据点之间的关系,得出对世界的猜测。 就在几年前,主流的人工智能研究人员还认为,为了创造智能,我们必须给机器灌输正确的逻辑。等到编写了足够多的规则,最终我们就会打造出一种足够精密的系统来了解这个世界了。他们在很大程度上忽视了机器学习的一些早期支持者,这些支持者认为,应该给机器灌入数据,让它们自己得出结论。 许多年来,计算机一直没有发展到强大得足以真正证明这两种方法优劣的程度,所以这个争论成为了一个哲学命题。“大部分争论都立足在一些坚定的信念上:这个世界应该怎么组织起来,大脑是如何工作的,”谷歌无人驾驶汽车研发者、前斯坦福大学人工智能教授塞巴斯蒂安·史朗(Sebastian Thrun)说。“神经网络没有符号,没有规则,只有数字。这让很多人都敬而远之。” 程序员不会失业 一种不可解析的机器语言,这不仅仅是个哲学构想而已。在过去的二十年里,学习编程一直是最可靠的就业途径之一——所以一些家长让孩子在放学后去上编程辅导班。但是,以神经网络方式连接的深层学习机器是另外一个世界,需要的是另外一种员工。分析师已经开始担心人工智能会对就业市场产生怎样的影响了。就像一些机器设备发明之后,之前的一些工种失去了意义,程序员自己可能很快也会品尝到这种滋味了。 当被问及这种转变时,提姆·奥莱理(Tim O'Reilly)说,传统的编码工作不会完全消失,而且在很长一段时间中,我们仍然需要程序员——但是需要的人数可能会减少,编程会成为一项元技能(meta skill)。按照艾伦人工智能研究所(Allen Institute for Artificial Intelligence)的CEO奥伦·奥尼(Oren Etzioni)的说法,机器学习需要“脚手架”来运行,而搭建“脚手架”就需要会编程。不会因为有了量子力学,牛顿力学就会被抛弃。编程仍然会是一种强大的探索世界的工具,只是人们可能还需要其他更多的工具。但是,在驱动具体职能方面,主要工作是由机器学习来执行的。 当然,人们仍然要训练这些系统。这项工作既需要对数学有非常深入的领悟,也需要有一种教学上的直觉。“这几乎就像一种艺术,把这些系统中最好的一面引发出来,”谷歌DeepMind人工智能团队的主管戴密斯·哈萨比斯(Demis Hassabis)说。“世界上有只有几百人能出色地做到这一点。”但是,即便人数这么少,也足以在短短的几年间内就给技术行业带来了转变。 对文化的影响 无论这种转变会给就业带来怎样的影响,它对文化的影响必定会更大一些。如果人类编写的软件导致了人们对工程师的崇拜,让大家觉得人类体验最终可以简化为一系列可以理解的指令,那么,机器学习就开始向相反的方向推动了。宇宙运转的法则,可能是无法人为分析的。欧洲反垄断调查称谷歌对搜索的结果施加了不当影响。但是,如果就连公司自己的工程师也说不清楚搜索算法究竟是如何发挥作用的,那么这样的指控就会变成无头公案了。 不确定性已经不是什么新闻,即使很简单的算法,也可能产生不可预知的突发行为——这种说法可以追溯到混沌理论和随机数生成器。过去的数年中,随着网络变得日益盘根错节,功能变得越发复杂,代码似乎越来越像是一种外星神力,机器的行为变得更加难以捉摸,难以管控:股市里出现了一系列不可预防的突然崩溃;停电现象莫名发生。 由于这些力量的崛起,技术专家丹尼·希利斯(Danny Hillis)宣布“启蒙时代”已经结束。数个世纪以来,我们对逻辑、确定性和控制自然充满了信念,这个时代现在结束了。希利斯说,“纠缠时代”(age of Entanglement)开始了。“我们在技术和机制上的创造的东西变得更加复杂,我们与它们之间的关系发生了变化,”他在《设计和科学》(Design and Science)杂志上的写道。“我们不再是我们创造的东西的主人,我们学会与它们商讨,哄骗和引导它们朝着的我们的大方向前进。我们创造了我们自己的丛林,它们也有它们自己的生命。”在这条道路上,机器学习的崛起是最新的一个发展,也许会是最后一个。 前景令人担心? 这可能会让人觉得可怕。毕竟,普通人参加了短训班之后,多少也会掌握一些编程技能。程序员至少还是人类。现在不仅科技精英圈缩小了,而且对于他们自己创造的东西,他们的控制力也减弱了。创造这些东西的公司发现它们很难管控。去年夏天,谷歌的照片识别引擎把黑人图片标志为大猩猩。公司在道歉的同时,马上采取了一个纠正做法:让系统不要把任何东西标记为大猩猩。 一些人觉得,这意味着机器夺走人类权威的时代将会到来。“可以想见,技术战胜了金融市场,比人类研究者更擅长于发明创造,比人类领导者更擅长于操纵术,还会研制出一些我们甚至无法理解的武器,”斯蒂芬·霍金写道,“虽然AI的短期影响取决于控制它的人,但它的长期影响则取决于它到底是否能被人控制。”埃隆·马斯克和比尔·盖茨等人都赞同他的说法。 但是无需太过害怕。我们才刚刚开始学习与一项新技术“纠缠”的规则。目前,工程师们正在研究如何把深度学习系统的过程进行视觉化。但是,即使我们永远不能完全理解这些新机器的思路,这也不意味着我们会在它们面前无能为力。在未来,我们不会太关心它们行为的深层根源,而是学会把注意力放在它们的行为本身上。代码的重要性将会降低,我们用来训练它的数据会变得更加重要。 重拾行为主义 你可能觉得这看上去似乎有点眼熟,那是因为它和20世纪的行为主义很相似。事实上,训练机器学习算法的过程经常被比喻为20世纪初一个伟大行为主义实验:巴甫洛夫用铃铛声让小狗流口水,那并非源自于对饥饿的深刻理解,只是一遍又一遍地重复一个套路。他提供了数据,一遍又一遍,直到代码重写了其本身。不管你对行为主义者有什么看法,他们就是有控制实验对象的本事。 史朗说,从长期来看,机器学习将带来一种民主化的影响。就好比如今你不需要学HTML就能建网站,最终来说,你不需要博士学位,就能利用深度学习的巨大力量。编程不再是掌握了一系列神秘语言的程序员的专属领地。只要你曾经教会过小狗打滚,你就能胜任。“对我来说,这是编程方面最酷的事情,”史朗说,“因为任何人都可以编程了。” 在计算的历史上,对于机器如何工作,很多时候我们都采取了一个由内而外的视角。首先我们写代码,然后用机器表述它。这种世界观暗示了一种可塑性,但也体现了一种基于规则的决定论,从某种意义上说,底层指令决定了一切。机器学习则相反,它代表了一种由外而内的视角:不只是代码决定行为,行为也决定了代码。 如今,计算机是一种把体验转化为技术的设备。几十年来,我们寻求的是那种可以解释我们对世界的体验,以及进行一些调整后,可以优化我们对世界的体验的代码。但是,我们的机器将无法按照这种方式发展下去。我们与技术的关系将变得更加复杂,但最终来说也会变得更有价值。我们的角色也会发生变化,以前我们是设备的指挥官,以后我们会是设备的家长。(Kathy) |
|