第11章 开辟新战场第1/2段
几天的国庆假期很快结束了,顾玩带着妹妹和女朋友回到学校,恢复到正常的学习生活中。随着GPS和AMS项目都告一段落,顾玩手头的科研任务确实闲下来一些。每天只要上上课,考考试,泡泡图书馆,连实验室都可以不去了。不过,他就像黑夜中的萤火虫,注定是不会让自己生蛆的。所以没过几天,他就找到了丁院长。“院长,我想发一些跨专业的论文,搞一些跨专业的课题,这事儿不违反学校纪律吧?”顾玩也不预约,当天中午径直走进院长办公室,直接就摊牌。当时还有个副院长、以及院长的助理在旁边看着呢。丁院长都微微吓了一跳:“咋了?受委屈了?还是突然脑子犯抽,想换专业了?”旁边那个副院长出言打圆场:“院长您别多虑,说不定是小顾同学能者多劳,兴趣涉猎广泛而已。”顾玩还没接话,丁院长倒是跟副院长一问一答,自我脑补起来了:“原来你是想修二专业啊,以你现在的成绩,这当然是没问题的了。你可是科技部表彰过的人了,校长也会给你特批的。何况,我们学校本来就允许修二专业。”这事儿就这么决定了?自己可没打算双修二专业啊,只是想跨圈稍微搞一搞深度学习人工智能的基础有木有!但学校领导已经这么决定了,顾玩也就接受咯。一切手续很快搞定。上面标示学分什么的不重要,有空稍微多修几门数学课,就算二专业的标准达到了。实在不想修,只要论文够,一样算过。得到这个承诺后,顾玩让麻依依也去试试双修,看能不能申请下来。麻依依就没那么大面子了,毕竟没在科技部表彰大会上挂过号,所以一切还是要公事公办。最终咨询的结果是双修可以,但学分不能打折没有优惠。面对困难,麻依依不禁要多问几句老公的打算:“你到底希望我修个啥?”顾玩回答得很直接:“修个心理学分支下的认知神经科学方向好了——这是一个心理学跟脑科学交集的专业。”麻依依一脸懵逼。顾玩却知道,他选的这个方向,与地球上杰夫辛顿当年搞深度学习时的路径,几乎是如出一辙的。凭心而论,杰夫辛顿的能力也不算多逆天的科学家,但他成功了。这里面努力和方向正确占八成,但还有至少两成是运气和环境。深度学习型人工智能的成功,得益于其他地球人的固有技术偏见——在此之前,很少有人从“挖掘人脑的深层学习机理究竟是怎样的”这个角度,来思考训练机器学习的问题。所以,谁这么想了,而且第一个付诸实践了,就能捡到漏。当然了,这个漏也不是阿猫阿狗都能捡的,论证过程比较复杂。通俗地说,你至少得是个世界名校的计算机和神经认知科学领域双博士,你才有资格在方向对的前提下,捡到这个漏。连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类“手把手教机器快速进步”。而这些算法的缺点,就是“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑CPU运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。这玩意儿,最初是出现在很多硅谷IT公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有CPU共同分包编译。分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗CPU的算力了——机器人自己的CPU不够快,可以接入云,用云上的几千几万台机器的CPU帮你一起算。这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗CPU弱一点就弱一点了,咱可以芯海战术堆数量嘛。如此一来,其他那些“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。至于后来从学界承认到产业界承认,又花了四年——其中三年都是在等云计算的出现。他的成绩06年在学界就初步被认可了,但09年云计算才正式出现,2010年杰夫辛顿才被谷歌高薪挖走。后世的人工智能,用一句话概括运作原理,就是&ldqu上偏偏在你2007~2009年,诞生了分布式架构算力设计。这玩意儿,最初是出现在很多硅谷IT公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有CPU共同分包编译。分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗CPU的算力了——机器人自己的CPU不够快,可以接入云,用云上的几千几万台机器的CPU帮你一起算。这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗CPU弱一点就弱一点了,咱可以芯海战术堆数量嘛。如此一来,其他那些“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。至于后来从学界承认到产业界承认,又花了四年——其中三年都是在等云计算的出现。他的成绩06年在学界就初步被认可了,但09年云计算才正式出现,2010年杰夫辛顿才被谷歌高薪挖走。后世的人工智能,用一句话概括运作原理,就是“使用云计算的算力,用深度学习算法处理学习大数据”。算力,算法,大数据。三要素里,从技术难度来说,最先有的是大数据,这是一种资源,有稀缺性,但却没有技术含量,所以是最早出现的。算法,或者说深度学习的思路,是第二个出现的(06年)用这种算法处理这些数据的算力,是最后出现的(09年)三要素都齐了之后,第二年地球上谷歌就开始在这条路上狂奔了。顾玩觉得,就算自己开了挂,也有1年多的时间,先把基础算法方面的架构性论文发完。具体追求产业界应用的事儿,将来去留学开公司期间再说好了。而且,把算法渊薮阶段的论文,在中国念书的时候就发表,将来也好撇清跟老外的关系——咱可不是去斯坦索姆留学后,才琢磨出这些玩意儿来的,一开始在中央科大念书,就已经有这方面的建树了,功劳都是中国人的。让麻依依认识清楚这一切节奏后,顾玩明确分配了任务:“你今年除了修学分之外,我就给你两个发论文的任务。第一,你在计算机本专业领域,琢磨一个分布式编译的活儿。把架构想出来,在你们数科院的项目公司也好,研究所也好,先试着干起来。确有提高效率,就可以把这篇实验性的论文发出去了。第二,在你双修的认知神经科学领域,我希望你发一些人脑神经学习效率方面的研究——跟计算机没关系,就是研究活人的学习效率,多做对照组,具体实验设计,我会帮你一起参详的。这些论文不会直接产生商业价值,但是会让你我有资格在相关领域的顶级期刊稍微混点脸熟,进入圈子。”顾玩原先也发表不少论文了,但可惜都是物理类的。正所谓隔行如隔山,一旦他想进入数学/计算机算力架构/认知神经科学,重新刷脸刷声望,肯定是免不了的。就跟你打魔兽,哪怕奥格瑞玛崇拜了,幽暗城还得重新刷不是。当然了,你奥格瑞玛崇拜,对于你幽暗城声望的刷速度肯定略有帮助,比你一个所有声望都没有的纯萌新,肯定要容易一些。麻依依还是没太明白老公分配的具体任务,但她觉得这不妨碍她搞个人崇拜,盲目迷信跟着老公的思路走。“我这学期还是先从分布式编译下手吧。我本来就是学计算机的,我觉得这个容易写,也容易发表。”麻依依读大学这一年多来,也是发过论文的,不过一共只发了两篇,
本章未完,请点击下一段进行阅读!