标签归档:CNCC

FPGA研究领域奠基者,北京大学高能效计算与应用中心主任丛京生 | CNCC 2017

雷锋网 AI科技评论按:由中国计算机学会(CCF)主办,福州市人民政府、福州大学承办的2017中国计算机大会(CNCC2017)将于10月26-28日在福州举行。已经注册参会的朋友们可以现场一睹大牛们的精彩报告!10月15日前线上注册缴费截止,但未注册缴费的也不要着急,您可以选择现场注册参会!

延续2016年大会的顶级嘉宾阵容,CNCC 2017 将会迎来更多国内外知名专家学者,大会特邀阵容如下:

菲尔兹奖获得者丘成桐,中国科学院院士梅宏,微软全球执行副总裁沈向洋,美国国家工程院院士丛京生,CCF会士、中科院计算所研究员陈熙霖,斯坦福大学副教授,斯坦福人工智能实验室和视觉实验室主任李飞飞,北卡罗来纳大学教堂山分校教授Dinesh Manocha,腾讯集团高级执行副总裁汤道生,今日头条副总裁、IEEE Fellow马维英,滴滴出行高级副总裁章文嵩,出门问问创始人、CEO李志飞,CCF理事、北京理工大学教授王涌天等。

继介绍哈佛大学终身教授丘成桐微软全球执行副总裁沈向洋后,雷锋网 AI科技评论将为大家带来另一位具有广泛影响的杰出计算机科学家——美国国家工程院院士、ACM Fellow、IEEE Fellow丛京生教授,他将亲临 CNCC 2017 的大会现场并做主题演讲。

图1:丛京生教授

丛京生教授本科毕业于北京大学计算机科学与技术系,1987和1990年于美国伊利诺伊大学厄巴纳香槟校区(UIUC)分别获得计算机科学硕士和博士学位,目前有如下诸多头衔:

  • 加州大学洛杉矶校区(UCLA)计算机系和电子工程系教授

  • 加州大学洛杉矶校区(UCLA)杰出校长讲席教授(Distinguished Chancellor’s Professor)

  • 加州大学洛杉矶校区(UCLA)协理副教务长(Associate Vice Provost)

  • 北京大学高能效计算与应用中心主任

  • 北京大学信息科学技术学院千人计划客座教授

  • 北京大学-UCLA理工联合研究所共同主任

学界成就

丛京生教授的研究领域包括电子设计自动化和高能效计算与应用等,共发表论文500余篇;他不仅论文高产,学术成就也同样斐然。

据 Google Scholar 的统计,丛京生教授论文的引用量超过20000次;而截至目前,丛京生教授已在多个国际学术期刊和会议上拿下10个最佳论文奖,其中包括中国计算机学会(CCF)推荐的A类国际学术期刊TCAD和A类国际学术会议HPCA。

除了多次获得最佳论文奖,丛京生教授还先后三次获得“十年最有影响力论文“的奖项,毫无疑问,这一荣誉是对学者的学术生涯的最高肯定:

2014年11月,在IEEE/ACM 计算机辅助设计国际会议(ICCAD)上,以丛京生教授为第一作者的论文《三维集成电路的一种热驱动布图算法》(A thermal-driven floorplanning algorithm for 3D ICs)获得ICCAD 2004至2014年“十年最有影响力论文奖”,该奖项旨在表彰十年来ICCAD在集成电路计算机辅助设计方向上所收录的、在研究和工业设计上最具影响力的论文。

图2:丛京生教授于2014年ICCAD上获得十年最有影响力论文奖

亚洲及南太平洋地区设计自动化会议(ASP-DAC)是集成电路设计与辅助工具研究领域国际上最具影响力的学术会议之一,受到世界范围内该研究领域专家学者的广泛重视。

2015年1月,在ASP-DAC上,丛京生教授与他曾指导的博士生Dr. Yan Zhang合作的论文(Thermal-Driven Multilevel Routing for 3-D ICs)获得近十年最有影响力论文奖。

2017年初,同样在ASP-DAC上,丛京生指导他的学生罗国杰在UCLA攻读博士学位期间所发表的第一篇论文《基于变换的三维芯片热布局方法》(Thermal-aware 3D IC placement via transformation)再次斩获十年最具影响力论文奖。

除了多篇论文拿下大奖,他还因专业成就斐然而多次获得表彰:

  • 2010年,丛京生教授因在电子设计自动化领域等方面的开创性贡献获IEEE电路与系统分会年度技术成就奖,2016年,他再次获得IEEE计算机分会年度技术成就奖。

  • 2017年初,丛京生教授“因通过FPGA综合算法的创新,在专用可编程逻辑领域做出的开创性贡献”,当选美国国家工程院院士。

  • 2017年9月,丛京生教授获得CCF海外杰出贡献奖,该奖项旨在表彰他对中国计算机事业的贡献。

业界突破

除了在学界获得一系列奖项,丛京生教授在业界也吸引了众人的目光,他先后参与建立三个高新技术创业公司,并且这些公司都获得了不错的发展。

在今年八月的未来论坛中,丛京生教授提到了他们先后应用于业界的一系列研究成果:

21世纪初期,他们用自动编辑原理,做了一个编译系统AutoESL,从传统的软件开始生成硬件的描述语言,让可以写软件的人自动设计FPGA,大大简化了FPGA的设计难度。

据悉,AutoESL支持system C 、C等高级语言,支持多种优化方法,可以很方便生成RTL级的代码,大大提高研发速度。2011年,Xilinx正式宣布将AutoESL并入新一代的集成开发套件Vivado中。

除了AutoESL,他们还开发了新的CMOST——给定程序之后,决定怎么传输数据,怎么共享内存,这样能实现极大的加速。提及设计CMOST的初衷,丛京生教授表示:他们设计AutoESL的时候,十年前的出发点是考虑让芯片的设计者不用写繁琐的硬件描述语言,只需要写软件。但是今天只满足于做计算远远不够,因为计算的时候必须把处理器、CPU和FPGA同时用到。

谈到CMOST,丛京生教授说道,“这个工作也做得很不错,不但学术界认可,我们很多工业界的朋友也想用。作为副产品,还产生了一个叫Falcon Computing的公司,致力于让云端的FPGA加速成为可能。”

图3:丛京生教授在今年八月的未来论坛上公开发表演讲

对于投身业界的初衷,北京大学校报曾这样报导过丛京生教授创业的心路历程:

在第一个公司成立时,丛京生并没有做开公司的准备,他的团队在现场可编程逻辑门阵列综合方面的研究工作在世界领先,也是当时工业界所需的技术,他向实验室的科研合作伙伴提供了论文和源代码,但是他们更需要的是持久性的技术支持,于是丛京生组建团队进行了进一步的产业开发。

可见,丛京生教授希望通过产业落地的方式实现学术理论的顺利转换。在相关采访中,丛京生教授曾经这样描述从学界到业界的转化:“产业转化是一件很好的事情,但是需要的是水到渠成。大学里的创业要建立在技术和科研的基础上,很重要的一点是要把技术专长发挥出来,要建立在基础研究上,做出一流的研究,有了产业前景自然有商业合作伙伴找上门来,让科技推动产业发展,这才是大学创业的意义。”

代表性成果

北京大学校报也报导了丛京生教授最有代表性的两项工作:

一是著名的FlowMap综合算法的提出。当时,计算大规模逻辑电路到现场可编程逻辑门阵列的时延优化映射方案曾被认为是一个NP完全问题(即多项式复杂程度的非确定性问题)。丛京生提出综合算法在多项式时间内实现了时延优化,完美地解决了这个问题,极大地提高了电路的工作速度,引起了业界的极大轰动。

二是通过高级语言C/C++实现对FPGA的编程。起初对FPGA的编程必须使用硬件描述语言实现,造成FPGA的入门开发难度大。而对于软件工程师来说,如果通过高级语言对硬件编程可以极大地提高效率,当时很多人都提出了通过高级语言实现硬件编程这个想法,但没有真正的实现,丛京生的这项研究使得这个想法从理论迈向了实践。

对于他在FPGA上的研究成果,江南大学物联网工程学院柴志雷博士表示,能把基于C/C++的FPGA应用开发技术从实验室研究提升到产品化的水平,具有革命性的意义。如果再考虑到当前摩尔定律放缓,人工智能及大数据的应用对计算系统的能力提出更高的需求,这项技术意义就更大了。“FPGA从细分市场走向大众应用必然需要大幅度降低准入门槛、提升开发效率。而C/C++相比HDL就好比当年CPU编程从汇编转移到C一样。虽然目前很多FPGA工程师更习惯HDL编程,但进入计算领域的FPGA将会迎来更多的C/C++的编程人员。”

教育贡献

除了在学界和业界不菲的成就,丛京生教授还是一名卓越的教育家,他的简历上显示,他已培养了36名博士,其中,有9名学生跟随他走上了学术的道路,在包括美国康奈尔大学、美国佐治亚理工学院、北京大学等众多著名研究型高校任教,也有学生和他一起成立了公司,其他的学生则加入了各大公司的研发机构或者从事管理工作,包括Amazon、Arista、Facebook等。

目前,由他担任主任的北京大学高能效计算与应用中心成就斐然,目前中心共有198篇论文在国际知名会议和期刊上获得发表或接收,其中91篇为中心A类及A+类论文(计算机体系结构及相关领域顶级会议、期刊论文)。除了论文外,中心目前共承担国家级、省部级项目18项,与企业合作承担项目19项。

图4:2017年8月,北京大学高能效计算与应用中心举行年度学术研讨会

对于这个中心成立的意义,北京大学计算机系李晓明教授说道,“虽然这个研究中心成立的时间不长,人数也不多,但学术产出是显著的。我以为是在中国环境下也可能办一个国际水平的小而精的学术体的样板。”

江南大学物联网工程学院柴志雷博士在与AI科技评论的交流中也表示,北大高能效中心快速拉近了国内在可重构计算领域与国外的水平,并对于吸引高水平人才的加入有直接的影响,是国内高校国际合作的一个成功范例。

总结

丛京生教授不仅在学界如FPGA等领域做出了里程碑式的贡献,并且他还将在学界的研究成果应用到业界,真正做到了产学结合,解决了大家所面临的实际问题。

北京大学计算机系李晓明教授表示,他将国际领先的研究成果转变为成功的创业实践,这是特别值得中国计算机学人学习的。

江南大学物联网工程学院柴志雷博士也这样说道,“丛老师的研究很好地体现了科研‘顶天立地’的追求。他主导的科研既有学术的领先性,又能真正解决产业存在的关键问题,这应该是所有研究人员尤其是应用研究人员的追求。”

而在今年10月26-28日举办的CNCC 2017上,大家将能在大会现场,一睹丛京生教授的风采。雷锋网 AI科技评论也将作为独家战略合作媒体,在现场为大家带来第一手报道。

大会特邀嘉宾和技术论坛详情:http://mp.weixin.qq.com/s/O5FX4JlqwyY_96d3xu77RQ

大会官网:http://cncc.ccf.org.cn/

雷锋网

CNCC 2017月底召开,14场特邀报告详情全公布(附大会三天议程)

雷锋网 AI科技评论消息,由中国计算机学会(CCF)主办,福州市人民政府、福州大学承办的2017中国计算机大会(CNCC2017)将于10月26-28日在福州·海峡国际会展中心重磅来袭,作为国内计算领域规模最大、规格最高的学术与技术盛宴,本次大会将邀请300余位国内外计算机领域知名专家、企业家到会演讲。

本次会议包括14个特邀报告、2场大会主题论坛、40余场前沿技术论坛,另外还有30余场特色活动以及3个颁奖会,同期举办的科技成果展聚集80家企业。

特邀报告向来是大家关注的重点,今年大会主办方邀请到14位在学界、业界顶尖的讲者为大家带来特邀报告,他们分别是丘成桐、梅宏、沈向洋、李飞飞、汤道生、马维英、Dinesh Manocha、陈熙霖、王涌天、章文嵩、丛京生 、李志飞、何源、刘偲。报告题目和演讲摘要如下(文末附大会具体议程):

特邀讲者:丘成桐

哈佛大学终身教授,美国国家科学院院士,中国科学院外籍院士,1982年度菲尔兹奖获得者

报告题目:现代几何学在计算机科学中的应用

演讲摘要:

现代几何为计算机科学的发展奠定了坚实的理论基础;计算机科学的发展为几何学提供了大量的研究素材,并且提供了高效精确的验证手段。这里,我们给出一些现代几何理论在计算机科学中的直接应用。

在计算机网络领域:我们将黎曼几何的概念和方法推广到离散情形,在图上面定义曲率,并用曲率来刻画分析社交网络和互联网。我们运用共形几何的方法来提高无线传感器网络的路由性能,实现负载平衡。

在计算机图形学领域:我们用计算共形几何的方法实现曲面全局保角参数化,运用蒙日-安培方程来实现保面积参数化,用曲面曲率流来实现矢量场的设计。

在计算机辅助几何设计领域:我们用曲面的仿射结构、射影结构来构造整体光滑的样条曲面。

在数字几何处理领域:我们用黎曼映照和最优传输映射来做几何压缩,运用几何逼近论来做曲面重构。

在计算机视觉领域:我们用拟共形几何、Teichmuller理论来实现曲面配准,动态跟踪。我们用蒙日-安培理论来计算Wasserstein距离进行表情分类。

现代几何的理论和方法日益渗透到计算机科学之中,并且通过计算机科学对人类社会做出更多的贡献。

特邀讲者:梅宏

CCF会士,北京理工大学教授,中国科学院院士

报告题目:软件定义一切:挑战和机遇

演讲摘要:

无处不在的信息技术应用正将我们带入一个新的时代。人们从不同的视角给这个时代贴上了不同的标签:云计算时代、大数据时代、智能化时代、互联网+时代、……。从软件从业者的视角,我们会观察到这个时代重要的使能技术 — 软件,就这个意义来说,我们正在进入一个软件定义的时代。本报告回顾了软件技术的发展,并从操作系统的视角来理解软件定义的本质和内涵:硬件资源虚拟化、管理功能可编程;展望了软件定义的未来:在人机物融合计算的场景下,万物皆可互联、一切均可编程,进而分析了软件定义带来的机遇和挑战。

 

特邀讲者:沈向洋

美国国家工程院院士,ACM/IEEE Fellow,微软全球执行副总裁

报告题目:理解自然语言:描述、对话和隐喻

演讲摘要:

我们正处在人工智能发展的一个新的黄金时代。人工智能最基本的两个要素是感知和认知。在过去几年里,我们亲历了感知技术特别是计算机视觉和语音识别的突飞猛进。然而,在诸如自然语言理解和对话领域的认知研究方面,我们的进展还非常有限。我相信在未来的十年中,自然语言处理会成为人工智能突破最重要的方向。懂语言者得天下。

我设想可以从三个层次来逐步让机器理解并掌握语言:从机器学习,到机器智能,再到机器意识。 第一个层次首先是建立客观的对观察到的或体验到的事物进行描述的能力。我会用微软认知服务里面的CaptionBot为例,来展现我们通过机器学习对一幅输入图像内容产生客观描述的技术。第二个层次是建立持续对话的能力。因为在对话的过程中,机器要能答问题,还要能提问题。机器要理解上下文状况,常识,及情感来做出合理的判断和响应—所谓对话即智能。我会总结一下微软研究院在智能问答生成方面的一些最新研究工作, 以及其在微软小冰聊天机器人平均长达23轮对话中的应用。第三个层次是建立在有意识地思考之上的理解和表达隐喻的能力。尽管我们离建立完全的机器意识还很远,作为一个初步的尝试,我会展示一下微软小冰看图作诗的技术。这项技术已经使得小冰成为了人类历史以来最多产的诗人。

最后,我简要介绍一下微软对话式人工智能产品线的最新进展和设计理念,包括必应搜索引擎,智能助理小娜,智能客服助理, 和聊天机器人小冰。

特邀讲者:李飞飞

Professor of Computer Science, Stanford University

Director of Stanford Artificial Intelligence Lab

Chief Scientist of AI/ML, Google Cloud

报告题目:A Quest for Visual Intelligence: Exploration Beyond Objects

演讲摘要:

It takes nature and evolution more than five hundred million years to develop a powerful visual system in humans. The journey for AI and computer vision is about half of a century. In this talk, I will briefly discuss the key ideas and the cutting edge advances in the quest for visual intelligences in computers, focusing on work done in our lab in recent years.


特邀讲者:汤道生

腾讯集团高级执行副总裁

报告题目:让AI服务于人

演讲摘要:

机器是否即将取代人类的论战方兴未艾,但如果将人类与机器作对比,那么今天的AI在有限的领域与局部环节或许可以胜过人类,仍然无法完像人一样来思考与行动。即使如此,机器视觉与语音语义理解的发展与机械的联动,也已经可以替代人类部分的工作。因此我们可以将AI视为一种生产力,其通过算法与经验(数据),提供某种可标准化、可复制的智能服务,替代那些重复性人工作业。无论是新兴产业还是传统行业,至今仍然有不少依靠有经验人士的日复一日的操作,現在都有机会通过物联网获取数据,通过AI来替代人工判断,从而让智慧变得可复制,同时提高服务可靠性并提升工作效率。

与此同时,云服务的发展也让AI服务变得更加普及,由于数据可以更及时的在云上被收集与处理,这便让AI服务可以更快更有效地适应不同应用与场景的需要。比如大量的手写单据不再需要人工处理、医疗图像识别可以辅助诊断、城市里的交通疏导、零售店里的人流分析等等都是AI能力应用到不同生活场景的例子,让AI服务于人。

特邀讲者:马维英

今日头条副总裁,IEEE Fellow

报告题目:人工智能和新一代信息与内容平台

演讲摘要:

连接人与信息是人类社会的重要基础设施。在移动为先,万物互联,以及融合了社交的新内容时代里,人工智能有着巨大的创新机会来重新定义人与信息的连接方式。从内容创作、 过滤、分发、消费以及互动的每个环节,我们都可以使用大规模机器学习、文本分析、自然语言理解、计算机视觉和数据挖掘等技术,来高效处理、分析、挖掘、理解和组织海量文字、图片和视频,并根据对用户的深度理解,进行智能分发。同时基于丰富多样的应用场景和海量用户,持续累积大量的训练样本和数据,让机器学习系统形成闭环,不断地改善和进化。我将分享人工智能在信息和内容平台发展前景的一些看法,包括人工智能的本质、近几年重要的技术发展,以及产业发展的未来。

特邀讲者:Dinesh Manocha

Department of Computer Science

University of North Carolina at Chapel Hill

ACM/IEEE/AAAS Fellow

报告题目:Motion Planning Technologies for Human-Robot Interaction

演讲摘要:

Robotics are increasing being use for manufacturing, assembly, warehouse automation, and service industries. However, current robots have limited capabilities in terms of handling new environments or working next to humans or with the humans. In this talk, we highlight some challenges in terms of developing motion and task planning capabilities that can enable robots to operate automatically in such environments. These include real-time planning algorithms that can also integrate with current sensor and perception techniques.  We present new techniques for realtime motion planning and how they can be integrated with vision-based algorithms for human action prediction as well as natural language processing.  The resulting approaches use a combination of ideas from AI planning, topology, optimization, computer vision, machine learning, natural language processing, and parallel computing. We also demonstrate many applications in terms of autonomous picking, avoiding human obstacles, and operating as cobots. Given that China has been the biggest purchaser of industrial robots, we also highlight the potential benefits of these technologies for Chinese robotics and manufacturing industries.

特邀讲者:陈熙霖

CCF会士,中科院计算所研究员,IEEE Fellow

报告题目:从物体识别到场景理解

演讲摘要:

计算机视觉领域近年来的进展极大地鼓舞了工业界和学术界。仅从避障和识别物体而言,计算机视觉技术和方法已经能够满足很多应用的需求。但这些往往都是面向单一任务的,不论是从扩展性还是适应性等方面与人类或者高等动物视觉系统相比,还有很大的差距。任务驱动和处理的碎片化是影响计算视觉系统发展的重要因素。另一方面,视觉研究中对感知和认知的割裂也为这一领域设置了一道人为的天花板。随着局部计算视觉问题的突破和计算能力的飞速发展,计算机视觉的研究也将从关注物体识别走向关注理解,从任务驱动走向要素驱动,从大数据解决小问题走向小知识撬动大问题。计算机视觉在物体识别等任务上的成功很大程度上刺激了人工智能的复兴,超越单纯的物体识别是可视智能的重要体现,这将依赖于对物体和场景的深层次识别和推理,同时背景知识也将起到重要的作用。与此同时,场景理解将和高层表示与推理相融合,将视觉的感知与语言的推理认知结合,持续推动人工智能的发展和进步。

特邀讲者:王涌天

CCF理事,北京理工大学教授,SPIE/IET Fellow

报告题目:“无屏”呈现– 人机融合的新纪元

演讲摘要:

人机自然融合是计算机领域工作者不懈追求的目标,而数字信息的高效呈现是其中的关键技术。近年来,随着手机等智能终端的移动触摸交互屏的技术成熟和广泛应用,人与信息之间已经形成了有界融合、主从相伴的关系。但随着以虚拟现实、增强现实为代表的新型人机界面技术的蓬勃发展,传统屏幕的概念被颠覆,新的“无屏”时代已经到来。伴随“无屏”而来的是“高沉浸感的显示”,是“虚实融合的显示”,是“无处不在的显示”,促进显示设备从“便携化”向“无扰化”、“透明化”发展。“无屏”呈现将会革新人机之间信息交互的机制与模式,使得人对信息的利用效率达到前所未有的高度;通过与人工智能的深度结合,这种新的人机融合方式将会彻底改变人们的工作和生活方式,以致推动人类的“进化”。然而,为了实现真正意义上的“无屏”呈现,我们还面临一系列的挑战,要把头戴式显示设备做得轻便、舒适和时尚,要进一步完善跟踪定位和交互技术,也需要解决如何保护他人隐私等社会伦理问题。本报告将从本人所在中心的研究工作出发对这些问题展开讨论,并探讨“无屏”呈现可能带来的应用场景的革命。

特邀讲者:丛京生

加州大学洛杉矶分校教授,美国工程院院士,IEEE/ACM Fellow

报告题目:Computing Near the End of Moore's Law

演讲摘要:

As we get close to the end of Moore’s Law, one cannot rely on simple frequency or core scaling to improve the performance.  We argued that future computing systems would be customizable with extensive use of accelerators.  Such an accelerator-rich architecture presents a fundamental departure from the classical von Neumann architecture. In this talk, I shall first present an overview of our research on customizable computing, from single-chip, to server node, and to data centers, with extensive use of composable accelerators and field-programmable gate-arrays (FPGAs).  I shall highlight our successes in several application domains, such as machine learning and computational genomics. Then, I present our ongoing work on enabling automation for customized computing. I shall highlight the algorithmic and implementation challenges and our solutions to many of these compilation and runtime optimization problems.

特邀讲者:章文嵩

CCF TF主席,滴滴出行高级副总裁

报告题目:滴滴共享出行与智慧交通

演讲摘要:

经过5年的高速发展,滴滴已成为全球最大的共享出行平台,创造了大量的灵活就业机会,是典型的共享经济代表。滴滴背后完全依靠技术不断提升共享出行的安全、体验和效率,同时借助滴滴大数据和技术可以让城市交通变得更智能、更高效、更安全。基于滴滴轨迹数据,可以建立城市交通客观的度量体系,通过交通信息平台、智慧信号灯、诱导屏、潮汐车道等优化交通基础设施,根据实时路况信息及时对异常拥堵进行疏导,使用滴滴代驾数据进行精准抓酒驾,降低交通事故率。将所有的交通工具线上化,实现更准确的导航和时间预估,为出行者提供一站式出行服务,根据用户喜好和实际交通状态推荐合适的多模换乘方案,让用户选择从而达到优化出行结构目的。

特邀讲者:李志飞

“出门问问”创始人、CEO

报告题目:语音交互技术将如何重塑下一代消费电子

演讲摘要:

近年来,以语音交互为引爆点的AI革命,正在推动人工智能从科研和实验室走进消费和现实生活。目前,值得讨论的问题是怎样将人工智能的技术真正落地于真实的场景之中。一路带领着出门问问构建算法、打造技术、落地产品的李志飞,摸索出从智能穿戴、智能车载,到最新的智能家居的一系列智能语音交互落地场景,走出了一条“软硬结合”的商业化道路。智能语音交互中最重要的能力是什么?如何选择最适合的落地场景和产品?怎样打破场景间的壁垒,让不同场景联动起来?在此次报告中,李志飞博士将分享他的经验与思考,解开人机交互背后的智能密码。

特邀讲者:何源

2017CCF青年“两秀讲者”,清华大学副教授

报告题目:从瓦萨沉船到数字孪生——物联网的机遇和挑战

演讲摘要:

在经历了十多年的探索、实践和反思后,物联网进入了新的发展阶段。物联网与传统行业深度融合,呈现出应用需求多样化、网络终端异构化、运维空间同一化的显著特征,推动该领域研究向纵深发展。我们结合工业和能源行业的物联网应用实践,围绕无线网络共存性问题展开研究,本报告将简介当前的进展,探讨未来的机遇和挑战。 

特邀讲者:刘偲

2017CCF青年“两秀讲者”,中科院信工所副研究员

报告题目:图像的像素级语义理解

演讲摘要:

近年来,基于深度学习的图像视频分析技术取得了巨大成功。相比于传统的物体分类识别技术,图像的像素级语义理解,又称语义分割,能提供更加丰富的像素级信息, 因而成为一个新的研究热点。本报告以语义分割的三个典型实例,即场景解析,人脸解析以及人像解析为切入点,重点介绍我们针对语义分割的以下两个挑战做出的工作。1:减少人工标注工作量:在很多实用场景中,图像尺寸大且标签种类繁多,纯人工逐像素标注非常昂贵且低效。我们提出一系列在不降低算法精度的前提下,极大减少人工标注成量的无监督、半监督、弱监督语义分割算法。2:提升分割精度: 通过综合考虑上下文信息,如语义标签之间的共生性和互斥性,不同信息源的互补性,极大地改进了分割精度。最后,我们也将展示语义分割在智能相机、视频监控、智能家居、电商平台搜索等多个领域的应用效果。

大会的具体议程如下:

还未进行注册缴费的观众需注意,10月15日线上注册缴费截止,如果未赶上注册时间,可以到现场注册缴费。注册参会指南链接:http://cncc.ccf.org.cn/cn/news/index/13

更多详细信息请参见 CNCC 2017官网http://cncc.ccf.org.cn/

作为独家战略合作媒体,届时雷锋网 AI科技评论会前往现场为大家带来第一手消息,敬请关注。雷锋网。

雷锋网

屹立微软华人最高峰,微软全球执行副总裁沈向洋 | CNCC 2017

雷锋网 AI科技评论按:由中国计算机学会(CCF)主办,福州市人民政府、福州大学承办的2017中国计算机大会(CNCC2017)将于10月26-28日在福州举行。

延续2016年大会的顶级嘉宾阵容,CNCC 2017 将会迎来更多国内外知名专家学者。在未来一段时间,雷锋网 AI科技评论将陆续放出嘉宾介绍。继上一期介绍完数学王国的凯撒大帝:哈佛大学终身教授丘成桐之后,今天将为大家介绍另一位重量级嘉宾——美国国家工程院院士、ACM/IEEE Fellow、微软全球执行副总裁沈向洋博士

图1:微软全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋博士

提到沈向洋博士,相信大家并不陌生。

  • 计算机视觉和图形学研究的世界级专家,拥有50余项专利,发表100多篇论文

  • 创立微软在美国本土以外规模最大的研究机构——微软亚洲研究院

  • 目前为微软全球执行副总裁,为微软公司级别最高的华人

  • 微软人工智能事业部领军人,学界、商界和产业界的AI跨界创新领导者

  • ……

1980年,13岁的沈向洋考进了当时的南京工学院(现东南大学),此后考入香港大学电机电子工程系。研究生毕业后,他进入卡内基梅隆大学计算机科学学院,成为图灵奖获得者、著名计算机专家罗杰•瑞迪(Raj Reddy)教授的学生,主要专注于计算机视觉方面的研究工作。

1993年,博士生期间,他做出了第一个三维场景中的全真模型——利用几百张照片,通过计算机处理之后做出了卡内基梅隆大学计算机学院主楼的一部分。当他公布第一个三维全真模型时,几乎还没有人在这一领域进行类似的工作。

沈向洋的博士论文的主题是将照片转换成虚拟现实,这是世界上最早基于这一领域的研究,他在论文中所设计的四分树样条数函数算法,则是世界上最好的运动参数估计算法之一。

在获得卡内基梅隆大学计算机学院机器人专业博士学位之后,他曾短暂加盟一家创业公司,但很快便作为研究员加入微软美国研究院视觉技术组。那时是1996年,此后便是21年的微软路。

21年微软路

1998年,沈向洋与李开复等人共同创立坐落于北京的微软中国研究院(后更名为微软亚洲研究院),此后先后担任微软亚洲研究院形象计算组主任研究员,高级研究员,微软亚洲研究院副院长,主要负责计算机视觉、图形学、人机交互、统计学习、模式识别和机器人等方向的研究工作。

最初就职于微软亚研院期间,技术团队将空间任意拍摄的二维图象进行全真的三维复原时,使用的方法是全光函数,但这需要四维采样,对图象数据的需求特别巨大,数据采集十分困难。沈向洋在不断思考与探索之后,在这方面取得了突破性进展:他发明了一种称为同心拼图的方法,将四维全光函数简化为三维函数,从而大幅度地降低了需采集的数据量。利用这一方法,只需用一个摄像机作一个平面旋转,就可以采集到所需的数据,达到在真实场景中的连续漫游。

之后,在他的引领和指导下,微软亚洲研究院图形学相关课题组在SIGGRAPH上发表了多篇高质量论文。不仅如此,他还应SIGGRAPH组织者的邀请,于2002年担任了大会的论文委员会(Technical paper commitee)委员。

2004年,微软亚洲研究院被MIT科技评论称为“世界上最火的计算机实验室”。同年,沈向洋接替张亚勤升任第三任微软亚洲研究院院长兼首席科学家。在他的带领下,微软亚洲研究院在计算机视觉、图形学、人机交互和统计学习等方向的研究工作取得了令人瞩目的成绩。

图2:沈向洋博士担任微软亚洲研究院院长期间公开致辞

2007年,他升任微软全球资深副总裁,在微软应用与服务部门负责微软必应搜索引擎的全球产品研发工作,同年,他担任2007年计算机视觉国际会议议程主席。在领导必应团队期间,当时谷歌已经全面压制住搜索市场了,他顶住压力,带领团队持续奋战7年之久。在必应的第四个年头,他获得第十届“全美亚裔年度杰出工程师奖”。

2013年11月,微软公司正式宣布任命沈向洋博士升任微软全球执行副总裁,接替退休的微软前首席研究和战略官克雷格·蒙迪(Craig Mundie),主导技术和研发部门,并负责推动公司中长期总体技术战略、策略以及前瞻性研究与开发工作。在就任该职位的第二年,他便获得微软公司年度“技术领袖奖”。 

2016年,微软成立全新的AI研究部门——微软人工智能及微软研究事业部,而沈向洋博士则受命负责整个团队,带领微软在这一波人工智能的浪潮中不落下风。近期,沈向洋博士也多次在公开演讲中谈及现在大火的AI。

沈向洋博士看AI

在最近的公开演讲中,沈向洋博士表示,“当人工智能真的开始进入我们的生活和人类社会,它必将为我们带来非凡的机遇和严峻的挑战。”他也在多次专访和公开演讲中向大众传达了对AI的看法:

  • 人工智能拥有无穷潜力,将成为未来科技公司的大杀器

在今年5月接收媒体采访时,谈到人工智能,沈向洋表示,“云计算与日俱增的强大威力、运行于深度神经网络的强力算法,再加上今天能够获取到的海量数据,在这三股强大动力的交织驱动下,今天,我们终于有能力实现人工智能的梦想。人工智能拥有无穷的潜力,它有能力颠覆任何现有的垂直行业。”

而在今年9月华盛顿大学主办的创新峰会上,他还提到,微软、谷歌、脸书等几乎所有的科技巨头公司都在全力投入研发人工智能技术,世界正在往智能方向走,这毋庸置疑。未来所有领域都会被人工智能技术改变,比如商业领域,改变的不仅是产品本身,销售模式、服务和流程都会被改变。

  • 目前尚处于人工智能初级阶段

尽管目前人类在人工智能方面已经取得了一些进展,但沈向洋博士明确提出现在尚处在人工智能工具与技术发展的初级阶段。

虽然人工智能技术已经可以很好地完成一些具体的任务,例如正确地识别一副图像或者是分辨出对话中的词语。但是,如果将其与人类儿童靠触觉、视觉和嗅觉来了解世界并与之互动的方式进行比较,今天的技术仍相去甚远。目前,由于技术瓶颈依然存在,人工智能依然停留在积累和攻关时期。

  •  人工智能主要依赖数据

在今年对话微软实习生时,他表示,“时至今日,人工智能仍主要依赖数据,如果没有数据,人工智能技术将难为‘无米之炊’,而越来越庞大的数据,其实就凝结在产品之中。近年来,计算机领域不断迎来新的突破,比如新算法的产生、深度学习等等,使人工智能具有更大的潜能,从而得以解决之前无法想象的难题,并在垂直与水平两个维度上颠覆着整个产业。”

  • 不必担心人工智能威胁论

而对于最近甚嚣尘上的人工智能威胁论,沈向洋博士则持正面观点:

人工智能是用来帮助人类的,而不是替代我们,这是基本原则。未来,相应的技术界限和社会公约都会随之完善,人类对此不必担心。

总结

离开卡耐基梅隆大学之后,沈向阳博士从微软研究员做起,历经微软亚研院院长、微软全球资深副总裁、微软全球执行副总裁,再到引领微软全球AI布局与发展,他的每一步都是传奇。不仅只是成为传奇,他也想让传奇延续下去——目前,沈向洋担任多所国内外著名高校(清华大学、中科大、西安交大等)和中科院客座教授及博士导师。作为清华大学高等研究院双聘教授,他所带领的在读博士生完成了一系列高水平的研究工作,并在ACM TOG, SIGGRAPH, TVCG, CVPR, ICCV, ECCV, PAMI, IJCV等计算机图形学和计算机视觉的国际知名会议和期刊上共发表了多篇论文,涵盖了计算机图形学、计算机视觉和信息可视化的各个研究前沿。

图3:沈向洋博士于近日对话微软实习生

MIT科技评论曾这样评价他,“如果你在感情上难以支持微软,那是你还未曾遇见沈向洋。”

是否想更进一步,当场听沈向洋博士讲述他的学术理念和对AI的布局?2017年10月26-28日,2017中国计算机大会(CNCC2017),沈向洋博士将作为特邀讲者出场。在未来的一段时间,雷锋网将陆续放出嘉宾介绍,敬请期待。

雷锋网

北理工王涌天教授:手机AR只是过渡,头戴AR设备才是未来 | CNCC 2017

雷锋网AI科技评论:目前AR已经成为全球科技公司关注的焦点——苹果的AR kit、谷歌的AR Core,两大巨头都希望能够引领手机 AR 增强现实体验的变革。而王涌天教授告诉记者:手机AR只是过渡,头戴AR设备才是未来。

王涌天教授

北京理工大学光电学院和计算机学院博导、混合现实与新型显示北京市工程技术研究中心主任,科技部信息技术领域专家组成员,国家信标委虚拟现实与增强现实标准工作组组长,主要研究方向包括光学系统设计和CAD、3D显示、虚拟现实和增强现实、医学图像处理等方面。他带领团队在混合现实领域取得的研究成果,已经广泛应用于教育、培训、文化、娱乐、医疗、军事等领域。

作为CNCC 2017 的特邀讲者之一的王涌天教授这次已是第三次参加CNCC大会,他主要研究的增强现实(AR)技术目前在国际上异常火热。

AR火爆的原因有很多,有近几年自身软硬件的迅猛发展,有人工智能等相关技术的快速升级,也有国际科技巨头的潮流引领(苹果新发布的ios 11,就增加了对增强现实的支持),毕竟许多业内人士都在等待像苹果这样的巨头的加入,以证明该市场拥有光明的前途。

记者通过电话联系王涌天教授采访时,可以明显感受到他对自己研究领域的热爱和自信。“增强现实和人工智能结合起来,肯定可以改变人的生活和工作方式,”他说,“而现在限制AR发展的最重要的因素还是硬件问题,主要还是如何把整个系统做得小、做得轻,做得适人化、做得使人愿意戴才可以,戴着走在街上,不会让人觉得好奇怪,这样就可以了。”

他认为今后研制出来的AR眼镜将会加入视力矫正功能,平时可以和近视镜一样长时间佩戴,在需要AR功能的时候,只需要打开电源开关即可。

关于AR眼镜会用到哪些应用场景,他向记者举了一个生动的例子,比如对于脸盲的人,或由于工作原因联系人太多,见面时看着面熟就是叫不出名字,有时很尴尬,有了AR眼镜,马上就可以识别并显示这个人的名字、单位和其它相关信息,大家就都能拥有像周总理一样的超人记忆力了。

AR是否会取代VR?AR发展是否也会走VR走过的路?AR在应用层面还会遇到什么问题?您怎么看到大公司的一些AR头戴产品?对于这些记者提出的问题,王涌天教授都给了耐心解答,最后王涌天教授还向记者透露会在今年的CNCC 大会上用一个有趣的视频展示AR的未来应用,以及他们团队今后努力的方向。对AR有兴趣的朋友,一定不要错过今年10月26-28日在福建福州举办的CNCC 2017。

以下是这次采访的精选内容:

雷锋网:目前您在AR技术方面有什么难点吗?遇到过什么瓶颈吗?

王涌天教授:在AR眼镜方面我们处于领先地位,在光学设计等方面的技术优势显著。至于遇到的技术瓶颈,主要是我们在设计大视场角AR眼镜的时候,希望用到一些非标的微型显示器件。如果需要我们自己定制这些器件,开模的价格就十分昂贵,开一次模需要花费几百万甚至上千万元。我们现在正在跟器件厂商谈合作,争取他们投入一部分,为我们的设计专门开发一些非标显示器件。

雷锋网:微软、HTC 等大公司都在做AR/VR,您觉得哪些公司做的比较好?

HTC主要做浸没式的虚拟现实头盔,这种头盔的光学系统部分难度不大,HTC的特色是把交互技术和配套设备做得很好。微软主要做增强现实,HoloLens头盔的技术十分先进,虽然其光学系统的视场角比较小,但是它在实时感知、真实场景自动三维建模方面处于国际领先。

雷锋网:未来VR会不会越来越不被重视,就直接进入下一个AR阶段?

王涌天教授:也不能这样说。VR的主要问题是头盔遮挡了用户的视线,所以主要用于娱乐、培训、教育等方面。AR眼镜是透视式的,不影响用户观察现实世界,它的应用领域就更多些。有位美国专家在计算机领域的一个会议的大会报告上讲到,“虚拟现实是给孩子玩的,增强现实是计算技术的未来”。增强现实的虚实融合效果可以在人们的生活、工作中提供诸多帮助。我们提出的口号是,增强现实特别是移动增强现实,可以使人类第二次站立起来。因为人类的进化过程是,从猴子爬行逐渐站立起来,后来有了计算机之后又坐在计算机的工作台边。自从出现了手机等各种移动平台后,人们逐渐可以脱离计算机台,可以走动、可以移动办公,然而是以一种非常不健康的方式:手机的屏幕很小,对眼睛不好;手机需要低头看,对颈椎不好;如果在户外拿着手机做增强现实的相关应用,会十分不安全;而且手持着手机,人们不能方便地与真实世界交互。如果AR眼镜可以做得轻薄时尚,如果户外AR的跟踪定位技术得到进一步完善,如果AR应用内容能够逐渐丰富,不难想象移动增强现实将给人们带来的诸多便利,最终将使人类第二次昂首挺胸地站立起来。

雷锋网:您觉得AR的发展要重点解决哪些问题?

王涌天教授:还有不少问题需要解决,举几个例子。一是AR应用的内容发展:眼镜做得再好,没有丰富的实际应用支撑,市场仍然无法打开;另一个是交互手段的完善:智能手机的主要交互方式是触摸屏,但VR头盔和AR眼镜都是没有可触摸的实体屏幕的,手势交互、语音交互会成为主流。我们正在制定手势交互的国家标准,希望今后用户戴上无论哪个厂商开发的VR或AR的显示设备,都可以用一个统一的手势集与之交互,这样可以大大降低用户的学习成本和使用成本。这是非常重要的。

另外一个问题就是如何保护人的隐私。前几年谷歌推出Google Glass的时候,美国的一些酒吧出于保护客户隐私权的考虑,就不让戴Google Glass的人进去。因为AR眼镜上通常会有一个摄像机,大部分AR应用都是基于摄像机获取的图像或视频开发的,而这个摄像机就有可能侵犯他人的隐私。我戴一个眼镜跟你说话,有可能同时也在对你进行拍摄,你能否接受?所以这又属于社会伦理和法制问题。解决的方法包括完善法律规定,比如要求AR设备开启时有明显的灯光和/或声音提示,别人不同意时可以要求你停止使用;此外人类社会也会不断适应信息技术的发展,现在每个人的手机上都有摄像机,城市里到处都是监控摄像头,人们也已经习以为常了。

雷锋网:现在离您理想中的AR眼镜还有多远的路要走?

王涌天教授:还有很多需要改进完善的地方。现在无论是我们开发的AR眼镜,还是微软的HoloLens,镜片还都偏厚,系统体积偏大,不够轻巧;对于近视或远视的用户人群,还需要人家同时戴两副眼镜。我们需要逐渐把AR眼镜做得像一副近视镜一样,而且还要能够针对每个用户的视度不同加入对应的视力矫正功能,最好一副眼镜就能同时实现矫正视力和叠加计算机生成的信息。当然还要解决电池的续航问题、系统的发热问题等等。AR眼镜的适人化要靠长期艰苦的人机工程学探索才能实现。

雷锋网:作为这次CNCC 2017大会的特邀讲者,您分享的主题是什么?

王涌天教授:报告题目已经提交组委会,初步定为“无屏”呈现——人机融合的新纪元。我会重点介绍我们在增强现实技术及其应用方面的研究进展,并探讨AR和AI有机结合后,对人类生活和工作方式所能产生的巨大影响。

以上为雷锋网对CNCC 2017特邀讲者王涌天教授的专访。

你想不想更进一步,当场聆听王涌天教授讲述他的科研成果和AR的未来?2017年10月26-28日,2017中国计算机大会(CNCC 2017),王涌天教授将作为特邀讲者出场,并带来该实验室研制的最新一代AR眼镜。在接下来的一个月时间,雷锋网将陆续放出其他嘉宾介绍,敬请期待CNCC 2017 。

首轮优惠门票已于9月26日截止,不想错过下一轮优惠,快快到CNCC 2017官网报名吧!

 2017中国计算机大会(CNCC2017)官网:http://cncc.ccf.org.cn/


雷锋网

盘点中国计算机大会,有哪些论坛你不该错过 | CNCC 2017

雷锋网 AI科技评论按,近期中国计算机学会(CCF)和福州市人民政府共同举办了2017 中国计算机大会(CNCC 2017)新闻发布会。随后,雷锋网采访了CNCC 大会论坛和活动委员会主席,视觉信息处理领域专家,我国类脑计算研究方向的主要推动者之一黄铁军教授。黄教授现任北京大学计算机科学技术系主任,长江学者特聘教授,国家杰出青年科学基金,主要研究领域为视觉信息处理和神经形态计算。在今年的CNCC大会中担任论坛和活动委员会主席。在这次采访中,黄铁军教授给我们详细介绍了CNCC 2017论坛准备情况。

以下是雷锋网 AI科技评论根据对黄铁军教授采访编辑整理而成。


AI科技评论:黄老师,作为CNCC2017论坛和活动委员会主席,据您所了解本届CNCC大会将有哪些论坛? 和去年相比会有什么不同?

黄铁军:论坛和活动每次都是CNCC大会很重要的内容,除了特邀演讲外,这一块是会议的主要内容。从规模上讲,本次论坛数量跟往届差不多,目前已定30个左右,可能还会有少许增加。论坛涉及人工智能、量子计算、类脑计算、区块链、智能存储、智能医疗和健康、深度学习、云计算、大数据、多媒体计算等前沿技术话题。

今年的特色是,30多个论坛主要分成三大类,每类都包括十来个论坛:

第一大类是跟计算机基础性技术和产业相关的。提高计算能力、提高存储能力、提高传输能力,这是计算机技术发展的主旋律。除了大家关注基础技术,例如自主可控、新一代存储、智能存储等话题外,今年还有量子计算,这既是大家关心的共性技术,也有最新前沿。

第二大类主要是今年的热点——人工智能。今年国家发布了新一代人工智能发展规划,这一次在CNCC上会有比较充分的展示。此外还有类脑计算、思维计算等论坛,对思维、对意识的计算极限是什么?至少大家应该探讨这种可能性。

第三大类是计算机和产业应用相关的一些热点方向,比较突出的是教育和医疗。目前国家从教育部、基金委以至国务院,都很重视计算机教育问题,这次会议有三个论坛探讨这方面的问题。医疗健康方面,包括人工智能、大数据在医疗方面的应用越来越多,从企业到研究机构,社会公众对这个问题都非常关注,这次会议也会有好几个论坛涉及健康、医疗等领域。

除了这些外,这次大会还有一个亮丽的论坛,就是由女性计算机科学家组织的专门论坛,从女性视角来谈技术发展。

AI科技评论:CNCC在论坛和活动中,有哪些设计让业界参与进来?

黄铁军:CNCC大会一直对产业很重视,CNCC大会不同于专门领域的学术会议,它跟业界互动性很强。例如在这些论坛里面,有一些论坛题目一看就是偏产业、偏应用的;有一些题目看着像技术,但里面的讲者可能都是来自工业界,比如智能医疗,医疗本身不是计算机技术,它自身是一个行业,但我们有多个医疗健康相关论坛。另外还有教育、物流等也是如此。此外,这次大会国内大企业像滴滴、百度、阿里、腾讯等公司,还有微软、英特尔等著名IT企业都会参加。

AI科技评论:您对参加CNCC参与者、参会者有什么建议?

黄铁军:还是从论坛角度来说。一年一度的CNCC大会将会展示国内、国外计算机领域的最新技术和产业进展。如果你想把握计算机领域的最新进展,这绝对是一个不可错过的机会。青年是未来,我们欢迎更多的学生、青年教师、青年技术工作者等来参加这个会议,如果确实有经济上的困难,可以向大会申请,大会将提供一定的资助名额。今年从预算角度来讲还是不错的,总共有150个名额,欢迎大家积极申请。

以下为CNCC大会拟开设论坛清单:

雷锋网注——

CNCC 2017官网地址:http://cncc.ccf.org.cn

雷锋网

清华胡事民教授:来CNCC,了解计算机一切领域前沿 | CNCC 2017专访

雷锋网 AI科技评论按,前不久第十四届中国计算机大会(CNCC 2017)筹备会在京举行。近日雷锋网采访了CNCC 大会程序委员会主席,在计算机图形学领域的知名学者胡事民教授。

胡事民教授现为清华大学可视媒体研究中心主任,2006-2015年担任国家“973”计划项目首席科学家,目前是国家自然科学基金委创新群体项目负责人,是国际公认的计算机图形学专家,其典型成果Sketch2photo尤负盛名。在今年的CNCC2017大会中,胡事民教授将担任程序委员会主席。在这次采访中,胡事民教授给我们讲解了计算机图形学的研究发展、从学者角度对人工智能的认识,并详细介绍了CNCC 2017的看点。

以下是雷锋网 AI科技评论根据对胡事民教授采访编辑整理而成。

一、清华计算机图形学

AI科技评论:胡教授,您在计算机图形学方面有近20年的积累,可否介绍一下您最近几年主要在进行的研究?

胡事民:我是96年到清华工作的,到现在也20年了,从一开始做CAD、做几何建模,到后来做绘制、做渲染的研究,再后来又从事图像视频处理、流体模拟与动画等方面的研究。总结起来,最近这几年我的主要研究集中在三个方面:

第一、对三维场景的建模和理解的研究。这在将来智能机器人发展起来后会很有用处,智能机器人的未来是与人的交互,能理解人的意图,而目前可能的下一个重要突破首先应该是机器人的场景理解,机器人需要根据获取的二三维视觉信息重建三维场景并理解场景中的内容。

第二、我们与腾讯合作,有一个联合实验室。我们基于腾讯的大数据,特别是街景大数据,来做基于真实数据的重建、识别和理解。比如说现在智能驾驶非常热,但智能驾驶非常关键的一点是,它要理解道路上的交通标志牌,否则就无法做到智能驾驶,基于腾讯街景数据的交通标志识别已经取得重要的进展。

第三、流体模拟。我们希望把计算机动画和计算流体力学结合起来,希望再现重视世界中的复杂现象,模拟出非常逼真、符合物理规律的流体现象。这些研究在很多影视制作、工程模拟和军事中都有非常重要的应用。

AI科技评论:您从业已经近30年,计算机图形学这个领域发生了什么样的变化?

胡事民:这些变化概括起来主要有三点。

首先,应用促动是这个领域的一个特点。图形学是70年代开始,80年代是高速发展的时期,当时主要是由美国的一些大学(比如康奈尔大学、犹他大学)的学者在研究。后来应用方面就跟进了,特别是好莱坞电影、迪士尼动画等应用的推动。图形学非常幸运的就是,整个发展过程当中都有与产业的紧密结合。这些产业越来越成熟,然后一些公司本身研究力量就越来越强。

第二点就是,图形学领域的外延在扩大。目前的工业界的研究院的研究做得非常好,大学的研究怎么才能再超前一些呢?我们不能只集中在原来的一个小点上,需要根据社会的需求,跟别的学科不断交叉、融合。比如图形学跟人工智能结合,跟视觉、跟操作系统、跟硬件、跟医学、跟环境保护等方向和领域等的结合,这样才更有意思,我们有很多老师也在这些方面有很多合作,比如实验室一个老师跟中科院遗传所合作进行生物组织器官的3D打印的研究,就非常有创意。

第三点,从技术内涵来讲,这几年大数据、人工智能起来后,对图形学有很多理念上的影响。比如给定一个三维场景,要渲染它,就要采用一个物体模型,或近似的数学模型,计算光照效果,这是最早的做法,后来的光场采集已经是数据驱动的方法,而现在从数据驱动到深度学习,已经使图形的处理算法发生了很大的变化。

AI科技评论:那现在咱们的研究成果,有哪些与产业应用结合比较紧密的?

胡事民:我们实验室非常幸运,从2010年开始就跟腾讯组建了联合实验室。腾讯是国内最早做街景的公司,我们最主要的成果就是腾讯街景。现在腾讯街景已经有400多万公里的街景数据,这些图像的分类与分割、编辑与对比度调节、逆光处理、全景破解、内容安全(敏感信息的隐藏,车牌、人脸的马赛克等)的处理,肯定不能用人工来处理,这些都需要通过图像的智能处理算法来自动完成。2010年到现在我们一直和腾讯合作在做这件事情,现在已经是腾讯很重要的的产品,大家可以很方便地用微信、QQ查看街景,给生活带来方便。

另外,最近我们也在跟腾讯开展智能机器人的合作研究,做微信机器人。现在智能机器人行业里的焦点是对话机器人,比如微软的小冰,百度的度秘。现在对话大家都做的很好,我们希望微信机器人还能够理解场景、跟人互动。例如当我跟它说把桌子底下的球捡起来。首先它要能够理解这些概念,什么是球,什么是桌子,其次它还能够理解整个场景,怎么绕着走避免碰撞,怎么规划路径等。此外我们还希望能够把社交的功能赋予给机器人。目前联合实验室自主设计的机器人已经在加工组装和调试了。

总之,我们跟腾讯合作还是非常成功的,腾讯提出自己企业发展中的技术问题,清华的老师来参与一起解决,联合实验室是一个非常好的产学研平台。

AI科技评论:说到清华,我看网上有很多想要报考清华计算机系的学生。您对于想要报考或从事计算机图形学研究的学生,有什么样的建议?另外,您这边招人有什么标准呢?

胡事民:图形学对数学、编程、实践能力要求是很高的,也需要有很好的数学基础。如果做动画研究,力学、物理都很重要。此外希望学生们可以勤奋一点,有更多合作精神,最重要的是能够有自己的想法、有对人生的规划,这个特别重要。我们最着急就是很多研究生还不知道自己将来要干什么,到底是出国还是就业,是做老师还是去工业界?自己没有想好,这对学生的成长是不利的。

从招生来说,很遗憾现在清华计算机系招生名额很少,我一年只能招一个博士生,最多两个。我们主要还是通过推荐免试来招学生,全系考试的名额很少,好在国内很多单位的图形学研究水平度具有国际水准,比如浙大、北大、山大、北航等,希望更多优秀的青年学生投身计算机图形学这一研究领域。

二、学者看AI

AI科技评论:您如何评价眼下人工智能,尤其是与图形图像相关的人工智能产业非常火热的情况?

胡事民:现在人工智能非常热,尤其是AlphaGo击败李世石后,整个社会都非常关注。但人工智能的发展也曾是几起几落的,作为学者我们要客观地看待人工智能 。

客观地说,人工智能确实带来一些新东西。例如深度学习对很多学科带来了一些新理念,甚至做软件工程领域,也希望能够通过深度学习来自动找出bug。再比如昨天的地震,我们马上通过卫星拍摄遥感影像,然后要对影像进行快速标注、并分析情况有多严重,这就需要通过深度学习来训练模型进行快速理解。所以人工智能确实带来一些新思路,对我们科学研究、社会经济发展、国防安全都带来很大的变化。

另一方面,人工智能也不是万能的,它也不是什么事情都可以做的,我们需要理性看待。现在投资界对人工智能投资非常热。我想这是一个市场行为,过一段时间如果发现投资后达不到要求,自然就会冷下来,我想这也没关系。从学术界的角度,我想我们更应该从学科发展的角度来看待它,不能说人工智能一热,所有人都搞人工智能。其他很多学科都一样重要,比如说体系结构、软件工程、系统软件、互联网等。

三、CNCC 2017 干货

AI科技评论:作为 CNCC 2017 程序委员会主席,您预计今年的CNCC有哪些值得计算机同行期待的?

胡事民:CNCC是中国计算机学会每年一次的年度大会,云集了几乎所有计算机界学术领域的重要专家,每年都要回顾、总结计算机学科发展的最新进展、动态、趋势。而且规模越来越大,从开始两千人、三千人到今年可能六千人,这些参会者主要以研究人员、教师、产业界人士为主。

CNCC 2017一共开三天。头两天上午是特邀报告,请国际、国内顶级计算机专家畅谈计算机学科发展、学科产业、学科教育产业的现状、趋势、热点和思考。第三天上午是特别论坛。特别论坛以前是一个主题,今年两个主题,一个是“什么是互联网应用下一个引爆点”,另一个是“十年后的智能机器人”。三个下午我们主要是安排论坛,每天下午10个,共30个论坛。这些论坛覆盖了计算机学科的所有重要方向。而且这些论坛都是自发的,我们发布公告后,学者、企业自己申请,程序委员从中选择出最有吸引力的30个。另外我们还邀请了国内外一系列比较有影响力的嘉宾做特邀讲者。

所以,只要你是搞计算机的,你到CNCC来,你就可以知道整个学界、行业界有什么热点、有什么值得你关注的;在你自己从事的行业,你也可以见到最顶级的专家、听到他们的观点。所以这是每年一次,大家不得不去的一个重大盛会。

AI科技评论:今年CNCC大会邀请了哪些嘉宾?

胡事民:今年的特邀讲者目前已确定的有5位著名的海外讲者,包括菲尔兹奖获得者、美国科学院院士、哈佛大学丘成桐教授,美国工程院院士、主导微软下一代新技术研发的微软执行副总裁的沈向洋博士,美国工程院院士、美国加州大学洛杉矶分校丛京生教授, 著名人工智能专家、斯坦福大学的李飞飞副教授,智能机器人知名专家、北卡州立大学Dinesh Manocha教授。此外,我们还邀请了多位国内知名学者,包括CCF奖励委员会主席和会士、中国科学院院士、北理工副校长梅宏院士,CCF会士、中科院计算所副所长陈熙霖研究员,CCF理事、北京理工大学信息学部主任王涌天教授等。

特别值得一提的是丘成桐先生,丘成桐教授不仅是伟大的数学家,还致力于将现代数学应用于工程和医疗领域,和他的学生创立了跨领域学科-计算共形几何,并应用计算机图形学、计算机视觉、几何建模、无线传感器网络、计算力学、可视化和医学图像等领域,最近,丘成桐教授在《Nature》上合作发表论文,首次提出运用计算随机游走合并次数的演算法来预测不同群体结构合作的可能性,引起较大的反响。丘先生作为微分几何的大师,还能把应用做得那么好,并在《Nature》上发表了社交网络的论文。我想这非常值得我们计算机界同行学习的,他的很多观点和思考对计算机界的同行会非常有启发。此外,ACM和IEEE CS还将延续多年的合作,分别推荐了Dinesh Manocha和李飞飞来CNCC作报告。

AI 科技评论:刚才您说今年CNCC大会有两个主题论坛,为什么会选择这两个主题呢?

胡事民:   CNCC大会第三天的两个论坛,第一个论坛题目是:什么是互联网下一个引爆点。为什么选择这个题目?我们想一想,过去二十年互联网发展中什么是起关键作用或者说是“引爆点”呢?早期的门户网站还不能算。第一应该是搜索,比如google、百度,它提供一个上网的入口,它可以通过流量、广告等来盈利,推动了互联网的第一个高潮;第二是社交网络,比如Facebook、Twitter、QQ和微信等,社交和互联网的结合,移动互联网成为主流,人们可以用微信叫车、付信用卡、交电话费等,它也会带来流量收入和广告收益,这是又一次互联网发展的高潮,而且中国借这次机遇,成为互联网的强国;第三是互联网金融,例如支付宝、微信支付,互联网金融的发展,将会带来更多的变革,由于涉及金融体系、国家政策等诸多因素,有一些情况还不明朗,但中国无疑是这次变革的领跑者。从上面这三个“引爆点”来看,中国互联网公司在搜索上是跟踪美国,但在社交网络和互联网金融上则逐渐超越美国,所以现在中国互联网公司已经和美国平起平坐。但在下一个引爆点出现时,中国能不能继续引领互联网的发展这是我们最关心的事情。所以我们这个论坛以互联网企业的人士为主来谈什么是互联网应用的下一个引爆点。

第二个论坛题目是:十年后智能机器人是什么?为什么会选这个呢?举个例子,我96年来到清华,当时很少有人有手机,1996年,最流行的手机是诺基亚5110,其功能和外观设计和今天的iPhone、华为没法比,那时售价是5000元,而一个大学老师的工资不到1000元。但是十年后,到2006年手机已经相当普遍了,现在已经人人有手机、甚至多个手机。同样,现在家庭机器人还很少见,但10年后会怎样?可能会“家家都有机器人”,“人人都有机器人”。中国是制造业大国,必将成为面向工业的智能机器人的主要用户;同时,中国很快进入老龄化社会,也会是服务机器人的主要消费国。这个话题我们会找一些企业界的主要认识和学术界的著名专家共同来探讨。

雷锋网后记:通过与胡教授的聊天,能够感受到他作为一个学者的淡定,无论业界热点如何变化,他会用学者的眼光来进行判断,做到“任尔东南西北风,我自岿然不动”。我想这是需要业界人士学习和借鉴的。

雷锋网

CNCC 2016 | 中科院蒋田仔教授:脑网络组对类脑计算的启示

所谓“类脑计算”,是指仿真、模拟和借鉴大脑神经系统结构和信息处理过程的装置、模型和方法,其目标是制造类脑计算机。上周,蒋田仔教授,中国科学院自动化研究所,脑网络组研究中心。在CNCC 2016的脑科学与类脑计算分论坛里分享了脑网络组对类脑计算的启示的主题报告。雷锋网根据现场分享整理了其中亮点:

脑网络组对类脑计算的启示,我们先了解一个大前提。

脑网络组图谱是类脑计算基础。

注:脑网络组是以脑网络为基本单元的组学,它由脑网络节点和节点之间的连接两个基本要素组成;这两个要素可以从微观(神经元),介观(功能柱)和宏观(脑区)尺度上来定义。

不过现在基于脑网络组图谱的认知计算模型有个问题:现在对于脑功能模块的划分过于粗糙。

对于脑功能模块的划分,看下面这张图,可以知道脑网络组图谱在类脑计算的应用。

  • 布洛卡区与维尼克区     -自然语言处理

  • 颞叶视觉皮层                 -复杂图形识别

  • 顶叶皮层                 -空间位置信息处理

  • 额叶皮层                        - 在线决策系统

  • 海马及内嗅皮层  -时域信息整合与导航

脑网络组对类脑计算的启示:核心——脑网络信息处理机制是类脑计算的依据。

启示一)脑网络神经元相互作用的基本规律。

下面的相互作用机制,下面从上到下,从左到右。依次是

  • 脑网络神经元的相互作用机制。

  • 神经元二阶相互作用。

  • 神经元高阶相互作用。

  • 神经元高阶相互作用特点。

经过大量实验,观察得到的结论是——高阶相互作用是二阶相关的附产物,可以用一个简单的模型精确刻画。

并且关于高阶相互作用,这其中有个关键的研究进展:在2006-2008年的时候,我们认为神经网络并不存在高阶相互作用。但到了2009-2011年的时候,Nature(自然杂志),PNAS《美国科学院院报》等权威杂志相继刊出文章承认高阶相互作用是广泛存在的。

这个趋势对于类脑计算的启示是:

  • 刻画和构建网络的复杂度-简化类脑计算体系的设计复杂度。

  • 证实一个简单的模型能够用于准确模拟大规模神经网络的活动,是计算复杂度大大降低。-有利于超大规模神经网络的仿真。

启示二)大脑皮层的临界状态研究。

1)目前的神经形态芯片设计

其优点是:分布式处理,事件驱动,低耗能,小体积。(IBM公司在1956年创建第一台人脑模拟器(512 个神经元),其新芯片架构没有固定的编程,把内存与处理器集成在一起,模仿大脑的事件驱动、分布式和并行处理方式。)

其缺点是:整体系统状态固定,不可调。

2)而深度神经网络局限性也正在被大家所熟知:知识不能推广和移植(训练深度神经网络并不是一件十分轻松的工作,神经网络的训练经验不能直接移植。)

3)最近大脑皮层的临界状态的问题,经过大量实验,首次证明脑网络活动位于热力学临界态附近,为理解这些现象提供了统一的框架

  • 对整体状态的有效调节。

  • 系统信息表征能力最大

  • 对外界刺激最敏感。

  • 位于混度与有序的边缘。

对于类脑计算的启示是,我们可不可以这样?

雷锋网

CNCC 2016 | 中国工程院高文院士39张PPT带你看懂人工智能60年浪潮

雷锋网按:本文根据高文院士今天上午在 CNCC 2016 上所做的大会特邀报告《人工智能–螺旋上升的60年》编辑整理而来,在未改变原意的基础上略有删减。

高文,北京大学信息科学技术学院教授。中国工程院院士、ACM/IEEE Fellow。1991年获日本东京大学电子工程学博士。曾任国家八六三计划智能计算机主题专家组成员、组长,973项目首席科学家。曾任中国科学院计算技术研究所所长、中国科学技术大学副校长、中国科学院研究生院常务副院长。曾任第四届、第五届国务院学位委员会计算机科学技术学科评议组成员、计算机学报主编,曾任或现任IEEE T-MM、IEEE T-CSVT、SPIC、JVCIR、IEEE T-IP编委等。是第十届、十一届、十二届全国政协委员。目前兼任国家自然科学基金委员会副主任、中国计算机学会理事长、全国信息技术标准化技术委员会多媒体技术分委员会主任委员、IEEE 1857(AVS)标准工作组组长、数字音视频编解码技术标准(AVS)工作组组长。

高文院士作为2016中国计算机大会特邀讲者发表报告《人工智能–螺旋上升的60年》

电子计算机的发明不仅大大改变了人们的工作方式,同时也极大改变了人类的学习、生活和工作方式。计算机科学研究的终极目标之一是实现与人类智能水平相当甚至更高的智能—人工智能。经过60年的研究,人工智能经历了起起伏伏,呈螺旋式发展态势。近几年由于深度学习的贡献,人工智能到达了一个新的顶峰。

| 关于人工智能

人工智能三大派别

人工智能领域中关于派别部分,先说两个比较重要的派别,它们分别是

符号主义(逻辑主义)

连接主义

  • 符号主义

主要内容是关于符号计算、演算和逻辑推理,用演算和推理的办法来证明。比如说像机器证明就是符号主义。

  • 连接主义

连接主义也就是我们今天大家所说的非常红火的神经网络、神经元网络、深度学习,这些都是连接主义。

  • 行为主义

其实第三个主义我们也不能忽略,但目前提及较少,叫行为主义。目前中国人工智能学会,还有一个中国自动化学会,他们也在做人工智能相关内容。如果提及派别的话,很容易联想到行为主义,其实是从控制界衍生出来的。

智能

提到人工智能,离不开智能的概念。通常我们说的的智力其实是智能,人类作为高级动物,区别于其他动物最本质的特征,就是人是有智能的。那么,我们说的智能是指什么呢?

有一类定义叫做智力三因素,其将智力分为是

  • 成分智力

  • 经验智力

  • 情境智力

  • 成分智力

指思维和对问题解决所依赖的心理过程,成分智力和受教育程度直接相关,或者正相关。

  • 经验智力

经验智力其实它和受教育程度并不直接相关,有的人没有受过高等教育,同样可以有非常多的经验智力。

  • 情境智力

情境智力也就是我们经常说的一个人的情商,即个人根据环境的调整所发挥出来的水平表现,这叫情境智力。

人工智能

现在我们知道了人智力的三个方面,那么人工智能就需要在这三个方面都得到良好的发展。

目前很显然并没有实现,我们现在说的深度学习、神经网络,其更多的是经验智力,成分智力和情境智力都远远不行

人工智能我们说它是一种机器智能,是由机器来仿真或者来模拟人智能的系统或者学科。人工智能的研究实际上包括很多了,包括推理、知识、规划、学习、交流、感知、移动、操作等,这些是我们做人工智能研究基本的东西。

多元智能理论

如果把智能再细分一下,其实涉及很多方面。有一种理论是哈佛大学心理学家给出的,其给出定义把人工智能称为多元智能。其中多元智能涉及到至少9个方面,包括

逻辑方面的能力

语言文字方面的能力

空间改革的能力

音乐能力

肢体运作能力

内省的能力

人际关系能力

自然探索能力

图形图像理解的能力

这9个方面实际上表明智能可以细分到这么多的层次。

现在有很多讨论说,很快人工智能大概在10年、15年、20年就会超过人类。但是按照这个来分析,我们现在做的远远还不够。

人工智能之父

说到人工智能,有一位先生我们不能不提及,他就是人工智能的Founder——图灵(Alan Turing)。他既是计算机之父,也是人工智能之父。目前我们用来判断机器是否具有智能的测试就是他提出的,图灵实际上是我们这个领域的开山鼻祖。

图灵奖

图灵奖到目前已经授予了60多位科学家,在这之中有8位科学家是做人工智能的。

上图列举的就是这8位科学家,举例来说MIT教授Minsky Marvin最早的连接主义就是他提出的,之后称连接主义不行的观点也同样是他提出的,他是一名非常伟大的人工智能学家。

McCarthy、Newll、Simon、Feigenbaum他们几位都是非常典型的符号主义代表,在他们的推动下包括最早先的机器证明、人工智能、通用人工智能机、知识工程,基本上都是他们在几位亲自推动下进步的。

另外一位Reddy主要是做语音识别的,他也是李开复、沈向阳的老师。他授奖的领域是大规模人工智能,实际上他是做多媒体的。

另外两位中Valiant是2010年获奖(机器学习理论),Pearl是2011年获奖(概率计算和因果推理),这两位昨天在周志华教授在介绍机器学习的时候也有专门提到过,他们的工作是未来人工智能的重点走向。

| 人工智能60年

人工智能起源

1956年达特茅斯会议花了2个月的时间讨论人工智能问题,最后形成了我们所说的人工智能领域。在达特茅斯会议参会十几个参会人员中,有几个人都获得了图灵奖。

在人工智能这60年中,其实可以说是经过了许多起起伏伏。

  • 人工智能第一次浪潮(1956-1976)

第一次浪潮是1956年到1976年,这二十年间主要是符号主义、推理、专家系统等领域发展很快。

当时这个领域做的最好是斯坦福大学,后来人工智能有关的这些获得诺贝尔奖获得者多数与斯坦福大学有关。斯坦福大学对人工智能贡献非常大,不过后来卡耐基大学(CMU)也发展的很快。另外MIT(Minsky教授)以及IBM、哈佛大学也都做出了许多非常不错的工作。

当时大家对人工智能非常看好,非常热。

人工智能初期著名预言

1958年,在人工智能诞生两年之后,当时有两位大师(Simon与Newell)提出了一个预言。当时这个预言很有名,其预言十年之内很多事情人工智能都能解决。比如说

  • 十年内战胜国际象棋冠军

  • 十年内发现和证明有意义的数学理论

  • 十年内能谱写优美的乐趣

  • 十年内能实现大多数的心理学理论

其中,国际象棋冠军这个早已实现,数学定理也实现了。但是另外两个到现在为止没有实现,这个可以说是过于乐观了。

人工智能的优秀研究者

人工智能第一次浪潮时期主要进展

人工智能第一个浪潮时期主要是符号主义、机器证明、人工智能逻辑语言进步比较快,当时最大的一个成果是专家系统、知识工程

人工智能第一次反思

但是20年以后,大家当时设计的理想目标很多都没有实现,所以由此进入第一个低潮、冰河期。在这次反思中,很多大家认为可以做到的实际上没有做到。所有很多人开始疑惑这个领域是否真的有这么厉害,开始进行反思。再加上当时两面都受挫,其中

知识工程方面很多设定的远大目标实现起来都困难重重

连接主义则是MInsky发表了文章《K-lines: A Theory of Memory》基本上否定了神经网络大规模学习的能力

由于这篇文章影响,符号主义和连接主义基本可以说是从此消沉了。

  • 人工智能第二次浪潮(1976-2006)

从1976年到2006年可以称作人工智能的第二次浪潮。在这一次浪潮中符号主义没有再起来,但是连接主义起来了。这中间包括几个里程碑式的工作,其中Minsky先生是连接主义这个领域比较典型的代表。

人工智能的优秀研究者

Marvin Minsky

自组织网络

在连结主义里面有各种各样的神经元网络,举例来说上图中的自组织网络

自组织网络经过训练可以在非监督状态下进行学习,得到分类的结果。

感知机(Perceptron)

上图是最早期感知机的模式,实际上它也是最简单的神经元网络。

误差反传网络(Back Propagation Net)

上图是1986年提出的一个两层神经元网络(BP网络),这个工作可以说是整个人工智能浪潮的奠基性工作

神经网络相关从业者都知道,在训练的时候给出一个样本,有输入、输出。给定一个输入,输出可能是对的,也可能是错的。对的没问题,错了怎么办?如何进行调整?

这在以前是很难的,之前虽然有很多经验去进行调整,但是那个调整是否收敛?一直没有证明。

BP网络的出现第一次证明,神经元网络可以通过BP网络使得这个网络可以收敛,在这个基础上就能实现学习了。如果神经网络的学习不能收敛,那就不能使用用。

  • 人工智能第三次浪潮(2006至今)

在2006年众所周知,Geoffrey Hinton联合Yann LeCun、Yoshua Bengio发表了图中所提到的论文,论文发表后,大家普遍认为神经元网络可以解决很多问题。

人工智能第三次浪潮特点

虽然深度学习是从2010年开始变得热门,但2006的文章可以说是直接推动了2010年深度学习一路发展到今天的高度。

2006年第三次浪潮中第一次有了深度学习,在这里要提到有两个因素促成了深度学习的成功:

  • 一个是硬件的进步

硬件越来越便宜,计算能力越来越强。

  • 第二个是模型和参数调整技巧的进步

在以前做一个几层的神经元网络可能还问题不大,但是一训练可能就要很长时间。

举例来说20年前,汉字识别需要收集很多汉字识别的样本。以前在机场到处让人写字,然后计算机扫描进去,再进行训练。那时候训练需要多长时间呢?如果放十几台机器的话要1到2个月,且收敛速度很慢。那时候只有4、5层,但现在100多层或者更多,可能几十个小时就可以训练出来了。

| 人工智能未来走向

人工智能未来的基础理论

往下到底做什么?这是我的一些判断。

首先我们不能说到现在为止进步不大,进步很大,但是在整体来说还是非常小的进步。所以,我们需要有一些决定性的、革命性的工作,即非确定性的信息处理和新的机器学习方法

在这里实际上要以知识处理为中心,要把前面的符号主义和连接主义这两者结合起来,在这之中里面有两个先驱者已经获得了图灵奖。

最近和NSF人接触以后,发现美国现在对于深度学习这件事争议非常大。目前NSF对于基础理论的研究是仍然支持的,但是所有的应用领域的研究一律不再进行支持了。

这个给了我们一个信号,也许几年以后真的会到沉寂期。

人工智能60的思考


人的知识可以分成四类,从两个象限来看。

  • 一个是可统计、不可统计。

人有些知识,有些可以去统计,有些你没办法统计。

  • 另一个是可证明(可推理),与不可证明(不可推理)。

我们将知识放在两个维度的空间上,横向方向上只要是可推理的,我们可以通过机器学习的方法,最终完成这个推理。

凡是可统计的,在纵向方向可以通过大数据、统计的办法得到一个好的结果。

也就是说,要么通过机器学习的办法,要么通过统计的办法,都可以解决一类的问题。

我们的知识实际上是分成四类

  • We know what we know

  • We know what we don't know

  • We don't know what we know

  • We don't know what we don't know

这四类知识里,我们现在对于可统计可推理的部分,原则上我们都可以找到答案,不管是用机器学习还是神经网络的方法。

对那些可推理不可统计的部分,可以用举一反三的办法。

可统计不可推理的部分可以采用模糊识别的方法。

不可统计不可推理的部分就得靠顿悟了。这类知识不是任何人都可以得到,只有极少数人可能得到。

人工智能时代是否到来

今年是人工智能60周年,目前来看现在人工智能时代既到来了,也没有到来

人工智能离人类智能差距

与多元智能的定义对比,我们现在九个领域中,其中

  • 逻辑、语言文字、图形图像方面做的比较好

  • 空间、音乐与肢体运作方面则马马虎虎

  • 内省、人际以及自然探索方面完全还不行

结合之前的内容来看,我认为

人工智能1.0是在可统计可推理的部分取得一定的成果。

人工智能2.0是在1.0的基础上向不可统计不可推理的部分区域推进。

人工智能3.0,大概最多到4.0,后面一定会有相当一部分是难以做到的(顿悟),但是这也是今后发展的方向。

| 总结

雷锋网

CNCC 2016 | 他有一个梦想:把谷歌大脑装进我们每个人的手机里——陈云霁

雷锋网按:本文根据陈云霁研究员今天上午在 CNCC 2016 上所做的大会特邀报告《 神经网络处理器 》编辑整理而来,在未改变其原意的基础上略作了删减。

陈云霁,男,1983 年生,江西南昌人,中国科学院计算技术研究所研究员,博士生导师,CCF 会员,曾获 2014 年度“CCF 青年科学家奖”。同时,他担任了中国科学院脑科学卓越中心特聘研究员,以及中国科学院大学岗位教授。目前他带领其实验室,研制寒武纪系列深度学习处理器。

他在包括 ISCA、HPCA、MICRO、ASPLOS、ICSE、ISSCC、Hot Chips、IJCAI、FPGA、SPAA、IEEE Micro 以及 8 种IEEE/ACM Trans. 在内的学术会议及期刊上发表论文 60 余篇,其中包括 ASPLOS'14 和 MICRO'14 的最佳论文奖(亚洲迄今仅有的两次获计算机体系结构顶级国际会议最佳论文),相关工作入选了 CACM 评选的研究亮点,

陈云霁获得了中国青年科技奖、首届国家自然科学基金“优秀青年基金”、首届国家万人计划“青年拔尖人才”和中国计算机学会青年科学家奖,入选 2015 年度《麻省理工科技评论》35 岁以下的全球最佳 35 名创新人士。他还作为负责人带领科研团队获得了全国“青年文明号”和中央国家机关“青年文明号”的称号。 

以深度学习为代表的人工神经网络是最重要的人工智能方法之一,在云端和终端都有非常广泛的应用(例如广告推荐、自动翻译、语音识别、图像识别等)。然而传统的 CPU 和 GPU 芯片在进行神经网络处理时遇到了严重的性能和能耗瓶颈。

“我们报告的题目是《神经网络处理器》,说白了,就是要做智能处理。”

智能是一个非常广阔的范畴,包括知觉、记忆、学习、语言、思维和问题解决等,是人类最主要的日常脑力活动。近年来,智能已经变得越来越重要,这主要是因为计算机的使命有了很大变化。

在二三十年前,计算机的主要使命主要是科学家和工程师等少数人计算用的工具,但现在的情况就不同了,它通过手机这样的终端载体进入了每个普通人的日常生活中。在这种情况下,它就有义务帮人们去解决每个普通人日常生活中最经常碰到的问题。

现在大部分人已经不再从事体力劳动了,更多时候碰到的都是相对比较简单的脑力活动,所以说我们看到计算机的任务就已经发生了变化,它需要把我们从日常简单的脑力活动中解放出来。

所以我们现在看到,各种平台上已经有各种各样的智能处理任务。比如说在超级计算机上面做商业分析或者药物研制,比如说在数据中心上面去做广告推荐或自动翻译,还有包括智能手机或者各种智能安防摄像头上去做图像识别、语音识别等等,以及现在非常热门的自动辅助驾驶和更高的消费类电子。这些背后的核心的技术都是在做智能的处理。

| 人工神经网络

提到智能处理,可能我们就不得不提下这个神经网络。相对来说,这是目前在人工智能领域用途最广泛、可能也是最重要的技术,或者至少是之一。人工神经网络的提出其实非常早,两位提出者甚至都不能称为计算机科学家,而应该是心理学家或者逻辑学家,他们在 1943 年就提出了这个思想。

其实当时最初的思想就是希望从大脑得到一些借鉴,因为大脑是我们迄今为止所知的最智能的物体。大脑中存在千亿个神经元细胞,如果把神经元连接认为是突触的话,那么存在百万亿个突触。因此,最早就是希望能把大脑中神经元和突触数字化抽象出来,这样的数字化网络某种程度上可能就继承了人脑对信息的处理能力。

上图显示了一个最简单的人工神经网络,只有一个神经元,但是已经可以做一些比较有意思的处理了,比如说分类器,可以判断这究竟是我方的飞机还是敌方的飞机。

这是一个神经元能做的,那么很多个神经元在一起能做什么呢?其实就是我们现在所说的深度学习,说白了就是一种多层、大规模的人工神经网络。

下面这个图可能是一个卷积神经网络的示意图,这是现在用途比较广的一种深度学习的技术,里面有很多层。比如,微软亚洲研究院去年做的已经有上百层,甚至数百层了。但是里面各层之间却是有共性的,比如说卷积、Pooling 、全连接的分类器等等。

如果上面说的比较抽象的话,那么这边给大家一个具体的例子。

第一层(Layer 1)对局部特征进行抽象;

第二层(Layer 2)对比较复杂、比较大的特征进行抽象;

第三层(Layer 3)对比较大范围的特征进行抽象;

……

那么一层层抽象后,我们就能得到比较复杂的信息。

深度学习在图像识别方面有非常广泛的应用,比如 MNIST 图像识别,就像大家寄快递时,只要扫一扫邮政编码就能知道需要寄到哪里;那么在人脸识别领域也有非常多的课题组取得了很多成绩,包括中科院计算所、香港中文大学等等;在语音识别方面,科大讯飞也有非常深入的研究和非常好用的产品。

除了上面提到的和自然语言理解,重点说说策略分析。

大家都很关注 AlphaGo,其实就下围棋本身而言并没有什么值得惊讶的。大家都有一个共识,任何有规则的游戏,最后人工智能都会比人类做得好。Deepmind 团队其实在 2013、2014 年的时候,就已经有很多雏形的技术,所以才被谷歌收购。2014 年的时候 Deepmind 引起大家关注,是因为它提出了“深度学习 + 增强学习”的框架,可以学会打很多种小游戏(小霸王游戏机上那些)。那是一共学会了四十多种小游戏,其中二十多种超过了人类的纪录。

所以当它把这个技术运用到围棋上,并以 4 : 1 战胜人类大师李世石,应该说是“出乎意料,情理之中”。最近听说一个消息,Deepmind 团队正在尝试把这个框架放到星际争霸上,这是一款著名的策略类游戏,如果可以打败人类玩家,说明未来在决策方面也可以给人提供很多帮助,类似充当部队中参谋长的角色。

| 为什么需要神经网络处理器

之所以需要神经网络处理器,主要有两点原因:

  • 神经网络是处理智能处理迄今最好的方法;

  • 但是,通用 CPU/GPU 处理神经网络效率低下。

所以如果要用 CPU/GPU 搭建一个拥有人脑规模突触的神经网络可能需要用一个电站来给它供电了。所以从高性能计算机方面来看,这也是不可行的。

那么从其他领域也可以得到一些借鉴。

  • 比如说 GPU,上个世纪九十年代,可能大家都自己攒过电脑,那时候我们一般都是用通用 CPU,但随着视频、游戏等对图形处理的要求越来越高,才逐渐出现专门的 GPU,并形成了一个巨大的市场。这并不是说 CPU 无法处理这个问题,而是会很麻烦、特别耗电、特别慢。

  •  再比如说 DSP,也是类似的情况,信号处理应用非常广阔,每个手机中都会使用到,CPU 不是不能处理,但是也不太合适,所以出现了专用的 DSP。

那么未来进入智能时代是大家的共识,用于智能处理的专用芯片的市场不会亚于 GPU 和 DSP。自然而然的结果意味着也许未来每台计算机都可能需要一个专门的芯片,比如深度学习处理器。

| “寒武纪”系列的诞生和发展

计算所是这个领域的先行者,在智能计算机领域积累了丰硕的成果,因此寒武纪的学术渊源非常深厚:

  • 中科院计算所陈云霁研究员:寒武纪首席科学家,师从国产芯片“龙芯”之父胡伟武研究员。

  • 中科院计算所陈天石副研究员:寒武纪创始人兼 CEO,师从人工智能专家陈国良、姚新教授。

另外还联合了法国的 Oliver Temam 教授,他也是神经网络处理器领域的专家。

可以说,寒武纪系列开创了深度学习处理器的方向,并在过去几年取得了一些列丰硕成果:

| DianNao —— 电脑

为什么取名叫做“DianNao”(电脑)呢?这里还有一个有趣的故事。

原本也是准备按照惯例取个英文名,但是法国的合作伙伴,也就是之前提到的 Oliver 教授提出不如取个中文名,因为这在外国看来是外文,显得比较特别,于是这样命名了世界上首个深度学习处理器。

用于神经网络的芯片其实在上世纪八十年代,包括英特尔、摩托罗拉等科技巨头就开始了相关工作。那时的神经网络规模比较小,算法上有个神经元就在芯片上加个神经元,算法上有个突触就在芯片上加个突触。然后用电脑一连,就可以工作了。

但是,当我们面对深度学习时,传统的方法无法应对如此大规模的神经网络,可能有几十亿、上百亿的神经元。如果每个神经元要做一次乘法的话,没有哪个芯片可能放下那么多的乘法器。即使我们能够放下这么多的硬件突触,访存带宽也无法供应数据,这是一直以来的瓶颈。

而且另一个观察发现:把数据从内存搬到硬件运算单元甚至比运算本事更耗费能量。

那么我们应该如何做呢?

根据我们的策略,需要解决两个矛盾:

  • 算法是多变的,而芯片则是不变的;

  • 算法的规模是无限的,而硬件运算单元则是有限的。

所以,要用有限的、固定的硬件处理无限、多变的算法,就提出了硬件运算单元的分时复用方法

| DaDianNao —— 大电脑

“DaDianNao”与“DianNao”的思路正好相反,“DianNao”是通过硬件的时分复用解决大规模神经网络的计算问题,而“DaDianNao”是从超级计算机的角度来想的,一个超级计算机中可能有很多芯片,每个芯片又可以放下很多核。那么一个芯片可能无法放下一个大的神经网络,很多个芯片也许就能放下了,那么整个模型就能放在芯片上,好处在于就不需要内存了,这就绕过了一直以来的访存的瓶颈,性能由此可以大幅提升。

| PuDianNao —— 普电脑

机器学习的算法很多,根本原因是数据和问题的多样性。不可能通过一种算法解决所有问题,如果没有通用性,芯片未来的应用。

因此,“PuDianNao”的设计思路就是实现足够的通用性,支持主流机器学习算法的高效运算。

主要干两件事情:

  • 寻找各种机器学习算法中最耗时/最普遍的运算操作集合;

  • 研究各种机器学习算法的局部性,降低各算法的访存需求。


那么通过研究上面五种主要的算法行为,最后的结论就是:

  • 需要支持 5 种主要的运算,包括向量内积、向量距离、计数、非线性函数、排序。

  • 归纳总结了数据的局部特征

| ShiDianNao —— 视电脑

“ShiDianNao”是去年的最新成果,我们希望把处理器集成在摄像头中,好处在于在 Sensor(传感器)采集的时候可以直接对图像进行流式的识别处理,消除了对图像的读写操作。另外用比较小的卷积神经网络在芯片上处理,这就消除了对模型的读写操作。因此可以提升性能,降低能耗。

| 总结与展望

寒武纪迄今取得了三大技术突破:

  • 突破了内存带宽的主要性能瓶颈,通过 EDRAM 技术及多芯片互联,保证神经网络模型完整放于片上,完全无需访问内存

  • 突破了片上通讯导致的延迟和功耗,分成的每块内部包含运算部件、神经元数据、突触数据,可以减少 90% 以上片上通讯时间;

  • 突破了机器学习算法、变种众多的困难,采用可编程 VLIM 处理其结构以及灵活的运算部件,支持几乎所有现有的主流机器学习算法。

陈云霁研究员为代表的寒武纪团队未来的梦想就是将代表性智能算法的处理速度和性能功耗比提高一万倍。这里代表性的智能算法不仅仅是深度学习,还包括其他机器学习的方法。

我们知道谷歌大脑用了 1.6 万个 CPU,如果可以实现提升一万倍的水平,那么相当于可以把谷歌大脑装进我们每个人的手机里。这样的手机可以帮助我们在本地实时地完成各种图像、语音和文本的理解识别。

更重要的是,具备实施训练的能力以后,就可以不断通过观察人、社会和自然界的行为提升能力,成为生活中人们离不开的助理。

雷锋网

CNCC 2016 | 周志华 57 张 PPT 揭开机器学习本质

雷锋网按:本文根据周志华教授今天上午在 CNCC 2016 上所做的大会特邀报告《机器学习:发展与未来》编辑整理而来,在未改变原意的基础上略作了删减。

周志华, CCF 会士、常务理事、人工智能专委主任。南京大学教授,校学术委员会委员,计算机软件新技术国家重点实验室常务副主任。AAAI Fellow, IEEE Fellow, IAPR Fellow,ACM 杰出科学家。长江学者特聘教授、国家杰出青年科学基金获得者。

主要从事人工智能、机器学习、数据挖掘等领域的研究。著有《Ensemble Methods: Foundations and Algorithms》、《机器学习》。在本领域顶级期刊会议发表论文百余篇,被引用2万余次。获发明专利14项,多种技术在企业应用中取得成效。

任《Frontiers in Computer Science》执行主编及多种国内外学术期刊副主编、编委;亚洲机器学习大会创始人,国际人工智能联合大会(IJCAI)顾问委员会成员,IEEE 数据挖掘大会(ICDM)等数十次国内外学术会议主席;IEEE 计算智能学会数据挖掘技术委员会主席等。曾获国家自然科学二等奖、两次教育部自然科学一等奖、亚太数据挖掘卓越贡献奖、12 次国际期刊 / 会议论文 / 竞赛奖等。

周志华教授作为特邀嘉宾发表报告

在过去的二十年中,人类手机、存储、传输、处理数据的能力取得了飞速发展,亟需能有效地对数据进行分析利用的计算机算法。机器学习作为智能数据分析算法的源泉,顺应了大时代的这个迫切需求,因此自然地取得了巨大发展、受到了广泛关注。

“现在是大数据时代,但是大数据不等于大价值。”

我们要从大数据里面得到价值的话,就必须要有一些有效的数据分析。正因为这个原因,这几年机器学习特别热。这是从人工智能里面产生的一个学科,利用经验改善系统学习。在计算机系统里面,不管是什么经验,一定是以数据的形式呈现的。所以机器学习必须对数据分析,这个领域发展到今天主要是研究智能数据分析的理论和方法。我们可以看到图灵奖连续两年授予在这方面取得突出成就的学者,这其实一定程度上也表现出了大会对此的重视。

那么究竟什么是机器学习?这里给出一个具体的实例。

|“文献筛选”的故事

  • 什么是文献筛选呢?

这是“循证医学”中,针对特定的临床问题,先要对相关研究报告进行详尽评估。那么人们一般通过 PubMed 获取相关候选论文的摘要,然后通过人工的方式找到值得全文审读的文章。

  • 为什么要这么做呢?

我们都知道,现在优质医学资源非常稀缺,为了缓解这个问题,国外产生了一种叫做“循证医学”的做法。以后患病了不是先去找专家,而是先去看一看文选资料,因为很可能已经有人患过,甚至已经有医生诊治过这个病,发表过论文。那么如果我们暴露里面和这个病相关的最新技术,把它汇集起来,很可能就能得到很好的解决方案。

  • 如何实现这个想法呢?

第一步,我们要从这个浩如烟海的医学文献里面,把可能有关的文章汇集出来。现在有很多基础工作建设,例如在医学上有 Pub Med 的系统,我们还可以用谷歌学术等搜索关键词,就能搜到很多文章。但这些检索出来的文章和我们真正需要的可能还有很大的距离,因为他可能只是仅仅包含搜索的关键词而已。

所以第二步就需要请人类专家来过滤它们,找出到底哪些东西需要深入研究。这部分的工作量有多大呢?我们举个例子,在一个关于婴儿和儿童残疾的疾病研究里面,这个美国 Tufts 医学中心在第一步的筛选之后就拿到了 33000 篇摘要。中心的专家效率非常高,他们每三十秒钟就可以过滤 1 篇。但就算这样,这个工作还是要做 250 个小时。可想而知,就算一个医生三十秒钟看一篇文章,一天八小时不吃饭、不喝水、不休息,也需要一个多月才能完成。而且糟糕的是每一项新的研究我们都要重复这个麻烦的过程。还有更可怕的是,随着医学的发展,我们发表的论文数量也越来越多。

所以如果没有其他解决途径,“循证医学”可能就没有未来了。为了解决这个问题,降低昂贵的成本,Tufts 医学中心引入了机器学习技术。

  • 怎么来做呢?

我们挑出大量的文章,只邀请熟练的专家判断是有关还是无关的,然后基于这个信息建立一个分类模型,用这个分类模型对剩下没有看过的文章做一次预测。其中相关的文章再请专家来审读,这样的话,专家需要读的东西就会大幅度减少。

这样做之后,得到的性能指标已经非常接近、甚至一定程度上超过了原来专家过滤的效果。因为我们知道一个专家三十秒钟读一篇文章,需要连续工作一个月,而且中间出错的可能性太多。现在用机器学习来做只需要一天时间,所以被当成是机器学习对现在机器医学发展的一个很重要贡献而报道出来。

这里面非常关键的一步就是我们怎么样把这个分配模型做出来,其实就是用的机器学习。

| 一张 PPT 说清机器学习过程

现在假设把数据组织成一个表格的形式,每一行表示一个对象或者一个事件,每一列表示我刻画的对象的属性。比如说每一行指的就是“西瓜”,那最后我们特别关心的是这个“西瓜”好还是不好,我们把它叫做类别标签。

之后,我们经过一个训练过程就得到了模型,今后我们拿到一个没有见过的新数据时,只要知道它的输入,把输入提供给这个模型,这个模型就可以给你一个结果,究竟是好的还是不好的“西瓜”。

所以在现实生活中,我们碰到的各种各样的分类预测预报问题,抽样出来看,如果在计算机上通过数据驱动的方式来解决它,其实就是在做一个机器学习的过程。

把数据变成模型要用到学习算法。有一种说法是计算机科学就是关于算法的学问。那如果从这个道理上来讲的话,机器学习其实就是关于学习算法的设计分析和每个学科领域的应用。

| 人工智能的三个阶段

机器学习本身确实是起源于人工智能,而我们都知道人工智能是 1956 年达特茅斯会议上诞生的。到今天恰恰是六十周年。那么在过去的六十年里面,其实我们从人工智能的主流技术上看,可以认为是经过了三个阶段。

在最早的一个阶段,大家都认为要把逻辑推理能力赋予计算机系统,这个是最重要的。因为我们都认为数学家特别的聪明,而数学家最重要的能力就是逻辑推理,所以在那个时期的很多重要工作中,最有代表性的就是西蒙和纽厄尔做的自动定理证明系统,后来这两位也因为这个贡献获得了七五年的图灵奖。

但是后来慢慢的就发现光有逻辑推理能力是不够的,因为就算是数学家,他也需要有很多知识,否则的话也证明不出定理来。所以这个时候,主流技术的研究就很自然地进入了第二阶段。

大家开始思考怎么样把我们人类的知识总结出来,交给计算机系统,这里面的代表就是知识工程专家系统。像知识工程之父爱德华·费根鲍姆就因为这个贡献获得了 1994 年的图灵奖。

但是接下来大家就发现要把知识总结出来交给计算机,这个实在太难了。一方面总结知识很难,另外一方面在有些领域里面,专家实际上是不太愿意分享他的经验的。

所以到底怎么解决这个问题呢?我们想到人的知识就是通过学习来的,所以很自然的人工智能的研究就进入了第三个阶段。

这时候机器学习作为这个阶段的主流研究内容,可以看到机器学习本身其实就是作为突破知识工程的一个武器而出现的。但是,事实上并没有达到目的,今天大多数的机器学习的结果都是以黑箱的形式存在的。另外一方面,为什么机器学习这么热门呢?其实恰恰是因为在二十世纪九十年代中后期,我们人类搜集、存储、管理、处理数据的能力大幅度提升,这时候迫切需要数据分析的技术,而机器学习恰恰是迎合了这个大时代的需求,所以才变得特别的重要。

今天的社会,机器学习已经可以说是无所不在了,不管是互联网搜索、生物特征识别、汽车自动驾驶、还是火星机器人,甚至是美国总统选举,包括军事决策助手等等,基本上只要有数据需要分析,可能就可以用到机器学习。

机器学习这个学科里产生出了很多种有效的机器学习的技术和算法,但是更重要的就是机器学习是一个有坚实理论基础的学科,其中最重要的就是计算学习理论。

而计算学习理论中最重要的一个理论模型就是概率近似正确模型 —— PAC。它的提出者 Valiant 教授也因此获得了图灵奖。

| 关于未来 —— 技术

2006 年 Hinton 在 Nature 发表了关于深度学习的文章。2012 年他又组队参加 ImageNet,获得冠军。冠军没什么特别的,因为每年都有冠军。但超过第二名 10 个百分点的成绩引起了大家的注意,深度学习就此兴起,现在深度学习的应用越来越广泛了。

所以如果折中一下,从 2010 年至今,深度学习的热潮已经 6 年了

从技术层面来看,深度学习其实就是很多层的神经网络。这里画了一个三层的神经网络,就是所谓的一个神经元,通过很多连接连接在一起。那么每个神经元就是一个所谓的 M-P 模型。

所谓的一个神经元其实就是这么一个函数,我们所谓的神经网络其实就是很多这样的多层函数嵌套形式的数学模型,它在一定程度上受到了这个生物神经技术的启发,但是更重要的是数学和工程上的东西在支撑。

最著名的深度学习模型叫做卷积神经网络(CNN),其实早在 1995 年就提出了,但为什么现在才火呢?要先提两个问题:

  • 有多深?

  • 为何深?

提升模型的复杂度可以提升学习能力,增加模型深度比宽度更有效,但提升模型的复杂度并不一定有利,因为存在过拟合和计算开销大的问题。

跳出这些技术细节来看,深度学习最重要的作用是表示学习。所以也就知道了深度学习究竟适用何处?


那么关于深度学习会有很多问题,这里统一到一句话:深度学习会不会“一统江湖、千秋万载”?

我们可以看到非常清楚的交替模式:热十年冷十五年。

但这真的是巧合吗?我们不妨把每次繁荣的开始时间往前推 5-8 年,可以找到规律。 

所以,在技术层面对于未来的一个判断是:未必是深度学习,但应该是能有效利用 GPU 等计算设备的方法。

| 关于未来 —— 任务

谈到任务,需要提一提前段时间的 AlphaGo,被认为是机器学习的伟大胜利。但是学界普遍认为这并不能代表机器学习就是人工智能的未来,尤其是通用人工智能。

为什么这么说?这里只讲简单的一点。

在 3 月 13 日李世石九段下出了“神之一手”,后来 Deepmind 团队透露:错误发生在第 79 手,但 AlphaGo 知道第 87 手才发觉,这期间它始终认为自己仍然领先。

这里点出了一个关键问题:鲁棒性

人类犯错:水平从九段降到八段。

机器犯错:水平从九段降到业余。

传统的机器学习任务大都是在给定参数的封闭静态环境中,而现在正在慢慢转向开放动态环境。

“雪龙号”是国内的一个例子,下面介绍一些国外的探讨情况。这里也提到:

随着人工智能技术取得巨大发展,越来越多地面临“高风险应用”,因此必须有“鲁棒的AI”。

| 关于未来 —— 形态

要分析未来,首先得知道现状。那么机器学习现在的形态是什么?有人会说算法,有人会说数据。

“其实机器学习的形态就是算法 + 数据。”

但是这样的形态下,它有哪些局限性呢?主要分为 3 个大的方面和其他一些小方面:

  • 局限 1:需要大量训练样本;

  • 局限 2:难以适应环境变化;

  • 局限 3:黑箱模型。

我们可以看到机器学习的技术局限性仍然很多,当然,我们可以针对每个问题一一解决,但这难免进入一种“头疼医头,脚疼医脚”的境地。所以我们是否可以跳出这个框架,从整体上来解决这些问题呢?

那么我们都知道有硬件(Hardware),有软件(Software),这里提出一个类似于这两者的新概念“学件”(Learnware):

学件(Learnware)= 模型(model)+规约(specification)

很多人可能在自己的应用中已经建立了这样的模型,他们也很愿意找到一个地方把这些模型分享出去。那以后一个新用户想要应用,也许不用自己去建立一个,而是先到“学件”的市场上找一找有没有合适的,可以拿来使用修改。

比如说,要找一把切肉的刀,可以先看看市场上有没有这样的刀,不会说自己从采矿开始重新打一把刀。如果没有合适的刀,也许会选择一把西瓜刀,然后用自己的数据重新“打磨”一下,让它满足自己应用的需要。

所以,这个想法就是希望能够部分地重用他人的结果,不必“从头开始”。

从规约的角度需要给出模型的合适刻画。

从模型的角度需要满足 3 个要求:

  • 可重用

  • 可演进

  • 可了解

规约需要能清楚地说明在做什么,主要有三种方式:

  • 基于逻辑

  • 基于统计量

  • 技术与精简数据

这些也许可以借鉴软件工程中的规约方法来处理。

我们可以看到,有了“学件”的框架以后,很多之前提到的局限可能都会迎刃而解:

  • “可重用”的特性能够获取大量不同的样本;

  • “可演进”的特性可以适应环境的变化;

  • “可了解”的特性能有效地了解模型的能力;

  • 因为是专家基础上建立的,所以比较容易得到专家级的结果;

  • 因为共享出来的是模型,所以避免了数据泄露和隐私泄露的问题。

除了解决了原有的问题,“学件”很有可能会催生出一个新产业,类似于软件产业。因为大家可以把自己的模型放到市场上,提供给别人使用,如果被使用得很多,又很好用,用户很广泛,那么可以对这个“学件”定价使用,创造出经济价值。

| 总结

最后,对今天的报告内容进行一个总结,主要有下面几点:

  • 深度学习可能有“冬天”,它只是机器学习的一种技术,总会出现更“潮”的新技术;

  • 机器学习不会有“冬天”,只要有分析数据的需求,就会用到机器学习;

  • 关于未来的思考:

    1、技术上:一定是能有效利用 GPU 等计算设备的方法(未必是深度学习);

    2、任务上:开放环境的机器学习任务特别重要(鲁棒性是关键);

    3、形态上:希望是从现在的“算法 + 数据”过渡到“学件”的形态。

如果要对未来这三点加上一个预测期限的话,分别是 5 年、10 年、15 年。

雷锋网