应用、算法、芯片,“三位一体”浅析语音识别

雷锋网 AI科技评论按:本文作者为辰韬资本黄松延原文首发于微信公众号:辰韬资本(ID: chentaoziben),雷锋网AI科技评论获其授权转载。

黄松延,浙江大学人工智能博士,前华为高级算法工程师,对深度学习及其应用有深入的研究,阅后若有所感,欢迎通过邮箱syhuang@chentao-capital.com或者微信号Nikola_629与他交流。

人工智能产业链由基础层、技术层与应用层构成,同样,智能语音识别亦由这三层组成。基于大量数据的积累、深度神经网络模型的发展及算法的迭代优化,近年,语音识别准确率取得了不断的提升。

基于大量数据的积累、深度神经网络模型的发展及算法的迭代优化,近年,语音识别准确率取得了不断的提升。2016年10月,微软宣布英语语音识别词错率下降到5.9%,从而能够媲美人类。现阶段,在理想的环境下,多家公司的语音识别系统已经越过了实用的门槛,并在各个领域得到了广泛的应用。

人工智能产业链由基础层、技术层与应用层构成。同样,智能语音识别亦由这三层组成,本文从语音识别的商业化应用出发,并探讨驱动语音识别发展的算法及硬件计算能力,三位一体浅析语音识别现状、发展趋势及仍然面临的难点。


一、应用

智能语音技术是人工智能应用最成熟的技术之一,并拥有交互的自然性,因而,其具有巨大的市场空间。中国语音产业联盟《2015中国智能语音产业发展白皮书》数据显示,2017年全球智能语音产业规模将首次超过百亿美元,达到105亿美元。中国2017年智能语音产业规模也将首次突破百亿元,五年复合增长率超过60%。


图1.来源:wind、华安证券研究所

科技巨头都在打造自己的智能语音生态系统,国外有IBM、微软、Google,国内有百度、科大讯飞等。

IBM、微软、百度等公司在语音识别方面,使用组合模型,不断提升语音识别性能。微软基于6个不同的深度神经网络构成的声学模型以及4个不同的深度神经网络构成的语言模型,取得了超越人类的识别准确率。科大讯飞则基于深度全序列卷积神经网络语音识别框架,取得了实用级的识别性能。云知声、捷通华声、思必驰等智能语音创业公司亦在不断打磨自己的识别引擎,并能够把自己的技术落地到产业中。

在巨头和创新者的推动下,语音识别逐渐在智能家居、智能车载、语音助手、机器人等领域取得迅猛发展。

1、智能家居

在智能家居,尤其是智能音箱市场,亚马逊与Google处于行业统治地位,并各具特色。

亚马逊的Echo已经卖出近千万台,引爆了在线智能音箱市场。相比于传统的音箱,Echo具有远程唤醒播放音乐、联网查询咨询信息、智能控制家电等功能。但是在智能问答方面,Echo表现一般,Google以此为突破口,发布Google Home,从亚马逊手中抢夺23.8%的智能音箱市场份额。2017年9月,亚马逊发布了多款Echo二代产品,相比一代在音质上有明显的提升,且Echo Plus具备更加强大的家居控制功能,能够自动搜索到附件的智能家居设备,并进行控制。

在我国的语控电视、语控空调、语控照明等智能语控家电市场,科大讯飞、云知声、启英泰伦做了深入布局。

科大讯飞联合京东发布叮咚音箱,并于2016年推出讯飞电视助理,打造智能家居领域的入口级应用。云知声提供物联网人工智能技术,通过与格力等公司合作,把自己的语音识别技术集成到终端家电产品中,另外,云知声发布的‘Pandora’语音中控方案,能够大幅缩短产品智能化周期。启英泰伦结合自己强大的硬件(终端智能语音识别芯片CI1006)及算法(深度学习语音识别引擎)优势,提供离线与在线的整套语音识别方案,并在物联网各个领域有广泛的布局。

2、智能车载

随着智能网联的发展,预计未来车联网在车载端的渗透率将超过50%。但是基于安全性等因素考虑,车载端智能与手机端智能有极大的差别,从手机端简单拷贝的方式并不适合车载端使用场景。语音基于其交互的自然性,被认为是未来人与车交互的主要入口路径。

百度借助自己的人工智能生态平台,推出了智能行车助手CoDriver。科大讯飞与奇瑞等汽车制造商合作,推出了飞鱼汽车助理,推进车联网进程。搜狗与四维图新合作推出了飞歌导航。云知声、思必驰在导航、平视显示器等车载应用方面推出了多款智能语控车载产品。出门问问则基于自己的问问魔镜进入到智能车载市场。

在语音识别的商业化落地中,需要内容、算法等各个方面的协同支撑,但是良好的用户体验是商业应用的第一要素,而识别算法是提升用户体验的核心因素。下文将从语音识别的算法发展路径、算法发展现状及前沿算法研究三个方面来探讨语音识别技术。


二、算法

对于语音识别系统而言,第一步要检测是否有语音输入,即,语音激活检测(VAD)。在低功耗设计中,相比于语音识别的其它部分,VAD采用always on的工作机制。当VAD检测到有语音输入之后,VAD便会唤醒后续的识别系统。识别系统总体流程如图2所示,主要包括特征提取、识别建模及模型训练、解码得到结果几个步骤。

                   


图2.语音识别系统

1、VAD(语音激活检测)

用于判断什么时候有语音输入,什么时候是静音状态。语音识别后续的操作都是在VAD截取出来的有效片段上进行,从而能够减小语音识别系统噪声误识别率及系统功耗。在近场环境下,由于语音信号衰减有限,信噪比(SNR)比较高,只需要简单的方式(比如过零率、信号能量)来做激活检测。但是在远场环境中,由于语音信号传输距离比较远,衰减比较严重,因而导致麦克风采集数据的SNR很低,这种情况下,简单的激活检测方法效果很差。使用深度神经网络(DNN)做激活检测是基于深度学习的语音识别系统中常用的方法(在该方法下,语音激活检测即为一个分类问题)。在MIT的智能语音识别芯片中使用了精简版的DNN来做VAD,该方法在噪声比较大的情况下也具有很好的性能。但是更复杂的远场环境中,VAD仍然是未来研究的重点。

2、特征提取

梅尔频率倒谱系数(MFCC)是最为常用的语音特征,梅尔频率是基于人耳听觉特征提取出来的。MFCC主要由预加重、分帧、加窗、快速傅里叶变换(FFT)、梅尔滤波器组、离散余弦变换几部分组成,其中FFT与梅尔滤波器组是MFCC最重要的部分。但是近年研究表明,对于语音识别而言,梅尔滤波器组不一定是最优方案。受限的玻尔兹曼机(RBM)、卷积神经网络(CNN)、CNN-LSTM-DNN(CLDNN)等深度神经网络模型作为一个直接学习滤波器代替梅尔滤波器组被用于自动学习的语音特征提取中,并取得良好的效果。

目前已经证明,在特征提取方面,CLDNN比对数梅尔滤波器组有明显的性能优势。基于CLDNN的特征提取过程可以总结为:在时间轴上的卷积、pooling、pooled信号进入到CLDNN中三个步骤。

远场语音识别领域,由于存在强噪声、回响等问题,麦克风阵列波束成形仍然是主导方法。

另外,现阶段,基于深度学习的波束成形方法在自动特征提取方面亦取得了众多研究成果。

3、识别建模

语音识别本质上是音频序列到文字序列转化的过程,即在给定语音输入的情况下,找到概率最大的文字序列。基于贝叶斯原理,可以把语音识别问题分解为给定文字序列出现这条语音的条件概率以及出现该条文字序列的先验概率,对条件概率建模所得模型即为声学模型,对出现该条文字序列的先验概率建模所得模型是语言模型。

3.1  声学模型

声学模型是把语音转化为声学表示的输出,即找到给定的语音源于某个声学符号的概率。对于声学符号,最直接的表达方式是词组,但是在训练数据量不充分的情况下,很难得到一个好的模型。词组是由多个音素的连续发音构成,另外,音素不但有清晰的定义而且数量有限。因而,在语音识别中,通常把声学模型转换成了一个语音序列到发音序列(音素)的模型和一个发音序列到输出文字序列的字典。

需要注意的是,由于人类发声器官运动的连续性,以及某些语言中特定的拼读习惯,会导致音素的发音受到前后音素的影响。为了对不同语境的音素加以区分,通常使用能够考虑前后各一个音素的三音子作为建模单元。

另外,在声学模型中,可以把三音子分解为更小的颗粒—状态,通常一个三音子对应3个状态,但是这会引起建模参数的指数增长,常用的解决方案是使用决策树先对这些三音子模型进行聚类,然后使用聚类的结果作为分类目标。

至此,语音识别有了最终的分类目标—状态。最常用的声学建模方式是隐马尔科夫模型(HMM)。在HMM下,状态是隐变量,语音是观测值,状态之间的跳转符合马尔科夫假设。其中,状态转移概率密度多采用几何分布建模,而拟合隐变量到观测值的观测概率的模型常用高斯混合模型(GMM)。基于深度学习的发展,深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)等模型被应用到观测概率的建模中,并取得了非常好的效果。下文给出各个模型的原理、所解决的问题及各自局限性,且给出了由模型的局限性而引起建模方式发展的脉络。

1)高斯混合模型(GMM)

观测概率密度函数由高斯混合模型建模,训练中,不断迭代优化,以求取GMM中的加权系数及各个高斯函数的均值与方差。GMM模型训练速度较快,且GMM声学模型参数量小,可以容易地嵌入到终端设备中。在很长一段时间内,GMM-HMM混合模型都是表现最优秀的语音识别模型。但是GMM不能利用语境信息,其建模能力有限。

2)深度神经网络(DNN)

最早用于声学模型建模的神经网络,DNN解决了基于高斯混合模型进行数据表示的低效问题。语音识别中,DNN-HMM混合模型大幅度的提升了识别率。目前阶段,DNN-HMM基于其相对有限的训练成本及高识别率,仍然是特定的语音识别工业领域常用的声学模型。需要注意的是,基于建模方式的约束(模型输入特征长度的一致性需求),DNN模型使用的是固定长度的滑动窗来提取特征。

3)循环神经网络(RNN)/卷积神经网络(CNN)模型

对于不同的音素与语速,利用语境信息最优的特征窗长度是不同的。能够有效利用可变长度语境信息的RNN与CNN在语音识别中能够取得更好的识别性能。因而,在语速鲁棒性方面,CNN/RNN比DNN表现的更好。

在使用RNN建模方面,用于语音识别建模的模型有:多隐层的长短期记忆网络(LSTM)、highway LSTM、ResidualLSTM、双向LSTM、时延控制的双向LSTM。

  • LSTM,基于门控电路设计,其能够利用长短时信息,在语音识别中取得了非常好的性能。另外,可以通过增加层数进一步提升识别性能,但是简单地增加LSTM的层数会引起训练困难及梯度消失问题。

  • Highway LSTM,在LSTM相邻层的记忆单元间添加一个门控的直接链路,为信息在不同层间流动提供一个直接且不衰减的路径,从而解决梯度消失问题

  • Residual LSTM,在LSTM层间提供一个捷径,亦能解决梯度消失问题。

  • 双向LSTM,能够利用过去及未来的语境信息,因而其识别性能比单向的LSTM好,但是由于双向LSTM利用了未来的信息,因而基于双向LSTM建模的语音识别系统需要观察完整的一段话之后才能识别,从而不适用于实时语音识别系统。

  • 时延控制的双向LSTM,通过调整双向LSTM的反向LSTM,实现了性能与实时性的一个折中建模方案,能够应用于实时的语音识别系统。

CNN建模方面,包括时延神经网络(TDNN)、CNN-DNN、CNN-LSTM-DNN(CLDNN)、CNN-DNN-LSTM(CDL)、深度CNN、逐层语境扩展和注意(LACE)CNN、dilated CNN。

  • TDNN,最早被用于语音识别的CNN建模方式,TDNN 会沿频率轴和时间轴同时进行卷积,因此能够利用可变长度的语境信息。TDNN用于语音识别分为两种情况,第一种情况下:只有TDNN,很难用于大词汇量连续性语音识别(LVCSR),原因在于可变长度的表述(utterance)与可变长度的语境信息是两回事,在LVCSR中需要处理可变长度表述问题,而TDNN只能处理可变长度语境信息;第二种情况:TDNN-HMM 混合模型,由于HMM能够处理可变长度表述问题,因而该模型能够有效地处理LVCSR问题。

  • CNN-DNN,在DNN前增加一到两层的卷积层,以提升对不同说话人的可变长度声道(vocal tract)问题的鲁棒性,对比于单纯DNN,CNN-DNN性能有一定幅度(5%)的提升

  • CLDNN及CDL,在这两个模型中,CNN只处理频率轴的变化,LSTM用于利用可变长度语境信息。

  • 深度CNN,这里的“深度”是指一百层以上。语谱图可以被看作是带有特定模式的图像,通过使用比较小的卷积核以及更多的层,来利用时间及频率轴上长范围的相关信息,深度CNN的建模性能与双向LSTM性能相当,但是深度CNN没有时延问题。在控制计算成本的情况下,深度CNN能够很好的应用于实时系统。

  • 逐层语境扩展和注意(LACE)CNN及dilated CNN,深度CNN的计算量比较大,因而提出了能够减小计算量的 LACE CNN与dilated CNN,其把整个话语看作单张输入图,因而可以复用中间结果,另外,可以通过设计LACE CNN及dilated CNN网络每一层的步长,使其能够覆盖整个核,来降低计算成本。

语音识别的应用环境常常比较复杂,选择能够应对各种情况的模型建模声学模型是工业界及学术界常用的建模方式。但是各个单一模型都有局限性。HMM能够处理可变长度的表述,CNN能够处理可变声道,RNN/CNN能够处理可变语境信息。声学模型建模中,混合模型由于能够结合各个模型的优势,是目前声学建模的主流方式。

3.2  语言模型

语音识别中,最常见的语言模型是N-Gram。近年,深度神经网络的建模方式也被应用到语言模型中,比如基于CNN及RNN的语言模型。


4、端到端的语音识别系统

在DNN-HMM或者CNN/RNN-HMM模型中,DNN/CNN/RNN与HMM是分开优化的,但是语音识别本质上是一个序列识别问题,如果模型中的所有组件都能够联合优化,很可能会获取更好的识别准确度,这一点从语音识别的数学表达式也可以看出(利用贝叶斯准则变化之后的表达式),因而端到端的处理方式亦被引入到语音识别系统中。

4.1  CTC准则

其核心思想是引入空白标签,然后基于前向后向算法做序列到序列的映射。CTC准则可分为character-based CTC、other output units-based CTC、word-based CTC,由于CTC准则是直接预测字符、单词等,而不是预测音素,因而其能够剔除语音识别中的字典等专家知识。由于在非word-based CTC中,仍然需要语言模型及解码器。因而,character-basedCTC与other output units-based CTC是非纯粹的端到端的语音识别系统。相反,word-based CTC模型是纯粹的端到端语音识别系统。

基于word-based CTC准则,使用10万个词作为输出目标且使用 12.5 万小时训练样本得到的语音序列到单词序列的模型,能够超越基于音素单元的模型。但是word-based CTC模型有训练困难及收敛慢的问题。

4.2  Attention-based模型

相比于CTC准则,Attention-based模型不需要有帧间独立性假设,这也是Attention-based模型的一大优势,因而Attention-based模型可能能够取得更好的识别性能。但是相比于CTC准则,Attention-based模型训练更加困难,且有不能单调地从左到右对齐及收敛更慢的缺点。通过将 CTC 目标函数用作辅助代价函数,Attention训练和 CTC 训练以一种多任务学习的方式结合到了一起。这种训练策略能够很大程度上改善Attention-based模型的收敛问题,并且缓解了对齐问题。

语音识别的发展过程中,深度学习起到了关键的作用。声学模型遵循从 DNN 到 LSTM再到端到端建模的发展路径。深度学习最大的优势之一是特征表征。在有噪声、回响等情况下,深度学习可以把噪声、回响看为新的特征,并通过对有噪声、回响数据的学习,达到比较理想的识别性能。目前阶段,端到端的建模方式是声学模型建模的重点研究方向,但是相比于其它的建模方式,其还没有取得明显的性能优势。如何在端到端建模的基础上,提升训练速度及性能,并解决收敛问题是声学模型的重要研究方向。


5、解码

基于训练好的声学模型,并结合词典、语言模型,对输入的语音帧序列识别的过程即为解码的过程。传统的解码是将声学模型、词典以及语言模型编译成一个网络。解码就是在这个动态网络空间中,基于最大后验概率,选择一条或多条最优路径作为识别结果(最优的输出字符序列)。搜索常用的方法是Viterbi算法。对于端到端的语音识别系统,最简单的解码方法是beam search算法。


6、远场复杂环境下解决方案

目前阶段,在近场安静环境下,语音识别能够取得非常理想的识别效果,但是在高噪声、多人说话、强口音等环境,特别是远场环境下,语音识别还有诸多问题需要解决。语音模型自适应、语音增强与分离、识别模型优化等是常用的可选解决方案。

6.1  语音增强与分离

远场环境下,语音输入信号衰减比较严重,为了对语音信号增强,常采用麦克风阵列的波束形成技术,比如,Google Home采用双麦的设计方案,亚马逊Echo采用6+1的麦克风阵列设计方案。近年,深度学习方法被应用到语音增强与分离中,核心思想是把语音增强与分离转化为一个监督学习问题,即预测输入声音源的问题。有研究使用DNN替代波束形成,实现语音增强,并在一定场景下取得了比较理想的效果。但是在背景噪声很大的环境中,该方法性能还有较大提升空间。

在多人说话的情况下,如果不对输入信号做分离处理,而进行语音识别的话,识别效果会很差。对于该问题,在多个说话人距离较远的情况下,波束形成是一个比较好的解决方案,但是当多个说话人距离很近的时候,波束形成的语音分离效果也很差。为了避开波束形成所带来的场景分类问题,传统的方法多是在单通道下尝试解决该问题,常用算法有computational auditory scene analysis、非负矩阵分解、deep clustering 等,但是这些方法只有当噪声信号(除声源外的其他信号)与声音源信号有明显不同的特征时,这些技术才取得比较好的效果。其它情况下,这些方法在语音分离中取得的效果一般。2016年,俞栋博士提出了一种新的深度学习训练准则– permutation invariant training,巧妙地解决了该问题,并取得了不错的效果。

6.2  语音模型自适应

  • 大量且丰富(能够提供更多信息)的数据集是提升模型泛化能力的最直接简单的方法;

  • 基于成本及训练时间的考虑,一般情况下只使用有限的训练数据。此时,在模型训练中加入Kullback-Leiblerdivergence正则项是解决模型自适应问题非常有效的方式;

  • 除了加入正则项外,使用非常少的参数来表征说话者特征是另一种自适应方式,其包括:奇异值分解瓶颈自适应,把满秩矩阵分解为两个低秩矩阵,减小训练参数;子空间法,子空间法又包括:

    1. 在输入空间及深度网络的各个层中加入i-vector、扬声器(speaker)编码、噪声估计等辅助特征;

    2. 聚类自适应训练(CAT);

    3. 隐层分解(FHL),相比于CAT,FHL只需要少量的训练数据,原因在于FHL的基是秩为1的矩阵,而CAT的基是满秩矩阵,在基数量一样的情况下,CAT需要更多的训练数据。

实时性是语音识别应用中关注度很高的问题之一,实时性直接影响用户的体验感,提高语音识别的实时性可以通过降低运算时间成本与提升识别硬件计算能力两方面完成。


7、降低运算时间成本

  • SVD,基于奇异值分解的数学原理,把满秩矩阵分解为两个低秩矩阵,减小深度模型的参数,且能够不降低模型识别性能;

  • 压缩模型,使用向量量化或者极低比特量化算法;

  • 改变模型结构,主要针对LSTM,在LSTM中增加一个线性映射层,降低原有LSTM的输出维度,从而降低运算时间成本;

  • 使用跨帧的相关性来降低评估深度网络分数的频率,对于DNN或CNN而言,这可以通过使用跳帧策略完成,即每隔几帧才计算一次声学分数,并在解码时将该分数复制到没有评估声学分数的帧 。

另外,提升识别阶段硬件的运算能力,开发专用的语音识别芯片对增强语音识别的实时性意义重大,下文将会在这方面展开讨论。


三、芯片

不断积累的高质量大数据与深度学习算法是语音识别性能能够不断提升的关键。基础层的核心处理芯片是支持海量训练数据、复杂的深度网络建模方式以及实时推断的关键要素。语音识别包括训练与识别(给定训练好的模型,对输入语音进行识别)两部分。

在训练阶段,由于数据量及计算量巨大,传统的CPU或者单一处理器几乎无法单独地完成一个模型训练过程(初始阶段,谷歌大脑语音识别项目是基于16000个CPU,用了75天,完成一个有156M参数的深度神经网络模型训练工作)。原因在于CPU芯片架构中只有少量的逻辑运算单元,且指令执行是一条接一条的串行过程,其算力不足。研发具有高计算能力的芯片成为语音识别乃至整个人工智能硬件的发展趋势。

与CPU不同的是,GPU具有大量的计算单元,因而特别适合大规模并行计算。另外,FPGA、TPU、ASIC这些延续传统架构的芯片亦在大规模并行计算中得到广泛的应用。需要注意的是,从本质上讲,这些芯片都是计算性能与灵活性/通用性trade-off的结果,即,如图3所示。CPU,GPU是通用处理器,DSP归为ASP,TPU是ASIC这一类,FPGA则是一种Configurable Hardware。

图3.来源:RIT的Shaaban教授的计算机体系结构课程

另外,基于实时性、低功耗、高计算力的需求,使用专属语音识别AI芯片处理识别阶段大量的矩阵运算,进行运算加速是今后终端语音识别芯片市场的主流方向。


1、云端场景

由于计算量、训练数据量极大,且需要大量的并行运算,目前语音识别的模型训练部分基本都放在云端进行。在云端训练中,英伟达的GPU占主导市场,多GPU并行架构是终端训练常用的基础架构方案。另外,Google在自己的人工智能生态中,使用TPU做训练与识别。

目前阶段,语音识别公司的识别部分也大多放在云端,比如Google home、亚马逊Echo,国内的科大讯飞、云知声等。在云端识别中,虽然也有使用GPU,但是GPU并不是最优方案,更多的是利用CPU、GPU、FPGA各自优势,采用异构计算方案(CPU+GPU+FPGA/ASIC)。


2、终端场景

在智能家居等行业应用中,对实时性、稳定性及隐私性有极高的要求。出于对云端数据处理能力、网络延迟及数据安全性的考虑,把计算下放到终端硬件中的边缘计算得到了快速的发展。终端离线的语音识别即是一种基于边缘计算的边缘智能,我们认为离线与在线是语音识别共存的发展路线。在终端离线识别中,需要把训练好的模型存储到芯片。给定语音输入时,引擎会调用模型,完成识别。终端语音识别两个关键因素是实时性与成本,其中实时性影响用户体验,成本影响语音识别应用范围。

由于深度神经网络在语音识别中取得明显的性能优势,其是目前主流的语音识别建模方式。但是神经网络的模型参数量一般非常大,且识别过程中有大量的矩阵计算,常用的DSP或者CPU处理该问题时需要大量的时间,从而无法满足语音识别的实时性需求。GPU、FPGA的价格又是阻碍其在终端语音识别中大规模应用的主要障碍。考虑到终端应用中,场景相对比较固定,且需要很高的计算性能,研发语音识别专属芯片是终端语音识别硬件发展趋势。

  • 启英泰伦(ChipIntelli):2015年11月在成都成立。2016年6月推出了全球首款基于人工智能的语音识别芯片CI1006,该芯片集成了神经网络加速硬件,可实现单芯片、本地离线、大词汇量识别,且识别率明显高于传统终端语音识别方案。另外,启英泰伦能够提供廉价的单麦远场语音识别模组,其实际识别效果能够媲美使用了科胜讯降噪模块的双麦模组,大幅度降低远场语音识别模组成本。启英泰伦在终端语音识别专用芯片发展上取得了明显的技术及先发优势。

  • MIT项目:MIT黑科技,即,MIT在ISSCC2017上发表的paper里的芯片,该芯片能够支持DNN运算架构,进行高性能的数据并行计算,可以实现单芯片离线识别上千单词。

  • 云知声:云知声致力于打造“云端芯”语音生态服务系统,其刚获取3亿人民币的投资,将把部分资金投入到终端语音识别芯片“UniOne”的研发中,据报道,该芯片将会内置DNN处理单元,兼容多麦克风阵列。

过去几十年,尤其是最近几年,语音识别技术不断取得突破。但是,在大多数场景下,语音识别远没有达到完美。解决远场复杂环境下的语音识别问题仍然是当前研究热点。另外,通常情况下,语音识别都是针对特定的任务,训练专用的模型,因而,模型的可移植性比较差。

人类在对话过程中,可以很高效的利用先验知识,但是目前的语音识别系统都还无法有效利用先验知识。因此,语音识别还有很多问题待解决。令人兴奋的是,随着高质量数据的不断积累、技术的不断突破及硬件平台算力的提升,语音识别正在向我们期待的方向快速发展。

雷锋网

搭载麒麟 970的华为 Mate 10,带给我们多少人工智能方面的惊喜?

雷锋网 AI科技评论消息,北京时间10月16日,华为 Mate 10 在德国慕尼黑发布。作为华为2017年的旗舰系列,其中,Mate 10 4GB+64GB 的售价为 699 欧元(合人民币 5434 元),Mate 10 Pro 6GB+128GB 售价为 799 欧元(合人民币 6212 元),Mate 10 保时捷设计版 6GB+256GB 售价1395欧元(合人民币 10845 元)。

图1:华为 Mate 10 慕尼黑发布会现场

从这一价格来看,华为希望通过 Mate 10 系列继续冲击高端,甚至要与三星、苹果的高端旗舰产品一较高低。那么,Mate 10 系列的表现如何,售价如此高昂的底气何在?

全场发布会下来,雷锋网 AI科技评论认为,华为之所以敢于这么做,其底气来自于 Mate 10 所搭载的一系列AI技术。

此前华为已经宣布 Mate 10 系列将采用麒麟 970 处理器(世界上第一款率先发布的人工智能芯片),不过雷锋网 AI科技评论更为关注的是 Mate 10 系列在麒麟 970 下的表现。

图2:华为麒麟970芯片

AI科技评论编辑此前参加IFA时就已经了解到麒麟 970 的一系列亮点:

  • 全新的麒麟970采用了台积电的10nm先进工艺,在近乎一个平方厘米的面积内,集成了55亿个晶体管。

  • 内置八核CPU【ARM 的 big.LITTLE 多核架构,四个Cortex-A73(2.4Ghz)+四个CortexA53 小核心(1.8Ghz) 】。

  • 麒麟 970 的 GPU 为 Mali-G72MP12,核心数达到了 12 个。

  • 双ISP,采用了4.5G LTE技术,支持LTE Cat.18通信规格,最大速度可达1.2Gbps。

  • 采用了创新的HiAI移动计算架构,NPU 运算能力达到了 1.92T FP16 OPS,凭借AI计算能力,(相较于四个 Cortex-A73 核心)在处理同样的AI应用任务时,新的异构计算架构能够提高25倍的CPU性能和50倍的能耗表现。

华为高级副总裁余承东曾表示: 相比起麒麟 960,麒麟 970 的性能有 20% 的提升,并且能效比提升了 50%。

其实麒麟 970 的真正亮点是它内置的那块 NPU(Neural Processing Unit,神经网络处理单元),这实际上就是寒武纪公司自主研发的“寒武纪 1A 深度学习处理器”。麒麟970上搭载的寒武纪IP,主要用于深度神经网络(DNN)中的复杂计算,而深度神经网络正是目前人工智能技术的半壁江山,这样一来麒麟970将成为全球首款具备人工智能处理能力的SoC芯片。

雷锋网专栏作者胡嘉琪曾撰文表示,与其说麒麟970芯片是一块人工智能芯片,更准确地说是一块深度网络加速芯片,主要用于加速人工智能中深度神经网络所带来的复杂计算。他在文中也给我们详细解释了深度网络加速芯片是怎么一回事:

在深度神经网络的应用过程中,人们发现实际上复杂的神经网络架构中计算量通常都集中在少量的计算类型上,比如矩阵运算,深度网络加速芯片则定位于承载若干种深度网络的常用计算。

华为表示,Mate 10 系列所搭载的专为神经网络运算而生的 NPU,在 AI 计算方面有着相较 CPU 和 GPU 的天生优势,针对如图像识别等 AI 场景的处理,NPU 的处理速度是 CPU 的 25 倍、能耗利用率却是 CPU 的 50 倍。搭载了NPU之后,华为Mate10拍摄1000张照片仅仅消耗手机0.19%的电量。

胡嘉琪也表示,麒麟970赋予了手机本身处理深度神经网络中前所未有的计算能力,让一些需要跑在深度神经网络上的应用能够有革命性的体验。

革新体验

在发布会现场,华为将 Mate 10 Pro 与 iPhone 8 Plus 和三星 Galaxy Note 8 进行了 100 图像识别的对比,Mate 10 Pro 用时 5 秒钟,iPhone 8 Plus 用时 9 秒钟,二者处于同一水平,但华为胜出。而 Galaxy Note 8 则根本无法与二者相比,用时需要 100 秒钟。

华为表示,Mate 10 系列还将利用机器学习技术去实现用户行为预测、资源调配、场景感知等功能,可以更长时间支持3D大型游戏的流畅运行。在这一AI技术的助力下,Mate 10 的系统响应速度将增加 60%,系统流畅度将增加 50%。

图3:AI带来的革新体验

手机摄像

此外,在手机摄像方面,这次华为在 Mate 10 上配备的第三代徕卡双摄系统,采用 2000 万黑白像素 + 1200 万 RGB 像素的镜头组合,并且配备与 LG V30 同级别的 f/1.6 大光圈镜头;从现场展示的画面来看,Mate 10 在夜间的成像效果更好,高亮处不过曝,暗处也有一定的细节。除此之外,华为自研的相机双 ISP 也让成像效果更好,让用户在运动的过程中也能迅速清晰抓拍瞬间。

而将人工智能技术与摄影系统结合之后,Mate10 系列在摄影方面能够实现慧眼识物,在拍摄过程中能够实时智能识别 13 种场景,并针对拍摄对象进行相应的成像效果调校增强。

语音算法

在最基础的接听电话上,华为将一项名为“HUAWEI Easytalk”的技术应用到Mate 10。这项技术能利用机器学习算法对语音特征进行分析,将背景噪音和说话人的声音区分开,并去除掉背景噪音,增强说话人的音量。有了这项技术,用户在嘈杂的环境下照常说话也能让对方听清。

续航能力

长续航是华为Mate系列的核心实力之一,Mate10系列在大容量电池基础上,又引入了先进的智慧AI节电技术,通过学习用户使用习惯,Mate10能将用户分为四大类型:游戏达人、商务达人、旅游达人、拍照达人,为每一个用户智能优化节电方案。华为称,Mate10系列可以给用户带来轻松使用一整天的续航体验。

开放生态

华为Mate10还将通过开放AI生态(Open AI Ecosystem)将麒麟970带来的AI处理能力开放给更多第三方App。他们面向第三方App开放的Open AI Ecosystem,目前支持TensorFlow、TensorFlow Lite、Caffe、Caffe2深度学习框架,此后将会支持更多框架。

那么问题来了,大家认为华为在 Mate 10 旗舰机上所展示的这一系列AI技术和实力,能否支撑得起它高昂的价格?

雷锋网

CCF 大数据学术会议的企业论坛上,八位嘉宾们都在关注怎样的产业应用问题?

10 月 13 日至 15 日,第五届 CCF 大数据学术会议(CCF BigData 2017)于深圳举行。本届会议由中国计算机学会主办,中国计算机学会大数据专家委员会和深圳大学联合举办,雷锋网作为协办单位,也深度参与了本次会议。

在与分论坛主席、平安科技大数据高级产品总监王健宗博士交流时,他向雷锋网 AI 科技评论表示。中国计算机学会大数据专家委员会由国内外顶尖的大数据领域的专家组成,每年的委员年会与大数据会议同期举行,「从嘉宾的质量来看,至少从国内来说可以算是非常高规格的一个会议。」;另一方面,CCF BigData 2017 本质上还是属于一个学术会议,学术大牛的到场也让企业嘉宾更愿意受邀参与,但商业化性质会弱很多。「CCF 大数据学术会议的举办更多是履行一种社会责任,并进行大数据行业的趋势解读,邀请专家做预判,这是我个人认为的大数据会议的定位。」

正因为浓厚的学术会议气氛,本次学术会议更多地是让各位嘉宾介绍自己的最新研究成果,并没有框定统一的主题。「我们也希望能带给学者们在大数据领域百花齐放的空间和想象,对研究上有一些新的启示」。

与之相对的是 CCF 在 12 月份举行的富有针对性的大数据技术会议,期间除了大数据研究趋势报告的发布外,在会上将跟进 CCF 大数据与计算智能大赛 BDCI 的赛事动态,并筛选一年来国内的顶尖大数据应用案例进行展示。

在王健宗博士看来,目前学术成果领域的研究已经到了应用和转化的时候,企业论坛便是一个很好的例证。作为正会开始前的分论坛环节,关注大数据科学教育与人才培养的优青论坛与注重大数据产业化与 AI 应用发展趋势的企业论坛于上周五举行。

王健宗博士告诉雷锋网 AI 科技评论,在制定议程上,委员会根据「大数据产业化与 AI 应用发展趋势」的核心主题,邀请了八位嘉宾来到现场分享了他们在大数据领域的心得。从嘉宾的选择上,王健宗博士也分享了他选择嘉宾的方向和想法。

  • 首先在金融大数据领域,邀请的是业界的相关权威白硕老师介绍区块链生态;并请网信创始合伙人周欣分享实践与创新应用;

  • 在学术领域,中科院深圳先进研究院的冯圣中博士及新加坡管理大学的朱飞达教授分享了他在研究领域的一些成果;

  • 至于业界公司领域,以包括 IBM 与 AdMaster 这样的业界领先企业代表做详细的应用案例演讲;

  • 鉴于深圳是一片产学研的沃土,企业论坛还邀请了两位本土创业公司的代表 WeGene 及 iPIN 介绍企业的产学研状况;

在会议的开始,中国分布式总账基础协议联盟技术委员会主任白硕博士作为第一位演讲嘉宾进行了《区块链业务》的介绍。「在全面整肃 ICO 的大背景下,正确认识币圈和链圈的本质差别,积极鼓励链圈的技术创新,积极探索把币圈有价值的技术创新吸纳到链圈为我所用,全面提高我国区块链技术应用水平,具有重要的意义。区块链技术下一代的关键技术突破口的选择和技术创新激励机制的设计极为关键。」

AdMaster(精硕科技)技术副总裁卢俊雷博士以《数字营销在人工智能的实践》为题,介绍了人工智能在数字营销应用场景,特别是跨设备识别、社交数据情感分析、广告图片智能识别的算法与应用。

而对于大数据处理中的高性能计算问题,中科院深圳先进研究院院长助理冯圣中博士以脑科学中的大规模网络处理为例,在脑网络特点、复杂网络分析及复杂脑网络研究现状三方面分析了脑科学的高性能计算问题。

新加坡管理大学朱飞达教授的主要研究方向包括大规模数据挖掘、人工智能、社交网络及新媒体数据挖掘与分析、数据驱动的商业智能和创新研究,因此他针对数据驱动的商业创新,提出了基于用户视角的一种处理数据的新方式。

随后,WeGene 联合创始人兼 CTO 陈钢做了《用人工智能理解生命本质》为题的演讲,机器学习算法、深度学习等技术在基因组数据分析、人类表型预测,精准医学等领域的应用和挑战。

IBM 认知系统技术总监徐宁则立足于采用 AI 技术进行大数据分析,带来产业变革,以应用实际案例介绍 AI 技术,介绍了如何帮助企业进行大数据分析与业务创新。

网信创始合伙人、CTO 周欣介绍了网信金融大数据平台的实践及创新应用。「我们经历了近 5 年的发展,积累了大量的用户数据与行为数据。借助这些数据,我们自主打造了一个大数据平台,在用户画像、智能营销、风险控制、AI 交互、开放技术等业务做了深入探索,并取得了较好的成果。」

最后,iPIN 创始人兼 CEO 杨洋以《认知智能—— AI 时代下的商业逻辑》,描述了 AI 提升商业效率的原理和逻辑路径,如何形成 AI 时代的商业思维,引导 AI 创业者们思考。

CCF 大数据学术会议企业论坛当天在热烈的气氛下举行,并获得了现场观众的好评。在学术会议内,与产业界结合的企业论坛并不多见,而 CCF 大数据学术会议则为我们提供了一个新的思路,则通过企业论坛的方式,反向带动业界人士对学术资源与学术研究动向的关注。我们也期待在CCF大数据学术会议的带动下,有更多的产业界人士能参与到学术会议中来,互相促进大数据领域的发展。

雷锋网

推动云基础设施创新,英特尔与阿里云的“软硬合唱”

导语:对于一家云服务厂商来说,实现软件、服务与硬件基础设施的完美整合,是在激烈市场竞争中的关键点。

云栖大会英特尔展台

互联网经济被称为虚拟经济,因为其提供的大部分产品都是看得见、摸不着的东西,而近年持续火热的云计算在普通人眼中则更加虚无缥缈,“云”这个名字对于真正理解这个行业也没有太大的助益。

实际上,和其它互联网产品一样,用户虽然看得见、摸不着,云计算仍然还是要落到摸得着的硬件上。一名普通用户可以在家里搭建一台 NAS(Network Attached Storage:网络附属存储)服务器,这就是一朵小小的私有云;而当一家公司搭建了一处巨大的云服务数据中心,并将其用于服务千百万的用户时,就成了一朵巨大的公有云。

阿里云就是中国最大的一朵公有云,在 10 月 12 日的云栖大会上,阿里云副总裁李津介绍,阿里云在中国市场第一,2016 年占据 40% 的市场份额,今年或许会达到 50%。

海量的云服务对应的是庞大的基础设施,对于一家云服务厂商来说,实现软件、服务与硬件基础设施的完美整合,是在激烈市场竞争中的关键点。在这方面,英特尔是阿里云多年的合作伙伴,双方通过紧密合作推动云基础设施的创新。

对于软硬整合的问题,近年比较流行的一个答案是“软件定义基础设施”,意即根据软件和服务的需求与发展来部署和优化硬件设施。

英特尔和阿里云有着多年的战略合作,英特尔创新的技术、产品是如何让让阿里云得可靠、敏捷且性能强大的技术支撑?云栖大会上,英特尔数据中心事业部副总裁兼数据中心战略规划总经理 Robert Hays 这样介绍:

第一,英特尔提供了包括英特尔至强可扩展处理器产品在内的一些列创新技术和产品,这些不光给客户带来了性能上的提升,也丰富了客户的产品服务种类和特点。与此同时,我们还为阿里云提供定制化服务,以便在提高性能的同时,进一步一起降低总体运营成本。同时也可以更好的发挥定制化技术和功能对阿里云服务的价值。


另外一方面,从软件层面来讲,英特尔跟阿里云之间也有很好的合作关系包括在软件的优化,定制化产品服务,以支持硬件新品特性等。

英特尔助力,阿里云将 BigBench 规模全球首次拓展至 100TB

阿里巴巴集团副总裁周靖人与英特尔公司数据中心事业部副总裁 Robert Hays

关于双方合作的一个很好的案例是云栖大会上发布的阿里云在大数据计算能力上的新突破:将 BigBench数据规模扩展到 100T。

BigBench On MaxCompute+PAI 基于最新的 英特尔硬件产品,依靠双方合作,全球首次将规模拓展到 100TB,达到 7000 QPM,也是首个基于公共云服务的 Benchmark。

Robert Hays 接受包括雷锋网在内媒体采访时表示,英特尔在其中主要有三个方面的作用:

第一,英特尔在 Big Bench 的形成过程中,是重要的贡献者,参与了一起制定标准的过程。

 

第二,一起推动让标准测试组织 TPC 认可测试基准,最后推成了一个 TPCx-BB,变成一个标准的测试基准了。

 

第三,在跟阿里云的具体合作中,我们做了包括软件优化、工具优化、体系结构优化这几个方面的工作,和阿里云一起把这个结果呈现给客户,实现最好的性能,同时能够降低成本。

关于 BigBench 的意义,Hays 表示,“我们的用户,像阿里云,或者像阿里云的用户来说,他们都是希望找到一个比较好的云服务的方式,能够让他们在大数据处理方面能够获得很好的性能,同时又能够降低比较多的成本。所以,可以用这样的基准数据值,来使这个服务的基础结构包括上面的软件栈或者上面的层级都能够更好的服务于大数据处理、大数据分析的应用。”

英特尔 SGX 技术在中国首度应用:“芯片级”云上数据保护

云栖大会的最后一天, 英特尔与阿里云宣布达成技术合作,双方联合发布加密计算技术:以英特尔 SGX (Software Guard Extensions) 可信执行环境作为基础,确保加密数据只在安全可信的环境中计算,将云上数据保护做到“芯片级”。

相比传统加密保护,阿里云加密计算可提供更高等级的数据保护:

  • 加密计算的信任根基于处理器芯片,而非基于底层软件,所有加密信息只能在可信执行环境中计算和运行;

  • 加密计算提供灵活的加密方案,用户可自己掌控数据加密和密钥保护的全部流程;

  • 加密计算最大限度复用了处理器计算能力,将加密计算的处理性能充分发挥。

英特尔公司软件与服务事业部副总裁兼平台安全部总经理 Rick Echevarria 表示:“很高兴英特尔公司与阿里巴巴在云服务方面达成合作。我们非常兴奋看到英特尔的SGX 技术应用在阿里云上用来保护关键业务应用和数据。同时,我们期待与阿里巴巴后续的合作,提高阿里云架构和服务的安全。”

阿里云首席安全架构师李晓宁提到:“数据安全和用户隐私是阿里云的第一原则。阿里云将继续与英特尔展开深度技术研发,让‘芯片级’安全保护,成为云的‘基因’。”

混合云的未来,有英特尔的身影

混合云被认为是云计算未来发展的一大趋势,根据 2017 年 5 月英特尔委托 Forrester Consulting 进行的一项调研,40% 的企业 IT 部门已部署混合云环境;60% 的企业 IT 部门正在测试或计划在两年内实施混合云战略。

“混合云计算实际上真的是一种很重要的趋势,在这个趋势中我们可以看到,企业用户,未来一定会走向混合云的业务,在这个过程中,从英特尔来讲,我们认为各种类型的应用、负载去支撑这些企业的业务过程中,随着全球化的扩张或者地域性的扩张,对混合云的需求会进一步加大。”Hays 说。

阿里云自然也不会错过这场盛宴,今年的云栖大会上就有专门的混合云分论坛。大会上,阿里云正式推出混合云存储阵列,将云存储的高性价比和可扩展性与本地数据中心架构相结合;NetApp 也与阿里云合作,发布一系列的混合云产品解决方案,为用户带来全球领先、面向未来的混合云数据管理能力。

在明确混合云这个发展趋势后,英特尔用自己的方式助力它的前进。这其中包括,跟业界一些领先的合作伙伴们,包括像开源社区里面的 Openstack,Docker 等等都有很好的合作和支持。另一方面,与一些企业或者云服务的供应商进行深入的合作,让他们能够更好地去部署符合企业用户需要的混合云的服务。

产品上,英特尔至强可扩展处理器整合并扩展了至强处理器 E5 和 E7 家族最卓越的企业级特性,是理想的混合云基础。顾名思义,整合和扩展后将成为针对众多工作负载优化的计算平台,从双路扩展至八路或更多,具备更丰富的功能和软件兼容性。

混合云在本质上具有多应用、多租户特征,要求底层基础设施提 供高度的敏捷性。至强可扩展处理器具备全新的微架构特性,内核数更多,内存带宽更高,可为各种应用和工作负载 提供高性能环境。

此外,据雷锋网了解,至强可扩展处理器家族在虚拟化功能方面也实现了显著的性能提升,从而有效改进混合云的敏捷性和效率。基于英特尔最新处理器的服务器支持企业显著增加每台服务器上运 行的虚拟机(VM)数量。相比于使用 4-5 年的系统,至强可扩展处理器将每台服务器运行的虚拟机数量增加了 4.2 倍,企业可因此运行更多的工作负载和应用,进而支持其不断增长的混合云战略。

总结:英持尔携手云服务提供商,推动云计算发展

根据 IDC 的统计,2017 年,全球购买公有云服务的支出预计将达到 1225 亿美元,相比 2016 年增长 24.4%。到 2020 年,全球在这方面的支出将超过 2034 亿美元。

对于这样一个规模庞大且增长迅速的市场,各家公司都不想错过。而英特尔在其中扮演的角色非常重要。云服务厂商直接面向客户,各激烈的竞争下需要不断在产品上推陈出新,降低成本,寻找细分市场和新的增长点。在软件定义基础设施的指导下,英特尔则通过云计算硬件、软件、基础技术等方面的创新满足云服务厂商和用户的需求。

在雷锋网看来,这次云栖大会公布的各种新产品,正展现了英特尔与阿里云在云基础设施领域创新合作所带来的巨大效能。

前文所提到的软硬件创新只英特尔产品线的一部分,英特尔的创新还包括存储方面的 3D-Xpoint 技术,以及对开源社区所作巨大贡献和支持,FPGA 产品,5G,等等。

英特尔常年保持在 Linux 内核贡献列表第一位

云计算目前是英特尔最重要的投入领域之一,Hays 介绍,“我们已经从传统的应用产业分类或者优先级的排序,逐渐切入到目前的前三大最重要的投入领域”。

 第一是云计算,因为这是一个必然的趋势,也是市场上产生非常大需求的领域。


 第二是网络的转型,包括5G,还包括其他的网络结构各种切换过程。


 第三是人工智能和数据分析,是关于大规模数据处理和分析来说需要满足的。

可见,英特尔对自身在未来科技行业发展趋势上有明确的定位,未来其将持续成为引领行业向前发展的强大动力与合作伙伴一起共同前进。

最后赠送一枚彩蛋:

此前马云演讲中提到不清楚 英特尔名字的由来,英特尔是两个词的集合,Integrated Electronics,也就是集成电路的意思,同时也体现了Intelligence的含义。 谢谢。

                                                             —— Robert Hays

雷锋网

ARKit应用安装量超300万次,AR游戏类应用最受欢迎

距离苹果正式上线 AR 应用已经近一个月,消费者们对这些 AR 应用的反响如何?那款 AR 应用最受大家喜欢?日前,应用市场研究公司 Sensor Tower 发布了一项数据,雷锋网发现,自 9 月 19 日 iOS 11 上线以来,ARKit 应用已经被安装了超过 300 万次。数据还特别列出了免费、付费 ARKit 应用前十榜单。

Sensor Tower 特别注明了 ARKit-only,意指完全围绕 AR 技术打造的应用内容,而非那些带有 AR 技术效果的应用。

毫无疑问,所有的 ARKit 应用中,游戏类应用以明显的优势位置第一,占到所有 AR 应用的 35%。其次为工具类应用,排名第三的是娱乐,剩下的还有教育、照片和视频、其他等。

ARKit 应用类 Top 10 榜单中,尽管游戏类应用最受欢迎,但像 Housecraft、宜家、AR MeasureKit (测量表尺)、Panit Space AR 等有关家装、工具和娱乐类的应用也受到不少关注。

游戏和其他类型应用整体情况

从图中可以看到,免费的 AR 应用中,由澳大利亚 PlaySide Studios 开发的《AR Dragon》排名第一。在所有前十免费 AR 应用中,下载量超过 20%。此前雷锋网也介绍过,这是一款小恐龙养成类的游戏,玩家可以自己挑选恐龙蛋,孵化自己的宠物恐龙,然后给它喂食,跟它游戏,应用中还包含了其他的付费项目。跟我们以前玩的养成类游戏最大的不同,就是小恐龙会等着大眼睛出现在你的眼前,形象非常可爱和逼真。

AR Dragon

付费的 AR 应用中,由 Occipital 团队开发的《TapMeasure》下载量位列第一。另外,游戏类的 AR 应用盈收上也有较好的表现。其中,Directives Games 制作的《The Machines》位列盈收排行榜第一。

在所有的 ARKit 应用中,自发布以来,游戏类的下载量达到 53%,收入占到所有 AR 应用收入的 62%,是比重最大的内容类型。

AR游戏类应用排名情况

除了游戏外,很多非游戏类的 AR 应用下载量也不错。

非AR游戏类应用排名情况

ARKit 非游戏类应用 Top 10 榜单中,免费应用里,宜家的《IKEA Place》排名第一,付费应用里《TapMeasure》排名第一,但值得注意的是,由 Vito Technology 开发的《Monster Park-Dino World》的收入却是最多的,位居第一。

雷锋网期待开发者们会继续推出各种好玩的 AR 应用。

雷锋网

对话上海财经大学ITCS主任陆品燕教授:如何用一年时间,建设国际一流理论计算机研究中心?

雷锋网 AI 科技评论按:在刚刚公布的国际算法顶级会议 SODA 2018 的接收列表中, 上海财经大学理论计算机科学研究中心(ITCS)有三篇论文被录用,占据中国大陆录用论文的半壁江山。而值得一提的是,这个在国际顶会大放异彩的研究中心才刚刚迎来它的一岁生日。

从 2016 年 6 月至今,研究中心主任陆品燕教授见证了 ITCS 从零到一的点滴发展。雷锋网 AI 科技评论与陆品燕教授取得联系,他与我们分享了 ITCS 是如何在上海财经大学茁壮成长的,它又是如何一步步成为华人理论计算机科学家的共同家园。

陆品燕,上海财经大学理论计算机科学研究中心(ITCS)主任,CCF 青年科学家奖得主。他的主要研究方向是理论计算机,并注重与其它学科的交叉,包括自然科学中的统计物理以及社会科学中的经济学与社会选择理论等。有 50 余篇科研论文在 STOC、FOCS、 SODA、 EC 等顶级计算机理论会议发表,荣获ICALP 2007、FAW 2010、ISAAC 2010 等重要国际会议最佳论文奖,多次担任 STOC,FOCS,ICALP等顶级国际会议的程序委员会委员。

上海财经大学理论计算机科学与研究中心官网:http://itcs.shufe.edu.cn/

AI科技评论:在刚刚公布的国际算法顶级会议 SODA 2018 的接收列表中,ITCS 有三篇论文被录用,占据中国大陆论文的一半,这对于成立刚满一周年的 ITCS 是非常了不起的成就,这一年 ITCS 取得了哪些成果?

陆品燕教授:ITCS 在一年多的时间里从零开始到初具规模,取得的成果和成长的速度都得到了圈内外同行的普遍认可,甚至超过了我自己预期的速度。除了你提到的一些具体的论文等学术成果,我觉得这一年主要的成果是团队建设。

现在 ITCS 已经有 5 位全职的研究人员,研究领域既涵盖理论计算机的核心领域包括算法与复杂性等,也包括很多理论计算机与其他领域的交叉,比如经济学,人工智能,复杂网络,统计物理等等。这些年轻的研究员们已共计发表理论计算机的顶级会议与期刊 STOC 11 篇,FOCS 6 篇,SODA 22 篇,EC 9 篇,SIAM Journal of Computing 8 篇等,另外还在很多其他领域的重要会议及期刊发表论文,比如 NIPS,WWW,IJCAI,AAAI,Physical Review E,Scientific Reports,Mathematics of Operations Research,Games and Economic Behavior 等等。

此外,ITCS 还拥有一个由 10 余名海内外知名学者组成的讲席教授组,每人每年至少会在 ITCS 访问一个月,这个讲席教授组囊括了全球华人青年理论计算机科学家的半壁江山。

一年多来,我们共接待来自全球各地的研究人员 50 余人次,组织学术讲座 50 余场,举办 4 次研讨会,4 次暑期课程。在这里,非常感谢我的同行朋友们,是你们各种形式的支持,使得这一切在非常短的时间内成为可能,使得 ITCS 虽为后辈,却已成为了计算机科学理论界不可忽视的一个幸运儿。

AI科技评论:作为研究中心主任,您在 ITCS 的成立仪式上提出了「三个平衡」的中心发展理念(理论与应用,中国与世界,理想与务实)。在过去一年中,您认为 ITCS 是如何在这三者间取得平衡的?

陆品燕教授:有些读者可能没有读过我关于三个平衡的讲话稿,这里引用一小段以方便读者理解它的大概含义:

  • (理论与应用)如果太偏理论了,完全无视应用,很可能走得越来越偏、越来越窄,最后变得没有活力、没有源泉;如果太偏应用的话,则可能完全丢掉理论及数学这个灵魂,完全没有自己的根基与特色,不断追逐应用中一轮又一轮的所谓热点,最后不能在历史的潮流中留下真正有意义的东西。

  • (中国与世界)如果太偏中国特色华人学者,那很可能就成为一个典型的中国特色的研究中心,与国际一流严重脱节,最终导致吸引过来的海外华人也是一帮三流的学者,真正一流的活跃在科研第一线的华人学者也不愿意过来这边浪费时间;而另一方面,如果纯粹去追求已经成名成家的老外学者,最后效果可能只是撑了门面,没有真正起到效果,而且整个中心会变得非常脆弱,不可持续发展。

  • (理想与务实)太纯粹的理想主义而不解决实际问题和困难,很难吸引过来真正优秀的学者,因为真正一流的人才都有很多的选择,在个人的层面,极度的不切实际的理想主义往往让一个人变得喜欢抱怨、愤青;但如果太务实,很可能把研究中心办得越来越大、越来越商业化,不断追逐大项目、大奖项,忙碌于申项目、填表格、拉关系而完全忘记这一切的初衷是为了更好的科研更好的教育。」

正像我当时就表达的,这三个平衡是我根据很多经验和教训总结出来的,而不是心血来潮随便说说的。在过去一年的实践中,我觉得我们基本上没有偏离这三个平衡太远,而且我们也会一直坚持下去。

但这一路走来真的非常不容易,阻碍和诱惑并存,需要的是一种坚持和定力。这个过程中,我最要感谢的是上海财经大学及信息学院的各位领导和老师给了我们一个非常宽松而自由的环境,因为除了自身的定力和内在修养,外界的环境对于维持这个平衡也是非常重要的。这个外界环境主要有两个:各级政府及学校的教育管理部门所给出的制度与绩效评价,以及包括你们在内的各个媒体所营造的舆论与社会评价。

从教育管理部门的角度,要认识的不同的学科间有具体的差别,避免一刀切,给予每个高校,每个学院,每个科研工作者足够的自主权和自由度,在评价的时候主要依靠国际同行评议而不仅仅是客观数据。

这里举两个具体的例子来说明学科的差异。比如,现在国内很看重 SCI 杂志论文,这对很多学科是有参考意义的,但计算机方向其实更看重会议论文,所以当计算机学科与其他学科横向对比的时候,如果单纯从 SCI 论文这样的客观数据来比就很成问题;再如,在计算机学科内部的比较时,大家都看重顶级会议的论文,这一点没有问题,但是大多数计算机应用的学科都很注重第一作者论文,第一作者与非第一作者是个很大的差别,但是理论计算机科学的国际惯例是作者按字母序排列,排序完全不体现贡献大小,所以是否第一作者根本没有任何区别,但大家用第一作者论文这个客观数据来比较理论计算机学工作者的时候就很成问题。

从媒体的角度,适度的关注科研,关注科学家对于大众,对于学术圈都是很有意义的,可以给大众普及科学,也同时营造一种尊重科学尊重科学家的氛围。但科学及其发展是很严肃的事情有其内在的发展规律,现在有些媒体动辄就是「重磅」、「突破」、「诺奖级」,形成了一种浮躁氛围,甚至以娱乐化方式来进行科学与科学家故事的宣传,对于学术界的发展以及大众对于学术界的真实了解都是不利的。不仅对于大众不利,也不利于科研工作者心平气和地科研。

AI科技评论:ITCS 研究的主要核心内容包括算法与复杂性等,也包括很多理论计算机与其他领域的交叉,但这些领域势必会涉及与现实生活的交融。像 ACM EC 这种以往偏理论的会议,今年的不少论文与 workshop 议题也已经开始延伸到实际应用领域,也做出了不少的尝试。您认为这一变化趋势会对理论计算机的创新性研究产生哪些影响?

陆品燕教授:其实从建立之初,理论计算机科学就处在不同领域交叉的前沿。姚期智先生在 2015 年的计算机科学联合大会(FCRC 2015)上作了一个题为「Interdisciplinarity: A View from Theory of Computation」的邀请报告。姚先生在报告中很好的阐述了理论计算机科学的这一特点,并以他自己在量子计算、计算经济学等领域的研究来具体说明,我当时听了很受启发。我们在 ITCS 的研究也非常注重理论计算机科学与其他学科的结合。

在 10 月 15 日,我会在全国理论计算机学术年会上作一个「理论计算机——一门交叉学科」的特邀报告,仔细地阐述理论计算机科学的这个特点。这里所说的学科交叉不是很简单地把一个学科的结果或者方法应用到其他一个学科,而是两个学科最本质的思维方式结合在一起,产生一门全新的学科。计算思维是当前最重要的一种思维方式,它在自然科学,社会科学,工程技术学,数学等方向都有深刻的应用。

我经常觉得自己作为一个理论计算机科学家,特别是一个注重交叉学科的理论计算机科学家非常幸运。我的朋友与合作伙伴中有数学家,物理学家,经济学家和计算机应用科学家与工程师,和他们都有很好的共同语言,虽然不懂细节,但可以比较恰当的理解与欣赏他们的工作,但也可以知道他们的局限。他们之间因为距离太远往往有些太高或者太低的极端偏见。

比如我的工程师朋友们对于数学家的认识往往偏向两极中的一极:要么觉得数学家绝顶聪明无所不能,如果来做计算机科学的研究肯定特别轻松;要么觉得数学家做的东西完全是自娱自乐没有任何用。

数学家对于计算机技术的认识也是类似的两极:要么觉得计算机科学都是一些肤浅的平凡的东西,没有什么深刻的内涵;要么觉得计算机技术特别是人工智能技术如此强大,机器人马上就可以抢了数学家的饭碗。

这种彼此太高或者太低的认识对于相互合作是不利的,理论计算机科学处在这些学科的交叉位置,和两边都有共同语言,这对于交叉学科的研究是非常重要的。反过来,这样一种交叉对于理论计算机科学本身的发展也是非常重要的。

AI科技评论:目前中国在国际理论计算机领域处于怎样的科研水平?在中国建立一个国际一流的理论计算机科学研究中心,您觉得目前还有哪些挑战和机遇?

陆品燕教授:中国理论计算机的发展基础比较薄弱,但近些年,特别是姚期智先生回国之后,有了长足的进展。现在正处在一个机遇与挑战并存的阶段,下面从两方面具体展开讲。

我觉得最大的机遇是我们已经有一个很好的基础,在世界各地从事理论计算机科学的青年学者与学生人数在这十多年中有了很大的提高,已经达到一个临界数量(critical mass)。

记得自己在 2007 年第一次参加 STOC 的时候,基本上看不到什么中国面孔,但现在去参加 STOC/FOCS/SODA 这三大理论会议的时候,中国学者与学生可以凑好几桌,虽然比例还远远没有达到数据挖掘,人工智能等华人占了半边天的会议,但也已经比之前有了很大的进步。

这个人群基础是在中国建立一个国际一流的理论计算机科学研究中心的重要条件,这也是 ITCS 建设与发展中特别倚赖的人群,华人学者中的大多数在过去的一年中已通过各种形式访问过 ITCS,我们中心已经成为圈内同行回国的默认据点,其中一部分更是和我们有长期的伙伴关系,每年至少在我们这边访问交流一个月。当然,另一方面,我相信 ITCS 对于他们也是有帮助的,正像我在中心的揭牌仪式上所说的,ITCS 是华人理论计算机科学家共同的家园。

而其中,最大的挑战是在中国大陆整个科研梯队还没有形成一个稳定的金字塔结构:一批大基数的不错的科研工作者,和逐层递进的优秀科学家,共同构成一个良性的流动的科学共同体,大家有比较一致的价值观和共同语言。

国内在各个方向都已经涌现出一些完全达到国际一流水平的科学家,但这些杰出的个人、研究中心和国内主体的教育科研体制还没有形成一个良性的互动。比如最近引起大家关注的许晨阳、颜宁从海归到归海,各自肯定有各自具体的很多原因我们没必要细究,但和这整个科研大环境的氛围肯定是有关系的。 坊间流传着一种说法,国内一流和国际一流是两个很不一样的概念,有时候甚至国际一流比国内一流还要容易达到一些,这就是一个很大的问题。

AI科技评论:从工作七年的微软亚洲研究院转向上海财经大学就职,并建立研究中心,您曾提及这是您一直以来的梦想。在我们惯常的印象中,上海财经大学可能并不是一个在计算机科学领域非常拔尖的高校,能否分享下当时做出这个决定的心路历程?

陆品燕教授:这是很多人问过我的问题,我一般的回答是「上财的理想主义情怀与务实的态度很完美的契合了我自己的梦想。」我在这里再仔细解释一下。

首先上财一直有一种追求卓越的理想主义情怀,很多人可能不知道,上财是国内最早一批实行常任轨制度的学校之一,已经十几年了,制度上非常成熟,也非常接近美国的 tenure track,而没有做一些不伦不类的改良。特别在人才的引进上,特别注重国际同行的评价,而不仅仅是看一些客观的数据,也不是很看重资历和国内的各种帽子,希望我们产出的成果也首先是国际同行的认可。

从务实的角度说,樊校长和我接洽的第二天就联合科研处,人事处,后勤处开了一个部门协调会议专门讨论能够为我的研究中心提供的支持,效率特别高,而且在之后的落实过程中对于之前承诺的支持完全不打折。这些实实在在的支持是 ITCS 在这一年中得以快速发展的重要保证。

至于你说的上海财大不是一个以计算机科学见长的一个学校,这确实是事实,也给我们的发展造成了一些障碍。但我相信这是可以克服的,学校也在大力发展整个计算机学科,而且从某种意义上说,我们可以利用这种后发优势,直接以一个国际一流的标准和目标来发展和建设。

AI科技评论:目前有很多学者「下海」工业界,而您反而是从工业界的研究院转向学术界,有种「逆流而上」的感觉,您觉得学术界与工业界各自的吸引力在什么地方?

陆品燕教授:这是一个很好的问题,对于计算机科学这样一门应用导向的学科,工业界和学术界的双向流动是很正常的现象,对产学研的结合很有好处。但另一方面确实也造成了不少问题,特别是对于基础研究。但具体到我的个例来说,其实我从来没有觉得自己离开过学术界,微软亚洲研究院的环境其实非常像一个大学的研究所。

大面上来说,我觉得工业界的优势是能把一件事情做到极致,甚至真的能做成产品,因为公司在人力物力的调配上更集中更迅速。但学术界的优势是能够发挥每一个科研人员自己主观能动性,根据自己的兴趣自由地选择科研题目,更有可能做出一些原创性的工作。

AI科技评论:您在 2015 年接受 CCCF《动态》栏目采访时评价自己是一个「工科出身、有理科情结的哲学思考者」,那么如今两年过去,您对自己的定位是否有改变?这样的特质在科研上的最大优势是什么,又获得了哪些成果?

陆品燕教授:实际上早在读博期间,我就是这样来定位自己的,现在差不多十多年了,也并没有太多变化。我觉得这样一种特质是我个人的特点,很多时候对我的科研选题、科研品味会产生影响。

理科情结让我喜欢做一些在数学上深刻的基本问题,而不仅仅是一些搭积木式的增量式研究;工科出身让我也关注选题的有用性,相关性,而不仅仅是把它们作为单纯的智力游戏;哲学的思考方式,让我更习惯从宏观上,整体上来把握问题和方法论,而不仅仅是在技术的层面。

当然,这一年多来创建 ITCS 的经历对于我自己的特质与视角也有一些补充,我开始学着从一个管理者、团队建设者的角度来思考一些问题,而不仅仅是自己的科研工作。人生是一个体验与自我完善的过程,我相信这样一种新的特质与视角对于我之后的发展是重要的,我也正在努力学习中。

更多精彩对话,敬请关注雷锋网。

雷锋网

前亚马逊首席科学家薄列峰加盟京东金融,领衔AI实验室

雷锋网AI金融评论报道,京东金融今日(10月16日)宣布,前亚马逊首席科学家薄列峰博士日前正式加盟京东金融,出任京东金融AI实验室首席科学家。

京东金融方面表示,京东金融AI实验室的研发领域涵盖图像识别、语音识别、人机对话等领域,未来,京东金融也与阿里、腾讯等巨头一样采取相似的技术发展策略,与美国一流大学研究机构开展长期合作,致力于开发人工智能领域最前沿的技术。

据雷锋网AI金融评论了解,薄列峰于2007年获西安电子科技大学博士学位,先后在芝加哥大学丰田研究院和华盛顿大学从事博士后研究。研究内容涉及机器学习,深度学习,计算机视觉,机器人,自然语言处理等多个领域。

根据雷锋网获得的数据,薄列峰博士在国际顶级会议和期刊上合计发表论文50余篇。论文总被引用6000余次,H指数38,其中博士学位论文荣获全国百篇优秀博士论文奖,RGB-D物体识别论文荣获机器人权威会议ICRA最佳计算机视觉论文奖。在国际学术活动方面,薄列峰博士任华盛顿大学计算机科学与工程学院合聘教授 (Affiliate Faculty),担任过包括NIPS、CVPR、ICCV、ECCV、AAAI、SDM等在内的顶级人工智能会议程序委员会委员。

在加入京东金融之前,薄列峰博士就职于亚马逊(Amazon)西雅图总部,担任首席科学家(Principal Scientist),领导研究团队,从事Amazon Go无人零售店的基础算法研究和工程落地。

众所周知,Amazon Go利用计算机视觉,深度学习和传感器融合技术打造即拿即走的新型购物体验,是零售业颇受关注的革命性创新项目之一。作为研究团队的核心创始成员,薄列峰博士近来负责着整个项目的统一化架构设计和开发。

目前,京东金融战略转变,践行技术输出的路径,推崇将人工智能技术应用于支付、消费金融、供应链金融等各项业务,随着薄列峰博士的加入,在新金融与新零售核心技术的结合下,京东金融是否也要走上蚂蚁金服那样从tech-fin到tech-industries的扩展道路,并与之一较高下?

不过,无论如何,薄列峰博士的加入,以及前不久人工智能领域权威科学家周伯文博士入职京东,负责京东AI平台与研究部相关业务,这些人才引进的举措无疑将助力于京东金融的基础技术研发。

据京东金融透露,在信用管理方面,京东金融自主研发的RNN时间序列算法可用于用户行为路径学习,对于风险用户识别准确率超过常规机器学习算法3倍以上,这一算法已收录入欧洲机器学习会议。京东金融相关负责人介绍,京东金融将持续引进世界级数据和技术科学家,打造海外与国内技术研发双引擎的格局,为成为一家世界级科技公司夯实基础。

雷锋网

马云自嘲唱歌后网友评论让其“绝望”;开房要谨慎:中国18家酒店数据遭泄露;一加承认收集用户隐私数据 | 雷锋早报

马云微博自称文艺青年 自嘲唱歌后有些评论让我绝望

刚刚在云栖大会上和李健同台合唱的马云,15日发微博表示,这几天一直在看网上各种对其在音乐节唱歌评价,表示有些点评让其“绝望”。马云称,自己内心深处原来一直活着一个“爱玩的文艺青年”,要给他一个机会释放自我,同时为下半辈子找个就业方向。

马云同时也在微博里透露,“后面还有一些我自我感觉不错的东西出来,家人朋友们都觉得我‘疯癫’了”。此外,马云也透露,和李健唱完歌的第二天,他就和“一位顶级高手一起为一部电影录了主题曲”。

开房要谨慎:凯悦酒店数据泄露,殃及中国18家酒店

雷锋网消息,最近,全球11个国家的41家凯悦酒店支付系统被黑客入侵,大量数据外泄,而且这是自2016年1月后,凯悦酒店发生的第二次严重数据泄露事件。和中国人有关的是,这次受影响最大的凯悦酒店数量位于中国,共有18家,泄露的信息包括持卡人姓名,卡号,到期日期和内部验证码。据知情人士向媒体表示,失窃的卡数据已进入黑市,并已经出现欺诈交易。

据malwarebenchmark称,这些未经授权访问的客户支付卡数据,是从3月18日至7月2日之间的在一些凯悦管理地点的前台,通过手工方式输入或刷卡的。而这次数据泄露的原因,是由第三方将含有恶意软件代码的卡片插入某些酒店IT系统,通过酒店管理系统的漏洞,获取数据库的访问权限,提取与解密后,获得用户的私人信息。

一加承认收集用户隐私数据,承诺10月底前停止收集


据外媒报道,一加的氧OS操作系统在用户不知情的情况下收集隐私数据。对此,一加日前发布官方声明承认了这一行为,解释了其中的原因,并承诺在10月底前停止收集。

  • 首先,一加称其氧OS智能手机仅传输两种数据:用户使用行为数据和设备信息。它称,这是为了“更好地了解用户的普遍使用行为,优化氧OS,以提供更好的用户体验。”

  • 其次,一加称,用户可以前往设置/高级/加入用户体验计划选项退出手机的使用行为收集。不过,用户并不能停止设备信息收集。

此外,该公司还称未来将不再收集手机号码、MAC地址和Wi-Fi信息。

随着手机、以及信息安全保密要求越来越高,用户对隐私也更加重视,此前苹果公司在官网发布了一份白皮书,详细解答了苹果在数据收集问题上所采取的措施。而关于收集用户数据信息的问题,据雷锋网编辑了解,许多手机厂商都在做,一加手机的数据手机还算比较浅层的。

国内新闻

小米将在武汉投入230亿 全面建设小米武汉总部

14日,小米全球供应商大会在仙桃落幕。小米科技创始人、董事长雷军,亲自登舟执锤,与队员们一道竞波逐浪,将家乡湖北赛龙舟的民俗文化展现在全世界面前。

雷军在接受记者专访时表示,湖北及武汉的区位、人才优势明显,将在智能制造的产业转移中拥有极大机会。未来几年时间里,小米将在武汉投入230亿元,全面建设小米武汉总部,帮助家乡发展得更好。

在商业布局上,小米正在筹划通过“他建自营”的方式,加快线下小米之家的布局。目前,小米之家是自己建设自己管理,按照雷军的想法,未来将尝试他人建店、小米来管理,并深入每一个县市、乡镇。

顺丰正式上线“丰密面单” :收寄人信息不显示

今年5月17日,顺丰首度对外披露已展开试点的“丰密面单”。昨日,“丰密面单”正式上线。该面单将实现收寄件人姓名、手机、地址的全面隐藏或加密化,让个人信息不再随着快递包裹裸奔。

据悉,“丰密面单”不仅可对姓名、电话等敏感字段进行隐藏,并且客户的地址信息也会由编码代替,从而在快递面单上完全实现个人信息加密化。

收发顺丰快递将是这样的:顺丰收派员通过手持终端的“一键呼叫”功能联系客户,客户接收到的将是统一的95338****专属电话。如果客户拒接或错过电话时,可直接回拨此电话找到相应的收派员,相当于是双向隐藏电话号码,客户收件时则使用“电子签收”功能直接在手持终端上签收。

万元神器,华为确认Mate 10保时捷设计

日前,华为终端官方微博发布预告,正式宣布Mate 10保时捷设计将在10月16日同步首发:“奢华设计之美融合智能现代科技,10月16日,德国慕尼黑,#华为Mate10#系列与保时捷设计联合,为你匠心打造潮流经典之作。”

官方并未透露太多细节,不过从此前爆料大神@evleaks 放出的真机背部谍照来看,华为Mate 10保时捷设计有望采用皮质后盖,同时印有Porsche Design的Logo,十分奢华,档次感十足。由此也能看出,该机的主要目标用户就是那些不想随大流购买iPhone,又十分看重手机品牌和品质的群体。

上一代Mate 9保时捷设计官方价高达8999元,但很少有人能原价买到,预计今年的Mate 10保时捷设计会卖到万元左右,直接对标iPhone X。

杭州一高中推刷脸吃饭:8秒搞定

据《钱江晚报》报道, 杭州第十一中学食堂也上线了刷脸支付。学校食堂的每个窗口装了一台“刷脸器”,学生只要站在刷脸器前面一秒钟,身份就会被识别出来。

姓名、饭卡余额、套餐等信息会出现在屏幕上,点击确认即可结账完毕,整个过程不超过8秒时间,再也不用担心忘带饭卡了。

据悉,每位学生的学籍号与其IC卡关联,每个人的照片与学籍号关联。摄像头拍到学生时会自动读取数据库中的照片,匹配成功后就能调用IC卡里的信息并呈现在屏幕上,学生点击确认即可完成整个过程。

现在刷脸吃饭已经被应用上了,学校还透露接下来还会有刷脸考勤。

国际新闻

金融科技时代:PayPal市值逼近大摩、高盛  

伴随着金融和科技的迅猛发展和相互融合,金融科技俨然成为全球经济发展的新“风口”。在美股市场上,第三方支付服务商PayPal的市值已经达到826亿美元,与两年前从eBay分离出去时470亿美元市值相比几乎翻倍。

市场数据显示,PayPal的市值已经超过了主营信用卡等业务的美国运通。股价强劲的表现甚至让PayPal有比肩大摩高盛之势,826亿美元的市值离摩根士丹利只差60亿美元,离高盛则差100亿美元。

虽然市值有被超过的迹象,但摩根士丹利近日撰文坚定看多PayPal,将其评级上调至买入,目标价定为76美元,相比最新的收盘价高出10%。据海外媒体报道,摩根士丹利认为在全球电商大潮下,PayPal是少数几家能够抓住机会实现增长的公司。PayPal预计将在年底进行“Pay With Venmo”计划,对其旗下明星支付工具Venmo进行大规模推广。

谷歌投入10亿美元 为美国工人提供高科技岗位培训

谷歌CEO Sundar Pichai在美国匹兹堡的一场活动中公布了“Grow with Google”项目,未来五年公司将以非营利性目的向Goodwill组织承诺提供10亿美元,用于培训美国工人并且帮助商业构建,这是有史以来一家公司向一个组织承诺的最高资金。这些资金将帮助Goodwill启动数字化职业培训,为美国高科技岗位准备劳动力。这一项目的目标将包含在过去数十年里为匹兹堡发展做出贡献的任何人。

雷锋网

一加承认收集用户隐私数据,承诺 10 月底前停止收集

雷锋网消息,近日有媒体报道称,一加的氧 OS 操作系统在用户不知情的情况下收集隐私数据。对此,一加日前发布官方声明承认了这一行为,解释了其中的原因,并承诺在 10 月底前停止收集。

事件起源于国外科技安全领域博主克里斯·摩尔(Chris Moore)日前发表的一篇文章,其称一加手机 2 在未经用户允许的情况下收集用户隐私,之后他发现几乎所有一加手机都有收集用户数据的行为。

当他在自己的一加手机 2 上部署了一个安全工具后,这个工具发现了 open.oneplus.net 的流量请求,它会把数据流量引到美国亚马逊 AWS 服务器上。于是,摩尔决定进一步了解,他发现这些被传输的数据中包括了 IMEI 串码、MAC 地址、移动网络名称、WiFi SSID 和手机序列号。

他还发现,当 App 打开或关闭时,带有他设备序列号的时间戳同样会被发送。这意味着,他的手机正在收集包括手机序列号的多种数据信息。


一月份,摩尔询问一加手机如何禁用数据收集功能,一加手机给出的解决方案是清除缓存并恢复出厂设置。很明显,这个方案并没有什么效果。

经过一系列调查,摩尔发现收集用户数据的罪魁祸首是一个名为“OnePlus System Service”的系统应用。这个应用是手机系统的一部分,不能彻底关闭,但是它可以在每次重启手机时手动禁用。

事件发酵后,一加方面对此作出回应。首先,一加称其氧 OS 智能手机仅传输两种数据:用户使用行为数据和设备信息。它称,这是为了“更好地了解用户的普遍使用行为,优化氧 OS,以提供更好的用户体验。”其次,一加表示,用户可以前往设置/高级/加入用户体验计划选项退出手机的使用行为收集。不过,用户并不能停止设备信息收集。

不过,一加也承诺在 10 月底前在其氧 OS 操作系统手机的安装向导中添加提示,询问用户是否希望加入该公司的用户体验计划。

此外,该公司还称未来将不再收集手机号码、MAC 地址和 Wi-Fi 信息。一加称,此前它这么做只是为了“更好地”服务用户,同时,它也强调,从未向第三方分享过用户数据。

以下为联合创始人 Carl Pei 此前的公开声明:

雷锋网

华为宣布与法国创业公司 Chronnocam 签订 Face ID 技术合作

近日,据法国媒体 L'usine Novelle 报道,在巴黎的供应商大会上,华为宣布与 Chronocam,Secure-ID 和 Siradel 三家公司签署了协议。

它将与 Chronocam 将致力于在类似 iPhone X 的 Face ID 技术方面展开合作。而与巴黎电信大学电信分公司 Secure-IC 合作,旨在为提高麒麟芯片组安全性上进行合作,与3D地理空间软件公司Siradel将合作三维地图绘制方面的项目。在过去四年中,华为在法国供应商的采购量翻了一番。

据雷锋网了解,专门从事计算机视觉的公司 Chronocam 创立于 2014 年,总部位于巴黎,致力于研发新型视觉传感器和系统,这些硬件被应用于机器视觉各个领域。其传感器技术的灵感来自于生物眼睛,能够高效获取并处理视觉信息。

去年 10 月,它宣布完成 B 轮 1500 万美元融资,由英特尔资本领投,iBionext、Robert Bosch Venture Capital、GmbH 和 360 Capital 等参投。Chronocam 的技术早已走出实验室,本轮融资过后,更多是在寻求合作方将公司技术整合到它们的产品当中。

雷锋网