月度归档:2016年11月

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

编者按:本文内容来自速腾聚创 CEO 邱纯鑫在雷锋网硬创公开课的分享,由雷锋网旗下栏目“新智驾”整理。

本期公开课要点:

  • 激光雷达与摄像头性能对比

  • 多线激光雷达—-多少线合适?

  • 在无人驾驶环境感知中,摄像头和激光雷达分别完成什么工作?

  • 激光雷达与摄像头的融合

激光雷达与摄像头性能对比

在无人驾驶环境感知设备中,激光雷达和摄像头分别有各自的优缺点。

摄像头的优点是成本低廉,用摄像头做算法开发的人员也比较多,技术相对比较成熟。摄像头的劣势,第一,获取准确三维信息非常难(单目摄像头几乎不可能,也有人提出双目或三目摄像头去做);另一个缺点是受环境光限制比较大。

激光雷达的优点在于,其探测距离较远,而且能够准确获取物体的三维信息;另外它的稳定性相当高,鲁棒性好。但目前激光雷达成本较高,而且产品的最终形态也还未确定。

就两种传感器应用特点来讲,摄像头和激光雷达摄像头都可用于进行车道线检测。除此之外,激光雷达还可用于路牙检测。对于车牌识别以及道路两边,比如限速牌和红绿灯的识别,主要还是用摄像头来完成。如果对障碍物的识别,摄像头可以很容易通过深度学习把障碍物进行细致分类。但对激光雷达而言,它对障碍物只能分一些大类,但对物体运动状态的判断主要靠激光雷达完成。

多线激光雷达—-多少线合适?

目前,国外和国内做激光雷达的厂商并不多。比如 Velodyne 推出 16 线、32 线和 64 线激光雷达产品。Quanergy 早期推出的 8 线激光雷达产品 M-8(固态激光雷达在研)。Ibeo 主要推出的是 4 线激光雷达产品,主要用于辅助驾驶。速腾聚创(RoboSense)推出的是 16 线激光雷达产品。

到底多少线的激光雷达产品才能符合无人驾驶厂商,包括传统汽车厂商、互联网造车公司的需求?

多线激光雷达,顾名思义,就是通过多个激光发射器在垂直方向上的分布,通过电机的旋转形成多条线束的扫描。多少线的激光雷达合适,主要是说多少线的激光雷达扫出来的物体能够适合算法的需求。理论上讲,当然是线束越多、越密,对环境描述就更加充分,这样还可以降低算法的要求。

业界普遍认为,像谷歌或百度使用的 64 线激光雷达产品,并不是激光雷达最终的产品形态。激光雷达的产品的方向肯定是小型化,而且还要不断减少两个相邻间发射器的垂直分辨率以达到更高线束。

激光雷达产品参数包括四方面:测量距离、测量精度、角度分辨率以及激光单点发射的速度。我主要讲分辨率的问题:一个是垂直分辨率,另一个是水平分辨率。

现在多线激光雷达水平可视角度是 360 度可视,垂直可视角度就是垂直方向上可视范围。分辨率与摄像头的像素是非常相似的,激光雷达最终形成的三维激光点云,类似于一幅图像有许多像素点。激光点云越密,感知的信息越全面。

水平方向上做到高分辨率其实不难,因为水平方向上是由电机带动的,所以水平分辨率可以做得很高。目前国内外激光雷达厂商的产品,水平分辨率为 0.1 度。

垂直分辨率是与发射器几何大小相关,也与其排布有关系,就是相邻两个发射器间隔做得越小,垂直分辨率也就会越小。可以看出来,线束的增加主要还是为了对同一物体描述得更加充分。如果是不通过减少垂直分辨率的方式来增加线束,其实意义不大。

如何去提高垂直分辨率?目前业界就是通过改变激光发射器和接收器的排布方式来实现:排得越密,垂直分辨率就可以做得很小。另一方面就是通过多个 16 线激光雷达耦合的方式,在不增加单个激光雷达垂直分辨率的情况下同样达到整体减小垂直分辨率的效果。

但是,这两种方法都有一定的缺陷。

第一种方法,如果在不增加垂直可视范围情况下增加线束,是有一定天花板的。因为激光发射器的几何大小很难进一步再缩小,比如说做到垂直 1 度的分辨率,如果想做到 0.1 度,几乎不可能。

第二种方法,多传感器耦合,即多个激光雷达耦合,因为它不是单一产品,那么对往后的校准将会有很高的要求。

激光雷达和摄像头分别完成什么工作

无人驾驶过程中,环境感知信息主要有这几部分:一是行驶路径上的感知,对于结构化道路可能要感知的是行车线,就是我们所说的车道线以及道路的边缘、道路隔离物以及恶劣路况的识别;对非结构道路而言,其实会更加复杂。

周边物体感知,就是可能影响车辆通行性、安全性的静态物体和动态物体的识别,包括车辆,行人以及交通标志的识别,包括红绿灯识别和限速牌识别。

对于环境感知所需要的传感器,我们把它分成三类:

  • 感知周围物体的传感器,包括激光雷达、摄像头和毫米波雷达这三类;

  • 实现无人驾驶汽车定位的传感器,就是 GPS 、IMU 和 Encoder;

  • 其他传感器,指的是感知天气情况及温、湿度的传感器。

今天主要讲的是感知周围物体的传感器,即:激光雷达、毫米波雷达和摄像头。其实他们都有各自的优缺点。

在无人驾驶环境感知中,摄像头完成的工作包括:

  • 车道线检测;

  • 障碍物检测,相当于把障碍物识别以及对障碍物进行分类;

  • 交通标志的识别,比如识别红绿灯和限速牌。

对车道线的检测主要分成三个步骤:

第一步,对获取到的图片预处理,拿到原始图像后,先通过处理变成一张灰度图,然后做图像增强;

第二步,对车道线进行特征提取,首先把经过图像增强后的图片进行二值化( 将图像上的像素点的灰度值设置为 0 或 255,也就是将整个图像呈现出明显的黑白效果),然后做边缘提取;

第三步,直线拟合。

车道线检测难点在于,对于某些车道线模糊或车道线被泥土覆盖的情况、对于黑暗环境或雨雪天气或者在光线不是特别好的情况下,它对摄像头识别和提取都会造成一定的难度。

另一个是障碍物检测。上图是我们在十字路口做的实验,获取到原始图像后,通过深度学习框架对物体进行识别。在这当中,做训练集其实是主要的难点。

还有一个是道路标识的识别,这一部分的研究比较多,这里不再赘述。


激光雷达能够完成什么工作?

第一是路沿检测,也包括车道线检测;第二是障碍物识别,对静态物体和动态物体的识别;第三是定位以及地图的创建。

对于路沿检测,分为三个步骤:拿到原始点云,地面点检测、提取路沿点,通过路沿点的直线拟合,可以把路沿检测出来。

接下来是障碍物识别,识别诸如行人、卡车和私家车等以及将路障信息识别出来。

障碍物的识别有这样几步,当激光雷达获取三维点云数据后,我们对障碍物进行一个聚类,如上图紫色包围框,就是识别在道路上的障碍物,它可能是动态也可能是静态的。

最难的部分就是把道路上面的障碍物聚类后,提取三维物体信息。获取到新物体之后,会把这个物体放到训练集里,然后用 SVM 分类器把物体识别出来。

如上图,左上角、左下角是车还是人?对于机器而言,它是不清楚的。右上角和右下角(上图)是我们做的训练集。做训练集是最难的,相当于要提前把不同物体做人工标识,而且这些标识的物体是在不同距离、不同方向上获取到的。

我们对每个物体,可能会把它的反射强度、横向和纵向的宽度以及位置姿态作为它的特征,进行提取,进而做出数据集,用于训练。最终的车辆、行人、自行车等物体的识别是由SVM分类器来完成。我们用这种方法做出来的检测精确度还是不错的。

利用激光雷达进行辅助定位。定位理论有两种:基于已知地图的定位方法以及基于未知地图的定位方法。

基于已知地图定位方法,顾名思义,就是事先获取无人驾驶车的工作环境地图(高精度地图),然后根据高精度地图结合激光雷达及其它传感器通过无人驾驶定位算法获得准确的位置估计。现在大家普遍采用的是基于已知地图的定位方法。

制作高精度地图也是一件非常困难的事情。举个例子,探月车在月球上,原来不知道月球的地图,只能靠机器人在月球上边走边定位,然后感知环境,相当于在过程中既完成了定位又完成了制图,也就是我们在业界所说的 SLAM 技术。

激光雷达是获取高精度地图非常重要的传感器。通过 GPS、IMU 和 Encoder 对汽车做一个初步位置的估计,然后再结合激光雷达和高精度地图,通过无人驾驶定位算法最终得到汽车的位置信息。

高精地图可分为基础层、道路信息层、周围环境信息层和其他信息层。

比如基础层,有车道的宽度、坡度、倾斜角、航向、高程、车道线信息、人行道和隔离带等等。之后还有信息层,相当于告诉每一个道路上限速的标记、红绿灯标记,还有一个就是环境信息层,相当于周围建筑物的三维模型。其他信息层,比如说天气信息、施工信息等等,天气信息非常重要,它提供一个场景信息,比如说天气非常恶劣的时候,比如下雨天,如果高精度地图能提供天气信息,或者无人驾驶汽车车身所携带的传感器,能够感知到下雨信息,这时非常有利于指导无人驾驶汽车做一些决策。

现在对高精度地图的定义,不同地图厂家有不同定义的方式。做高精度地图是为了辅助无人驾驶,所谓高精度地图就是相比之前的导航地图,前者精确度更高,可以达到厘米级;另一个就是高精度地图包含更多的信息量,比如说车道的宽度、倾斜度等信息。

激光雷达与摄像头的融合

激光雷达与摄像头融合,其实相当于是激光雷达发挥激光雷达的优势,摄像头发挥摄像头的优势,他们在某些地方是做得不够好,需要两个传感器甚至多个传感器信息进行底层的融合。

在融合的时候,首先第一步,标定。比如说左上角(上图),我看到凳子,左下角激光雷达也看到的是凳子,那么我通过标定的方式告诉它,其实两个是同一个物体。

其实摄像头发现同一个物体是非常容易的,比如做人的跟踪或车的跟踪。对于激光雷达而言, 要去识别前后帧是否同一辆车和同一个行人是非常困难的。

激光雷达有一个好处:如果可以通过摄像头告诉它前后两帧是同一个物体,那么通过激光雷达就可以知道物体在这前后两帧间隔内:运动速度和运动位移是多少。这是非常关键的,因为只有做运动物体的跟踪才能做一些预测。

人在驾驶的过程中,他得时刻知道周围物体的运动状态。对于无人驾驶,除了对车辆进行位置的估计以及导航之外,其实还需要对周边物体、运动物体的跟踪和预测,这是非常有意义的。

精彩问答:

问:高精度地图的制作,是不是应该与 SLAM 的建图结合满足在无 GPS 下的定位?

邱纯鑫:这是对的,我们也用 SLAM 的方式去局部做地图构建,刚开始如果做高精度地图,还是得用 SLAM 方法去做。

有些道路,特别是城市道路或巷道,GPS 非常不可信。所以说大家还是得充分考虑在有 GPS 如何去制作高精度以及在没 GPS 情况下如何去做高精度地图。

问:考虑到对远距离小物体的检测,需要激光雷达有更高的水平角分辨率,那么目前 0.1 度的角分辨率能不能再提升,限制在哪里?

邱纯鑫:水平分辨率 0.1 度可以做得更小,这个没有限制,激光雷达单点出点数做得更高没问题。垂直分辨率确实是有限制,除非用固态激光雷达,要不然现在通过多个激光发射器和接收器堆叠的方式来实现 0.1 度的角度分辨率几乎是很难再提升了。

假如说激光雷达角度分辨率还有出点数已经满足要求。那么,剩下一个问题就是过车规,毕竟激光雷达是安装在车上的。所以车的温度,湿度,抗震性都要充分考虑。

目前激光雷达本身有两个主要的问题:一方面是雷达本身的参数是否可以提高;另一方面是如何过车规。

问:你认为目前激光雷达用于自主车驾驶和 SLAM 研究中还有哪些亟待解决的科研和技术问题?另外,激光雷达和相机的融合,您觉得用于车载 SLAM 的话最好是和几个(单目、双目、三目、全景)相机的融合?在相机和激光雷达融合中,您觉得还有哪些亟待解决的科研和技术问题?

邱纯鑫:SLAM 不仅仅是无人驾驶汽车的问题。对 SLAM 而言,一个是定位,一个是制图。

目前看,在拼接尤其是前后两帧拼接的时候,如何才能拼接得更加准确;另一个是多次拼接的时候,如何能够覆盖累计的误差。比如,做一个大闭环,第一次扫描到的环境就很难跟第 1000 个拼接起来,能否做到全局的校准?所以我觉得 SLAM 的问题不仅仅是无人驾驶的问题,可能室内存在 SLAM 的问题。

激光雷达和相机的融合,到底用单目,双目,三目还是全景去做。其实我们现在用的是单目,利用单目相机对物体速度的识别主要还是通过标定的方式,然后看物体在图片中所占据的大小,从而来做大致的距离估算。

目前大家用双目的想法,其实还主要是解决单目对距离无法判断的问题。双目、三目和全景我们还没有去尝试,所以不太好判断。

问:激光雷达的设备体积,理论上最小能达到多少?成本如果大批量生产的话可以缩减到多少?有可能进入 3D 成像领域么?

邱纯鑫:目前我们也想把它体积做到更小,并在更小的情况下能够做到线数越多。目前还没有一个理论说最小能做到多小,但体积做太大已经没有意义。

如果未来推出固态激光雷达产品,比如体积只有一个指甲盖的大小,那么它的应用领域,肯定不仅仅是在无人驾驶上,还可以应用到其他领域。

问:对应图像数据使用 OpenCV;那么,点云数据的处理,目前都有哪些主流开源库可供使用?

邱纯鑫:目前还没有很好的一个开源库。之前有一个叫 PCL(Point Cloud Library),我觉得这个库做得并不好,所以我们也没怎么去用,还是自己在做。

问:相机和激光雷达融合中还有哪些要去解决的技术问题?

邱纯鑫:首先是标定,如何标定才更好?再有一个就是时间戳的问题。相机在这一时刻获取到的图片跟激光雷达获取到的三维信息如何很好匹配下来。算法融合,运动物体跟踪,通过摄像获取同一个物体,通过激光雷达去识别同一个物体的距离信息。

雷锋网

新交互时代:自然用户界面中的“自然”到底是什么意思?

雷锋网按:本文作者曹翔,博士,小小牛创意科技创始人,自然人机交互技术国际专家。曾任微软研究院研究员,联想研究院总监、主任研究员。清华大学计算机系学士,加拿大多伦多大学计算机系硕士、博士,英国剑桥大学Fellow。本文系雷锋网独家文章。

写在前面

自然用户界面(Natural User Interface)成了近来业内的时髦词,手势、语音、触控……各种新的界面操作方式从实验室里飞进了千家万户。可到底什么样的界面才算得上自然?是不用鼠标键盘,看着很炫的,还是有更微妙的含义?本文作者根据自己在人机交互领域研究的经历,以及从同行那里得到的许多启发,聊聊对自然用户界面的看法。

常见的理解

不管是有意识的还是无意识的,谈到自然用户界面,人人心中都有一个或清晰或模糊的理解。这些形形色色的理解都各有各的道理,但往往又有不尽然的地方。要探讨什么样的界面是属于“自然”的,就不妨先从人们常见的一些理解出发,看看它们各自正确和不足的地方:

自然用户界面等于多模态界面或“新”模态界面吗?的确,许多自然用户界面的成功例子,譬如微软的体感游戏设备(Kinect)、Surface交互桌面和任天堂的Wii游戏等,都运用了手势、语音、多点触控等交互模态,甚至同时结合了多种模态。

那么,是否使用了这些模态的界面就一定是“自然”的?恐怕不尽然。我想不少人都能举出使这些“自然”模态不自然的场景。譬如语音操控:很适合于私人空间,而在公众场合却可能带来尴尬。再比如手势界面:大家对电影《少数派报告》中主人公挥舞双手操作大屏幕界面完成每日工作的场景也许不陌生,这几乎成了大众心目中自然手势界面的代表。然而据这一场景的设计者说,在电影拍摄过程中,身体健硕的男主角却因为不堪长时间举着双手的疲劳,不得不用钢丝吊着胳膊完成拍摄。这直接印证了手势界面对于日常工作场合并不一定自然的观点,尽管它在Kinect家庭游戏中早已备受欢迎。相反,一些较为传统的交互模态,譬如鼠标和键盘,在其特有的使用情境中却有着强大的生命力。

其实,自然用户界面并不是一个崭新的概念,而是自计算机诞生之日就存在,并不断地发展。作为计算机同行,一定对计算机界面更迭的历史都耳熟能详:从穿孔卡片到命令行再到图形界面,每一代界面的出现都比前一代更为自然和直观,但也都花费了相当长时间才成为主流。而与之前的主要针对桌面计算机和工作环境而设计的界面相比,今天的用户界面所面临的是多样化的使用情境,移动、游戏、社交等等不一而足。而在何种情况下选择何种模态进行交互才最自然,这是每个人机交互从业者必须面对的问题。

 

自然用户界面等于模仿人的界面吗?在科幻电影中,经常会出现计算机模仿人的语音与用户进行交流的场景,有时计算机甚至会模拟人的形象,以虚拟助手的形式出现在屏幕上或现实世界中。无疑,这样的拟人化界面可以让用户与计算机交流就像与他人交往一样,很多情况下的确会感觉更为自然和亲切,甚至有可能在人与计算机间建立情感上的联系。它特别适用于用户其它交互渠道(譬如手眼)被占用,或是需要计算机提供智能化帮助的时候。但这种方式也有局限,在日常生活中,许多时候我们所做的事情并非与人交流,而是直接去操纵物理世界:比如直接拿起筷子吃饭就会比告诉别人怎么把食物喂到嘴里更为自然。同理,对于某些活动,用户直接操控界面也会比间接地通过拟人化交流更为自然和高效。

自然用户界面等于模仿物理世界的界面吗?那是不是模仿人与物理世界交互方式的界面就更加自然?实际上,当前通行的许多界面模式,都是建立在物理世界概念的基础上的,比如Windows图形界面和文件夹组织结构,就是对真实办公桌的一种模仿。还有不少研究人员探索了如何把物理模型引入用户界面用于驱动交互的过程,甚至把真实物体作为界面的一部分,通过操作物理实体与计算机进行交互,即实体用户界面(tangible user interface)。这些基于物理世界规则的界面能让用户完全地按照操作真实物体的方式与计算机交互,省去了不少学习时间,在一定意义上提供了最大限度的自然。

但如果纯粹模仿物理世界,也会遇到瓶颈,那就是真实世界本身受到各种物理定律和客观条件制约,我们在复制它的种种直观属性的同时,也复制了它的种种限制与不便。这在某些情况下恰恰牺牲了计算机的灵活性,使用户失去了软件界面本来所能提供的自由空间。而在这一点上,大家熟悉的多点触控界面中用两个手指操作图片或者其它虚拟物体的手势,并没有拘泥于物理操作,而是在平移和旋转这两个完全符合物理常规的操作之中,加入了缩放这一在真实世界几乎不可能的操作,形成了一个无缝的自然交互方式——多数用户在使用它的时候可能甚至从来没有意识到这一点。可以说,自然用户界面应当源于真实,高于真实。

自然用户界面等于不用输入设备的界面吗?如果我们关注最近的一些被称为自然用户界面的产品,无论是使用手势、语音、触控,甚至是脑电波,他们的共性似乎是不需要专门的输入工具,而用身体的某一部分来直接进行操作。这是否是一切自然用户界面的大势所趋?一方面,人的手和身体本身就是极为灵活的工具,不需辅助就可以胜任许多通用型的任务,这正是今天许多无需输入设备界面的基础;但另一方面,物理工具的发明恰恰标志着人类的进化。各式各样的工具造就了人类从事各种专门活动的能力,而每一种工具的设计和使用方法都最大可能地为其支持的活动做了专门的优化,本身就是“自然用户界面”的典范。最好的例子莫过于形形色色的笔:比起用手指写字,用笔写字实际上更好地利用了人多个手指灵活配合和控制的能力,大大提高了书写的准确和丰富性。同样的道理,在今天的计算机使用中,特别是对于许多专门性的活动,一套设计合理的输入设备(例如数字笔)也可以延展人的能力,从而提供更加自然的界面。

上述各种理解有一个共性,那就是它们都是将某一类特定的交互模式等同于自然用户界面。而实际上,“自然”并不是一个绝对的概念,无法抛开情境来下结论。上述提到或没提到的每一种交互模式都在某些使用情境中成为自然界面的典范,但在另一些情境下却又可能显得不那么自然。在尚未了解界面所要支持的用户、活动和环境的前提下,几乎无从判断它的自然与否。正如人机交互研究的一位先驱比尔•巴克斯顿(Bill Buxton)所说,“不论是什么东西,都对某些事情最好,而对另一些事情最糟。”

那么,自然用户界面能否有一个通用的标准?

一些研究人机交互的同行提出了一个有趣的问题:自然用户界面这个词,究竟是自然的“用户界面”还是“自然用户”的界面?乍看起来这是个文字游戏,答案也许并不重要。但这个问题的提出,为回答前一个问题指出了一条方向,那就是对自然用户界面的衡量,并非取决于界面的交互模式,而是取决于用户自身的体验。

自然源于体验/经验

在英文中,experience既有体验又有经验的意思。而在讨论自然的用户体验时,正要从用户的经验说起。这乍听似乎有些矛盾:自然用户界面不应该要求用户没有任何经验吗?不错,对界面本身而言,让用户在没有经验的前提下上手,让学习过程尽量缩短,这正是自然用户界面的主要优势之一。而这里要谈的,是另一种经验——对现实生活的经验。

具体解释之前,先讲讲我的两位人机交互同行亲身经历的故事。

一位印度的同行为当地用户设计了一组用数字笔操作的界面。在进行用户测试时,他对其中一位用户说:“请拿起笔碰一下屏幕。”出乎他意料的是,这一看起来十分简单自然的操作,居然出了问题:这位用户没有用笔尖,而是把笔横过来整个贴在了屏幕上!经询问才知道原来他不识字,也从没用过笔。

而另一位欧洲的同行为家庭用户在交互桌面上开发了一套软件,包括一些直观的手势交互,例如用两个手指相反方向移动做打开的手势来打开一个虚拟的储物箱。当他向用户家庭演示时,他想考考这个家中正上小学的孩子:“你试试看怎么打开这个箱子?”孩子二话不说,直接用食指在箱子上双击!

从这两个例子可以明显地看出,对于用户而言什么是自然并不等于与生俱来,而是在很大程度上取决于它们之前的生活经验:前者因为没有用笔的经验,“自然”的操作对他毫无自然可言;而后者由于从小与电脑和鼠标打交道,“不自然”的操作对他却是再自然不过。同样的道理,我们平时觉得自然的事情,不论书写、语言、手势,还是触摸,恰恰是来自于若干年积累下来的经验或者有意识无意识的人为训练,当然也包括对真实世界物理规律的经验和对已有计算机界面模式的经验。这些训练和经验,有些是较为广泛地为所有人所共享的,比如物理规律;而有些则与用户所属的社会文化群体息息相关,正像上边所举的两个例子。

由此可见,如果想让用户尽快上手,恰恰要建立在用户已有生活经验的基础之上。缩短了的界面学习过程,正是因为借用了此前若干年用户学习其它相关事物的过程。于是,了解目标用户群体已有的经验,并试图让交互方式与这些经验相一致,就成了设计自然用户界面的关键。实际上,在人机交互中非常强调的“隐喻(metaphor)”概念,正可看成是这种思想的一种体现。

隐喻指的是把用户界面中的概念比拟为一种人们熟悉的概念或现象,用于解释其交互方式,例如将图形界面元素比喻为大家熟悉的桌面、窗口等等。隐喻越贴切,越为用户熟悉,往往就意味着界面越自然。

当然,界面设计不可能也不应当完全局限于人们已有的经验。有时,界面所涉及的活动并没有直接对应的现实经验可以借鉴;有时,拘泥于已有经验会失去了界面设计的灵活性和创新空间。如何确保用户界面在超越已有经验的同时,又不失其自然呢?这里要涉及到人机交互中另一个与用户经验息息相关的概念,即思维模型(mental model)。它是用户脑中对所进行的具体活动机制的一个抽象,源于经验,又高于经验。还以多点触控中的两指操纵手势为例,根据物理经验,真实的物体无法被缩放,但基于平移和旋转的经验,用户抽象出的思维模型则是无论手指怎样移动,物体上固定的两个点始终对应于两个手指的位置。缩放操作正是这一思维模型的直接推广,而这也是广大用户在使用这一操作时没有感到任何不自然的原因。由此可见,理解用户已有的思维模型,并加以外推,不失为设计自然用户界面的有效方法,也可以覆盖大量的用户原本没有经验或预期的使用情境。这样设计出的界面可以说是“情理之中,意料之外”。

基于这些讨论,不妨试着给自然用户界面一个定义:自然用户界面是与目标用户群体在预期使用情境下已有的经验或思维模型相符的用户界面。虽然与许多常见理解相比,这个定义少了“新”和“炫”的成分,但它在某种意义上也许更加贴合自然的本义:往往是“无招胜有招”,一个理想的自然用户界面应当能让用户的注意力完全集中在所要从事的活动上,而忘记界面本身的存在,或者说,界面变得“透明”了。

雷锋网

互联网+人社峰会召开 腾讯开放三大能力建“人社”生态

11月30日,由腾讯公司主办的2016“互联网+人社”峰会在深圳召开。在本届以“共建·共享”为主题的峰会上,腾讯研究院、互联网+合作事业部、微信城市服务联合发布了《“互联网+人社”发展白皮书》,描绘了互联网+人社的发展蓝图。

腾讯公司副总裁王波在峰会上表示:“互联网+人社既是一个产业风口,也是一种社会责任。”腾讯希望与人社部门、各界合作伙伴一起,共建、共享、共赢,建立开放的互联网+人社生态。

(腾讯公司副总裁王波)

人力资源和社会保障部信息中心总工程师张加会在峰会上指出,互联网+人社需要大家努力打拼,“共享是互联网+的灵魂;共建就是大家相互合作,共同创新;共赢就是希望百姓得到实惠,人社事业得到发展,合作伙伴得到成长”。

深圳市人力资源和社会保障局副局长赵忠良,以及人力资源和社会保障部专家咨询委员申曙光教授、腾讯研究院院长司晓、深圳市南山区人民医院网络技术科主任朱岁松等嘉宾在峰会上也分享了“互联网+人社”在实际建设过程中的经验和成果。此外,腾讯公司也首次系统地阐明了,以人脸识别、移动支付、小程序、大数据分析等技术实现的互联网+人社“轻量化”解决方案。

《白皮书》描绘互联网+人社发展蓝图

人社部近期出台《“互联网+人社”2020行动计划》,进一步把人社信息化的发展推向新的阶段,让“互联网+人社”成为了近期的热门话题。由腾讯研究院、互联网+合作事业部、微信城市服务联合发布的《“互联网+人社”发展白皮书》更成为本次峰会的焦点。《白皮书》指出,政策环境、经济环境、社会环境和技术环境的变化,决定了人社信息化将会迎来体系大幅创新,“互联网+人社”正处在整体生态形成的关键阶段。

依托于微信与手机QQ的城市服务平台,在服务“互联网+人社”上显现出重要的战略价值——城市服务平台将原来散落的政务民生数据集合起来,为人设机关、第三方机构以及市民提供了高效连接。目前,微信城市服务已经覆盖全国362个城市,累积服务用户超过2.1亿,人社服务覆盖21个省(含直辖市、自治区)。

《白皮书》指出,基于用户活跃度、服务覆盖区域、稳定可靠性、服务质量等指标综合计算各地“互联网+社保”指数发现,广东、湖南、福建、北京、海南、重庆、广西、贵州、黑龙江、云南名列“互联网+社保”指数前十名。一二线城市已经成为“互联网+人社”红利的第一批获益者,合计占微信城市服务人社用户的近7成。而三四线城市有望成为“互联网+人社”服务的价值洼地,其用户增长速度、活跃度不亚于一二线城市,有些甚至大幅超越。

开放三大能力建立互联网+人社生态

峰会上,腾讯公司副总裁王波表示,腾讯愿意开放自身的用户触达能力、产品能力、技术能力,与人社部门、各界合作伙伴一起,共建、共享、共赢,建立开放的互联网+人社生态。

腾讯的用户触达能力,是连接人社部门与用户,连接用户与人社服务的重要基础。目前,微信的月活跃账户数达到了8.46亿,手机QQ月活跃账户数也高达6.47亿,使得腾讯用户的总规模与人社服务的9.3亿用户规模接近。微信城市服务覆盖城市已达125个,各地人社开通微信公众号达719个,累计服务人数920多万。通过微信或者手机QQ,用户均可在社保查询、医保查询、公积金等服务上,快速连接人社部门和第三方服务机构。腾讯开放的社交平台为“互联网+人社”快速建成了全面的用户体系。

在产品能力方面,腾讯在互联网+人社领域已经构建了包括实名认证、微信支付、人脸识别、大数据挖掘等在内的解决方案,并已在电子社保卡、医保支付、身份认证、智能决策等场景中实现应用,为人社工作带来创新动力。

在技术能力方面,围绕云计算、LBS位置服务、支付、安全四大互联网+基础技术能力,腾讯也实现了能力输出。腾讯云承载的服务器总数量超过10490台,在全国有超过500个加速节点,能对人设的各类系统平台、数据以及服务向移动端“迁徙”起到帮助作用。腾讯在信息安全上有着自己核心技术能力,在信息保护、支付安全、帐号安全方面有完善的保障技术;同时腾讯还与公安系统建立深度合作,推出守护者计划,打击电信诈骗。

发布轻量化互联网+人社解决方案

人脸识别、LBS位置服务、移动支付等技术手段的应用,为人社服务的身份认证、查询、缴存、导航、支付等关键环节实现轻量化、缩短服务时间带来了可能。这次互联网+人社峰会上,腾讯公司发布了基于包括微信公众号、小程序、大数据分析、人脸识别等能力的轻量化互联网+人社解决方案,覆盖微信医保支付、电子档案、身份认证、智能决策、人社内部管理等多种业务场景。

在医保创新支付方面,腾讯微信医保支付实现从挂号、问诊,到缴费,全流程移动就医体验;简化就医流程,打破了只能线下刷医保卡进行医保支付结算的现状,将传统的7步医保就医缩减至4步,有效解决“三长一短“中挂号排队长、缴费排队长问题。目前,在深圳市已有33万市民使用过医保微信支付,省去线下医保挂号、挂号缴费和门诊缴费的3次排队步骤,平均每人节省46.3分钟。

腾讯的优图人脸识别技术也可被使用在众多人社身份认证场景,包括在养老金领取、公务员考试、电子社保卡等。如在养老金领取身份验证方面,人脸识别技术可以取代传统线下窗口按手印获取养老金领取资格的业务模式,通过在线上传身份证照片、人脸识别验证,使得退休老人可在140秒内独立完成远程身份认证,这将为行动不便、移居外地的老人创造了极大的便利。

按照人社部制定的《“互联网+人社”2020行动计划》,对于具备网上办理条件的服务事项,要做到“应上尽上、全程办理”。人社服务加快从线下向移动化转移,通过手机完成业务查询、预约、认证、办理、支付等关键环节,正是互联网+人社发展的大势所趋。互联网+人社解决方案实现轻量化,将有助于提升用户使用人社服务的体验,也有助于人社服务更高效地实现移动化。


雷锋网

共享单车问题重重:骑车五分钟找车半小时

在注册成功一个半月的时间里,周雪梅总共发起使用需求超过30次,但成功使用只有13次,约有一半的用车需求因车已被他人预定或者预约后找不到车而放弃。按照周雪梅的逻辑,“在使用过程中,定位不准、刷码延迟等问题都能忍,唯一伤害我的便是找不到车”。

IT之家

色情网站用户数据黑市开卖,不能说的“大人物”有哪些

虽说“食与色,性也”,军人和政府官员偶尔看看小电影也无可厚非,但如果他们还使用工作邮箱注册色情网站,可就有些说不过去了。

也许网友更加好奇的问题是:究竟怎样一个色情网站,竟能吸引这些公职人员不惜用工作邮箱来注册?

没错,它就是XHamster,曾在2014年11月世界百大网站排行中,排名57位。

据外媒披露,成人网站xHamster目前有超过380,000的用户数据在网络地下黑市被公开售卖,其中包括用户名、电子邮件地址以及经过MD5哈希密码,令人咋舌的是,其中竟包含了美国军方以及英国等多国政府邮箱。

据悉,被公开售卖用户数据的xHamster是一个免费色情影片分享网站,该网站允许用户上传自己的视频、发表评论和观看他人上传的视频。此前就有研究人员声称该网站上显示的广告被发现含有恶意程序,其中有未经其许可在用户的电脑上安装有害文件。

xHamster不仅用户众多,还是一个“有脾气”的色情网站。就在今年4月份,美国北卡罗来纳州通过了一项反同法,禁止变性人以其自认的性别使用公共厕所和更衣室,该法案被xHamster看作是一种歧视,因此他们立即通过屏蔽北卡罗来纳州用户的作法来表达对该项法案的抗议。

然而,最终暴脾气的xHamster还是栽到了黑客的手里。

据外媒Softpedia报道:

我们无法判断,但事实证明该数据库中包含的电子邮件,有一些是你不愿在这样一个网站看到的,包括美国军方、英国政府以及其他世界各国政府相关的电子邮件地址

该数据库被认为是早些年xHamster遭遇网络攻击时泄露的,但没人知道确切的细节,因为当时该网站对外声称他们的数据并未泄露。

密码经过MD5哈希处理

得到该数据库的人曾尝试用其中的部分电子邮件在xHamster网站注册新账户,结果被提示该邮箱已经被使用,由此从某种角度上可以证实这些数据的真实性。

而xHamster方面则依然声称,即使这些数据被公开交易,用户依然不会因此遭受任何风险,因为所有的密码都经过加密,黑客唯一能得到的只有用户名和电子邮件地址。

xHamster 说:

xHamster的所有用户密码都经过适当加密,几乎是不可能被破解的,因此用户的数据是安全的。

但是根据数据库中的内容不难发现,这些密码仅仅做了简单的MD5哈希加密处理,虽然MD5哈希算法将数据进行了不可逆的处理,但是依然可以通过密文和原文的一一对应关系,用查表的方式来破解出来。(详细原理可参考雷锋网此前对MD5算法科普文章

同时,网上也充斥着大量的MD5在线解密服务,有的在数秒就能破解大量MD5密文,这也就意味着MD5加密并不一定能很好地保障用户数据安全。

目前泄露的用户数据的细节暂未公开,因此用户可以在获取消息的第一时间改掉他们的密码。然而在宅客频道(公众号:宅客频道)编辑看来,也许和密码相比,用户更在意他们的邮件地址。毕竟用工作邮箱来注册成人网站,领导和同事们知道后,也许看你的眼神都不一样了呢。

雷锋网

进入欧洲!福特自动驾驶的全球化野心

本周二福特宣布,明年将在欧洲测试自动驾驶汽车。

发布会上,福特欧洲自动驾驶部门负责人 Thomas Lukaszewicz 表示,此举意在研究欧洲不同国家的驾驶规则。众所周知,欧洲各国的道路规章、布局和交通信号不尽相同。为确保福特自动驾驶系统能在不同国家正常运作,必须在当地进行测试。

此举动揭露了福特的自动驾驶野心。很显然,福特在奔驰、大众、沃尔沃等欧系汽车厂商的后院测试自动驾驶,一开始就把目标锁定全球市场

目前福特自动驾驶车队有 30 辆测试车,它计划在明年把它扩充到 100 辆,足足增加三倍之多。届时,福特很可能超越谷歌,运行全球最大的自动驾驶测试车队。

更重要的是,福特自动驾驶商业化已经进入倒计时。在 2021 年前,它计划至少在美国的一座城市,运营自动驾驶出租车业务。在出租车上,福特采取的是和谷歌一样的方案:没有方向盘、没有刹车,纯电驱动的全自动驾驶。

大多数汽车厂商计划在五年左右的时间,推出自动驾驶汽车。你可别被骗了,它们“自动驾驶”的程度是不一样的——很多不支持真正的无人驾驶。大多数厂商其实打算先推出“半自动驾驶”产品,这些汽车实际上只能在特定情况下(比如高速公路)开启自动驾驶功能。它们只是普通汽车的升级版:方向盘和刹车没有消失,驾驶员依然可以随时介入。

但以福特和谷歌为代表的厂商认为:这种半自动驾驶产品有潜在的风险。驾驶员很可能逐渐变“懒”,对自动驾驶系统越来越依赖。以至于即使出现紧急情况,也无法迅速做出反应,恢复到人工驾驶。

既然如此,不如直接做成全自动产品,只需要考虑如何让它在任何情况下都保证安全。所以,福特需要让自动驾驶系统熟悉各种不同的交通规则。

但是,作为行业明星企业的特斯拉,计划在明年,也就是 2017 年,就推出能自己从美国西海岸开到东海岸的完全自动驾驶汽车。福特是不是有点晚了?

福特高级研发工程部门副主任, Ken Washington 说:

“我们没打算成为第一个推出自动驾驶汽车的厂商,但我们必须是选择了正确方向的那一个。所以,我们会把多达十年的自动驾驶技术积累,投入无人控制的完全自动驾驶。”

言下之意是,福特在赌“无人控制的完全自动驾驶才是未来”

via businessinsider

【招聘】雷锋网坚持在人工智能、无人驾驶、VR/AR、Fintech、未来医疗等领域第一时间提供海外科技动态与资讯。我们需要若干关注国际新闻、具有一定的科技新闻选题能力,翻译及写作能力优良的外翻编辑加入。工作地点深圳。简历投递至 guoyixin@leiphone.com 。兼职及实习均可。

雷锋网