这是一个除了有PPT,还有电影看的神奇会议|Siggraph Aisa 2016第一天亮点指南

由计算机协会(Association of Computing Machinery,简称ACM)SIGGRAPH举办的SIGGRAPH ASIA 2016大会今年在澳门威尼斯人度假村酒店召开,作为一个号称集科学、艺术、商业于一身的图形学和交互技术盛会,第一次来这个盛会的读者朋友们总会一脸懵逼:这么多会议室我去哪个?除了VR厂商还来了哪些参展商?它跟AI有何关系……同样一脸懵逼但亲临现场的雷锋网编辑们,在会场转了一天后,心里终于有了一份清晰的参会小指南。

要听干货——请去Courses和Technical 

12月5号的行程指南里明目众多,但对于真正想学点干货的朋友来说,今天Google,Facebook等大牛的主题演讲都还没开始,去Courses听一下最近的热门课程反而最划算。雷锋网上午在Courses几何深度学习专场听了一上午,感觉跟国内的主题PPT报告类似,都是一群对学术极具热情的主讲者在对着下面一群极具热情的听众讲几何学和当红炸子鸡深度学习的“天书课程”,配上全英文演讲加高难度PPT,一般人去听都是要死掉几万个脑细胞的。不过雷锋网听的时候的旁边正好坐了一个一边听一边看PPT的高质量观众,如此天助雷也,我们便以迅雷不及掩耳之势扒来了这个全套PPT,待全部汉化后可分享给读者们。

当然,搞这行的都知道,除了上面的学术性质课程,图形学和交互技术对工业性质的东西也很重视,所以另一个Technical讲技术的专场也值得一去,雷锋网进去的时候正在讲系统设计和应用的技术分享,不过没从头听到尾,这里就不瞎介绍了。

要看展——请明天

雷锋网跑到三楼的布展厅,英伟达,三星,大疆,uSens等厂商都还在布展, 这让我们不禁想起了上次的IROS 2016——貌似国际学术会议布展一向这么“有耐性”,第一天你跑去看展,那是绝壁没有展可看的,只有布展可以看。

要明白图形学和交互技术的酷炫-请去计算机动画节剧场

百科上,计算机图形学(Computer Graphics,简称CG)被解释为“是一种使用数学算法将二维或三维图形转化为计算机显示器的栅格形式的科学。简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形、以及利用计算机进行图形的计算、处理和显示的相关原理与算法。”

很多人看到这么长串的解释老觉得计算机图形学好抽象,但是你若到计算机动画节的剧场里去身临其境地体验一下,就会发现,动画或者电影图形处理中常用到的建模、渲染、动画,以及进来才开始流行的人机交互都跟计算机图形脱不开关系。

如下面动画截图所示,少年的头发吹起来都是充满了"技术含量"的过程。

百科上,计算机图形学(Computer Graphics,简称CG)被解释为“是一种使用数学算法将二维或三维图形转化为计算机显示器的栅格形式的科学。简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形、以及利用计算机进行图形的计算、处理和显示的相关原理与算法。”

很多人看到这么长串的解释老觉得计算机图形学好抽象,但是你若到计算机动画节的剧场里去身临其境地体验一下,就会发现,动画或者电影图形处理中常用到的建模、渲染、动画,以及进来才开始流行的人机交互都跟计算机图形脱不开关系。

如下面动画截图所示,少年的头发吹起来都是充满了技术含量的过程。

要明白它跟AI有何关系?--请看这里

计算机图形学乍一看跟AI中常提到的计算机视觉貌似有内在关联,下面不妨摆上他们二者的释义看得更清楚。

  • 计算机图形学(Computer Graphics,简称CG)“是一种使用数学算法将二维或三维图形转化为计算机显示器的栅格形式的科学。简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形、以及利用计算机进行图形的计算、处理和显示的相关原理与算法。”

  • 计算机视觉(Computer vision)“是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成更适合人眼观察或进行仪器检测的图像。”

根据现场一位中大的老师向雷锋网介绍,这两者在很多地方的概念其实是相通的,不过两者间的细微差别可以看下已有的过来人的分析。比如这样的http://blog.csdn.net/hanlin_tan/article/details/50447895

要更大的高潮?

看似平凡的今天,其实雷锋网在会场干了很多事,比如认真地听PPT嘉宾的学术演讲内容,比如饭后去采访室采访大会主席,比如去抓拍计算机动画节的某一帧,这些都会在我们稍后的文中展示出来。而我们这么着急让自己进入状态的背后, 是为了更好地应对高潮般的明天:Google演讲在明天,Facebook演讲在明天,主题演讲在明天,还有更多更好玩的事情都极有可能在明天……

雷锋网

手把手教你做无人驾驶汽车

雷锋网按:作者夹子,汽车行业资深从业者,微信公众号ID: Roboticists。本文主要从五个子模块:传感器、感知、定位、规划、控制,来分解无人驾驶系统。

无人驾驶已走过一甲子

看到这个标题读者可能会感到疑惑,自动驾驶不是时下最新潮的技术吗?为什么会说自动驾驶已有60年历史呢?其实早在1950年代,通过在道路正下方埋设磁铁,车辆就可以沿着磁轨迹在高速公路上进行自动驾驶。这项技术如今在飞思卡尔杯智能车比赛中成为了一个组别,感兴趣的读者可以查阅相关视频资料。现实道路中,这项技术也仍旧在使用:一些自动驾驶测试场通过在地面上铺设磁钉实现对车辆进行厘米级的定位。

图片来源:A Boy’s Life Magazine 1956

而今天的无人驾驶系统(从2003年DARPA挑战赛之后开始的无人驾驶系统),与当时的无人驾驶系统最大的区别在于,今天的无人驾驶系统脱离了对辅助设施的必须依赖。可以说,当前的无人驾驶研究的重点更倾向于如何让车辆独立地理解这个世界,并以此为依据来对车辆进行控制。进一步说,无人驾驶汽车对世界理解的程度,决定了该无人驾驶系统先进的程度。

当前在售的自动驾驶系统

如今很多的车辆开始配备带有辅助驾驶功能的汽车,顶配车辆不带辅助系统似乎就与其他品牌差了一截,含高级辅助驾驶功能的在售车型长长的名单里都是我们熟知的大厂。今天在售的系统在传感器方面的主流配置为:单目或双目的图像传感器+前向长距离毫米波雷达。达到的功能为单车道的自适应辅助驾驶,包括纵向——自动控制与前车的距离,横向——车道保持。但究竟这些系统是如何构建的?我们一般都只能从一些只字片语中得到一些信息,比如这一代宝马新7系的系统构架图如下:

BMW G12 Active Driving Assistant Plus wiring diagram

这张复杂的系统连接图中,可以看到BMW使用了包括CAN,FlexRay,LIN,以太网在内的多种总线技术,系统包含了十余个逻辑控制器,复杂程度令人惊叹。而具体在如KAFAS中的控制逻辑是什么样的,我们是不知道的。不过笔者也实际测试过宝马新7系的辅助驾驶功能,综合而言,距离特斯拉的Autopilot还有一定距离。在这一行业,所有汽车公司都把这一块当作核心的商业秘密,正在分头进行紧锣密鼓地研发。但在笔者眼中,这些系统必定具有几大核心的模块,只要通过对这些模块的分别研发和系统集成,最后可以产生一个统一的自动驾驶系统。

无人驾驶系统的分解

现代无人驾驶系统看似复杂,但终究是可以分割为多个离散系统的。笔者认为可以分为如下五个子模块:传感器、感知、定位、规划、控制。

1.传感器:整个系统的输入,包括了为自动驾驶设计的传感器,例如摄像头与毫米波雷达;以及车身上已有的传感器,例如超声波传感器以及GPS。传感器的本质是将物理世界的信息转换为电信号。

特斯拉Autopilot 2.0传感器配置

2.感知:负责计算车辆周围物体的语义信息。感知模块的加入,是这一代自动驾驶系统与以往最大的区别。该模块负责许多信息的获取,包括,前车的距离,前方红绿灯的指示,限速标志上的数字,车道线的曲率,等等。车辆对周边环境的感知水平,决定了自动驾驶系统先进的程度。

基于图像的语义分割结果示例:如图中紫色代表道路,绿色代表行人

3.定位:定位主要有两个作用,一个是为了弥补GPS精度不足导致的输入误差过大,通过定位模块计算得到厘米级别的定位。第二个,是为了使车辆获取超过当前传感器感知范围的信息,包括长距离地图路网信息,超视距前方车流信息等。将第二点归于此,是因为定位模块与地图息息相关。

基于LiDAR的激光点云配准结果

4.规划:规划问题一般分为多层次的规划来讨论。我们平时使用的导航软件,称为一次规划,得到从A点到B点的路网行驶规划路径。其后还有二次、三次规划(甚至更深层次的规划)。

Mobileye Holistic Path Planning(HPP)输出结果,即为局部规划结果

5.控制:最后,系统将得到的信息归于控制输出,其主要作用是与汽车的底盘系统打交道,将控制指令通过X-by-wire,即线控接口输出。

其他的,还有数据记录模块,安全相关模块以及电源管理模块等辅助子系统。

无人驾驶的开源实现

前面说的都是纸上谈本,而《手把手》系列当然不会浮于表面。自《手把手(二)》写完已经过了若干个月,而今终于有了可以详细剖析的开源项目:就在前日,George Hotz决定开源自己的自动驾驶系统(当然不是全部,后文会讲到)。本篇中,笔者将对该系统进行粗略的分析,从系统构架的角度对其进行介绍。

计划卖999美元的comma one自动驾驶套件

首先,必须介绍一下该开源项目的背景。出于对George Hotz的产品的安全性的怀疑,NHTSA(国家高速公路交通安全管理局)希望George Hotz配合他们的安全性评估,但被小哥拒绝了。而后George Hotz一个冲动就把他的Openpilot开源了(当然最核心的并没有)。其本人在Openpilot/README.md中称,这套系统应与特斯拉的Autopilot性能相当,并超越所有其他的竞争对手,注意是所有的。笔者虽然没有乘坐过那辆Acura ILX,但就代码而言,大部分前文所叙述的子系统,在该系统中都有相应的模块与之对应,系统构架如下:

Comma One 系统构架

传感器:sensord模块 radard模块

使用了原车的GPS,前向毫米波雷达,而并未使用超声波传感器。摄像头使用手机自带的摄像头(效果不做评论)。

感知:visiond模块(binary)

使用了从输入图像直接输出控制路径点链的深度学习方法,其数据通过之前的驾驶行为中得到。应该称其为一种类端到端的感知方法,即不去理解周围其他物体的语义信息,而直接通过学习的方法,从图像得到行驶的规划轨迹。不过从George Hotz的博客上也看到,其正在做一些语义分割的实验,也许将来这块会有所变化。但由于这个模块为二进制程序,笔者只能进行一些猜测。

定位:

规划:与visiond结合在一起

comma one轨迹规划输出结果(紫色)

控制:controlsd模块

其他:loggerd模块 calibrationd模块

整套系统使用socket接口作为进程间通信,采用C与python混写的形式。看了代码虽然注释不多,但变量名函数名还算比较清晰。整套系统没有定位模块,通过感知得到的车道(或者说规划轨迹)信息,直接对车辆进行控制。也就是说整个系统是一个以visiond模块为核心的控制系统,这与上文笔者的结论相似。在如今的自动驾驶系统中,感知模块成为了系统的核心。这也就是Mobileye那么强势的原因,也是George Hotz自信的来源。

总结

从沿着磁轨迹行驶的小车到现代的无人驾驶系统,我们认为新的系统并不是一种进化而来的系统。就像自行车与摩托车的关系一样,现代的无人驾驶系统拥有以往系统中没有的重要子模块,即感知模块。我们有理由相信,本次自动驾驶技术的爆发,也是由深度学习技术的突飞猛进而形成的。该技术使得计算机更好得理解了世界。从Google到特斯拉,以及George Hotz的Openpilot,无不是以感知模块作为核心技术壁垒所建立起的自动驾驶系统。

注:本文是作者《手把手教你做无人驾驶汽车》系列的第三篇,雷锋网将会持续更新出前两篇,请持续关注。

雷锋网

妙健康:搭载零售4.0模式的移动健康

上周,妙健康与宏图brookstone的第一个健康专区在南京清凉门店正式对外营业。

妙健康是国内知名移动健康管理平台,通过“用户数据接入”、“健康数据分析”、“健康解决方案”“健康行为干预”、和“健康增值服务”五个领域完成对用户的健康管理闭环。妙健康是三胞集团旗下移动健康管理平台,隶属于三胞“新健康”产业模块,今年一季度完成一亿元人民币A轮融资。

宏图Brookstone的前身是宏图三胞,老牌3C传统线下零售企业,在产业改革的大背景下,引入美国著名的零售品牌——Brookstone,把前沿的、新奇特的产品带入中国市场,打造的场景化体验式的全新4.0零售模式。

宏图Brookstone清凉门店的健康专区,是妙健康协同三胞集团旗下零售资源布局线下体验专区的又一个动作。先前妙健康已经协同三胞集团旗下乐语通讯在手机零售门店打造全新的健康体验专区。

所谓零售4.0模式,就是传统零售结合移动互联网,实现产品与消费者之间接触的广度和深度的最大化,通过强化触及深度和互动性来提升消费体验的全新零售模式。

无论是乐语通讯的健康专区还是在宏图Brookstone的健康专区,妙健康正在结合零售4.0的全新理念,通过线下体验式营销以及线上的游戏化健康管理扩大与消费者接触的深度并且通过娱乐化的互动管理为消费者提供更好的健康管理服务。

三胞集团的零售板块拥有遍布全国26个省300个城市遍布超过3000家零售门店。妙健康正在加快推进与集团零售板块的深入合作,将健康专区全面覆盖集团旗下的大部分零售门店,打造线上线下联合的移动健康管理新平台。


雷锋网

预告:解构区块链:它将如何颠覆保险业? | 硬创公开课

随着某些领域的应用陆续浮出,区块链技术的发展又有了新的进展。但本行业的许多细节并未为社区外的人有较多的了解,包括开发进展和应用情况。这一期公开课,雷锋网邀请到众安保险旗下众安科技CTO李雪峰来开讲,敬请期待!

本次公开课内容将包括但不限于:

1、整个金融领域的区块链应用场景来说,主要是应用了区块链的哪些技术?

2、这项技术对保险经济的价值和好处体现在哪里?

3、区块链开发技术发展现状是怎样的?

4、有哪些区块链的特性和优势是已经可以实现的,哪些是还不能实现的?为什么?

嘉宾简介:

李雪峰,众安科技CTO,曾就职于摩根大通、亚马逊、东南融通、阿里巴巴,英属哥伦比亚大学计算机软件、金融学和工商管理硕士。

活动详情:

12月6日19:00  

主题:《解构区块链:它将如何颠覆保险业?》

报名方式:

扫描下方海报上的二维码,关注“AI金融评论”公众账号后,在菜单里点击“公开课”添加管理员,通报姓名、公司、职位、联系方式,并分享海报到朋友圈、截图发给管理员,审核通过后即可进群。(金融科技从业者或实践者优先。)

雷锋网

Amazon开放Polly和Lex,为何语音交互技术的迭代如此之快?| 深度

雷锋网按:本文作者陈孝良,工学博士,声智科技创始人。雷锋网独家文章。

11月30号,亚马逊的AWS发布了三项人工智能技术服务:Amazon Rekognition,Amazon Polly和Amazon Lex。其中,除了Amazon Rekognition属于图像识别技术,其他两项服务都是语音交互的链条。Amazon Polly 利用机器学习技术,能够快速实现从文本到语音的转换。Amazon Lex 就是亚马逊的人工智能助手 Alexa 的内核,而 Alexa 已经被应用于亚马逊的 Echo 系列智能音箱。

根据AWS服务网页的示例展示和实际调用,Polly 的发音与人声已经非常相像,很多时候已经很难分辨机器与人声的界限。不仅如此,Polly 还能够按照语境对同形异义词的发音进行区分,比如说,在 “I live in Seattle” 和 “Live from New York” 这两个不同的语境下,单词 “Live” 的发音是不同的,而 Polly 在发音过程中就能够很好把握它们之间的区别。Amazon Polly 共拥有 47 种男性或女性的发音,支持 24 种语言,遗憾的是目前还不支持汉语

相对Amazon的节奏,Google似乎慢了许多,早在9月初,Google的DeepMind实验室公布了其在语音合成领域的最新成果WaveNet,一种原始音频波形深度生成模型,能够模仿人类的声音,生成的原始音频质量优于目前常用的语音合成方法,包括参数化合成(Parameric TTS)与拼接式合成(Concatenative TTS)。

参数化语音合成是最常用也是历史最悠久的方法,就是利用数学模型对已知的声音进行排列、组装成词语或句子来重新创造声音数据。当前机器人的发音主要就是采用的这种方法,不过参数化合成的语音听起来总是不自然,真的就像机器发出的声音。

另外一种就是拼接式语音合成,先录制单一说话者的大量语音片段,建立一个大型语料库,然后简单地从中进行选择并合成完整的大段音频、词语和句子。我们有时会听到机器模仿某些明星的声音,其背后技术就是这种方法。但是这种方法要求语料库非常大,而且处理不好就经常产生语音毛刺和语调的诡异变化,并且无法调整语音的抑扬顿挫。

WaveNet则引入了一种全新的思路,区别于上面两种方法,这是一种从零开始创造整个音频波形输出的技术。WaveNet利用真实的人类声音剪辑和相应的语言、语音特征来训练其卷积神经网络,让其能够辨别语音和语言的模式。WaveNet的效果是惊人的,其输出的音频明显更接近自然人声。

WaveNet技术无疑是计算机语音合成领域的一大突破,在业界也引起了广泛讨论。但是其最大缺点就是计算量太大,而且还存在很多工程化问题。但是短短3个多月,亚马逊就已经凭借Echo的数据和技术的快速迭代,抢先将类似的技术应用到产品之中,而且正式开放给AWS用户进行使用和测试。

更为重要的是,亚马逊同步正式开放了Amazon Lex的服务,Lex 能够帮助用户建立可以进行多重步骤的会话应用,开发者可以通过它来打造自己的聊天机器人,并将其集成到自己开发的 Web 网页应用或适用于移动端的 App 中去。它也可以被应用于提供信息、增强程序功能,甚至用来控制无人机、机器人或玩具等。

这就很有意思了,从下面一张语音交互的技术链条来梳理一下亚马逊的策略。亚马逊首先从语音识别公司 Nuance 挖了一批人才,2011年又收购了两家语音技术创业公司 Yap 和 Evi,实现了语音识别的技术布局。随后启动了适应远场语音交互Echo产品的研发工作,并在2015年和2016年成为了最成功的智能硬件产品。Echo产品帮助亚马逊实现了以麦克风阵列为核心技术的硬件终端技术的布局。这两项技术的布局积累,帮助亚马逊快速发展,其语音助手团队快速拓展到千人规模,凭借庞大的数据和深厚的人才积累,亚马逊在智能交互领域持续发力,拥有更好体验的TTS和NLP也实现了快速迭代,奠定了亚马逊在智能语音交互应用领域的领先地位。

事实上,从今年下半年语音交互市场的突然爆发,几乎每隔一个多月,语音交互的效果都会出现较大的提升。那么为何语音交互技术的迭代会如此迅速?可以从下面几点来窥得一斑:

1、  语音交互技术链条的成熟

深度学习带给了语音识别巨大的进步,但是以Siri为代表的手机语音交互一直不温不火,直到Echo和车载这类智能设备的出现,语音识别才突破手机的限制,真正落地到真实的垂直场景。这个转变不仅仅是场景的转变如此简单,实际上这从认知和技术上都是一个巨大的变化。真实场景的语音识别面向的是真正用户,因此能否满足用户需求就是一个关键问题。当前的用户对于人工智能的要求其实并不高,而是希望确实能够解决一些具体问题,但是显然通用的语音交互总是伴随着智慧的概念,根本就无法做到令用户满意。因此语音交互的落地首先就要考虑是否能够先服务好用户,这是一个关键的认知变化,而且基于这种认知,语音交互的免费策略似乎就不重要了,用户更为关注的是性能而非低价。另外一点就是技术链条的成熟,语音识别从手机转向垂直场景,需要解决远场语音识别和场景语言理解的问题,亚马逊率先解决了这些问题,国内科大讯飞和声智科技也随后补齐了这个链条。目前来看,智能语音交互的技术链条趋于成熟,已经不存在较大的障碍。

2、  真实场景数据规模的扩大

随着Echo的热卖,对于场景交互尤为重要的真实数据急剧增加,原先训练可能只有几千或者几万个小时,但是亚马逊已经从已售设备中获取了几千万的数据,而当前的训练已经是十万级数据的规模,将来百万级的数据训练也会出现。事实上,这些庞大的数据中囊括了用户时间长度和空间维度的信息,这是手机时代绝对做不到的,从这些丰富信息之中,即便简单搜索提升的效果都是惊人的。

3、  云端计算能力的不断提高

拥有了庞大的数据量,自然就急需要计算能力的不断提升,前几天Intel召开发布会,雷锋网现场也做了直播,CPU和GPU的综合计算能力再次提升了20多倍,这相当于原先需要训练20天的数据,现在可能不到1天就能完成,这是语音交互产业链条的根本性保证。

4、  深度学习人才聚集的效应

技术、数据、计算链条的相对完善,核心还需要人才的驱动,而随着人工智能的热潮,不断有更多相关人才从科院机构和院校走出来加入这个行业。创业公司的竞争是可怕的,这群大牛才华横溢,却没日没夜的拼搏,其效率提升到其他任何时代可能都难以匹及的程度。

总之,智能语音交互这个链条已经具备了大规模普及的基础,等待的只是用户习惯的改变,而这种改变正在逐步发生。可预见的几年,语音交互应该相对于其他人工智能技术,应该是最先落地的一种技术,而且其迭代的速度可能会超过我们的预期。但是语音交互仍然还有很多问题需要解决,包括终端技术的低功耗和集成化、语音识别的场景化和一体化,以及语言理解的准确性和引导性。

未来几年,智能语音交互的迭代至少还要解决如下几个问题:

  • 一是如何基于用户提出的多种多样的、基于情感的、语意模糊的需求进行深刻分析,精确理解用户的实际需求;

  • 二是如何将各种结构化、非结构化、半结构化的知识进行组织与梳理,最终以结构化、清晰化的知识形式完整地呈现给用户;

  • 三是如何猜测用户可能会有什么未想到、未提出的需求,从而先人一步为用户提供相关的扩展信息;

  • 四是如何将信息进行有效地组织与整理,以条理化、简洁化、直接化的形式呈现给用户。

谈及最后一个问题,又不得不说下亚马逊Echo为何要考虑加个7寸屏了,这虽然会使Echo的品类属性减弱,但是在AR还没有发展起来之前,确实也没有更好的办法。毕竟Echo缺少一个使得人机交互更完整的重要的组件——视觉交互,没有用户界面或上下文元素的基于语音交互的系统是不完整。用户可以通过聊天的方式来播放音乐、定时、控制灯光,获得新闻头条,然而当用户在线订单想比较一下两种产品的价格,各种性能参数,或者想看一下未来一周天气预报的温度趋势,用户目前来说还是需要一块屏。正是基于这种考虑,声智科技提供的智能音箱解决方案中,恰好有一个型号也是搭配了7寸显示屏。

雷锋网

宝马宣布明年在慕尼黑测试40辆自动驾驶汽车,与打车服务结合

随着 Uber 等分享出行公司的兴起,宝马在这一领域也不断发力

前不久,宝马宣布将 BMW i Ventures 投资基金增加至 5 亿欧元来推动无人驾驶相关技术的研发。此前宝马也曾表示希望能在 2021 年推出无人驾驶汽车。

据路透社报道,近日宝马官方又宣布了一条自动驾驶相关的消息。该公司高管表示,宝马将于明年在德国慕尼黑市区测试 40 辆配有自动驾驶功能的汽车,未来这一项目还会拓展到更多城市。宝马负责自动驾驶业务的副总裁 Klaus Buettner 介绍:“测试的每辆汽车都将配备受过专业培训的司机。”

此外,Uber 的快速发展也促使宝马开始思考如何利用自动驾驶汽车加速公司进军付费出行市场的步伐。

譬如 Lyft、Juno 和 Uber 等拼车软件和科技公司正在试图变革传统汽车行业的商业模式——销售汽车。这些公司认为,人们在未来不必再拥有一辆汽车,而是在需要使用汽车时使用一些打车应用叫来汽车就可以了。

如今越来越多的传统汽车公司也在发展共享出行业务,同时投资无人驾驶技术的研发。事实上,宝马已经在分享出行领域取得了一些进展。该公司在西雅图推出了按使用时间(分钟)付费的服务 ReachNow。据宝马出行服务战略的总负责人Tony Douglas 透露:“在四天的时间内,就有 1.4 万人注册 ReachNow。虽然这个市场已经有 Zipcar、Uber、Lyft 和 Car2go 等等先行者率先投入了资金和技术,但我们也带来了一款很酷的产品。我们也许不会是规模最大的公司,但会是最酷的公司。”

宝马的优势不只是在于生产高端汽车的专业性,也在于管理自主高端汽车车队的能力。

宝马 CEO Herald Krueger 在接受采访时表示:“ Uber 和 Lyft 并没有经营自己品牌的车队。拥有自主车队意味着你可以提供 Lyft 和其他共享出行公司无法提供的服务,比如面向某一特定人群提供汽车分享服务。”

Via reuters

【招聘】雷锋网坚持在人工智能、无人驾驶、VR/AR、Fintech、未来医疗等领域第一时间提供海外科技动态与资讯。我们需要若干关注国际新闻、具有一定的科技新闻选题能力,翻译及写作能力优良的外翻编辑加入。工作地点深圳。简历投递至 guoyixin@leiphone.com 。

相关阅读:

传统车企都在加快自动驾驶研发,英特尔也不甘落后 | 新智驾周刊

苹果寻求自动驾驶汽车平等路测权,但是否造车仍旧是个疑问

自动驾驶“马拉松”,这些初创公司凭什么赢在起跑线∣盘点

雷锋网