标签归档:Google

谷歌AI大一统,Google Research 升级为 Google AI

额,是我来错网站了吗?往常一样打开 Google Research Blog 的大家一脸疑惑看着网站左上角的新 logo+Google AI Blog,但我明明打开的是 Google Research Blog 啊。

谷歌也知道大家定会这样疑惑,就干脆在这篇《Introducing Google AI》的开头「调皮」了一番。

以下是谷歌昨日在原 Google Research Blog(现 Google AI Blog)发布的这篇《Introducing Google AI》内容,雷锋网 AI 科技将其内容编译如下。

在过去的几年里,谷歌一直未忘记「让 AI 为所有人可用」的承诺并为此进行了不少研究。从计算机视觉到医疗研究再到自动化的机器学习(AutoML),谷歌一直在将机器学习技术应用到可以在谷歌实现的几乎所有的事情上去。谷歌针对AI的研究已经深入到了自家产品以及平台系统的方方面面。

 

为了更好地响应「让 AI 为所有人可用」的这一承诺,谷歌决定将自家所有的努力成果都汇聚至Google AI下,包括在谷歌正在诞生的所有前沿研究。另外,谷歌还基于原 Google Research 网站对 Google AI 网站(https://ai.google/)进行了扩展,并重新命名了原 Google Research Blog channel,其中包括 blog 和相关联的 Twitter 以及 Google+channel。但你也不用因此感到苦恼,因为你想要寻找的原来存在于 research.google.com 或相关联的社交 channel 上信息还是在老地方。所有曾经链向原 Google Research 网站内容、博文或者推文的链接依旧有效。

Google AI channel 也将会继续展示 Google 研究、创新以及应用,除此之外还有不少令人激动的新内容到来。谷歌激励你进行探索!谷歌期待继续将 AI 以及其它各个研究领域的最新研究更新和成果带给你。

via Google AI,雷锋网 AI 科技评论编译。

雷锋网

Google 和 Nvidia 强强联手,带来优化版 TensorFlow 1.7


雷锋网 AI 研习社按,日前,谷歌和英伟达宣布将 NVIDIA TensorRT 集成到 TensorFlow 1.7 中。在谷歌开发者博客中,他们介绍了此次合作的详细信息以及整合之后的性能,雷锋网 AI 研习社编译整理如下:

TensorRT 是一个可以用于优化深度学习模型,以进行推理,并为生产环境中的 GPU 创建运行环境的库。它能优化 TensorFlow 中的 FP16 浮点数和 INT8 整型数,并能自动选择针对特定平台的内核,以最大化吞吐量,并最大限度的降低 GPU 推理期间的延迟。全新的集成工作流程简化了在 TensorFlow 中使用 TensorRT 的步骤,同时使得 TensorFlow 达到了世界一流的性能水平。

经测试,在 NVIDIA Volta Tensor 核心上,集成了 TensorRT 的 TensorFlow 运行 ResNet-50 比没有集成 TensorRT 的 TensorFlow 执行速度提高了 8 倍。

优化 TensorFlow 中的子图

在 TensorFlow 1.7 中,TensorRT 可以用于优化子图,而 TensorFlow 执行其余未优化的部分。这个方法使得开发者既能够使用 TensorFlow 的众多功能来快速构建模型,同时也可以在执行推理时使用 TensorRT 获得强大的优化能力。如果你尝试过在之前的 TensorFlow 模型中使用 TensorRT,你应该知道,要想使用某些不受支持的 TensorFlow 层,必须手动导入,这在某些情况下可能会耗费大量时间。

从工作流程的角度来看,开发者可以使用 TensorRT 来优化 TensorFlow 的每个子图。

在推断过程中,TensorFlow 先将执行所有支持区域的图,之后调用 TensorRT 去执行那些经过 TensorRT 优化过的节点。举个例子,如果你的图包含 A,B,C 三段,其中 B 段被 TensorRT 优化过,B 将被一个节点代替。那么在推理过程中,TensorFlow 将先执行 A,之后调用 TensorRT 执行 B,最后 TensorFlow 执行 C。

这个用于优化 TensorRT 的新加入的 TensorFlow API,以冻结的 TensorFlow 图为输入,针对该子图进行优化,最后将优化过的推理子图发送回 TensorFlow 中。

下面为一段示例代码:

# Reserve memory for TensorRT inference engine

gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction = number_between_0_and_1)

… 

trt_graph = trt.create_inference_graph(

                 input_graph_def = frozen_graph_def,

                 outputs = output_node_name,

                 max_batch_size=batch_size,

                 max_workspace_size_bytes=workspace_size,

                 precision_mode=precision)  # Get optimized graph

per_process_gpu_memory_fraction 这个参数定义了 TensorFlow 允许使用的 GPU 显存的比例,剩余的显存将分配给 TensorRT。这个参数应该在 TensorFlow-TensorRT 进程第一次启动的时候设定好。比如,per_process_gpu_fraction=0.67,那么 67% 的显存会被分配给 TensorFlow,其余的 33% 会被分配给 TensorRT 引擎。

Create_inference_graph 函数将冻结住的 TensorFlow 图作为输入,返回一个经过 TensorRT 节点优化过的图。我们看看这个函数的参数:

  • Input_graph_def:冻结住的 TensorFlow 图

  • Outputs:输出节点名字的字符串列表,比如:[“resnet_v1_50/predictions/Resape_1”]

  • Max_batch_size:整数,输入的 batch size,比如,16

  • Max_workspace_size_bytes:整数,能分配给 TensorRT 的最大 GPU 显存大小

  • Precision_mode:字符串,可选的值为「FP32」, 「FP16」, 「INT8」

举个例子,如果 GPU 有 12GB 显存,想要给 TensorRT 引擎分配 4GB 显存,那么应该设置 per_process_gpu_memory_fraction 为(12-4)/12=0.67,max_workspace_size_bytes=4,000,000,000.

我们来试着将这个新的 API 应用在 ResNet-50 上,看看经过优化后的模型在 TensorBoard 中看起来是什么样的。左侧的图像是没有经过 TensorRT 优化的 ResNet-50,右侧是经过优化的。在这个设定下,大部分图被 TensorRT 优化,并用一个单一节点代替了(图中高亮部分)。

经过优化的INT8推理性能

TensorRT 兼容单精度(FP32)和半精度(FP16)训练的模型(也可以将它们量化为 INT8),同时能尽可能减少由精度降低而导致的准确率降低。INT8 模型能够更快的计算,同时对带宽的需求也会降低,但是因为可用的动态范围降低了,这也对神经网络的权重和激活表示提出了很大的挑战。

为了解决这个问题,TensorRT 使用了一个校正过程,以尽可能减小将 FP32 网络近似成 8-bit 整型表示时的信息损失。在使用 TensorRT 优化 TensorFlow 图之后,可以使用下面的命令将图传递给 TensorRT 进行校准,如下:

trt_graph=trt.calib_graph_to_infer_graph(calibGraph)

除此之外的网络推理流程都没有变化。这一步的输出为一个可以被 TensorFlow 执行的冻结图。

在NVIDIA Volta GPU上自动使用Tensor核心

在 NVIDIA Volta GPU 的 Tensor 核心上通过 TensorRT 进行半精度 TensorFlow 模型推理,能够提供相较于单精度模型八倍的吞吐量。相较于更高精度的 FP32 或者 FP64,半精度数据(FP16)能够减少神经网络的显存使用量,这使得开发者能够训练和部署更大规模的神经网络,同时 FP16 相比 FP32 和 FP64 有更少的传输时间。

如果每个 Tensor 核心执行的是 D=A*B+C,其中 A 和 B 为半精度 4*4 矩阵,D 和 C 是单精度或者半精度 4*4 矩阵,那么 V100 上此时 Tensor 核心的峰值性能是双精度(FP64)性能的 10 倍,是单精度(FP32)性能的 4 倍。

Google 目前已经发布了 TensorFlow 1.7,同时也将跟 NVIDIA 更紧密地合作。希望这个新的解决方案额能够在提供最强性能的同时,保持 TensorFlow 的易用性和灵活性。随着 TensorRT 支持越来越多的网络结构,大家只要更新就可以享受到这些好处,而无须改写代码。

使用标准pip install即可更新到 TensorFlow 1.7:

pip install tensorflow-gpu r1.7

详细的安装说明可在下面找到:

https://github.com/tensorflow/tensorflow/tree/r1.7/tensorflow/contrib/tensorrt

via: Google Develop Blog

雷锋网 AI 研习社编译整理。

雷锋网

AI 相机 Google Clips 正式开卖,首批尝鲜者有这些使用体验

雷锋网按:去年 10 月,Google 在其发布会上推出了一款名为 Google Clips 的 AI 微型照相机,售价 249 美元。这款小巧的产品面向家庭场景,在功能上主要集成了机器学习技术,可对场景中的人物、宠物、环境等画面进行识别和分析,能够让摄像头发现适合拍摄的画面时进行自动拍摄。今天,这款 AI 相机正式对外开始售卖,科技媒体 9to5Google 整理了外媒对该产品的评测体验,雷锋网对此进行了编译。

今天 Google Clips 相机的第一批评论已然浮出水面,人们对此提供了各种各样的评论,总体而言,Google Clips 目前还处于萌芽阶段。

首先,Clips 的硬件部分非常简洁,作为一款相机很多人表示它很容易就能被发现。除了那些涉及隐私的问题之外,The Verge 评论指出,它提高了人们不喜欢被拍照或者直接摆出姿势拍照的机会:

我发现人们立即看出它是一台相机,并对其作出反应。这可能意味着当人们看到它时会因此而避开,或者像我三岁的孩子一样,走到它面前微笑或直接拿起它。这使得捕捉到自然的镜头变得非常困难,因为为了让 Clips 真正发挥它的作用,它需要接近目标。也许随着时间的推移,家人会慢慢忽视它,那些随意的镜头可能会出现,但在我几星期的测试中,他们并没有适应这款相机的存在。

同时,在实际应用中,评价者们很快发现相机需要有比 Google 介绍更多的操作功能。 TIME 有评价称: 

我最大的困难是与正确的构图拍摄有关。由于 Clips 最适合拍摄距离 3 到 8 英尺的拍摄对象,因此我需要找到足以接近宠物的桌子,使得相机可以固定在正确的角度。 

Google 反驳了这样这种说法,认为 Clips 是一个“设置好即忘记”的设备。但与此同时,对相机所需要做出的调整也暴露了拍照质量的问题,The Verge 的评论中突出强调:

该相机的超广角视野(它捕捉类似于全画幅数码单反相机的 10mm 镜头所看到的东西),可以很容易进行定位,并且确保你在画幅内获得某些东西,但对人物肖像来说比较糟糕,因为它会以不美观的方式扭曲脸部轮廓。同样地,任何接近画幅边缘的事物都会被很大程度上进行扭曲。为了避免拍摄对象在获取的图像中很小,它们必须位于相机大约 10 英尺的范围内,但是 Clips 定焦镜头的范围大约为 3 英尺到无限远,所以其范围内的主体看起来也并不会很锐利。 

就捕获珍贵的镜头而言,各方反应褒贬不一。 Wired 的评论者可能用设备捕捉到了精彩画面。

它擅长感应宠物的活动。我把它朝向我的猫,并试图让猫玩羽绒玩具。我把玩具围在它头上晃了整整一分钟,而它不为所动,然后它终于拿起诱饵。当我打开手机时,唯一保存的拍摄镜头就是它扑到玩具上的时刻,那非常完美。

正如 USA Today 所评价的那样:

一旦开启,相机拍摄了许多图像,大多数毫无缘由。它会定期自动捕获,大多数都很糟糕,有些也很棒,而且非常受欢迎,特别是我朋友的 4 岁女儿笑着跳起来的镜头。 

但是,正如 TechCrunch 指出的那样,Clips 不是完美的,需要很多的人为辅助,而这不是人们所设想的人工智能产品。

Clips 大多时候能捕捉重要时刻,但这并不完美,实际上还需要一些旧式的人性化策略。而且有一点不好的地方在于你最终只能获得相机最终捕捉的一小部分图像。

这些评论者们当然也有共识,那就是 Google Clips 最终还是可以拍摄出好照片的,但这需要时间、训练以及所需要的习惯上的改变。关于习惯上的改变,ZDNet 上很多以家长为中心的评论指出了 Clips 拍摄出好照片的例子,这也让人们更加相信 AI。

前几次使用它时,我发现自己不断进入 Clips 应用并查看所拍摄的内容,然后尝试调整位置或使用快门按钮强制拍摄照片。 

直到一场篮球比赛之后,当我回顾它所捕获的各个时刻之后,我意识到我需要放手并相信短片。我现在有我女儿的防守和抢篮板的 GIF 图片,我一直坐着观看比赛,但没有拿到手机拍照(或查看短片)。 

然而,The Verge 的评论不认为它的这些用处能掩盖硬件局限性。

我相信我可以通过练习更好地使用 Clips——提高更好地了解它的超广视野,找到最佳角度和位置等等 – 但我不相信所付出的努力会获得更好的结果。

Google 倾向于说人工智能处于“早期阶段”。Engadget 则恰当地对 Clips 进行了这样的总结:即使在珍贵瞬间发生时 Clips 已经设置并打开了,但还是不能保证它会捕获到图像。 在这一点上,只有上帝和谷歌知道人工智能会捕捉到何种图像,而且你必须忍受这种不可预测性。

与此同时,“早期”的说法也可以适用于这项新技术的使用者们。 而当 Clips 的 AI 获得改进和训练,以及消费者有机会熟悉依赖这个小工具记录珍贵时刻的行为后,重新审视使用情况将会变得十分有趣。

相关文章推荐阅读:

《谷歌 AI 相机 Clips 现开放预购,但出货还得等上一个月》

《这个在 Google 发布会上最不起眼的硬件,却是与 AI 走得最近的》

雷锋网注:题图来源于 Wired

雷锋网

Google AI:如何破解AI学术研究的赢者诅咒?

「赢者诅咒」:赢得拍卖品的中标者出价高于其他竞标者,但他很可能对拍卖品估价过高,支付了超过其价值的价格,从而赢得的拍卖品的收益会低于正常收益甚至为负。换句话说,就是当你一心想要赢得竞标时,却偏离了你原本的目的。

雷锋网 AI 科技评论按:当我们为各种测评任务中取得的分数欢欣鼓舞时,可能我们已经受到了「赢者诅咒」。

机器学习领域在过去的十年时间里取得了非常了不起的进步。从机器翻译,到语言理解,到计算机视觉,到自动驾驶,到 AlphaGo,到电子游戏(例如 DOTA)等等。

这一系列的快速进步背后最大的推力可能就是,学术研究领域越来越强调所谓的「win」文化:新发表的方法必须在某个给定的任务或基线上超过之前别的方法。这意味着我们已经把学术社区逐渐变成了一个有着明确判定输赢的场地。

反思一下,科学的目的不是为了胜利,而是为了知识。

因此,当我们不断在各种测评中取得越来越高的分数时,或许是时候该警惕了:我们已经受到「赢者诅咒」。

雷锋网注意到,近期来自 Google AI 的 D. Sculley, Jasper Snoek, Ali Rahimi, Alex Wiltschko 在 OpenReview.net 上提交的一篇文章《Winner's Curse? on Pace, Progress, and Empirical Rigor》[1] 给我们明确指出了这点,作者认为实证严谨(empirical rigor)对于现在的 AI 学术社区变得越来越重要,他们针对当前的问题给出了一些颇具革命性的建议。

[1]雷锋网注:这篇文章是提交给ICLR 2018的workshop track的。

最近一年的重点案例研究

如果回顾一下过去一年的论文,就会发现一个明显的趋势(许多研究组从不同的角度做出了相同的发现):由于当前快速发展的研究工作大多只是简单的调整参数或者进行消融研究(ablation studies)[2],我们错过了许多可能的改进或深度的见解。下面是过去一年中几个研究组的一些发现:

[2] 注:消融研究,通常是指去除模型或算法的某些“特征”,并查看这会如何影响性能。例如你提出了某个结构,若想确定这个结构是否有利于最终的效果,就要将去掉该结构的网络与加上该结构的网络所得到的结果进行对比。

  • Lucic et al.(2017) 对 GAN 的近期创新工作进行了大规模实证比较。一个主要发现是,最近的大多数方法经过足够的超参优化后都能够达到相似的分数。

  • Henderson et al.(2017) 表明,他们只需要对基线 LSTM 进行更好的超参调整,就可以超过一系列最新的 seq2seq 学习方法的表现,在比较热门的 Penn Treebank 数据集上获得最优的性能。

  • Vaswani et al. (2017) 极好地进行了使用 attention 的独特编-解码器风格网络(exotic encoder-decoder style networks)的消融研究,它表明只需要加上 attention 模块,你就能获得更好的表现。

  • Rikelme et al. (2018) 对贝叶斯深度神经网络中使用近似推理进行决策的各种近期的方法进行了比较。他们发现,在决策任务中许多最近提出的方法都只是在努力超越基线。

  • Henderson et al. (2017) 评估了深度强化学习的可重复性,他们发现近期的工作在同一个任务的不同的基线上模型会有显著的变异。

以上这几例研究说明了一个问题,即如果这些领域采用更高水平的实证严谨,那么那些看似在快速发展的研究可能要比它看起来的样子慢得多。

诱因和现状

从目前的情况来看,诱使机器学习研究急剧增长的原因可能有以下几点:

  • 公开可用的数据集增多,例如 Kaggle 上现在已经拥有了超过 10000 个公共数据集。

  • 计算的成本降低,并且伴有大量如云计算这样的大型计算资源;

  • 在该领域工作的研究人员数量剧增,这为大规模合作创造了机会;

  • TensorFlow、PyTorch 等开源 ML 平台的兴起,以及由此带来的开源代码和模型的普及。

这些因素是否真的能给 ML 的研究带来真正有用的结果,可能需要历史来告诉我们了。从表面上看,这些因素本来应该促进更加强健的实证工作的,但实际情况却朝着相反的方向走去。

  • 理想情况下,处理真实数据的目的是为了调整和检查算法在各种抽样分布下的行为,以便了解算法的优缺点。但现在实证研究已经变成了一个纯粹为了「win」(而不是为了深入研究和理解)而进行的挑战赛。

  • 计算的价格虽然在不断的降低,但也是相对的。大型的研究组(通常是企业)可能拥有更多的资源,而个人研究者可能就会受到比较大的压力。

  • 随着这个领域的参与者数量逐年增长,顶会的接受率却基本上保持不变;此外培养优秀的审稿人通常需要数年时间,熟练的审稿人数量增长远远落后于投稿人的数量增长。而另一方面发表论文又关系着事业前景,于是就会有越来越多的研究人员害怕被竞争对手抛弃,并希望能够迅速地在某个领域竖立旗帜。这种竞争所带来的恐惧感可能会抑制研究人员去花时间进行细致地实证分析。

  • 当许多研究人员在某一问题或相关问题中并行工作时,即使每个人都在尽力避免,但这个领域也会出现多种假设检验的问题。

改革建议

久病难医,Ali Rahimi 等人在文中表示:「我们提出几条建议,抛砖引玉,希望以后大家以后多多讨论。」

实证评估标准    在目前的做法上,以下标准应当被鼓励、奖励,并最终成为实证工作中的要求:

  • 调优方法 应该通过网格搜索或引导优化方法对包括基线在内的所有模型进行关键超参调优,这应当作为出版物的一部分进行分享。

  • 切片分析 在整个测试集上进行精确度或 AUC 等性能的测量可能会掩盖其他重要结果,例如在一个区域的质量较高,而在另外一个区域的质量则较低。根据数据的不同维度或类别来分解评测指标,这是完整的实证分析的关键部分。

  • 消融研究 研究中应包括对以前基线的所有变化进行全面的消融研究,对每个组分的变化进行单独测试和组合测试。

  • 完整性检查和反事实 对模型行为的解释应有意识地进行完整性检查,例如对测试分布之外的反事实数据或反常数据进行分析。模型对具有不同背景的图像或具有不同人口统计分布的用户的数据的表现有多好?

  • 至少一个负例 由于「没有免费的午餐」理论仍然有效,研究人员去发现和报告新方法相比旧方法表现不好的区域非常重要。只展示成功的论文应当被质疑,甚至可能因此而拒绝接收。

共享实验笔记和记录    ML 研究人员大多不会像物理等领域那样把所有的结果记录下来。但作者建议研究人员将有关论文研究期间进行的所有实验的细节和时间都保存在电子文档中,这有助于追踪研究的发现、探索和结论的全过程;同时它也可以抵消多重假设检验和事后解释的问题。

改变论文格式    在一个以创新而著称的领域,我们的主要档案传播媒介仍然以优化纸张印刷为目的,这实在令人惊讶。让我们改变这种纸张格式吧!像 iPython 和 Colaboratory 1 这样的智能笔记本,不仅可以包含代码、数据,还可以包含文字的分析,我们为什么不采用这些来作为一流的出版媒介。

会议中论文页面往往限制了作者展示更完整的实证分析的能力,或者需要花费很多页面才能完成。如果不再让纸张印刷格式限制我们,那么对于评审员来说就可以查看更丰富的内容。为了避免泛滥使用这种自由格式,要求对每个实证结果的额外页面进行一次额外的审查以及适当的审查标准质量要求。

协作和贡献分配    要实现更加完整的实证评估和分析,一般需要大量的工作,可能更多的是一大组合作者共同完成。在目前的这种通过作者先后顺序来评定每个人做出贡献的大小显然是不够的。因此建议在每篇论文中有一个附录,简要概述每位作者的贡献,作为激励这种协作的解决方案之一。

评审和评审人员标准    评审质量是提高一个领域实证严谨性的关键因素。因此建议通过为评审人员创建更好的工具来帮助他们以及领域主席来执行更高要求的评审标准,例如可以直接在文本中添加注释,创建更完整的评审评论。另外还可以为那些由于资金短缺不能参加会议的优秀的评审员提供免费注册作为奖励。

场地选择    目前会议论文的接收率通常与会议场馆的实际大小有关。因此建议通过其他媒介(包括视频和视频会议)来进行更具创造性的工作,这样就可以更为灵活地为那些不是为了「wins」而是专注于其他问题(例如深度元分析)的论文提供了接收机会。

后  记

参加过 NIPS 2017 的人应该都清晰地记得当时人山人海的壮观。Ali Rahimi 当时在 NIPS 演讲中将这称为「large waves」。也许我们真的需要坐下来认真地讨论这些问题了。

可以想见,如果Ali Rahimi等人提出的这套建议真的得以执行,很多 ML 文章都会被拒绝,意味着很多人发不了 papers,毕不了业,找不到工作。但是,人工智能领域的成长或许真的需要壮士断腕了,当然最好是少流一点血。

雷锋网

Google 硬件部门终于将 Nest 纳入麾下,但为什么这么晚?

2014 年,Google 以 32 亿美元的价格收购了由 iPod 之父 Tony  Fadell 创办的新公司 Nest;后来在 2015 年,Google 公司整体架构变化为 Alphabet,而 Nest 和 Google 同时成为 Alphabet 的子公司,Nest 被独立在 Google 之外,在财报营收中也属于 Other Bets 部分。

时隔四年时间,Nest 终于与 Google 合体,成为后者硬件部门的一部分。

Nest 并入 Google 硬件部门

当地时间 2018 年 2 月 7 日,Google 负责硬件业务的高级副总裁 Rick Osterloh 与 Nest CEO  Marwan Fawaz 联合在 Google 官方博客发布消息称,Nest 正式并入 Google 硬件部门。

雷锋网了解到,Nest 成立于 2011 年,它是第一款产品是名为 Nest Thermostat 温控器,这是 Tony Fadell 离开苹果之后基于自己家庭的需求而创造出来的一款产品。Nest Thermostat 带有一款数字显示屏,可以自动调节空调和加热器,还可以在手机端和用户端进行编程。

2013 年,Google 投资了 Nest,这是双方结缘的开始;到了 2014 年,Nest 被 Google 收购,但保持独立运行,Tony Fadell 也加入 Google 。然而在 2016 年,Tony Fadell 离开 Nest,并将 Nest CEO 的职位传给了 Marwan Fawaz。

根据 Google 在官方博客中的说法,Nest 在 2017 年将产品品类翻了一倍,而且销量也超过了 2015 年和 2016 年的总和;而雷锋网查询到的另外一个数据是:从 2011 年诞生到现在,Nest 已经卖出了 1100 万台设备。

与此同时,Google 硬件团队在 2017 年卖出了数千万个硬件产品,包括 Google Home 系列智能音箱、Google Pixel 2 手机、Google Pixelbook、Chromecast 等产品。

基于这个背景,双方认为合并的时机到来了。

毫无疑问,在双方的合并计划中,人工智能是一个重要核心。Google 方面表示,双方将致力于将硬件、软件和服务整合在一起,创造一个安全智能、环境友好的家庭空间——并帮助用户省钱。更重要的是,Google 的人工智能技术将会被深度整合,尤其是 Google Assistant 更是核心中的核心。

另外伴随着这次合并,Nest CEO Marwan Fawaz 将向上文中提到的 Google 硬件高级副总裁 Rick Osterloh 汇报,而 Nest 的超过 1000 多名员工将与 Google 现有的硬件部门更加紧密地合作。

关于双方的合并,还有一个有趣的点:在担任现职之前,Rick Osterloh 曾经担任摩托罗拉总裁,而 Marwan Fawaz 在出任 Nest CEO 之前的职位是摩托罗拉副总裁,二人在摩托罗拉期间就已经是直接汇报关系,现在这个关系伴随着这一合并得以延续。

Nest 为何现在才被合并?

同样作为 Alphabet 这个大伞下的成员,Google 硬件部门和 Nest 其实在供应链、包装和发布方面早有合作。而且早在 2017 年 11 月《华尔街日报》就已经报道称 Google 正考虑将 Nest 纳入麾下,而 Marwan Fawaz 和 Rick Osterloh 也已经就合并问题进行了数月的沟通与协作。

但问题在于,既然 Google 早在 2016 年就确立了 Made By Google 的硬件业务,那么同样致力于硬件产品的 Nest,为什么到现在才与 Google 硬件部门合并?

在雷锋网看来,这个问题,可以从 Nest 发展过程中遇见的一些挫折中找到答案。

2014 年,在被 Google 以巨资收购之后,Nest 毫无疑问地获取了资金、人力资源、客户和法律支持等方面的诸多资源;但这时候,Nest 看上了一家打造家用摄像头的公司 Dropcam,在 Google 的支持下,它在 2014 年晚些时候以 5.55 美元的价格收购了 Dropcam,并将 Dropcam CEO Greg Duffy 纳入麾下。

看起来这是一个强强合作的故事,但随后带来的合并问题却重重打脸。Nest 管理层与 Dropcam 管理层在产品开发和管理风格上发生了重大冲突,Tony Fadell 希望对 Dropcam 的产品线进行改组,但 Greg Duffy 却想继续前进并开发新产品。

结果是,Greg Duffy 离开了 Nest,并在一片文章中表示将 Dropcam 卖给 Nest 是一个错误的决定。到 2015 年年底,Nest 从 Dropcam 原有团队中吸收的 100 名成员中,有一半都离开了 Nest.

而 Nest 在 2015 年销售额也远低于收购时的预期,几乎是预期额的一半。对于这个结果,外界分析称,Nest 过于重视对过去的产品进行迭代,而推迟了很多新产品的开发工作;换句话说,Dropcam 之前规划的很多产品开发工作都被严重推迟。这不仅仅是产品规划的问题,也是两个公司和团队磨合的问题。

2016 年,在对 Nest 感到厌倦之后,Tony fadell 也离开了 Nest,而曾经担任摩托罗拉移动副总裁的 Marwan Fawaz 接任 Nest CEO 一职。

即使是 Tony Fadell 自己也认为,在硬件方面的深厚积累使得 Fawaz 非常适合 Nest CEO 的角色,接下来的一年多时间里,Nest 推出了多款家庭摄像头产品,并在 2017 年推出了一款支持 Google Assistant 的摄像头 Nest Cam IQ,售价为 299 美元。

当然,关于 Marwan Fawaz 足以胜任 Nest CEO 的最好证据,还是 Nest 在 2017 年的销量成绩,这一成绩超过了 2016 年和 2015 年的销量总和;毫无疑问,这是一份优秀的成绩单。

如此来看,当 Nest 终于摆脱收购带来的负面影响、并已经在 Marwan Fawaz 的引领下走上一条上升之路时,其与 Google 团队的合并也具备了条件。Nest 将融入 Google 硬件部门并成为 Google 在智能家居布局的一部分,而 Google 硬件团队在吸收 HTC 的部分员工之后也将得以扩大,可以说是水到渠成了。

就是不知道,当 Rick Osterloh 再次成为 Marwan Fawaz 的汇报对象时,后者心中会怎么想。

雷锋网

热切拥抱中国 AI 热潮,404 也没能挡住 Google 的脚步

近段时间以来,Google 在中国市场的存在感倍增。无论是 2017 年 12 月的 Google 中国开发者大会和 Google AI 中国中心的成立,还是前不久宣布的 Google 深圳办公室,都让人们觉得这家科技巨头与中国的关系更加密切。

但这还不够,赶在春节到来之前的倒数第十天,Google 又在中国刷了一波存在感。

Google 爱上中国文化了

一个众所周知的事实是,如果不是 AlphaGo 在围棋领域与人类的对决,Google 在 AI 上的积累还难以获得今天的世界知名度。同样地,如果不是 AlphaGo 在 2017 年 5 月来到围棋的故乡与世界排名第一的中国选手柯洁进行的那场人机大战,Google 与中国走向彼此的速度也很难加快。

没有人能够想到,帮助 Google 拉近与中国距离的,居然是围棋。

Google 与中国围棋的故事,以 2017 年 12 月的【寻找围棋小先锋】全国青少年围棋推广活动为结尾告一段落,来到中国参加世界互联网大会的 Google CEO Sundar Pichai 也亲自出席了这一活动。Sundar Pichai 走了之后,Google 对中国文化的探索仍在继续。

这一次,是 Google Arts & Culture。

雷锋网曾经报道过,前不久,Google Arts & Culture 推出了一项【通过自拍来匹配世界名画中的人物肖像】的功能,这一功能推出之后,在 Twitter 上火爆一时,也帮助这个应用登顶 App Store 美国区免费榜单。值得一提的是,一位名为 Kate Stewart 的女子在使用这一功能时,居然匹配到了自己的曾外祖母的肖像。

而在 2018 年 2 月 6 日举行的 Think With Google 创想大会上,Google 方面表示,Google Arts & Culture 项目已经与包括故宫博物院、湖南省博物馆、苏州博物馆在内的中国 28 家合作伙伴进行合作,在互联网上展出 13000 件展品、超过 500 场在线展览以及 30 套 360 度全景图像,让任何人都能够通过虚拟方式参观博物馆。

此外,为了保护中国丰富却面临消失危险的手工艺品文化遗产,Google 与 6 家合作伙伴合作,利用 Google 的机器学习、VR、Art Camera 等技术将中国手工艺品和民俗中的精华数字化,生成了超过 40 场展览和 1800 件新工艺品,涉及的文化遗产包括剪纸工艺、桃花石雕刻和折扇艺术等。

不得不承认的是,虽然 Google Arts & Culture 在中国区尚且不能下载使用,但 Google 对于中国文化的热情令人敬畏。

AI 的民主化

在这次的 Think With Google 创想大会上,Google Cloud AI 研发主管李佳也出席并发表演讲,不过她现在的另外一个 Title 是 Google AI 中国中心总裁。

李佳在演讲中主要探讨的是 AI 赋能的问题。她表示,近年来的 AI 非常火,不过从 AI 研究到产品开发还需要一个过程,而 Google Cloud 扮演的就是这个角色,它可以帮助各行各业的产品开发与 AI 进行结合,比如说 AI + 教育、AI + 医疗等。

为了实现这一点,Google Cloud AI 平台提供了 TensorFlow、ML Engine、KubeFlow 等工具,而 KubeFlow 可以帮助用户在不同平台转换算法。对于一般开发者,Google 还提供了各类 ML API,包括云翻译、云图像、云自然语言处理、云求职、云语音等七类。

这时候,李佳提到了 Google 在 1 月份发布的 AutoML,她表示,AutoML 使用 Google 的 learning To learn 和迁移学习等先进技术,希望帮助 ML/AI 专业知识和能力有限的企业也能够使用 AI 技术构建定制化 AI 模型,降低 ML 的开发门槛,让尽可能多的开发者、企业和研究者能够使用 AI;而到目前为止,已经有一万多家用户在注册使用 AutoML。

在演讲中,李佳提到了 AutoML 的具体应用案例。比如说 Disney 使用它创建定制模型来识别商品图片,而伦敦动物学会使用 AutoML 来识别野生动物;此外,AutoML 还能够有效地识别云彩,以便用于气象等方面。李佳强调称,通过 AutoML 自动生成的模型比有些专家自行构造的模型效果还要好。

据雷锋网了解,目前 AutoML 推出的第一个项目为基于图像的 AutoML Vision。对此李佳表示,之所以首先推出 AutoML Vision,还是考虑到一年多前的需求调查和前沿研究,发现图像是整个机器学习应用需求最高的领域;未来 AutoML 还会延伸到语音、对话、自然语言处理等领域。

在采访环节,李佳告诉雷锋网,AutoML 是基于产品需求和技术发展结合的产品,也是 Google AI 产品化的结果,其目的就是让 AI 的成本尽可能降低;而类似于 AutoML 这样的 AI 技术的全面加持,也正是 Google Cloud 相对于亚马逊 AWS 和微软 Azure 等竞争对手的优势所在。

不过,在雷锋网看来,AutoML 之所以能够在这次创想大会中得到重点讲解,除了它本身可以展示 Google 的 AI 实力以外,Google 也是在借此机会吸引更多的中国企业能够了解并采用到 Google Cloud 云服务,这一点对于一些致力于实现 AI 转型、出海以及国际化的中国企业来说尤其重要。

另外,作为 Google AI 中国中心的总裁,李佳也采访环节也强调称,Google AI 中国中心仍然是致力于基础技术研究,这一研究与 AutoML 的关系并不大。

当然,除了 AutoML,Google 旗下的 TensorFlow 也少不了亮相。Google 方面表示,目前 TensorFlow 已经获得 1000 多万的下载量,用户遍及 1800 多个国家和地区;这其中,自然也少不了一大批中国企业,包括京东、小米、网易、360、知乎等。

帮助中国公司出海

一直以来,即使搜索业务在中国大陆无法使用,Google 在中国的业务都一直存在,只不过并不为大多数人所知;具体来说,就是利用旗下的 YouTube、Google Search 等一系列产品渠道,帮助中国企业做海外推广和营销。只不过到了 2018 年,这个业务被包装得更加不动声色,也更加具有吸引力。

是的,在这次创想大会上,Google 联合 BrandZ 发布了 2018 年中国出海品牌 50 强,排名前十的分别是联想、华为、阿里巴巴、小米、中国航空、Elex、Anker、海尔、海信、猎豹移动等企业。从具体排名上来看,中国出海品牌比较厉害的是在消费电子、网游、电商、家电等领域,澳大利亚和美国对中国品牌的认知度提升最大,日本最小。

当然,这个排名是结合了 Google 搜索指数和 Google Surveys 的问卷调查得出的。不过要想挖掘背后的动因,雷锋网认为,Google 自然还是希望有更多的中国出海品牌能够采用 Google 的广告营销方案,毕竟最新一季的 Alphabet 财报中,广告收入占据了总营收的 84.23%。

毫无疑问,随着中国技术和企业的发展,中国对于 Google 的重要性在不断加强。在开场环节,Google 大中华区总裁石博盟用了【幸之在华,亲历前沿】这样言语来表达他对中国发展的赞叹;也许这八个字有些许恭维的成分,但也能够反映出 Google 在发展过程中对自身与中国市场之关系的重新定位。

另外一个值得思考的问题是 AI。在 2016 年的 Google I/O 大会上,Google 宣称自己已经是 AI Frist 的公司;从 Google 近两年的动向来看,这不是一句口号,实际上 Google 旗下的几乎所有产品都打上了 AI 的烙印,包括 AutoML,也包括那个属于公益性质的 Google Arts & Culture 项目——正如石博盟在大会上说,Google 的目标是 AI for EVERYONE(让 AI 触手可及)。

所以其实很简单,如果少了中国,AI for EVERYONE 根本就是一个伪命题。

雷锋网

想知道你的航班会不会延误?问问 Google 吧!

雷锋网消息 Google 刚刚在它的航班预定搜索服务中新推出了两项功能:1、基于历史航班数据,预测航班将于何时出现延误;2、告诉顾客哪些服务和设施是不包含在基础经济舱票价中的。

不知你是否还记得,达美航空曾在2012年推出过“basic economy”机票——一种比传统经济舱还要便宜的机票。尽管这被指责为一种变相提高经济舱票价的手段,但美国航空公司和联合航空公司还是纷纷跟进,推出了“last class”机票。

basic economy 机票的真实面目

然而,令人眼花缭乱的机票定价带来了一个问题,顾客往往搞不清楚他们想买的机票到底包含了哪些服务。很有可能他们购买了廉价机票,最后却不得不为行李额外支付费用,否则便不能使用座位上方的行李舱。

好在现在 Google Flights 可以清楚显示各项未包含在机票中的额外收费了,这项服务在购买达美航空、美国航空和联合航空的机票时均可使用。

此外,Google Flights不仅会在航班延误时向你推送通知,告知你延误的具体原因,它还会提前预测航班是否将出现延误。

Google Flights 预测的航班延误情况

Google Flights 将通过机器学习分析历史航班数据,告诉顾客航班将于何时延误。Google 方面表示,它们只有在对预测结果有80%以上把握的情况下,才会对潜在的延误进行标记。

Google于2011年推出了Google Flights 服务,当时他们刚刚以7亿美元收购总部位于剑桥的飞行数据初创公司ITA Software。

Google Flights 可以通过预测机票将于何时涨价,帮助顾客抓住购票的最佳时机。预测航班延误,是在此基础上服务质量的又一次提升。

不过也有人认为,预测航班延误的功能不过是一种炫技,缺少实用价值。实际情况是,人们并不会根据航班是否延误的预测来决定自己的旅行计划。这项功能的唯一作用大概就是帮助旅客设定合理的心理预期,以免失望吧。

雷锋网编译  via venturebeat

雷锋网

Google 照片全景图,让你同时看 AI 的智能和智障

多数时候,糟糕的技术会让我们感到沮丧。但有时,它糟糕的呈现方式也会让人感到忍俊不禁。

Google 照片的全景图拼接技术就是如此。近日,Reddit 用户 MalletsDark 上传了一张由该技术处理过的照片,但没走寻常路,从全景图中看,他的一个朋友居然被叠加在了一丛树林和雪山的中间,看上去就像一个躲在峡谷中的“潜伏者”。

当然,这张图片现在看上去也像是脑洞大开但技术拙劣的 PS 图,不过, Malletsdark 澄清,这可都是 Google 干的好事,与他本人糟糕的 PS 技术无关。

这张照片本来是什么样的呢?

随后,他分享了这张谷歌照片全景图的源图像,总共有三张照片:一张是雪景图,另一张是远处的树林图,还有一张照片其实里面本来有两个人。

Google 图像软件在图库里发现这三张图像间彼此的相邻关系之后,于是通过自动合成,就提供了上述无厘头的全景图。

与这三张图片对比来看,可以肯定的是,Google 图片软件的算法在合成这三张照片上做得还是不错的。它不仅成功地将 MalletsDarker 左侧的一个朋友完全抹去了,而且更厉害的是,它还从另一张照片找了一丛树当前景,正好补上了空缺,另外,它甚至还剪去了两人背后的栏杆。

瑕疪也是有的,如果你仔细看右侧肩膀以下部分的话,但整体来说,整个边缘抓的比较准确,这对 AI 来说也还算说得过去。

不过,这并不代表软件的问题能够被忽视,比如,在最基本的层面,它并没有分辨出前景和背景,或者说分别辨认出树木和人,并且也没有掌握人类不可能比山还高这样的基本常识。

现在的情况,从某种角度来说,它的合成选择更像是 AI 自身的“品味”所致,然后就形成了这样一种离奇的“AI 艺术”风格,很多人就认为,它比正常合成的照片会好得多。

不难设想,在正常情况下,原来的照片应该是把背景延伸到拍摄对象的左右两边,这样的话,效果也明显不会像现在这样清奇,它更多只是一张看上去平淡、无趣的宽屏合成照片。

考虑到这些,也就不难理解这张图片居然还进入了 /r/funny Reddit 类目的前十,引得网友们纷纷来吐槽和调侃 Google 照片的“小儿科”自动全景图技术。

根据其他的 Redditors 在评论下分享的图片,雷锋网看到,全景图的画风还有更为惊悚的。

更多内容,欢迎关注雷锋网微信公众号:雷锋网(leiphone-sz)

雷锋网

Google 在中国深圳开了个新办公室,可能与硬件业务有关

雷锋网消息,1 月 17 日,Google 官方确认,继上个月宣布将在北京建立一个 Google AI 中国中心之后,这家科技巨头将在中国深圳开设一个新的办公室。

这则消息来自于 Google 发送给中国员工的一封内部邮件。这则内部邮件称,由于有不少中国员工经常需要到深圳出差,因此有员工提出在深圳建立一个新办公室的需求;经过几个月的处理, 目前这一办公室已经投入使用。

基于此消息,雷锋网向 Google 中国进行了求证,得到 Google 方面确认,对方回应称:

为了更好地与当地的合作伙伴沟通交流,我们在深圳开设了办公空间,为该地区的员工提供办公场所。 

Google 目前在中国的两个城市开设了办公室,这两个城市分别是上海和北京;这次在深圳开设办公室,Google 方面并没有说明它将承担哪些方面的业务。在雷锋网看来,Google 深圳办公室的开设可能与它的硬件业务有关。

目前,Google 正在着力推进的硬件业务,尤其是 Pixel 2 智能手机和 Pixelbook 电脑正在处于销售供货阶段(Pixel 2 也遭到了一些消费者的负面反馈),因此 Google 必然要派出不少人手去硬件代工厂,来负责相关产品的质量监测与物流交付等问题。鉴于深圳在全球硬件代工中的重要角色,Google 在深圳开设办公室的目的也就可想而知了。

另外,Google 在去年 9 月宣布了与 HTC 达成了协议,后者的手机业务的一部分以 11 亿美元的价格卖给了 Google,其中包括参与 Google Pixel 手机的员工。雷锋网查询到,HTC 在深圳也有自己的工厂,因此在这次协议中从 HTC 进入到 Google 的员工也有可能在深圳办公室工作。

雷锋网

凭借一个 AI 小功能,这款 Google 应用冲上苹果 App Store 榜首

在上一周的 CES 上,Google 凭借无处不在的广告强势地刷了一波存在感;结果 CES 刚走,Google 又凭借旗下的一款 App 成为国外社交媒体的热门话题。

不过这一次,Google 是无心的。

这款 App 的名称是 Google Arts and Culture,这是 Google 在 2016 年推出的一款应用,其目的就是让用户可以探索世界各地的文化艺术典藏以及相关故事。这款应用是完全免费的,但在推出之后一直不温不火。

结果在 1 个月前——也就是 2017 年 12 月中旬——推出的 6.0.16 版本中,Google 对这款应用进行了更新;更新重点是添加了一个有意思的小功能:用户可以通过一张自拍照,来寻找与自己容貌匹配度较高的艺术画作肖像。

具体来说,用户可以在下载 Google Arts and Culture 应用之后,在主页很容易找到相应的开始入口,然后拍摄一张自拍照并上传,Google 会利用计算机视觉技术将自拍照与 Google 服务器上存储的艺术作品进行识别匹配,最后给出相应的几个匹配项,并标明匹配作品的相关信息和匹配度。

当然,为了打消用户疑虑,Google 在用户上传自拍照时也特意表示不会将照片用于其他用途。

这个功能推出之后,开始逐渐受到用户们的喜爱,也推动 Google Arts and Culture 的下载量不断增加。雷锋网了解到,目前这款应用已经登上了苹果 App Store 美区和 Google Play 的免费榜榜首,不过在评论区有网友抱怨称上述自拍照匹配功能只针对某些地区开放,比如说,美国德克萨斯州和伊利诺斯州就用不了。

在海外社交媒体 Twitter 上,Google Arts and Culture 功能也迎来了一片关注和热议。有网友晒出自己的自拍匹配照来表达这款应用的喜爱,也有网友表达用不上这个功能的气愤……无论如何,Google Arts and Culture 成了热门话题。USA Today 在报道时称:

Google's art selfies are the talk of Twitter。

不过,正如你可能已经预料到的那样,这款应用目前暂时与中国用户无关,除非你懂得如何科学上网。

雷锋网