MLPerf 的研究者和工程师们发布了第一个淘汰赛的竞赛结果,其中测量了多种机器学习任务在主流机器学习硬件平台上的训练时间,还包括 Google 的 TPU、英特尔的 CPU 和英伟达的 GPU。其测试基准如下:通过这次竞赛,MLPerf 产生了堵塞专区 V0.5 版本,其结果如下:从结果来看,英伟达在其递交的六个 MLPerf 基准测试结果中获得了最佳性能,其中还包括图像分类、目标实例拆分、目标检测、非循环翻译成、循环翻译成和引荐系统——从而沦为仅次于赢家。利用 Cloud TPU v3 Pod,Google 五局三败2019 年 7 月 10 日,MLPerf 第二淘汰赛的竞赛结果发布,其测试标准如下:基于这轮竞赛结果的堵塞专区 V0.6 版本如下:可以看见,根据 MLPerf 堵塞专区 0.6 版本所呈现出的结果,在基于 Transformer 和 SSD 模型的基准测试项目中,Google Cloud TPU 比英伟达预置 GPU 的最佳展现出高达了多达 84%。另外,基于 ResNet-50 模型,Google Cloud TPU 也比英伟达预置 GPU 稍微落败。
在本次竞赛中,协助 Google 落败的,是 Cloud TPU v3 Pod。Cloud TPU v3 Pod 是 Google 发售的第三代可拓展云端超级计算机,其核心特征就是内置了 Google 自律打造出的 TPU 处理器。2019 年 5 月,Google 在 I/O 开发者大会上宣告了它的正式版并展开了公开发表预览。
据(公众号:)理解,每一个 Cloud TPU 最低可包括 1024 个分开的 TPU 芯片,这些芯片通过二维环形网状网络连接,TPU 软件堆栈用于该网络通过各种高级 API 将多个机架作为一台机器展开编程;用户还可以利用 Cloud TPU Pod 的一小部分,称作“切片”。Google 方面回应,近期一代 Cloud TPU v3 Pod 使用了液冷式设计,可实现最佳性能;每一个都获取多达 100 petaFLOP 的计算能力;Google 也堪称,就每秒完整数学运算而言 Cloud TPU v3 Pod 与全球五大超级计算机非常,尽管它的数值精度较低。
借着这次在 MLPerf 第二次结果中出风头的机会,Google 也不忘在官网点评一下 Cloud TPU v3 Pod 的最新进展。比如说,Recursion Pharmaceuticals 是一家运用计算机视觉技术来处置细胞图像,通过分析细胞特征来评估疾病细胞药后反应结果的公司;以往该公司在通过本地 GPU 训练模型时必须 24 小时,但利用 Cloud TPU Pod,只必须 15 分钟就可以已完成。
当然,在显然,作为一个典型的技术为首,Google 之所以如此着力前进 Cloud TPU 的进展,当然也是期望有更加多的开发者参予其中——却是云计算是当前 Google 尤为推崇的业务之一。原创文章,予以许可禁令刊登。下文闻刊登须知。
本文关键词:在,机器,8688体育官网,学习,领域,的,华山论剑,中,Google,打
本文来源:8688体育官网-www.eventsbysm.com