1分钟看懂TPU!谷歌内部技术深度揭秘!

TensorFlow与机器学习 徐 自远 691℃

1分钟看懂TPU!谷歌内部技术深度揭秘!

引力空间站 2018-09-03 11:34:55

我们生活在一个技术推动整个文明基石的时代。但是,尽管拥有所有辉煌的发明和技术进步,今天世界比以往更倾向于速度和敏捷性。我们已经从传统的有线拨号互联网连接转移到第四代无线网络。光纤的广泛分布使得连接到互联网并以快速的速度访问数据成为可能。同样,当涉及到处理器和GPU时,我们已经从仅包含6000个晶体管的传统8位8080微处理器芯片转变为时钟速度高达1.7 GHz的最先进的Octa核心处理器。嗯,这肯定提升了即将推出的技术的标准。

作为世界领先的技术领先公司之一,谷歌推出了高速定制机器学习芯片Tensor Processing Units(TPU),从而提高了标准。这些芯片最初是在2016年5月由该公司进行的 I/O 开发者大会上推出的。但谷歌对TPU的了解并不多,原因很明显。然而,该公司最近发布了一篇文章,其中包含对TPU的深入分析。您可以阅读该论文以获得详细摘要。在这篇博客中,我们将向您展示Google揭示的芯片的主要亮点。

什么是TPU?

Tensor Processing Units或TPU是由Google设计的定制机器学习芯片,用于成功执行其常规机器学习工作负载。 谷歌现在正致力于实施这些TPU,而不是使用CPU,GPU和两者的组合,据称这些TPU比标准CPU和GPU快15-30倍。 此外,在功耗方面,这些芯片的TeraOps /瓦特高出30到80倍。

发展历史

谷歌透露,该公司并不知道公司的额外硬件资源可以像TPU一样有用和强大。早在2006年,该公司就开始寻找新的方法来有效利用其过多的硬件资源,包括GPU,FPGA芯片和ASIC。在未来几年内,Google Datacenters进行了大量实验。但是,主要的转变发生在2013年,当时DNN越来越受欢迎,并且在未来几年它应该会更大。谷歌推断,如果发生这种情况,公司可用的硬件资源将不足以满足增强的计算要求。就在那时,公司开始着手一个高优先级项目,设计一系列定制ASIC芯片,以更低的功耗和更快的速度处理更多的任务。这些定制ASIC芯片被谷歌称为“Tensor Processing Units”。

TPU芯片旨在用于处理其内部操作,以便通过先进的机器学习算法为用户改进其云平台。虽然谷歌目前不太可能在其自己的云平台之外推出TPU,但它确实展示了通向世界的道路并为新发明铺平了道路。

TPU 3.0与Edge TPU

2016年5月的谷歌I/O大会,谷歌首次公布了自主设计的TPU,2017年谷歌I/O大会,谷歌宣布正式推出第二代TPU处理器,在今年的Google I/0 2018大会上,谷歌发布了新一代TPU处理器——TPU 3.0。TPU 3.0的性能相比目前的TPU 2.0有8倍提升。

在7月份的Next 云端大会,谷歌又发布了 Edge TPU 芯片抢攻边缘计算市场。虽然都是 TPU,但边缘计算用的版本与训练机器学习的 Cloud TPU 不同,是专门用来处理AI预测部分的微型芯片。Edge TPU可以自己运行计算,而不需要与多台强大计算机相连,因此应用程序可以更快、更可靠地工作。它们可以在传感器或网关设备中与标准芯片或微控制器共同处理AI工作。

1分钟看懂TPU!谷歌内部技术深度揭秘!http://t.jinritoutiao.js.cn/drnve1/

转载请注明:徐自远的乱七八糟小站 » 1分钟看懂TPU!谷歌内部技术深度揭秘!

喜欢 (0)

苏ICP备18041234号-1 bei_an 苏公网安备 32021402001397号