TPU究竟是什么,它的优点有哪些,如何实现对深度学习模型的训练?如何在TPU上运行tensorflow或pytorch模型? 有什么限制?

作者:禅与计算机程序设计艺术

1.简介

在这篇博文中,我将阐述Google的Cloud TPUs (Tensor Processing Unit)的用途、特性、性能、适应性以及如何利用Cloud TPUs来训练大规模的深度卷积神经网络(CNN)。通过本篇博文,读者可以了解到TPU究竟是什么,它的优点有哪些,如何实现对深度学习模型的训练?另外,也会了解到如何在TPU上运行tensorflow或pytorch模型,最后介绍了TPU的一些限制,以及可能遇到的一些问题。

首先,让我们回顾一下深度学习的历史及其发展过程(存疑):

1943年,Neuraonal NetWork公司(NNW)发明了著名的“图灵机”概念。
1957年,海涅克·马库斯·内森(Hayden McKee)等人开发出了首个能够学习的机器学习系统——模拟退火算法(Simulated Annealing algorithm)。
1969年,约翰·麦卡洛克·莱因哈特(John McCarthy Lee)提出了著名的反向传播算法(Backpropagation algorithm)。
1986年,Bengio、LeCun、Hinton三人发表论文《Gradient-Based Learning Applied to Document Recognition》,阐述了深度学习的理论基础。
1998年,深度置信网络(DBN)问世。
2010年,深度学习的主要框架出现——自然语言处理中的卷积神经网络(Convolutional Neural Network, CNN)。
2012年,AlexNet问世。
2014年,谷歌团队发表论文《超越imagenet分类任务的imagenet识别挑战》,

猜你喜欢

转载自blog.csdn.net/universsky2015/article/details/132222915
今日推荐