电子说
到底该选择TensorFlow还是Keras,是深度学习初学者经常纠结的一个问题。数据科学家Aakash Nain比较了TensorFlow和Keras,希望有助于选择合适的框架。
深度学习库/框架流行度(来源:Google)
深度学习无处不在,大量的深度学习库让初学者无所适从。这篇文章重点关注TensorlFlow和Keras两者之间的选择。TensorFlow是最著名的用于深度学习生产环境的框架。它有一个非常大非常棒的社区。然而,TensorFlow的使用不那么简单。另一方面,Keras是在TensorFlow基础上构建的高层API,比TF(TensorFlow的缩写)要易用很多。
既然Keras基于TensorFlow,那么两者有何区别?既然Keras对用户更友好,为什么我还需要使用TF来构建深度学习模型呢?下面一些内容将帮助你做出选择。
快速开发原型
如果你想快速创建、测试一个神经网络,写尽可能少的代码,那么选择Keras。花不了多少分钟,你就能用Keras创建简单或很复杂的神经网络。Model和Sequential API如此强大,基本上能做到你可能想要做的任何事情。让我们看一个例子吧:
model = Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
loss='binary_crossentropy',
metrics=['accuracy'])
# 生成虚假数据
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))
# 训练模型,迭代数据(每个batch包含32个样本)
model.fit(data, labels, epochs=10, batch_size=32)
收工!!就是这么容易!
没有人不喜欢Pythonic!!
Keras的开发设计注重用户友好,因而某种意义上它更加pythonic。模块化是Keras的另一个优雅的设计指导原则。Keras中的任何东西都可以表示为模块,用户可以根据需要将其进一步组合。
弹性
有时候你不想用现成的东西,想要自己定义一些东西(比如,损失函数、测度、网络层,等等)。
尽管Keras 2的设计让你可以实现几乎所有你想要的东西,但是我们都知道底层的库提供了更多弹性。TF同样如此。相比Keras,TF允许你进行更多调整。
功能性
尽管Keras提供了创建深度学习模型一般所需的所有功能性,它还是不如TF提供得多。相比Keras,TensorFlow提供更多高级操作。当你从事研究或开发特殊种类的深度学习模型时,这一点是十分便利的。下面是一些例子:
线程和队列
队列是一个强大的机制,可以异步地计算图中的张量。类似地,你可以使用多个线程执行同一会话,通过并行运算加速操作。下面是一个在TensorFlow中使用队列和线程的简单例子:
# 创建图,等等。
init_op = tf.global_variables_initializer()
# 创建会话,以运行图中的操作。
sess = tf.Session()
# 初始化变量(比如epoch计数器)
sess.run(init_op)
# 开始输入入队线程。
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess=sess, coord=coord)
try:
whilenot coord.should_stop():
# 运行训练步骤,等等
sess.run(train_op)
except tf.errors.OutOfRangeError:
print('训练完毕——达到epoch限制')
finally:
# 结束时,请求停止线程
coord.request_stop()
# 等待线程终止。
coord.join(threads)
sess.close()
调试器
TensorFlow有一个专门的调试器,为内部结构和正在运行的TensorFlow图的状态提供了可见性。从调试器获得的洞见可以加速调试训练和推断阶段的多种bug。
TensorFlow调试器截屏(来源:TensorFlow文档)
控制
就我的经验而言,你对神经网络的控制越多,你对神经网络在做什么的理解就更深。TF让你可以更多地控制神经网络。在TF中对权重和梯度进行操作有如神助。
例如,假设你的模型有三个变量,比如w、b、step,你可以选择变量step是否可以训练。你只需写一行代码就可以办到:
step = tf.Variable(1, trainable=False, dtype=tf.int32)
在训练阶段,梯度可以提供大量信息。你想控制梯度?当然可以,看下面的例子:
# 创建优化器
optimizer = GradientDescentOptimizer(learning_rate=0.1)
# 为一组变量计算梯度
grads_and_vars = opt.compute_gradients(loss, )
# grads_and_vars是一个元组的列表(梯度, 变量)。
# 你可以随意对梯度部分进行操作,比如,每项减1.
subtracted_grads_and_vars = [(gv[0] - 1.0, gv[1]) for gv in grads_and_vars]
# 请求优化器应用减一后的梯度。
optimizer.apply_gradients(subtracted_grads_and_vars)
(以上代码样例取自 CS 20SI: TensorFlow for Deep Learning Research)
结论(TL;DR)
除非你正从事研究性质的工作或开发某种特殊种类的神经网络,选择Keras(相信我,我是一个Keras党!!)使用Keras快速构建非常复杂的模型仍然超容易。
如果你想要更精细地控制你的网络,或者想要仔细查看你的网络发生了什么,那么TF是正确的选择(不过有时TF的语法会让你做噩梦的)。不过,现在TF已经集成了Keras,所以更明智的做法是使用tf.contrib.Keras创建你的网络,然后根据需要在你的网络中插入纯TensorFlow。简而言之,
tf.contrib.keras +tf =你所需要的一切
全部0条评论
快来发表一下你的评论吧 !