在上一篇文章中《Tensorflow加载预训练模型和保存模型》,我们学习到如何使用预训练的模型。但注意到,在上一篇文章中使用预训练模型,必须至少的要4个文件:
checkpoint
MyModel.meta
MyModel.data-00000-of-00001
MyModel.index
这很不便于我们的使用。有没有办法导出为一个pb文件,然后直接使用呢?答案是肯定的。在文章《Tensorflow加载预训练模型和保存模型》中提到,meta文件保存图结构,weights等参数保存在data文件中。也就是说,图和参数数据时分开保存的。说的更直白一点,就是meta文件中没有weights等数据。但是,值得注意的是,meta文件会保存常量。我们只需将data文件中的参数转为meta文件中的常量即可!
1 模型导出为一个文件
1.1 有代码并且从头开始训练
Tensorflow提供了工具函数tf.graph_util.convert_variables_to_constants()
用于将变量转为常量。看看官网的描述:
if you have a trained graph containing Variable ops, it can be convenient to convert them all to Const ops holding the same values. This makes it possible to describe the network fully with a single GraphDef file, and allows the removal of a lot of ops related to loading and saving the variables.
我们继续通过一个简单例子开始:
import tensorflow as tf
w1 = tf.Variable(20.0, name="w1")
w2 = tf.Variable(30.0, name="w2")
b1= tf.Variable(2.0,name="bias")
w3 = tf.add(w1,w2)
#记住要定义name,后面需要用到
out = tf.multiply(w3,b1,name="out")
# 转换Variable为constant,并将网络写入到文件
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
# 这里需要填入输出tensor的名字
graph = tf.graph_util.convert_variables_to_constants(sess, sess.graph_def, ["out"])
tf.train.write_graph(graph, '.', './checkpoint_dir/graph.pb', as_text=False)
执行可以看到如下日志:
Converted 3 variables to const ops.
可以看到通过tf.graph_util.convert_variables_to_constants()
函数将变量转为了常量,并存储在graph.pb文件中,接下来看看如何使用这个模型。
import tensorflow as tf
with tf.Session() as sess:
with open('./checkpoint_dir/graph.pb', 'rb') as graph:
graph_def = tf.GraphDef()
graph_def.ParseFromString(graph.read())
output = tf.import_graph_def(graph_def, return_elements=['out:0'])
print(sess.run(output))
运行结果如下:
[100.0]
回到tf.graph_util.convert_variables_to_constants()
函数,可以看到,需要传入Session对象和图,这都可以理解。看看第三个参数["out"]
,它是指定这个模型的输出Tensor
。
1.2 有代码和模型,但是不想重新训练模型
有模型源码时,在导出模型时就可以通过tf.graph_util.convert_variables_to_constants()
函数来将变量转为常量保存到图文件中。但是很多时候,我们拿到的是别人的checkpoint文件,即meta、index、data等文件。这种情况下,需要将data文件里面变量转为常量保存到meta文件中。思路也很简单,先将checkpoint文件加载,再重新保存一次即可。
假设训练和保存模型代码如下:
import tensorflow as tf
w1 = tf.Variable(20.0, name="w1")
w2 = tf.Variable(30.0, name="w2")
b1= tf.Variable(2.0,name="bias")
w3 = tf.add(w1,w2)
#记住要定义name,后面需要用到
out = tf.multiply(w3,b1,name="out")
# 转换Variable为constant,并将网络写入到文件
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
saver = tf.train.Saver()
# 这里需要填入输出tensor的名字
saver.save(sess, './checkpoint_dir/MyModel', global_step=1000)
此时,模型文件如下:
checkpoint
MyModel-1000.data-00000-of-00001
MyModel-1000.index
MyModel-1000.meta
如果我们只有以上4个模型文件,但是可以看到训练源码。那么,将这4个文件导出为一个pb文件方法如下:
import tensorflow as tf
with tf.Session() as sess:
#初始化变量
sess.run(tf.global_variables_initializer())
#获取最新的checkpoint,其实就是解析了checkpoint文件
latest_ckpt = tf.train.latest_checkpoint("./checkpoint_dir")
#加载图
restore_saver = tf.train.import_meta_graph('./checkpoint_dir/MyModel-1000.meta')
#恢复图,即将weights等参数加入图对应位置中
restore_saver.restore(sess, latest_ckpt)
#将图中的变量转为常量
output_graph_def = tf.graph_util.convert_variables_to_constants(
sess, sess.graph_def , ["out"])
#将新的图保存到"/pretrained/graph.pb"文件中
tf.train.write_graph(output_graph_def, 'pretrained', "graph.pb", as_text=False)
执行后,会有如下日志:
Converted 3 variables to const ops.
接下来就是使用,使用方法跟前面一致:
import tensorflow as tf
with tf.Session() as sess:
with open('./pretrained/graph.pb', 'rb') as graph:
graph_def = tf.GraphDef()
graph_def.ParseFromString(graph.read())
output = tf.import_graph_def(graph_def, return_elements=['out:0'])
print(sess.run(output))
打印信息如下:
[100.0]
2 模型接口设置
我们注意到,前面只是简单的获取一个输出接口,但是很明显,我们使用的时候,不可能只有一个输出,还需要有输入,接下来我们看看,如何设置输入和输出。同样我们分为有代码并且从头开始训练,和有代码和模型,但是不想重新训练模型两种情况。
2.1 有代码并且从头开始训练
相比1.1中的代码略作修改即可,第6行代码处做了修改:
import tensorflow as tf
w1 = tf.Variable(20.0, name="w1")
w2 = tf.Variable(30.0, name="w2")
#这里将b1改为placeholder,让用户输入,而不是写死
#b1= tf.Variable(2.0,name="bias")
b1= tf.placeholder(tf.float32, name='bias')
w3 = tf.add(w1,w2)
#记住要定义name,后面需要用到
out = tf.multiply(w3,b1,name="out")
# 转换Variable为constant,并将网络写入到文件
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
# 这里需要填入输出tensor的名字
graph = tf.graph_util.convert_variables_to_constants(sess, sess.graph_def, ["out"])
tf.train.write_graph(graph, '.', './checkpoint_dir/graph.pb', as_text=False)
日志如下:
Converted 2 variables to const ops.
接下来看看如何使用:
import tensorflow as tf
with tf.Session() as sess:
with open('./checkpoint_dir/graph.pb', 'rb') as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
output = tf.import_graph_def(graph_def, input_map={'bias:0':4.}, return_elements=['out:0'])
print(sess.run(output))
打印信息如下:
[200.0]
也就是说,在设置输入时,首先将需要输入的数据作为placeholdler,然后在导入图tf.import_graph_def()
时,通过参数input_map={}
来指定输入。输出通过return_elements=[]
直接引用tensor的name即可。
2.2 有代码和模型,但是不想重新训练模型
在有代码和模型,但是不想重新训练模型情况下,意味着我们不能直接修改导出模型的代码。但是我们可以通过graph.get_tensor_by_name()
函数取得图中的某些中间结果,然后再加入一些逻辑。其实这种情况在上一篇文章已经讲了。可以参考上一篇文件解决,相比“有代码并且从头开始训练”情况局限比较大,大部分情况只能是获取模型的一些中间结果,但是也满足我们大多数情况使用了。