作者:_快樂Smile_903 | 来源:互联网 | 2023-01-05 12:17
比较模型与其存储的protobuf版本(通过此转换脚本)时,我在输出上存在差异。为了调试,我分别比较了这两层。对于测试序列中的权重和实际图层输出,我会收到相同的输出,因此我不确定如何访问隐藏图层。
这是我如何加载图层
input = graph.get_tensor_by_name("lstm_1_input_1:0")
layer1 = graph.get_tensor_by_name("lstm_1_1/kernel:0")
layer2 = graph.get_tensor_by_name("lstm_1_1/recurrent_kernel:0")
layer3 = graph.get_tensor_by_name("time_distributed_1_1/kernel:0")
output = graph.get_tensor_by_name("activation_1_1/div:0")
这是我认为显示各个元素的方式。
显示重量:
with tf.Session(graph=graph) as sess:
print sess.run(layer1)
print sess.run(layer2)
print sess.run(layer3)
显示输出:
with tf.Session(graph=graph) as sess:
y_out, l1_out, l2_out, l3_out = sess.run([output, layer1, layer2, layer3], feed_dict={input: X_test})
使用此代码sess.run(layer1) == sess.run(layer1,feed_dict={input:X_test})
,这不应该是真实的。
有人可以帮我吗?